PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Verständnisfrage: Deep Field - Bilder stacking Astrofotografie


corenight
30.07.2013, 00:28
Hallo Zusammen

ich habe mal eine Verständnisfrage, da ich es einfach nicht wirklich verstehe.. So wie es aussieht...

Ich interessiere mich sehr für Astromonie und hab wohl schon dutzende Dokunentationen bezüglich Universum, Galxien etc. geschaut. Ein grosses Thema dabei natürlich immer das Hubble-Teleskop.

In der letzten Doku welche ich schaute kam das Deep Field Projekt wieder einmal zur Sprache. Dabei hat das Hubble Teleskop sehr viele bilder vom selben dunklen Fleck des Universums gemacht welche dan durch Stacking eine fülle von Galaxien präsentierte. (unter google bilder einfach mal Deep Field Hubble eingeben)
Bei der Astofotografie mit den DSLR's macht man das ja auch so um mehr Details zu erhalten von einem Sternenhimmel.

Meine Frage: Wie zum Teufel geht das? Mir ist schon klar, daas ein kleines Licht 100 mal aufgenommen gestackt ein helleres Licht gibt. Aber wie kann aus einem Bild mit der Information "schwarz" durch stacking auf einmal die Information "überall Galaxien" entstehen? Wenn man ein Bild macht bei dem nichts zu sehen ist und mann davon 2000 Bilder macht sollte das Ergebnis doch nachwievor nichts sein?

So wie ich das verstanden habe ist dem aber nicht so. Oder bin ich da komplett auf dem Holzweg?

Wäre toll wenn mir hier jemand "Licht ins Dunkle" bringen könnte ;o)

Grüsse Claudio

fotomartin
30.07.2013, 05:36
Hallo Claudio,

es ist eben nicht so, dass diese fernen Galaxien NICHTS auf dem Bildsensor von Hubble hinterlassen, aber das wenige empfangene licht geht im rauschen unter (und wird dann von der Rauschreduzierung glatt gebügelt, so das du nichts mehr siehst). Mit den vielen aufnahmen machen die quasi Multiframe noise Reduction und können dabei evtl. auch noch eine höhere ISO realisieren. Durch die vielen Bilderkann das statistisch normalverteilte Rauschen entfernt werden und die Galaxien bleiben übrig.

Viele Grüße,
Martin

TONI_B
30.07.2013, 06:50
Nachdem Licht - zumindest im sog. Teilchenbild - aus einzelnen Photonen besteht, die rein statistisch verteilt aus den Tiefen des Universums kommen, kann man durch Addition vieler Aufnahmen ein wesentlich besseres Signal-Rausch-Verhältnis erhalten.

Nehmen wir eine sehr schwache Galaxie, die uns im Mittel(!) ein Photon pro Minute schickt. Wenn du jetzt mehrere Aufnahmen mit beispielsweise einer Minute Belichtungszeit machst, wird diese Galaxie auf manchen Aufnahmen gar nicht belichtet, auf manchen wird ein Photon etwas ausrichten und auf einigen wenigen Aufnahmen werden sogar zwei oder drei Photonen "arbeiten". Beim Himmelshintergrund sieht es ähnlich aus, nur dass der in Summe(!) noch weniger Beitrag liefert, zB. alle zwei Minuten ein Photon an gerade dieser Stelle, wo sich die Galaxie befindet. Mit nur einer Aufnahme könnte die Galaxie zufälligerweise ein Photon mehr liefern als der Hintergrund, viel wahrscheinlicher aber ist an dieser Stelle gar nichts oder sogar ein Photon des Hintergrundes mehr als von der Galaxie. Durch Addition vieler Aufnahmen (zB. 100 x 1Minute) bekommt man an der Stelle der Galaxie ein Signal-Rausch-Verhältnis von 2: 100 Photonen von der Galaxie und 50 Photonen vom Hintergrund! Und siehe da, man hat ein deutliches Bild der Galaxie!

Alles klar?

mrieglhofer
30.07.2013, 08:14
Was mir aber nicht klar ist, warum das bei einer Langzeitaufnhame nicht geht. Eigentlich müsste sich dort ja die statistisch verteilten Photonen genauso gleich massig verteilen und die Nutzdaten auch davon abheben. Oder wird das anders verrechnet? Langzeit wäre ja auch nur eine Addition der Einzelbilder.

SuperTex
30.07.2013, 08:20
Mit den vielen aufnahmen machen die quasi Multiframe noise Reduction und können dabei evtl. auch noch eine höhere ISO realisieren.Wieviel ISO hat denn Hubble so?

SuperTex
30.07.2013, 08:25
Alles klar?
Nein, warum belichtet man nicht einfach 1*100 min und spart sich dabei 100 mal das Ausleserauschen?

André 69
30.07.2013, 08:41
Hi,

es gibt keinen "Idealen Sensor" ohne jedes rauschen, macht man aber mehrere Aufnahmen, so lässt sich dieses statistisch rausrechnen, da das Rauschen im Gegensatz zum Nutzsignal eher zufällig verteilt ist.

http://de.wikipedia.org/wiki/Hubble_Ultra_Deep_Field hier steht was von 800 Aufnahmen / 11,3 Tage, also ca. 20min pro Bild

Gruß André

TONI_B
30.07.2013, 09:14
Tja, die Fragen sind berechtigt, aber wenn man sich mit der Statistik des Rauschens beschäftigt, sollte es klarer werden:

http://www.astro.uni-bonn.de/~mischa/datareduction/noise.html

Es hat natürlich auch praktische Gründe, warum man nicht allzu lange belichten will bzw. kann: bei den Amateuren sind es die Lichtverschmutzung und die mechanischen Unzulänglichkeiten. Da ist es viel einfacher mehrere Belichtungen zu machen und die zu addieren. Beim Hubble ist es die Umlaufbahn um die Erde, die sehr lange Belichtungszeiten verhindert.

SuperTex
30.07.2013, 09:41
Hi,

es gibt keinen "Idealen Sensor" ohne jedes rauschen, macht man aber mehrere Aufnahmen, so lässt sich dieses statistisch rausrechnen, da das Rauschen im Gegensatz zum Nutzsignal eher zufällig verteilt ist.
Aber 100 mal Auslesen ist 100 mal Rauschen. 100 mal länger Belichten und einmal Auslesen wäre einmal Ausleserauschen und 100 mal mehr Signal, oder?

SuperTex
30.07.2013, 09:43
Beim Hubble ist es die Umlaufbahn um die Erde, die sehr lange Belichtungszeiten verhindert.
Warum? Die Region für die Deep Field Aufnahmen wurde doch gerade so ausgewählt, dass sie ohne Unterbrechung von Hubble aus zu sehen ist (continuous viewing zones, CVZs).

Dat Ei
30.07.2013, 09:51
Moin, moin,

man sollte auch das thermische Rauschen in Betracht ziehen. Mit längeren Belichtungen steigt die Temperatur der Chips. Hier an Board kennen wir noch allzu gut den FoSi-Bug der Dimage A1.


Dat Ei

SuperTex
30.07.2013, 10:17
Bei Hubble sollte die Temperatur der Chips doch eher konstant sein, oder?

TONI_B
30.07.2013, 10:19
Auch wenn die Temperatur konstant ist (irgendwo bei -80°C) rauscht der Sensor.

SuperTex
30.07.2013, 10:20
Ja, aber er rauscht beim Auslesen, egal ob ich 1 min oder 100 min belichte.

André 69
30.07.2013, 10:29
Hi,

Aber 100 mal Auslesen ist 100 mal Rauschen. 100 mal länger Belichten und einmal Auslesen wäre einmal Ausleserauschen und 100 mal mehr Signal, oder?

ich bin mir nicht ganz sicher, warum Du auf Ausleserauschen rumreitest, denn das spielt in der Rechnung zwischen Nutzsignal und Rauschen allgemein ganz sicher eine untergeordnete Rolle.
Ich weiß nicht wie groß die Differenz zwischen Nutzsignal und Rauschen ist, aber mit vielen Bildern dürfte dieser Abstand nach einer e-Funktion immer besser werden.

@ Claudio, es gibt auch im weiten Weltall keinen idealen Raum wo das Vakuum perfekt ist, genauso gibt es kein perfektes Dunkel - wenn aber nur ein Photon pro Minute Deine Netzhaut trifft, so nimmt man das einfach nicht wahr. Es werden also durch die in Summe sehr langen Belichtungszeiten einfach mehr Photonen eingesammelt. Da der Sensor aber rauscht wird versucht das Fehlsignal rauszurechnen, und das geht mit mehreren Bildern, da vereinfacht gesagt die "Nutzphotonen" immer an der gleichen Stelle auf dem Sensor landen, während das Rauschen statistisch auf dem Sensor verteilt ist.
Ich hoffe es trägt zum Verständnis bei, auch wenn es evtl. nicht 100% korrekt ist.

Gruß André

Justus
30.07.2013, 10:50
Aber 100 mal Auslesen ist 100 mal Rauschen. 100 mal länger Belichten und einmal Auslesen wäre einmal Ausleserauschen und 100 mal mehr Signal, oder?

Im ersten Fall hast du aber, vereinfacht gesagt, 100 mal anders verteiltes zufälliges Rauschen, so dass sich dieses gegenseitig überlagert und du im gestackten Endbild quasi nur 1/100 Rauschen hast. Bei einer einzigen 100 mal so langen Belichtung hast du nur ein einziges Rauschen das dafür 100 mal so stark ist.

Die Alpha SLT55 (und andere sicherlich auch) können etwas ähnliches bei ISO 25600 Multiframe: Sie machen dann fünf Fotos, stacken diese intern schnell, um das Rauschen so "plattzurechnen".

Gruß
Justus

SuperTex
30.07.2013, 10:58
Hi,



ich bin mir nicht ganz sicher, warum Du auf Ausleserauschen rumreitest, denn das spielt in der Rechnung zwischen Nutzsignal und Rauschen allgemein ganz sicher eine untergeordnete Rolle.

Das Ausleserauschen guter CCDs beträgt ca. 2 e-RMS (Elektronenladungen). Wenn ich in einer 1 min Aufnahme nur ein oder zwei Elektronen Signal erhasche, dann kann ich das Signal vom Rauschen nicht unterscheiden. Wenn ich hundert mal länger belichte, habe ich 100-200 Elektronen und immer noch 2 e-RMS Ausleserauschen, also ein Signal-Rausch-Verhältnis von 50.

Ich weiß nicht wie groß die Differenz zwischen Nutzsignal und Rauschen ist, aber mit vielen Bildern dürfte dieser Abstand nach einer e-Funktion immer besser werden.

e-Funktion? Warum?

TONI_B
30.07.2013, 11:20
Es ist keine e-Funktion. Es geht mit einer Wurzel-Funktion (siehe mein link von vorher). Das Ausleserauschen wird durch ein sog. Bias-Bild rausgerechnet. Die EBV in der (Profi)-Astronomie ist nicht so einfach wie hier von so manchen suggeriert wird.

Neben den "Hell"-Bildern werden die bekannten "Dark"-Bilder gemacht. Weiters kommen dann noch die "Bias"- und "Flat"-Bilder dazu. Durch Dithering bzw. Drizzeling kann man noch mehr rausholen.

Und da sich das Addieren von vielen Bildern mit oben genannten speziellen Zusatz-Bildern bestens bewährt hat, wird es schon seine Richtigkeit haben...:cool:

Und wer die Astro-Bilder (egal ob vom Profi oder vom Amateur) aus der analogen Zeit kennt und mit jenen Bildern vergleicht, die jetzt möglich sind, wird mehr als erstaunt sein.

SuperTex
30.07.2013, 11:31
Es ist keine e-Funktion. Es geht mit einer Wurzel-Funktion (siehe mein link von vorher). Das Ausleserauschen wird durch ein sog. Bias-Bild rausgerechnet.
Wie kann man Rauschen (also ein statistisches Signal) heraus rechnen?

TONI_B
30.07.2013, 12:03
Genau darin liegt ja der Sinn von vielen Aufnahmen! Aus einer Aufnahme kannst du nichts rausrechnen, aber wenn man jetzt die Summe vieler Hell-Bilder nimmt und davon die Summe vieler Korrektur-Bilder (Dark, Bias, Flat) "abzieht", steigt das Signal-Rausch-Verhältnis.

SuperTex
30.07.2013, 12:42
Dann schreib das doch.
Das Ausleserauschen wird durch ein sog. Bias-Bild rausgerechnet
ist nun mal missverständlich bis falsch.

TONI_B
30.07.2013, 13:01
Gehts vielleicht ein wenig freundlicher? :zuck: :flop:

Hättest du dir meinen Link durchgelesen, wären viele Fragen überflüssig...:roll:

corenight
30.07.2013, 13:41
Wow, so viele Antworter in solch kurzer Zeit.

Supercool! :o)

Nur bin ich zu blöd um aus all dem was hier geschrieben wurde nun schlauer zu sein als vorher.

PS: Bitte bleibt freundlich zu einander, meine Fragen sollen keine Plattformen für persönliche Meinungsverschiedenheiten bidlen, sondern Diskussionsplattformen für Gleichgesinnte...

SuperTex
30.07.2013, 13:48
Gehts vielleicht ein wenig freundlicher? :zuck: :flop:

Hättest du dir meinen Link durchgelesen, wären viele Fragen überflüssig...:roll:
Den hättest du vielleicht mal selber lesen sollen. Und verstehen...

TONI_B
30.07.2013, 13:50
So wie immer sind halt solche Probleme nicht ganz einfach. Es steckt relativ viel an Statistik und Physik dahinter. Aber die Ergebnisse zeigen, dass es eine interessante und gute Methode ist. Die letztlich sogar im consumer-Bereich mit der "multi-frame-noise-reduction" Einzug gehalten hat.