Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Schwarze Pixel bei Langzeitbelichtung


Ardbeg
02.09.2008, 12:34
Moin moin,

bei Langzeitbelichtungen habe ich auf meinen Bildern viele viele schwarze Fehl-pixel.

Wie kommen die zustande? Sollten die nicht durch das DarkFrame ausgelöscht werden? Oder entstehen die gerade erst duch das DarkFrame, also wenn gegen Ende der 2ten Belichtung doch einige Pixel angfangen stärker zu glühen und dann bei der Subtraktion negativ auffallen?

Und letzte Frage die eigentlich in eine andere Rubrik passt: Gibt es eine trickreiche Möglichkeit diese nachträglich rauszurechnen?

Bis denn dann
Oliver

PS:

Sowas meine ich:
http://www.sonyuserforum.de/galerie/data/thumbnails/6/dunkle_pixel.jpg (http://www.sonyuserforum.de/galerie/details.php?image_id=61244)

Wrörgi
02.09.2008, 12:37
Moin ,

das ist ähnlich dem Schwarzschildeffekt , dagegen hilft die Kamera gut kühlen ;) , aber da bekommst Du sicher noch genauere Antworten von unseren Technikspezies .

Gruß
Wrörgi

WoBa
05.09.2008, 09:56
Hallo,

sieht nach einem Clusterdefekt aus. Das läst sich durch Kühlung leider nicht vermeiden.
Gefahr bei Kühlung der DSLR ist Eisbildung auf dem Sensor. DSLRs haben keinen Feuchtigkeitsabscheider wie es Astrokammeras haben.

Gruß

Wolfgang

Jens N.
05.09.2008, 14:36
Oder entstehen die gerade erst duch das DarkFrame, also wenn gegen Ende der 2ten Belichtung doch einige Pixel angfangen stärker zu glühen und dann bei der Subtraktion negativ auffallen?


Korrekt. Hotpixel werden durch die Kamerainterne dark frame substraction nur schwarz "überpinselt". Das ist eigentlich auch sinnvoll, da sie ja idR. bei Langzeitbelichtungen auftreten und da meist dunkle Flächen vorherrschen. Natürlich funktioniert das aber wie jede Automatik nicht perfekt und so fallen eben diese schwarzen Pixel auf. Automatisch kann man dagegen meines Wissens nach nichts machen. Man könnte die kamerainterne Hotpixelentfernung (bei der Kamera irreführenderweise "Langzeitrauschunterdrückung" genannt wenn ich mich nicht irre) abschalten und die entstehenden Hotpixel manuell mit einem passenderen Helligkeitswert übertünchen, aber das ist natürlich ein Mordsaufwand. Man könnte auch einfach dunkler belichten, damit die schwarzen Punkte nicht mehr so auffallen. Man könnte auch einfach damit leben, ausgedruckt dürften sie eh nicht mehr auffallen. Oder vielleicht gibt es eine Software, die sowas nachträglich automatisch besser kann, das weiß ich nicht. Da müsste die Astrofotografenfraktion was zu sagen.

Ach ja, da der Begriff oben fiel: mit dem Schwarzschildeffekt haben die schwarzen Punkte nichts zu tun und Digitalkameras sind davon eh nicht betroffen: http://de.wikipedia.org/wiki/Schwarzschildeffekt

BeHo
05.09.2008, 14:49
Dass die Ursache der Darkframe-Abzug ist, erscheint mir auch am einleuchtendsten.

So ganz nebenbei: Gibt's das Bild auch irgendwo ohne das Eingemalte und etwas größer zu sehen? Es gefällt mir nämlich gut mit der Rahmung durch die Bäume. :top:

klaeuser
05.09.2008, 14:52
Es gibt ein Program das auch Hotpixel entfernen kann, aber mir fällt der Name garde nicht mehr ein. Damit geht es vielleicht besser.

Wenn ich zu Hause bin schau ich mal nach.

TONI_B
05.09.2008, 16:19
...
Ach ja, da der Begriff oben fiel: mit dem Schwarzschildeffekt haben die schwarzen Punkte nichts zu tun und Digitalkameras sind davon eh nicht betroffen: http://de.wikipedia.org/wiki/Schwarzschildeffekt
Danke, Jens!

Das hat meinem alten Astronomenherz sehr weh getan! Schwarzschildeffekt und Pixelfehler - das sind zwei mehr als grundverschiedenen Dinge...

Wrörgi
05.09.2008, 16:45
Das hat meinem alten Astronomenherz sehr weh getan! Schwarzschildeffekt und Pixelfehler - das sind zwei mehr als grundverschiedenen Dinge...

..ich schrieb - das ist ähnlich - und - die Experten werden noch drauf eingehen - !

Wrörgi

TONI_B
05.09.2008, 17:31
Es ist auch nicht ähnlich!

Ein Pixel wird durch auftreffende Photonen "gefüllt" (ist in etwa wie ein Kondensator) - da ist es egal wie lange man zum "Befüllen" braucht. Es besteht ein hochgradig linearer Zusammenhang zwischen einfallenden Photonen und Ladung des Kondensators.

Beim chemischen Film mußte ein Korn durch ein Photon "angestochen" werden und es entstand ein Elektron. Dieses so "angestochene" Korn war aber noch nicht stabil. Damit es stabil umgewandelt werden konnte, mußten mehrere (Viele) Photonen das Korn treffen. Bei sehr geringen Lichtintensitäten war das aber nicht gegeben d.h. ein Keim (="angestochenes" Korn) wurde wieder instabil - es verlor das Elektron durch Rekombination. Daraus folgt, dass bei geringen Lichtintensitäten und langen Belichtungszeiten das Reziprozitätsgesetz aus Belichtungszeit und Lichtintensität nicht mehr gilt. D.h. man muss länger belichten, um die gleiche Schwärzung zu bekommen. Das ist der Schwarzschildeffekt. Übrigens war Schwarzschild Direktor der Wiener Sternwarte!

Pixelfehler könnnen mehrere Ursachen haben, aber sicher nicht solche, wie sie zum Schwarzschildeffekt führen.

Wrörgi
05.09.2008, 21:22
Es ist auch nicht ähnlich!

Ein Pixel wird durch auftreffende Photonen "gefüllt" (ist in etwa wie ein Kondensator) - da ist es egal wie lange man zum "Befüllen" braucht. Es besteht ein hochgradig linearer Zusammenhang zwischen einfallenden Photonen und Ladung des Kondensators.

Beim chemischen Film mußte ein Korn durch ein Photon "angestochen" werden und es entstand ein Elektron. Dieses so "angestochene" Korn war aber noch nicht stabil. Damit es stabil umgewandelt werden konnte, mußten mehrere (Viele) Photonen das Korn treffen. Bei sehr geringen Lichtintensitäten war das aber nicht gegeben d.h. ein Keim (="angestochenes" Korn) wurde wieder instabil - es verlor das Elektron durch Rekombination. Daraus folgt, dass bei geringen Lichtintensitäten und langen Belichtungszeiten das Reziprozitätsgesetz aus Belichtungszeit und Lichtintensität nicht mehr gilt. D.h. man muss länger belichten, um die gleiche Schwärzung zu bekommen. Das ist der Schwarzschildeffekt. Übrigens war Schwarzschild Direktor der Wiener Sternwarte!

Pixelfehler könnnen mehrere Ursachen haben, aber sicher nicht solche, wie sie zum Schwarzschildeffekt führen.

Was ich dem Threadersteller mit " ähnlich " sagen wollte ist , dass er sich keine Gedanken um seine Kamera , um sein Objektiv oder irgendetwas anderes seines Equipments machen muß , sondern dass es dafür eine technologische Erklärung gibt , Du Eimer !

Wrörgi

TONI_B
05.09.2008, 22:12
Was ich dem Threadersteller mit " ähnlich " sagen wollte ist , dass er sich keine Gedanken um seine Kamera , um sein Objektiv oder irgendetwas anderes seines Equipments machen muß , sondern dass es dafür eine technologische Erklärung gibt , Du Eimer !

Wrörgi

Bitte?

Abgesehen von deiner verbalen - absolut unpassenden - Entgleisung, verstehe ich auch deine Rechtfertigung nicht!

Aber dieses "Niveau" ist nicht meines, daher werde ich es nicht weiter kommentieren...

WoBa
06.09.2008, 00:44
Hallo,
ich hab mir dein Bild nochmal angeschaut. Auf meinem Monitor erscheint das ganze als schwarze Plaques und das spricht eher für einen Clusterdefekt. Einzelne schwarze Punkte (Pixel) sprächen für Deadpixel.
Probiers aber nochmal aus und laß die Kamerainterne Rauchunterdrückung dabei mal aus und betrachte das Ergebnis dann nochmal, Erscheinen diese Plaques wieder an der selben Stelle ist es garantiert ein Clusterdefekt.

Es gibt Programme die Hotpixel herausrechnen können.

Ich machs folgend: eirste Belichtung vom Objekt, dann 10 Minuten Pause, dann das Dunkelbild. Dabei mache ich mindestens 2 Aufnahmen mit der gleichen Belichtungszeit. Dunkelbildabzug mache ich später. Bisher hat es bei mir gut funktioniert.
Ich benutze Fitswork. Registax und Giotto und Photoshop für den Feinschliff.

Gruß

Wolfgang

Jens N.
06.09.2008, 01:08
Was ist ein Clusterdefekt? Ich kenne das nur im Zusammenhang mit Festplatten.

WoBa
06.09.2008, 02:11
Hallo Jens,

Clusterdefekt, wenn Pixelfehler zusammenhänged als größere Ansammlung auf dem Chip auftreten. Das kann bei Sensoren der Klasse 2, wie sie bei Aufnahmegeräten für allgemeine Fotografie benutzt werden im Grenzbereich schon häufiger auffallen. Sichtbar wird das im Grenzbereich z.B. Langzeitaufnahmen. Bei normalen alltäglichem Einsatz wie Werbe- Mode- Reportagephotografie sind diese Fehler allerdings belanglos, da nicht sichtbar.
Eine Alpha, Nikon oder Canon der Chipklasse eins oder gar Null würde sicher keiner kaufen. Diese Sensoren sind z.B. bei Astrokameras der Hersteller SBIG, Starlight und andere verbaut. Die kleinen Sensoren sind bei den Herstellern meisauch Sony, die größeren meist Kodak (25X36mm Sensorgröße). Sony stellt da leider noch keine Sensoren zur Verfügung, leider auch keinen Monochromsensor.

Zum Thema Kühlung
Kühlung reduziert hauptschlich das thermische Rauschen, nicht Rauschen anderer Ursache. Das Verstärkerglühen meist am oberen Bildrand wird damit nicht unbedingt beseitigt. Bei Astrokameras ist der Verstäker vom Aufnahmesensor an entferntere Stelle angeordnet.

Gruß

Wolfgang

Wrörgi
06.09.2008, 10:13
Abgesehen von deiner verbalen - absolut unpassenden - Entgleisung, verstehe ich auch deine Rechtfertigung nicht!


Tja , wenn Du's nicht verstehst .

Verbale Entgleisung , ok , so schlimm ist es doch gar nicht . Dann streiche - Du Eimer -
und setze - Herr Lehrer - ok ?

Gruß und schönes WE
Wrörgi

Carege
18.09.2008, 19:37
Tag...
Tu jetzt keinen neuen thread auf..
gestern wollte ich mal den modus bulb testen soweit alles gut...
als ich dann die bilder auf dem pc sah :shock:
von wo kommen all diese weisse punkte?


http://s2.directupload.net/images/080918/temp/ck9zmuh8.jpg (http://s2.directupload.net/file/d/1556/ck9zmuh8_jpg.htm)



lg

Jens N.
18.09.2008, 21:40
von wo kommen all diese weisse punkte?


Hotpixel (http://de.wikipedia.org/wiki/Hotpixel)

shadypepe
18.10.2008, 15:49
Eine generelle Frage zu diesem Thema: Macht es Sinn, sich ein Dunkel- und ein Weißbild anzufertigen um dann vor allem bei Langzeitbelichtungen solche Hotpixel oder auch Verunreinigungen auf dem Sensor zu eliminieren? (Mittels der auf Wikipedia beschriebenen Methode -> Dunkelbild vom Roh- und Weißbild substrahieren, dann Rohbild durch Weißbild dividieren, wenn ich das richtig verstanden habe)
Und reicht es wenn man das einmal macht und dann bei verschiedenen Blendenöffnungen/Belichtungszeiten die Dunkel-/Weißbilder mit Weichzeichner und Kontrast/Helligkeitsanpassung so bearbeitet dass man zu akzeptablen Ergebnissen kommt oder müsste man dann bei jeder neuen "Hotpixelkritischen" Aufnahme Dunkel-/Weißbilder anfertigen?