![]() |
|
|
![]() |
|||||||||||||
![]() |
||||||||||||||||
|
![]() |
#21 |
Registriert seit: 01.04.2006
Ort: wien
Beiträge: 186
|
Wie bereits erwähnt hat Langzeit-RM nichts mit High-ISO-RM zu tun und wird wenn
eingeschaltet auch im RAW Format angewendet. Dabei wird eine Bild mit geschlossenem Verschluss und gleicher ISO Einstellung von der eigentlichen Aufnahme abgezogen. Leider nur bis max. 30 Sekunden. Sinn des Ganzen sind die besagten Hotpixel welche besonders bei wesentlich längeren Belichtungszeiten (> 1 min.) relativ stark auftreten können. Bei der Astrofotografie, wo oft Belichtungen >10 min. bei ISO 800 gemacht werden ist ein Darkframe ein MUSS. Allerdings werden hier aus Zeit- und anderen Gründen Darkframes extra (mit geschlossenem Ojektivdeckel) gemacht. Sowohl bei internen als auch externen DFs sollte das Display abgedreht sein, sodass während der Aufnahme aus wärmetechnischen Gründen ja keine Anzeige am Display erscheint. Da viele Aufnahmen hintereinander die Kamera ebenfalls erwärmen, legen sich manche DF Bibliotheken (mit versch. ISO-, Belichtungs- und Temperaturwerten) an. Wie gesagt Langzeit-RM schadet nicht. High-ISO-RM sollte auf alle Fälle abgedreht werden, da die interne High-ISO-RM Schlierenmuster im JPEG erzeugt, sodass eine nachträgliche RM mit Zusatz-SW nicht mehr richtig funktioniert. LG Martin |
![]() |
![]() |
Sponsored Links | |
|
![]() |
#22 |
Themenersteller
Registriert seit: 10.02.2009
Beiträge: 46
|
Hi
Mit anderen Worten: Bei derart kurzen Belichtungszeiten (30 Sekunden) treten HotPixel quasi nicht auf? Wozu dann die Funktion in der Kamera? BULB? Wenn ich also keine HotPixel erkenne, und das scheint ja auch normal zu sein, wenn sowas erst bei Belichtungszeiten über 1 Minute auftritt, kann die Langzeit-RM-Funktion auch keine Wirkung zeigen. Und das heißt doch für mich: Spar Dir die Zeit und mach lieber noch n zweites Bild... oder doch nicht?! Grüße Daniel Geändert von DanielH (14.02.2010 um 03:16 Uhr) |
![]() |
![]() |
![]() |
#23 | |
Registriert seit: 16.11.2005
Ort: Osnabrück
Beiträge: 13.250
|
Zitat:
Nochmal die Frage: welche Lichtempfindlichkeit und welche Belichtungszeit war bei deinen Beispielen eingestellt?
__________________
Gruß Jens |
|
![]() |
![]() |
![]() |
#24 |
Themenersteller
Registriert seit: 10.02.2009
Beiträge: 46
|
Hi
Das waren ISO 800 und 30 Sekunden. Wenn ich aber runter auf ISO 200 gehe und 30 Sekunden mache, dann wird LOGISCHERWEISE das Bildrauschen geringer. Wobei ich folgende Entdeckung gemacht habe: Ein RAW Foto (ISO200 30 Sekunden ohne Langzeit-RM) einmal mit RawTherapee entwickelt -> gleich 2 HotPixel im Bild. Das selbe RAW Foto mit Adobe LR 3.0 Beta entwickelt -> keine HotPixel. Möglicherweise rechnet LR sowas beim Entwickeln raus? Eine besondere Kunst wäre es ja nicht - aus programmiertechnischer Sicht. lg Daniel |
![]() |
![]() |
![]() |
#25 | ||
Registriert seit: 22.02.2006
Beiträge: 11.388
|
Zitat:
Nochmal. Die Langzeit-Rauschminderung soll NICHT das High-ISO-Rauschen bekämpfen. Hotpixel entstehen durch die Erwärmung des Sensors. Ohne das genau zu wissen. Möglich, daß das bei den momentan "gemäßigten" Temperaturen nicht so stark auftritt. Zitat:
Rainer |
||
![]() |
![]() |
Sponsored Links | |
|
![]() |
#26 |
Registriert seit: 01.09.2009
Beiträge: 170
|
Langzeit-RM bringt schon etwas. Ein Freund und ich haben uns mal mit Lightpainting die Zeit vertrieben. Da die 2. Langzeit-RM immer so viel Zeit brauchte habe ich sie mal für 3 Bilder ausgeschaltet und war überrascht wie viele weiße Punkte man doch im Schwarz finden konnte
![]() Ich für mein Teil kann nur empfehlen: Wenn ihr genug Zeit habt, lasst die Langzeit-RM einfach drin. Sie bringt wirklich was. mfg Max |
![]() |
![]() |
![]() |
#27 | |
Themenersteller
Registriert seit: 10.02.2009
Beiträge: 46
|
Zitat:
Einmal eine Art "Künstliche Intelligenz", die das Bild nach Inhalt segmetiert, und dann durch Analyse der einzenlen Segmente "Ausreißer" erkennt und durch interpolation der Nachbarn ersetzt. Zweite Möglichkeit, die deutlich simpler zu programmieren wäre: Wie wir alle wissen bauen alle DSLRs (mit Außnahme von den Foveon X3 Chips) auf dem sog. Bayer-Mosaik auf. Also der physikaisch auf dem Sensor vorhandene Bildpunkt erkennt/erfasst nur EINE der drei Grundfarben der additiven Farbmischung (Rot,Grün,Blau). Erst durch Interpolation dieser Informationen erhält man ein "brauchbares" Bild. So: Während dieser Interpolation schaut man sich jeden Bildpunkt im Verhältnis zu seinen Nachbarn an. Und wenn ein Farbkanal (ein einzelnes Pixel) sich in seinem Wert sehr stark (wobei dieser Wert adaptiv errechnet wird, anhand eines größeren Bereichs um den Pixel, um den es geht) unterscheidet, so wird es ignoriert, und der Wert durch die umliegenden Pixel interpoliert. Falls ein einzelnes grünes Pixel sich falsch verhält, so ist es noch eher vernachläsigbar, da sowieso 50% der Sensorfläche aus grünen Pixeln bestehen. Logischerweise das alles nur, wenn klar ist, dass es sich um eine Langzeitbelichtung handelt. Soweit verständlich, oder doch zu sehr klug geschissen? ![]() lg Daniel |
|
![]() |
![]() |
![]()
|
|
|