![]() |
|
|
![]() |
|||||||||||||
![]() |
||||||||||||||||
|
![]() |
#9 |
Themenersteller
Registriert seit: 04.02.2013
Beiträge: 171
|
@fotomartin
Sehr ausführliche Antwort! Und vor allem auch schön erklärt. Ober und Untergrenze der Photonenaufnahme des Sensors (=maximale hell und dunkel Bereiche des Objekts) habe ich soweit verstanden. Aber mit den 10 - 1000 Photonen sind ja die absoluten (machbaren) Grenzen von hell und dunkel gemeint, oder? Das Problem vom Kontrastumfang sind doch die relativen Grenzen. Beispiel: Ich möchte ein HDR Foto "basteln". Dafür schieße ich Belichtungsreihe mit drei Fotos: (die Zahlenwerte sind völlig willkürlich, also bitte nicht ernst nehmen. Sie sollen nur meinen Grundgedanken verdeutlichen) - einmal unterbelichtet (bei dem die Bereiche aufgezeichnet werden, die nur wenige Photonen abstrahlen [ab 10 Photonen/m²]) - einmal "richtig" belichtet (bei dem beide "extreme" absaufen [z.B. 250 - 750 Photonen/m²]) - und einmal überbelichtet (bei dem die Bereiche aufgezeichnet werden, die nur viele Photonen abstrahlen [bis 1000 Photonen/m²]) Warum kann man den nicht in einem Foto das ganze Spektrum von 10 - 1000 Photonen abdecken? Wenn ich die drei Fotos zusammengerechnet habe, ergeben sich ja auch (selbst bei einem JPG [mit 8 Bit] an meinem Monitor) mehr hellere und mehr dunkle Details als bei den einzelnen Fotos. Also ist der Sensor ja prinzipiell in der Lage die hellen und dunklen Details aufzuzeichnen; eben nur nicht in einem einzelnen Foto. Warum? Ich befürchte ein wenig, dass die Antwort auf diese Frage bereits in deinem Beitrag steckt und ichs nicht gechekt hab.... Danke an Alle für eure Beiträge. Gruß, Christoph |
![]() |
![]() |
|
|