PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Kontrastumfang bei Digitalkameras


chris31
01.03.2013, 16:03
Hallo zusammen,

ich beschäftige mich erst seit kurzem intensiver mit der Fotografie und habe in diesem Zusammenhang mal ein paar grundliegende Fragen: Warum kann bei der Analogenfotografie ein höheres Kontrastspektrum als bei der Digitalen abgebildet werden? Ist das ein technisches oder ein physikalisches Problem das dahinter steckt?

Ich habe in letzter Zeit schon einiges dazu gelesen (HDR, etc.) aber irgendwie noch keine knackige Antwort darauf gefunden, warum man nicht ein Foto mit HDR ähnlichem Kontrastumfang mit einem einzigen Schuss erreichen kann. Auch hier wieder: technisches (das evtl. irgendwann lösbar ist) oder physikalisches Problem (mit dem wir einfach leben müssen)? Ich hoffe mir kann jemand auf die Sprünge helfen (gerne auch durch Literaturangaben).

Vielen Dank im Voraus,

Christoph

PS: Bitte ins passende Unterforum verschieben; ich hatte echt keine Ahnung wo ich das einsortieren könnte, da es anscheinend so etwas wie "Fototheorie" oder "Technik allgemein" nicht zu geben scheint.

Alison
01.03.2013, 16:09
Hallo Christoph,

es ist nicht so dass ein Farbfilm einen höheren Konstrastumfang bewältigen kann als eine moderne Digitalkamera. Diese Behauptung stammt noch aus der Anfangszeit der Digitalkameras.

Einzig s/w Filme können noch einen höheren Umfang haben, der dann aber auch nicht leicht aufs Papier zu bringen.

Tikal
01.03.2013, 16:38
Sind das nur messbare oder auch für das geübte Auge sichtbare Unterschiede? Sei es jetzt ob Digital oder Analog mehr Kontrast aufweist.

aidualk
01.03.2013, 16:54
ich beschäftige mich erst seit kurzem intensiver mit der Fotografie und habe in diesem Zusammenhang mal ein paar grundliegende Fragen: Warum kann bei der Analogenfotografie ein höheres Kontrastspektrum als bei der Digitalen abgebildet werden? Ist das ein technisches oder ein physikalisches Problem das dahinter steckt?


Kontrastumfang bei:
Diafilm: ca 6-7 Blenden
Negativfilm: ca. 9-10 Blenden
Sensor: ca. 13-14 Blenden

chris31
01.03.2013, 16:58
es ist nicht so dass ein Farbfilm einen höheren Konstrastumfang bewältigen kann als eine moderne Digitalkamera.


Nicht? Ich müsste jetzt erstmal suchen, bin mir aber sicher, dass ich das schon öfters gelesen habe. Ich kann es anhand eigener Erfahrungen leider weder be- noch wiederlegen, da ich seit einer Ewigkeit keine analoge Kamera mehr in der Hand hatte.

Habs gerade gefunden. Unter http://striewisch-fotodesign.de/lehrgang/3_6.htm wurde das z.B. erwähnt. Irgendwo hab ich auch ein ganz nettes Beispiel dafür gesehen. Finds aber gerade nicht mehr. Es kann natürlich sein, dass die Quellen dafür veraltet waren.

Zitat:
Der Kontrastumfang, den Farbnegativmaterial bewältigen kann, ist deutlich größer als der von Dias .... Digitalkameras dagegen sind, ganz ähnlich wie Diafilm, Belichtungsmimosen. Ihr möglicher Kontrastumfang ist gering, und was nicht in diesen Kontrastumfang passt, wird gnadenlos Weiß oder Schwarz.

Wie auch immer die Unterschiede tatsächlich sind, meine Kernfrage war ja eigentlich, wodurch der Kontrastumfang überhaupt beschränkt wird.

Schöne Grüße,

Christoph

Edit:

Kontrastumfang bei:
Diafilm: ca 6-7 Blenden
Negativfilm: ca. 9-10 Blenden
Sensor: ca. 13-14 Blenden

Wo kann man das nachlesen? Oder sind das eigene Erfahrungen?

Danke und Gruß,

Christoph

usch
01.03.2013, 17:02
Der eigentliche Flaschenhals ist immer die Präsentation. Auf Papier bestimmt das Druckverfahren und das Trägermaterial den möglichen Tonwertumfang, und ein mit JPEGs gefütterter Beamer hat halt nur 8 Bit Farbtiefe pro Kanal, egal wie groß die Dynamik des Ausgangsmaterials war.

Film ist allerdings in gewisser Weise gutmütiger als ein digitaler Sensor - digital frißt ein Bild bei Überbelichtung sofort aus, analog flacht die Empfindlichkeitskurve nach oben hin immer mehr ab, so daß man da mit etwas Mühe doch noch ein bißchen Zeichnung herauskratzen kann. Mit dem erfaßbaren Kontrastumfang hat das aber nur indirekt zu tun.

fotomartin
01.03.2013, 17:48
Hallo Chris,

der begrenzte Dynamikumfang liegt bei einem Bildsensor an der Physik, die dahinter steckt.

Ein "Sensor" besteht aus Einzelteilen, pro Pixel wären da (nur die relevanten):
- eine Photozelle, welche die auftreffenden Photonen in Elektronen umwandelt, sagen wir mal Beispielsweise, pro Photon entsteht ein Elektron
- ein Kondensator in den die Elektronen fließen (je mehr Elektronen in den Kondensator fließen, desto größer wird dessen Spannung)
- einen Verstärker, der die analoge Spannung verstärkt - den Verstärkungsfaktor beeinflusst man durch die Wahl der ISO-Empfindlichkeit
- einen ADC (Analog-Digital-Konverter), der das verstärkte analoge Spannungssignal digitalisiert, das tut er mit einer bestimmten Auflösung, oft 12 bit, d.h. mit 2^12 = 4096 verschiedenen Abstufungen von ganz dunkel bis ganz hell.

Entscheidend für die Dynamik ist aber nicht der ADC, der legt lediglich fest, wie fein die Töne dazwischen aufgelöst sind. Entscheidend ist die Photozelle und der Kondensator.
Letzterer ist nämlich irgendwann voll, d.h. das betreffende Pixel ist ganz hell. Wenn jetzt noch weitere Elektronen kommen, werden die vom Kondensator nicht mehr reingelassen und erhöhen die Spannung des Kondensators nicht mehr. Folge: Die Lichter fressen aus. Sagen wir mal, das passiert bei 1000 Elektronen.
Die Photozelle ist für die untere Grenze verantwortlich: Wenn es ganz dunkel ist, kommen nur ganz wenige Photonen zur Photozelle. Da die Photozelle aber meistens nicht auf den absoluten Nullpunkt (-273°C) gekühlt wurde, lösen sich hin und wieder auch einfach so Elektronen, aufgrund der Temperatur des Sensors. Das ist eine Eigenschaft des Halbleitermaterials, die sich technologisch nur bedingt beeinflussen lässt. Die "falschen" Elektronen fließen natürlich auch zum Kondensator und sind dann als Störsignal sichtbar. Man sagt dazu auch "Rauschen". (deswegen rauscht ein Sensor auch mehr, wenn er wärmer ist, also wenn er schon lange in Betrieb ist) Wenn jetzt also nur wenige Photonen kommen, gibt es nur wenige "echte" Elektronen, die dann im Strom der ganzen "falschen" Untergehen.
Da gibt's das Signal-Rausch-Verhältnis, also das Verhältnis von "echten" zu "falschen" Elektronen. Wenn das unter einem bestimmten Schwellenwert liegt, dann sagt man - dort ist nur noch Rauschen, da kann man nix mehr erkennen. Sagen wir mal, das passiert, wenn weniger als 10 "echte" Elektronen kommen.
(das ist natürlich Definitionssache, daher gehört zur Angabe des "Dynamikumfangs" auch d die Angabe dieser Grenze. Bei DXO-Mark basieren die angegebenen Dynamik-Werte auf einer Grenze von 0dB, das heisst, genausoviele "echte" wie "falsche" Elektronen. http://www.dxomark.com/index.php/en/About/Sensor-scores/Use-Case-Scores

Dadurch ergibt sich also, dass der Sensor in unserem Beispiel nur Helligkeiten zwischen 10 und 1000 Photonen pro Belichtung wiedergeben kann. Das wären dann ca. 6 2/3 Blendenstufen.
D.h. für mehr Dynamik müsste man den Kondensator vergrößern oder das Rauschen der Photozelle verringern.
Alternativ könnte man auch den Verstärkungsfaktor jedes Pixels individuell einstellen, also jedes Pixel könnte einen individuellen ISO-Wert haben. Darauf hat Canon ein Patent angemeldet, aber es gibt noch keine Kamera, die sowas hat. Ist auch nicht so einfach, es gibt da ähnliche Schwierigkeiten, wie bei einem HDR Bild, das aus mehreren Aufnahmen zusammengesetzt ist, hinsichtlich dessen, das es künstlich aussieht, wenn man's übertreibt.

Hoffe, ich konnte weiterhelfen.

Gruß,
Martin

Man
01.03.2013, 17:51
...Wo kann man das nachlesen?...

Zu Analogmaterial (Dia- und Negativfilmen): keine Ahnung. Bekannt ist (mir) dass Diafilm mit rd. 5 bis 6 Blendenstufen schlechter als Farbnegativfilm und dieser wieder schlechter als s/w-Negativfilm ist.
Zu Digitalkameras ist es relativ einfach: bei Tests in fotozeitschriften wird der Wert meist bei den "technischen Daten" angegeben. Bsi DSLRs liegt er so um die 11. Von der Theorie her könnte eine Digikam mit 12 Bit-Verarbeitung 12 Blenden verarbeiten - aktuelle DSLRs arbeiten häufig sogar mit 14 Bit. Das heißt aber erst mal nichts: der Flaschenhals liegt heute nicht in der Weiterverarbeitung, sondern in dem möglichen Kontrastumfang des Sensors. (Wenn ich mir auf mein Auto Reifen montiere, die bis 250 km/h fahren können, heißt das ja nicht, dass das Auto überhaupt 250 km/h erreicht - begrenzendes Element wäre hier dann der Motor.)

Ohne das wirklich beweisen zu können: ich glaube nicht, dass Werte von 11 Blendenstufen (und teilweise erreichen DSLRs sogar mehr) mit analogem Filmmaterial zu schaffen sind.

Über HDR könnte man den Umfang sogar noch weiter steigern.

Ob das tatsächlich nutzbar ist, denke ich nicht. Ein Papierfoto schafft vielleicht 6 Blendenstufen, ein guter Monitor vielleicht deren 8.
Kein (mir bekanntes) Ausgabemedium schafft z. B. die 11 Blendenstufen einer aktuellen DSLR. Statt dessen werden die Informationen so umgerechnet, dass sie "auf das Ausgabemedium passen".
Bekannt ist z. B. die Umrechnung von RAW (11 Blendenstufen) in ein JPG-Bild (8 Blendenstufen). Der höhere Kontrastumfang der RAW-Datei wird dazu genutzt, um mehr Zeichnung in die Tifen und Höhen zu bringen. Es werden also nicht einfach 8 Blendensturen aus dem 11-Blendensufenbild herausgeschinitten und z. B. jew. 1,5 Blendenstufen oben und unten "weggeworfen", sondern die 11-Bit-Informationen werden in eine 8-Bit-Information komprimiert.

vlG

Manfred

wus
01.03.2013, 18:48
Kontrastumfang bei:
Diafilm: ca 6-7 Blenden
Negativfilm: ca. 9-10 Blenden
Sensor: ca. 13-14 BlendenSolche nackten Angaben sind relativ witzlos wenn man nicht weiß wie das jeweils gemessen wurde. Es gibt auch Quellen / Leute die behaupten Negativfilm hätte 12 - 13 Blenden Dynamikumfang, und andere schreiben noch heute DSLR Sensoren nur um die 10 Blenden zu. Letzteres habe ich erst kürzlich wieder in ColorFoto gelesen.

analog flacht die Empfindlichkeitskurve nach oben hin immer mehr ab, so daß man da mit etwas Mühe doch noch ein bißchen Zeichnung herauskratzen kann. Aktuelle Digitalkameras bilden dieses Verhalten über ihre nach oben abflachende E/A-Kurve ab, genau so wie sie am anderen Ende die Tiefen mit Hilfe nach unten flacherer Kurven ("DRO") etwas heller machen. Dpreview zeigt das immer sehr schön: DRO anhand der Sony SLT-A57 (http://www.dpreview.com/reviews/sony-alpha-slt-a57/12), ADL (Abflachung am oberen Ende) bei der Nikon D800 (http://www.dpreview.com/reviews/nikon-d800-d800e/19) (jeweils unterste Grafik).

Meine Erfahrung:
Diafilme haben in der Tat eine stark eingeschränkte Dynamik. Auch mit einem guten Scanner wie dem Nikon LS-5000, der einen hohen Dichteumfang aufweist, ist da nicht viel zu machen in der Nachbearbeitung. Bei Negativ-Farbfilmen geht etwas mehr, aber man muss schon starke Abstriche bei der Bildqualität machen wenn man sehr helle oder sehr dunkle Stellen im Bild mehr als nur ein bisschen abdunkelt bzw. aufhellt.

Die RAW-Formate aktueller Digitalkameras haben dagegen vergleichsweise gute Reserven, man kann schon mal 1 bis 2 Blenden korrigieren. Bei der Aufhellung dunkler Stellen verstärkt man dabei natürlich das Rauschen, aber das lässt sich minimieren wenn man immer mit der niedrigst-möglichen ISO fotografiert, und es gibt ja inzwischen auch leistungsfähige Entrausch-Software.

Anaxaboras
01.03.2013, 19:19
Warum kann bei der Analogenfotografie ein höheres Kontrastspektrum als bei der Digitalen abgebildet werden?

Kein Farbfilm verarbeitet den Kontrastumfang, den heute eine (Vollformat-) Digitalkamera schafft - die besten bringen es im Labor von digitalkamera.de auf etwas mehr als 11 EV. Mittelformatkameras packen nochmals eine Blendenstufe drauf.

Damit verarbeiten Digitalkameras heute in etwa den Kontrastumfang, den das menschliche Auge ohne Adaption wahrnehmen kann.

LG
Martin

chris31
01.03.2013, 19:22
@fotomartin

Sehr ausführliche Antwort! Und vor allem auch schön erklärt. Ober und Untergrenze der Photonenaufnahme des Sensors (=maximale hell und dunkel Bereiche des Objekts) habe ich soweit verstanden. Aber mit den 10 - 1000 Photonen sind ja die absoluten (machbaren) Grenzen von hell und dunkel gemeint, oder? Das Problem vom Kontrastumfang sind doch die relativen Grenzen.

Beispiel:

Ich möchte ein HDR Foto "basteln". Dafür schieße ich Belichtungsreihe mit drei Fotos: (die Zahlenwerte sind völlig willkürlich, also bitte nicht ernst nehmen. Sie sollen nur meinen Grundgedanken verdeutlichen)

- einmal unterbelichtet (bei dem die Bereiche aufgezeichnet werden, die nur wenige Photonen abstrahlen [ab 10 Photonen/m²])

- einmal "richtig" belichtet (bei dem beide "extreme" absaufen [z.B. 250 - 750 Photonen/m²])

- und einmal überbelichtet (bei dem die Bereiche aufgezeichnet werden, die nur viele Photonen abstrahlen [bis 1000 Photonen/m²])

Warum kann man den nicht in einem Foto das ganze Spektrum von 10 - 1000 Photonen abdecken? Wenn ich die drei Fotos zusammengerechnet habe, ergeben sich ja auch (selbst bei einem JPG [mit 8 Bit] an meinem Monitor) mehr hellere und mehr dunkle Details als bei den einzelnen Fotos. Also ist der Sensor ja prinzipiell in der Lage die hellen und dunklen Details aufzuzeichnen; eben nur nicht in einem einzelnen Foto. Warum?

Ich befürchte ein wenig, dass die Antwort auf diese Frage bereits in deinem Beitrag steckt und ichs nicht gechekt hab....

Danke an Alle für eure Beiträge.

Gruß, Christoph

screwdriver
01.03.2013, 20:00
Also ist der Sensor ja prinzipiell in der Lage die hellen und dunklen Details aufzuzeichnen; eben nur nicht in einem einzelnen Foto. Warum?


Die Antwort ist tatsächlich bereits gegeben.
Der sensor hat nur eine gewisse Bandbreite an Lichterfassungsvermögen.

Diese Bandbreite wird durch Blende und Belichtungszeit so "justiert", dass es möglichst gut passt.

Bei Einzelbildern für HDR wird dann eben nur Belichtungsspielraum mit Blende und/ oder Beelichtungszeit so "verschoben", dass das gesamte Belichtungsspektrum mit mehreren Bildern erfasst wird.

Das mit den 11EV, den das menschliche Auge "im Moment" erfassen kann kommt auch hin. Dazu kommen aber noch ungefähr 6-7 EV die das menschliche Auge durch die Pupille "abblenden" kann.

Dann kommt noch die "selektive Wahrnehmnung" beim normalen Sehen hinzu, die über- oder unterbelichtete Bereiche "ausblendet" wenn die nicht "wichtig" sind.
Deshalb "fehlt uns immer noch was" bei der Betrachtung von Fotos mit grosser Lichtdynamik

Ein nicht unwichtiger Faktor ist dann eben - wie schon oben angesprochen - dass die Bildausgabe auf dem Monitor oder Papier sowieso schon auf auf darstellbare 6 - 9 EV "gestaucht" werden muss.

Gepard
01.03.2013, 20:01
Ich versuchs nochmal:
Um beim Beispiel zu bleiben, 10 bis 1000 Elektronen kann der Sensor bei einer Aufname verarbeiten.
Jetzt sind im Bild die Schatten schwarz und die Lichter weiß.
Also noch eine überbelichtete Aufnahme mit ebenfalls 10 bis 1000 Elektronen.
Da sieht man in den Schatten jetzt Zeichnung, dafür sind mehr hellere Bereiche weiß.
Dazu noch eine unterbelichtete Aufnahme mit 10 bis 1000 Elektronen.
Da ist jetzt in den helle Bereichen Zeichnung, dafür sind mehr dunkle Bereiche schwarz.
Jedes der Bilder hat den gleichen Kontrastumfang!
Über alle 3 Bilder gesehen ist der Kontrastumfang größer als der Sensor kann.
Jetzt machst du ein HDR draus.
Die hellste Stelle im unterbelichteten Bild und die dunkelste Stelle im überbelichteten Bild stellen die Grenzen dar.
Da leider weder Monitor noch Papier diesen Umfang darstellen können wirst du das Ergebnis niemals anschauen können.:(
Deshalb quetscht die Software diesen Umfang auf einen darstellbaren Kontrastumfang zusammen. Das HDR hat also im Endefekt auf dem Bildschirm keinen größeren Kontrastumfang als eine Einzellaufnahme.

lampenschirm
01.03.2013, 20:27
wenn jedem pixel eine eigene Belichtung zuweisen könntest dann hättest dein HDR in einem Umgang, aber da das nicht geht muss man mind. 3 od. gar mehrere Bilder machen dazu +verrechnen........oder bin ich auf dem holzweg?

Gepard
01.03.2013, 21:09
Ja, so isses.

padiej
01.03.2013, 21:29
Ein HDR kann man mit jedem Sensor machen. Bei neueren Bodys braucht man weniger Bilder, um zu einem guten Ergebnis zu kommen.

Hier ein HDR Test (mit 10 Bildern):

http://www.flickr.com/photos/padiej/5125934537/in/photostream/

Das HDR erlaubt uns, alle sichtbaren Bereiche (mittels Tonemapping) in ein Bild zu bringen. Deshalb sieht ein HDR auch "komisch" aus.

Der eigentliche Dynamikumfang der neuen Cams ist gewaltig. Heute kann man mit einem RAW schon ein HDR machen, so viel Information kann schon aufgenommen werden.

Gute dynamische Eigenschaften habe ich beim SW-Film Mittelformat festgestellt.

http://www.flickr.com/photos/padiej/5237266315/

Sowohl der Aussenbereich ist erkennbar (nicht weiß), obwohl die Sonne lacht, sowie die Bereiche unter dem Tisch sind gut durchzeichnet. Leider ist der Body nicht mehr lichtdicht.

Aber so ein Bild geht heute mit jeder Nex.

fotomartin
01.03.2013, 21:35
Deshalb quetscht die Software diesen Umfang auf einen darstellbaren Kontrastumfang zusammen. Das HDR hat also im Endefekt auf dem Bildschirm keinen größeren Kontrastumfang als eine Einzellaufnahme.

Genau - deshalb kann man beim Erstellen eines HDR auch soviel an allen möglichen Reglern rumspielen und kann total unterschiedliche Ergebnisse von angenehm realistisch bis überzogen/gemäldeähnlich erhalten - Die Art, wie die Software den großen Kontrastumfang wieder auf einen kleineren, darstellbaren reduziert, ist dabei unterschiedlich.


Aber du hast ja geschrieben, dass dich das Thema grundsätzlich interessiert, daher glaube ich nicht, das HDR so ein großes Thema für dich ist.
Denn die Quintessenz dieses Threads ist ja bisher, das moderne Digitalkameras - wenn man das RAW Format oder Funktionen wie DRO benutzt - einen sehr großen Kontrastumfang haben.

Damit kann man das Thema eigentlich erstmal ad acta legen und fotografieren gehen. Wenn du das RAW Format benutzen willst, wirst du schon an der Bildbearbeitung feststellen, wieviel man da noch rausholen kann aus scheinbar abgesoffenen Schatten und ausgefressenen Lichtern. Da sind HDRs wirklich nur für Spezialfälle nötig, meiner Meinung nach.

Hab hier mal ein Beispiel:
Das erste Bild ist ein RAW, das ohne weitere Bearbeitung in JPG für das Forum umgewandelt wurde. Man sieht, das man es nicht viel heller hätte belichten können, sonst wären die hellen Stellen am Brunnen ausgefressen. Unter der Allee ist aber alles schwarz.
6/RAWunbearbeitet.jpg
-> Bild in der Galerie (http://www.sonyuserforum.de/galerie/details.php?image_id=165239)

Nun habe ich dasselbe Bild genommen und die hellen Stellen abgedunkelt und die dunklen Stellen aufgehellt - wie deutlich zu sehen ist, ist in unter der Allee noch ziemlicher Detailreichtum erkennbar und es handelt sich wie gesagt um eine Entwicklung des gleichen RAWs wie oben.
6/RAWbearbeitet.jpg
-> Bild in der Galerie (http://www.sonyuserforum.de/galerie/details.php?image_id=165240)

Zum Vergleich habe ich die gleiche Szene noch mit dem HDR-Modus der Kamera im JPG Format fotografiert. Dabei kam die HDR 6EV oder 5EV Einstellung (weiß nicht mehr) der A77 zum Einsatz.
Das Ergebnis ist ähnlich dem RAW (ich habe bei der Bearbeitung des RAWs keinen großen Wert darauf gelegt, das es möglichst genauso aussieht wie das JPG, deswegen gibt es natürlich gewisse Unterschiede). Man kann aber erkennen, das für diese Szene mit doch recht großem Dynamikumfang zwischen dem Brunnen und der Allee ein HDR gar nicht nötig und ein aktuelle Kamera im RAW Format völlig ausreichend ist. Daher meine obige Aussage, einfach fotografieren und ausprobieren :)
6/JPG.jpg
-> Bild in der Galerie (http://www.sonyuserforum.de/galerie/details.php?image_id=165241)

Viel Spaß und viele Grüße,
Martin

padiej
01.03.2013, 22:17
Wenn wir uns an den Monitorbildern oder Drucken orientieren, dann können die meisten guten Cams schon mehr liefern, als gezeigt werden kann.

Martins Reserve beim dunklen Laub zeigt es ganz klar auf. Auch umgekehrt kann man zu helle Bereiche photoshoplike reparieren.

Wichtig ist es, im RAW Format zu fotografieren. Dieses Format vergleiche ich immer mit einem ORIGINAL - ÖLBILD, ein JPEG ist nur ein Druck davon.

Erster
01.03.2013, 22:26
Deshalb quetscht die Software diesen Umfang auf einen darstellbaren Kontrastumfang zusammen. Das HDR hat also im Endefekt auf dem Bildschirm keinen größeren Kontrastumfang als eine Einzellaufnahme.
Stimmt. Der maximale Kontrastumfang des Ausgabemediums begrenzt das Ganze. Aber beim HDR wird gegenüber einer Normalaufnahme ein größeres Helligkeitsspektrum auf den Ausgabe-Kontrastumfang umgerechnet. Deshalb sehen HDR-Aufnahmen oft auf den ersten Blick recht flau aus.

Robert Auer
01.03.2013, 22:50
Ich versuche eine periphäre Antwort mit meinem "alten" Wissen:

1) Obwohl Farbnegativfilme einen etwas höheren Kontrast als Farbdiafilme bewältigten, galt für Beide Beleuchtungskontrast i.R. nicht höher 1:4, da Farbvergrößerungspapier nur einen Kontrastumfang von maximal 1:40 wiederzugeben in der Lage ist/war.
Quelle u.a.: Farbfotopraktikum de Gruyter-Verlag, Autor Ernst.A. Weber

2) Die Bildsensoren (CCD's) von Digitalkameras haben eine streng lineare Kennline. Analoge Filme sind im hellen und dunklen Bereich stark nichtlinear.
Trifft also so viel Licht auf den CCD daß dieser schon die Sättigung erreicht hat (er ist gewissermaßen "vollgelaufen"), dann ist diese Stelle am Film noch lange nicht weiß. Ebenso führt bereits wenig Licht zu einer sichtbaren Änderung am Film, wobei am CCD praktisch noch nichts sichtbar ist. (Es gibt also der analoge Film die wahren Lichtverhältnisse stark verzerrt wieder!)
Beim CCD der Digitalkamera sollte man daher Überbelichtungen und zu große Kontraste vermeiden oder schon bei der Aufnahme für das spätere Mischen via "Digital Blending" oder "DRI" berücksichtigen. Andernfalls ärgert man sich schnell über ausgefressene Lichter und tiefschwarze Schatten.

Dunkle Stellen kann man durch Nachbearbeitung am Computer noch etwas nachbessern. Das funktioniert aber nur bei Aufnahmen im RAW-Format zufriedenstellend (soweit an der Kamera vorhanden). Im JPG-Format werden dunkle Bildteile der Kompression geopfert. Daher empfiehlt sich das RAW-Format auch für Nachtaufnahmen.
Quelle: http://www.dffe.at/fotografieren.html
(Vermutlich CMOS-Sensoren analog CCD?)

3) Dichteumfang von einigen Medien und Geräten (Praxis)
Medium bzw.Gerät Dichteumfang/ Blendenstufen
Aufsichtsvorlage 1,5 /5
Dia (Positiv) 2,4 /8
Negativ 3,6 /12
Digitalkamera 2,7 /9
Flachbettscanner 2,1 /7
Filmscanner 4,2 /14
Trommelscanner 4,8 /16
6/Dichte30.gif
-> Bild in der Galerie (http://www.sonyuserforum.de/galerie/details.php?image_id=165242)
Quelle: http://www.filmscanner.info/Dichte.html

cgc-11
14.06.2013, 17:26
Man kann aber erkennen, das für diese Szene mit doch recht großem Dynamikumfang zwischen dem Brunnen und der Allee ein HDR gar nicht nötig und ein aktuelle Kamera im RAW Format völlig ausreichend ist. Daher meine obige Aussage, einfach fotografieren und ausprobieren :)

Deine Aussage ist richtig, aber sie relativiert sich automatisch bei Nachtaufnahmen. Da kommt man schnell in Bereiche jenseits des mit einer Aufnahme machbaren - auch RAW nützt dann nichts mehr ... :flop:

LG Gerhard