|
Der Sensor einer Kamera kann im Gegensatz zum menschlichen Auge eine wesentlich geringere Spanne von Hell bis Dunkel aufnehmen. Alle Bereiche im Bild, die darüber oder darunter sind, sind schwarz und weiß. Dies wird Dynamikumfang genannt und in Blendenstufen angegeben.
Es liegt im Ermessen des Fotografen, entweder so zu komponieren, dass das Bild diesen Dynamikumfang nicht überfordert oder eben helle bzw. dunkle Bereiche ausfressen zu lasssen (z.B. in Gegenlichtsituationen: Motiv gut Belichtet -> Himmel weiß oder Himmel richtig belichtet und Motiv schwarz).
Dies lässt sich auch durch den Blick auf das Live-Histogramm schon bei der Aufnahme erkennen.
Im eigentlichen Sinne benutzt man HDR = High Dynamic Range dafür, diese Limitierung aufzuheben und jegliche Information von ganz hell bis ganz dunkel auch darzustellen, so dass du gar keine Bereiche ohne Zeichnung im Bild hast.
Dein moderner Bildsensor ist aber besonders unter Berücksichtigung der RAW-Reserven in der Lage, einen relativ hohen Dynamikumfang darzustellen, so dass die meisten Bilder auch ohne HDR-Technik gut und richtig dargestellt werden. Ich denke, dass das auch bei deinen Bildern der Fall ist.
Unterscheiden muss man hier das HDR im eigentlichen Sinne vom "HDR-Effekt" durch Tonemapping, bei dem die Mikrokontraste stark erhöht werden und es zu dem typischen (auch auf deinen Bildern zu sehenden) HDR-Look kommt.
Wenn du diesen Look erzielen möchtest und der Dynamikumfang deines Motives ausreicht, kannst du getrost auch den Look per EBV hinzufügen bzw. künstlich erstellen. In diesem Fall könntest also durchaus ein scharfes Bild mit deinem gewünschten Look erhalten.
|