Warum soll das HDR da eine Rolle spielen? Ich gehe mal nicht davon aus, dass die Kameras intern ein 32 Bit Format erstellt und dann mit Tonemapping ein 8 Bit. Da eher schon, dass die die 2 16 Bit Bilder mit Fusion verrechnet und daraus dann ein 8 Bit erstellt und das alles im jeweiligen Farbraum dazugibt. Aber davon hängt die Theorie ab.
Zitat:
Das war ja eigentlich die Frage: Spielt das bei RAW überhaupt eine Rolle? Meine Vermutung ist mittlerweile "nein", da RAW ja nur einfach ein Dump der Sensordaten sein sollte. Die werden dann von der Software am Rechner in das Farbsystem konvertiert, das man der Software sagt, kann also auch was anderes wie z.B. eciRGB sein.
|
Spielt keine Rolle, aber es ist auch kein Dump. Allein schon dadurch, dass DRO in der kleinsten Einstellung auch das RAW beeinflusst.
Zitat:
Das ist eigntlich gar nicht so schwer:
AdobeRGB Eingabedatei->inverses AdobeRGB Gamma->linear AdobeRGB nach XYZ->XYZ
nach linear sRGB->sRGB Gamma->Displaydarstellung
|
Von dem abgesehen, dass wir nicht wissen, woher sie was verarbeiten, gibt es 4 Rending Indents, je nach Anforderungen und dann sind aber schon bei einem ordentlichen Farbmanagement in der Kamera. Wenn sowas notwenig ist, dann gibts ja die Tethering Lösung z.B. bei A900 oder über Eye-Fi auf einen kalibrierten Monitor.
Aber unabhängig davon sind das natürlich schon Eigenheiten, die am Anfang nerven, die aber letztlich dann mit Erfahrung in den Griff kommen. Denke auch an die DRO Falle ;-)