SonyUserforum

SonyUserforum (https://www.sonyuserforum.de/forum/index.php)
-   Sony RX- und ZV-1-Serie (https://www.sonyuserforum.de/forum/forumdisplay.php?f=14)
-   -   A2: RAW oder JPEG (https://www.sonyuserforum.de/forum/showthread.php?t=7322)

WinSoft 12.05.2004 12:44

Zitat:

Zitat von andys
Die Leica R soll ja zur Photokina vorgestellt werden.

Die Leica R gibt es seit 1976 und nicht erst zur diesjährigen Photokina...

andys 12.05.2004 12:59

Zitat:

Zitat von WinSoft
Zitat:

Zitat von andys
Die Leica R soll ja zur Photokina vorgestellt werden.

Die Leica R gibt es seit 1976 und nicht erst zur diesjährigen Photokina...

Sehr gut Herr Winsoft, gut aufgepasst. Dagegen habe ich kein Argument.

Andys

-Silvax- 12.05.2004 13:15

Zitat:

Zitat von WinSoft

Kann Ihren Worten nicht ganz folgen: Um ein Bild oder einen Ausschnitt hier zeigen zu können, MUSS ich nach JPEG konvertieren! Oder wie sollte ich RAW hier zeigen?

Außerdem habe ich ja geschrieben, dass die RAW-Konversion in TIFF verlustlos zwischengespeichert wird. Also nichts mit "gleich in jpeg umwandeln". Bitte, immer genau lesen...

Und was heißt "Wenn man dieses nicht nutzt ..."? Zunächst kann man doch wohl nur in RAW fotografieren, oder? Und dann sieht man sich im RAW-Konverter das Ergebnis an. Wenn es - wie in meinen Fällen - nichts zu korrigieren gibt, was soll man denn da noch herumschrauben? Glauben Sie denn ernsthaft, dass man ein Bild, das einem bereits perfekt erscheint, durch weitere Manipulationen noch weiter "bessern" kann? Ich glaube eher, dass manche Kameras so schlechte Ausgangsbilder liefern, so dass in diesen Fällen tatsächlich besser RAW angesagt ist als bei der A2. :)

Hallo Winsoft,

genau das ist ja das Problem Wenn man eine Aufnahme mit RAW macht und diese danach verlustfrei zwischenspeichert oder was auch immer und dann in jpg umwandelt da wird sich nicht viel verändern. Veränderungen sieht man erst wenn man das RAW potential nutzt und versucht schwierige Zeichnungen, Strukturen wieder hervorzuheben. In Ihrem Fall war das leider nicht der Fall.

Nach der Aufnahme kann man im Konverter schon die Korrekturen vornehmen.

Sie schreiben: Wenn es - wie in meinen Fällen - nichts zu korrigieren gibt, was soll man denn da noch herumschrauben?

nehmen wir mal dieses Bild: http://www.schulacc.de/Bilder/A2-RAW-2.jpg
achten Sie mal auf den linken Bereich des Reifens, dieser ist nur noch eine schwarze Fläche. Haben Sie schonmal versucht diese mit dem RAW-Konverter nachzuarbeiten und Strukturen hervorzuheben ? Nach diesem Bild sieht es "für mich" nicht danach aus. Und wenn man dieses nicht nacharbeitet wird man auch kein Vorteil mit einer RAW-Aufnahme haben wenn man diese nach der Aufnahme einfach in jpg umwandelt. Da ist es auch egal obs irgendwo zwischengespeichert wird.
Ich bin mir sicher das man selbst bei der A2 die Unterschiede erkennen würde. ;)

U.Schaffmeister 12.05.2004 13:52

Zitat:

Zitat von andys
Jein, für unsereins ist das sicher gleichwertig. Aber eine Bilddatei auf 16 Bit oder 48 Bit würde nochmal schätzungsweise 2, bei HighEnd Kameras 3Blenden Belichtungsspielraum mehr bringen. Dann hätten wir den Belichtungsspielraum eines modernen Negativfilms.

Andys

Die Farbtiefe einer Datei hat leider nicht wirklich etwas mit dem Belichtungsumfang zu tun. Einzig und allein die Unterteilung der Farbstufen wird mit höher Farbtiefe feiner.
Die 12bit der Dimage-Reihe werden im DIVU auf 16bit gespreizt, ansonsten würden immer Bilder ohne Lichter oder Schatten entstehen.


Die Speicherung im RAW-Format ist vergleichbar einer Aufnahme auf Filmmaterial. Das maximal Mögliche der Kamera wird gespeichert. Genau wie beim Filmmaterial muss dieses Rohformat danach noch für das Ausgabemedium angepasst werden, und hierbei ist, je nach Ausgabemedium, eine individuelle Anpassung erforderlich. Ob man den Zwischenschritt über 16bit TIFF geht oder direkt in 8bit JPEG konvertiert ist letztendlich dem persönlichen Workflow zuzuschreiben. Vom Ergebnis her dürfen beide Varianten im direkten Vergleich nur marginale Unterschiede aufweisen. Erfolgt die Anpassung erst nachträglich (z.B. bei einem 8bit JPEG) dann sind diese Anpassungen verlustbehaftet, vergleichbar dem Weg Negativfilm -> Abzug -> Einscannen des Abzuges und anschließende Bearbeitung dieses Abzugs. Hier zeigt sich dann auch ob die erste Konvertierung wirklich optimal gewesen ist.

andys 12.05.2004 14:56

Zitat:

Zitat von schaffmeister

Die Farbtiefe einer Datei hat leider nicht wirklich etwas mit dem Belichtungsumfang zu tun. Einzig und allein die Unterteilung der Farbstufen wird mit höher Farbtiefe feiner.
Die 12bit der Dimage-Reihe werden im DIVU auf 16bit gespreizt, ansonsten würden immer Bilder ohne Lichter oder Schatten entstehen.

Ich zitiere aus Jost Marchesi Digital Photokollegium 1 Lektion 1, Seite 15 fast am Ende der Seite:
"Bei Direktaufnahmen mit Digitalkameras, welche mit einer größeren Bittiefe arbeiten, wird zudem der Belichtungsspielram deutlich erhöht....."

Andys

U.Schaffmeister 13.05.2004 00:58

Zitat:

Zitat von andys
Ich zitiere aus Jost Marchesi Digital Photokollegium 1 Lektion 1, Seite 15 fast am Ende der Seite:
"Bei Direktaufnahmen mit Digitalkameras, welche mit einer größeren Bittiefe arbeiten, wird zudem der Belichtungsspielram deutlich erhöht....."

Andys

Da steht Belichtungsspielraum und nicht Belichtungsumfang!
Oder anderst herum gesagt: Wird das Weiß deines Monitors heller nur weil deine Grafikkarte von 16bit auf 24bit Farbtiefe umgestellt wurde???

Einen größeren Belichtungsumfang als bei der Einstellung "Kontrast maximal Minus" gibt es nicht, egal ob 12bit RAW oder 8bit JPEG.

andys 13.05.2004 01:08

Zitat:

Zitat von schaffmeister
Zitat:

Zitat von andys
Ich zitiere aus Jost Marchesi Digital Photokollegium 1 Lektion 1, Seite 15 fast am Ende der Seite:
"Bei Direktaufnahmen mit Digitalkameras, welche mit einer größeren Bittiefe arbeiten, wird zudem der Belichtungsspielram deutlich erhöht....."

Andys

Da steht Belichtungsspielraum und nicht Belichtungsumfang!
Oder anderst herum gesagt: Wird das Weiß deines Monitors heller nur weil deine Grafikkarte von 16bit auf 24bit Farbtiefe umgestellt wurde???

Einen größeren Belichtungsumfang als bei der Einstellung "Kontrast maximal Minus" gibt es nicht, egal ob 12bit RAW oder 8bit JPEG.

Du hast Recht, ich habe das falsche Wort benutz. Ich meinte Belichtungsspielraum. Ich hätte sonst nicht bei Marchesi nach elichtugsspielraum gesucht.

Andys

ddd 13.05.2004 09:38

moin,
bitte benutzt statt 'Belichtungsumfang' besser 'Kontrastumfang'.

Kontrastumfang: Abstand zwischen dem hellsten Wert, der grade 'weiss' ergibt und dem dunkelsten Wert, der grade 'schwarz' liefert.
Alles ausserhalb wird 'perfekt' 'weiss' bzw. 'schwarz' (Ausfressen der Lichter, Absaufen der Schatten).
K. ist unabhängig von der bit-Tiefe und hat wenig mit Belichtungsspielraum zu tun. Ein 2bit-Format kann einen riesigen Kontrastumfang haben, hat dann aber zwangsläufig eine sehr steile Gradation. Der B-Spielraum ist davon (theoretisch) unabhängig.

Gradation: Anzahl der unterscheidbaren Werte zwischen 'schwarz' und 'weiss', harte Gradation - wenig Zwischentöne, weiche G. - viele Tonwerte.
Die hängt offensichtlich stark von der bit-Tiefe ab, da max. 2^bit-Tiefe Werte angebbar sind. Reale Systeme nutzen idR. nicht alle möglichen Werte.

Wie Ihr jetzt Belichtungsspielraum mit bit-Tiefe koppelt, ist mir nicht klar. Denn der kann nur existieren, wenn der Kontrastumfang nicht überschritten ist. Folglich gibts 'jetzt' ob des noch beschränkten Kontrastumfanges real existierender ungekühlter Consumer-CCD-Sensoren gar keinen B-Spielraum.

Und dass DiVu die 12bit-Werte auf 16bit spreizt, halte ich für (sorry) groben Unfug. Was für einen Sinn sollte das machen? Folgende Überlegung illustriert das:

Die 3*16=48bit im TIFF48 haben wenig mit CCD-Sensor-A/D-Wandler-Auflösungen oder Reserven für zukünftige solche zu tun.

Computer haben nun mal die Angewohnheit (heutzutage jedenfalls, war nicht immer so: pdp10-18bit, bruker-24bit, ...) mit Zweierpotenzen von 8bit zu arbeiten. Ein 12bit-Format (36bit-TIFF z.B.) müsste im Hauptspeicher eh auf 16bit 'erweitert' werden, damit man effektiv damit rechnen kann. Sonst würde bei jedem Zugriff ersteinmal ein 'Entpacken' der Kanäle notwendig werden (die 'komprimierte' Speicherung der 'r..'-Daten ab der A1 ist genau ein solches Packen der 12bit-Kanaldaten, komprimiert (verlustlos) wird da nix).

M.W. wurde TIFF48 eingeführt, um während der Bearbeitung die in der Numerik als 'Auslöschung' bekannten Probleme bei multiplikativen Operationen zu entschärfen: Multipliziert man an eine Zahl einen kleinen Faktor, so 'shiftet' man die Information in die niedrigen Bits. Speichert man die (in der CPU idR 80bittigen) (real-)Zahlen jetzt als Integer ab, werden die niederwertigsten Bits abgeschnitten, und es ist wirklich Information verlorengegangen (das ist jetzt didaktisch verkürzt, sorry).
Deshalb arbeiten bessere EBV's mit mehr als den hinterher im fertigen Bild notwendigen 24bit. Sonst würden multiplikative Bearbeitungsschritte Daten vernichten, was nach mehreren Operationen nicht mehr zu übersehen wäre.

Daraus folgt, dass mit der Verfügbarkeit 'echter' 16bit-Rohdaten auch TIFF48 nicht mehr ausreicht... die nächste Stufe wäre TIFF72 (krude) oder eher TIFF96 (ich meine davon im wissenschaftlichen Bereich schon mal gehört zu haben).

Für Fotos spielt das dann keine Rolle mehr, im Zusammenhang mit Messungen (astronomisch z.B.) aber schon.

PS: ich will die Kundigen nicht belehren! Aber es lesen viel mit, die (noch) wenig Erfahrung/Kenntnisse haben, und deshalb kann ichs nicht lassen.

so long ;-)

andys 13.05.2004 11:46

Hallo ddd,

ich verstehe deine Erklärungen nicht ganz. Ich bin praktiker und kein Theoretiker.
Zum einen würde ich in unserem Fall nicht von Kontrastumfang sondern von Dichteumfang reden.
Aber ich verstehe nicht, wieso Kontrast nicht im Zusammenhang mit Belichtungsspielraum steht. Wenn ich in Griechenland auf einer Insel mit weißen Häusern und Meer im Hintergrund fotografieren und eine Person im Schatten eines Baumes ein Foto machen wollte, hätte ich bei dem Kontrast mit dem Negativfilm eine gute Chance ein schönes Foto hinzubekommen. Beim Dia bräuchte ich den Versuch kaum zu machen, entweder das Meer ist überstrahlt oder der Schatten eine schwarze Fläche.
Oder sehe ich das falsch.
Andys

U.Schaffmeister 13.05.2004 12:32

Zitat:

Zitat von ddd
moin,
bitte benutzt statt 'Belichtungsumfang' besser 'Kontrastumfang'.

Kontrastumfang: Abstand zwischen dem hellsten Wert, der grade 'weiss' ergibt und dem dunkelsten Wert, der grade 'schwarz' liefert.
Alles ausserhalb wird 'perfekt' 'weiss' bzw. 'schwarz' (Ausfressen der Lichter, Absaufen der Schatten).
K. ist unabhängig von der bit-Tiefe und hat wenig mit Belichtungsspielraum zu tun. Ein 2bit-Format kann einen riesigen Kontrastumfang haben, hat dann aber zwangsläufig eine sehr steile Gradation. Der B-Spielraum ist davon (theoretisch) unabhängig.

Gradation: Anzahl der unterscheidbaren Werte zwischen 'schwarz' und 'weiss', harte Gradation - wenig Zwischentöne, weiche G. - viele Tonwerte.

Hallo Thomas mit dem Begriff Kontrastumfang widerlegst Du dich direkt selbst. Aber Du hast Recht das ein 2 Bit Format einen maximalen Kontrastumfang haben kann, da die Werte an den Grenzen der Farbtiefe liegen.
Unter Gradation versteht man eher die Interpretation der Gammakurve, sprich wie werden Helligkeitswerte in Farbwerte umgesetzt. Eine steile Kurve entspricht einer harten Gradation, eine flache Kurve einer Weichen.

Der Belichtungsumfang gibt an wie vorhandene Lichtwerte in digitale Daten übersetzt werden. Hierbei macht man eine Testaufnahmenreihe und verdoppelt mit der nächsten Aufnahme jeweils die zugeführte Lichtmenge (=1 Blende). Anschließend betrachtet man die Ergebnisse und sucht die Aufnahmen ab denen die maximalen Digitalwerte erreicht werden. Mit diesem Wissen kann man sagen das ein Belichtungsumfang von z.B. 8 Blenden differenziert werden kann (alle höheren Lichtwertdifferenzen führen zu keiner sichtbaren Veränderung des Bildes).
Anhand der Aufnahmereihe kann man zudem den Gammawert (Gradationskurve) bestimmen, indem man Lichtwert gegen digitalen Wert aufträgt. Hat man den Gammawert bestimmt läßt sich eine Korrekturkurve für das Ausgabemedium erstellen, die die digitale Datei in ein resultierendes Gamma von 1 (linearer Anstieg des Helligkeitsverlaufs) überführt.

Die Farbtiefe in Bit differenziert die Farbstufen. Eine hohe Farbtiefe hat bei normalen Fotos keinen sichtbaren Effekt (Ein gutes SW-Foto kommt mit ca 32 Graustufen aus), erst wenn Verläufe ins Spiel kommen ist eine hohe Farbtiefe für die Güte des Verlaufs entscheidend.
(Z.B. ein Blauverlauf am Monitor bei 1024x786 Auflösung. Bei 24 bit und reinen Blautönen bleiben 8bit = 256 Farbtöne über, womit ein Verlauf aus ca. 3 Pixel dicken Linien besteht [Idealer Verlauf]. Da dies visuell auffällig ist bleibt nichts anderes übrig als den Verlauf mit Störungen zu versehen, die die Farbbalken durchbrechen [Simulation von Zwischentönen].)

Um bei der Dimage zu bleiben: Eine Farbtiefe von 12 bit in einem 16 bit Farbraum würde linear übertragen einen verminderten Kontrastumfang der digitalen Datei bedeuten. Erst eine Spreizung von 12 auf 16 bit ergibt den maximalen Kontrastumfang, bei gleichzeitiger Aufsteilung der Gradation. Bei jeglicher nachträglichen Manipulation der digitalen Daten ist der Belichtungsumfang aber nicht mehr vergrößerbar! [Es sei denn du versuchst es mit DRI].


Alle Zeitangaben in WEZ +2. Es ist jetzt 18:39 Uhr.