PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : RAW vs. CRAW


mango_tree
01.07.2010, 20:23
Hallo,

habe bisher immer das craw-Format verwendet. Hat hier jemand Erfahrung ob es da große Unterschiede bezüglich der Qualität zum raw-Format gibt?

Für ein paar Hinweise wäre ich sehr dankbar (bin mit einer A900 u. Aperture 3 unterwegs).

Peter

Neonsquare
01.07.2010, 20:36
Laut Sony gibt es keine Qualitätsunterschiede zwischen craw und raw.

Gruß,
Jochen

Ta152
01.07.2010, 21:02
Da gibt es ein paar Threads zu. Es gibt Testbilder auf denen man einen Qualitätsverlust nachweisen konnte, allerdings sehr technisch Testbilder die selten der Realität entsprechen (am nächsten dran kam Astrofotografie). Anders gesagt der Qualitätsverlust ist minimal.

Lord of Steel
01.07.2010, 22:35
Ich habe länger mit RAW fotografiert, dann mit CRAW. Macht in meinen Augen in der Praxis keinen Unterschied.
RAW hat aber dann einen Vorteil, wenn man die Bilder - so wie ich - zum Speicherplatz-Sparen in dng konvertiert. Interessanterweise sind konvertierte RAWs kleiner als konvertierte CRAWs.

mango_tree
01.07.2010, 23:53
Danke,

werde dann bei craw bleiben.

Peter

Neonsquare
02.07.2010, 04:44
Ich hab mir die Implementierung der Sony cRAW-Dekomprimierung in dcraw.c mal näher angeschaut. Das ist ganz schön gewieft was da passiert :D (keine Angaben auf Gewähr)

Es werden immer Blöcke aus 16 Pixeln komprimiert. Dabei wird der größte und der kleinste Wert bestimmt und im cRAW gespeichert (jeweils als 11 Bit Wert). Die Position 0-15 des minimalen Werts und des maximalen Werts werden danach mit jeweils 4 Bit kodiert. Damit sind von 16 späteren Pixeln noch 14 Pixel zu speichern. Diese werden als 7-Bit Offset zum Minimalwert gerechnet. So wird aus ursprünglich 16 x 12 Bit = 192 Bit = 24 Bytes ein komprimierter Block aus 11+11+4+4+(14x7) = 128 Bit = 16 Bytes.

11 11 4 4 7 7
[max][min][maxpos][minpos][pixel1]...[pixel14]

Doch was heißt das nun bezüglich der Bildqualität? Diese Methode baut darauf, dass innerhalb eines Bereichs von 16 Pixeln niemals der vollständige (theoretische) Dynamikumfang von 12 Bit benötigt wird. Liegen die Werte relativ nah zusammen, dann besteht kein Unterschied zum unkomprimierten RAW. Problematisch wird es nur, wenn der Kontrastunterschied innerhalb dieser 16 Pixel sehr groß wird. Wobei man generell bedenken sollte, dass dies alles sowieso noch vor der eigentlichen Interpolation ist, die aus dem Bayer-Muster überhaupt erst ein RGB-Bild erzeugt.

Gruß,
Jochen

Joshi_H
02.07.2010, 05:24
Hallo Jochen,

Danke für den Einblick. Ich als Informatiker teile Deine Meinung: sehr gewieft und ausgefuchst. Allerdings sind diese Algorithmen schon länger bekannt und finden hier ein sehr sinnvolles Anwendungsfeld.

Wobei man generell bedenken sollte, dass dies alles sowieso noch vor der eigentlichen Interpolation ist, die aus dem Bayer-Muster überhaupt erst ein RGB-Bild erzeugt.



... und damit deutlich weniger Einfluß auf die Bildqualität hat als die Interpolation selber, oder?!

Grüße,

Jörg

Stuessi
02.07.2010, 05:30
...Doch was heißt das nun bezüglich der Bildqualität? Diese Methode baut darauf, dass innerhalb eines Bereichs von 16 Pixeln niemals der vollständige (theoretische) Dynamikumfang von 12 Bit benötigt wird. Liegen die Werte relativ nah zusammen, dann besteht kein Unterschied zum unkomprimierten RAW. Problematisch wird es nur, wenn der Kontrastunterschied innerhalb dieser 16 Pixel sehr groß wird. Wobei man generell bedenken sollte, dass dies alles sowieso noch vor der eigentlichen Interpolation ist, die aus dem Bayer-Muster überhaupt erst ein RGB-Bild erzeugt.

Gruß,
Jochen

Hallo Jochen,

vermutlich wird dann das niederwertigste Bit weggelassen und hinterher durch eine Null ergänzt.
Ich sehe für die Bildqualität eher einen Nachteil, wenn nur geringe Kontraste auftreten, z.B. bei einem Bild im Nebel.
Aus xxxxxxxx0000 bis xxxxxxxx1111 wird dann xxxxxxxx0000 bis xxxxxxxx1110, statt 16 Stufen existieren nur noch 8.

Gruß,
Stuessi

wolfram.rinke
02.07.2010, 06:25
Hallo,
laut Sony ist das RAW-Format eine verlustfreie Komprimierung der Daten und das cRAW ein verlustbehaftete Komprimierung der Bilddaten. JPEG ist auch eine verlustbehaftete Komprimierung. Der entstehende Verlust an Bildinformation ist sicherlich Situationsbedingt.

Neonsquare
02.07.2010, 07:27
@wolfram.rinke
Wo kann man dieses Statement von Sony nachlesen?

Gruß,
Jochen

dominik.herz
02.07.2010, 08:27
Interessanterweise sind konvertierte RAWs kleiner als konvertierte CRAWs.

Doppelt komprimieren macht halt groß - kurz gesagt ;)
Der Gewinn beim Komprimieren von RAW nach DNG ist aber nicht soooo erheblich im Vergleich zu RAW zu cRAW.

Neonsquare
02.07.2010, 09:25
Hallo Jochen,

vermutlich wird dann das niederwertigste Bit weggelassen und hinterher durch eine Null ergänzt.
Ich sehe für die Bildqualität eher einen Nachteil, wenn nur geringe Kontraste auftreten, z.B. bei einem Bild im Nebel.
Aus xxxxxxxx0000 bis xxxxxxxx1111 wird dann xxxxxxxx0000 bis xxxxxxxx1110, statt 16 Stufen existieren nur noch 8.

Gruß,
Stuessi

So wie ich es verstehe reduzieren sich die Werte erstmal auf 11 Bit, da ja der maximale und minimale Wert mit 11 Bit abgelegt werden und über die 7-Bit-Werte ja lediglich die Spanne zwischen Max und Min kodiert werden.

Im Prinzip funktioniert das ca. so:


12 Bit
/ \
/ \
/ \
/ \
/ \
! m M ! Kleiner Dynamikumfang
! m M ! Mittlerer Dynamikumfang
!m M! Großer Dynamikumfang


Insgesamt bieten die cRAW auch 12 Bit Werte - aber gespeichert werden Werte, die anhand des jeweils lokalen Dynamikumfangs bestimmt werden. In der ersten Zeile ist der Dynamikumfang relativ klein - so dass 7 Bit Spanne von m bis M ausreichen. Beim Mittleren Dynamikumfang erreicht man eine Spanne, die sich gerade noch mit 7-Bit kodieren lässt. In der dritten Zeile ist der Dynamikumfang so groß, dass die 7-Bit nicht mehr vollständig ausreichen um sämtliche Zwischenwerte zu kodieren. Betrachtet man das Bild insgesamt, so sollte klar sein, dass der abbildbare Dynamikumfang größer ist - man muss dazu quasi das kleinste Minimum und das größte Maximum gegenüberstellen.

Was mir noch nicht klar ist:
1) dcraw.c benutzt ein Feld "curves" um das Dekomprimierte 11-Bit Resultat auf den finalen Wert zu setzen. Mir ist noch nicht klar was für eine Abbildungsfunktion dahintersteckt
2) Ist das wirklich der Algorithmus oder womöglich eine nicht ganz stimmige Rekonstruktion. Ich habe da ein paar Indizien gesehen, die andeuten, dass das noch nicht das ganze Ding ist.

Gruß,
Jochen

MD800
02.07.2010, 09:40
...
Der Gewinn beim Komprimieren von RAW nach cRAW ist aber nicht soooo erheblich im Vergleich zu RAW zu cRAW.

Grübel, was will mir der Autor damit sagen:?:

Grüße
Uwe

Moonklif
02.07.2010, 10:13
Grübel, was will mir der Autor damit sagen:?:

Grüße
Uwe

er meinte wohl RAW -> cRaw und RAW -> DNG

dominik.herz
02.07.2010, 10:17
er meinte wohl RAW -> cRaw und RAW -> DNG

Meinte er (vor seinem ersten Kaffee) - Sorry!

alberich
02.07.2010, 10:32
Sony a900 - cRAW vs RAW (http://www.dyxum.com/dforum/topic41098.html)

The consolidated CRAW compression thread (http://www.dyxum.com/dforum/the-consolidated-craw-compression-thread_topic22802_page1.html)

:)

RainerV
02.07.2010, 10:43
Da auch hier immer wieder DNG ins Spiel gebracht wird.

Wer sicher auch zukünftig immer in der Adobe-Welt bleiben will, mag sich überlegen, seine Raws durch gewandelte DNGs zu ersetzen. Wer auch andere Konverter einsetzen will - oder zumindest nicht ausschließen will, das später einmal zu tun - der sollte sich diesen Schritt gut überlegen. Die meisten Nicht-Adobe-Konverter kommen nicht, oder nur sehr eingeschränkt mit DNGs zurecht. Da nützt es auch nichts, wenn immer wieder die "Zukunftssicherheit" von DNG im Vergleich zu den "proprietären" Formaten beschwört wird. Das Gegenteil ist der Fall.

Rainer

wolfram.rinke
03.07.2010, 08:52
@wolfram.rinke
Wo kann man dieses Statement von Sony nachlesen?



Das Benutzerhandbuch zur Alpha700 beschreibt cRAW als "komprimiert" und RAW als "Rohdaten". (S96) Eine weitere Fußnote verweist auf eine Komprimierung von 60-70% (!). Dies dürfte sicher aber nicht auf cRAW sondern auf die "JPEG fein" Formateinstellung beziehen. Zitat: "Die Daten werden um 60 bis 70% im vergleich zu einem nicht komprimierten Bild komprimiert."

Im Benutzerhandbuch der Alpha850 wird auf S100 ebenfalls cRAW als "komprimiert" beschrieben und mit der Anmerkung "Die Daten werden um 60 bis 70% im vergleich zu einem nicht komprimierten Bild komprimiert." angegeben.

Im Alpha 700 handbuch sind 2 Fußnoten angegeben im Alpha850 Handbuch nur mehr eine Fußnote mit dem selben Text. Ich vermute, dass es sich dabei um einen Übersetzungsfehler handelt. Bzw sich die Angaben bei der A850 nicht auf das cRAW sondern auf das "JPEG fine" Format beziehen (wie bei der Alpha700).

Scheibl beschreibt in seinem Buch "Sony Alpha 700" auf Seite 19ff das RAW-Dateiformat leider nicht korrekt. Er stellt das RAW als "völlig unkomprimiert" und cRAW als "verlustfrei komprimiert" dar. Frank Exner beschreibt in seinem Buch "Sony Alpha 700 (Digital ProLine, Data Becker)" das cRAW Format als komprimiertes RAW Format mit "nahezu" verlustfrei.

Die schwankenden Dateigrößen eines RAW Bildes, sind durch die eine Verlustfreiekomprimierung zu erklären, da ein völlig unkomprimiertes Bild mit zB 24MPixel und 12Bit ADC je Farbpixel ergibt 48 Bit je Pixel (wegen RGBG Bayer-Pattern), d.h. 6Byte je Pixel. Somit liefert ein RAW Sensor 144MB an Daten. Tatsächlich hat die RAW Datei aber nur zw. 34-36MByte. Was bedeutet, dass die RAW Daten verlustfrei komprimiert sein müssen. Das cRAW Format interpretiert mit seinem Verfahren den Bildinhalt bzw. und interpoliert zwischen den Min und Max Wert, wodurch zumindest theoretisch und auch real ein Datenverlust auftritt, der sich aber in der JPEG Ausarbeitung nicht erkennbar macht.

Ein technisches Benutzerhandbuch wäre zur Alpha Serie sicher sehr hilfreich.

aidualk
03.07.2010, 09:45
... Somit liefert ein RAW Sensor 144MB an Daten. Tatsächlich hat die RAW Datei aber nur zw. 34-36MByte. Was bedeutet, dass die RAW Daten verlustfrei komprimiert sein müssen.

:top: Wenn du ein raw Bild entwickelst, hat es exakt 144MB im Tiff Format. Es scheint tatsächlich nichts verloren zu gehen.
Frage: wieviel MB hat ein entwickeltes craw im Format Tiff? (da ich keines davon auf der Platte habe, kann ich nicht nachschauen, müsste extra eines produzieren, hab aber gerade die Kamera nicht hier ;) )

Neonsquare
03.07.2010, 10:13
Das Benutzerhandbuch zur Alpha700 beschreibt cRAW als "komprimiert" und RAW als "Rohdaten". (S96) Eine weitere Fußnote verweist auf eine Komprimierung von 60-70% (!). Dies dürfte sicher aber nicht auf cRAW sondern auf die "JPEG fein" Formateinstellung beziehen. Zitat: "Die Daten werden um 60 bis 70% im vergleich zu einem nicht komprimierten Bild komprimiert."


Hm... steht da wirklich "um"? Bei cRAW sind die Bilder gegenüber RAW auf 60-70% der Größe komprimiert. Unterschiede ergeben sich durch das eingebettete JPEG.


Scheibl beschreibt in seinem Buch "Sony Alpha 700" auf Seite 19ff das RAW-Dateiformat leider nicht korrekt. Er stellt das RAW als "völlig unkomprimiert" und cRAW als "verlustfrei komprimiert" dar. Frank Exner beschreibt in seinem Buch "Sony Alpha 700 (Digital ProLine, Data Becker)" das cRAW Format als komprimiertes RAW Format mit "nahezu" verlustfrei.


Das kommt halt darauf an wie pfennigfuchserisch man sein möchte. Betrachtet man isoliert den Komprimierprozess nach Aufnahme der Sensordaten, dann kann es in der Tat so sein, dass die später dekomprimierten Werte teilweise von den eigentlichen Sensorwerten abweichen. Allerdings: Es ist nicht bekannt, in welchem Rahmen sich die Sensorwerte wirklich bewegen und inwiefern überhaupt innerhalb eines 16 Pixel Zeilensegments einer Farbe (!) derart starke Wertunterschiede vorkommen können. Schon der Antialiasingfilter könnte die möglichen Inputdaten ausreichend beschränken. Dann kommt hinzu inwiefern Wertunterschiede überhaupt über das Sensorrauschen hinweg messbar bleiben - denn was bringt es, exakt die gemessenen Sensorwerte zu haben, wenn die Unterschiede bloß innerhalb des Rauschens liegen würden. Nicht zuletzt sollte man bedenken, dass bei RAW-Fotos basierend auf dem Bayer-Muster IMMER ein Interpolationsschritt erfolgt, der alleine schon je nach Algorithmus unterschiedliche Resultate liefert. Also: isoliert betrachtet und unter der Annahme, dass die Inputdaten tatsächlich ausreichend variieren können wäre die cRAW-Komprimierung verlustbehaftet. Betrachtet man das Gesamtsystem, dann ist das aber nicht mehr so klar. Dazu sollte man bedenken, dass "verlustbehaftet" bei Formaten wie MP3 oder JPEG bedeutet, dass man als Mensch im besten Fall keine Unterschiede wahrnimmt während bei der cRAW-Komprimierung die Unterschiede womöglich schon durch die Bearbeitungspipeline nicht mehr nachvollziehbar sein könnten.


Die schwankenden Dateigrößen eines RAW Bildes, sind durch die eine Verlustfreiekomprimierung zu erklären, da ein völlig unkomprimiertes Bild mit zB 24MPixel und 12Bit ADC je Farbpixel ergibt 48 Bit je Pixel (wegen RGBG Bayer-Pattern), d.h. 6Byte je Pixel. Somit liefert ein RAW Sensor 144MB an Daten. Tatsächlich hat die RAW Datei aber nur zw. 34-36MByte. Was bedeutet, dass die RAW Daten verlustfrei komprimiert sein müssen. Das cRAW Format interpretiert mit seinem Verfahren den Bildinhalt bzw. und interpoliert zwischen den Min und Max Wert, wodurch zumindest theoretisch und auch real ein Datenverlust auftritt, der sich aber in der JPEG Ausarbeitung nicht erkennbar macht.


Die schwankenden Dateigrößen liegen in erster Linie mal an den eingebetteten JPEG-Vorschaubildern. Die 24MPixel eines Bayersensors sind allerdings alle Graupixel - es zählen also die R G und B Pixel alle mit rein. Die Datenmenge sind also 12x24/8=36MByte an Graupixeln, die beim Demosaicen entsprechend dem Bayer-Muster interpoliert werden. In den RAW-Dateien liegen die Daten also völlig umkomprimiert vor.

Übrigens sind es natürlich im TIFF 144MB, weil das TIFF 24MPx(16Bitx3)/8 = 144MB an Daten enthält. Die R, G und B Pixel des Bayer-Sensors werden nicht kombiniert! Für jeden der 24MP wird anhand seines Wertes und seiner Umgebung die R, G und B Komponente errechnet. Sonst würde die "Pixelposition" im späteren Bild ja gar nicht mehr mit der "Pixelposition" auf dem Sensor übereinstimmen.

Ob bei cRAW tatsächlich real ein Datenverlust auftritt kann man so nicht klar sagen. Das gesamte Prinzip eines Bayer-Sensors ist statistisch und nicht exakt - ob die technisch möglichen Variationen der Sensorwerte sich also innerhalb der ganzen Pipeline von Sensordaten zu 16Bit RGB-Daten (also noch vor JPEG-Wandlung!) tatsächlich als statistisch signifikant erweisen, das ist so nicht klar.


Ein technisches Benutzerhandbuch wäre zur Alpha Serie sicher sehr hilfreich.


Oh ja, das wäre es wirklich!

Gruß,
Jochen

frame
03.07.2010, 10:15
:top: Wenn du ein raw Bild entwickelst, hat es exakt 144MB im Tiff Format. Es scheint tatsächlich nichts verloren zu gehen.
Frage: wieviel MB hat ein entwickeltes craw im Format Tiff? (da ich keines davon auf der Platte habe, kann ich nicht nachschauen, müsste extra eines produzieren, hab aber gerade die Kamera nicht hier ;) )

das ist natürlich genausogross - Pixelzahl*16bit

Es können ja keine Pixel verlorengehen ...

wolfram.rinke
03.07.2010, 22:01
Ich habe eben 2 Testfotos gegen einen kontrastlosen Hintergrund (weisse Wand).
Das RAW Bild ist 36MB das cRAW ist 24MB (bzw. 1/3) kleiner.

Doch was heißt das nun bezüglich der Bildqualität? Diese Methode baut darauf, dass innerhalb eines Bereichs von 16 Pixeln niemals der vollständige (theoretische) Dynamikumfang von 12 Bit benötigt wird. Liegen die Werte relativ nah zusammen, dann besteht kein Unterschied zum unkomprimierten RAW. Problematisch wird es nur, wenn der Kontrastunterschied innerhalb dieser 16 Pixel sehr groß wird. Wobei man generell bedenken sollte, dass dies alles sowieso noch vor der eigentlichen Interpolation ist, die aus dem Bayer-Muster überhaupt erst ein RGB-Bild erzeugt.


Verstehe ich das richtig, dass der Komprimierungsalgorithmus nur auf die einzelnen Graumuster der Sensore des Bayer-Pattern angewendet wird? Wenn ja, dann lässt sich mit einem kleinen C-Programm das ARW 2.1 komprimierte Bild in ein unkomprimiertes konvertieren und dann kann ein Vergleich des echten unkomprimierten mit dem komprimierten angeben in wieviele Pixel sich die beiden Versionen unterscheiden. Dann wüßte man wie groß der Unterschied in der Praxis zwischen RAW und cRAW tatsächlich ist.

Neonsquare
04.07.2010, 01:10
Wir bräuchten eigentlich ein unkomprimiertes RAW, aus dem wir ein komprimiertes machen. Das Komprimierte wird dann wieder dekomprimiert und mit dem ersten verglichen. Insbesondere wäre auch ein Vergleich der entwickelten Bilder interessant.

Leider ist es nicht so einfach mit dem komprimieren, da ein paar Dinge nicht ganz klar sind wie es die Kameras machen.

Gruß,
Jochen

wolfram.rinke
04.07.2010, 06:26
Wir bräuchten eigentlich ein unkomprimiertes RAW, aus dem wir ein komprimiertes machen. Das Komprimierte wird dann wieder dekomprimiert und mit dem ersten verglichen. Insbesondere wäre auch ein Vergleich der entwickelten Bilder interessant.


Genau. :top:


Leider ist es nicht so einfach mit dem komprimieren, da ein paar Dinge nicht ganz klar sind wie es die Kameras machen.


Da dcraw RAW und cRAW lesen kann, lässt sich vielleicht auch ein craw konverter schreiben.

Neonsquare
04.07.2010, 09:34
Das wäre schon möglich - vielleicht gibt es da schon was - in einem der verlinkten Threads wurde das Programm RAWHide (http://www.my-spot.com/RHC/) eines der Mitglieder erwähnt. Damit soll es möglich sein. Wenn ich wieder ein bisschen mehr Freizeit habe, werde ich das auch mal probieren. Trotzdem besteht natürlich das Problem, dass wir nicht entgültig wissen können, ob die dort implementierte Komprimierung wirklich dieselben Annahmen verfolgt wie bei jener in der Kamera. Da geht es beispielsweise um Themen wie Rundungen, oder ob mit den Daten noch irgendeine andere Aufbereitung erfolgt.

Gruß,
jochen

Dewus
04.07.2010, 11:56
Hochinteressante Diskussion, geht richtig in die Grundlagen. Bin gespannt auf die Fortsetzung :-)

Grüße, Uwe

Stuessi
04.07.2010, 12:38
...Es werden immer Blöcke aus 16 Pixeln komprimiert. Dabei wird der größte und der kleinste Wert bestimmt und im cRAW gespeichert (jeweils als 11 Bit Wert). Die Position 0-15 des minimalen Werts und des maximalen Werts werden danach mit jeweils 4 Bit kodiert. Damit sind von 16 späteren Pixeln noch 14 Pixel zu speichern. Diese werden als 7-Bit Offset zum Minimalwert gerechnet. So wird aus ursprünglich 16 x 12 Bit = 192 Bit = 24 Bytes ein komprimierter Block aus 11+11+4+4+(14x7) = 128 Bit = 16 Bytes.

11 11 4 4 7 7
[max][min][maxpos][minpos][pixel1]...[pixel14]...



Die zu klärende Frage: sind es 16 Pixel gleicher Farbe in einem Block?

So wie ich es verstehe reduzieren sich die Werte erstmal auf 11 Bit, da ja der maximale und minimale Wert mit 11 Bit abgelegt werden und über die 7-Bit-Werte ja lediglich die Spanne zwischen Max und Min kodiert werden.

Im Prinzip funktioniert das ca. so:


12 Bit
/ \
/ \
/ \
/ \
/ \
! m M ! Kleiner Dynamikumfang
! m M ! Mittlerer Dynamikumfang
!m M! Großer Dynamikumfang


Insgesamt bieten die cRAW auch 12 Bit Werte - aber gespeichert werden Werte, die anhand des jeweils lokalen Dynamikumfangs bestimmt werden. In der ersten Zeile ist der Dynamikumfang relativ klein - so dass 7 Bit Spanne von m bis M ausreichen. Beim Mittleren Dynamikumfang erreicht man eine Spanne, die sich gerade noch mit 7-Bit kodieren lässt. In der dritten Zeile ist der Dynamikumfang so groß, dass die 7-Bit nicht mehr vollständig ausreichen um sämtliche Zwischenwerte zu kodieren. Betrachtet man das Bild insgesamt, so sollte klar sein, dass der abbildbare Dynamikumfang größer ist - man muss dazu quasi das kleinste Minimum und das größte Maximum gegenüberstellen.
....
Gruß,
Jochen

Um in jedem Fall den theoretisch noch maximal 11 Blendenstufen betragenden Kontrastumfang zu erhalten müssen alle Werte xi aus dem Bereich Min .. Max, d.h. die Differenzen (xi-Min) auf den Bereich (Max-Min) in 7 Bit Auflösung abgebildet werden.
Gespeichert werden dann nicht die Differenzen (xi-Min) sondern die modifizierten Werte.
Bis zu einem Kontrastumfang von 7 Blendenstufen bleiben dann auch alle Zwischenwerte erhalten.

Gruß,
Stuessi

Neonsquare
04.07.2010, 14:05
Die zu klärende Frage: sind es 16 Pixel gleicher Farbe in einem Block?


Ja - da die 16-Bit-Blöcke immer jede zweite Spalte zusammenfassen. Damit vergrößert sich zwar die physikalische Breite der zusammengefassten Pixel, dafür sollte die Variation im isolierten Farbkanal wiederrum kleiner sein.


Um in jedem Fall den theoretisch noch maximal 11 Blendenstufen betragenden Kontrastumfang zu erhalten müssen alle Werte xi aus dem Bereich Min .. Max, d.h. die Differenzen (xi-Min) auf den Bereich (Max-Min) in 7 Bit Auflösung abgebildet werden.
Gespeichert werden dann nicht die Differenzen (xi-Min) sondern die modifizierten Werte.
Bis zu einem Kontrastumfang von 7 Blendenstufen bleiben dann auch alle Zwischenwerte erhalten.


Ja - ungefähr das habe ich ja auch beschrieben. Wichtig ist dabei aber, dass es zum einen nur um einen Kontrastumfang innerhalb einer Farbkomponente geht. Es ist auch nicht so, dass dann jeder der 16 komprimierten Pixel falsch bzw. gleich falsch ist. Einzelne Pixel werden mehr, weniger bis gar nicht abweichen. Hinzu kommt außerdem, dass die Interpolation des Bayer-Musters ja - je nach Algorithmus - für jeden Pixel noch viel mehr andere Pixel miteinrechnet und so der Fehler eines einzelnen Pixels sich deutlich weniger stark auf das gesamte Ergebnis auswirkt. Trotz aller Theorie ist weiterhin nicht klar, ob die Kombination aus AA-Filter, Grundrauschen und RAW-Interpolation überhaupt noch zu einem tatsächlichen Verlust im entgültigen Ergebnis führt. Mein Bauchgefühl sagt mir zumindest, dass dies extrem unwahrscheinlich ist. Da ist die Wahl des RAW-Konverters vermutlich signifikanter.

Gruß,
Jochen

Karsten in Altona
04.07.2010, 14:20
Ihr seit schon abgefahren irgendwie :lol::top::cool:

Gibts eigentlich sowas auch bei Nikon, Canon?

Dewus
04.07.2010, 14:34
Um in jedem Fall den theoretisch noch maximal 11 Blendenstufen betragenden Kontrastumfang zu erhalten müssen alle Werte xi aus dem Bereich Min .. Max, d.h. die Differenzen (xi-Min) auf den Bereich (Max-Min) in 7 Bit Auflösung abgebildet werden.
Gespeichert werden dann nicht die Differenzen (xi-Min) sondern die modifizierten Werte.
Bis zu einem Kontrastumfang von 7 Blendenstufen bleiben dann auch alle Zwischenwerte erhalten.

7 Bit entsprechen nicht 7 Blendenstufen, sondern 128 Stufen zwischen maximaler und minimaler Helligkeit in dem lokalen Bereich, der für die Komprimierung betrachtet wird. Dieser Bereich ist bei der A700 16x2x5,5 µm = 176 µm auf dem Sensor, oder gedruckt mit 300 dpi etwa 0,3 mm auf dem Ausdruck. 128 Graustufen auf 0,3 mm ist immer noch ganz ordentlich - JPEG kennt überhaupt nur 256 Helligkeitstufen über das ganze Bild, und dem Auge reicht das völlig ;-)

Streng mathematisch ist es natürlich Augenwischerei: cRAW ist dort verlustfrei, wo der Helligkeitsumfang nur maximal 7 Bit oder 128 Stufen beträgt. Da wäre JPEG aber auch verlustfrei ;-)

Betrachtet man das ganze aber rein pragmatisch vom Ergebnis, scheint cRAW völlig zu reichen. Mit dem Auge lässt sich nach Aussage von Grafikern wohl kein Qualitätsunterschied erkennen, selbst bei Pixel-peeping in 100% Ansicht.

Grüße, Uwe

Neonsquare
04.07.2010, 15:16
@Karsten
Das Thema ist vielleicht wieder etwas interessanter, wenn man bedenkt, dass außer bei A700, A850 und A900 der nicht-komprimierte RAW-Modus gar nicht existiert! Alle anderen Modelle implementieren heute cRAW! Die A3x0, A5x0 liefern also als RAW ausschließlich cRAW!
Bei Nikon gibt es ähnliches:

http://regex.info/blog/photo-tech/nef-compression
http://majid.info/blog/is-the-nikon-d70-nef-raw-format-truly-lossless/

Erst ab der D300 aufwärts gibt es "lossless compressed" NEF.

7 Bit entsprechen nicht 7 Blendenstufen, sondern 128 Stufen zwischen maximaler und minimaler Helligkeit in dem lokalen Bereich, der für die Komprimierung betrachtet wird. Dieser Bereich ist bei der A700 16x2x5,5 µm = 176 µm auf dem Sensor, oder gedruckt mit 300 dpi etwa 0,3 mm auf dem Ausdruck. 128 Graustufen auf 0,3 mm ist immer noch ganz ordentlich - JPEG kennt überhaupt nur 256 Helligkeitstufen über das ganze Bild, und dem Auge reicht das völlig ;-)


Vorsicht! Der Vergleich mit JPEG hinkt hier ziemlich. JPEG arbeitet ja einerseits viel später in dieser Pipeline und ist schon ein sehr viel stärkerer Eingriff (Diskrete Cosinus-Transformation). Das alles würde auch implizieren, dass die Auswirkungen der Komprimierung sich tatsächlich über die RAW-Interpolation hinweg so lokal und gleich stark auswirken könnten. Gerade diese RAW-Interpolation ist es jedoch, welche das ganze ziemlich stark relativiert - denn in jeden Pixel der 0,3mm spielt ja nicht nur die Information der komprimierten 16 Pixel sondern auch Information aus ganz anderen Bereichen mit rein. Desweiteren betrifft der Fehler ja erstmal nur eine Farbkomponente. Wie krass da unterschiedliche RAW-Interpolationsalgorithmen sein können demonstriert diese Seite sehr gut:

http://www.rawtherapee.com/RAW_Compare/

Man sollte sich bewusst sein, was ein Bayer-Sensor - mit seinem 1-Chip-Design und den spatial getrennten Farbkomponenten im Bayer-Muster für jeden einzelnen Pixel bedeutet! Ein herkömmlicher RGB-Pixel besteht bereits aus allen drei Komponenten - ein Bayerpixel wiederrum ist nichts wert ohne den Kontext in dem er sich befindet.


Streng mathematisch ist es natürlich Augenwischerei: cRAW ist dort verlustfrei, wo der Helligkeitsumfang nur maximal 7 Bit oder 128 Stufen beträgt. Da wäre JPEG aber auch verlustfrei ;-)


Wie bereits gesagt - der JPEG-Vergleich hinkt hier. Bei JPEG liegen die Pixel bereits als RGB vor. Jeder einzelne Pixel enthält 3 Farbkomponenten mit jeweils 8 Bit. Beim Bayer-Sensor gibt es isoliert nur eine einzige Farbkomponente und die wird mit theoretisch maximal 12 Bit aufgezeichnet (praktisch gesehen weniger). Die eigentliche Farbe nach RGB ergibt sich nur, indem man die Umgebung des Bayer-Pixels in Betracht zieht und deren Intensitäten miteinander verrechnet. Eine Primitivmethode würde einfach die Farbkomponenten der Nachbarwerte aufaddieren und durch die Anzahl der Nachbarn teilen - also eine Mittelung. Dieses Verfahren funktioniert aber nicht sonderlich gut. Kurz: Bei der JPEG-Komprimierung gibt es einen korrekten Ausgangswert nach R, G und B in jeweils 8 Bit kodiert. Bei Bayer ist der "korrekte Ausgangswert" Interpretationssache.

Gruß,
Jochen

Karsten in Altona
04.07.2010, 15:55
Das stimmt. Das ist interessant. Nur in der berühmten Praxis wahrscheinlich zu 99,99% irrelevant.

Neonsquare
04.07.2010, 16:00
@Karsten
ich sehe das Problem eher als psychisch - obwohl die praktische Relevanz vermutlich wirklich völlig vernachlässigbar ist, kann ich mir gut vorstellen, dass darüber der eine oder andere A900-Nutzer anders denkt.

Gruß,
Jochen

Dewus
04.07.2010, 18:42
Vorsicht! Der Vergleich mit JPEG hinkt hier ziemlich.
...


Ich wollte nicht JPEG-Kompression mit cRAW Kompression vergleichen, außer in dem einen Aspekt: Wo keine Dynamik im Bild ist, also z.B. in einer einfarbigen Fläche gleicher Helligkeit, verliert man durch Kompression keine Information (außer die Farbe und Helligkeit selbst würden durch abweichende Werte ersetzt).

Was Du schreibst ist alles richtig und spiegelt etwas den Unterschied im Ansatz von Mathematikern und Physikern wider ;)

Als "nullte Näherung" wird ein Physiker die ganze Weiterverarbeitung zunächst vernachlässigen (mathematisch die Übertragungsfunktion =1 setzen), um zu einer ersten Abschätzung zu kommen. Dass die tatsächlichen Auswirkungen der Kompression durch die nachfolgenden Weiterverarbeitungsschritte abgemindert (oder aber auch verstärkt!!!) werden können, sei damit nicht bestritten. Solange wir diesen Einfluss aber nicht kennen, ist die einfachste Näherung, ihn zunächst einmal zu vernachlässigen - sonst sind wir nur am spekulieren ;)

Unter dieser Vereinfachung noch mal ein quantitativer Versuch:

cRAW arbeitet mit 11 Bit. In einem lokalen Bereich von 16 Pixeln kann ungünstigstenfalls sowohl der dunkelste Wert = 0 als auch der hellste Wert = 2^11 = 2048 vorkommen. cRAW kann 2^7 = 128 Zwischenwerte zwischen dem hellsten und dem dunkelsten der 16 Pixel darstellen. Bei einer linearen Teilung wären das schlimmstenfalls Helligkeitsschritte von 2048/128 = 16 Bit Breite (bei einem Dynamikumfang des Sensors von 12 Blendenstufen entspräche eine Stufe der Breite 16 Bit durchschnittlich maximal 1/10 Belichtungsstufe). Alle digitalen Helligkeitswerte von "0" bis "15" würden in cRAW dann z.B. zu einem Näherungswert "ungefähr 8", alle Helligkeitswerten von "16" bis "31" zu "ungefähr 24", alle Helligkeitswerte "32" bis "47" zu "ungefähr 40" usw.

Was kann schlimmstenfalls passieren:

a) Kleine Unterschiede von weniger als 1/10 Belichtungsstufe können "weggebügelt" werden (z.B. eine feine Struktur mit Helligkeitswerten zwischen "0" und "17" würde zu einem unstrukturierten einheitlichen Wert "8").

b) Kleine Unterschiede können auf maximal 1/10 Belichtungsstufe "übertrieben" werden (z.B. wenn benachbarte Pixel gerade in unterschiedliche Bereiche fallen: "17" würde zu "ungefähr 8" abgerundet, "18" würde zu "ungefähr 24" aufgerundet).

Die maximale Abweichung von 1/10 Belichtungsstufe würde nur an Stellen im Bild auftreten, an denen innerhalb von 16 Pixeln die Helligkeitswerte von Null auf Maximal springen.

Mal ganz abgesehen von allen Überlagerungen durch Rauschen, Bayer-Interpolation, JPEG-Konversion usw. bei der anschließenden Weiterverarbeitung bis zum fertigen Bild ist die Frage, ob das Auge eine mögliche Helligkeitsschwankung von 1/128 des maximalen Dynamikumfangs auf 0,3 mm Bildfläche auflösen kann. Und selbst wenn es das kann bleibt die Frage, ob es für den Bildeindruck wichtig ist, was innerhalb dieses Pünktchens passiert.

Eine interessante Frage ergibt sich natürlich aus der ganzen Diskussion: Braucht man überhaupt 12 oder 14 Bit A/D Wandler, solange der ganze Dynamikumfang des Sensors auf nur 10-12 Belichtungsstufen absolut begrenzt ist? Sind die digitalen Helligkeitsstufen nicht schon zu fein, ist da überhaupt noch Information enthalten - oder nur noch Fluktuation durch Rauschen? Geht solche feine Information nicht im weiteren Prozess eh verloren? Und könnte unser Auge am Ende der ganzen Kette solche feinen Information aufnehmen und verarbeiten?

Ich habe mal gelesen, dass 16 deutlich unterscheidbare Grauwerte ein brilliantes, scharfes s/w-Bild ergeben. Da sind wir dann wieder bei der Verkaufs-Psychologie, und in der Schlussfolgerung beinander ;)

Grüße, Uwe

ddd
04.07.2010, 19:26
moin, Eine interessante Frage ergibt sich natürlich aus der ganzen Diskussion: Braucht man überhaupt 12 oder 14 Bit A/D Wandler, solange der ganze Dynamikumfang des Sensors auf nur 10-12 Belichtungsstufen absolut begrenzt ist? Sind die digitalen Helligkeitsstufen nicht schon zu fein, ist da überhaupt noch Information enthalten - oder nur noch Fluktuation durch Rauschen? Geht solche feine Information nicht im weiteren Prozess eh verloren? Und könnte unser Auge am Ende der ganzen Kette solche feinen Information aufnehmen und verarbeiten? Du nimmst hier implizit an, dass die RAW-Werte die Helligkeit sehrichtig darstellen. Stimmt aber nicht, die RAW-Werte sind (näherungsweise) linear, der Seheindruck hat aber eine deutlich nichtlineare Kennlinie mit mindestens zwei Wendepunkten (2.Ableitung=0). Die Dynamik lässt sich keinesfalls irgendwie mit der Bit-Tiefe korrelieren, und auch die Tonwertauflösung ist in erster Linie von der Abbildungsfunktion abhängig und der Bit-Tiefe im Zielformat bzw. dem Ausgabemedium.
Von daher ist es sinnvoll, die RAW-Werte mit einer möglichst hohen bit-Auflösung darzustellen, um bei der Entwicklung (Bayer-Demosaicing und Dynamik-Kompression und Tonwertkorrektur) möglichst viel Reserve zu haben.

cRAW bringt jedenfalls kaum Vorteile, Speicherplatz kostet ja fast nix mehr. Schneller werden die Kameras dadurch nicht.

PS: auch die NEX kennen offenbar nur cRAW, jedenfalls sind die RAWs zu klein für unkomprimierte Dateien.
A700/850/900 kennen beide Modi, aber keinen verlustfrei komprimierten RAW-Modus: wenn man die einzelnen Farblayer als TIFFs ablegt, könnte man die z.B. mittels lzw komprimieren und so ähnliche (allerdings stark inhaltsabhängie) Kompressionsraten erzielen wie das eben gerade nicht verlustfreie cRAW. Per 7zip(lzma) oder bzip2 lassen sich die RAWs der a900 z.B. auf typisch 60-70% verlustfrei komprimieren; das wäre eine Option, wenn man den inneren Aufbau der RAWs nicht ändern möchte.

Ta152
04.07.2010, 20:09
< snip >

cRAW bringt jedenfalls kaum Vorteile, Speicherplatz kostet ja fast nix mehr. Schneller werden die Kameras dadurch nicht.
< snip >

Beim füllen des Puffers macht sich das schon bemerkbar (speziell wenn man eine langsamme CF Karte verwendet)

Neonsquare
04.07.2010, 20:34
@ddd
Inwiefern kannst du wissen, ob cRAW keine Vorteile bietet? Der Algorithmus scheint sich - nach allem was ich bisher gesehen habe - ideal für eine Hardwareimplementierung eignen. Die Kompressionsrate ist fix - das sind alles Eigenschaften, die ein so zeitkritisches System wie eine Kamera sehr beeinflussen können. Du machst es dir also glaube ich etwas zu einfach, wenn du den Nutzen von cRAW gleich abschreibst. Unsere Vorstellungen der Sensorverarbeitungspipeline ist ebenfalls oft zu simpel: In einem der beiden von mir gezeigten Nikon Links wird u. a. erwähnt, dass viele A/D-Wandler-Implementierungen auf einfacher zu bauenden D/A-Wandlern aufbauen, kombiniert mit einem Zähler und einem "precision voltage comparator". Im beschriebenen Fall beschleunigt das den Capture-Prozess um das 8-Fache. Die quantisierten Daten des RAW-Sensors wären also tatsächlich nicht "lossy" und die Komprimierung eigentlich nur eine optimale Speicherung der sowieso vom Sensor gelieferten Daten. Für eine auf Geschwindigkeit ausgelegte Kamera durchaus ein brauchbares Design. Genau genommen ist nichteinmal klar, ob das "unkomprimierte" RAW der A700 nicht womöglich einfach ein entpacktes cRAW ist! Zumindest gibt es nichts offizielles dazu.

Deine Ausführung zu Reserven durch möglichst hohe Bitauflösungen kann ich so ebenfalls nicht einfach teilen. Zum einen gilt nunmal einfach "Garbage in" -> "Garbage out". Was nützen denn feiner aufgelöste RAW-Werte, wenn schon alleine Objektiv, AA-Filter und A/D-Wandler diese Auflösung einfach nicht bringen - das Leben ist kein Wunschkonzert.

Gruß,
Jochen

ddd
05.07.2010, 11:02
moin,

wenn ich mich recht entsinne, schafft die a900 auch in cRAW nicht mehr Bilder bis "buffer full" als im RAW-Modus (ich hatte das ausprobiert, aber bin mir jetzt nicht sicher). Das Wegschreiben der Daten dauert selbst mit einer Extreme Pro (90MByte/s) auf jeden Fall zu lange, um die 5B/s aufrecht zu erhalten.

Jochen, Deine links zum NEF-Format sind interessant, aber die Sony-cRAW-Kompression funktioniert fundamental anders. (Vorsicht: die "Kompression" z.B. der Dimage A2 ist wieder was anderes und definitv lossless). Die dort beschrieben NEF-Kompression stellt eine Art Gammakurve dar, wohingegen der Sony-Algorithmus eine Art HAM-Modus mit optionaler Tonwertkompression ist (Amiga-Freunde wissen, was ich meine).

Damit greift auch Dein Hinweis auf die Beschleunigung nicht, ist auch (bei der a900) nicht nötig: der Sensor hat auf jeder Spalte einen A/D-Wandler, und jeder der über 6000 A/D-Wandler muss pro Frame nur gut 4000 Werte digitalisieren. Das ist nun wirklich vom timing her nicht sehr anspruchsvoll...
Den Rest erledigen DSPs, die a900 hat mehrere davon.

Nebenbemerkung: alle mir bekannten schnellen A/D-Wandler basieren auf dem "umgekehrten" Prinzip; ich bin mir nicht mal sicher, dass es andere überhaupt (noch) gibt.
Noch mehr Speed kann man rausholen, wenn man den Zähler durch einen B-Tree ersetzt, dann ist man schon nach maximal <bit-Tiefe>-Schritten+Einschwingzeit fertig statt nach <zielauflösung>-Schritten.

Garbage-In > Garbage-Out: das Problem hast Du bei jeder Messung. Wenn man das aber zu Ende denkt, würden 8bit-A/D-Wandler oder sogar 6bit-Wandler völlig ausreichen... Warum sollte man 12bit, 14bit oder gar 16bit (bei MF-Rückteilen üblich) verwenden, welche viel aufwändiger sind...
Nein, lieber "Überabtastung" und hinterher in Ruhe den "Müll" (Rauschen, jetzt nicht wie hier üblich sondern als Rauschen im Sinne des universalen Messproblems zu lesen) erkennen und aussortieren/abschneiden/verwerfen. Denn alle o.g. Algorithmen machen per se-Annahmen, legen also vorher fest, was weggelassen wird. Nachträglich kann man dagegen feststellen, wo die Grenze zwischen Inhalt und Müll ist und situationsangepasst nur den Müll verwerfen.

Ok, real dürfte z.Zt. der Unterschied zwischen RAW und Sony-cRAW gering sein und bei 99% aller Bilder bei 99% aller Nutzer keine Rolle spielen. Es muss jeder für sich selbst entscheiden, ob sie/er diese marginale Reserve haben möchte oder nicht.

Neonsquare
05.07.2010, 11:50
moin,

wenn ich mich recht entsinne, schafft die a900 auch in cRAW nicht mehr Bilder bis "buffer full" als im RAW-Modus (ich hatte das ausprobiert, aber bin mir jetzt nicht sicher). Das Wegschreiben der Daten dauert selbst mit einer Extreme Pro (90MByte/s) auf jeden Fall zu lange, um die 5B/s aufrecht zu erhalten.


Das ist auf jeden Fall interessant - wobei man das auch noch mal versuchen könnte irgendwie empirisch auszuprobieren. Allerdings kann das bei Kameras wie der A550 wieder anders aussehen; man wird es nur nicht ausprobieren können, weil diese Kameras eben nur diesen Modus kennen.


Jochen, Deine links zum NEF-Format sind interessant, aber die Sony-cRAW-Kompression funktioniert fundamental anders. (Vorsicht: die "Kompression" z.B. der Dimage A2 ist wieder was anderes und definitv lossless). Die dort beschrieben NEF-Kompression stellt eine Art Gammakurve dar, wohingegen der Sony-Algorithmus eine Art HAM-Modus mit optionaler Tonwertkompression ist (Amiga-Freunde wissen, was ich meine).


:D - Ja HAM kenne ich noch sehr gut. Hatte selbst mal einen A500, A1200 und A4000. Für mich war das auch der Einstieg in die Programmierwelt (Copper, Blitter usw.). Ich meinte gar nicht, dass die Mechanismen von compressed NEF und cRAW ähnlich sind, sondern dass eben beides gewissermaßen verlustbehaftete Verfahren sind, deren realer Verlust, durch das Gesamtsystem zumindest stark relativiert wird. Dabei sind beide Verfahren natürlich ebenso unterschiedlich, wie JPEG zu beiden vollkommen unterschiedlich ist.


Damit greift auch Dein Hinweis auf die Beschleunigung nicht, ist auch (bei der a900) nicht nötig: der Sensor hat auf jeder Spalte einen A/D-Wandler, und jeder der über 6000 A/D-Wandler muss pro Frame nur gut 4000 Werte digitalisieren. Das ist nun wirklich vom timing her nicht sehr anspruchsvoll...
Den Rest erledigen DSPs, die a900 hat mehrere davon.


Für die A900 ist es vielleicht nicht nötig und womöglich wirklich bloß eine schnelle Komprimierung - aber bei der A300, A350, A450, A500 und A550 und vielleicht sogar A700 sieht das vielleicht wieder ganz anders aus. Die Column-Parallel A/D-Wandler waren eine A900 Neuerung; die anderen haben weniger. Das gilt auch für die DSPs. 14,2 Mio. x 7 FPS = ca. 100 Mio.

Nebenbemerkung (hat nichts mit deinem Post zu tun): Ich finde es immer wieder lustig, wie im Rahmen der Diskussion immer wieder erbost angemerkt wurde, dass man doch mit Algorithmen wie "bzip" oder "RAR" ebenso stark komprimieren könne und dass Ergebnis "lossless" wäre. Wer derartiges ernsthaft vorschlägt hat noch nie auf so hardwarenaher Ebene gearbeitet ;-).


Nebenbemerkung: alle mir bekannten schnellen A/D-Wandler basieren auf dem "umgekehrten" Prinzip; ich bin mir nicht mal sicher, dass es andere überhaupt (noch) gibt.
Noch mehr Speed kann man rausholen, wenn man den Zähler durch einen B-Tree ersetzt, dann ist man schon nach maximal <bit-Tiefe>-Schritten+Einschwingzeit fertig statt nach <zielauflösung>-Schritten.


Ich denke du meinst einen Binärbaum und keinen Bayer-Baum oder? ;). B-Tree ist eigentlich für letzteren die gängigere Bezeichnung. Aber klar - durch eine binäre Suche kann das noch verbessert werden.


Garbage-In > Garbage-Out: das Problem hast Du bei jeder Messung. Wenn man das aber zu Ende denkt, würden 8bit-A/D-Wandler oder sogar 6bit-Wandler völlig ausreichen... Warum sollte man 12bit, 14bit oder gar 16bit (bei MF-Rückteilen üblich) verwenden, welche viel aufwändiger sind...


Irgendwo muss man eben die Grenze ziehen - umgekehrt könnte ich auch fragen, warum Sony nicht 14bit-Wandler statt 12bit-Wandlern verbaut wenn doch zusätzliche Reserven so viel besser sind?


Nein, lieber "Überabtastung" und hinterher in Ruhe den "Müll" (Rauschen, jetzt nicht wie hier üblich sondern als Rauschen im Sinne des universalen Messproblems zu lesen) erkennen und aussortieren/abschneiden/verwerfen. Denn alle o.g. Algorithmen machen per se-Annahmen, legen also vorher fest, was weggelassen wird. Nachträglich kann man dagegen feststellen, wo die Grenze zwischen Inhalt und Müll ist und situationsangepasst nur den Müll verwerfen.


Du unterschätzt hier ein bisschen die Möglichkeiten, wie leicht es ist nachträglich noch den Müll vom nicht-Müll zu unterscheiden, weswegen ja durchaus schon vorher gegen so etwas vorgegangen wird: Also am besten Müll gar nicht erst aufzeichnen. Es bringt dem System nur unnötig Last, wenn es zufällige Werte im "Nachkommabereich" mit herumschleppt, obwohl man bereits weiß, dass nur die vorderen "Stellen" relevant sind.


Ok, real dürfte z.Zt. der Unterschied zwischen RAW und Sony-cRAW gering sein und bei 99% aller Bilder bei 99% aller Nutzer keine Rolle spielen. Es muss jeder für sich selbst entscheiden, ob sie/er diese marginale Reserve haben möchte oder nicht.
99% der Bilder würde bedeuten, dass es für jedes 100ste Bild eine Rolle spielt - das wäre schon sehr deutlich. Die Ausschussquote wird SEHR viel geringer sein. Da sind vermutlich Fehlfunktionen der Kamera wahrscheinlicher. Genau das ist dann wieder die Informatiker-Denke: Es gibt Algorithmen, die streng genommen nur mit sehr hoher Wahrscheinlichkeit die Wahrheit sagen - aber die Wahrscheinlichkeit ist so hoch, dass das Ergebnis eher von kosmischer Strahlung gestört würde, als dass der Algorithmus falsch liegt. Ein Beispiel ist Miller-Rabin als Primzahltest. Ich schätze cRAW auf eine ähnliche Art ein: theoretisch könnte etwas schiefgehen, praktisch gesehen geht vorher (oder nacher) eher etwas anderes schief.

Gruß,
Jochen

Stuessi
06.07.2010, 09:00
Hallo,

da wir uns ziemlich einig über den Algorithmus für craw sind ist es an der Zeit, zu überlegen, welche Aufnahmesituationen evtl. einen Unterschied zwischen aus craw- und raw-Format entwickelten Bildern erkennen lassen.

Gruß,
Stuessi

Neonsquare
06.07.2010, 09:13
Mir fällt es schwer ein passendes Motiv vorzustellen. Vielleicht irgendwas textiles?

Gruß,
Jochen

Parki
06.07.2010, 09:18
Ihr macht es einem echt nicht leicht mit solchen Threads ;) Ich habe vorher auch mal kurz getestet ob sichtbare Unterschiede zwischen RAW und cRAW, vor allem wenn man im Nachhinein die Belichtung um -4 bzw +4 ändert, festzustellen sind. Es verhielten sich beide Dateien genau gleich. Werde das ganze nochmal bei einer etwas anderen Lichtsituation und mit Stativ testen, ob das Ergebnis dann anders ausfällt weiß ich aber nicht.

MajorTom123
06.07.2010, 15:19
Ihr macht es einem echt nicht leicht mit solchen Threads ;) Ich habe vorher auch mal kurz getestet ob sichtbare Unterschiede zwischen RAW und cRAW, vor allem wenn man im Nachhinein die Belichtung um -4 bzw +4 ändert, festzustellen sind. Es verhielten sich beide Dateien genau gleich. Werde das ganze nochmal bei einer etwas anderen Lichtsituation und mit Stativ testen, ob das Ergebnis dann anders ausfällt weiß ich aber nicht.

Das wirst du bis zum Umfallen testen können. Und selbst wenn du Unterschiede siehst, sind die entweder marginal oder deinem Testaufbau geschuldet. Ich lese aus diesem Thread heraus, dass man bedenkenlos cRaw verwenden kann. :)

alberich
06.07.2010, 15:28
Ich lese aus diesem Thread heraus, dass man bedenkenlos cRaw verwenden kann. :)

Nur so nebenbei.
Man sollte sich dann auch sicher sei, dass der verwendete RAW-Konverter aus den cRAW Dateien die gleichen Ergebnisse entwickelt wie aus den RAWs. Capture One hatte seinerzeit auch mal Probleme mit CRAW Dateien. Ob das noch so ist? Keine Ahnung. Ich verwende kein cRAW.
Ich sehe keinen Nachteil in der Verwendung von RAW, also warum sollte ich das ändern. Wegen des Speicherplatzes? Na ja....das ist nun kein Grund, zumindest nicht für mich.
:)

RainerV
06.07.2010, 15:38
...
Man sollte sich dann auch sicher sei, dass der verwendete RAW-Konverter aus den cRAW Dateien die gleichen Ergebnisse entwickelt wie aus den RAWs. Capture One hatte seinerzeit auch mal Probleme mit CRAW Dateien.
...
Ich sehe keinen Nachteil in der Verwendung von RAW, also warum sollte ich das ändern. Wegen des Speicherplatzes? Na ja....das ist nun kein Grund, zumindest nicht für mich.
:)

Das kann ich voll und ganz unterschreiben. Und dasselbe gilt ja - wie ich ja schon schrieb - auch für eine eventuelle Wandlung ins DNG-Format.

Die damalige cRaw-Problematik seiten Capture One ist meines Wissens nach gelöst, aus cRaws mittels C1 entwickelte Bilder waren damals schlicht unbrauchbar, also vermutlich eine fehlerhafte Implementierung der Dekodierung.

Aber damit, daß der Rawkonverter-Hersteller Formate gar nicht, fehlerhafte oder nur teilweise implementiert, muß man immer rechnen, bei DNGs noch sehr viel eher übrigens wie bei cRaws - die müßte er ja eigentlich nur korrekt "dekomprimieren", während bei ersteren eigentlich die gesamte Anpassung einschließlich der Profilierung neu erstellt werden müßte.

Und das alles um etwas Speicherplatz zu sparen? Heute ist das für mich auch kein Grund mehr. cRaw würde ich nur dann nehmen, wenn mir unterwegs der aufgrund widriger Umstände der Speicherplatz auszugehen droht.

Rainer

MajorTom123
06.07.2010, 15:56
Das ist sicherlich Geschmacksfrage.

Nur weil nichts gegen cRaw spricht, heißt das ja noch lange nicht, dass man es verwenden sollte. Gegen "richtiges" Raw spricht nämlich genauso wenig. :)

Wenn ein Raw-Konverter mit cRaw Probleme hat, dann ist das ein Bug im Konverter und sollte entsprechend vom Hersteller gelöst werden. Sowas kommt vor, kann aber auch bei "normalen" Raws passieren. Der Bug wurde ja auch in C1 gelöst, also besteht das Problem nicht mehr.

Für mich persönlich hat cRaw den Vorteil des geringeren Speicherbedarfs. Der Vorteil ist zugegebenermaßen nicht groß, aber groß genug, mich für cRaw zu entscheiden.

Neonsquare
06.07.2010, 17:19
Ich denke, wer die Wahl hat kann ohne Bedenken das eine oder das Andere wählen. Bei den "kleinen" Modellen gibt es sowieso keine Wahl - aber so wenigstens das Wissen, dass dies keine schlimme Einschränkung ist. Und immerhin: In meiner aktuellen Aperture Bibliothek spare ich so immerhin ca. 50 GB. Und mit der Kamera unterwegs, krieg ich 370 zusätzliche Bilder - auch was wert.

Gruß,
Jochen

Revox
08.07.2010, 00:09
Das macht wirklich spaß hier mitzulesen. Schade nur das ihr ähnlicher Meinung seid, sonst hätte man hier sicher noch mehr spaß dabei zuzusehen, wie sich Informatiker und Physiker (stimmt diese Annahme?) aus der Reserve locken.

ddd
08.07.2010, 10:39
moin, wie sich Informatiker und Physiker (stimmt diese Annahme?) aus der Reserve locken. Du hast die Mathematiker vergessen ;)

Dass weitgehend Einigkeit herrscht, zeigt für mich, dass die Annahmen über den Algorithmus und dessen Auswirkungen recht gut verstanden sind. Wenn etwas "richtig" ist, bleibt kein Raum für "ich bin ganz anderer Meinung".

Dewus
09.07.2010, 21:15
Das macht wirklich spaß hier mitzulesen. Schade nur das ihr ähnlicher Meinung seid, sonst hätte man hier sicher noch mehr spaß dabei zuzusehen, wie sich Informatiker und Physiker (stimmt diese Annahme?) aus der Reserve locken.

Hey, Ruhe auf den Zuschauerrängen ;)

Dewus
09.07.2010, 22:44
Ich denke, wer die Wahl hat kann ohne Bedenken das eine oder das Andere wählen. Bei den "kleinen" Modellen gibt es sowieso keine Wahl - aber so wenigstens das Wissen, dass dies keine schlimme Einschränkung ist.



Also ich bleibe bei cRAW. Wenn meine Bilder schlecht sind, kann ich es wenigstens auf die Kompression schieben ;) ;)

Aber im Ernst: Der härteste Test ist doch der Alltag. Es werden täglich sicher viele Tausend Bilder in cRAW geschossen, und mir ist keine Diskussion über seltsame Artefakte, weiche Kanten oder auffällige Bildfehler bekannt. Es wäre sicher schon jemandem aufgefallen, wenn in bestimmten Situationen sichtbare Fehler auftreten würden.

Abweichungen die unterhalb von erkennbaren Fehlern bleiben sind in meinen Augen eher eine philosophische Frage: Wie exakt muss ein Bild eine fotografierte Szene wieder geben? Wenn wir uns schon über minimale Abweichungen in Helligkeits- oder Farbwerten an harten Kanten und Übergängen sorgen, müssen wir am Ende noch alle Picassos und Monets aus den Bildergalerien werfen ;)

In der Praxis vergleicht doch kein Mensch ein Bild mit einem perfekten Referenzbild. Auch als Fotograf erinnere ich mich hinterher nicht mehr, wie der Helligkeitsverlauf am dritten Härchen von oben auf dem vierten Hinterleibssegment der fotografierten Schwebfliege "wirklich" war. Solange das Härchen auf dem Bild zu erkennen ist und natürlich ausschaut, ist alles OK.

Trotzdem ist es natürlich unglaublich interessant, welche Interpolationsverfahren z.B. aktuell für die RAW-Konvertierung angewendet werden und ob man sie nicht noch ein bisschen verbessern könnte... ;)

Grüße, Uwe

Neonsquare
09.07.2010, 23:28
Eigentlich ist die Lehre, die man daraus ziehen kann jene, dass RAW nicht deshalb wichtig ist, weil es womöglich so besonders unverfälscht ist, sondern weil es alternative Algorithmen für die Interpolation ermöglicht. Die Qualität der Interpolation hat heute bereits einen so großen Einfluss, dass daneben viele andere Einflüsse relativiert werden. Die in der Kamera integrierte Interpolation ist einerseits durch die Leistung des Geräts stark beschränkt und andererseits höchstens durch Firmwareupdates verbesserbar. Verlegt man diesen Schritt allerdings in die Nachbearbeitung am Rechner, so kann man selbst mit einer jahrealten Kamera vom technischen Fortschritt aktueller Interpolationsalgorithmen profitieren. Man kann alte Bilder mit neuen Technologien womöglich zu neuem Glanz verhelfen.

Gerade deshalb kann ich absolut nicht verstehen, wieso manche mit Kamera-JPEGs arbeiten und noch viel weniger, wie man Tests glauben schenken kann, die nur die Kamera-JPEGs betrachten.

Gruß,
Jochen

Dewus
10.07.2010, 06:52
... Verlegt man diesen Schritt allerdings in die Nachbearbeitung am Rechner, so kann man selbst mit einer jahrealten Kamera vom technischen Fortschritt aktueller Interpolationsalgorithmen profitieren. ...

Das ist ein wichtiger Punkt. Wenn in den Zeitschriften gejubelt wird, dass die neuen Alphas ein deutlich besseres Rauschverhalten zeigen als die A700 oder gar die D7D, zeigt erst der Vergleich von RAWs die mit dem gleichen Konverter entwickelt wurden, wieviel tatsächlich die Sensoren besser wurden oder eben nur die kamerainterne Bildverarbeitung.


Gerade deshalb kann ich absolut nicht verstehen, wieso manche mit Kamera-JPEGs arbeiten...

Na ja, es verbringt halt nicht jeder gerne seine Freizeit vor dem Computer ;)

Photongraph
10.07.2010, 09:48
Na ja, es verbringt halt nicht jeder gerne seine Freizeit vor dem Computer ;)

Na, mit schnellen Computern und etwas Einarbeitungszeit alles kein Problem (aber manche haben wohl noch PCs aus der Pentium 4 und Athlon XP Ära :roll:), wäre genauso als würde man sagen, ich hab keine Zeit mich um vernünftig aufgenommene Bilder zu kümmern und Blende und Zeit sowie Weißabgleich etc. zu setzen. ;)

Sorry, möchte man mehr aus seinen Bildern herausholen und ist die JPEG-Engine der Kamera nun mal für einen persönlich nicht perfekt bzw. gut genug, der muss zwangsläufig auf RAW setzen um wirklich das letzte Quäntchen aus den Bilddateien herauszuholen. (vorausgesetzt man macht nicht zu viel des Guten an den Reglern etc.)

Ansonsten wie war's denn wohl früher? Das Fotolabor nahm einen früher die Arbeit ab, es sei den man wollte retuschieren, bestimmte Effekte erzielen etc. und seine Filme selber entwickeln, dann war das Heimlabor wohl Pflicht.

Neonsquare
10.07.2010, 10:39
@Photongraph
Ich glaube das ist vielleicht wirklich der Knackpunkt. Wieviele Hobbyfotografen haben sich früher wirklich die Mühe gemacht selbst zu entwickeln? Vielleicht hat sich dieses "Out-Of-Camera"-Prinzip so ins Digitale Zeitalter übertragen? Ich bin ein Kind der digitalen Fotografie - kannte es nie anders und war von Anfang an gewohnt auch Fotos am Computer zu bearbeiten.

Einen Unterschied gibt es vielleicht noch zwischen "JPEG-Knipser" und "RAW-Frickler": Fotografiert man RAW, dann sieht man eben nicht wirklich das Resultat, wie es später am Rechner wirklich sein wird. Der JPEG-Knipser sieht es jedoch und macht vielleicht noch ein korrigiertes Foto. Allerdings entspricht das auch nicht dem Prinzip wie man es noch vom analogen Film kannte. Die Einen sehen im Digitalen also vielleicht den Vorteil in der sofortigen Verfügbarkeit des Ergebnisses und die Anderen in der signifikant erleichterten "Selbstentwicklung". Ein Sonderfall ist dann vielleicht noch der RAW+JPEG-Dualist: Er will und hat das Ergebnis sofort, aber er will vielleicht auch noch selbst retuschieren.

Sorry für eventuelle übertriebene Pauschalisierungen.

Gruß,
Jochen

Dewus
10.07.2010, 14:09
...aber manche haben wohl noch PCs aus der Pentium 4 und Athlon XP Ära

Ein Sonderfall ist dann vielleicht noch der RAW+JPEG-Dualist: Er will und hat das Ergebnis sofort, aber er will vielleicht auch noch selbst retuschieren.

Verdammt, erwischt ;) Müsste mir vielleicht wirklich mal einen neuen Rechner kaufen... aber solange die alte Kiste noch läuft... Und die meiste Zeit beim RAW-Frickeln kostet ja nicht die eigentliche Konvertierung, sondern die Parameter für jedes Bild optimal einzustellen. Da kann man sich beliebig lange beschäftigen... ;)

Waldstein
10.07.2010, 16:16
..., so kann man selbst mit einer jahrealten Kamera vom technischen Fortschritt aktueller Interpolationsalgorithmen profitieren. ...
Stimmt. Von dem, was heute LR3 aus den RAWs der Dimage A200 (sicher auch der A2, A1 usw.) rausholt, konnte man zu Zeiten dieser Kamera(s) nur träumen.

Bei der JPG-Diskussion muss man bedenken, dass es vielen Hobby-Fotografen nicht gelingt, in der RAW-Konvertierung ein besseres Bild zu erzeugen, als das JPG ooc. Dazu gehört eine gewisse Erfahrung.

Zum Thema: Ich habe noch kein Bild mit cRAW gemacht. Es macht für mich keinen Sinn und würde auf meinem ollen W2K-C1 wahrscheinlich auch nicht funktioneren.
.

hanito
10.07.2010, 16:42
Na ja, es verbringt halt nicht jeder gerne seine Freizeit vor dem Computer ;)
:top: Der war gut.

Photongraph
10.07.2010, 17:43
Und die meiste Zeit beim RAW-Frickeln kostet ja nicht die eigentliche Konvertierung, sondern die Parameter für jedes Bild optimal einzustellen. Da kann man sich beliebig lange beschäftigen... ;)

Also bei mir war's so, der uralte Rechner machte die RAW-Konvertierung in andere Formate richtig schwierig, es kostete sehr viel Zeit...

(Ich achte auch darauf, dass die Bilder schon vorher gut aussehen als JPEGs bzw. als RAW+JPEG Bild)

Klar, man kann sehr viel Zeit reinstecken in der Endbearbeitung der Bilder, aber ich finde hier sollte man einen gesunden Mittelweg suchen bzw. finden. Wobei ich finde man muss zwischen der Art der RAW-Bearbeitung unterscheiden, wo es nur um's Nachschärfen und geringfügige Weißabgleichs, Gradationsbearbeitung geht (wenn bei den Kleinigkeiten in der Endkonvertierung in andere Formate wie JPEG oder TIFF bei über 100 RAW-Bildern der Computer über 30 Minuten braucht beispielsweise, dann lohnt sich ein neuer Rechner alle mal) und eben bei den aufwändigeren Bearbeitungen wo man selbst im Endbild noch lieber per Photoshop beispielsweise was verändert.

Andererseits Programme wie DxO Optics Pro und Phase One Capture One nehmen einen die Arbeit ganz schön ab, währrend Adobe Camera Raw unter Photoshop etwas altbacken wirkt und hier unter Umständen man weniger zufrieden ist als mit den bereits vorher genannten RAW-Konvertern. (ein guter Workflow und die richtigen Programme sind auch wichtig)

Es sei denn (wie bereits gesagt) es gut um richtige Bildretusche bzw. auch kompliziertere Bearbeitungen, dann kann man extrem viel Zeit investieren wenn man denn möchte.

Aber ich möchte hier nicht zu viel OT liefern, es geht hier um RAW und cRAW. ;)

doedoed
13.07.2010, 10:55
Ich bin allen dankbar für diesen sehr interesanten und auch informativen Thread. Bleibe aber dennoch bei den Raws besonders ab Iso 200 / IsoAuto zwischen 200 und 1600 Iso.:top:

Neonsquare
13.07.2010, 12:20
@doedoed
Gerade bei höheren ISOs ist die Wahrscheinlichkeit eines negativen Einfluss von cRAW gegenüber RAW deutlich geringer! Der Dynamic Range ist bei der A700 bei ISO6400 ja nur noch bei etwa 7 Bit. Der Tonal Range ist ab ISO800 auch nur noch etwa 7 Bit. Das heißt - wenn überhaupt, dann macht RAW gegenüber cRAW im Bereich 100-400 noch Sinn - darüber überwiegt das Rauschen sowieso auf jeden Fall. Darunter dürfte - wie die Diskussion hier ja gezeigt hat - wohl ebenfalls kein merklicher Unterschied gegeben sein, aber wie gesagt: Ab ISO 800 finde ich eine bewusste Entscheidung aus Qualitätsgründen zu RAW gegenüber cRAW für nicht sinnvoll.

Gruß,
Jochen

wolfram.rinke
19.07.2010, 05:53
Hallo,

mich würde ein Statement von Sony interessieren, was das Argument für die Einführung von cRAW war. Nikon bietet zB laut Handbuch der D700 3 RAW Formate an NEF, verlustfrei komprimiertes NEF und komprimiertes NEF. Nikon meidet somit auch das "Marketing Unwort" - verlustbehaftet. Wer würde ein Produkt kaufen, bei dem der Käufer etwas verliert? Weis wer von Euch wie das komprimierte bzw verlustfrei komprimierte NEF aussieht?

Gruß, Wolfram

Neonsquare
19.07.2010, 07:50
@wolfgang.rinke
Ich hatte dazu mal einen Link hier genannt. Es funktioniert anders - entspricht wohl eher einer Kompression der Lichter und Schatten - hab es mir aber noch nicht angeschaut. Meines Wissens nach gab es sogar zwei unterschiedliche verlustfreie Komprimierungen - die erste war so langsam, dass es zu sehr deutlichen Verzögerungen kam und war wohl ein Grund für die Einführung des "verlustbehafteten" Verfahrens.

Bei MP3 haben auch alle am Anfang gedacht, dass niemand das gegenüber dem verlustfreien CDs haben will. Heute sind MP3s und Co. allerdings Standard. Dabei nutzen MP3s ja die eingeschränkten Möglichkeiten des menschlichen Hörers, während Formate wie Sony cRAW die Einschränkungen der digitalen Verarbeitungspipeline ausnutzt. Ich bin immer noch nicht entgültig überzeugt davon, ob ein schlichtes "verlustbehaftet" dem cRAW-Format wirklich gerecht wird.

Gruß,
Jochen

wolfram.rinke
19.07.2010, 08:05
Ich bin immer noch nicht entgültig überzeugt davon, ob ein schlichtes "verlustbehaftet" dem cRAW-Format wirklich gerecht wird.


Ich habe vor 2 Wochen auf einer längeren Fotosession unter schwierigen Lichtverhältnissen, von 580 Aufnahmen ca. 180 statt mit RAW in. cRAW gemacht, da ich nicht die Speicherkarte wechseln wollte. Die Aufnahmen waren alle im High-ISO Bereich. Ich war auch neugierig ob man einen Unterschied erkennen kann. Im Bildergebniss ist der Unterschied nicht erkennbar (für mich trotz Pixelpeeping). Ich komme zum Schluss, dass das cRAW Format in der Praxis den Vorteil speicherplatz zu sparen. In der Bildqualität wenig bis keinen Einfluss hat (da die Komprimierung auf den Sensordaten greift). Die Entwicklungspipeline danach, den möglichen Nachteil ausgleicht. Der einzige wensentliche Nachteil scheint in der Abbildung in DNG zu sein, dass mehr Speicher verbraucht aus dem RAW-Format konvertierte DNGs. 2.Nachteil ist eine längere Bearbeitungszeit bei der Verarbeitung, da die Daten zuerst dekomprimiert werden müssen, bevor sie durch die Entwicklungspipeline laufen. 3.Nachteil könnte in der Kamera sein, da die Komprimierung sicher auch mehr Zeit kostet, auch wenn es geschickt implementiert ist. Dieser Mehraufwand, könnte wieder durch den Zeitgewinn beim speichern auf die Speicherkarte kompensiert werden.

Gruß, Wolfram

Neonsquare
19.07.2010, 10:36
@wolfram.rinke
Zumindest das Problem der Bearbeitungszeit in der Kamera dürfte sehr vernachlässigbar sein. Die Art des Algorithmus schreit förmlich nach einer Hardwareimplementierung - insofern würde ich mich nicht wundern, wenn cRAW sogar schneller durch gehen als herkömmliche RAW - also dass die Platz/Zeitersparniss von ca. 33% größer ist als der Komprimierungsaufwand.

Gruß,
Jochen