SonyUserforum

SonyUserforum (https://www.sonyuserforum.de/forum/index.php)
-   Nach der Aufnahme (https://www.sonyuserforum.de/forum/forumdisplay.php?f=12)
-   -   Raw oder Jpg und die Nachbearbeitung, Aufwand vs. Nutzen? (https://www.sonyuserforum.de/forum/showthread.php?t=130679)

www_zeeshan_de 14.01.2014 02:13

Zitat:

Zitat von Tikal (Beitrag 1535552)

1.
Ich möchte die Methode ja nicht schlecht machen, aber ich sehe in der zero-mod Variante (so wie du sie nennst) mehr Moire-Artefakte und Treppen-Effekte.

2.
Die Bilder sind dann auch zu scharf.

3.
So gefällt es mir leider nicht, weil ich in der Realität ja auch keine Pixel sehe.

4.
Das könnte man höchstens als Ausgangsbasis für weitere Bearbeitungen nutzen, aber dann dürfte es nicht in JPEG, sondern müsste als RAW vorliegen. Andererseits wird ein erheblicher Mehraufwand getrieben, dessen Nutzen ich momentan nicht sehe. Vielleicht bei extremen Makroaufnahmen, mit sehr guter Kontrolle bei der Aufnahme im Studio. ich persönlich sehe leider durch dieses spezielle Verfahren keine allgemeine Verbesserung der Bildqualität.

5.
Man muss bei den Beispielbildern auf http://www.zeeshan.de/dcraw_zero_mod...w_zero_mod.htm auch aufpassen, weil die unbearbeiteten JPEGS manchmal auf der rechten Seite stehen und manchmal auf der linken stehen.

1.
Für die Referenz-Test-Bilder habe ich natürlich eine Festbrennweite bei kritischer Blende und fest ISO100 verwendet (eingestellt). Geht es hier doch darum, zu zeigen wie weit man gehen kann, welche Details der Sensor der SLT-A65 festhalten kann WENN man mit entsprechender Optik und Blende das Auflösungsvermögen am Limit ansprechen möchte.
Geht es jedoch um die Realität im Umfeld, dann muss ich sagen, dass meistens Zoom-Objektive eingesetzt werden. Viele Neueinsteiger verwenden jahrelang das mitgelieferte Kit-Objektiv, hier zeigt der zero_mod (ERST RECHT) seine stärken, es holt das letzte Quäntchen Schärfe aus den Billig-Objektiven bzw aus den Kompromiss-Zoom-Objektiven. Probiere es doch mal aus mit einem Zoom-Objektiv oder mit einem Kit-Objektiv, mache paar Bilder!
Mich stören die Moire/Aliasing nicht im geringsten, handelt es sich doch hier um digitale Fotografie, und diese ist nun mal endlich. Um dem entgegen zu wirken, benötigen wir Sensoren mit höheren Auflösungsvermögen, denn dann werden auch die Treppchen-Effekte immer kleiner.
Das war bei PC Bildschirmauflösungen von 640x480 übrigens genau so, dann hat die Industrie angefangen Anti-Aliasingfilter in die Grafikkarten-Treiber einzubauen (wobei dann der Strombedarf anstieg und sich dann die 3D-Rechenleistung um ca 33 % verringerte...), selbst heute werben 3D-Grafikkartenhersteller mit 16fach Antialiasing bei Auflösungen, die die FULL HD Auflösungen übersteigen... was n Schwachsinn. Für viele ist das daraus resultierende UNSCHARFE Bild genau das was sie "GEWOHNT" sind zu sehen. Du kannst die ja mal auf wikipedia den Artikel über Anti-Aliasing durchlesen, das steht so vieles über AA beschrieben... aber der Nachteil von Anti-Aliasing, wow, gerade mal 2 entscheidende Sätze:
""
Antialiasing nimmt zusätzliche Rechenleistung in Anspruch, die besonders beim Echtzeitrendern nicht vernachlässigbar ist. Ein weiterer Nachteil ist, dass ein mit Antialiasing erzeugtes Bild als unscharf empfunden werden kann;
""

2.
Du findest die Bilder zu scharf ? Dann machst du dich aber lächerlich. Weißt du warum? Ganz einfach: Die per zero_mod erzeugte Bilder geben genau das wieder, was die OPTIK auf den Sensor gebrannt hat, es wurde KEIN NACHTRÄGLICHES SCHÄRFEN PER SOFTWARE auf die Bilder angewendet wie es herkömmlichen Methoden/Algorithmen der Fall ist.
Wenn du sagst, die Bilder sind zu scharf, dann würde das bedeuten die Bilder sind SCHÄRFER ALS DIE REALITÄT, was natürlich nicht sein kann.
Es ist eben DEINE GEWOHNHEIT eine gewisse UNSCHÄRFE im Bild zu wahren, damit es deinen Ansprüchen genügt. Ich habe den Anspruch, ich möchte das sehen was ich fotografiert habe.

3.
Ich weiss nicht was du in der Realität siehst und was nicht, und das wird auch niemals jemand anderer außer dir selbst erleben. Es sind durchaus Verfahren in unserem Sehvermögen verankert, die versuche gewisse Informationen die vorhanden sind und die wir auch sehen können und würden zu filtern und zu entfernen. Andererseits kann sich das Sehvermögen und das Gehirn natürlich auch in die Irre leiten lassen, siehe Optische Täuschungen. Ich sage, das was der Sensor eine Digitalkamera festhält, ist die Realität (selbst wenn ich es mit dem Auge selbst nicht sehen kann). Ein IR-Filter vor dem Sensor übrigens sogt dafür dass der Sensor keine IR Strahlen auf dem Sensor festhält, finde ich auch ok so, aber es gibt auch hierfür Anwendungsfälle.
Damit du keine Pixel siehst, bedarf es eben Sensoren mit sehr hohen Auflösungsvermögen oder für deinen Anspruch, jag doch mal einen UNSCHÄRFEN Filter drüber !! Dann bekommst du genau das was du gewohnt bist.

4.
Originalraw speichert die RAW-Dateien in den RAW_IMAGES Ordner, die jpg-Dateien werden in den jpg Ordner gespeichert. Die RAW-Dateien sind also ebenfalls vorhanden.
Bildqualität an sich ist (ich wiederhole mich, siehe alle Postings im Thread) DEFINITIONSSACHE. Jeder hat seine eigene Ansprüche. Ich sage, je mehr ein Bild manipuliert wird, desto stärker weicht es vom Original ab und bei jedem Manipulations-Schritt entstehen nicht nur vermeintliche Verbesserungen, sondern eben auch Verschlechterungen. Ich möchte keine Schnick-Schnack Bildverbesserer-Verschlechterer, ich möchte einfach UNVERÄNDERT das, was ich fotografiert habe, denn nur hier weis ich, ist der fotografische Anteil am HÖCHSTEN und der fotomontage Anteil am niedrigsten.

5.
Ich musste kichern als ich das gelesen habe. Es sieht so aus als möchtest du in Robin-Hood-Manier alle vor irgendwas beschützen... aber vor was ? Darüber dass du dich selbst dabei ertappt hast ein Bild mit dem zero_mod als das bessere Bild zu klassifizieren weil du gedacht hast dass die Bilder mit dem zero_mod immer auf der linken Seite sind und das ist bei einigen Bildern nicht der Fall... und damit das anderen nicht auch noch passiert machst du Meldung... *lustig*... ich erspare mir jeglichen weiten Kommentar...

Insgesamt trotzdem danke für deinen Beitrag, hat mich angeregt dir zu antworten.

fotomartin 14.01.2014 02:32

Dein Ansatz "gleiche Menge an RAM" ist unsinnig, da die 24 Megapixel nun einmal zur Verfügung stehen. Das du nur 6MP (analog 3 Spieler) nutzen willst, ist deine freie Entscheidung, ich möchte gerne alle 24MP mit einem modernen Interpolationsalgorithmus nutzen (11 Spieler). Also lasse ich, da beim Fußball nun mal 11 Spieler vorgesehen sind, auch 11 Spieler auflaufen und, wie du richtig erkannt hast, wäre es dumm von dir, mit nur 3 Spielern dagegen halten zu wollen.

Was du jetzt mit deinen Bildvergleichen versuchst, ist, mich zu zwingen, auch nur 3 Spieler zu benutzen. Und meiner Meinung nach verlieren deine zeromod Algorithmus Pixel Spieler trotzdem gegen meine 3.
Da du und dein Fanclub das offenbar anders sehen, war der Appell aus meinem vorherigen Post, mit deinen 3 super Rgb Spielern doch mal gegen alle meine 11 Spieler/24MP anzutreten.

Das du dein 6MP Bild dazu auf 24MP hochskalieren musst, sollte deiner Logik nach doch kein Problem sein, da meine 24MP ja auch interpoliert sind und außerdem: schwupps haben wir wieder die gleiche Menge an RAM
(deswegen ist der RAM Ansatz auch Blödsinn - du kannst jedes Bild auf jede beliebige RAM Größe skalieren).

Versteh mich nicht falsch: wenn du gerne nur zu dritt Fußball spielst, kannst du das von mir aus auch bei der Fotografie machen, interessiert mich nicht die Bohne.
Aber du propagierst hier komische Technologieverstümmelungsaktionen und ähnlich wie falsche Wikipedia Artikel korrigiert werden können, erlaube ich mir eben eine Gegendarstellung zu deinen Fehlinterpretationen.

Viele Grüße,
Martin

Tikal 14.01.2014 05:39

1.
Zitat:

Mich stören die Moire/Aliasing nicht im geringsten, handelt es sich doch hier um digitale Fotografie, und diese ist nun mal endlich. Um dem entgegen zu wirken, benötigen wir Sensoren mit höheren Auflösungsvermögen, denn dann werden auch die Treppchen-Effekte immer kleiner.
Mich schon. Und warum sollte ich auf fortschrittliche Technologien wie Anti Aliasing verzichten, wenn mich das Aliasing momentan stört? Das ist nun mal digitale Fotografie und da gehört die Bearbeitung und zusammen Berechnung für eine Annäherung nun mal dazu. Allenfalls in bestimmten Ausnahmefällen könnte deine Vorgehensweise FÜR MICH nützlich sein.

2. Siehe auch 4. und 1.
Ich finde sie zu scharf, weil man Treppchen Effekt erkennt, was nun mal den Pixeln geschulded wird. Aber 100% und mehr sind eben nur für den Vergleich geeignet und bei Fehlersuche. Auch sind die Bilder nicht das, was der Sensor sieht, weil bereits weiteres bearbeitet wurde. Siehe 4.

3. Unschärfen Filter ist nicht das gleiche wie Anti Aliasing. Aber das müsste ich erst ausprobieren. Und dann stellt sich die Frage, was für ein Nutzen das hat. Ich möchte nicht auf die Datenaufbereitung und Einstellungen samt Korrekturen in der Kamera verzichten. Ansonsten fehlt deiner Methode auch die 16bit um mir nennenswerte Vorteile gegenüber der ooc zu liefern.

4. Du kannst gar nicht das sehen, was dein Sensor sieht. Die Raw Informationen müssen für dich und dein Monitor erst in RGB umgerechnet werden. Aber wenn du das trotzden anstrebst, gibt es noch weitere Aspekte zu beachten. Wenn ich in Darktable (Raw Konverter unter Linux Systemen) eine Raw öffne, sind bereits zwei Dinge erledigt. Einmal die Grundschärfung und einmal eine Standardkurve, ohne die das Bild dunkler und sehr flau aussieht. Kein Vergleich zu deinem JPEG. Da kommen wir dem Sensor noch nähet als bei deinem Beispiel. Aber das Bild ist so nur für Vergleiche nützlich, sonst nichts. Das nutze ich schon seit ich das Programm kenne. Ich möchte die Bilder nicht so haben wie sie der Sensor aufnimmt. Die brauchen alle eine Bearbeitung.

5. Wenn man dich und deine Methoden ernst nehmen soll, dann darfst du dich nicht öffentlich über andere lustig machen und herablassend reden. Ich bin nicht Robin Hood und ich versuche andere nicht zu beschützen. Wenn man wissenschaftlich vorgeht, dann sollte man auch schematisch vorgehen und nicht mal links mal rechts abbilden. Das stiftet nur Verwirrung. Wer sich ernsthaft damit beachäftigt, könnte versehentlich so zu falschen Schlüssen kommen. Du solltest auch mal Kritik vertragen und cool bleiben können. Sonst war es das. Denn das soziale ist mir auch wichtig und ich lass mich nicht dumm anmachen. Und im Vergleich zu dir bin ich nicht in einer missionaren Position.

dey 14.01.2014 11:14

Zitat:

Zitat von fotomartin (Beitrag 1536416)
Dein Ansatz "gleiche Menge an RAM" ist unsinnig, da die 24 Megapixel nun einmal zur Verfügung stehen. Das du nur 6MP (analog 3 Spieler) nutzen willst, ist deine freie Entscheidung, ich möchte gerne alle 24MP mit einem modernen Interpolationsalgorithmus nutzen (11 Spieler). Also lasse ich, da beim Fußball nun mal 11 Spieler vorgesehen sind, auch 11 Spieler auflaufen und, wie du richtig erkannt hast, wäre es dumm von dir, mit nur 3 Spielern dagegen halten zu wollen.

Dein vergleich hinkt. Drei erwachsene Fussballer werden 11 Kiddies im Griff behalten. Und seine Behauptung ist ja, dass die 11 unvollständig sind.

So ich habe mich mal daran gemacht, den Vergleich durchzuführen, da ich einen Vergleich zwischen einem 8 Jahre alten 6MP-CCD gegen einen 3 Jahre alten 24MP-CMOS doch etwas unsportlich finde.

Zuerst das Bild von z mit einem von mir bei 200%

Bild in der Galerie

Was das mit den 200% soll ist mir schon ein Rätsel; 100% sind das max sinnvolle. Wer ein Output auf 200% wählt, dem ist nicht zu helfen. (Es sei denn ich behaupte mit 24MP müßte das ja gehen; laut Hersteller)

Also bei 100% verglichen

Bild in der Galerie

Und weil es ja darum geht, die interpolierten 24MP madig zu machen auch noch die beiden 6MP Bilder auf 24MP hochskaliert.

Bild in der Galerie

Mir sagt das alles jetzt nur, dass ich weiter mit den interpolierten 24MP mache und danach entweder croppe und dann mein Archivformat von 6MP wähle oder eben gleich 6MP.

Und ich bin bei Tikal: deine überschärften Bilder leiden unter Moire und CA.
Es gibt durchaus Beispiele, die zeigen, dass deutlich mehr Details da sind, als bei den 6 MP der 7D, aber wie mein Beispiel zeigt liegt das eher an der Grundauflösung des 6MP-CCD.
Das alles relativiert sich dann bei Ausgabe auf eine sinnvolle Größe. Deine deine 100%-Ansichten würde ich so nicht sehen wollen.

bydey

Neonsquare 14.01.2014 12:16

Zitat:

Zitat von dey (Beitrag 1536485)
Was das mit den 200% soll ist mir schon ein Rätsel;

Zumindest dafür kann es gute Gründe geben. Wenn man die Pixelstrukturen bequemer betrachten will, dann ist das bei 200% einfacher. Ich hab das auch schon hin und wieder gemacht wenn ich die Interpolation verschiedener RAW-Konverter verglichen habe. Das es hier um Pixel Binning gegen komplexere Interpolationen geht, ist 200% durchaus auch eine interessante Betrachtungsweise, die im übrigen auch den Finger in die Wunde von Pixel Binning legt. Tatsächlich treten eben nunmal genau die Probleme auf die z. B. auch auf dem von mir gezeigten Link erwähnt werden:

Demosaic Algorithms, The Daily Nathan

Man kann sich dort auch die Wirkung verschiedener Demosaic-Algorithmen auf unterschiedliche Beispielbilder (siehe Custom Images) anzeigen lassen. Ich könnte mir vorstellen, das so mancher überrascht wäre, wie erheblich sich der jeweilige Demosaic-Algorithmus auf die Bilder auswirkt.

Btw. Zeeshans glorreiche "Erfindung" ist der einfachste dort aufgeführte Demosaic-Algorithmus (Pixel Binning) - und auch der mit den größten Problemen.

fotomartin 14.01.2014 13:34

Zitat:

Zitat von dey (Beitrag 1536485)
Was das mit den 200% soll ist mir schon ein Rätsel

Du hast mich glaub falsch verstanden - Wenn du das 24MP Bild kleiner als 1:1 betrachtest, dann werden für die Darstellung Informationen verworfen. Du musst es also zum fairen Vergleich mindestens in 1:1 betrachten. Damit das 6MP-zeromod Bild gleich groß erscheint wie das 24MP Bild in 100%, musst du das 6MP-Bild daneben in 200% anzeigen, sodass 1 Bild-Pixel auf 4 Monitor-Pixel vergrößert wird.
Nur dann siehst du das mehr an Luminanz-Auflösung des 24MP Bildes im Vergleich zu zeeshan's Ansatz, bei welchem diese Informationen von vorn herein verworfen werden - ein Fakt, den zeeshan seit Beginn der Diskussion beharrlich ignoriert.

Bei deinem letzten Vergleichsbild...
Zitat:

Zitat von dey (Beitrag 1536485)

... hast du das ja dann auch gemacht und man sieht mehr als deutlich den Unterschied zwischen zeeshans Lösung (ganz links) und dem - mit einem modernen Algorithmus erstellten - 24MP Bild ganz rechts.

Quintessenz also nach wie vor:
Zeeshans Variante führt zu - in allen Belangen - schlechteren Bildern als die Verwendung eines heutzutage normalen, modernen Algorithmus, wie ihn jeder moderne RAW Konverter heute verwendet.
Wer sich gerne ins eigene Fleisch schneidet, bitte - jeder andere kann das hier alles vergessen und weiter Sony IDC, Adobe ACR/Lightroom, DXOmark o.ä. verwenden.

dey 14.01.2014 15:20

Zitat:

Zitat von fotomartin (Beitrag 1536551)
Du hast mich glaub falsch verstanden -[/B]

Ne ne, der 200%-Vergleich ist das erste Vergleichsbild auf seiner Interpolationsseite und hatte nix mit deinem Beitrag zu tun. Deswegen habe ich den ersten Vergleich so gemacht, wie er es mit dem Bild der 7D gemacht hatte.

Ich nutze selbst 200% und 400%, um zu sehen, ob kleine Regleränderungen überhaupt noch Änderungen bringen. Das würde ich aber nicht für einen Schärfe- oder Detailvergleich zwischen zwei Systemen verwenden, da es sich nur noch um theoretische Werte handelt und nicht um praktische.
Die finale Beurteilung ist bei mir eher bei 50%, denn das nutze ich später auch.

Ein interessanter Punkt für mich hierbei ist, was ich mit Bildern für das croppen mache. Schärfe und Detail auf Max, damit ich auch was croppen kann oder beides eher moderat, damit der crop nicht völlig zerhackt ausssieht.

Ich denke ich habe mit den drei Varianten schon die Realität abgedeckt.

bydey

Neonsquare 14.01.2014 15:28

Zitat:

Zitat von dey (Beitrag 1536581)
Ich nutze selbst 200% und 400%, um zu sehen, ob kleine Regleränderungen überhaupt noch Änderungen bringen. Das würde ich aber nicht für einen Schärfe- oder Detailvergleich zwischen zwei Systemen verwenden, da es sich nur noch um theoretische Werte handelt und nicht um praktische.
Die finale Beurteilung ist bei mir eher bei 50%, denn das nutze ich später auch.

Die finale Beurteilung der Schärfe hängt bei mir von der Verwendung und vom Inhalt ab. Ein Bild das auf in eine 900x900px Box im Web dargestellt wird, wird bei mir sehr deutlich geschärft. Manche Motive profitieren jedoch inhaltlich überhaupt nicht von einer Schärfung (viel weiche Übergänge, generell weiche Darstellung) - dann schärfe ich auch nicht.

Eine Schärfe/Detailbeurteilung auf 200px-Ebene ist irreführend. Bestimmte Details nimmt man erst wahr, wenn die Wahrnehmung der "Pixelgrenze" überwunden ist - wir kennen diesen Effekt ja auch sehr plakativ bei Icon-Design mit Pixelbildern - erst der Abstand bringt das Bild.

dey 14.01.2014 15:35

Hi neon,

wie gesagt, theoretischer Vergleich.
Ich arbeite anders als du beim Thema Ausgabe. Es gibt eine finale Archivgröße und die wird für alles verwendet. Wenn ich jetzt für das SUF auf 1MP gehe schaue ich nur noch, ob das Ergebnis halbwegs meinem Archivbild entspricht, was bei Faststoneviewer zu 99% der Fall ist.

Es ist jedoch bei Schärfe- Detailbeurteilung manchmal so, dass ich das Gefühl habe, da tut sich nix, das kann doch nicht sein. Dann nehme 200-400%-Ansicht. Z.B. um den Untersschied zwischen Betrag und Radius zu erkennen oder zu verstehen.

Im Fall des Vergleichs von zero_mod_24MP gegen 7d_interpol wird ein ohnehin schon nicht mehr detailreiches Ausgangsbild auf 200% aufgeblasen um es richtig schlecht aussehen zu lassen. Ich finde das wenig sinnvoll. Das war, was ich meinte.

bydey

www_zeeshan_de 14.01.2014 20:43

Zitat:

Zitat von dey (Beitrag 1536485)
...
So ich habe mich mal daran gemacht, den Vergleich durchzuführen
...

bydey

Ein sehr schönes Beispiel dafür wie man du Dinge so lange veränderst, bist du genau das hast, was du haben willst.
Die Datei
20131224133211-DSC04696.jpg
(in deinen Bilder ist es 20131224133211-DSC04696-z.jpg)
hat normalerweise
10,7 MB (11.291.180 Bytes).

Du hast die Datei
20131224133211-DSC04696.jpg
mit dem zero_mod "beschämend" so weit in der JPG-Qualitätsstufe verschlechtert, dass am Ende nur noch 2,86 Megabytes davon übrig geblieben sind, und diese hast du dann mit allen anderen "von dir bevorzugten" JPG-Dateien mit weit höheren JPG-Qualitätsstufen gegenübergestellt (einmal 6,73 Megabytes, einmal 20,2 Megabytes).

So weit ich mich erinnere, bekommt man nur mit originalraw und dem zero_mod JPG-Dateien mit maximaler JPG-Größe (und auch Qualität). Selbst die 24 MP Out-of-Cam FINE JPGs sind in der Dateigröße kleiner.

Und obwohl du das Bild mit dem zero_mod extrem verlustbehaftet gespeichert hast (um es schlecht aussehen zu lassen) ist es erstaunlich, wie viele Details trotzdem in den lediglich 2,86 Megabytes verblieben sind.

www_zeeshan_de 14.01.2014 21:28

Zitat:

Zitat von fotomartin (Beitrag 1536416)

1.
Dein Ansatz "gleiche Menge an RAM" ist unsinnig, da die 24 Megapixel nun einmal zur Verfügung stehen.

2.
Das du nur 6MP (analog 3 Spieler) nutzen willst, ist deine freie Entscheidung, ich möchte gerne alle 24MP mit einem modernen Interpolationsalgorithmus nutzen (11 Spieler).

3.
Das du dein 6MP Bild dazu auf 24MP hochskalieren musst, sollte deiner Logik nach doch kein Problem sein, da meine 24MP ja auch interpoliert sind und außerdem: schwupps haben wir wieder die gleiche Menge an RAM
(deswegen ist der RAM Ansatz auch Blödsinn - du kannst jedes Bild auf jede beliebige RAM Größe skalieren).

1.
Genau hier liegt dein Denkfehler. Bei den 24 Millionen Pixeln handelt es sich um Single-Color-Pixeln. Um am Ende RGB-Pixel zu haben müssen die fehlenden Farbwerte von benachbarten Pixeln errechnet werden, wodurch Verluste im Auflösungsvermögen VORPROGRAMMIERT sind.

2.
Genau hier liegt dein Denkfehler Nr 2. Bei den 6 Millionen Pixeln mit dem zero_mod handelt es sich um finale RGB-Pixeln (ohne jegliche berechnung von Farbwerten, weil aus einem Bayer-Pattern ein Super-Pixel generiert wird).

3.
Was du machst, ist nichts anderes als die 3 Fussballspieler in 11 Teile zu zersägen und diese dann dann an 11 Stellen auf dem Fusballplatz zu verteilen, nur um der Welt zu zeigen dass du tatsächlich 11 Spieler gegen 11 Spieler antreten lässt...
Aus meiner Sicht ist ein derartiger Vergleich und der Digital-Zoom von 6 Millionen RGB-Pixel nach 24 Millionen RGB-Pixel unzulässig (es entspricht der Zerstückelung der 3 Fusballspieler in 11 Teile).

Ohne Arme und Beine bist auch du nichts ganzes mehr, selbst wenn du dadurch mehr Platz im Raum für deine Köperteile benötigen würdest. Und genau so gehören auch zu einem RGB-Pixel die Farben rot, grün, und blau, und diese müssen fotografiert vorliegen, und nicht als Fotomontage.

Neonsquare 14.01.2014 21:48

@zeeshan
Hast du dir wenigstens einmal die Seite über Pixel Binning und dessen Probleme angesehen? Dort siehst Du exakt das Fehlverhalten, dass sich auch an deinen Bildern erkennen lässt. Ich finde es krass wie Du offensichtliche Mängel deiner "zeromod"-Methode wegleugnest und dann anderen gar Manipulation vorwirfst; im Gegenzug jedoch bewusst unterschiedliche Kameragenerationen antreten lässt um deine Ergebnisse zumindest ein bisschen weniger grottig aussehen zu lassen. Die Mängel in den Ergebnissen deiner Methode sind so offensichtlich, dass die paar potentiellen JPEG-Artefakte kaum noch ins Gewicht fallen.

Findest du nicht es wäre mal an der Zeit für dich das ganze nochmal grundlegend in Frage zu stellen? Glaubst du ernsthaft, du kannst noch irgendwen von diesem Schmarrn überzeugen? Sorry, dass ich da so direkt bin, aber du hast dich mittlerweile vollkommen verrannt.

www_zeeshan_de 14.01.2014 21:48

Zitat:

Zitat von Tikal (Beitrag 1536417)
...

0.
Ansonsten fehlt deiner Methode auch die 16bit um mir nennenswerte Vorteile gegenüber der ooc zu liefern.

1.
Wenn man wissenschaftlich vorgeht, dann sollte man auch schematisch vorgehen und nicht mal links mal rechts abbilden. Das stiftet nur Verwirrung. Wer sich ernsthaft damit beachäftigt, könnte versehentlich so zu falschen Schlüssen kommen.

2.
Du solltest auch mal Kritik vertragen und cool bleiben können. Sonst war es das. Denn das soziale ist mir auch wichtig und ich lass mich nicht dumm anmachen. Und im Vergleich zu dir bin ich nicht in einer missionaren Position.

0.
Bitte mal die Parameter von dcraw untersuchen, da gibts was mit 16bit.

1.
Du solltest dich mal ein wenig mit dem Thema "Blindtest" auseinandersetzen. Wer ernsthaft behauptet, er könne dies oder das eindeutig erkennen usw, der sollte auch in der Lage sein dies mit einem Blindtest unter Beweis zu stellen. Die Vergleichsbilder sind somit schematischer als der eine oder andere hier Forum sich das wünschen würde, beinhalten sie doch gleich einen Blindtest.
Über Leute, die zu falschen Schlüssen kommen, muss ich mich ganz bestimmt nicht darüber ärgern, schließlich ist es nicht meine Aufgabe für andere die Dateinamen in den Bildern zu lesen.

2.
Ich freue mich über Kritik. Wenn mir jemand einreden möchte, dass etwas falsches richtig ist, dann werde ich ganz klar dagegen halten. Nichts gegen dich, aber es kam so rüber als wärst du verärgert weil die Bilder nicht nach deinem Wunsch-Schema angeordnet sind (und ich bin froh darüber dass sie das nicht sind). In einer missionaren Position bin ich übrigens noch nie gewesen. Meine Berichte und Auswertung habe ich online gestellt, wer lesen kann, ist klar im Vorteil. Ich habe mich jetzt lange genug mit der Programmierung auseinadergesetzt, ich habe den Algorithmus, der meine Ansprüche erfüllt gefunden, und mein Tool wandelt alle Bilder nach nur einem Mausklick in JPGs um und sichert auch die RAW, synchronisiert die unbrauchbaren Bilder usw. Ich kann mich schon lange sorgenfrei der Fotografie widmen, natürlich noch ein wenig gedämpfe von der Wetter lage.

www_zeeshan_de 14.01.2014 21:53

Zitat:

Zitat von Tikal (Beitrag 1535552)
...
Man muss bei den Beispielbildern auf
http://www.zeeshan.de/dcraw_zero_mod...w_zero_mod.htm
auch aufpassen, weil die unbearbeiteten JPEGS manchmal auf der rechten Seite stehen und manchmal auf der linken stehen.

Ich weiss nicht was du mit "unbearbeiteten JPEGS" meinst. Falls du JPGs out of Cam mit "unbearbeiteten JPEGS" meinst, da liegst du falsch.
Auf beiden Seiten hast du Bilder von dcraw im Superpixel-Verfahren, das eine ist mit zero_mod, das andere ohne.
Hast du den Text auf der Webseite
http://www.zeeshan.de/dcraw_zero_mod...w_zero_mod.htm
überhaupt gelesen worum es dort geht und was genau dort verglichen wird?

Neonsquare 14.01.2014 21:56

Zitat:

Zitat von www_zeeshan_de (Beitrag 1536745)
In einer missionaren Position bin ich übrigens noch nie gewesen.

made my day.

mrieglhofer 14.01.2014 22:17

Es haben dir doch schon einige Leute erklärt, dass du dich da verrannt hast. Das ist ja nicht Schlechtes, wenn man engagiert ist und kommt vor. Wenn du denen nicht glaubst, dann überlege doch, warum alle namhaften Firmen mit doch zumindest hunderten talentierten Entwickler nicht diese Ideen aufgegriffen haben, sondern deutlich leistungsfähigere Verfahren einsetzen.

Tikal 14.01.2014 22:43

Zitat:

Zitat von www_zeeshan_de (Beitrag 1536749)
Ich weiss nicht was du mit "unbearbeiteten JPEGS" meinst.

Ich habe das ja beschrieben. Und ja, deine Seite habe ich mir angeschaut und teilweise gelesen und Bilder verglichen. Wieso unterstellst du dauernd den Leuten, sie würden dies und das?!

Also was ich mit unbearbeitet meine ist folgendes... Die JPEGs bekommen eine Standard-Kurve angelegt, in jedem RAW Programm. In meinem kann ich diese sogar beeinflussen. Ohne diese sehen die Bilder sehr flau aus. Das heißt, dein zeromod ist ja schon bearbeitet. Du erhälst nicht das, was der Sensor liefert. Hier wenn ich im RAW Konverter die Standard-Kurve und Standard-Schärfung ausschalte und dahinter dasselbe aus der JPEG ooc. Beides 100% crops.


Bild in der Galerie


Bild in der Galerie

Leider kann ich deine Software nicht ausprobieren, da sie nur für Windows zur Verfügung steht.

dey 14.01.2014 23:18

@zeeshan
Du hast recht ich habe zu schlampig gearbeitet.
Mir Absicht zu unterstellen ist dieser arrogante Umgangston, den du pflegst und dich und dein Thema so beliebt machen.
Das meine interpolierten 24MP- Bilder näher an deinem Ergebnis liegen wirst du ja wohl manipulationsfrei zugeben.
Also wozu die matschigen D7D-Bilder?

bydey

BeHo 14.01.2014 23:31

Zitat:

Zitat von Neonsquare (Beitrag 1536751)
made my day.

Ja, der Witz des Tages.

dey 14.01.2014 23:58

So und nun mit 100%JPG der Größe 10MB.
Ich sehe ein, dass ich einen riesen Fehler gemacht habe. Ich hätte mal den Text aus den Bildern nehmen sollen. Dann hätten wir ein bischen mehr zu suchen gehabt. :doh:


Bild in der Galerie


Bild in der Galerie


Bild in der Galerie

Ich kann mir schon vorstellen, dass es Motive gibt, die mit deiner Methode detailreichere Fotos bringen. Aber weder deine Limitierung bei der Aufnahme (ISO100 und F5.6) noch der EBV-workflow würden mich irgendwie weiter bringen.
Ich sehe vor allem etwas, dass ich schon von meinen Vergleichen mit den Presets von fotomartin gelernt habe: je nach Motiv und Struktur ist die eine oder andere Software oder Einstellung besser oder eben nicht.
Leider willst du diese Erkenntnis nicht mit uns teilen.

bydey

BeHo 15.01.2014 00:10

One Size fits all kann prinzipiell nicht funktionieren.

www_zeeshan_de 15.01.2014 00:16

Zitat:

Zitat von Tikal (Beitrag 1536776)
1.
Ich habe das ja beschrieben. Und ja, deine Seite habe ich mir angeschaut und teilweise gelesen und Bilder verglichen. Wieso unterstellst du dauernd den Leuten, sie würden dies und das?!

2.
Also was ich mit unbearbeitet meine ist folgendes... Die JPEGs bekommen eine Standard-Kurve angelegt, in jedem RAW Programm. In meinem kann ich diese sogar beeinflussen. Ohne diese sehen die Bilder sehr flau aus. Das heißt, dein zeromod ist ja schon bearbeitet. Du erhälst nicht das, was der Sensor liefert.

3.
Leider kann ich deine Software nicht ausprobieren, da sie nur für Windows zur Verfügung steht.

1.
Danke dass du dir ein wenig Zeit genommen hast und dir ein paar Dinge auf meiner Seite angeschaut hast. Wenn du die "informativen" Beiträge anderer User hier im Forum mitliest, fällt es dir vielleicht leichter zu verstehen, dass ich ggf emotional reagiert habe. Sollte es wirklich so sein, danke für den Hinweis, werde künfig zurückhaltender reagieren.

2.
Hmmmm... was genau dcraw macht, kannst jeder anhand
http://www.cybercom.net/~dcoffin/dcraw/dcraw.c
im code analysieren. Ob und welche Standardkurve angewendet wird, das heraus zu finden überlasse ich dir.

3.
Soweit ich mich erinnere, ist dcraw auch für linux verfügbar.

www_zeeshan_de 15.01.2014 00:25

Zitat:

Zitat von Neonsquare (Beitrag 1536751)
made my day.

Ein sehr informativer Beitrag für diesen Thread, ausnahmsweise auch mal ohne den Begriff "Bullshit", was du ja sonst in fast jedem Kommentar hier im Thread mit rein schreibst, insbesondere wenn du versuchst mich damit zu adressieren.

www_zeeshan_de 15.01.2014 00:50

Zitat:

Zitat von dey (Beitrag 1536821)

1.
Ich hätte mal den Text aus den Bildern nehmen sollen. Dann hätten wir ein bischen mehr zu suchen gehabt. :doh:

2.
Ich kann mir schon vorstellen, dass es Motive gibt, die mit deiner Methode detailreichere Fotos bringen. Aber weder deine Limitierung bei der Aufnahme (ISO100 und F5.6) noch der EBV-workflow würden mich irgendwie weiter bringen.

3.
Ich sehe vor allem etwas, dass ich schon von meinen Vergleichen mit den Presets von fotomartin gelernt habe: je nach Motiv und Struktur ist die eine oder andere Software oder Einstellung besser oder eben nicht.
Leider willst du diese Erkenntnis nicht mit uns teilen.

1.
Der Text in den Bildern war für mich ein Indiz... zwischenzeitlich hast du angeblich nachgebessert, und es bleibt die Frage ob ich diesen neuen Ergebnissen von dir mehr Vertrauen schenken soll oder nicht. Mann kann schliesslich ja ein Bild mit schlechter Qualität (jpg-Qualität,Farbsubsampling) speichern, und DANACH wieder mit max JPG-Qualität, die Bildgröße würde zwar dann wieder ansteigen, das alles hilft dann aber trotzdem nicht mehr, was weg ist, ist weg.
Wichtig ist eine Beschreibung der Vorgehensweise und dass die Ergebnisse für andere Rekonstruierbar sind. Sollten andere mit der gleichen Vorgehensweise zu unterschiedlichen Ergebnissen kommen... dann ist jemandem wohl (und nein ich möchte keinem was unterstellen...) absichtlich/unabsichtlich ein Fehler unterlaufen...
Kurz: Ich schenke dir einfach mal so ein bisschen mehr Vertrausen, sind die von dir neu präsentierten Ergebniss doch näher an dem, was ich kenne.
Das gelbe in der Blume ist im zero_mod einfach kräftiger, detailreicher. Selbst an den weißen Wänden erkennt man mehr Strukturen im zero_mod.

2.
Die Limitierung bei der Aufnahme (ISO100 und F5.6) ist doch kein Zwang für die Fotografie. Ist Veranschaulichung für den Test. Du musst das benutzen was dich weiter bringt, ob das nun beruflich ist oder nur als Hobby.
Ich werde beim dcraw_zero_mod mit den 6 Millionen RGB-Pixel JPG Dateien (aus einem 24 Millionen Single-Color-Pixel Sensor) bleiben, erfüllt es doch meinen Anspruch voll und ganz.

3.
Hier unterscheiden sich unsere Anwendungsfälle. Was du alles und vor allem wie haben willst, kann ich gar nicht wissen. Klar kann man mit Lightroom und Co tausende unterschiedliche Ergebnisse zaubern. Aber ich will es nicht. Ich möchte mir vor dem Fotografieren gedanken machen anstatt danach stundenlang am PC mit EBV-Hilfe. Sollte mal was schief gelaufen sein UND das Bild ist verdammt einmalig, habe ich ja immer noch die RAW-Datei.
Neulich ist mir das bei einer Hochzeit passiert, musste die Kamera jemandem geben, man wollte ja dass ich auch auf den Bildern bin, als ich die Kamera wieder hatte und bereits 10 Bilder gemacht hatte, habe ich gemerkt dass einige Einstellungen verstellt waren, z B der Weisabgleich. Mit der RAW-Datei konnten die rötlichen Bilder gerettet werden, wenn auch für mich inzwischen etwas umständlich, da ich fast schon gewohn bin nach nur einem Mausklick die fertigen JPGs in meinem jpg Ordner zu haben.

Neonsquare 15.01.2014 01:53

Zitat:

Zitat von www_zeeshan_de (Beitrag 1536834)
Ein sehr informativer Beitrag für diesen Thread, ausnahmsweise auch mal ohne den Begriff "Bullshit", was du ja sonst in fast jedem Kommentar hier im Thread mit rein schreibst, insbesondere wenn du versuchst mich damit zu adressieren.

Du missverstehst das - ich adressiere nicht dich damit sondern die Inhalte die du vermittelst. Ich habe langsam das Gefühl, dass Du farbenblind sein könntest - oder wie sonst kannst Du die (erwartungsgemäßen) heftigen grün/lila Kanten in den Ergebnissen deiner Methode ignorieren? Ob das an den Wänden übrigens überhaupt mehr Strukturen sind würde ich bezweifeln. Das dürften lediglich Aliasingeffekte sein - diese fallen besonders bei diesen helleren Tonwerten stärker auf. Eigentlich entbehrt das nicht einer gewissen Ironie: Die ganze Übung war als Krieg gegen vermeintlich "hinzuerfundene" Pixel durch Interpolation entstanden und nun siehst Du gerade dort Details wo Farbartefakte zu einer falschen Darstellung führen.

dey 15.01.2014 09:59

Zitat:

Zitat von www_zeeshan_de (Beitrag 1536841)
1.
Der Text in den Bildern war für mich ein Indiz... zwischenzeitlich hast du angeblich nachgebessert, und es bleibt die Frage ob ich diesen neuen Ergebnissen von dir mehr Vertrauen schenken soll oder nicht.

Während wir schon diskutieren, möchtest du einfach immer noch nur Recht behalten :flop:

Zitat:

Mann kann schliesslich ja ein Bild mit schlechter Qualität (jpg-Qualität,Farbsubsampling) speichern, und DANACH wieder mit max JPG-Qualität, die Bildgröße würde zwar dann wieder ansteigen, das alles hilft dann aber trotzdem nicht mehr, was weg ist, ist weg.
Es ist einfach nur DEIN Bild von DEINER HP.
Beim ersten Durchgang habe ich schluderigerweise kopieren anstatt Speichern Unter gewählt. Nach dem kopieren musste ich das Bild dann noch einmal sepichern (mit meinen Standard settings für JPG).
Zitat:

Wichtig ist eine Beschreibung der Vorgehensweise und dass die Ergebnisse für andere Rekonstruierbar sind. Sollten andere mit der gleichen Vorgehensweise zu unterschiedlichen Ergebnissen kommen... dann ist jemandem wohl (und nein ich möchte keinem was unterstellen...) absichtlich/unabsichtlich ein Fehler unterlaufen...
IDC 4.2.02
Belichtung -1.0 EV (um ein ähnliches Bild zu erreichen, erwähnst du übrigens gar nicht!!)
WB Auto
DRO off
Kontrast korrigiert von +30 (mein std) auf +10 (um ein ähnliches Bild zu erreichen,)
Schärfe 30 10 10 20 (mein std)
NR off
Verzerrungskompensation off
Zitat:

Kurz: Ich schenke dir einfach mal so ein bisschen mehr Vertrausen, sind die von dir neu präsentierten Ergebniss doch näher an dem, was ich kenne.
Das gelbe in der Blume ist im zero_mod einfach kräftiger, detailreicher. Selbst an den weißen Wänden erkennt man mehr Strukturen im zero_mod.
Schenke dir selbst lieber mal etwas mehr Aufmerksamkeit.
Die Unterschiede, die du mal wieder feststellen möchtest sind im Promillebereich und spätestens bei 100% nicht mehr feststellbar.
Die linke Gardine erscheint bei zero_mod detailreicher. Nur sehen wir dort rote und grüne Streifen (Moires?). Das ist doch weder positiv noch schön. Und genau diese roten und grünen Streifen existieren auf dem gleichen Bild auf deiner HP auch und haben nix mit meinem Vergleich zu tun.
In der beigen Paperblume erkenne ich bei zero_mod mehr Struktur. Bei 200%! Und da nützen sie mir herzlich wenig.
Die rechte Gardine und den Eimer wiederum finde ich jetzt bei meinem Bild detailreicher (im Promillebereich).

Und genau das gleiche findet sich in deinen Bilder wieder.
Spielplatz: minimal zu Gunsten zero_mod dafür mehr CA
Inhaltsstoffe: deutlich mehr Farbprobleme. Im roten Bereich ist die 2 links bei zero_mod schlechter lesbar, dafür die folgende fünf im normalen Bild gar nicht, die sechs wiederum im normalen wieder besser
Sandkasten: man kann im zero_mod die Stoffstruktur erahnen, dafür hat das sitzende Kind einen unfreiwilligen Haarreifen
Schrifttafel: volle Punktzahl an zero_mod
Motorradsattel: einfach nur ausgepräteres Moires
Turnschuhe: zero_mod lilastichig (CA), Schärfe/ Detail gleich
Orange: CA um Niete
Feuerwerk: Schärfe und Detail = top, der Mond hat deutliche CA

Beim Vergleich mit der D7D gewinnt immer zero_mod. Oh, Wunder!? Ich habe übrigends eine D5D und bin ja so gar nicht überrascht.

Zitat:

2.
Die Limitierung bei der Aufnahme (ISO100 und F5.6) ist doch kein Zwang für die Fotografie. Ist Veranschaulichung für den Test. Du musst das benutzen was dich weiter bringt, ob das nun beruflich ist oder nur als Hobby.
Dann musst du mal anfangen defensiver zu argumentieren. Hier klingt das noch ganz anders!!!!!
Zitat:

Zitat von www_zeeshan_de (Beitrag 1445765)
Zunächst einmal am Rande zu deinem Objektiv, du sagst das SAL1650F28 SSM Objektiv ist ein geniales Teil, hattest du schon mal ein Festbrennweiten-Objektiv (ubabhängig vom SAM oder SSM AF-Motor) ? Wusstest du eigentlich dass ausschließlich Festbrennweiten die maximale Qualität bieten
* (Auflösungsvermögen [Details] bei kritischer Blende [z B F5.6],
* satte Farben,
* weniger-fla-grau-im-Bild und somit maximaler Kontrast [ggf mit Gegenlichtblende]) ?
Natürlich muss ISO immer bei 100 bleiben. Dies ist ja ein Thread über maximale
....
Generelle Kameraeinstellungen:
* Fotografiert wird nur im PASM-Modus damit man ARW-Dateien bekommt.
* Alle Kamera-Farbeinstellungen bleiben auf Standard !!
* ISO ist FEST auf 100 gesetzt und darf niemals verändert werden!!
* Größtenteils wird im A-Modus fotografiert, damit die Blende bei F5.6 bleibt (kritische Blende).
* Sofern Belichtungszeiten nicht größer als 1/10 Sekunde werden, kann auf den Kamera-internen-Blitz verzichtet werden.
* Metering Mehrfeld
* AF auf Spot-Zentral

Zitat:

3.
Hier unterscheiden sich unsere Anwendungsfälle. Was du alles und vor allem wie haben willst, kann ich gar nicht wissen.
Du argumentierst dennoch permanent so, als wenn deine Methode das Allheilbringende ist.
Deine Methode bringt kaum Vorteile und dabei eine ganzen Sack Nachteile.

Zitat:

Klar kann man mit Lightroom und Co tausende unterschiedliche Ergebnisse zaubern. Aber ich will es nicht.
Wenn du lesen würdest wüsstest du, dass ich fixe Profiles für IDC habe, die einzig und allein die notwendigen Änderungen für die unterschiedlichen ISO abdecken.
Damit decke ich ca. 50% meiner Bilder ab. Die anderen 50% wollen mehr Nachbehandlung. Entweder bei der Aufnahme gemurkst oder High ISO oder das Motiv ist kritisch und man kann noch deutlich mehr rausholen.
Zitat:

Ich möchte mir vor dem Fotografieren gedanken machen anstatt danach stundenlang am PC mit EBV-Hilfe. Sollte mal was schief gelaufen sein UND das Bild ist verdammt einmalig, habe ich ja immer noch die RAW-Datei.
Dafür hast du aber verdammt viel Aufwand in dein zweifelhaftes Projekt gesteckt.
Mit meinem IDC-Presets geht es genauso schnell, bei ähnlicher Schärfe, und ohne deine Nachteile.
DRO auto in IDC ist ein Segen für EBV-Faule. Und wenn es mal verhunzt ist hat man ja noch das RAW.
Zitat:

Neulich ist mir das bei einer Hochzeit passiert, musste die Kamera jemandem geben, man wollte ja dass ich auch auf den Bildern bin, als ich die Kamera wieder hatte und bereits 10 Bilder gemacht hatte, habe ich gemerkt dass einige Einstellungen verstellt waren, z B der Weisabgleich. Mit der RAW-Datei konnten die rötlichen Bilder gerettet werden, wenn auch für mich inzwischen etwas umständlich, da ich fast schon gewohn bin nach nur einem Mausklick die fertigen JPGs in meinem jpg Ordner zu haben.
Das ist deine Methode, die unflexible ist.

Für mich bist du auf einer verbalen Interpolationstour.

bydey

Neonsquare 15.01.2014 12:36

Zitat:

Zitat von dey (Beitrag 1536880)
Die linke Gardine erscheint bei zero_mod detailreicher. Nur sehen wir dort rote und grüne Streifen (Moires?).

Es sind Farbartefakte an Kontrastkanten, die entstehen, weil bei Pixel Binning der spatiale Unterschied der Sensels nicht beachtet wird. Diese Farbartefakte treten z. B. bei "Nearest Neighbour" noch stärker auf - denn da ist zwar die Luminanzauflösung auf dem durch Bayer-Sensor möglichen Potential, aber die Farbauflösung trotzdem noch genauso reduziert (wie bei Pixel Binning).

Durch eine Bilineare Interpolation (arithmetisches Mittel der Nachbarpixel) wird die Farbauflösung erhöht und es treten (etwas) weniger Farbartefakte auf. Diese primitive Interpolation ist das was sich die meisten Laien unter der Bayer-Interpolation vorstellen.

"Smooth Hue Transition" (SHT) nutzt die Eigenschaft, dass Menschen auf Grün stärker reagieren (weshalb der Bayer-Sensoren auch so sind wie sie sind). Der Bayer-Grünkanal wird als "Luminanz" interpretiert und die Verhältnisse der Bayer-Rot und Bayer-Blau Pixel zu den Bayer-Grün-Pixeln für die Farbintensität. Der Vorteil: weniger Farbartefakte und weichere Farbübergänge. Trotzdem ergeben sich an Kanten im Bild immer noch systematisch Farbartefakte wie das typische Reißverschlußmuster.

Kantenerkennung:
Ein Problem von Pixel binning, bilinearer Interpolation und SHT ist, dass die Lageunterschiede der Pixel ignoriert werden. Deshalb enstehen u.a. die typischen Reißverschlußartefakte an Kontrastübergängen. Mit Kantenerkennung umgeht man dass, indem an Kanten im Bild die Pixel innerhalb der Kanten für die Interpolation ignoriert werden. Es werden also nur die neben der Kante liegenden Pixel herangezogen.

Variable Number Gradients (VNG):
Ist eine Variante der Kantenerkennung, bei der eine variable Anzahl von Gradienten aus verschiedenen Richtungen herangezogen wird. Man kann sich das Bildhaft vorstellen, dass der Pixel sich in alle Richtungen umschaut und nur dort wo die Intensität nicht stark ansteigt schaut er nach Farbinformation. Entsprechend wirkt VNG wesentlich besser bei schrägen Kanten. Ein Nachteil ist, dass der jeweils betrachtete Pixelbereich mit der Anzahl der Gradienten zunimmt. Das kann auch die Auflösung etwas reduzieren.

Mustererkennung:
Statt nur Kanten zu erkennen kann man auch Muster (Kanten, Ecken, Streifen...) erkennen. Dazu wird bei jedem Pixel nach bestimmten Mustern ausschau gehalten und entsprechend interpoliert.

Aktuellere Versionen von dcraw.c haben auch AHD (adaptive homogeneity direction) als Demosaic-Algorithmus. Dieser verwendet eine Homogenitätsmetrik und Bandfilter um gezielt dort zu interpolieren wo am wenigsten Artefakte entstehen.

Wenn man sich damit näher befasst fällt vor allem eines auf: Die verschiedenen Interpolationstechniken beim Demosaic dienen weniger dazu eine scheinbar höhere Auflösung durch "hinzuerfinden" zu simulieren sondern möglichst viele Artefakte die durch die räumliche Aufteilung der Farbkomponenten im Bayer-Gitter entstehen zu beseitigen.

Ein Aspekt moderner Sensoren kommt noch hinzu - viele dieser Artefakte treten schon alleine deswegen kaum noch auf, weil die Sensoren immer hochauflösender werden. Wenn man also nicht gerade pixelpeept, dann relativiert sich da recht viel. Deswegen dürfte man selbst mit Pixelbinning heutzutage Bilder Demosaicen können, die in vielen reduzierten Größen noch verwendbar sind. Einen Vorteil hat man davon jedoch nicht.

Tikal 15.01.2014 13:02

@Neonsquare
Danke dir für diesen lehrreichen Posting.

@www_zeeshan_de
Vielleicht solltest du dir mal die Kameras mit Foveon Sensoren ansehen, z.B. Sigma DPM 2. Da wird eine andere als die Bayer-Technik verwendet und hat bei vergleichbaren Pixelanzahlen/-Größen viel mehr Details. Das könnte für dich durchaus interessant sein. Die Kameras kosten auch nicht die Welt. Selbst ich habe sie mir schon für bestimmte Fälle überlegt zu kaufen (aber das Geld ist eben keine unendliche Ressource). Der große Nachteil dieser Sensoren sind die schlechten high ISO Fähigkeiten.

Andererseits gibt es Kameras, die auf Bayer-Technik verzichten, aber auch nur Schwarz-Weiß aufnehmen. Diese haben auch eine höhere Detaildichte und sind in höheren ISOs auch sehr gut nutzbar. Diese haben eben den Nachteil, das es (logischerweise) Schwarz-Weiß Aufnahmen sind und die Farben auch nicht in den RAW Dateien enthalten sind. Könnte beispielsweise bei Straßenfotografie oder Mondfotografie interessant sein oder überall dort, wo die Farbe keine Rolle spielt. Allerdings kenne ich hier keine günstige Kamera.

Vielleicht sind das für dich bessere Kameras. Ist nur ein Denkanstoß.

dey 15.01.2014 13:08

@neon
sehr aufschlußreich! *1
Ich habe fast nix verstanden *2 *3

*1 x *2/2 = ?

*3 OK, kein Moires, sondern Farbartefakt.

Ich habe übrigends festgestellt, dass ich schon wieder geschlapt hatte. NR war noch auf Auto (gehört so nicht in mein std profile für iso 100). Ohne Auto ist die Gardinenstruktur bei mir auch sichtbar; ohne Artefakt.
Wenn ich ich weiter von meinem Standard Richtung Schärfe und Detail entferne geht auch noch mehr.
Da ich aber weiss, wo das endet, drehe ich nicht weiter. Schärfe ist nicht alles.
Im DSLR-Forum habe ich die Settings
30
+100
+100
-100
gefunden. Krass, es funktioniert ohne merkliche Artefakte und Rauschen ist auch im Rahmen. Aber wirklich schön ist es nicht!?
Wer also mal richtig viel Details möchte und keinen Himmel dabei hat, kann sich ja mal daran versuchen.
ISO 100, +1,3EV bei der Aufnahme und dann in IDC -1,3EV und die Schärfesettings von oben.

bydey

Neonsquare 15.01.2014 13:12

Es gibt auch noch Fuji X-Trans - statt des extrem regelmäßigen Bayer-Musters wird eine unregelmäßigere "natürlicher anmutende" Aufteilung gewählt. Damit verhindert man viele Aliasing-Effekte. X-Trans ist auch nicht komplett unregelmäßig - es ist eine 6x6-Matrix.

dey 15.01.2014 13:12

Zitat:

Zitat von Tikal (Beitrag 1536951)
Vielleicht solltest du dir mal die Kameras mit Foveon Sensoren ansehen, z.B. Sigma DPM 2. Da wird eine andere als die Bayer-Technik verwendet und hat bei vergleichbaren Pixelanzahlen/-Größen viel mehr Details. Das könnte für dich durchaus interessant sein. Die Kameras kosten auch nicht die Welt. Selbst ich habe sie mir schon für bestimmte Fälle überlegt zu kaufen (aber das Geld ist eben keine unendliche Ressource). Der große Nachteil dieser Sensoren sind die schlechten high ISO Fähigkeiten.

Einen ähnlichen Gedanken hatte ich auch schon. Warum eine 24MP-Kamera mit Frischhatefolie, wenn man derartige Ansprüche hat.
Die High-ISO-Probleme der Foveon sollten nicht seine sein, da er eh nur ISO100 verwendet.
Gerade die Farbwiedergabe soll ja bei Foveon der Hit sein.
Bei dpreview und imaging resource gibt es sicherlich auch RAW von Foveon-Sensoren zum Vergleich.

Zitat:

Vielleicht sind das für dich bessere Kameras. Ist nur ein Denkanstoß.
bydey

dey 15.01.2014 13:13

Zitat:

Zitat von Neonsquare (Beitrag 1536959)
Es gibt auch noch Fuji X-Trans - statt des extrem regelmäßigen Bayer-Musters wird eine unregelmäßigere "natürlicher anmutende" Aufteilung gewählt. Damit verhindert man viele Aliasing-Effekte. X-Trans ist auch nicht komplett unregelmäßig - es ist eine 6x6-Matrix.

wie sieht es da mit den gängigen RAW-Konvertern aus. Haben die das 6x6 perfekt drauf.

bydey

Neonsquare 15.01.2014 13:20

Zitat:

Zitat von dey (Beitrag 1536954)
@neon
sehr aufschlußreich! *1
Ich habe fast nix verstanden *2 *3

*1 x *2/2 = ?

*3 OK, kein Moires, sondern Farbartefakt.

Ich denke ich verstehe die *1, *2, *3 Markierungen nicht so richtig - bzw. was Du mir sagen wolltest. Was hattest Du nicht verstanden?

Moirés: entstehen ja als Abtastproblem wenn feine regelmäßige Strukturen im Inhalt mit den regelmäßigen Strukturen des Sensors interferieren.

Neonsquare 15.01.2014 13:21

Zitat:

Zitat von dey (Beitrag 1536962)
wie sieht es da mit den gängigen RAW-Konvertern aus. Haben die das 6x6 perfekt drauf.

Ist wohl Qualitativ auch unterschiedlich. Ich habe selber keine X-Trans-Kamera aber habe häufiger gelesen, dass Apple vor kurzem in Aperture wohl ziemlich guten X-Trans-Support eingebaut hat. Grundsätzlich ist man da natürlich deutlich eingeschränkter von der Konverterwahl.

dey 15.01.2014 13:31

Zitat:

Zitat von Neonsquare (Beitrag 1536969)
Ich denke ich verstehe die *1, *2, *3 Markierungen nicht so richtig - bzw. was Du mir sagen wolltest.

? = ich habe verstanden, dass mir das Thema in der Theorie wohl etwas zu hoch ist.

bydey

ABC_Freak 15.01.2014 14:09

ISO 100, Festbrennweite und Blende 5.6, gut das ich mit meinen Bildern keine technische Dokumentation mache und deswegen abweichen darf.

In einem anderen Thread war ja mal ein Bild vom Zeis 50 1.4 bei dem man bei 5.6 schon wieder Beugungsunschärfe erkennen konnte... vielleicht doch immer auf F4 stellen.
BTW ist die Basis ISO nicht von Sensor zu Sensor unterschiedlich, bei Sonys neuen aber idr. bei 200? Man hätte also bei ISO 100 nicht maximalen Dynamikumfang?

Topic: ich Fotografiere immer mit RAW, dann brauch ich mir über Weißabgleich, Schärfung und DRO keine Gedanken machen Vorort. Bei JPG müsste ich das ja direkt Einstellen und da fehlt mir echt die Muse und DXO macht das schon gut mit RAWs (vor allem bei der A850 ist ja die JPEG Engine eher mau).

dey 06.02.2014 12:31

Habe gerade versucht etwas mehr Klarheit in das Thema mit zero-mod und dem Vergleich zwischen 24mp-zeromod und den Bildern aus der D7D zu bringen.
Die Bilder der D7D waren so viel unschärfer, dass ich davon ausging, dass ein crop von den 24mp auf die 6mp der D5D die gleiche Detailschärfe ergeben müsste.

1. die RAW sind für einen sinnvollen Vergleich viel zu unterschiedlich. Die Belichtung der D5D ist deutlich heller und weniger kontrastreich.
Um einen Vergleich vorzunehmen muss also erst mal die Tonung angeglichen. Da Kontrast aber Einfluss auf die Schärfewirkung hat liegt hier die erste Gefahr.
Das Verhalten ist in Photo Director und Faststone Viewer das gleiche.

2. Konvertierung ohne Schärfung.
Das Bild der A65 wird nach dem Export noch auf 6mp komprimiert.
Man sieht sofort, dass das Bild der D5D weniger scharf wirkt. Der Unterschied ist jedoch bei weitem nicht so gross wie es nach dem zero-mod-Vergleich zu vermuten wäre.
Das zweite A65-Bild, aufgenommen mit halber Brennweite und dann auf 6mp gecropt ist deutlich unschärfer und detailärmer, als das Bild der D5D.

Da ich bei der D5D Schärfe und Kontrast für jpg ooc schon in der Kamera +1 erhöht hatte, um ausreichend scharfe Bilder zu bekommen liegt die Vermutung nahe, dass die RAW der D5D/D7D weniger scharf sind. Doch wie soll man das jetzt wirklich feststellen. Denn es gibt einfach zu viele Regler, die Einfluss auf die Schärfe. Da kann ich tagelang daran rumdrehen, bis ich für beide das maximal scharfe Bild erreiche. Dich wären dann gleich/ vergleichbar?

3. Konvertierung mit Schärfe 100%
Ich bin davon ausgegangen, dass sich die Schärfewirkung, bzw der Einfluss auf das unscharfe RAW immer weiter annähern, wenn die Schärfe bei 100% ist und Feinheiten der Quelle weniger ins Gewicht fallen. Ich habe also in PD 100% und Radius 2 gewählt.
Und siehe da, das Bild aus der D5D ist ungfähr genauso scharf, wie das der A65 reduziert auf 6mp. Das gecropte war nur noch Schrott.

4. Quintessenz
Zero-mod ist eine Schärfungsmethode. Ein Vergleich mit einem völlig ungeschärften Bild aus einer Kamera deren EAW ohnehin etwas weich sind kann für einen Vergleich nicht funktionieren.
Die D5D kann echt scharfe Bilder produzieren.
Mit der A65 und dem 16105 kann ich bei 40mm und F7.1 und 1/200s nicht die gleiche Schärfe produzieren, wie mit der D5D bei 80mm und sonst gleichen Einstellungen.

bydey

ABC_Freak 06.02.2014 15:00

Also ich würde sagen, da hier vom RAW 4 subpixel zu einem gemacht werden und dann der nächste pixel von den 4 benachbarten (ohne Überlappung) ist das ein simples Nearest Neighbour Shrink. Das erhöht die subjektive Schärfe immer (je nachdem hat man dann wieder extreme Treppenstufen).

Dabei geht Information verloren, obwohl es erst einmal schärfer wirkt.

"Normale" Konverter betrachten von den z.b. 24 Millionen Positionen immer die Umgebung mit und versuchen für diese Position einen möglichst passenden Wert zu ermitteln. Danach ist die nächste zu betrachtende Position der Subpixel direkt daneben, nicht soweit weg, dass es keine Überdeckung mehr gibt. Es kommen also normal auch entsprechend viele "Ausgabepixel" dabei raus (ich würde z.b. die Pixelreihe am Rand nur mit einbeziehen aber aus dem Endergebnis weglassen, kommt man nicht in die Predullie eine Annahme über den nicht gemessenen Raum machen zu mussen).

Denn wenn man die 2x2 Matrix um 2 verschiebt statt um 1, vernachlässigt man damit, dass die Subpixel am Rande jeweils etwas miteinander zu tun haben! Außerdem klebt doch eine Folie drüber die auch das Licht etwas flächiger verteilt über dem Sensor.

Ein Raw einfach mal eben mit einer trivialen Methode umwandeln in ein JPG (mit weniger Farbraum) und dann zu behaupten, dass wäre ein viel besseres Ergebnis als von Lightroom oder DXO oder ICS... ich hätte nicht so viel Selbstvertrauen. Ich bin aber nur ein Informatiker, vielleicht belehrt mich jemand mit Signalverarbeitungserfahrung eines besseren.

Außerdem gilt immer: Wer misst misst Mist. Es gibt kein exaktes Bild nur ein ungefähres :)

physicist 17.02.2014 23:40

Hey... der Thread lebt ja immernoch :D

Zitat:

Zitat von www_zeeshan_de (Beitrag 1536412)
Und jedes mal wenn ich erneut darauf schaue komme ich (zusammen mit einigen anderen Freunden) zum gleichen Ergebnis. In diesem Fall:
http://www.zeeshan.de/dcraw_zero_mod...zero_mod-2.jpg
Die Schrift auf dem rechten Bild ist eindeutig kontrastreicher, klarer, und genau dieses Bild rechts ist der zero_mod.

Und die Schrift ist vor allem reicher an lustigen roten Pixeln die da nicht hingehören. :D

Hier gibt es nochmal einen roten/magenta Rand am Ende des weißen Ärmels
http://www.zeeshan.de/dcraw_zero_mod...zero_mod-3.jpg

Hier auch alles voller Magenta und Grüner Artefakte an kontrastreichen Kanten. Der Schuh ist ja geradezu DIE Artefakte-Demo :crazy: (man beachte die Schnürsenkel und Nähte, sowie die weiße Schicht der Sohle)
http://www.zeeshan.de/dcraw_zero_mod...zero_mod-6.jpg

Man könnte es glatt für CAs halten, es sind aber Artefakte der unglaublich revolutionären zero_mod "interpolation"
Seltsam das du deine "zero_mod" Bilder immer wieder mit herunterskalierten "Originalen" vergleichst anstatt mit der tatsächlichen Auflösung des anderen Interpolationsverfahrens.

Man könnte meinen das hier ist der längste Troll-Thread der Sonyuserforum-Geschichte :lol:

www_zeeshan_de 21.03.2014 03:29

Zitat:

Zitat von dey (Beitrag 1536880)
...
Spielplatz: minimal zu Gunsten zero_mod dafür mehr CA
Inhaltsstoffe: deutlich mehr Farbprobleme. Im roten Bereich ist die 2 links bei zero_mod schlechter lesbar, dafür die folgende fünf im normalen Bild gar nicht, die sechs wiederum im normalen wieder besser
Sandkasten: man kann im zero_mod die Stoffstruktur erahnen, dafür hat das sitzende Kind einen unfreiwilligen Haarreifen
Schrifttafel: volle Punktzahl an zero_mod
Motorradsattel: einfach nur ausgepräteres Moires
Turnschuhe: zero_mod lilastichig (CA), Schärfe/ Detail gleich
Orange: CA um Niete
Feuerwerk: Schärfe und Detail = top, der Mond hat deutliche CA
...

Danke füre deine Beschreibung. Ein paar Worte noch von mir:
generell über alle zero mod Bilder: zero mod Bilder sind generell eindeutig schärfer (und auch kontrastreicher zugleich). Die Bilder sind selbstverständlich pixeliger, handelt es sich doch um einen endlichen digitalen Sensor.
Ich glaube wir müssen unterscheiden zwischen CAs verursacht von der OPTIK (minderwertig, Blende, Fehl-Fokus) und "Farbsäumen um Kontrastkanten" die für gewöhnlich extrem agressiv in herkömmlichen Interpolationsverfahren gefiltert werden und im zero mod verfahren eben GAR NICHT. Zur Information: Beide Bilder sind per Super-Pixel-Verfahren entwickelt, Farbsäume um Kontrastkanden sind somit GENERELL in beiden Bildern vorhanden. "Farbsäumen um Kontrastkanten" sind übrigens deutlicher, je weiter man DIGITAL rein zoomt (per nearest neighbor, Pixelwiederholung).

Spielplatz: zero mod ist deutlich schärfer, das Gras hat mehr Details bekommen, im rechten Bild ist es grüner Matsch (matschige Textur)

Inhaltsstoffe: Ich weiß nicht was du mit "normalen Bild" meinst, beide Bilder sind per Super-Pixel-Verfahren entwickelt, Farbsäume um Kontrastkanden sind somit GENERELL in beiden Bildern vorhanden. Jedenfalls ist das zero mod Bild kontrastreicher. Die Schrift der Inhaltsstoffe ist kräftiger, siehst du das nicht ??? Vorteil zero mod: Weniger Grauanteil, mehr Kontrast, insgesamt schärferes Bild. Klar sieht man hier "Farbsäumen um Kontrastkanten", aber wusstest du dass wir uns bei diesem Bild bei 400 % Digitalzoom bewegen. Ist ungefär so wie wenn man ca 10 cm vor einem Werbe-Plakat steht...

Sandkasten:
* Stoffstruktur: Wo schaust nur hin ??...
* das sitzende Kind... Wo schaust nur hin...??
Direkt hinter dem Sandkasten befindet sich grüne Sträucher/Busch/Grünzeug: im zero mod sieht man die Struktur der feinen Sträucher/Blätter. Beim Vergleich sticht das einem direkt ins Auge !! Wo schaust du nur hin...

Schrifttafel: volle Punktzahl an zero_mod, weil es sich hier doch um ein flaches Objekt handelt, das komplett im Schärfebereich auf den Sensor gebrannt werden konnte. Folglich zeigt es sich hier natürlich auch am deutlichsten, dass der zero mod sogar feinste Strukturen in der Wand wiedergeben kann, man darf nicht vergessen, das Bild wurde GAR NICHT softwareseitig geschärft (!!).

Motorradsattel: einfach nur ausgeprägtere Moires: Mal eine umgekehrte Frage: Wie weit müsste man die fotografische Qualität herabstufen (Objektiv, Fokus, Blende) um das Moire im zero mod "unsichtbar" zu machen und welche Auswirkungen hätte das auf das gesamte Bild ?? ==> Das gesamt Bild wäre unschärfer.

Turnschuhe: Schärfe/Detail: ungleich, überall wo sich das Sonnenlicht im Schuh spiegelt, gibt es im zero mod EINZELN adressierte Pixel, es glitzert und schimmer insgesamt kontrastreicher, selbst in der schwarzen Sohle sieht man Pixel, die EINZELN adressiert sind. Im NON-zero mod Bild es mehr Gruppen aus benachbarten Pixeln, die das schimmern des Sonnenlichts darstellen, insgesamt großflächiger und heller, jedoch kontrastärmer zugleich.

Orange: Es handelt sich hierbei nicht um eine Orange, sondern um ein Motorrad (!!), wie schon oben beim Schuh spiegelt sich auch hier die Sonne. Die Unterschiede sind wie beim Schuh beschrieben, nur kommt hier noch die Farbe mit ins Spiel: Im zero mod Bild ist das Orange nochmals ein wenig kräftiger, das Bild kontrastreichen, und natürlich sind einzelne Pixel adressierbar, die das schimmern und glitzern des Sonnenlichts eindeutig hochauflösender darstellen.

Feuerwerk: Schärfe und Detail = flop (in beiden Bildern), denn ein Feuerwerk gestochen scharf einzufangen, das ist bei ISO 100 selbst bei Offenblende verdammt schwierig. Da ich gezwungen bin von Blende F5.6 auf Offenblende zu schalten (um kurze Belichtungszeiten zu bekommen), kommen unumgänglich extrem hässliche CAs zum vorschein. Die Ergebnisse sind generell immer "leicht unscharfe" Bilder (auf Pixelebene).
Der einzige Knackpunkt an dem ich dennoch das zero mod Bild ausmachen konnte ist der höhere Kontrast. Im zero mod Bild schimmert und glitzert es einfach phänomenaler !!


Alle Zeitangaben in WEZ +2. Es ist jetzt 23:06 Uhr.