![]() |
Zitat:
Für die Referenz-Test-Bilder habe ich natürlich eine Festbrennweite bei kritischer Blende und fest ISO100 verwendet (eingestellt). Geht es hier doch darum, zu zeigen wie weit man gehen kann, welche Details der Sensor der SLT-A65 festhalten kann WENN man mit entsprechender Optik und Blende das Auflösungsvermögen am Limit ansprechen möchte. Geht es jedoch um die Realität im Umfeld, dann muss ich sagen, dass meistens Zoom-Objektive eingesetzt werden. Viele Neueinsteiger verwenden jahrelang das mitgelieferte Kit-Objektiv, hier zeigt der zero_mod (ERST RECHT) seine stärken, es holt das letzte Quäntchen Schärfe aus den Billig-Objektiven bzw aus den Kompromiss-Zoom-Objektiven. Probiere es doch mal aus mit einem Zoom-Objektiv oder mit einem Kit-Objektiv, mache paar Bilder! Mich stören die Moire/Aliasing nicht im geringsten, handelt es sich doch hier um digitale Fotografie, und diese ist nun mal endlich. Um dem entgegen zu wirken, benötigen wir Sensoren mit höheren Auflösungsvermögen, denn dann werden auch die Treppchen-Effekte immer kleiner. Das war bei PC Bildschirmauflösungen von 640x480 übrigens genau so, dann hat die Industrie angefangen Anti-Aliasingfilter in die Grafikkarten-Treiber einzubauen (wobei dann der Strombedarf anstieg und sich dann die 3D-Rechenleistung um ca 33 % verringerte...), selbst heute werben 3D-Grafikkartenhersteller mit 16fach Antialiasing bei Auflösungen, die die FULL HD Auflösungen übersteigen... was n Schwachsinn. Für viele ist das daraus resultierende UNSCHARFE Bild genau das was sie "GEWOHNT" sind zu sehen. Du kannst die ja mal auf wikipedia den Artikel über Anti-Aliasing durchlesen, das steht so vieles über AA beschrieben... aber der Nachteil von Anti-Aliasing, wow, gerade mal 2 entscheidende Sätze: "" Antialiasing nimmt zusätzliche Rechenleistung in Anspruch, die besonders beim Echtzeitrendern nicht vernachlässigbar ist. Ein weiterer Nachteil ist, dass ein mit Antialiasing erzeugtes Bild als unscharf empfunden werden kann; "" 2. Du findest die Bilder zu scharf ? Dann machst du dich aber lächerlich. Weißt du warum? Ganz einfach: Die per zero_mod erzeugte Bilder geben genau das wieder, was die OPTIK auf den Sensor gebrannt hat, es wurde KEIN NACHTRÄGLICHES SCHÄRFEN PER SOFTWARE auf die Bilder angewendet wie es herkömmlichen Methoden/Algorithmen der Fall ist. Wenn du sagst, die Bilder sind zu scharf, dann würde das bedeuten die Bilder sind SCHÄRFER ALS DIE REALITÄT, was natürlich nicht sein kann. Es ist eben DEINE GEWOHNHEIT eine gewisse UNSCHÄRFE im Bild zu wahren, damit es deinen Ansprüchen genügt. Ich habe den Anspruch, ich möchte das sehen was ich fotografiert habe. 3. Ich weiss nicht was du in der Realität siehst und was nicht, und das wird auch niemals jemand anderer außer dir selbst erleben. Es sind durchaus Verfahren in unserem Sehvermögen verankert, die versuche gewisse Informationen die vorhanden sind und die wir auch sehen können und würden zu filtern und zu entfernen. Andererseits kann sich das Sehvermögen und das Gehirn natürlich auch in die Irre leiten lassen, siehe Optische Täuschungen. Ich sage, das was der Sensor eine Digitalkamera festhält, ist die Realität (selbst wenn ich es mit dem Auge selbst nicht sehen kann). Ein IR-Filter vor dem Sensor übrigens sogt dafür dass der Sensor keine IR Strahlen auf dem Sensor festhält, finde ich auch ok so, aber es gibt auch hierfür Anwendungsfälle. Damit du keine Pixel siehst, bedarf es eben Sensoren mit sehr hohen Auflösungsvermögen oder für deinen Anspruch, jag doch mal einen UNSCHÄRFEN Filter drüber !! Dann bekommst du genau das was du gewohnt bist. 4. Originalraw speichert die RAW-Dateien in den RAW_IMAGES Ordner, die jpg-Dateien werden in den jpg Ordner gespeichert. Die RAW-Dateien sind also ebenfalls vorhanden. Bildqualität an sich ist (ich wiederhole mich, siehe alle Postings im Thread) DEFINITIONSSACHE. Jeder hat seine eigene Ansprüche. Ich sage, je mehr ein Bild manipuliert wird, desto stärker weicht es vom Original ab und bei jedem Manipulations-Schritt entstehen nicht nur vermeintliche Verbesserungen, sondern eben auch Verschlechterungen. Ich möchte keine Schnick-Schnack Bildverbesserer-Verschlechterer, ich möchte einfach UNVERÄNDERT das, was ich fotografiert habe, denn nur hier weis ich, ist der fotografische Anteil am HÖCHSTEN und der fotomontage Anteil am niedrigsten. 5. Ich musste kichern als ich das gelesen habe. Es sieht so aus als möchtest du in Robin-Hood-Manier alle vor irgendwas beschützen... aber vor was ? Darüber dass du dich selbst dabei ertappt hast ein Bild mit dem zero_mod als das bessere Bild zu klassifizieren weil du gedacht hast dass die Bilder mit dem zero_mod immer auf der linken Seite sind und das ist bei einigen Bildern nicht der Fall... und damit das anderen nicht auch noch passiert machst du Meldung... *lustig*... ich erspare mir jeglichen weiten Kommentar... Insgesamt trotzdem danke für deinen Beitrag, hat mich angeregt dir zu antworten. |
Dein Ansatz "gleiche Menge an RAM" ist unsinnig, da die 24 Megapixel nun einmal zur Verfügung stehen. Das du nur 6MP (analog 3 Spieler) nutzen willst, ist deine freie Entscheidung, ich möchte gerne alle 24MP mit einem modernen Interpolationsalgorithmus nutzen (11 Spieler). Also lasse ich, da beim Fußball nun mal 11 Spieler vorgesehen sind, auch 11 Spieler auflaufen und, wie du richtig erkannt hast, wäre es dumm von dir, mit nur 3 Spielern dagegen halten zu wollen.
Was du jetzt mit deinen Bildvergleichen versuchst, ist, mich zu zwingen, auch nur 3 Spieler zu benutzen. Und meiner Meinung nach verlieren deine zeromod Algorithmus Pixel Spieler trotzdem gegen meine 3. Da du und dein Fanclub das offenbar anders sehen, war der Appell aus meinem vorherigen Post, mit deinen 3 super Rgb Spielern doch mal gegen alle meine 11 Spieler/24MP anzutreten. Das du dein 6MP Bild dazu auf 24MP hochskalieren musst, sollte deiner Logik nach doch kein Problem sein, da meine 24MP ja auch interpoliert sind und außerdem: schwupps haben wir wieder die gleiche Menge an RAM (deswegen ist der RAM Ansatz auch Blödsinn - du kannst jedes Bild auf jede beliebige RAM Größe skalieren). Versteh mich nicht falsch: wenn du gerne nur zu dritt Fußball spielst, kannst du das von mir aus auch bei der Fotografie machen, interessiert mich nicht die Bohne. Aber du propagierst hier komische Technologieverstümmelungsaktionen und ähnlich wie falsche Wikipedia Artikel korrigiert werden können, erlaube ich mir eben eine Gegendarstellung zu deinen Fehlinterpretationen. Viele Grüße, Martin |
1.
Zitat:
2. Siehe auch 4. und 1. Ich finde sie zu scharf, weil man Treppchen Effekt erkennt, was nun mal den Pixeln geschulded wird. Aber 100% und mehr sind eben nur für den Vergleich geeignet und bei Fehlersuche. Auch sind die Bilder nicht das, was der Sensor sieht, weil bereits weiteres bearbeitet wurde. Siehe 4. 3. Unschärfen Filter ist nicht das gleiche wie Anti Aliasing. Aber das müsste ich erst ausprobieren. Und dann stellt sich die Frage, was für ein Nutzen das hat. Ich möchte nicht auf die Datenaufbereitung und Einstellungen samt Korrekturen in der Kamera verzichten. Ansonsten fehlt deiner Methode auch die 16bit um mir nennenswerte Vorteile gegenüber der ooc zu liefern. 4. Du kannst gar nicht das sehen, was dein Sensor sieht. Die Raw Informationen müssen für dich und dein Monitor erst in RGB umgerechnet werden. Aber wenn du das trotzden anstrebst, gibt es noch weitere Aspekte zu beachten. Wenn ich in Darktable (Raw Konverter unter Linux Systemen) eine Raw öffne, sind bereits zwei Dinge erledigt. Einmal die Grundschärfung und einmal eine Standardkurve, ohne die das Bild dunkler und sehr flau aussieht. Kein Vergleich zu deinem JPEG. Da kommen wir dem Sensor noch nähet als bei deinem Beispiel. Aber das Bild ist so nur für Vergleiche nützlich, sonst nichts. Das nutze ich schon seit ich das Programm kenne. Ich möchte die Bilder nicht so haben wie sie der Sensor aufnimmt. Die brauchen alle eine Bearbeitung. 5. Wenn man dich und deine Methoden ernst nehmen soll, dann darfst du dich nicht öffentlich über andere lustig machen und herablassend reden. Ich bin nicht Robin Hood und ich versuche andere nicht zu beschützen. Wenn man wissenschaftlich vorgeht, dann sollte man auch schematisch vorgehen und nicht mal links mal rechts abbilden. Das stiftet nur Verwirrung. Wer sich ernsthaft damit beachäftigt, könnte versehentlich so zu falschen Schlüssen kommen. Du solltest auch mal Kritik vertragen und cool bleiben können. Sonst war es das. Denn das soziale ist mir auch wichtig und ich lass mich nicht dumm anmachen. Und im Vergleich zu dir bin ich nicht in einer missionaren Position. |
Zitat:
So ich habe mich mal daran gemacht, den Vergleich durchzuführen, da ich einen Vergleich zwischen einem 8 Jahre alten 6MP-CCD gegen einen 3 Jahre alten 24MP-CMOS doch etwas unsportlich finde. Zuerst das Bild von z mit einem von mir bei 200% ![]() → Bild in der Galerie Was das mit den 200% soll ist mir schon ein Rätsel; 100% sind das max sinnvolle. Wer ein Output auf 200% wählt, dem ist nicht zu helfen. (Es sei denn ich behaupte mit 24MP müßte das ja gehen; laut Hersteller) Also bei 100% verglichen ![]() → Bild in der Galerie Und weil es ja darum geht, die interpolierten 24MP madig zu machen auch noch die beiden 6MP Bilder auf 24MP hochskaliert. ![]() → Bild in der Galerie Mir sagt das alles jetzt nur, dass ich weiter mit den interpolierten 24MP mache und danach entweder croppe und dann mein Archivformat von 6MP wähle oder eben gleich 6MP. Und ich bin bei Tikal: deine überschärften Bilder leiden unter Moire und CA. Es gibt durchaus Beispiele, die zeigen, dass deutlich mehr Details da sind, als bei den 6 MP der 7D, aber wie mein Beispiel zeigt liegt das eher an der Grundauflösung des 6MP-CCD. Das alles relativiert sich dann bei Ausgabe auf eine sinnvolle Größe. Deine deine 100%-Ansichten würde ich so nicht sehen wollen. bydey |
Zitat:
Demosaic Algorithms, The Daily Nathan Man kann sich dort auch die Wirkung verschiedener Demosaic-Algorithmen auf unterschiedliche Beispielbilder (siehe Custom Images) anzeigen lassen. Ich könnte mir vorstellen, das so mancher überrascht wäre, wie erheblich sich der jeweilige Demosaic-Algorithmus auf die Bilder auswirkt. Btw. Zeeshans glorreiche "Erfindung" ist der einfachste dort aufgeführte Demosaic-Algorithmus (Pixel Binning) - und auch der mit den größten Problemen. |
Zitat:
Nur dann siehst du das mehr an Luminanz-Auflösung des 24MP Bildes im Vergleich zu zeeshan's Ansatz, bei welchem diese Informationen von vorn herein verworfen werden - ein Fakt, den zeeshan seit Beginn der Diskussion beharrlich ignoriert. Bei deinem letzten Vergleichsbild... Zitat:
Quintessenz also nach wie vor: Zeeshans Variante führt zu - in allen Belangen - schlechteren Bildern als die Verwendung eines heutzutage normalen, modernen Algorithmus, wie ihn jeder moderne RAW Konverter heute verwendet. Wer sich gerne ins eigene Fleisch schneidet, bitte - jeder andere kann das hier alles vergessen und weiter Sony IDC, Adobe ACR/Lightroom, DXOmark o.ä. verwenden. |
Zitat:
Ich nutze selbst 200% und 400%, um zu sehen, ob kleine Regleränderungen überhaupt noch Änderungen bringen. Das würde ich aber nicht für einen Schärfe- oder Detailvergleich zwischen zwei Systemen verwenden, da es sich nur noch um theoretische Werte handelt und nicht um praktische. Die finale Beurteilung ist bei mir eher bei 50%, denn das nutze ich später auch. Ein interessanter Punkt für mich hierbei ist, was ich mit Bildern für das croppen mache. Schärfe und Detail auf Max, damit ich auch was croppen kann oder beides eher moderat, damit der crop nicht völlig zerhackt ausssieht. Ich denke ich habe mit den drei Varianten schon die Realität abgedeckt. bydey |
Zitat:
Eine Schärfe/Detailbeurteilung auf 200px-Ebene ist irreführend. Bestimmte Details nimmt man erst wahr, wenn die Wahrnehmung der "Pixelgrenze" überwunden ist - wir kennen diesen Effekt ja auch sehr plakativ bei Icon-Design mit Pixelbildern - erst der Abstand bringt das Bild. |
Hi neon,
wie gesagt, theoretischer Vergleich. Ich arbeite anders als du beim Thema Ausgabe. Es gibt eine finale Archivgröße und die wird für alles verwendet. Wenn ich jetzt für das SUF auf 1MP gehe schaue ich nur noch, ob das Ergebnis halbwegs meinem Archivbild entspricht, was bei Faststoneviewer zu 99% der Fall ist. Es ist jedoch bei Schärfe- Detailbeurteilung manchmal so, dass ich das Gefühl habe, da tut sich nix, das kann doch nicht sein. Dann nehme 200-400%-Ansicht. Z.B. um den Untersschied zwischen Betrag und Radius zu erkennen oder zu verstehen. Im Fall des Vergleichs von zero_mod_24MP gegen 7d_interpol wird ein ohnehin schon nicht mehr detailreiches Ausgangsbild auf 200% aufgeblasen um es richtig schlecht aussehen zu lassen. Ich finde das wenig sinnvoll. Das war, was ich meinte. bydey |
Zitat:
Die Datei 20131224133211-DSC04696.jpg (in deinen Bilder ist es 20131224133211-DSC04696-z.jpg) hat normalerweise 10,7 MB (11.291.180 Bytes). Du hast die Datei 20131224133211-DSC04696.jpg mit dem zero_mod "beschämend" so weit in der JPG-Qualitätsstufe verschlechtert, dass am Ende nur noch 2,86 Megabytes davon übrig geblieben sind, und diese hast du dann mit allen anderen "von dir bevorzugten" JPG-Dateien mit weit höheren JPG-Qualitätsstufen gegenübergestellt (einmal 6,73 Megabytes, einmal 20,2 Megabytes). So weit ich mich erinnere, bekommt man nur mit originalraw und dem zero_mod JPG-Dateien mit maximaler JPG-Größe (und auch Qualität). Selbst die 24 MP Out-of-Cam FINE JPGs sind in der Dateigröße kleiner. Und obwohl du das Bild mit dem zero_mod extrem verlustbehaftet gespeichert hast (um es schlecht aussehen zu lassen) ist es erstaunlich, wie viele Details trotzdem in den lediglich 2,86 Megabytes verblieben sind. |
Zitat:
Genau hier liegt dein Denkfehler. Bei den 24 Millionen Pixeln handelt es sich um Single-Color-Pixeln. Um am Ende RGB-Pixel zu haben müssen die fehlenden Farbwerte von benachbarten Pixeln errechnet werden, wodurch Verluste im Auflösungsvermögen VORPROGRAMMIERT sind. 2. Genau hier liegt dein Denkfehler Nr 2. Bei den 6 Millionen Pixeln mit dem zero_mod handelt es sich um finale RGB-Pixeln (ohne jegliche berechnung von Farbwerten, weil aus einem Bayer-Pattern ein Super-Pixel generiert wird). 3. Was du machst, ist nichts anderes als die 3 Fussballspieler in 11 Teile zu zersägen und diese dann dann an 11 Stellen auf dem Fusballplatz zu verteilen, nur um der Welt zu zeigen dass du tatsächlich 11 Spieler gegen 11 Spieler antreten lässt... Aus meiner Sicht ist ein derartiger Vergleich und der Digital-Zoom von 6 Millionen RGB-Pixel nach 24 Millionen RGB-Pixel unzulässig (es entspricht der Zerstückelung der 3 Fusballspieler in 11 Teile). Ohne Arme und Beine bist auch du nichts ganzes mehr, selbst wenn du dadurch mehr Platz im Raum für deine Köperteile benötigen würdest. Und genau so gehören auch zu einem RGB-Pixel die Farben rot, grün, und blau, und diese müssen fotografiert vorliegen, und nicht als Fotomontage. |
@zeeshan
Hast du dir wenigstens einmal die Seite über Pixel Binning und dessen Probleme angesehen? Dort siehst Du exakt das Fehlverhalten, dass sich auch an deinen Bildern erkennen lässt. Ich finde es krass wie Du offensichtliche Mängel deiner "zeromod"-Methode wegleugnest und dann anderen gar Manipulation vorwirfst; im Gegenzug jedoch bewusst unterschiedliche Kameragenerationen antreten lässt um deine Ergebnisse zumindest ein bisschen weniger grottig aussehen zu lassen. Die Mängel in den Ergebnissen deiner Methode sind so offensichtlich, dass die paar potentiellen JPEG-Artefakte kaum noch ins Gewicht fallen. Findest du nicht es wäre mal an der Zeit für dich das ganze nochmal grundlegend in Frage zu stellen? Glaubst du ernsthaft, du kannst noch irgendwen von diesem Schmarrn überzeugen? Sorry, dass ich da so direkt bin, aber du hast dich mittlerweile vollkommen verrannt. |
Zitat:
Bitte mal die Parameter von dcraw untersuchen, da gibts was mit 16bit. 1. Du solltest dich mal ein wenig mit dem Thema "Blindtest" auseinandersetzen. Wer ernsthaft behauptet, er könne dies oder das eindeutig erkennen usw, der sollte auch in der Lage sein dies mit einem Blindtest unter Beweis zu stellen. Die Vergleichsbilder sind somit schematischer als der eine oder andere hier Forum sich das wünschen würde, beinhalten sie doch gleich einen Blindtest. Über Leute, die zu falschen Schlüssen kommen, muss ich mich ganz bestimmt nicht darüber ärgern, schließlich ist es nicht meine Aufgabe für andere die Dateinamen in den Bildern zu lesen. 2. Ich freue mich über Kritik. Wenn mir jemand einreden möchte, dass etwas falsches richtig ist, dann werde ich ganz klar dagegen halten. Nichts gegen dich, aber es kam so rüber als wärst du verärgert weil die Bilder nicht nach deinem Wunsch-Schema angeordnet sind (und ich bin froh darüber dass sie das nicht sind). In einer missionaren Position bin ich übrigens noch nie gewesen. Meine Berichte und Auswertung habe ich online gestellt, wer lesen kann, ist klar im Vorteil. Ich habe mich jetzt lange genug mit der Programmierung auseinadergesetzt, ich habe den Algorithmus, der meine Ansprüche erfüllt gefunden, und mein Tool wandelt alle Bilder nach nur einem Mausklick in JPGs um und sichert auch die RAW, synchronisiert die unbrauchbaren Bilder usw. Ich kann mich schon lange sorgenfrei der Fotografie widmen, natürlich noch ein wenig gedämpfe von der Wetter lage. |
Zitat:
Auf beiden Seiten hast du Bilder von dcraw im Superpixel-Verfahren, das eine ist mit zero_mod, das andere ohne. Hast du den Text auf der Webseite http://www.zeeshan.de/dcraw_zero_mod...w_zero_mod.htm überhaupt gelesen worum es dort geht und was genau dort verglichen wird? |
Zitat:
|
Es haben dir doch schon einige Leute erklärt, dass du dich da verrannt hast. Das ist ja nicht Schlechtes, wenn man engagiert ist und kommt vor. Wenn du denen nicht glaubst, dann überlege doch, warum alle namhaften Firmen mit doch zumindest hunderten talentierten Entwickler nicht diese Ideen aufgegriffen haben, sondern deutlich leistungsfähigere Verfahren einsetzen.
|
Zitat:
Also was ich mit unbearbeitet meine ist folgendes... Die JPEGs bekommen eine Standard-Kurve angelegt, in jedem RAW Programm. In meinem kann ich diese sogar beeinflussen. Ohne diese sehen die Bilder sehr flau aus. Das heißt, dein zeromod ist ja schon bearbeitet. Du erhälst nicht das, was der Sensor liefert. Hier wenn ich im RAW Konverter die Standard-Kurve und Standard-Schärfung ausschalte und dahinter dasselbe aus der JPEG ooc. Beides 100% crops. ![]() → Bild in der Galerie ![]() → Bild in der Galerie Leider kann ich deine Software nicht ausprobieren, da sie nur für Windows zur Verfügung steht. |
@zeeshan
Du hast recht ich habe zu schlampig gearbeitet. Mir Absicht zu unterstellen ist dieser arrogante Umgangston, den du pflegst und dich und dein Thema so beliebt machen. Das meine interpolierten 24MP- Bilder näher an deinem Ergebnis liegen wirst du ja wohl manipulationsfrei zugeben. Also wozu die matschigen D7D-Bilder? bydey |
Zitat:
|
So und nun mit 100%JPG der Größe 10MB.
Ich sehe ein, dass ich einen riesen Fehler gemacht habe. Ich hätte mal den Text aus den Bildern nehmen sollen. Dann hätten wir ein bischen mehr zu suchen gehabt. :doh: ![]() → Bild in der Galerie ![]() → Bild in der Galerie ![]() → Bild in der Galerie Ich kann mir schon vorstellen, dass es Motive gibt, die mit deiner Methode detailreichere Fotos bringen. Aber weder deine Limitierung bei der Aufnahme (ISO100 und F5.6) noch der EBV-workflow würden mich irgendwie weiter bringen. Ich sehe vor allem etwas, dass ich schon von meinen Vergleichen mit den Presets von fotomartin gelernt habe: je nach Motiv und Struktur ist die eine oder andere Software oder Einstellung besser oder eben nicht. Leider willst du diese Erkenntnis nicht mit uns teilen. bydey |
One Size fits all kann prinzipiell nicht funktionieren.
|
Zitat:
Danke dass du dir ein wenig Zeit genommen hast und dir ein paar Dinge auf meiner Seite angeschaut hast. Wenn du die "informativen" Beiträge anderer User hier im Forum mitliest, fällt es dir vielleicht leichter zu verstehen, dass ich ggf emotional reagiert habe. Sollte es wirklich so sein, danke für den Hinweis, werde künfig zurückhaltender reagieren. 2. Hmmmm... was genau dcraw macht, kannst jeder anhand http://www.cybercom.net/~dcoffin/dcraw/dcraw.c im code analysieren. Ob und welche Standardkurve angewendet wird, das heraus zu finden überlasse ich dir. 3. Soweit ich mich erinnere, ist dcraw auch für linux verfügbar. |
Zitat:
|
Zitat:
Der Text in den Bildern war für mich ein Indiz... zwischenzeitlich hast du angeblich nachgebessert, und es bleibt die Frage ob ich diesen neuen Ergebnissen von dir mehr Vertrauen schenken soll oder nicht. Mann kann schliesslich ja ein Bild mit schlechter Qualität (jpg-Qualität,Farbsubsampling) speichern, und DANACH wieder mit max JPG-Qualität, die Bildgröße würde zwar dann wieder ansteigen, das alles hilft dann aber trotzdem nicht mehr, was weg ist, ist weg. Wichtig ist eine Beschreibung der Vorgehensweise und dass die Ergebnisse für andere Rekonstruierbar sind. Sollten andere mit der gleichen Vorgehensweise zu unterschiedlichen Ergebnissen kommen... dann ist jemandem wohl (und nein ich möchte keinem was unterstellen...) absichtlich/unabsichtlich ein Fehler unterlaufen... Kurz: Ich schenke dir einfach mal so ein bisschen mehr Vertrausen, sind die von dir neu präsentierten Ergebniss doch näher an dem, was ich kenne. Das gelbe in der Blume ist im zero_mod einfach kräftiger, detailreicher. Selbst an den weißen Wänden erkennt man mehr Strukturen im zero_mod. 2. Die Limitierung bei der Aufnahme (ISO100 und F5.6) ist doch kein Zwang für die Fotografie. Ist Veranschaulichung für den Test. Du musst das benutzen was dich weiter bringt, ob das nun beruflich ist oder nur als Hobby. Ich werde beim dcraw_zero_mod mit den 6 Millionen RGB-Pixel JPG Dateien (aus einem 24 Millionen Single-Color-Pixel Sensor) bleiben, erfüllt es doch meinen Anspruch voll und ganz. 3. Hier unterscheiden sich unsere Anwendungsfälle. Was du alles und vor allem wie haben willst, kann ich gar nicht wissen. Klar kann man mit Lightroom und Co tausende unterschiedliche Ergebnisse zaubern. Aber ich will es nicht. Ich möchte mir vor dem Fotografieren gedanken machen anstatt danach stundenlang am PC mit EBV-Hilfe. Sollte mal was schief gelaufen sein UND das Bild ist verdammt einmalig, habe ich ja immer noch die RAW-Datei. Neulich ist mir das bei einer Hochzeit passiert, musste die Kamera jemandem geben, man wollte ja dass ich auch auf den Bildern bin, als ich die Kamera wieder hatte und bereits 10 Bilder gemacht hatte, habe ich gemerkt dass einige Einstellungen verstellt waren, z B der Weisabgleich. Mit der RAW-Datei konnten die rötlichen Bilder gerettet werden, wenn auch für mich inzwischen etwas umständlich, da ich fast schon gewohn bin nach nur einem Mausklick die fertigen JPGs in meinem jpg Ordner zu haben. |
Zitat:
|
Zitat:
Zitat:
Beim ersten Durchgang habe ich schluderigerweise kopieren anstatt Speichern Unter gewählt. Nach dem kopieren musste ich das Bild dann noch einmal sepichern (mit meinen Standard settings für JPG). Zitat:
Belichtung -1.0 EV (um ein ähnliches Bild zu erreichen, erwähnst du übrigens gar nicht!!) WB Auto DRO off Kontrast korrigiert von +30 (mein std) auf +10 (um ein ähnliches Bild zu erreichen,) Schärfe 30 10 10 20 (mein std) NR off Verzerrungskompensation off Zitat:
Die Unterschiede, die du mal wieder feststellen möchtest sind im Promillebereich und spätestens bei 100% nicht mehr feststellbar. Die linke Gardine erscheint bei zero_mod detailreicher. Nur sehen wir dort rote und grüne Streifen (Moires?). Das ist doch weder positiv noch schön. Und genau diese roten und grünen Streifen existieren auf dem gleichen Bild auf deiner HP auch und haben nix mit meinem Vergleich zu tun. In der beigen Paperblume erkenne ich bei zero_mod mehr Struktur. Bei 200%! Und da nützen sie mir herzlich wenig. Die rechte Gardine und den Eimer wiederum finde ich jetzt bei meinem Bild detailreicher (im Promillebereich). Und genau das gleiche findet sich in deinen Bilder wieder. Spielplatz: minimal zu Gunsten zero_mod dafür mehr CA Inhaltsstoffe: deutlich mehr Farbprobleme. Im roten Bereich ist die 2 links bei zero_mod schlechter lesbar, dafür die folgende fünf im normalen Bild gar nicht, die sechs wiederum im normalen wieder besser Sandkasten: man kann im zero_mod die Stoffstruktur erahnen, dafür hat das sitzende Kind einen unfreiwilligen Haarreifen Schrifttafel: volle Punktzahl an zero_mod Motorradsattel: einfach nur ausgepräteres Moires Turnschuhe: zero_mod lilastichig (CA), Schärfe/ Detail gleich Orange: CA um Niete Feuerwerk: Schärfe und Detail = top, der Mond hat deutliche CA Beim Vergleich mit der D7D gewinnt immer zero_mod. Oh, Wunder!? Ich habe übrigends eine D5D und bin ja so gar nicht überrascht. Zitat:
Zitat:
Zitat:
Deine Methode bringt kaum Vorteile und dabei eine ganzen Sack Nachteile. Zitat:
Damit decke ich ca. 50% meiner Bilder ab. Die anderen 50% wollen mehr Nachbehandlung. Entweder bei der Aufnahme gemurkst oder High ISO oder das Motiv ist kritisch und man kann noch deutlich mehr rausholen. Zitat:
Mit meinem IDC-Presets geht es genauso schnell, bei ähnlicher Schärfe, und ohne deine Nachteile. DRO auto in IDC ist ein Segen für EBV-Faule. Und wenn es mal verhunzt ist hat man ja noch das RAW. Zitat:
Für mich bist du auf einer verbalen Interpolationstour. bydey |
Zitat:
Durch eine Bilineare Interpolation (arithmetisches Mittel der Nachbarpixel) wird die Farbauflösung erhöht und es treten (etwas) weniger Farbartefakte auf. Diese primitive Interpolation ist das was sich die meisten Laien unter der Bayer-Interpolation vorstellen. "Smooth Hue Transition" (SHT) nutzt die Eigenschaft, dass Menschen auf Grün stärker reagieren (weshalb der Bayer-Sensoren auch so sind wie sie sind). Der Bayer-Grünkanal wird als "Luminanz" interpretiert und die Verhältnisse der Bayer-Rot und Bayer-Blau Pixel zu den Bayer-Grün-Pixeln für die Farbintensität. Der Vorteil: weniger Farbartefakte und weichere Farbübergänge. Trotzdem ergeben sich an Kanten im Bild immer noch systematisch Farbartefakte wie das typische Reißverschlußmuster. Kantenerkennung: Ein Problem von Pixel binning, bilinearer Interpolation und SHT ist, dass die Lageunterschiede der Pixel ignoriert werden. Deshalb enstehen u.a. die typischen Reißverschlußartefakte an Kontrastübergängen. Mit Kantenerkennung umgeht man dass, indem an Kanten im Bild die Pixel innerhalb der Kanten für die Interpolation ignoriert werden. Es werden also nur die neben der Kante liegenden Pixel herangezogen. Variable Number Gradients (VNG): Ist eine Variante der Kantenerkennung, bei der eine variable Anzahl von Gradienten aus verschiedenen Richtungen herangezogen wird. Man kann sich das Bildhaft vorstellen, dass der Pixel sich in alle Richtungen umschaut und nur dort wo die Intensität nicht stark ansteigt schaut er nach Farbinformation. Entsprechend wirkt VNG wesentlich besser bei schrägen Kanten. Ein Nachteil ist, dass der jeweils betrachtete Pixelbereich mit der Anzahl der Gradienten zunimmt. Das kann auch die Auflösung etwas reduzieren. Mustererkennung: Statt nur Kanten zu erkennen kann man auch Muster (Kanten, Ecken, Streifen...) erkennen. Dazu wird bei jedem Pixel nach bestimmten Mustern ausschau gehalten und entsprechend interpoliert. Aktuellere Versionen von dcraw.c haben auch AHD (adaptive homogeneity direction) als Demosaic-Algorithmus. Dieser verwendet eine Homogenitätsmetrik und Bandfilter um gezielt dort zu interpolieren wo am wenigsten Artefakte entstehen. Wenn man sich damit näher befasst fällt vor allem eines auf: Die verschiedenen Interpolationstechniken beim Demosaic dienen weniger dazu eine scheinbar höhere Auflösung durch "hinzuerfinden" zu simulieren sondern möglichst viele Artefakte die durch die räumliche Aufteilung der Farbkomponenten im Bayer-Gitter entstehen zu beseitigen. Ein Aspekt moderner Sensoren kommt noch hinzu - viele dieser Artefakte treten schon alleine deswegen kaum noch auf, weil die Sensoren immer hochauflösender werden. Wenn man also nicht gerade pixelpeept, dann relativiert sich da recht viel. Deswegen dürfte man selbst mit Pixelbinning heutzutage Bilder Demosaicen können, die in vielen reduzierten Größen noch verwendbar sind. Einen Vorteil hat man davon jedoch nicht. |
@Neonsquare
Danke dir für diesen lehrreichen Posting. @www_zeeshan_de Vielleicht solltest du dir mal die Kameras mit Foveon Sensoren ansehen, z.B. Sigma DPM 2. Da wird eine andere als die Bayer-Technik verwendet und hat bei vergleichbaren Pixelanzahlen/-Größen viel mehr Details. Das könnte für dich durchaus interessant sein. Die Kameras kosten auch nicht die Welt. Selbst ich habe sie mir schon für bestimmte Fälle überlegt zu kaufen (aber das Geld ist eben keine unendliche Ressource). Der große Nachteil dieser Sensoren sind die schlechten high ISO Fähigkeiten. Andererseits gibt es Kameras, die auf Bayer-Technik verzichten, aber auch nur Schwarz-Weiß aufnehmen. Diese haben auch eine höhere Detaildichte und sind in höheren ISOs auch sehr gut nutzbar. Diese haben eben den Nachteil, das es (logischerweise) Schwarz-Weiß Aufnahmen sind und die Farben auch nicht in den RAW Dateien enthalten sind. Könnte beispielsweise bei Straßenfotografie oder Mondfotografie interessant sein oder überall dort, wo die Farbe keine Rolle spielt. Allerdings kenne ich hier keine günstige Kamera. Vielleicht sind das für dich bessere Kameras. Ist nur ein Denkanstoß. |
@neon
sehr aufschlußreich! *1 Ich habe fast nix verstanden *2 *3 *1 x *2/2 = ? *3 OK, kein Moires, sondern Farbartefakt. Ich habe übrigends festgestellt, dass ich schon wieder geschlapt hatte. NR war noch auf Auto (gehört so nicht in mein std profile für iso 100). Ohne Auto ist die Gardinenstruktur bei mir auch sichtbar; ohne Artefakt. Wenn ich ich weiter von meinem Standard Richtung Schärfe und Detail entferne geht auch noch mehr. Da ich aber weiss, wo das endet, drehe ich nicht weiter. Schärfe ist nicht alles. Im DSLR-Forum habe ich die Settings 30 +100 +100 -100 gefunden. Krass, es funktioniert ohne merkliche Artefakte und Rauschen ist auch im Rahmen. Aber wirklich schön ist es nicht!? Wer also mal richtig viel Details möchte und keinen Himmel dabei hat, kann sich ja mal daran versuchen. ISO 100, +1,3EV bei der Aufnahme und dann in IDC -1,3EV und die Schärfesettings von oben. bydey |
Es gibt auch noch Fuji X-Trans - statt des extrem regelmäßigen Bayer-Musters wird eine unregelmäßigere "natürlicher anmutende" Aufteilung gewählt. Damit verhindert man viele Aliasing-Effekte. X-Trans ist auch nicht komplett unregelmäßig - es ist eine 6x6-Matrix.
|
Zitat:
Die High-ISO-Probleme der Foveon sollten nicht seine sein, da er eh nur ISO100 verwendet. Gerade die Farbwiedergabe soll ja bei Foveon der Hit sein. Bei dpreview und imaging resource gibt es sicherlich auch RAW von Foveon-Sensoren zum Vergleich. Zitat:
|
Zitat:
bydey |
Zitat:
Moirés: entstehen ja als Abtastproblem wenn feine regelmäßige Strukturen im Inhalt mit den regelmäßigen Strukturen des Sensors interferieren. |
Zitat:
|
Zitat:
bydey |
ISO 100, Festbrennweite und Blende 5.6, gut das ich mit meinen Bildern keine technische Dokumentation mache und deswegen abweichen darf.
In einem anderen Thread war ja mal ein Bild vom Zeis 50 1.4 bei dem man bei 5.6 schon wieder Beugungsunschärfe erkennen konnte... vielleicht doch immer auf F4 stellen. BTW ist die Basis ISO nicht von Sensor zu Sensor unterschiedlich, bei Sonys neuen aber idr. bei 200? Man hätte also bei ISO 100 nicht maximalen Dynamikumfang? Topic: ich Fotografiere immer mit RAW, dann brauch ich mir über Weißabgleich, Schärfung und DRO keine Gedanken machen Vorort. Bei JPG müsste ich das ja direkt Einstellen und da fehlt mir echt die Muse und DXO macht das schon gut mit RAWs (vor allem bei der A850 ist ja die JPEG Engine eher mau). |
Habe gerade versucht etwas mehr Klarheit in das Thema mit zero-mod und dem Vergleich zwischen 24mp-zeromod und den Bildern aus der D7D zu bringen.
Die Bilder der D7D waren so viel unschärfer, dass ich davon ausging, dass ein crop von den 24mp auf die 6mp der D5D die gleiche Detailschärfe ergeben müsste. 1. die RAW sind für einen sinnvollen Vergleich viel zu unterschiedlich. Die Belichtung der D5D ist deutlich heller und weniger kontrastreich. Um einen Vergleich vorzunehmen muss also erst mal die Tonung angeglichen. Da Kontrast aber Einfluss auf die Schärfewirkung hat liegt hier die erste Gefahr. Das Verhalten ist in Photo Director und Faststone Viewer das gleiche. 2. Konvertierung ohne Schärfung. Das Bild der A65 wird nach dem Export noch auf 6mp komprimiert. Man sieht sofort, dass das Bild der D5D weniger scharf wirkt. Der Unterschied ist jedoch bei weitem nicht so gross wie es nach dem zero-mod-Vergleich zu vermuten wäre. Das zweite A65-Bild, aufgenommen mit halber Brennweite und dann auf 6mp gecropt ist deutlich unschärfer und detailärmer, als das Bild der D5D. Da ich bei der D5D Schärfe und Kontrast für jpg ooc schon in der Kamera +1 erhöht hatte, um ausreichend scharfe Bilder zu bekommen liegt die Vermutung nahe, dass die RAW der D5D/D7D weniger scharf sind. Doch wie soll man das jetzt wirklich feststellen. Denn es gibt einfach zu viele Regler, die Einfluss auf die Schärfe. Da kann ich tagelang daran rumdrehen, bis ich für beide das maximal scharfe Bild erreiche. Dich wären dann gleich/ vergleichbar? 3. Konvertierung mit Schärfe 100% Ich bin davon ausgegangen, dass sich die Schärfewirkung, bzw der Einfluss auf das unscharfe RAW immer weiter annähern, wenn die Schärfe bei 100% ist und Feinheiten der Quelle weniger ins Gewicht fallen. Ich habe also in PD 100% und Radius 2 gewählt. Und siehe da, das Bild aus der D5D ist ungfähr genauso scharf, wie das der A65 reduziert auf 6mp. Das gecropte war nur noch Schrott. 4. Quintessenz Zero-mod ist eine Schärfungsmethode. Ein Vergleich mit einem völlig ungeschärften Bild aus einer Kamera deren EAW ohnehin etwas weich sind kann für einen Vergleich nicht funktionieren. Die D5D kann echt scharfe Bilder produzieren. Mit der A65 und dem 16105 kann ich bei 40mm und F7.1 und 1/200s nicht die gleiche Schärfe produzieren, wie mit der D5D bei 80mm und sonst gleichen Einstellungen. bydey |
Also ich würde sagen, da hier vom RAW 4 subpixel zu einem gemacht werden und dann der nächste pixel von den 4 benachbarten (ohne Überlappung) ist das ein simples Nearest Neighbour Shrink. Das erhöht die subjektive Schärfe immer (je nachdem hat man dann wieder extreme Treppenstufen).
Dabei geht Information verloren, obwohl es erst einmal schärfer wirkt. "Normale" Konverter betrachten von den z.b. 24 Millionen Positionen immer die Umgebung mit und versuchen für diese Position einen möglichst passenden Wert zu ermitteln. Danach ist die nächste zu betrachtende Position der Subpixel direkt daneben, nicht soweit weg, dass es keine Überdeckung mehr gibt. Es kommen also normal auch entsprechend viele "Ausgabepixel" dabei raus (ich würde z.b. die Pixelreihe am Rand nur mit einbeziehen aber aus dem Endergebnis weglassen, kommt man nicht in die Predullie eine Annahme über den nicht gemessenen Raum machen zu mussen). Denn wenn man die 2x2 Matrix um 2 verschiebt statt um 1, vernachlässigt man damit, dass die Subpixel am Rande jeweils etwas miteinander zu tun haben! Außerdem klebt doch eine Folie drüber die auch das Licht etwas flächiger verteilt über dem Sensor. Ein Raw einfach mal eben mit einer trivialen Methode umwandeln in ein JPG (mit weniger Farbraum) und dann zu behaupten, dass wäre ein viel besseres Ergebnis als von Lightroom oder DXO oder ICS... ich hätte nicht so viel Selbstvertrauen. Ich bin aber nur ein Informatiker, vielleicht belehrt mich jemand mit Signalverarbeitungserfahrung eines besseren. Außerdem gilt immer: Wer misst misst Mist. Es gibt kein exaktes Bild nur ein ungefähres :) |
Hey... der Thread lebt ja immernoch :D
Zitat:
Hier gibt es nochmal einen roten/magenta Rand am Ende des weißen Ärmels http://www.zeeshan.de/dcraw_zero_mod...zero_mod-3.jpg Hier auch alles voller Magenta und Grüner Artefakte an kontrastreichen Kanten. Der Schuh ist ja geradezu DIE Artefakte-Demo :crazy: (man beachte die Schnürsenkel und Nähte, sowie die weiße Schicht der Sohle) http://www.zeeshan.de/dcraw_zero_mod...zero_mod-6.jpg Man könnte es glatt für CAs halten, es sind aber Artefakte der unglaublich revolutionären zero_mod "interpolation" Seltsam das du deine "zero_mod" Bilder immer wieder mit herunterskalierten "Originalen" vergleichst anstatt mit der tatsächlichen Auflösung des anderen Interpolationsverfahrens. Man könnte meinen das hier ist der längste Troll-Thread der Sonyuserforum-Geschichte :lol: |
Zitat:
generell über alle zero mod Bilder: zero mod Bilder sind generell eindeutig schärfer (und auch kontrastreicher zugleich). Die Bilder sind selbstverständlich pixeliger, handelt es sich doch um einen endlichen digitalen Sensor. Ich glaube wir müssen unterscheiden zwischen CAs verursacht von der OPTIK (minderwertig, Blende, Fehl-Fokus) und "Farbsäumen um Kontrastkanten" die für gewöhnlich extrem agressiv in herkömmlichen Interpolationsverfahren gefiltert werden und im zero mod verfahren eben GAR NICHT. Zur Information: Beide Bilder sind per Super-Pixel-Verfahren entwickelt, Farbsäume um Kontrastkanden sind somit GENERELL in beiden Bildern vorhanden. "Farbsäumen um Kontrastkanten" sind übrigens deutlicher, je weiter man DIGITAL rein zoomt (per nearest neighbor, Pixelwiederholung). Spielplatz: zero mod ist deutlich schärfer, das Gras hat mehr Details bekommen, im rechten Bild ist es grüner Matsch (matschige Textur) Inhaltsstoffe: Ich weiß nicht was du mit "normalen Bild" meinst, beide Bilder sind per Super-Pixel-Verfahren entwickelt, Farbsäume um Kontrastkanden sind somit GENERELL in beiden Bildern vorhanden. Jedenfalls ist das zero mod Bild kontrastreicher. Die Schrift der Inhaltsstoffe ist kräftiger, siehst du das nicht ??? Vorteil zero mod: Weniger Grauanteil, mehr Kontrast, insgesamt schärferes Bild. Klar sieht man hier "Farbsäumen um Kontrastkanten", aber wusstest du dass wir uns bei diesem Bild bei 400 % Digitalzoom bewegen. Ist ungefär so wie wenn man ca 10 cm vor einem Werbe-Plakat steht... Sandkasten: * Stoffstruktur: Wo schaust nur hin ??... * das sitzende Kind... Wo schaust nur hin...?? Direkt hinter dem Sandkasten befindet sich grüne Sträucher/Busch/Grünzeug: im zero mod sieht man die Struktur der feinen Sträucher/Blätter. Beim Vergleich sticht das einem direkt ins Auge !! Wo schaust du nur hin... Schrifttafel: volle Punktzahl an zero_mod, weil es sich hier doch um ein flaches Objekt handelt, das komplett im Schärfebereich auf den Sensor gebrannt werden konnte. Folglich zeigt es sich hier natürlich auch am deutlichsten, dass der zero mod sogar feinste Strukturen in der Wand wiedergeben kann, man darf nicht vergessen, das Bild wurde GAR NICHT softwareseitig geschärft (!!). Motorradsattel: einfach nur ausgeprägtere Moires: Mal eine umgekehrte Frage: Wie weit müsste man die fotografische Qualität herabstufen (Objektiv, Fokus, Blende) um das Moire im zero mod "unsichtbar" zu machen und welche Auswirkungen hätte das auf das gesamte Bild ?? ==> Das gesamt Bild wäre unschärfer. Turnschuhe: Schärfe/Detail: ungleich, überall wo sich das Sonnenlicht im Schuh spiegelt, gibt es im zero mod EINZELN adressierte Pixel, es glitzert und schimmer insgesamt kontrastreicher, selbst in der schwarzen Sohle sieht man Pixel, die EINZELN adressiert sind. Im NON-zero mod Bild es mehr Gruppen aus benachbarten Pixeln, die das schimmern des Sonnenlichts darstellen, insgesamt großflächiger und heller, jedoch kontrastärmer zugleich. Orange: Es handelt sich hierbei nicht um eine Orange, sondern um ein Motorrad (!!), wie schon oben beim Schuh spiegelt sich auch hier die Sonne. Die Unterschiede sind wie beim Schuh beschrieben, nur kommt hier noch die Farbe mit ins Spiel: Im zero mod Bild ist das Orange nochmals ein wenig kräftiger, das Bild kontrastreichen, und natürlich sind einzelne Pixel adressierbar, die das schimmern und glitzern des Sonnenlichts eindeutig hochauflösender darstellen. Feuerwerk: Schärfe und Detail = flop (in beiden Bildern), denn ein Feuerwerk gestochen scharf einzufangen, das ist bei ISO 100 selbst bei Offenblende verdammt schwierig. Da ich gezwungen bin von Blende F5.6 auf Offenblende zu schalten (um kurze Belichtungszeiten zu bekommen), kommen unumgänglich extrem hässliche CAs zum vorschein. Die Ergebnisse sind generell immer "leicht unscharfe" Bilder (auf Pixelebene). Der einzige Knackpunkt an dem ich dennoch das zero mod Bild ausmachen konnte ist der höhere Kontrast. Im zero mod Bild schimmert und glitzert es einfach phänomenaler !! |
Alle Zeitangaben in WEZ +2. Es ist jetzt 23:06 Uhr. |