PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Objektive "Pixelscharf"?


Justus
28.12.2007, 00:38
Hallo,
mir geistert seit einiger Zeit die Frage durch den Kopf ob und wie man feststellen kann, daß ein Objektiv den Kamerasensor ausreizt und habe mir dazu einige starke Crops angeguckt. Wenn ein Bild Strukturen enthält, die genau einen Pixel groß (oder Breit) sind, kann man dann davon ausgehen, daß der Sensor ausgereizt ist?

Zur Veranschaulichung dessen, was ich meine, hier ein Bild:

http://www.sonyuserforum.de/galerie/data/thumbnails/6/PICT7688-03_crop_400proz2.JPG (http://www.sonyuserforum.de/galerie/details.php?image_id=48032)

Es handelt sich dabei um eine 400%-Ansicht aus diesem Bild (http://www.sonyuserforum.de/galerie/details.php?image_id=48017), welches mit RSE aus RAW konvertiert wurde mit Kontrast und Farbe +20, ansonsten Standardeinstellungen.

Ich habe mit einem roten Oval markiert, was ich meine: diese Linie wird ziemlich genau mit einer Breite von einem Pixel wiedergegeben und dies kann man auch an einigen anderen Stellen im Bild beobachten. Ist der Sensor damit "ausgereizt" und ich kann ein Objektiv guten Gewissens (an dieser Bildstelle) als "scharf" bezeichnen? Die Treppenbildung an dem Grabstein oben links sehe ich übrigens auch als Stütze meiner Theorie.

Wie seht ihr das?

Und wie verträgt sich meine Annahme mit dem "Bayer-Pattern" (http://de.wikipedia.org/wiki/Bayer-Sensor)?

Gruß
Justus

Jens N.
28.12.2007, 02:04
Linien/Strukturen von einem Pixel Breite wirst du auch in (vielleicht nichtmal sonderlich scharfen) Bildern von anderen Objektiven finden, das ist daher leider kein brauchbarer Ansatz für die Bestimmung von Objektivqualitäten.

Gerhard-7D
28.12.2007, 15:32
Ich sehe mir dazu meine Bilder (solche die viele feine Strukturen enthalten) am Monitor bei hoher Auflösung an.
Dann zoome ich schrittweise in das Bild.
Wenn ich dann erst bei 150-200% die ersten Anzeichen von leichter Unschärfe wahrnehme, bzw. bis 100% die sichtbaren Details noch zulegen, gilt das Objektiv für mich als gut geeignet.

Mfg. Gerhard

weberhj
28.12.2007, 16:28
Wichtig wäre erstmal eine Konvertierung mit 0 Schärfung ohne das ist alles
blinde Spekulation. Man sieht deinem 400% Crop die Schärfung übrigens schon
sehr, sehr deutlich an.

Tom
30.12.2007, 14:01
Schärfung Null besagt gar nichts!
M.W. wird bereits bei der Bayerinterpolation nachgeschärft, da die Ergebnisse sonst unerträglich flau wären.
Somit sind "demosaikierte" (d.h. nicht mehr aus reinen RGB-Pixeln bestehende) RAW-Bilder bereits nachgeschärft.
Wie stark das geschieht und wie der Hersteller den Wert "Null" festlegt, ist willkürlich und somit nicht nur hersteller- sondern auch kamerabaureihenabhängig.
Ich gehe davon aus, daß die Schärfungsparameter so festgelegt werden, daß bei der subjektiven Betrachtung der Wert Null für die Schärfung bereits eine annehmbare Schärfe liefert.

Basti
30.12.2007, 14:05
Es ist immer wichtig zwischen Schärfe und Detailreichtum zu unterscheiden. Zudem sollte man die Überlegungen des Zerstreuungskreises eines einzelnen Bildpunktes bei der Beurteilung mit einbeziehen. Ich denke nicht das es auf diese Weise möglich ist objektiv ein Objektiv ( :-) ) zu beurteilen. Da gehört schon mehr an Messgenauigkeit und Prüfwerkzeug dazu!
Basti

weberhj
30.12.2007, 14:21
Schärfung Null besagt gar nichts!
M.W. wird bereits bei der Beyerinterpolation nachgeschärft, da die Ergebnisse sonst unerträglich flau wären.

Sorry, aber was du da schreibst ist ziemlicher Unfug.

Du kannst bei einigen RAW Convertern (z.B. dcraw) getrost in den Quellcodezeilen nachsehen - da wird nichts geschärft!
Trotzdem sind die Ergebnisse bei guten Objektiven keineswegs unerträglich flau.
Im Gegenteil denn im Print schauen sie oftmals wesentlich besser aus.


Wie stark das geschieht und wie der Hersteller den Wert "Null" festlegt, ist willkürlich und somit nicht nur hersteller- sondern auch kamerabaureihenabhängig.
Ich gehe davon aus, daß die Schärfungsparameter so festgelegt werden, daß bei der subjektiven Betrachtung der Wert Null für die Schärfung bereits eine annehmbare Schärfe liefert.
Das gilt aber bei JPG und evt. bei einigen anderen RAW Konvertern.
Deswegen sagte ich ja, dass man diese Schritte ausklammern muß um
überhaupt etwas aussagen zu können.

freejack
30.12.2007, 17:33
Die Suche nach 1 Pixel-Linien im Bild ist recht ungenau.
Für reproduzierbare Tests der Auflösung kann man z.B. den Siemensstern nehmen:
http://de.wikipedia.org/wiki/Siemensstern

Für den dort abgebildeten 16-Strahl-Stern gilt: Auflösung = Pi/32*Durchmesser Graukreis ~= Durchmesser Graukreis/10.2. Durch den Faktor 10 muss man also schon mal nicht 1 Pixel große Strukturen suchen.

Da ein Ausdruck auch nur 300dpi hat sollte man auch mit recht kleinem Maßstab aufnehmen:
http://www.sonyuserforum.de/galerie/data/thumbnails/6/aufnahme.jpg (http://www.sonyuserforum.de/galerie/details.php?image_id=48105)

Hier zwei 800%-Vergrößerungen zum Vermessen des Graurings:
http://www.sonyuserforum.de/galerie/data/thumbnails/6/grauring.jpg (http://www.sonyuserforum.de/galerie/details.php?image_id=48106)

Links eine Aufnahme vom 50/1.7 bei Blende 8, recht vom 70-210/4 bei 70 mit Blende 32. Beide Aufnahmen wurden mit dcraw ohne Bayerinterpolation entwickelt (Flag -d), damit man die "nackten" Pixel vom Sensor sieht und keine Weichzeichnung durch die Interpolation auftritt.

Das 50er bei Blende 8 kommt mit dem 10 Pixel messenden Grauring an die volle Sensorauflösung heran, bei der anderen Aufnahme sieht man den Auflösungsverlust durch die provozierte Beugung bei Blende 32.

Den Test müsste man auch noch in den Ecken machen und über den Kontrast und viele weitere Abbildungseigenschaften ist dann immer noch nichts gesagt -- ich würde solche Tests somit nicht überbewerten, solange das Objektiv keine Problem-Bilder macht...

Justus
30.12.2007, 17:56
Hallo freejack,
sehr informativ! Vielen Dank! :top:

EDIT: Ich habe mal mit meinem obigen Beispiel die dcraw-Entwicklung ohne Bayer-Interpolation durchgeführt:

http://www.sonyuserforum.de/galerie/data/thumbnails/6/PICT7688_2.JPG (http://www.sonyuserforum.de/galerie/details.php?image_id=48109)

Kann ich jetzt "schon eher" behaupten, daß das Objektiv an dieser Stelle "pixelscharf" ist? Oder ist mein Gedankengang nach wie vor Käse?

Gruß
Justus

Tom
30.12.2007, 19:10
Sorry, aber was du da schreibst ist ziemlicher Unfug.
Danke für diese objektive Bewertung meiner Aussage!

Du kannst bei einigen RAW Convertern (z.B. dcraw) getrost in den Quellcodezeilen nachsehen - da wird nichts geschärft!
Ist das tatsächlich so?
Ich meine mehrfach das Gegenteil gelesen zu haben, aber vielleicht hast Du ja Recht und kannst uns den Quellcode mit dazugehörigem Kommentar zur Verfügung stellen? :shock:

Bei der Bayerinterpolation werden aus den RGB-Informationen von jeweils 4 Sensor-Pixeln ein Bild-Pixel berechnet. Demnach erhältst Du aus einem 8MP-RGB-Sensor die Schärfe eines 2-MP-schwarz/weiß-Sensors. Details dazu erfinden kann die Kamera nicht und der RAW-Konverter auch nicht. Daß bei der Bayerinterpolation die 4 Ausgangspixel zeilen- und spaltenmäßig nur um jeweils einen Rasterschritt weitergesprungen werden, um wieder auf die annähernd gleiche Pixelzahl (eine Randzeile und -Spalte fehlen ja) wie die des Sensors zu kommen, ändert nichts daran, daß die Ergebnispixel interpoliert sind, also unmöglich die Schärfe/optische Auflösung des Sensors erreichen können.

http://209.85.135.104/search?q=cache:xMhXuJxDPrkJ:www.photozone.de/3Technology/digital_3.htm+bayer+sensor&hl=de&ct=clnk&cd=15&gl=de

Der Begriff Interpolation beinhaltet diese Aussage ja schon!
Da beißt die Maus keinen Faden ab...

http://de.wikipedia.org/wiki/Interpolation#Anwendungen

Es gab auch schon Kameras (Fujifilm) die aus 3MP-Sensoren ein 6MP-Bild berechnet (interpoliert) haben, was aber auch keine zusätzlichen Details/Schärfe herbeizaubern konnte...

http://www.matrix-vision.com/info/articles/pdf/art_bayermosaic_d.pdf
In diesem Dokument wird eine "Schärfende Interpolation" erwähnt.

Soviel zu meinem "Unfug"...


Ich habe auch noch NIE ein "bayerbehandeltes" Bild eines RGB-Sensors gesehen, das wirklich bis auf Pixelebene scharf war (d.h. eine 1-Pixellinie mit vollem Kontrastumfang zur direkten Nachbarline von schwarz zu weiß darstellen konnte).
Da ich weiß, daß es das nicht geben kann, suche ich auch nicht länger danach...;)
D.h. eine "pixelscharfe" Darstellung kann es mit einem RGB-Bayersensor gar nicht geben.

Nichtsdestotrotz interessiert mich natürlich weiterhin eine sinnvolle Bewertungmöglichkeit der Bildschärfe!

EDIT: Ich habe mal mit meinem obigen Beispiel die dcraw-Entwicklung ohne Bayer-Interpolation durchgeführt:

http://www.sonyuserforum.de/galerie/data/thumbnails/6/PICT7688_2.JPG (http://www.sonyuserforum.de/galerie/details.php?image_id=48109)

Kann ich jetzt "schon eher" behaupten, daß das Objektiv an dieser Stelle "pixelscharf" ist?

Der Ansatz (RAW-Bild ohne Bayer-Interpolation umgesetzt in ein reines s/w-Bild) ist sicher gut, jedoch hat der RAW-Konverter offenbar "vergessen" die unterschiedlichen Transmissionsfaktoren der RGB-Pixelfilter mit einzuberechnen (gleichförmige Flächen sollten auf dem s/w-Bild gleichmäßig hell sein und kein Karomuster aufweisen).

Das dürfte mit einem passenden RAW-Konverter (oder Einstellung) machbar sein.
Bei Freejack hat es offenbar ohne überlagertes Karo-Muster funktioniert, demnach ist es eine Einstellungsfrage...

Jens N.
30.12.2007, 19:41
Kann ich jetzt "schon eher" behaupten, daß das Objektiv an dieser Stelle "pixelscharf" ist? Oder ist mein Gedankengang nach wie vor Käse?

Das Bild ist auf jeden Fall scharf, gar keine Frage, aber die "Beweisführung" ist trotzdem Käse. Nochmal, fernab von jeder Diskussion um Bayerpatterns usw. (ganz praktisch): ich kann in fast jedem, selbst leidlich scharfem Bild, das entsprechende Strukturen aufweist, ähnliches finden.

Ich habe mal gelesen, daß Auftreten von Moiré sei ein Anhaltspunkt dafür, das ein Objektiv den Sensor ausreizt/überfordert, aber wenn man sich ein wenig mit Moiré beschäftigt, kommt man eigentlich schnell zu der Erkenntnis, daß auch das kein 100%iger Indikator ist.

Tom
30.12.2007, 19:48
Ich habe mal gelesen, daß Auftreten von Moiré sei ein Anhaltspunkt, daß ein Objektiv den Sensor ausreizt/überfordert, aber wenn man sich ein wenig mit Moiré beschäftigt, kommt man eigentlich schnell zu der Erkenntnis, daß auch das kein 100%iger Indikator ist.
Das ist richtig, da ja vor dem Bildsensor das Antialiasingfilter sitzt, das den Bildinhalt auf die Pixelauflösung des Bildsensors reduzieren soll (d.h. definierte Streuung/Weichzeichnung auf Pixelgröße bewirken soll) um Aliasing bzw. Moiré-Effekte zu verhindern.

Jens N.
30.12.2007, 19:52
Schon, nur ist das Auftreten von Moiré sehr motivabhängig und soweit ich das verstanden habe, kann es auch dann passieren, wenn die Auflösungsgrenze eben nicht erreicht wird. Darum KANN es ein Indikator sein, MUSS aber nicht.

Tom
30.12.2007, 20:01
Schon, nur ist das Auftreten von Moiré sehr motivabhängig und soweit ich das verstanden habe, kann es auch dann passieren, wenn die Auflösungsgrenze eben nicht erreicht wird. Darum KANN es ein Indikator sein, MUSS aber nicht.
Vor allem hat das Antialiasing-Filter einen sehr großen Einfluß darauf.
Einen idealen Filter mit rasiermesserscharfer Trennschärfe kann es physikalich gar nicht geben, weshalb es Auslegungsache des Konstrukteurs ist, lieber mehr Auflösung zuzulassen auf die Gefahr hin eher Moirés zu bekommen oder halt umgekehrt.

freejack
30.12.2007, 20:18
Kann ich jetzt "schon eher" behaupten, daß das Objektiv an dieser Stelle "pixelscharf" ist? Oder ist mein Gedankengang nach wie vor Käse?

Nö, passt schon; man sieht ja, das es scharf ist. Der Siemensstern vergrößert eben die Effekte um den Faktor 10, so dass man sie besser sehen kann. Und er hat unterschiedliche Frequenzen, so dass man abhängig vom Abstand zum Zentrum sieht, wieviel Kontrast abhängig von der Frequenz noch da ist. Mit bloßem Auge.

Die 1-Pixel-Strukturen sind da nicht so augenfällig -- wie bereits von Jens angemerkt wurde, wird man diese auch in Bildern mit mäßigen Objektiven finden. Schärfe ist ja nicht ein fester Wert, sondern der Verlauf des Kontrastes über die Ortsfrequenzen. Bei natürlichen Bildern würde ich mich da auf den subjektiven Schärfeeindruck des unbehandelten Bildes verlassen.

Nichtsdestotrotz interessiert mich natürlich weiterhin eine sinnvolle Bewertungmöglichkeit der Bildschärfe!

s.o. -- der Verlauf des Kontrastes über die Ortsfrequenz (MTF und SFR) wird dafür genommen. Dazu gibt es schon einiges zu lesen, z.B. hier: http://www.photozone.de/3Technology/mtf.htm

Mit Imatest (http://www.imatest.com/) kann man sich auch Kurven aus Testbildern berechnen lassen. Wobei ich dies für mich persönlich jetzt mal als Overkill bezeichne, ausser man liebt das Testen mehr als die Photographie. Mir reicht es, wenn ich die Ergebnisse bei photodo nachlesen kann und mein Objektiv brauchbare Bilder fabriziert.

Das dürfte mit einem passenden RAW-Konverter (oder Einstellung) machbar sein.
Bei Freejack hat es offenbar ohne überlagertes Karo-Muster funktioniert, demnach ist es eine Einstellungsfrage...

Bei einem recht farbneutralem Bild mit automatischem Weissabgleich in dcraw wird das ganz gut rausgerechnet. Sobald farbige Flächen im Bild sind müssen diese ja unterschiedliche rgb-Werte produzieren -- je gesättigter, desto Karo.

Stoney
30.12.2007, 22:03
Es handelt sich dabei um eine 400%-Ansicht aus diesem Bild (http://www.sonyuserforum.de/galerie/details.php?image_id=48017), welches mit RSE aus RAW konvertiert wurde mit Kontrast und Farbe +20, ansonsten Standardeinstellungen.
Das ist definitiv schon geschärft. Stelle mal Sharpness und Detail Extraction auf -50.

weberhj
31.12.2007, 17:47
Danke für diese objektive Bewertung meiner Aussage!

Bitte...
Du hattest dich, ohne dich genügend zu informieren, zu Aussagen verleiten lassen
die eben Unfug sind.

Ist das tatsächlich so?
Ich meine mehrfach das Gegenteil gelesen zu haben, aber vielleicht hast Du ja Recht und kannst uns den Quellcode mit dazugehörigem Kommentar zur Verfügung stellen?

Den Quellcode von dcraw kannst du hier
http://cybercom.net/~dcoffin/dcraw/ (http://cybercom.net/%7Edcoffin/dcraw/)
herunterladen. Er ist relativ simpel zu verstehen.

Bei der Bayerinterpolation werden aus den RGB-Informationen von jeweils 4 Sensor-Pixeln ein Bild-Pixel berechnet. Demnach erhältst Du aus einem 8MP-RGB-Sensor die Schärfe eines 2-MP-schwarz/weiß-Sensors. Details dazu erfinden kann die Kamera nicht und der RAW-Konverter auch nicht. Daß bei der Bayerinterpolation die 4 Ausgangspixel zeilen- und spaltenmäßig nur um jeweils einen Rasterschritt weitergesprungen werden, um wieder auf die annähernd gleiche Pixelzahl (eine Randzeile und -Spalte fehlen ja) wie die des Sensors zu kommen, ändert nichts daran, daß die Ergebnispixel interpoliert sind, also unmöglich die Schärfe/optische Auflösung des Sensors erreichen können.

http://209.85.135.104/search?q=cache:xMhXuJxDPrkJ:www.photozone.de/3Technology/digital_3.htm+bayer+sensor&hl=de&ct=clnk&cd=15&gl=de

Der Begriff Interpolation beinhaltet diese Aussage ja schon!
Da beißt die Maus keinen Faden ab...

Das ist nun von Sensor zu Sensor aber sehr unterschiedlich. Manche arbeiten mit
drei, andere mit vier Grundfarben, andere auch mit Pixeln unterschiedlicher Größe.

Es gibt auch sehr viele Interpolationsverfahren wie lineare, kubische usw., usw.
und trotzdem ist es nicht das grundsätzliche Wesen jeglicher Interpolation Gradienten
abzuschwächen.

Ich habe hier bei sehr guten Objektiven am 10MP APS-C Sensor der A100
durchaus schon Gradienten von über 90% des gesamten Dynamikumfangs bei
benachbarten Pixeln beobachtet und das bei Konvertierung mit dem o.g.
dcraw Parameter.

Es gab auch schon Kameras (Fujifilm) die aus 3MP-Sensoren ein 6MP-Bild berechnet (interpoliert) haben, was aber auch keine zusätzlichen Details/Schärfe herbeizaubern konnte...

Ich glaub zu diesem zumeist in billig Digicams angewandten Taschenspielertrick
brauchen wir uns hier nicht weiter zu äußern.

Bei einigen Fuji Sensoren ist er hingegen - zumindest teilweise sinnvoll.


http://www.matrix-vision.com/info/articles/pdf/art_bayermosaic_d.pdf
In diesem Dokument wird eine "Schärfende Interpolation" erwähnt.

Dann sprichst du aber nicht mehr von reiner Interpolation sondern es
wird wie gesagt zusätzlich bereits künstlich geschärft, indem Gradienten
über das ermittelte Mass hinaus angehoben werden.

Und genau das darf man eben *nicht* tun wenn man die Schärfe eines Objektivs
beurteilen will.


Soviel zu meinem "Unfug"...

Es war, ist und bleibt Unfug was du geschrieben hast.
Und im weiteren Verlauf hast du gleich nochmal einen
solchen obendrauf gesetzt...

Ich habe auch noch NIE ein "bayerbehandeltes" Bild eines RGB-Sensors gesehen, das wirklich bis auf Pixelebene scharf war (d.h. eine 1-Pixellinie mit vollem Kontrastumfang zur direkten Nachbarline von schwarz zu weiß darstellen konnte).
Da ich weiß, daß es das nicht geben kann, suche ich auch nicht länger danach...
D.h. eine "pixelscharfe" Darstellung kann es mit einem RGB-Bayersensor gar nicht geben.

Eine Linie wirst du in der Praxis wohl auch äußerst selten finden, denn dann
müsste die zufällig exakt und parallel auf Pixelgrenzen fallen, was praktisch
ausgeschlossen ist, Antialiasing und dergl. mal aussen vor, also schon praktisch
unmöglich, das wonach du nun ja auch nicht mehr suchst..


Nichtsdestotrotz interessiert mich natürlich weiterhin eine sinnvolle Bewertungmöglichkeit der Bildschärfe!

Der Ansatz (RAW-Bild ohne Bayer-Interpolation umgesetzt in ein reines s/w-Bild) ist sicher gut, jedoch hat der RAW-Konverter offenbar "vergessen" die unterschiedlichen Transmissionsfaktoren der RGB-Pixelfilter mit einzuberechnen (gleichförmige Flächen sollten auf dem s/w-Bild gleichmäßig hell sein und kein Karomuster aufweisen).

Das dürfte mit einem passenden RAW-Konverter (oder Einstellung) machbar sein.
Bei Freejack hat es offenbar ohne überlagertes Karo-Muster funktioniert, demnach ist es eine Einstellungsfrage...
Der Raw Konverter hat selbverständlich gar nichts vergessen, wie kommst du
nur schon wieder auf einen solche Käse!

Es liegt in der Natur der Sache das farbige Motive bei genanntem
Konvertierungsparameter eben diese Karomuster liefern, und somit
zum bewerten der Objektivschärfe auf diesem Weg eher ungeeignet sind.

Das zeigt ja auch das Beispiel des Sterns sehr gut bei dem das doch
deutlich besser klappt. Bei dieser Aufnahme ist aber wiederum zu bedenken,
dass f8 an einem APS-C 10MP Sensor bereits beugungsbegrenzend wirksam wird.

Tom
01.01.2008, 16:04
@weberhj

Eigentlich wollte ich noch mal näher auf Dein letztes Posting eingehen, aber wenn ich es mir recht überlege, lohnt es sich nicht, da Du wahrscheinlich wieder nur mit abwertendem Vokabular um Dich werfen würdest (Unfug, Käse...).

Dafür ist mir meine Zeit einfach zu schade, weswegen ich mir jetzt weitere Kommentare verkneife...

weberhj
01.01.2008, 16:46
@Tom

Ist ja auch nicht gerade der falsche Weg sich erstmal zu informieren...

Tom
01.01.2008, 16:47
@Tom

Ist ja auch nicht gerade der falsche Weg sich erstmal zu informieren...

Blabla...:roll:
Ich wußte es doch...

ManniC
01.01.2008, 17:19
*räusper*

Bitte Mädels: Haut Euch erforderlichenfalls die Köppe per PN ein, aber nicht an der Oberfläche dieses Forums.

Danke & BTT.

Stuessi
03.01.2008, 13:43
Hallo,

ein Pixel breite Linien finde ich selten auf Fotos. Ein Versuch dazu:
http://www.sonyuserforum.de/galerie/data/thumbnails/6/OHNE_TITEL-3-J.JPG (http://www.sonyuserforum.de/galerie/details.php?image_id=32486)

Erzeugt man solche Linien künstlich, so ist es erstaunlich, was RAW-Konverter daraus machen:
http://www.sonyuserforum.de/galerie/data/thumbnails/6/vergleich1_Kopie.jpg (http://www.sonyuserforum.de/galerie/details.php?image_id=22219)
Gruß,
Stuessi

Tom
04.01.2008, 02:04
Danke Stuessi, ich habe gerade überlegt, wie ich RAW-Dateien mittels Hex-Editor manipulieren muß, um die Arbeitsweise von RAW-Konvertern bzw. deren Bildauswirkung zu kontrollieren.
Du bist mir hiermit zuvorgekommen. Wie immer von Dir ein echt profimäßiger Test :top:

Würdest Du damit meine wirre Theorie bestätigt sehen, daß ein Bayer-Sensor keine Strukturen unterhalb 1 Linie pro 2 Sensor-Pixel auflösen kann?
Welches Objektiv mit welcher Kamera hast Du genommen?

Wie hat die Vorlage des unteren Bildes eigentlich ausgesehen bzw. wie müßten sie theoretisch aussehen?

Das Ergebnis des RAW Shooter Essentials sieht mir recht gut aus (wenn die waagrechte Linie 1 Pixel hoch ist), obwohl mir da die Halos auffallen.
Wird da bereits stark nachgeschärft (sieht für mich irgendwie danach aus)?

Stuessi
04.01.2008, 10:46
Danke Stuessi, ich habe gerade überlegt, wie ich RAW-Dateien mittels Hex-Editor manipulieren muß, um die Arbeitsweise von RAW-Konvertern bzw. deren Bildauswirkung zu kontrollieren.
Du bist mir hiermit zuvorgekommen. Wie immer von Dir ein echt profimäßiger Test :top:

Würdest Du damit meine wirre Theorie bestätigt sehen, daß ein Bayer-Sensor keine Strukturen unterhalb 1 Linie pro 2 Sensor-Pixel auflösen kann?
Welches Objektiv mit welcher Kamera hast Du genommen?

Wie hat die Vorlage des unteren Bildes eigentlich ausgesehen bzw. wie müßten sie theoretisch aussehen?

Das Ergebnis des RAW Shooter Essentials sieht mir recht gut aus (wenn die waagrechte Linie 1 Pixel hoch ist), obwohl mir da die Halos auffallen.
Wird da bereits stark nachgeschärft (sieht für mich irgendwie danach aus)?

Hallo Tom,

Kamera war die 7D. Der Sensor der 7D hat 3008 Pixel auf 23,5mm, also 128 Pixel/mm, d.h. er müsste 64 Linienpaare/mm darstellen.
Da aber jedes Pixel nur für eine Farbe aus (R,G,B) empfindlich ist, veringert sich dieser Wert.
Wie sieht das nun in der Praxis aus?
Dazu habe ich einen Maßstab mit 1/100mm-Abständen so fotografiert, dass 100 Teilstriche auf mindestens 200 Pixel fallen.
Balgen mit Componon 50mm/2,8 abgeblendet auf 5,6
Beleuchtung: Blitz
Scharfstellung mit 2-fach vergrößerndem Winkelsucher
Zunächst ein Blick auf den Maßstab mit einem 10x Mikroskopobjektiv am Balgen und die so fotografierte Skala dann mit EBV von 1558 Pixel auf 200 Pixel verkleinert.
http://www.sonyuserforum.de/galerie/data/thumbnails/6/200P-Ausschnitt.jpg (http://www.sonyuserforum.de/galerie/details.php?image_id=32483) http://www.sonyuserforum.de/galerie/data/thumbnails/6/200Paus1558P.jpg (http://www.sonyuserforum.de/galerie/details.php?image_id=32484)
Man erkennt deutlich noch die 100 Linien.
Anders sieht es aus in der Praxis infolge des Bayer-Sensors.
Das Auflösungsvermögen verringert sich von 64 Lp/mm auf ca. 50 Lp/mm, bei in der Kamera erzeugten jpg-Bildern sogar auf ca. 43 Lp/mm.
Bei geringerem Kontrast, schlechtem Objektiv und fehlerhaftem Autofocus wird das Auflösungsvermögen noch geringer!

Die RAW-Datei habe ich mit einem Hex-Editor so geändert, dass von Zeile zu Zeile kurze, einander "berührende Kratzer" entstehen. Ich habe die 12-Bit Werte einfach auf Null gesetzt. Die erste "Lücke" ist demnach 1 Pixel groß. RSE habe ich ohne Korrekturen eingesetzt.

Gruß
Stuessi

Tom
04.01.2008, 13:42
Würdest Du damit meine wirre Theorie bestätigt sehen, daß ein Bayer-Sensor keine Strukturen unterhalb 1 Linie pro 2 Sensor-Pixel auflösen kann?

Mein Fehler, ich gebe es zu...:oops:
Habe Linien und Linienpaare durcheinandergebracht.

Die noch erkennbare Aufflösung bei Deinem Test beträgt etwa 100LP/237Pixel = 100LP/1,85mm = 54 LP/mm (= 0,84 aufgelöste (Einzel-)Linien / Sensorpixel).
Das kommt den theoretisch maximal 64 LP/mm schon erstaunlich nahe, hätte ich nie gedacht!

Wobei sich aber noch die Frage nach der Definition der Grenzauflösung stellt.
In der Elektrotechnik gibt es die Definition der obere Grenzfrequenz (was hier analog einer oberen Ortsfrequenz entspräche).
Die obere Grenzfrequenz ist dort erreicht, wo der Abfall der Amplitude 3db erreicht (70,7% des Ursprungswertes).
Bin mir nicht ganz sicher, ob das hier 1:1 auf die ausgelesenen Pixelwerte übertragbar wäre.
Was meinst Du dazu?

Die RAW-Datei habe ich mit einem Hex-Editor so geändert, dass von Zeile zu Zeile kurze, einander "berührende Kratzer" entstehen. Ich habe die 12-Bit Werte einfach auf Null gesetzt. Die erste "Lücke" ist demnach 1 Bit groß.
Das habe ich leider nicht verstanden...

Stuessi
04.01.2008, 17:49
Wobei sich aber noch die Frage nach der Definition der Grenzauflösung stellt.
In der Elektrotechnik gibt es die Definition der obere Grenzfrequenz (was hier analog einer oberen Ortsfrequenz entspräche).
Die obere Grenzfrequenz ist dort erreicht, wo der Abfall der Amplitude 3db erreicht (70,7% des Ursprungswertes).
Bin mir nicht ganz sicher, ob das hier 1:1 auf die ausgelesenen Pixelwerte übertragbar wäre.
Was meinst Du dazu?

Hallo Tom,
eine Übertragung 1:1 ist sicher falsch, denn ich habe die maximale Auflösung "gefühlsmäßig" bestimmt. Deshalb runde ich auch meist nach unten ab (ca. 50 Lp/mm statt 54 Lp/mm).
Bei der Angabe zu den Kratzern ist mir ein Fehler unterlaufen. Es muss Pixel und nicht Bit heißen.
Die Pixelwerte sind im RAW-File Zeile für Zeile mit 12Bit Datengröße gespeichert, 3 Byte für 2 Pixel. Die Pixelfolge wechselt von Zeile zu Zeile: aus R-G-R-G-R-G.. wird in der nächsten Zeile G-B-G-B-G-B... und umgekehrt. Ich habe in einem RAW-File dann von Zeile zu Zeile einander überlappende Nullfolgen geschrieben, die im Bild als horizontale Kratzer sichtbar sind.
Gruß,
Stuessi

Tom
04.01.2008, 18:51
...eine Übertragung 1:1 ist sicher falsch, denn ich habe die maximale Auflösung "gefühlsmäßig" bestimmt. Deshalb runde ich auch meist nach unten ab (ca. 50 Lp/mm statt 54 Lp/mm).
Daß Du die Bewertung rein optisch nach Gefühl gemacht hast ist mir klar, das habe ich bei der Bewertung Deiner Bilder ja genauso getan, und bin zum gleichen Ergebnis gekommen.
Ich meinte auch gar nicht Deine Testauswertung, sondern ob es nicht grundsätzlich sinnvoll wäre, so etwas wie eine Definition einer "Grenzauflösung" a la Grenzfrequenz anzuwenden (ich weiß nicht ob du mit dem Begriff Grenzfrequenz etwas anfangen kannst, nötigenfalls erläutere ich das noch näher).

Ich bin mir fast sicher, wenn Du noch einen Test zwischen 217 und 237 gemacht hättest, wäre auch da noch eine Zeichnung zu erkennen gewesen.
Hier einen genauen Grenzwert "nach Gefühl" zu finden ist sehr schwierig, wenn nicht sogar unmöglich.
Mit einer Definition wie oben erwähnt, wären die Kriterien aber eindeutig.

Die Pixelwerte sind im RAW-File Zeile für Zeile mit 12Bit Datengröße gespeichert, 3 Byte für 2 Pixel. Die Pixelfolge wechselt von Zeile zu Zeile: aus R-G-R-G-R-G.. wird in der nächsten Zeile G-B-G-B-G-B... und umgekehrt. Ich habe in einem RAW-File dann von Zeile zu Zeile einander überlappende Nullfolgen geschrieben, die im Bild als horizontale Kratzer sichtbar sind.

Ich beschreibe mal, was ich auf dem 2. Testbild sehe, von oben nach unten:
1. mehrere Zeilen hellgrau
2. eine Zeile weiß
3. eine Zeile schwarz
4. darunter in mehreren Zeilen eine schwarze treppenförmig schräg nach unten verlaufend, umhüllt von einer ein Pixel breiten weißen Linie
5. eine weiße Zeile
6. mehrere Zeilen schwarz
7. eine Abstufung (ich vermute irgendwelche Reste vom Ausgangsbild).

Hast Du die grauen Bereiche erzeugt, oder sind das Reste vom Ursprungsbild?
Die weißen Ränder sind Artefakte (Lichthof, "Halo"; je nach RAW Konverter verscheiden ausgeprägt) und nicht von Dir erzeugt worden?
Die komplett schwarzen Zeilen hast Du erzeugt.
Die schwarze Treppe hast Du erzeugt (meintest Du das mit "überlappend")?

Sag mir bitte, ob ich das richtig interpretiert habe...

Stuessi
05.01.2008, 00:35
Hallo Tom,
nach langem Suchen habe ich das Ausgangsbild gefunden.
http://www.sonyuserforum.de/galerie/data/thumbnails/6/RAW-acdSee-g.jpg (http://www.sonyuserforum.de/galerie/details.php?image_id=48374)
Ein 200% Ausschnitt mit ACDSee erzeugt sieht so aus:
http://www.sonyuserforum.de/galerie/data/thumbnails/6/RAW-acdSee-a-g200.jpg (http://www.sonyuserforum.de/galerie/details.php?image_id=48375)
Die schwarzen Zeilen und die Treppe habe ich erzeugt. Die weißen oder bunten Ränder stammen vom jeweiligen RAW-Konverter.
Gruß,
Stuessi

Tom
05.01.2008, 14:04
Danke, werde mal versuchen das selbst nachzuvollziehen und entsprechende Erkenntnisse daraus zu ziehen.
Wenn was grundlegend Neues dabei rauskommen sollte, werde ich es dem Forum nicht vorenthalten. ;)