Einzelnen Beitrag anzeigen
Alt 03.11.2023, 12:30   #4
DerGoettinger

Themenersteller
 
 
Registriert seit: 02.04.2019
Ort: Lübeck
Beiträge: 1.193
Also, ich hab mir jetzt einige Videos angesehen sowie Artikel und Erklärungen durchgesehen. Also:
  • Ich glaube verstanden zu haben, was mit Zerstreuungskreis gemeint ist (ich geb es gleich noch mal mit eigenen Worten wieder)
  • Ich glaube, dass das in diesem Fall nicht die richtige Antwort ist, weil nach der Definition des Zerstreuungskreises von einem "üblichen Betrachtungsabstand" ausgegangen wird, der jedoch abhängig ist von der Sensorgröße, während in der Praxis das Auflagemaße (und damit "der Strahlengang im System") immer gleich ist, und zwar unabhängig vom Sensor.
Ich hab noch nicht ganz durchblickt, warum DOF auf die bezeichneten Ergebnisse kommt, vermute aber, dass das letztendlich ein "Programmierfehler" ist.

Jetzt mal zu dem, wie es ich für mich darstellt - und ich bitte ausdrücklich darum, mich zu korrigieren, wenn ich etwas falsch verstanden habe! Ich bin mir meiner Fehlöbarkeit bewusst.

Die Theorie des Zerstreuungskreises

Grundsätzlich hab ich verstanden, dass es beim Begriff des Zerstreuungskreises - auch - um die Auflösefähigkeiten des Auges geht und um die Frage, wann ein "auf dem Sensor abgebildeter Punkt", der eigentlich nicht mehr auf der Schärfeebene liegt (also eigentlich schon "unscharf" ist), dennoch vom menschlichen Auge als scharf wahrgenommen wird. Da dies auch vom (gedachten) Abstand des Auges vom Sensor abhängig ist (je weiter man weg ist, desto eher wird ein eigentlich unscharfer Punkt als scharf wahrgenommen), hat man sich dafür auf einen "standartisierten, aber dennoch variablen Abstand" geeinigt, indem man sagt, dass die Diagonale des Sensors gleich des Betrachtungsabstandes ist. Damit ergibt sich nämlich unabhängig von der Sensorgröße immer ein Betrachtungswinkel von grob 53°. Die Auflösefähigkeit des Auges wiederum beträgt 2 "Bogenminuten" bzw. "Winkelminuten" (so das, was ich gelesen habe), also etwa (1/30)°. Wenn man die 53° durch die (1/30)° teile, komme ich grob auf die Zahl von 1.500. Teile ich nun die tatsächliche Diagonale des Sensors durch besagte 1.500, komme ich auf den jeweiligen Zerstreuungskreis. Bei einer a6600 (also APS-C) ist dies etwa 0,0189 mm, bei einer a7RIV (also Vollformat) ist das 0,0289 mm.

Oder mal mit Zahlen:
  • Die Diagonale eines Vollformatsensors beträgt etwa 43,3 mm (Satz des Pythagoras: Wurzel aus 36 mm² + 24 mm²)
  • Schaue ich aus einer Entfernung von 43,3 mm auf den Sensor, wird ein Punkt mit einem Durchmesser von 0,0289 mm vom Auge immer noch als scharf wahrgenommen, auch wenn er tatsächlich nicht auf der Schärfeebene liegt und insofern eigentlich physiaklisch gesehen schon unscharf ist.
  • Die Diagonale des APS-C-Sensor beträgt nur 28,4 mm, so dass sich für die Berechnungh des Zerstreuungskreises auch der Betrachtungsabstand auf 28,4 mm reduziert. Ich bin also (gedanklich) näher am Sensor und kann insofern auch kleinere Punkte erkennen - genauer gesagt Punkte bis zu einer Größe von nur 0,0189 mm. Der Zerstreuungskreis von APS-C ist also kleiner.
Ich hoffe, ich hab das mit meinen laienhaften Worten dennoch richtig wiedergegeben.

Bei Wikipedia liest sich das so:
Zitat:
Der für die Akzeptanz von Schärfe maximal tolerierbare Zerstreuungskreisdurchmesser für einen Fotoapparat wird mit Z bezeichnet, wobei sich die Größe von Z aus dem mittleren Auflösungsvermögen unseres Auges ergibt, welches in der Auflösungsgrenze im Idealfall bei ca. einer Winkelminute liegt und es uns ermöglicht, zwei Punkte als getrennt zu erkennen, wenn diese mindestens 2 Winkelminuten voneinander entfernt liegen. Betrachten wir ein Bild bei einem üblichen Betrachtungsabstand, so erscheint uns die Bilddiagonale unter einem Sehwinkel von ca. 50° bzw. 3000 Winkelminuten. Bei einer Unschärfe, die 2 Winkelminuten, also 1/1500 der Bilddiagonalen übersteigt, werden wir eine Unschärfe also gerade zu erkennen beginnen. Da ein fertiges Bild in der Regel eine Vergrößerung des im Moment der Aufnahme am Sensor bzw. in der Filmebene entstandenen Bildes ist, wird der zulässige Zerstreuungskreisdurchmesser Z mit 1/1500 der Film- oder Sensordiagonalen des Fotoapparates beziffert [...]
Die Praxis(?)

Genau mit der Formulierung "bei einem üblichen Betrachtungsabstand" fangen jetzt meine Verständnisprobleme an, denn das ist letztendlich ein variabler Wert, der sich abhängig von der Sensorgröße verändert. Nach dieser Definition wird für die Berechnung des Zerstreuungskreises bei APS-C und Vollformat ein unterschiedlicher Betrachtungsabstand genommen. Das Auflagemaß der Kameras aber ist immer gleichbleibend, egal welcher Sensor verbaut ist (bei Sony beträgt der Abstand immer 18 mm). Und damit dürfte sich auch nicht der Strahlengang verändern, der letztendlich ja für die Schärfe und Unschärfe der Abbildung verantwortlich ist.

Wenn ich an einer a7R IV und einer a6600 ein identisches Objektiv verwende, ist folglich auch der Strahlengang identisch und es wird "in der Kamera" (also unabhängig vom Sensor) theoretisch die gleiche Fläche "ausgeleuchtet" (Fläche, nicht Sensor) - und das auf identische Art und Weise. Das, was hinten aus dem Objektiv aus der Austrittspupille herauskommt, ist immer gleich, und da unabhängig von der Größe des Sensors auch der Abstand zwischen Austrittspupille und Sensor gleich ist, kann sich ja nicht plötzlich der Strahlengang ändern. Der einzige Unterschied ist genau genommen doch nur, dass bei APS-C die Fläche, die "elektronsich gemessen wird", kleiner ist. Die Strahlen, die aus dem Vollformatobjektiv herauskommen und links, rechts bzw. ober- und unterhalb des Sensors auftreffen, verpuffen irgendwo ungenutzt. Insgesamt leuchtet das Objektiv immer die gleiche Fläche aus, der Sensor entscheidet nur, welcher Bereich davon "elektronisch gemessen" wird.

Das würde dann aber nach meinem (vielleicht falschen?) Verständnis bedeuten, dass vollkommen identische Bilder entstehen müssten, wenn ich mit der a6600 und der a7R IV im APS-C-Modus fotografiere, denn bei der a7R IV und der a6600 ist ja auch die Größe der Pixel ja quasi identisch:
  • Der Strahlengang im Obektiv ist identisch
  • Der Strahlengang zwischen Objektiv und Sensor ist identisch
  • Die Strahlen treffen auf eine (etwa) identische Zahl von Pixeln.
  • Alles, was links, rechts bzw. ober- und unterhalb dieser Fläche auftrifft, verpufft ungenutzt, weil sich dort entweder gar kein Sensor befindet oder die entsprechenden Pixel "deaktiviert" sind.
Nach meiner Logik (bitte korrigieren, wenn ich einen Logikfehler hab) müsste ich also an einer a7R IV im APS-C-Modus und einer a6600 eine identische Schärfentiefe haben. "Konstellation A" (a6600) und "Konstellation B" (a7R IV im APS-C-Modus) sind also hinsichtlich der Schärfentiefe identisch.

Schalte ich jetzt die a7R IV wieder in den Vollformat-Modus, dürfte sich nun eigentlich nichts ändern - mit der Ausnahme, dass ich jetzt auch "den Rand" zusätzlich noch mit aufnehme. Der Strahlengang selbst ist nach wie vor unverändert, denn
  • ein Punkt wird nur deshalb als "unscharf" wahrgenommen, weil er auf der Sensorebene unscharf abgebildet wird.
  • Hinsichtlich des Strahlenganges wird er "irgendwo" sehr wohl scharf abgebildet, aber eben nicht auf der Sensorebene, sondern irgendwo davor oder dahinter.
  • Das bleibt auch unverändert, wenn ich einen anderen Sensor verwende, da sich der Strahlengang bei Änderung des Sensors eben nicht ändert.
Nehme ich also bei ansonsten identischen Einstellungen jetzt ein Bild im Vollformat-Modus auf (Konstellation C), müsste es mit Blick auf die Schärfentiefe immer noch unversändert sein. "Konstellation B" (a7R IV im APS-C-Modus) und "Konstellation C" (a7R IV im Vollformat-Modus) sind also hinsichtlich der Schärfentiefe identisch.

Wenn aber sowohl A und B als auch B und C identisch sind, dann müssen nach den Regeln der Logik auch A und C identisch sein. Heißt: mit einem identischen Objektiv haben Vollformat- und APS-C-Kameras bei gleicher Blendenöffnung und gleicher Fokusentfernung auch die gleiche Schärfentiefe.

Ein Fehler auf DOFSimulator.net?

Ich glaube, dass es ist ein Darstellungsproblem beim DOF-Simulator. Hier noch mal die Zahlen von dort zum Vergleich:

Kamera *)a7R IVa7R IV im APS-C-Modusa6600
Linkhierhierhier
Zerstreuungskreis0,0289 mm0,0289 mm0,0189 mm
Objektiv50 mm50 mm50 mm
Blendef1.4f1.4f1.4
Fokus-Entfernung150 cm150 cm150 cm
Schärfentiefe **)3,4 cm & 3,6 cm3,4 cm & 3,6 cm2,3 cm & 2,3 cm
*) jeweils mit dem Sensor entsprechenden Zerstreuungskreis
**) gemessen jeweils vor und hinter dem Schärfepunkt

Wie gesagt, dass sind die rechnerischen Zahlen des DOF-Simulators auf Basis des Zerstreuungskreises. Wir sehen, dass danach eine APS-C-Kamera bei gleicher Blendenöffnung und gleicher Fokusentfernung rechnerisch eine geringere Schärfentiefe liefert als eine Vollformatkamera. Das bekomm ich so jedoch nicht mit meiner Logik überein - was entweder an DOF oder an meiner Logik liegt.

Ergebnis für mich

Ich verstehe dank Eures Hinweises auf den Zerstreuungskreis, wie DOF zu den Zahlen kommt. Ihr habt mir damit wirklich SEHR geholfen!!! Ich bekomme die Zahlen noch nicht mit meiner eigenen Logik zusammen und würde das aktuell eher als "Berechnungsproblem auf DOF" sehen, will aber nicht ausschließen, dass ich logisch mal wieder falsch gedacht hab

Aber ich hab dank Euch wieder etwas gelernt!!!!!
__________________
"Die ersten 10.000 Bilder sind die schlechtesten" - wahlweise Henri-Cartier Bresson, Jackson Pollock oder Helmut Newton zugeschrieben

Geändert von DerGoettinger (03.11.2023 um 13:18 Uhr)
DerGoettinger ist offline   Mit Zitat antworten