![]() |
|
|
![]() |
|||||||||||||
![]() |
||||||||||||||||
|
![]() |
#5 | |||||||||||||||||||||||||||||
Themenersteller
Registriert seit: 02.04.2019
Ort: Lübeck
Beiträge: 1.198
|
Also, ich hab mir jetzt einige Videos angesehen sowie Artikel und Erklärungen durchgesehen. Also:
Jetzt mal zu dem, wie es ich für mich darstellt - und ich bitte ausdrücklich darum, mich zu korrigieren, wenn ich etwas falsch verstanden habe! Ich bin mir meiner Fehlöbarkeit bewusst. Die Theorie des Zerstreuungskreises Grundsätzlich hab ich verstanden, dass es beim Begriff des Zerstreuungskreises - auch - um die Auflösefähigkeiten des Auges geht und um die Frage, wann ein "auf dem Sensor abgebildeter Punkt", der eigentlich nicht mehr auf der Schärfeebene liegt (also eigentlich schon "unscharf" ist), dennoch vom menschlichen Auge als scharf wahrgenommen wird. Da dies auch vom (gedachten) Abstand des Auges vom Sensor abhängig ist (je weiter man weg ist, desto eher wird ein eigentlich unscharfer Punkt als scharf wahrgenommen), hat man sich dafür auf einen "standartisierten, aber dennoch variablen Abstand" geeinigt, indem man sagt, dass die Diagonale des Sensors gleich des Betrachtungsabstandes ist. Damit ergibt sich nämlich unabhängig von der Sensorgröße immer ein Betrachtungswinkel von grob 53°. Die Auflösefähigkeit des Auges wiederum beträgt 2 "Bogenminuten" bzw. "Winkelminuten" (so das, was ich gelesen habe), also etwa (1/30)°. Wenn man die 53° durch die (1/30)° teile, komme ich grob auf die Zahl von 1.500. Teile ich nun die tatsächliche Diagonale des Sensors durch besagte 1.500, komme ich auf den jeweiligen Zerstreuungskreis. Bei einer a6600 (also APS-C) ist dies etwa 0,0189 mm, bei einer a7RIV (also Vollformat) ist das 0,0289 mm. Oder mal mit Zahlen:
Bei Wikipedia liest sich das so: Zitat:
Genau mit der Formulierung "bei einem üblichen Betrachtungsabstand" fangen jetzt meine Verständnisprobleme an, denn das ist letztendlich ein variabler Wert, der sich abhängig von der Sensorgröße verändert. Nach dieser Definition wird für die Berechnung des Zerstreuungskreises bei APS-C und Vollformat ein unterschiedlicher Betrachtungsabstand genommen. Das Auflagemaß der Kameras aber ist immer gleichbleibend, egal welcher Sensor verbaut ist (bei Sony beträgt der Abstand immer 18 mm). Und damit dürfte sich auch nicht der Strahlengang verändern, der letztendlich ja für die Schärfe und Unschärfe der Abbildung verantwortlich ist. Wenn ich an einer a7R IV und einer a6600 ein identisches Objektiv verwende, ist folglich auch der Strahlengang identisch und es wird "in der Kamera" (also unabhängig vom Sensor) theoretisch die gleiche Fläche "ausgeleuchtet" (Fläche, nicht Sensor) - und das auf identische Art und Weise. Das, was hinten aus dem Objektiv aus der Austrittspupille herauskommt, ist immer gleich, und da unabhängig von der Größe des Sensors auch der Abstand zwischen Austrittspupille und Sensor gleich ist, kann sich ja nicht plötzlich der Strahlengang ändern. Der einzige Unterschied ist genau genommen doch nur, dass bei APS-C die Fläche, die "elektronsich gemessen wird", kleiner ist. Die Strahlen, die aus dem Vollformatobjektiv herauskommen und links, rechts bzw. ober- und unterhalb des Sensors auftreffen, verpuffen irgendwo ungenutzt. Insgesamt leuchtet das Objektiv immer die gleiche Fläche aus, der Sensor entscheidet nur, welcher Bereich davon "elektronisch gemessen" wird. Das würde dann aber nach meinem (vielleicht falschen?) Verständnis bedeuten, dass vollkommen identische Bilder entstehen müssten, wenn ich mit der a6600 und der a7R IV im APS-C-Modus fotografiere, denn bei der a7R IV und der a6600 ist ja auch die Größe der Pixel ja quasi identisch:
Schalte ich jetzt die a7R IV wieder in den Vollformat-Modus, dürfte sich nun eigentlich nichts ändern - mit der Ausnahme, dass ich jetzt auch "den Rand" zusätzlich noch mit aufnehme. Der Strahlengang selbst ist nach wie vor unverändert, denn
Wenn aber sowohl A und B als auch B und C identisch sind, dann müssen nach den Regeln der Logik auch A und C identisch sein. Heißt: mit einem identischen Objektiv haben Vollformat- und APS-C-Kameras bei gleicher Blendenöffnung und gleicher Fokusentfernung auch die gleiche Schärfentiefe. Ein Fehler auf DOFSimulator.net? Ich glaube, dass es ist ein Darstellungsproblem beim DOF-Simulator. Hier noch mal die Zahlen von dort zum Vergleich:
**) gemessen jeweils vor und hinter dem Schärfepunkt Wie gesagt, dass sind die rechnerischen Zahlen des DOF-Simulators auf Basis des Zerstreuungskreises. Wir sehen, dass danach eine APS-C-Kamera bei gleicher Blendenöffnung und gleicher Fokusentfernung rechnerisch eine geringere Schärfentiefe liefert als eine Vollformatkamera. Das bekomm ich so jedoch nicht mit meiner Logik überein - was entweder an DOF oder an meiner Logik liegt. Ergebnis für mich Ich verstehe dank Eures Hinweises auf den Zerstreuungskreis, wie DOF zu den Zahlen kommt. Ihr habt mir damit wirklich SEHR geholfen!!! ![]() ![]() ![]() ![]() ![]() Aber ich hab dank Euch wieder etwas gelernt!!!!! ![]() ![]() ![]() ![]() ![]() ![]()
__________________
"Die ersten 10.000 Bilder sind die schlechtesten" - wahlweise Henri-Cartier Bresson, Jackson Pollock oder Helmut Newton zugeschrieben Geändert von DerGoettinger (03.11.2023 um 13:18 Uhr) |
|||||||||||||||||||||||||||||
![]() |
![]() |
Sponsored Links | |
|
Themen-Optionen | |
Ansicht | |
|
|