![]() |
|
|
![]() |
|||||||||||||
![]() |
||||||||||||||||
|
|
![]() |
#1 |
Registriert seit: 24.08.2008
Beiträge: 7.434
|
Ich denke, der Knackpunkt liegt hier daran, dass das Bild auf gleiche Ausgabegröße vergrößert wird.
Die absolute Schärfe gibt es ja nur exakt auf der Fokusebene. Der Schärfebereich resultiert daraus, dass für das Auge auch Bildpunkte bis zu einer gewissen Größe noch scharf erscheinen. Der Wert dazu ist der maximale Zerstreuungskreisdurchmesser Z. Wenn du mal den Wikipedia-Artikel zum Zerstreuungskreis liest, dann gilt für jede Sensorgröße ein anderer Z-Wert. Das heißt also die Größe eines Bildpunkts, wenn er noch als scharf empfunden wird. In der von dir beschriebenen Situation - du druckst ein KB-Foto aus und schneidest dann drumherum den Bereich weg, der nicht zu APS-C gehört - müsste der Z-Wert exakt gleich sein. Der DOF-Rechner zeigt jedoch für APS-C einen kleineren "circle of confusion" an. Das ergibt sich daraus, dass du dein ausgeschnittenes APS-C-Foto nun auf die gleiche Ausgabegröße vergrößerst. Damit vergrößerst du auch die schon leicht unscharfen Bildpunkte. Du schaust quasi mit einer Lupe auf dein KB-Foto und vergrößerst damit das Auflösevermögen des Auges. Somit werden Bildpunkte, die dir noch scharf erschienen, plötzlich schon leicht unscharf. Der scharfe Bereich verkleinert sich also scheinbar. |
![]() |
![]() |
Sponsored Links | |
|
![]() |
#2 |
Registriert seit: 17.12.2007
Ort: Rhein-Main
Beiträge: 22.111
|
Genau: In dem link wird der 'Circle of confusion' unterschiedlich angenommen, was natürlich zu nicht direkt vergleichbaren theoretischen Ergebnissen führt.
Edit: Ich habe eben mal im 'advanced Modus' den 'Circle of confusion' auf den gleichen Wert eingestellt. Dann gibt es auch das identische Ergebnis in der Schärfentiefe für APS-C und KB (A6600 und A7RV).
__________________
- Video/Timelapse: Harz im März - Nachthimmel Wasserkuppe - Sächsische Schweiz im November - Polarlicht Wasserkuppe - Tromsø im Winter - Schottische Highlands im Herbst Reiseberichte: La Palma - Grönland im Herbst - Polarlichttour Norwegen im November - Vietnam - Nord-Norwegen im Winter Geändert von aidualk (01.11.2023 um 13:41 Uhr) |
![]() |
![]() |
![]() |
#3 |
Themenersteller
Registriert seit: 02.04.2019
Ort: Lübeck
Beiträge: 1.193
|
Also ist es eine Einstellungssache auf DOF? Mein Verständnis an sich ("50mm/f1.4 bleiben 50mm/f1.4") ist also richtig? O.k., ich hab es noch nicht ganz durchdrungen, aber ich werd mir das noch mal im Detail ansehen.
Danke für die Rückmeldung ![]()
__________________
"Die ersten 10.000 Bilder sind die schlechtesten" - wahlweise Henri-Cartier Bresson, Jackson Pollock oder Helmut Newton zugeschrieben |
![]() |
![]() |
![]() |
#4 | |||||||||||||||||||||||||||||
Themenersteller
Registriert seit: 02.04.2019
Ort: Lübeck
Beiträge: 1.193
|
Also, ich hab mir jetzt einige Videos angesehen sowie Artikel und Erklärungen durchgesehen. Also:
Jetzt mal zu dem, wie es ich für mich darstellt - und ich bitte ausdrücklich darum, mich zu korrigieren, wenn ich etwas falsch verstanden habe! Ich bin mir meiner Fehlöbarkeit bewusst. Die Theorie des Zerstreuungskreises Grundsätzlich hab ich verstanden, dass es beim Begriff des Zerstreuungskreises - auch - um die Auflösefähigkeiten des Auges geht und um die Frage, wann ein "auf dem Sensor abgebildeter Punkt", der eigentlich nicht mehr auf der Schärfeebene liegt (also eigentlich schon "unscharf" ist), dennoch vom menschlichen Auge als scharf wahrgenommen wird. Da dies auch vom (gedachten) Abstand des Auges vom Sensor abhängig ist (je weiter man weg ist, desto eher wird ein eigentlich unscharfer Punkt als scharf wahrgenommen), hat man sich dafür auf einen "standartisierten, aber dennoch variablen Abstand" geeinigt, indem man sagt, dass die Diagonale des Sensors gleich des Betrachtungsabstandes ist. Damit ergibt sich nämlich unabhängig von der Sensorgröße immer ein Betrachtungswinkel von grob 53°. Die Auflösefähigkeit des Auges wiederum beträgt 2 "Bogenminuten" bzw. "Winkelminuten" (so das, was ich gelesen habe), also etwa (1/30)°. Wenn man die 53° durch die (1/30)° teile, komme ich grob auf die Zahl von 1.500. Teile ich nun die tatsächliche Diagonale des Sensors durch besagte 1.500, komme ich auf den jeweiligen Zerstreuungskreis. Bei einer a6600 (also APS-C) ist dies etwa 0,0189 mm, bei einer a7RIV (also Vollformat) ist das 0,0289 mm. Oder mal mit Zahlen:
Bei Wikipedia liest sich das so: Zitat:
Genau mit der Formulierung "bei einem üblichen Betrachtungsabstand" fangen jetzt meine Verständnisprobleme an, denn das ist letztendlich ein variabler Wert, der sich abhängig von der Sensorgröße verändert. Nach dieser Definition wird für die Berechnung des Zerstreuungskreises bei APS-C und Vollformat ein unterschiedlicher Betrachtungsabstand genommen. Das Auflagemaß der Kameras aber ist immer gleichbleibend, egal welcher Sensor verbaut ist (bei Sony beträgt der Abstand immer 18 mm). Und damit dürfte sich auch nicht der Strahlengang verändern, der letztendlich ja für die Schärfe und Unschärfe der Abbildung verantwortlich ist. Wenn ich an einer a7R IV und einer a6600 ein identisches Objektiv verwende, ist folglich auch der Strahlengang identisch und es wird "in der Kamera" (also unabhängig vom Sensor) theoretisch die gleiche Fläche "ausgeleuchtet" (Fläche, nicht Sensor) - und das auf identische Art und Weise. Das, was hinten aus dem Objektiv aus der Austrittspupille herauskommt, ist immer gleich, und da unabhängig von der Größe des Sensors auch der Abstand zwischen Austrittspupille und Sensor gleich ist, kann sich ja nicht plötzlich der Strahlengang ändern. Der einzige Unterschied ist genau genommen doch nur, dass bei APS-C die Fläche, die "elektronsich gemessen wird", kleiner ist. Die Strahlen, die aus dem Vollformatobjektiv herauskommen und links, rechts bzw. ober- und unterhalb des Sensors auftreffen, verpuffen irgendwo ungenutzt. Insgesamt leuchtet das Objektiv immer die gleiche Fläche aus, der Sensor entscheidet nur, welcher Bereich davon "elektronisch gemessen" wird. Das würde dann aber nach meinem (vielleicht falschen?) Verständnis bedeuten, dass vollkommen identische Bilder entstehen müssten, wenn ich mit der a6600 und der a7R IV im APS-C-Modus fotografiere, denn bei der a7R IV und der a6600 ist ja auch die Größe der Pixel ja quasi identisch:
Schalte ich jetzt die a7R IV wieder in den Vollformat-Modus, dürfte sich nun eigentlich nichts ändern - mit der Ausnahme, dass ich jetzt auch "den Rand" zusätzlich noch mit aufnehme. Der Strahlengang selbst ist nach wie vor unverändert, denn
Wenn aber sowohl A und B als auch B und C identisch sind, dann müssen nach den Regeln der Logik auch A und C identisch sein. Heißt: mit einem identischen Objektiv haben Vollformat- und APS-C-Kameras bei gleicher Blendenöffnung und gleicher Fokusentfernung auch die gleiche Schärfentiefe. Ein Fehler auf DOFSimulator.net? Ich glaube, dass es ist ein Darstellungsproblem beim DOF-Simulator. Hier noch mal die Zahlen von dort zum Vergleich:
**) gemessen jeweils vor und hinter dem Schärfepunkt Wie gesagt, dass sind die rechnerischen Zahlen des DOF-Simulators auf Basis des Zerstreuungskreises. Wir sehen, dass danach eine APS-C-Kamera bei gleicher Blendenöffnung und gleicher Fokusentfernung rechnerisch eine geringere Schärfentiefe liefert als eine Vollformatkamera. Das bekomm ich so jedoch nicht mit meiner Logik überein - was entweder an DOF oder an meiner Logik liegt. Ergebnis für mich Ich verstehe dank Eures Hinweises auf den Zerstreuungskreis, wie DOF zu den Zahlen kommt. Ihr habt mir damit wirklich SEHR geholfen!!! ![]() ![]() ![]() ![]() ![]() Aber ich hab dank Euch wieder etwas gelernt!!!!! ![]() ![]() ![]() ![]() ![]() ![]()
__________________
"Die ersten 10.000 Bilder sind die schlechtesten" - wahlweise Henri-Cartier Bresson, Jackson Pollock oder Helmut Newton zugeschrieben Geändert von DerGoettinger (03.11.2023 um 13:18 Uhr) |
|||||||||||||||||||||||||||||
![]() |
![]() |
![]() |
#5 |
Themenersteller
Registriert seit: 02.04.2019
Ort: Lübeck
Beiträge: 1.193
|
[Abwegige Idee gelöscht]
__________________
"Die ersten 10.000 Bilder sind die schlechtesten" - wahlweise Henri-Cartier Bresson, Jackson Pollock oder Helmut Newton zugeschrieben Geändert von DerGoettinger (03.11.2023 um 13:53 Uhr) |
![]() |
![]() |
Sponsored Links | |
|
![]() |
#6 |
Registriert seit: 10.12.2010
Ort: In Sichtweite der Burg Teck
Beiträge: 2.796
|
Hallo,
der "übliche Betrachtungsabstand" bezieht sich nach meine Verständnis auf das wiedergegebene Bild bei Betrachtung des gesamten Bildes bei einem Abstand, bei dem ich das gesamte Bild überblicken kann und nicht beim Pixelpeepen. Ich hänge mal eine Screenshot von cBlur, dem von mir in der Regel verwendten Schärfentieferechners an. Da habe ich als Kamera 1 einen KB Sensor mit 50mpx und als Kamera 2 eine APS-C Kamera mit 21mpx eingestellt, also in etwa dieselbe Pixelgröße. Sonst ist alles unverädnert, also Motivabstand 1,5m Abstand, Blende 1.4. Dann bildet die ASP-C Kamera einen Auschnitt des KB-Bildes ab. Es decken sich die Kurven nahezu, d.h. für mich wenn ich das Bild der KB-Kamera auf den Auschnitt der APS-C Kamera croppe ist der Unschärfeverlauf beider Bilder nahezu identisch bei beiden bei gleichem Betrachtungsabstand. Drucke ich aber das gesamte KB-Bild in gleicher Druckauflösung aus, werde ich bei der Bildbetrachtung einen größeren Betrachtungsabstand einnehmen und Bildteile, die ich vorher schon als unscharf wahrgenommen habe wirken jetzt auf mich scharf, weil mein Auge das nicht mehr auflöst. ![]() → Bild in der Galerie |
![]() |
![]() |
![]() |
#7 |
Themenersteller
Registriert seit: 02.04.2019
Ort: Lübeck
Beiträge: 1.193
|
O.k., danke, das war das, was mir "gefehlt" hat. Jetzt hab ich es verstanden.
Grundsätzlich kommt es auf dem Sensor identisch an, aber wenn ich das VF-Bild und das APS-C-Bild z.B. auf DIN A4 ausdrucke und ich mir beide Bilder dann aus gleicher Entfernung ansehe, wirkt es so, als hätte das VF-Bild eine größere Schärfentiefe. Gemessen an der Größe der Darstellung (DIN A4) sind die "Punkte" (Pixel auf dem Sensor) kleiner, weil es einfach mehr sind (in Deinem Beispiel 50 MP im Vergleich zu 21 MP) und damit kommt man eher an die Auflösungsgrenze der menschlichen Augen heran (ich hoffe, man versteht das noch... ![]() Drucke ich hingegen das VF-Bild auf DIN A3 (also doppelt so groß) und berachte beide Bilder wieder aus gleicher Entfernung, dann ist der Eindruck eher, dass die Schärfentiefe identisch ist. Ganz passt es nicht, da VF ist etwas mehr als doppelt so groß wie APS-C, aber näherungsweise kommt es glaub ich hin. Wenn ich jetzt mit der Schere aus dem DIN A3-Bild aus der Mitte ein Bild in DIN A4-Größe ausschneide und dann diese beiden DIN A4-Bilder betrachte, wirkt die Schärfentiefe der beiden Bilder wieder identisch, obwohl sie mit unterschiedlichen Sensoren aufgenommen wurde. ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]()
__________________
"Die ersten 10.000 Bilder sind die schlechtesten" - wahlweise Henri-Cartier Bresson, Jackson Pollock oder Helmut Newton zugeschrieben |
![]() |
![]() |
![]()
|
|
|