SonyUserforum

SonyUserforum (https://www.sonyuserforum.de/forum/index.php)
-   Die Glaskugel (https://www.sonyuserforum.de/forum/forumdisplay.php?f=104)
-   -   Teuerstes Sony-Zeiss-Objektiv aller Zeiten? (https://www.sonyuserforum.de/forum/showthread.php?t=191877)

Kurt Weinmeister 08.08.2019 21:45

Vielen Dank für eure Ausdauer und Geduld!
Ich denke, ich verstehe jetzt meinen Denkfehler, der damit zu tun hat, dass ich das analoge Signal eines Objektivs linear unendlich angenommen habe.
Der Klick kam bei mir durch den letzten Post von Toni. Der Hinweis auf die Beugungsscheibchen in Kombination mit einem Rechenbeispiel war für mich ausschlaggebend.
Erst als ich mir ein Objektiv vorgestellt habe, dass nur einen Punkt (mit der Größe 1/unendlich) liefert, fiel der Groschen.

Wie gesagt, vielen Dank Thomas und Toni. Es war eine schwere Geburt!

*thomasD* 08.08.2019 21:53

:top: Hat sich gelohnt

TONI_B 09.08.2019 07:41

Ok, mancher hat es verstanden, mancher nicht:

Zitat:

Zitat von Smurf (Beitrag 2080745)
Der Sensor wird als ganzes bewegt und schaut durch die selbe Scherbe wie vorher. Wo soll da der enorm gestiegene Bedarf an Auflösung herkommen wenn alles gleich bleibt.

Wie du sagst:"Scherbe"! Wenn diese Scherbe Beugungsscheibchen liefert, die größer sind als die Verschiebung des Sensors beim Shiften, bekommst du 2x ein identes Bild und daher keine zusätzlich Information für 240MP. Die Auflösung der Optik muss also die 240MP bedienen können.

Hab schnell ein Bild "zusammengeschustert":

Bild in der Galerie

Wenn man jetzt die (roten) Pixel um eine halbe Pixelbreite verschiebt, ergibt sich keine Änderung im Bild. Sind die Beugungsscheibchen klein genug, so rentiert sich das Shiften.

aidualk 09.08.2019 08:52

Ich habe das inzwischen auch verstanden - auch als Nicht-Physiker. - danke :top:

*thomasD* 09.08.2019 09:12

Da macht sich die didaktische Erfahrung von Toni bezahlt - er bringt es halt besser auf den Punkt :top:

TONI_B 09.08.2019 09:35

Danke! :oops:

kk7 09.08.2019 16:43

Der Sensor kann aber nicht mit jedem Pixel die gleiche Farbe erfassen. Und Glasfehler,,, dürften auch noch einen Einfluss haben. D.h. Jede Verschiebung verändert mehrere Variablen. Wenn das Glas 65MP abbilden kann, wie sieht es dann aus? Und mit welchem Algorithmus werden die Pixel miteinander verrechnet - hat das auch noch einen Einfluss? Fragen über Fragen ...

GerdS 09.08.2019 17:44

Also für mich ist - und war - das schon immer klar.

Aber vielleicht müssen wir die komplexe Optik mit der Strahlentheorie, der Sensorgeometrie und den Silizium-Atomstrukturen betrachten.
Denn erst dann ist klar, dass es komplett egal ist für die Masse der Bilder im Internet.

Viele Grüße
Gerd

*thomasD* 09.08.2019 17:56

Zitat:

Zitat von kk7 (Beitrag 2080888)
Der Sensor kann aber nicht mit jedem Pixel die gleiche Farbe erfassen. Und Glasfehler,,, dürften auch noch einen Einfluss haben. D.h. Jede Verschiebung verändert mehrere Variablen. Wenn das Glas 65MP abbilden kann, wie sieht es dann aus? Und mit welchem Algorithmus werden die Pixel miteinander verrechnet - hat das auch noch einen Einfluss? Fragen über Fragen ...

Jede Position wird mit allen vier Farben aufgenommen - daher der Sensor um je ein Pixel verschoben. Das ganze dann zusätzlich um ein halbes Pixel verschoben um die zusätzliche Auflösung zu erhalten --> Daher 4x4=16 Aufnahmen

Fehler des Objektives werden natürlich deutlicher sichtbar. Mit einem schlechten Objektiv bringt der Sensorshift nichts. Daher habe ich ja geschreiben: Das ist die ultimative Objektiv-Test-Kamera.
Die Verrechnung stelle ich mir gar nicht so kompliziert vor bei einer Verschiebeung von genau einem halben Pixel.

Jan 09.08.2019 21:30

Wer mehr wissen will kan auch nach pixel shift suchen, das gibt es schon länger und immer noch (z.B. bei Olympus und Hasselblad), bei Olympus angeblich so schnell, dass es sogar ohne Stativ funktionieren soll.
LG Jan


Alle Zeitangaben in WEZ +2. Es ist jetzt 19:44 Uhr.