SonyUserforum
Amazon
Forum für die Fotosysteme von Sony und KonicaMinolta
  SonyUserforum - Forum für die Fotosysteme
von Sony und KonicaMinolta
 
Registrieren Galerie Objektiv-Datenbank Kalender Forenregeln Alle Foren als gelesen markieren

Startseite » Forenübersicht » Treffpunkt » Die Glaskugel » Teuerstes Sony-Zeiss-Objektiv aller Zeiten?
Antwort
 
Themen-Optionen Ansicht
Alt 08.08.2019, 20:45   #51
Kurt Weinmeister
 
 
Registriert seit: 06.03.2015
Ort: Berlin
Beiträge: 4.441
Vielen Dank für eure Ausdauer und Geduld!
Ich denke, ich verstehe jetzt meinen Denkfehler, der damit zu tun hat, dass ich das analoge Signal eines Objektivs linear unendlich angenommen habe.
Der Klick kam bei mir durch den letzten Post von Toni. Der Hinweis auf die Beugungsscheibchen in Kombination mit einem Rechenbeispiel war für mich ausschlaggebend.
Erst als ich mir ein Objektiv vorgestellt habe, dass nur einen Punkt (mit der Größe 1/unendlich) liefert, fiel der Groschen.

Wie gesagt, vielen Dank Thomas und Toni. Es war eine schwere Geburt!
__________________
Chefexeget an der Rudolf-Steiner Schule
Kurt Weinmeister ist offline   Mit Zitat antworten
Sponsored Links
Alt 08.08.2019, 20:53   #52
*thomasD*
 
 
Registriert seit: 07.01.2008
Ort: HU
Beiträge: 4.724
Hat sich gelohnt
*thomasD* ist offline   Mit Zitat antworten
Alt 09.08.2019, 06:41   #53
TONI_B
 
 
Registriert seit: 13.12.2007
Ort: Ö; Deutsch-Wagram
Beiträge: 12.280
Ok, mancher hat es verstanden, mancher nicht:

Zitat:
Zitat von Smurf Beitrag anzeigen
Der Sensor wird als ganzes bewegt und schaut durch die selbe Scherbe wie vorher. Wo soll da der enorm gestiegene Bedarf an Auflösung herkommen wenn alles gleich bleibt.
Wie du sagst:"Scherbe"! Wenn diese Scherbe Beugungsscheibchen liefert, die größer sind als die Verschiebung des Sensors beim Shiften, bekommst du 2x ein identes Bild und daher keine zusätzlich Information für 240MP. Die Auflösung der Optik muss also die 240MP bedienen können.

Hab schnell ein Bild "zusammengeschustert":

Bild in der Galerie

Wenn man jetzt die (roten) Pixel um eine halbe Pixelbreite verschiebt, ergibt sich keine Änderung im Bild. Sind die Beugungsscheibchen klein genug, so rentiert sich das Shiften.
__________________

Geändert von TONI_B (09.08.2019 um 06:52 Uhr)
TONI_B ist offline   Mit Zitat antworten
Alt 09.08.2019, 07:52   #54
aidualk
 
 
Registriert seit: 17.12.2007
Ort: Rhein-Main
Beiträge: 21.310
Ich habe das inzwischen auch verstanden - auch als Nicht-Physiker. - danke
aidualk ist offline   Mit Zitat antworten
Alt 09.08.2019, 08:12   #55
*thomasD*
 
 
Registriert seit: 07.01.2008
Ort: HU
Beiträge: 4.724
Da macht sich die didaktische Erfahrung von Toni bezahlt - er bringt es halt besser auf den Punkt
*thomasD* ist offline   Mit Zitat antworten
Sponsored Links
Alt 09.08.2019, 08:35   #56
TONI_B
 
 
Registriert seit: 13.12.2007
Ort: Ö; Deutsch-Wagram
Beiträge: 12.280
Danke!
__________________
TONI_B ist offline   Mit Zitat antworten
Alt 09.08.2019, 15:43   #57
kk7
 
 
Registriert seit: 20.11.2016
Beiträge: 1.630
Der Sensor kann aber nicht mit jedem Pixel die gleiche Farbe erfassen. Und Glasfehler,,, dürften auch noch einen Einfluss haben. D.h. Jede Verschiebung verändert mehrere Variablen. Wenn das Glas 65MP abbilden kann, wie sieht es dann aus? Und mit welchem Algorithmus werden die Pixel miteinander verrechnet - hat das auch noch einen Einfluss? Fragen über Fragen ...
kk7 ist offline   Mit Zitat antworten
Alt 09.08.2019, 16:44   #58
GerdS
 
 
Registriert seit: 09.01.2005
Ort: 67269 Grünstadt
Beiträge: 2.756
Also für mich ist - und war - das schon immer klar.

Aber vielleicht müssen wir die komplexe Optik mit der Strahlentheorie, der Sensorgeometrie und den Silizium-Atomstrukturen betrachten.
Denn erst dann ist klar, dass es komplett egal ist für die Masse der Bilder im Internet.

Viele Grüße
Gerd
GerdS ist offline   Mit Zitat antworten
Alt 09.08.2019, 16:56   #59
*thomasD*
 
 
Registriert seit: 07.01.2008
Ort: HU
Beiträge: 4.724
Zitat:
Zitat von kk7 Beitrag anzeigen
Der Sensor kann aber nicht mit jedem Pixel die gleiche Farbe erfassen. Und Glasfehler,,, dürften auch noch einen Einfluss haben. D.h. Jede Verschiebung verändert mehrere Variablen. Wenn das Glas 65MP abbilden kann, wie sieht es dann aus? Und mit welchem Algorithmus werden die Pixel miteinander verrechnet - hat das auch noch einen Einfluss? Fragen über Fragen ...
Jede Position wird mit allen vier Farben aufgenommen - daher der Sensor um je ein Pixel verschoben. Das ganze dann zusätzlich um ein halbes Pixel verschoben um die zusätzliche Auflösung zu erhalten --> Daher 4x4=16 Aufnahmen

Fehler des Objektives werden natürlich deutlicher sichtbar. Mit einem schlechten Objektiv bringt der Sensorshift nichts. Daher habe ich ja geschreiben: Das ist die ultimative Objektiv-Test-Kamera.
Die Verrechnung stelle ich mir gar nicht so kompliziert vor bei einer Verschiebeung von genau einem halben Pixel.
*thomasD* ist offline   Mit Zitat antworten
Alt 09.08.2019, 20:30   #60
Jan
 
 
Registriert seit: 08.09.2003
Ort: Erkrath bei Köln
Beiträge: 7.397
Wer mehr wissen will kan auch nach pixel shift suchen, das gibt es schon länger und immer noch (z.B. bei Olympus und Hasselblad), bei Olympus angeblich so schnell, dass es sogar ohne Stativ funktionieren soll.
LG Jan
__________________
_FC___D7_
Jan ist offline   Mit Zitat antworten
Sponsored Links
Antwort
Startseite » Forenübersicht » Treffpunkt » Die Glaskugel » Teuerstes Sony-Zeiss-Objektiv aller Zeiten?

Themen-Optionen
Ansicht

Forenregeln
Es ist dir nicht erlaubt, neue Themen zu verfassen.
Es ist dir nicht erlaubt, auf Beiträge zu antworten.
Es ist dir nicht erlaubt, Anhänge hochzuladen.
Es ist dir nicht erlaubt, deine Beiträge zu bearbeiten.

BB-Code ist an.
Smileys sind an.
[IMG] Code ist an.
HTML-Code ist aus.

Gehe zu


Alle Zeitangaben in WEZ +1. Es ist jetzt 11:50 Uhr.