SonyUserforum

SonyUserforum (https://www.sonyuserforum.de/forum/index.php)
-   Die Glaskugel (https://www.sonyuserforum.de/forum/forumdisplay.php?f=104)
-   -   Teuerstes Sony-Zeiss-Objektiv aller Zeiten? (https://www.sonyuserforum.de/forum/showthread.php?t=191877)

Kurt Weinmeister 07.08.2019 22:02

Auch bei einem Shiftobjektiv?

*thomasD* 07.08.2019 22:09

Auch bei einem Shiftobjektiv änderst du den Bildwinkel / die Ausrichtung bzw. Orientierung.

Nochmal: Bei der A7RIV ist das was ganz anderes. Alle 240 MP liegen innerhalb des statischen Bildbereiches. Am Objektiv oder dessen Bildausrichtung wird bei den Aufnahmen nichts geändert.

Kurt Weinmeister 07.08.2019 22:32

Dass am Objektiv nichts geändert wird, ist mir klar. Der Sensor wird geshiftet. Aber am Ende werden bis zu 16 Einzelbilder zu einer großen RAW Datei verrechnet. Und das passiert alles nach der Aufnahme am heimischen Rechner.
Und Einzelaufnahmen heißt für mich immer noch: das Objektiv muss die Einzelaufnahme bedienen können und nicht das Endresultat.

Pixel Shift Mode includes a new 16-shot mode that shifts the sensor in half-pixel increments to capture 16 separate images that can be combined to create whopping 240.8 mp (19,008 px x 12,672 px) RAW files using the next’s version of Sony’s Imaging Edge Desktop software.

*thomasD* 08.08.2019 05:11

Geh mal von dem 60 MP-Sensor aus. Stell dir dann einen Sensor vor bei dem 3 von 4 der Pixel fehlen, der somit also insgesamt 15 MP hat. Du machst nun eine Aufnahme und zusätzlich drei Aufnahmen in den Fehlstellen, also 4x15=60 MP. Das verrechnete Bild danach hat 60 MP. Was muss das Objektiv bedienen? 15 MP oder 60 MP? Wenn 15 MP, wo ist dann der Unterschied zum ursprünglichen 60 MP-Sensor?

Anmerkung: In der Realität überlappen sich die Pixel beim Pixelshift, somit wird es nicht ganz den 240MP entsprechen. Aber es bietet mehr Detauls als die 60 MP und fordert das Objektv entsprechend stärker.

Such mal nach dem Youtube-Video von Tony & Chelsea, die haben das getestet.

Wenn ein Bild innerhalb eines konstanten Motivauschnitts im Ergebnis mehr Details hat, egal ob von einer Aufnahme oder später aus mehreren verrechnet, muss das Objektiv auch entsprechend mehr Details liefern.

Die A7RIV ist die absolute Objektiv-Test-Kamera.

Kurt Weinmeister 08.08.2019 07:51

Dein Beispiel ist sehr gut! 15MP muss das Objektiv bedienen.
Was ist der Unterschied zum 60MP Sensor? Keiner, da m.E. der Denkfehler darin besteht, man hätte einen 60MP Sensor. Du hast aber nur einen 15MP Sensor. Und erst bei dem hast du den sichtbaren Beweis zwischen 15 und 60 MP Bild.

Der Detailreichtum kommt ja dadurch zustande, dass die Strecke zwischen Pixel A und Pixel B durch den Shift halbiert wird. Das Objektiv selbst liefert zwischen den beiden Pixeln theoretisch unendlich viele analoge Helligkeitswerte, von denen der Sensor nur zwei auswertet. A und B. Miit dem Shift verschiebt sich die "Auswertungsschablone" und der Sensor bekommt damit Stellen zu sehen, die er aufgrund seiner starren Struktur sonst nicht gesehen hätte.

*thomasD* 08.08.2019 09:23

Irgendwie widerspricht sich dein erster und dein zweiter Absatz. Der zweite geht in die richtige Richtung.

Aber ich befürchte wir kommen da nicht zusammen. Es geht darum dass an das Objektiv höhere Anforderungen gestellt werden wenn man das Potential des neuen Pixelshift ausschöpfen möchte.

Ich gebe an dieser Stelle aber auf. :zuck:

GerdS 08.08.2019 09:53

Rechnet doch einfach mit den Linienpaaren.
Wenn der Sensor um ein halbes/oder ein Linienpaar verschoben wird entsteht keine zusätzliche Information.
Die kann nur entstehen, wenn die Linienpaare enger sind als die "originale" Pixelbreite.
Dann kann ich durch das verschieben die restlichen/zusätzlichen Linienpaare sichtbar machen.

Viele Grüße
Gerd

*thomasD* 08.08.2019 11:49

An die Linienpaare hatte ich auch schon gedacht. Aber wenn die anderen Argumente nicht greifen, wieso dann die Linienpaare? :zuck:

TONI_B 08.08.2019 13:25

Zitat:

Zitat von Kurt Weinmeister (Beitrag 2080551)
Das Objektiv selbst liefert zwischen den beiden Pixeln theoretisch unendlich viele analoge Helligkeitswerte, von denen der Sensor nur zwei auswertet...

Das glaube ich nicht. Auch wenn ein Objektiv ein analoges Übertragungssystem ist, sind die Helligkeitswerte zwischen zwei Pixeln nur dann unterschiedlich, wenn es die (analoge) Auflösung des Objektivs zulässt. Das Beugungs- oder Aberrationsscheibchen legt diese Auflösung fest. Wenn man dieses Scheibchen mit einer höheren Auflösung abtastet, bekommt man zwar mehr digitale Werte pro Längeneinheit, aber keine zusätzliche Information!

aidualk 08.08.2019 13:46

Thomas: Ich muss sagen, so ganz verstehe ich das auch nicht was du beschreibst. :zuck: (aber ich bin auch kein Physiker)


Alle Zeitangaben in WEZ +2. Es ist jetzt 09:15 Uhr.