![]() |
Teuerstes Sony-Zeiss-Objektiv aller Zeiten?
Mit ihrem Pixel-Shift-Auflösungsvervierfachungsmechanismus hat die neue Alpha A7R Mark IV das Zeug, die Hersteller von teuren Repro-Kameras ins Mark zu treffen. Vorraussetzung wäre allerdings, dass Zeiss für Sony das jemals am plansten abbildende Planar oder ein ähnlich genial superplan abbildendes Kleinbild-Objektiv dazu liefert. Da dieses nur für Profis hergestellt würde, würde es möglicherweise das teuerste serienmäßige FE-Objektiv.
|
Ja, vielleicht könnte es Möglicherweise.
|
Toll ... damit könnte man prima die Hauswand gegenüber ablichten und Fehler suchen ... :crazy: :crazy: :crazy:
|
Zitat:
|
Da wuerde ich stark bezweifeln das es an der A7R4 eine angemessene Auflösung schafft.
|
Ja, das 50er MD-Makro war sicher ein gutes Objektiv. Ich habe damit hochauflösende Diagramme auf Kodak TP-2415 mit bis zu 100Lp/mm gemacht. Aber ich glaube auch, dass zB. eine A7RIV noch höhere Auflösungen schafft.
|
Von den bisher hergestellten E-Mount-Objektiven müssten theoretisch doch das FE 90mm F2.8 Macro G OSS sowie die Voigtländer-FE-Makros (65mm und 110mm) am besten abschneiden; allen dreien wurde in div. Tests hervorragendes Auflösungsvermögen gerade im Nahbereich bescheinigt, und zumindest das 90er bildet mW ziemlich plan ab.
Ich bin mal gespannt, wann jemand diese Objektive mit der α7R IV und Pixel-Shift-Modus testet … Falls sie dann mit spürbaren Schwächen abschneiden, wäre ein solches Super-Planar tatsächlich sinnvoll. |
Der Pixel-Shift-Modus erhöht doch nicht die Anforderung an das Objektiv. ;)
Es werden normale 61MP Bilder aufgenommen und digital verrechnet. Erst die Summe der Verrechnung erhöht die Auflösung. Von daher sollte jedes sehr gute und plane Macro geeignet sein. |
Zitat:
|
Zitat:
Das alte MD Grachtenglas bedient die normale Auflösung von 61 MP jedenfalls sicher nicht. |
Zitat:
|
Ja das Sony 90mm sollte da sicher keine Probleme haben
|
Zitat:
Die Anforderung an das Objektiv steigt mit der Sensorauflösung und nicht mit der Anzahl verrechneter Pixel. |
Die Anforderung an das Objektiv.steigt deutlich, da ja beim Pixelshift die Auflösung des Sensors verdoppelt (1-dimensional) bzw. (in der Fläche) vervierfacht wird. Ansonsten könnte man ja im Ergebnis auch keine bessere Auflösung erwarten.
Die zusätzliche Information erhält man durch die Aufnahmen in den vier zueinander verschobenen Sensorpositionen, quasi das Gegenteil von Pixelbining. |
Sind das nicht einfach nur serielle vier Aufnahmen, nur jeweils um einen Pixel verschoben?
Also bleibt es pro Aufnahme bei der maximalen Sensorauflösung. Ansonsten hätten wir einen 240MP Sensor. |
Das ist die einfache Variante des Pixelshift um alle Farbwerte pro Pixel aufzunehmen - wie bei der A7RIII.
Die A7RIV kann aber das ganze nochmal in beide Richtungen um einen halben Pixel verschoben machen und somit halbe Pixelbreiten aufnehmen. Das macht 16 Aufnahmen (4 für die Farben x 4 für die zusättlichenPosition). Macht tatsächlich Dateien mit 240 MP! Volle Farbinformation, daher keine Bayer-Interpolation UND viefache Auflösung ggü. normalen Aufnahmen. |
Ja, aber aus mehreren Einzelbildern zusammengesetzt.
Und für das Objektiv kommt es nur auf das Einzelbild (62 MP) an. So ist jedenfalls mein Verständnis. |
Es werde letztlich 240M Bildpunkte abgetastet. Das muss das Objektiv liefern.
|
Klar, jedes Pixel oder Subpixel kommt mal analog an der Linse vorbei.
Du gehst aber hoffentlich mit mir konform, dass, wenn ich ein Panorama aus >1000 Bildern zu einer Petapixel Datei verwurste, das Objektiv nicht diese Endauflösung bedienen muss? Für mich ist der Shift nichts anderes. Nur, dass die Kamera "das Panorama" bereits auf Sensorebene erledigt (was sollte sie auch sonst shiften?). |
Beim Stichen eines Panoramas wird das Objektiv verschwenkt und damit der Bildwinkel addiert. Hier muss das alles innerhalb des stationären Bildbereiches funktionieren.
|
Auch bei einem Shiftobjektiv?
|
Auch bei einem Shiftobjektiv änderst du den Bildwinkel / die Ausrichtung bzw. Orientierung.
Nochmal: Bei der A7RIV ist das was ganz anderes. Alle 240 MP liegen innerhalb des statischen Bildbereiches. Am Objektiv oder dessen Bildausrichtung wird bei den Aufnahmen nichts geändert. |
Dass am Objektiv nichts geändert wird, ist mir klar. Der Sensor wird geshiftet. Aber am Ende werden bis zu 16 Einzelbilder zu einer großen RAW Datei verrechnet. Und das passiert alles nach der Aufnahme am heimischen Rechner.
Und Einzelaufnahmen heißt für mich immer noch: das Objektiv muss die Einzelaufnahme bedienen können und nicht das Endresultat. Pixel Shift Mode includes a new 16-shot mode that shifts the sensor in half-pixel increments to capture 16 separate images that can be combined to create whopping 240.8 mp (19,008 px x 12,672 px) RAW files using the next’s version of Sony’s Imaging Edge Desktop software. |
Geh mal von dem 60 MP-Sensor aus. Stell dir dann einen Sensor vor bei dem 3 von 4 der Pixel fehlen, der somit also insgesamt 15 MP hat. Du machst nun eine Aufnahme und zusätzlich drei Aufnahmen in den Fehlstellen, also 4x15=60 MP. Das verrechnete Bild danach hat 60 MP. Was muss das Objektiv bedienen? 15 MP oder 60 MP? Wenn 15 MP, wo ist dann der Unterschied zum ursprünglichen 60 MP-Sensor?
Anmerkung: In der Realität überlappen sich die Pixel beim Pixelshift, somit wird es nicht ganz den 240MP entsprechen. Aber es bietet mehr Detauls als die 60 MP und fordert das Objektv entsprechend stärker. Such mal nach dem Youtube-Video von Tony & Chelsea, die haben das getestet. Wenn ein Bild innerhalb eines konstanten Motivauschnitts im Ergebnis mehr Details hat, egal ob von einer Aufnahme oder später aus mehreren verrechnet, muss das Objektiv auch entsprechend mehr Details liefern. Die A7RIV ist die absolute Objektiv-Test-Kamera. |
Dein Beispiel ist sehr gut! 15MP muss das Objektiv bedienen.
Was ist der Unterschied zum 60MP Sensor? Keiner, da m.E. der Denkfehler darin besteht, man hätte einen 60MP Sensor. Du hast aber nur einen 15MP Sensor. Und erst bei dem hast du den sichtbaren Beweis zwischen 15 und 60 MP Bild. Der Detailreichtum kommt ja dadurch zustande, dass die Strecke zwischen Pixel A und Pixel B durch den Shift halbiert wird. Das Objektiv selbst liefert zwischen den beiden Pixeln theoretisch unendlich viele analoge Helligkeitswerte, von denen der Sensor nur zwei auswertet. A und B. Miit dem Shift verschiebt sich die "Auswertungsschablone" und der Sensor bekommt damit Stellen zu sehen, die er aufgrund seiner starren Struktur sonst nicht gesehen hätte. |
Irgendwie widerspricht sich dein erster und dein zweiter Absatz. Der zweite geht in die richtige Richtung.
Aber ich befürchte wir kommen da nicht zusammen. Es geht darum dass an das Objektiv höhere Anforderungen gestellt werden wenn man das Potential des neuen Pixelshift ausschöpfen möchte. Ich gebe an dieser Stelle aber auf. :zuck: |
Rechnet doch einfach mit den Linienpaaren.
Wenn der Sensor um ein halbes/oder ein Linienpaar verschoben wird entsteht keine zusätzliche Information. Die kann nur entstehen, wenn die Linienpaare enger sind als die "originale" Pixelbreite. Dann kann ich durch das verschieben die restlichen/zusätzlichen Linienpaare sichtbar machen. Viele Grüße Gerd |
An die Linienpaare hatte ich auch schon gedacht. Aber wenn die anderen Argumente nicht greifen, wieso dann die Linienpaare? :zuck:
|
Zitat:
|
Thomas: Ich muss sagen, so ganz verstehe ich das auch nicht was du beschreibst. :zuck: (aber ich bin auch kein Physiker)
|
Dann habe ich mich wohl zu unverständlich ausgedrückt :shock:
Ich hoffe Toni versteht das wenigstens bzw. kann es besser formulieren. |
mMn muss das Objektiv die höhere Auflösung wirklich darstellen können, sonst nützt auch die Pixel-Shift-Technik nichts.
Wie vorhin schon erläutert: die Auflösung wird durch das Beugungs- bzw. Aberrationsscheibchen bestimmt. Wenn dieses jetzt größer ist als der Abstand zweier Pixel nützt es natürlich nichts, wenn man den Sensor um eine halbe Pixelbreite verschiebt. Denn dann erhält man zwei idente Bilder. Wenn man die zusammensetzt, bekommt man zwar mehr Pixel, aber nicht mehr an Information. |
Ob Ihr Kurt überzeugen konntet?
Die sauber abgebildeten Scheibchen sollten doch anschaulich genug sein. Das ganze gab es - wenn ich recht erinnere schon einmal bei Digitalkameras, sicher gab es "Wobbling" bei PET-Kameras um die Auflösung zu erhöhen. Jan |
Wenn der Sensor jeweils 4 mal um einen Pixel verschoben wird aendert sich doch nicht die Anforderung ans Glas bzw das Auslesevermögen des Sensors. Der Sensor löst immer noch nur 61 MP auf... seine Position ist halt nen Pixel verschoben und das wars. Die Kamera verschiebt den Sensor per Stabi und intern werden die Pixelquadrate aus den einzelnen Dateien dann zu einer Datei kombiniert. Aus einem Pixel werden vier trotz 61 MP. 1. Bild original Position, zweites Bild ein Pixel runter, drittes danach einen pixel nach links verschieben, viertes dann einen pixel nach oben... ergibt genau 4 quadratisch angeordnete pixel. Auflösungsanforderung weiterhin nur 61 MP ... es werden halt 4 Bilder hintereinander gemacht.
|
Zitat:
|
Zitat:
|
Ich gebe es auf :zuck:
|
Zitat:
in der Praxis hast Du natürlich recht. Dem Objektiv sind fertigungstechnische Grenzen gesetzt. Wenn das Objektiv nur 5 Linienpaare auflösen kann, dann nutzt mir auch das Shiften recht wenig. Ich gehe aber davon aus, dass das Objektiv für diesen Sensor ausreichende Werte liefert. Aber ich verstehe halt nicht, warum es mehr als das liefern muss. |
Zitat:
![]() → Bild in der Galerie |
Verstanden und d'accord.
Aber um das Endresultat zu erreichen, reicht es doch, wenn das Objektiv die Auflösung von blau oder rot liefert, da es zwei Aufnahmen sind und nicht eins. Oder? |
Alle Zeitangaben in WEZ +2. Es ist jetzt 13:21 Uhr. |