SonyUserforum

SonyUserforum (https://www.sonyuserforum.de/forum/index.php)
-   Die Glaskugel (https://www.sonyuserforum.de/forum/forumdisplay.php?f=104)
-   -   Teuerstes Sony-Zeiss-Objektiv aller Zeiten? (https://www.sonyuserforum.de/forum/showthread.php?t=191877)

u. kulick 21.07.2019 10:22

Teuerstes Sony-Zeiss-Objektiv aller Zeiten?
 
Mit ihrem Pixel-Shift-Auflösungsvervierfachungsmechanismus hat die neue Alpha A7R Mark IV das Zeug, die Hersteller von teuren Repro-Kameras ins Mark zu treffen. Vorraussetzung wäre allerdings, dass Zeiss für Sony das jemals am plansten abbildende Planar oder ein ähnlich genial superplan abbildendes Kleinbild-Objektiv dazu liefert. Da dieses nur für Profis hergestellt würde, würde es möglicherweise das teuerste serienmäßige FE-Objektiv.

cat_on_leaf 21.07.2019 12:40

Ja, vielleicht könnte es Möglicherweise.

Klinke 22.07.2019 09:54

Toll ... damit könnte man prima die Hauswand gegenüber ablichten und Fehler suchen ... :crazy: :crazy: :crazy:

roberto23 06.08.2019 20:40

Zitat:

Zitat von u. kulick (Beitrag 2076412)
Mit ihrem Pixel-Shift-Auflösungsvervierfachungsmechanismus hat die neue Alpha A7R Mark IV das Zeug, die Hersteller von teuren Repro-Kameras ins Mark zu treffen. Vorraussetzung wäre allerdings, dass Zeiss für Sony das jemals am plansten abbildende Planar oder ein ähnlich genial superplan abbildendes Kleinbild-Objektiv dazu liefert. Da dieses nur für Profis hergestellt würde, würde es möglicherweise das teuerste serienmäßige FE-Objektiv.

Ein Minolta MD 50 Macro kommt da mit allen Werten meiner Erinnerung nach ziemlich gut hin - es war das beste KB-Reproobjektiv, das ich je in der Hand hielt... Und ist für 100 gebraucht zu bekommen. Okay, adaptiert und MF... ;)

Smurf 07.08.2019 09:58

Da wuerde ich stark bezweifeln das es an der A7R4 eine angemessene Auflösung schafft.

TONI_B 07.08.2019 11:12

Ja, das 50er MD-Makro war sicher ein gutes Objektiv. Ich habe damit hochauflösende Diagramme auf Kodak TP-2415 mit bis zu 100Lp/mm gemacht. Aber ich glaube auch, dass zB. eine A7RIV noch höhere Auflösungen schafft.

Eikazon 07.08.2019 11:22

Von den bisher hergestellten E-Mount-Objektiven müssten theoretisch doch das FE 90mm F2.8 Macro G OSS sowie die Voigtländer-FE-Makros (65mm und 110mm) am besten abschneiden; allen dreien wurde in div. Tests hervorragendes Auflösungsvermögen gerade im Nahbereich bescheinigt, und zumindest das 90er bildet mW ziemlich plan ab.

Ich bin mal gespannt, wann jemand diese Objektive mit der α7R IV und Pixel-Shift-Modus testet … Falls sie dann mit spürbaren Schwächen abschneiden, wäre ein solches Super-Planar tatsächlich sinnvoll.

aidualk 07.08.2019 11:30

Der Pixel-Shift-Modus erhöht doch nicht die Anforderung an das Objektiv. ;)
Es werden normale 61MP Bilder aufgenommen und digital verrechnet. Erst die Summe der Verrechnung erhöht die Auflösung. Von daher sollte jedes sehr gute und plane Macro geeignet sein.

Robert Auer 07.08.2019 13:37

Zitat:

Zitat von Eikazon (Beitrag 2080318)
…. Ich bin mal gespannt, wann jemand diese Objektive mit der α7R IV und Pixel-Shift-Modus testet … Falls sie dann mit spürbaren Schwächen abschneiden, wäre ein solches Super-Planar tatsächlich sinnvoll.

Wie und mit welchem Objektiv sollte dieser Test den erfolgen? Ich fürchte, ich könnte kein wirkliches Beispiel für eine geeignete Aussagefähigkeit dieses Tests liefern. :oops: Erstens, da ich keine Plattform nutze, wo man das ohne Registrierung usw. zur Ansicht hochladen kann. Zweitens, darüber hinaus sind die Ausschnitte mit "Ansicht auf Pixelgröße" für mich noch am ehesten beim Hineinzoomen in ein ganzes Bild interessant. Aber selbst die gestichten Monsterbilder im Netz führten bei mir nur zu einen Aha-Effekt. Ich nehme mir vor zu berichten, falls ich einmal ein 240 MP Bild für Plakatanwendungen liefere; bezweifle aber sehr, dass diese Funktion für mich im Alltag eine Relevanz hat.

Smurf 07.08.2019 16:21

Zitat:

Zitat von aidualk (Beitrag 2080319)
Der Pixel-Shift-Modus erhöht doch nicht die Anforderung an das Objektiv. ;)

Das hat keiner behauptet.
Das alte MD Grachtenglas bedient die normale Auflösung von 61 MP jedenfalls sicher nicht.

aidualk 07.08.2019 17:09

Zitat:

Zitat von Smurf (Beitrag 2080395)
Das hat keiner behauptet.
Das alte MD Grachtenglas bedient die normale Auflösung von 61 MP jedenfalls sicher nicht.

Mag sein, ich kenne das MD nicht - aber dass 61MP kein neues und 'teuerstes Zeiss aller Zeiten' bedarf, davon bin ich überzeugt.

Smurf 07.08.2019 17:30

Ja das Sony 90mm sollte da sicher keine Probleme haben

Kurt Weinmeister 07.08.2019 18:14

Zitat:

Zitat von aidualk (Beitrag 2080409)
... davon bin ich überzeugt.

Alles andere wäre auch unlogisch.
Die Anforderung an das Objektiv steigt mit der Sensorauflösung und nicht mit der Anzahl verrechneter Pixel.

*thomasD* 07.08.2019 18:31

Die Anforderung an das Objektiv.steigt deutlich, da ja beim Pixelshift die Auflösung des Sensors verdoppelt (1-dimensional) bzw. (in der Fläche) vervierfacht wird. Ansonsten könnte man ja im Ergebnis auch keine bessere Auflösung erwarten.
Die zusätzliche Information erhält man durch die Aufnahmen in den vier zueinander verschobenen Sensorpositionen, quasi das Gegenteil von Pixelbining.

Kurt Weinmeister 07.08.2019 20:11

Sind das nicht einfach nur serielle vier Aufnahmen, nur jeweils um einen Pixel verschoben?
Also bleibt es pro Aufnahme bei der maximalen Sensorauflösung.
Ansonsten hätten wir einen 240MP Sensor.

*thomasD* 07.08.2019 20:56

Das ist die einfache Variante des Pixelshift um alle Farbwerte pro Pixel aufzunehmen - wie bei der A7RIII.
Die A7RIV kann aber das ganze nochmal in beide Richtungen um einen halben Pixel verschoben machen und somit halbe Pixelbreiten aufnehmen. Das macht 16 Aufnahmen (4 für die Farben x 4 für die zusättlichenPosition). Macht tatsächlich Dateien mit 240 MP!

Volle Farbinformation, daher keine Bayer-Interpolation UND viefache Auflösung ggü. normalen Aufnahmen.

Kurt Weinmeister 07.08.2019 21:17

Ja, aber aus mehreren Einzelbildern zusammengesetzt.
Und für das Objektiv kommt es nur auf das Einzelbild (62 MP) an.
So ist jedenfalls mein Verständnis.

*thomasD* 07.08.2019 21:27

Es werde letztlich 240M Bildpunkte abgetastet. Das muss das Objektiv liefern.

Kurt Weinmeister 07.08.2019 21:42

Klar, jedes Pixel oder Subpixel kommt mal analog an der Linse vorbei.
Du gehst aber hoffentlich mit mir konform, dass, wenn ich ein Panorama aus >1000 Bildern zu einer Petapixel Datei verwurste, das Objektiv nicht diese Endauflösung bedienen muss?
Für mich ist der Shift nichts anderes. Nur, dass die Kamera "das Panorama" bereits auf Sensorebene erledigt (was sollte sie auch sonst shiften?).

*thomasD* 07.08.2019 22:00

Beim Stichen eines Panoramas wird das Objektiv verschwenkt und damit der Bildwinkel addiert. Hier muss das alles innerhalb des stationären Bildbereiches funktionieren.

Kurt Weinmeister 07.08.2019 22:02

Auch bei einem Shiftobjektiv?

*thomasD* 07.08.2019 22:09

Auch bei einem Shiftobjektiv änderst du den Bildwinkel / die Ausrichtung bzw. Orientierung.

Nochmal: Bei der A7RIV ist das was ganz anderes. Alle 240 MP liegen innerhalb des statischen Bildbereiches. Am Objektiv oder dessen Bildausrichtung wird bei den Aufnahmen nichts geändert.

Kurt Weinmeister 07.08.2019 22:32

Dass am Objektiv nichts geändert wird, ist mir klar. Der Sensor wird geshiftet. Aber am Ende werden bis zu 16 Einzelbilder zu einer großen RAW Datei verrechnet. Und das passiert alles nach der Aufnahme am heimischen Rechner.
Und Einzelaufnahmen heißt für mich immer noch: das Objektiv muss die Einzelaufnahme bedienen können und nicht das Endresultat.

Pixel Shift Mode includes a new 16-shot mode that shifts the sensor in half-pixel increments to capture 16 separate images that can be combined to create whopping 240.8 mp (19,008 px x 12,672 px) RAW files using the next’s version of Sony’s Imaging Edge Desktop software.

*thomasD* 08.08.2019 05:11

Geh mal von dem 60 MP-Sensor aus. Stell dir dann einen Sensor vor bei dem 3 von 4 der Pixel fehlen, der somit also insgesamt 15 MP hat. Du machst nun eine Aufnahme und zusätzlich drei Aufnahmen in den Fehlstellen, also 4x15=60 MP. Das verrechnete Bild danach hat 60 MP. Was muss das Objektiv bedienen? 15 MP oder 60 MP? Wenn 15 MP, wo ist dann der Unterschied zum ursprünglichen 60 MP-Sensor?

Anmerkung: In der Realität überlappen sich die Pixel beim Pixelshift, somit wird es nicht ganz den 240MP entsprechen. Aber es bietet mehr Detauls als die 60 MP und fordert das Objektv entsprechend stärker.

Such mal nach dem Youtube-Video von Tony & Chelsea, die haben das getestet.

Wenn ein Bild innerhalb eines konstanten Motivauschnitts im Ergebnis mehr Details hat, egal ob von einer Aufnahme oder später aus mehreren verrechnet, muss das Objektiv auch entsprechend mehr Details liefern.

Die A7RIV ist die absolute Objektiv-Test-Kamera.

Kurt Weinmeister 08.08.2019 07:51

Dein Beispiel ist sehr gut! 15MP muss das Objektiv bedienen.
Was ist der Unterschied zum 60MP Sensor? Keiner, da m.E. der Denkfehler darin besteht, man hätte einen 60MP Sensor. Du hast aber nur einen 15MP Sensor. Und erst bei dem hast du den sichtbaren Beweis zwischen 15 und 60 MP Bild.

Der Detailreichtum kommt ja dadurch zustande, dass die Strecke zwischen Pixel A und Pixel B durch den Shift halbiert wird. Das Objektiv selbst liefert zwischen den beiden Pixeln theoretisch unendlich viele analoge Helligkeitswerte, von denen der Sensor nur zwei auswertet. A und B. Miit dem Shift verschiebt sich die "Auswertungsschablone" und der Sensor bekommt damit Stellen zu sehen, die er aufgrund seiner starren Struktur sonst nicht gesehen hätte.

*thomasD* 08.08.2019 09:23

Irgendwie widerspricht sich dein erster und dein zweiter Absatz. Der zweite geht in die richtige Richtung.

Aber ich befürchte wir kommen da nicht zusammen. Es geht darum dass an das Objektiv höhere Anforderungen gestellt werden wenn man das Potential des neuen Pixelshift ausschöpfen möchte.

Ich gebe an dieser Stelle aber auf. :zuck:

GerdS 08.08.2019 09:53

Rechnet doch einfach mit den Linienpaaren.
Wenn der Sensor um ein halbes/oder ein Linienpaar verschoben wird entsteht keine zusätzliche Information.
Die kann nur entstehen, wenn die Linienpaare enger sind als die "originale" Pixelbreite.
Dann kann ich durch das verschieben die restlichen/zusätzlichen Linienpaare sichtbar machen.

Viele Grüße
Gerd

*thomasD* 08.08.2019 11:49

An die Linienpaare hatte ich auch schon gedacht. Aber wenn die anderen Argumente nicht greifen, wieso dann die Linienpaare? :zuck:

TONI_B 08.08.2019 13:25

Zitat:

Zitat von Kurt Weinmeister (Beitrag 2080551)
Das Objektiv selbst liefert zwischen den beiden Pixeln theoretisch unendlich viele analoge Helligkeitswerte, von denen der Sensor nur zwei auswertet...

Das glaube ich nicht. Auch wenn ein Objektiv ein analoges Übertragungssystem ist, sind die Helligkeitswerte zwischen zwei Pixeln nur dann unterschiedlich, wenn es die (analoge) Auflösung des Objektivs zulässt. Das Beugungs- oder Aberrationsscheibchen legt diese Auflösung fest. Wenn man dieses Scheibchen mit einer höheren Auflösung abtastet, bekommt man zwar mehr digitale Werte pro Längeneinheit, aber keine zusätzliche Information!

aidualk 08.08.2019 13:46

Thomas: Ich muss sagen, so ganz verstehe ich das auch nicht was du beschreibst. :zuck: (aber ich bin auch kein Physiker)

*thomasD* 08.08.2019 13:58

Dann habe ich mich wohl zu unverständlich ausgedrückt :shock:
Ich hoffe Toni versteht das wenigstens bzw. kann es besser formulieren.

TONI_B 08.08.2019 14:08

mMn muss das Objektiv die höhere Auflösung wirklich darstellen können, sonst nützt auch die Pixel-Shift-Technik nichts.

Wie vorhin schon erläutert: die Auflösung wird durch das Beugungs- bzw. Aberrationsscheibchen bestimmt. Wenn dieses jetzt größer ist als der Abstand zweier Pixel nützt es natürlich nichts, wenn man den Sensor um eine halbe Pixelbreite verschiebt. Denn dann erhält man zwei idente Bilder. Wenn man die zusammensetzt, bekommt man zwar mehr Pixel, aber nicht mehr an Information.

Jan 08.08.2019 15:29

Ob Ihr Kurt überzeugen konntet?
Die sauber abgebildeten Scheibchen sollten doch anschaulich genug sein.

Das ganze gab es - wenn ich recht erinnere schon einmal bei Digitalkameras, sicher gab es "Wobbling" bei PET-Kameras um die Auflösung zu erhöhen.

Jan

Smurf 08.08.2019 16:18

Wenn der Sensor jeweils 4 mal um einen Pixel verschoben wird aendert sich doch nicht die Anforderung ans Glas bzw das Auslesevermögen des Sensors. Der Sensor löst immer noch nur 61 MP auf... seine Position ist halt nen Pixel verschoben und das wars. Die Kamera verschiebt den Sensor per Stabi und intern werden die Pixelquadrate aus den einzelnen Dateien dann zu einer Datei kombiniert. Aus einem Pixel werden vier trotz 61 MP. 1. Bild original Position, zweites Bild ein Pixel runter, drittes danach einen pixel nach links verschieben, viertes dann einen pixel nach oben... ergibt genau 4 quadratisch angeordnete pixel. Auflösungsanforderung weiterhin nur 61 MP ... es werden halt 4 Bilder hintereinander gemacht.

*thomasD* 08.08.2019 16:55

Zitat:

Zitat von Smurf (Beitrag 2080684)
Wenn der Sensor jeweils 4 mal um einen Pixel verschoben wird aendert sich doch nicht die Anforderung ans Glas bzw das Auslesevermögen des Sensors. Der Sensor löst immer noch nur 61 MP auf... seine Position ist halt nen Pixel verschoben und das wars. Die Kamera verschiebt den Sensor per Stabi und intern werden die Pixelquadrate aus den einzelnen Dateien dann zu einer Datei kombiniert. Aus einem Pixel werden vier trotz 61 MP. 1. Bild original Position, zweites Bild ein Pixel runter, drittes danach einen pixel nach links verschieben, viertes dann einen pixel nach oben... ergibt genau 4 quadratisch angeordnete pixel. Auflösungsanforderung weiterhin nur 61 MP ... es werden halt 4 Bilder hintereinander gemacht.

Beitrag #16 gelesen?

Smurf 08.08.2019 17:13

Zitat:

Zitat von *thomasD* (Beitrag 2080690)
Beitrag #16 gelesen?

Ich glaub du missverstehst das etwas. Es ist doch irrelevant wie weit der Sensor verschoben wird. Wenn ich ein Pixel sage sind das dann... keine Ahnung 0,005mm? Wenn der Sensor das Bild nun um 0,0025mm verschiebt aendert das trotzdem nichts daran das der Sensor immer noch nur 61Mp auslesen kann und mehr auch nicht braucht. Der einzige Unterschied ist das die Zusammenrechnerei dann über BayerPattern über Kreuz laeuft. Muss man hier ja aber nicht bis ins kleinste gedanklich nachvollziehen. Da haben sich SoftwareIngs. monatelang damit befasst. Der Sensor liest deshalb auch nicht mehr Daten aus. Er wird halt nur verschoben. Um welchen Betrag und wie das Bild dann berechnet macht da auch keinen Unterschied fuer das Glas.

*thomasD* 08.08.2019 17:15

Ich gebe es auf :zuck:

Kurt Weinmeister 08.08.2019 17:43

Zitat:

Zitat von TONI_B (Beitrag 2080632)
Das glaube ich nicht

Deswegen sagte ich ja auch: theoretisch.
in der Praxis hast Du natürlich recht. Dem Objektiv sind fertigungstechnische Grenzen gesetzt. Wenn das Objektiv nur 5 Linienpaare auflösen kann, dann nutzt mir auch das Shiften recht wenig. Ich gehe aber davon aus, dass das Objektiv für diesen Sensor ausreichende Werte liefert. Aber ich verstehe halt nicht, warum es mehr als das liefern muss.

*thomasD* 08.08.2019 18:01

Zitat:

Zitat von *thomasD* (Beitrag 2080694)
Ich gebe es auf :zuck:

Doch noch ein Versuch: Zwei - wenn auch nicht zeitglöeich aufgenommene - Bilder mit unterschiedlichen Abtastpositionen ergeben die doppelte Auflösung - hier graphisch dargestellt für eine Dimension. In der Fläche dann vier Bilder statt zwei


Bild in der Galerie

Kurt Weinmeister 08.08.2019 18:10

Verstanden und d'accord.

Aber um das Endresultat zu erreichen, reicht es doch, wenn das Objektiv die Auflösung von blau oder rot liefert, da es zwei Aufnahmen sind und nicht eins.
Oder?


Alle Zeitangaben in WEZ +2. Es ist jetzt 13:21 Uhr.