PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Teuerstes Sony-Zeiss-Objektiv aller Zeiten?


u. kulick
21.07.2019, 09:22
Mit ihrem Pixel-Shift-Auflösungsvervierfachungsmechanismus hat die neue Alpha A7R Mark IV das Zeug, die Hersteller von teuren Repro-Kameras ins Mark zu treffen. Vorraussetzung wäre allerdings, dass Zeiss für Sony das jemals am plansten abbildende Planar oder ein ähnlich genial superplan abbildendes Kleinbild-Objektiv dazu liefert. Da dieses nur für Profis hergestellt würde, würde es möglicherweise das teuerste serienmäßige FE-Objektiv.

cat_on_leaf
21.07.2019, 11:40
Ja, vielleicht könnte es Möglicherweise.

Klinke
22.07.2019, 08:54
Toll ... damit könnte man prima die Hauswand gegenüber ablichten und Fehler suchen ... :crazy: :crazy: :crazy:

roberto23
06.08.2019, 19:40
Mit ihrem Pixel-Shift-Auflösungsvervierfachungsmechanismus hat die neue Alpha A7R Mark IV das Zeug, die Hersteller von teuren Repro-Kameras ins Mark zu treffen. Vorraussetzung wäre allerdings, dass Zeiss für Sony das jemals am plansten abbildende Planar oder ein ähnlich genial superplan abbildendes Kleinbild-Objektiv dazu liefert. Da dieses nur für Profis hergestellt würde, würde es möglicherweise das teuerste serienmäßige FE-Objektiv.

Ein Minolta MD 50 Macro kommt da mit allen Werten meiner Erinnerung nach ziemlich gut hin - es war das beste KB-Reproobjektiv, das ich je in der Hand hielt... Und ist für 100 gebraucht zu bekommen. Okay, adaptiert und MF... ;)

Smurf
07.08.2019, 08:58
Da wuerde ich stark bezweifeln das es an der A7R4 eine angemessene Auflösung schafft.

TONI_B
07.08.2019, 10:12
Ja, das 50er MD-Makro war sicher ein gutes Objektiv. Ich habe damit hochauflösende Diagramme auf Kodak TP-2415 mit bis zu 100Lp/mm gemacht. Aber ich glaube auch, dass zB. eine A7RIV noch höhere Auflösungen schafft.

Eikazon
07.08.2019, 10:22
Von den bisher hergestellten E-Mount-Objektiven müssten theoretisch doch das FE 90mm F2.8 Macro G OSS sowie die Voigtländer-FE-Makros (65mm und 110mm) am besten abschneiden; allen dreien wurde in div. Tests hervorragendes Auflösungsvermögen gerade im Nahbereich bescheinigt, und zumindest das 90er bildet mW ziemlich plan ab.

Ich bin mal gespannt, wann jemand diese Objektive mit der α7R IV und Pixel-Shift-Modus testet … Falls sie dann mit spürbaren Schwächen abschneiden, wäre ein solches Super-Planar tatsächlich sinnvoll.

aidualk
07.08.2019, 10:30
Der Pixel-Shift-Modus erhöht doch nicht die Anforderung an das Objektiv. ;)
Es werden normale 61MP Bilder aufgenommen und digital verrechnet. Erst die Summe der Verrechnung erhöht die Auflösung. Von daher sollte jedes sehr gute und plane Macro geeignet sein.

Robert Auer
07.08.2019, 12:37
…. Ich bin mal gespannt, wann jemand diese Objektive mit der α7R IV und Pixel-Shift-Modus testet … Falls sie dann mit spürbaren Schwächen abschneiden, wäre ein solches Super-Planar tatsächlich sinnvoll.
Wie und mit welchem Objektiv sollte dieser Test den erfolgen? Ich fürchte, ich könnte kein wirkliches Beispiel für eine geeignete Aussagefähigkeit dieses Tests liefern. :oops: Erstens, da ich keine Plattform nutze, wo man das ohne Registrierung usw. zur Ansicht hochladen kann. Zweitens, darüber hinaus sind die Ausschnitte mit "Ansicht auf Pixelgröße" für mich noch am ehesten beim Hineinzoomen in ein ganzes Bild interessant. Aber selbst die gestichten Monsterbilder im Netz führten bei mir nur zu einen Aha-Effekt. Ich nehme mir vor zu berichten, falls ich einmal ein 240 MP Bild für Plakatanwendungen liefere; bezweifle aber sehr, dass diese Funktion für mich im Alltag eine Relevanz hat.

Smurf
07.08.2019, 15:21
Der Pixel-Shift-Modus erhöht doch nicht die Anforderung an das Objektiv. ;)

Das hat keiner behauptet.
Das alte MD Grachtenglas bedient die normale Auflösung von 61 MP jedenfalls sicher nicht.

aidualk
07.08.2019, 16:09
Das hat keiner behauptet.
Das alte MD Grachtenglas bedient die normale Auflösung von 61 MP jedenfalls sicher nicht.

Mag sein, ich kenne das MD nicht - aber dass 61MP kein neues und 'teuerstes Zeiss aller Zeiten' bedarf, davon bin ich überzeugt.

Smurf
07.08.2019, 16:30
Ja das Sony 90mm sollte da sicher keine Probleme haben

Kurt Weinmeister
07.08.2019, 17:14
... davon bin ich überzeugt.

Alles andere wäre auch unlogisch.
Die Anforderung an das Objektiv steigt mit der Sensorauflösung und nicht mit der Anzahl verrechneter Pixel.

*thomasD*
07.08.2019, 17:31
Die Anforderung an das Objektiv.steigt deutlich, da ja beim Pixelshift die Auflösung des Sensors verdoppelt (1-dimensional) bzw. (in der Fläche) vervierfacht wird. Ansonsten könnte man ja im Ergebnis auch keine bessere Auflösung erwarten.
Die zusätzliche Information erhält man durch die Aufnahmen in den vier zueinander verschobenen Sensorpositionen, quasi das Gegenteil von Pixelbining.

Kurt Weinmeister
07.08.2019, 19:11
Sind das nicht einfach nur serielle vier Aufnahmen, nur jeweils um einen Pixel verschoben?
Also bleibt es pro Aufnahme bei der maximalen Sensorauflösung.
Ansonsten hätten wir einen 240MP Sensor.

*thomasD*
07.08.2019, 19:56
Das ist die einfache Variante des Pixelshift um alle Farbwerte pro Pixel aufzunehmen - wie bei der A7RIII.
Die A7RIV kann aber das ganze nochmal in beide Richtungen um einen halben Pixel verschoben machen und somit halbe Pixelbreiten aufnehmen. Das macht 16 Aufnahmen (4 für die Farben x 4 für die zusättlichenPosition). Macht tatsächlich Dateien mit 240 MP!

Volle Farbinformation, daher keine Bayer-Interpolation UND viefache Auflösung ggü. normalen Aufnahmen.

Kurt Weinmeister
07.08.2019, 20:17
Ja, aber aus mehreren Einzelbildern zusammengesetzt.
Und für das Objektiv kommt es nur auf das Einzelbild (62 MP) an.
So ist jedenfalls mein Verständnis.

*thomasD*
07.08.2019, 20:27
Es werde letztlich 240M Bildpunkte abgetastet. Das muss das Objektiv liefern.

Kurt Weinmeister
07.08.2019, 20:42
Klar, jedes Pixel oder Subpixel kommt mal analog an der Linse vorbei.
Du gehst aber hoffentlich mit mir konform, dass, wenn ich ein Panorama aus >1000 Bildern zu einer Petapixel Datei verwurste, das Objektiv nicht diese Endauflösung bedienen muss?
Für mich ist der Shift nichts anderes. Nur, dass die Kamera "das Panorama" bereits auf Sensorebene erledigt (was sollte sie auch sonst shiften?).

*thomasD*
07.08.2019, 21:00
Beim Stichen eines Panoramas wird das Objektiv verschwenkt und damit der Bildwinkel addiert. Hier muss das alles innerhalb des stationären Bildbereiches funktionieren.

Kurt Weinmeister
07.08.2019, 21:02
Auch bei einem Shiftobjektiv?

*thomasD*
07.08.2019, 21:09
Auch bei einem Shiftobjektiv änderst du den Bildwinkel / die Ausrichtung bzw. Orientierung.

Nochmal: Bei der A7RIV ist das was ganz anderes. Alle 240 MP liegen innerhalb des statischen Bildbereiches. Am Objektiv oder dessen Bildausrichtung wird bei den Aufnahmen nichts geändert.

Kurt Weinmeister
07.08.2019, 21:32
Dass am Objektiv nichts geändert wird, ist mir klar. Der Sensor wird geshiftet. Aber am Ende werden bis zu 16 Einzelbilder zu einer großen RAW Datei verrechnet. Und das passiert alles nach der Aufnahme am heimischen Rechner.
Und Einzelaufnahmen heißt für mich immer noch: das Objektiv muss die Einzelaufnahme bedienen können und nicht das Endresultat.

Pixel Shift Mode includes a new 16-shot mode that shifts the sensor in half-pixel increments to capture 16 separate images that can be combined to create whopping 240.8 mp (19,008 px x 12,672 px) RAW files using the next’s version of Sony’s Imaging Edge Desktop software.

*thomasD*
08.08.2019, 04:11
Geh mal von dem 60 MP-Sensor aus. Stell dir dann einen Sensor vor bei dem 3 von 4 der Pixel fehlen, der somit also insgesamt 15 MP hat. Du machst nun eine Aufnahme und zusätzlich drei Aufnahmen in den Fehlstellen, also 4x15=60 MP. Das verrechnete Bild danach hat 60 MP. Was muss das Objektiv bedienen? 15 MP oder 60 MP? Wenn 15 MP, wo ist dann der Unterschied zum ursprünglichen 60 MP-Sensor?

Anmerkung: In der Realität überlappen sich die Pixel beim Pixelshift, somit wird es nicht ganz den 240MP entsprechen. Aber es bietet mehr Detauls als die 60 MP und fordert das Objektv entsprechend stärker.

Such mal nach dem Youtube-Video von Tony & Chelsea, die haben das getestet.

Wenn ein Bild innerhalb eines konstanten Motivauschnitts im Ergebnis mehr Details hat, egal ob von einer Aufnahme oder später aus mehreren verrechnet, muss das Objektiv auch entsprechend mehr Details liefern.

Die A7RIV ist die absolute Objektiv-Test-Kamera.

Kurt Weinmeister
08.08.2019, 06:51
Dein Beispiel ist sehr gut! 15MP muss das Objektiv bedienen.
Was ist der Unterschied zum 60MP Sensor? Keiner, da m.E. der Denkfehler darin besteht, man hätte einen 60MP Sensor. Du hast aber nur einen 15MP Sensor. Und erst bei dem hast du den sichtbaren Beweis zwischen 15 und 60 MP Bild.

Der Detailreichtum kommt ja dadurch zustande, dass die Strecke zwischen Pixel A und Pixel B durch den Shift halbiert wird. Das Objektiv selbst liefert zwischen den beiden Pixeln theoretisch unendlich viele analoge Helligkeitswerte, von denen der Sensor nur zwei auswertet. A und B. Miit dem Shift verschiebt sich die "Auswertungsschablone" und der Sensor bekommt damit Stellen zu sehen, die er aufgrund seiner starren Struktur sonst nicht gesehen hätte.

*thomasD*
08.08.2019, 08:23
Irgendwie widerspricht sich dein erster und dein zweiter Absatz. Der zweite geht in die richtige Richtung.

Aber ich befürchte wir kommen da nicht zusammen. Es geht darum dass an das Objektiv höhere Anforderungen gestellt werden wenn man das Potential des neuen Pixelshift ausschöpfen möchte.

Ich gebe an dieser Stelle aber auf. :zuck:

GerdS
08.08.2019, 08:53
Rechnet doch einfach mit den Linienpaaren.
Wenn der Sensor um ein halbes/oder ein Linienpaar verschoben wird entsteht keine zusätzliche Information.
Die kann nur entstehen, wenn die Linienpaare enger sind als die "originale" Pixelbreite.
Dann kann ich durch das verschieben die restlichen/zusätzlichen Linienpaare sichtbar machen.

Viele Grüße
Gerd

*thomasD*
08.08.2019, 10:49
An die Linienpaare hatte ich auch schon gedacht. Aber wenn die anderen Argumente nicht greifen, wieso dann die Linienpaare? :zuck:

TONI_B
08.08.2019, 12:25
Das Objektiv selbst liefert zwischen den beiden Pixeln theoretisch unendlich viele analoge Helligkeitswerte, von denen der Sensor nur zwei auswertet...Das glaube ich nicht. Auch wenn ein Objektiv ein analoges Übertragungssystem ist, sind die Helligkeitswerte zwischen zwei Pixeln nur dann unterschiedlich, wenn es die (analoge) Auflösung des Objektivs zulässt. Das Beugungs- oder Aberrationsscheibchen legt diese Auflösung fest. Wenn man dieses Scheibchen mit einer höheren Auflösung abtastet, bekommt man zwar mehr digitale Werte pro Längeneinheit, aber keine zusätzliche Information!

aidualk
08.08.2019, 12:46
Thomas: Ich muss sagen, so ganz verstehe ich das auch nicht was du beschreibst. :zuck: (aber ich bin auch kein Physiker)

*thomasD*
08.08.2019, 12:58
Dann habe ich mich wohl zu unverständlich ausgedrückt :shock:
Ich hoffe Toni versteht das wenigstens bzw. kann es besser formulieren.

TONI_B
08.08.2019, 13:08
mMn muss das Objektiv die höhere Auflösung wirklich darstellen können, sonst nützt auch die Pixel-Shift-Technik nichts.

Wie vorhin schon erläutert: die Auflösung wird durch das Beugungs- bzw. Aberrationsscheibchen bestimmt. Wenn dieses jetzt größer ist als der Abstand zweier Pixel nützt es natürlich nichts, wenn man den Sensor um eine halbe Pixelbreite verschiebt. Denn dann erhält man zwei idente Bilder. Wenn man die zusammensetzt, bekommt man zwar mehr Pixel, aber nicht mehr an Information.

Jan
08.08.2019, 14:29
Ob Ihr Kurt (http://thomas-tremmel.de/mein-nachbar-kurt) überzeugen konntet?
Die sauber abgebildeten Scheibchen sollten doch anschaulich genug sein.

Das ganze gab es - wenn ich recht erinnere schon einmal bei Digitalkameras, sicher gab es "Wobbling" bei PET-Kameras um die Auflösung zu erhöhen.

Jan

Smurf
08.08.2019, 15:18
Wenn der Sensor jeweils 4 mal um einen Pixel verschoben wird aendert sich doch nicht die Anforderung ans Glas bzw das Auslesevermögen des Sensors. Der Sensor löst immer noch nur 61 MP auf... seine Position ist halt nen Pixel verschoben und das wars. Die Kamera verschiebt den Sensor per Stabi und intern werden die Pixelquadrate aus den einzelnen Dateien dann zu einer Datei kombiniert. Aus einem Pixel werden vier trotz 61 MP. 1. Bild original Position, zweites Bild ein Pixel runter, drittes danach einen pixel nach links verschieben, viertes dann einen pixel nach oben... ergibt genau 4 quadratisch angeordnete pixel. Auflösungsanforderung weiterhin nur 61 MP ... es werden halt 4 Bilder hintereinander gemacht.

*thomasD*
08.08.2019, 15:55
Wenn der Sensor jeweils 4 mal um einen Pixel verschoben wird aendert sich doch nicht die Anforderung ans Glas bzw das Auslesevermögen des Sensors. Der Sensor löst immer noch nur 61 MP auf... seine Position ist halt nen Pixel verschoben und das wars. Die Kamera verschiebt den Sensor per Stabi und intern werden die Pixelquadrate aus den einzelnen Dateien dann zu einer Datei kombiniert. Aus einem Pixel werden vier trotz 61 MP. 1. Bild original Position, zweites Bild ein Pixel runter, drittes danach einen pixel nach links verschieben, viertes dann einen pixel nach oben... ergibt genau 4 quadratisch angeordnete pixel. Auflösungsanforderung weiterhin nur 61 MP ... es werden halt 4 Bilder hintereinander gemacht.

Beitrag #16 gelesen?

Smurf
08.08.2019, 16:13
Beitrag #16 gelesen?

Ich glaub du missverstehst das etwas. Es ist doch irrelevant wie weit der Sensor verschoben wird. Wenn ich ein Pixel sage sind das dann... keine Ahnung 0,005mm? Wenn der Sensor das Bild nun um 0,0025mm verschiebt aendert das trotzdem nichts daran das der Sensor immer noch nur 61Mp auslesen kann und mehr auch nicht braucht. Der einzige Unterschied ist das die Zusammenrechnerei dann über BayerPattern über Kreuz laeuft. Muss man hier ja aber nicht bis ins kleinste gedanklich nachvollziehen. Da haben sich SoftwareIngs. monatelang damit befasst. Der Sensor liest deshalb auch nicht mehr Daten aus. Er wird halt nur verschoben. Um welchen Betrag und wie das Bild dann berechnet macht da auch keinen Unterschied fuer das Glas.

*thomasD*
08.08.2019, 16:15
Ich gebe es auf :zuck:

Kurt Weinmeister
08.08.2019, 16:43
Das glaube ich nicht

Deswegen sagte ich ja auch: theoretisch.
in der Praxis hast Du natürlich recht. Dem Objektiv sind fertigungstechnische Grenzen gesetzt. Wenn das Objektiv nur 5 Linienpaare auflösen kann, dann nutzt mir auch das Shiften recht wenig. Ich gehe aber davon aus, dass das Objektiv für diesen Sensor ausreichende Werte liefert. Aber ich verstehe halt nicht, warum es mehr als das liefern muss.

*thomasD*
08.08.2019, 17:01
Ich gebe es auf :zuck:

Doch noch ein Versuch: Zwei - wenn auch nicht zeitglöeich aufgenommene - Bilder mit unterschiedlichen Abtastpositionen ergeben die doppelte Auflösung - hier graphisch dargestellt für eine Dimension. In der Fläche dann vier Bilder statt zwei

6/Pixelshift.jpg
→ Bild in der Galerie (https:../galerie/details.php?image_id=319617)

Kurt Weinmeister
08.08.2019, 17:10
Verstanden und d'accord.

Aber um das Endresultat zu erreichen, reicht es doch, wenn das Objektiv die Auflösung von blau oder rot liefert, da es zwei Aufnahmen sind und nicht eins.
Oder?

Jumbolino67
08.08.2019, 17:13
Wissen wir denn, wie die einzelnen Bilder zum Endbild verrechnet werden?

Kurt Weinmeister
08.08.2019, 17:17
Nur, dass die Einzelbilder mit Sony's Imaging Edge Software zu einer grossen RAW Datei im Nachgang verrechnet werden.

*thomasD*
08.08.2019, 17:20
Das Endergebnis ist eine Datei mit 240 MP. Um all diese Informationen zu bekommen muss das Objektiv diese liefern - Information bei allen Pixelpositionen. Ansonsten müsste die Datei ja nicht so groß sein.

Kurt Weinmeister
08.08.2019, 17:41
... muss das Objektiv diese liefern

Ja, das Objektiv liefert diese auch. Allerdings in Einzelteilen, die erst später zusammengesetzt werden.

Mehrere LKW Ladungen ergeben auch einen Berg, den ein einzelner LKW nicht liefern kann. Das hast Du doch schön in Deiner Grafik mit den blauen und roten Strichen verdeutlicht.
Ich wäre zu 100% bei Dir, wenn das Ergebnis in einem Durchgang - also aus einer Aufnahme - entstehen würde. Das passiert aber nach all dem, was ich gelesen habe, eben nicht. Und von daher vertrete ich die These, dass ein Objektiv nur so gut sein muss, wie es eine Einzelaufnahme erfordert.

*thomasD*
08.08.2019, 18:13
Du misst mit einem Photodetektor die Helligkeitswerte eines Monitors mit der Länge 1m x 1,5m.
Im ersten Durchgang misst du bei 1cm, 3cm, 5 cm , ....
Im zweiten Durchgang bei 2 cm, 4 cm, 6cm ,....

Du hast insgesamt 100x150 = 15000 Messpunkte. Um ein entsprechend scharfes Bild zu bekommen, muss der Monitor ein Bild von 15000 Bildpunkten oder 50x75=3750 Bildpunkten liefern?

TONI_B
08.08.2019, 19:09
Das Bild, das das Objektiv liefert, besteht aus einer Anzahl von Beugungsscheibchen. Sollte der Sensor eine Pixelbreite von 5µm haben, muss das Objektiv Beugungsscheibchen von ca. 10µm liefern (lt. Abtasttheorem). Wenn jetzt die Pixelshifttechnik den Sensor um 2,5µm verschiebt, entsteht ein identisches zweites Bild, das keine neue Information bringt. D.h. die Auflösung des Objektivs muss ein Beugungsscheibchen kleiner 5µm liefern. Ob das jetzt ein Objektiv kann oder nicht, ist eine andere Frage! Aber prinzipiell muss das Objektiv die Auflösung für 240MP liefern können.

Das Beispiel von Thomas sagt genau das Richtige!

Smurf
08.08.2019, 19:11
Das ist kein Interlace Sensor. Es wird nicht jede zweite Zeile ausgelesen. Sondern es wird jede Zeile ausgelesen und die werden interpoliert. Und ich rede hier nur von Zeilen wegen dem TVvergleich.

Es werden keine Pixel ausgelesen sondern ein 4er Pack vom BayerArray die zusammen dann einen Pixel ergeben. Wenn da von einer Verschiebung von einem "halben" Pixel geredet wird ist das zwar umgangssprachlich korrekt aber eigentlich falsch. Es wird genau um einen Sensorpunkt des BayerArrays verschoben. Und das aendert sich nicht. Das war vorher schon so und ist mit dem Shift auch so. Deine Grafik zeigt es doch witzigerweise... die verdammten Sourcebilder haben die halbe Auflösung ... vertikal und horizontal. Also 1/4 vom Endergebniss des Sensorshiftbildes. Die normalen 61 MP halt.

*thomasD*
08.08.2019, 19:45
Das ist falsch. Die 61 Millionen 'Pixel' sind in der Tat Photodetektoren mit entweder einem roten (1/4 der Meng), blauen (1/4 der Menge) oder grünen (die Hälfte) Farbfiltern davor. Die Luminanz und die Farbinformationen dieser Detektoren wird so miteinander verrechnet (Bayer-Interpolatio), dass 61 Millionen RGB-Pixel entstehen. Das Ergebnis ist nicht so gut wie bei echten 61 Millionen Farbpixeln (ca. 30 % weniger Auflösung --> Foveon-Sensor), aber besser als die Cluster als ein Pixel zu betrachten (1/4 der Auflösung). Die einzelnen 61 Millionen Photodetektoren haben einen Abstand von 3,8 mikrometer. Beim Sensorshift wird neben dem normalen Modus der A7RIII (Verschiebung um 3,8 mikrometer) der Sensor auch zusätzlich um 1,9 Mikrometer verschoben - jeweils in beide Richtungen. Daher die 16 Aufnahmen (4x4).

Smurf
08.08.2019, 20:14
Was willst du mir hier eigentlich erzaehlen?
Der Sensor liest seine Fake 61 MP aus ob mit oder ohne Sensorshift. Es ist voellig egal wie weit und wie schraeg horizontal der Sensor verschoben wird. Die Auflösung ist ohne den Sensorshift 61 Trumpsche Fakemegapixel und beim Shiften sind es auch nur Trumpsche 61 Fakemegapixel bloss das der Sensor bewegt wurde. Wieviel Mikrometer du dir da ausrechnest ist ohne Belang. Der Sensor wird als ganzes bewegt und schaut durch die selbe Scherbe wie vorher. Wo soll da der enorm gestiegene Bedarf an Auflösung herkommen wenn alles gleich bleibt.

*thomasD*
08.08.2019, 20:20
Wenn du meinst!

Kurt Weinmeister
08.08.2019, 20:45
Vielen Dank für eure Ausdauer und Geduld!
Ich denke, ich verstehe jetzt meinen Denkfehler, der damit zu tun hat, dass ich das analoge Signal eines Objektivs linear unendlich angenommen habe.
Der Klick kam bei mir durch den letzten Post von Toni. Der Hinweis auf die Beugungsscheibchen in Kombination mit einem Rechenbeispiel war für mich ausschlaggebend.
Erst als ich mir ein Objektiv vorgestellt habe, dass nur einen Punkt (mit der Größe 1/unendlich) liefert, fiel der Groschen.

Wie gesagt, vielen Dank Thomas und Toni. Es war eine schwere Geburt!

*thomasD*
08.08.2019, 20:53
:top: Hat sich gelohnt

TONI_B
09.08.2019, 06:41
Ok, mancher hat es verstanden, mancher nicht:

Der Sensor wird als ganzes bewegt und schaut durch die selbe Scherbe wie vorher. Wo soll da der enorm gestiegene Bedarf an Auflösung herkommen wenn alles gleich bleibt.Wie du sagst:"Scherbe"! Wenn diese Scherbe Beugungsscheibchen liefert, die größer sind als die Verschiebung des Sensors beim Shiften, bekommst du 2x ein identes Bild und daher keine zusätzlich Information für 240MP. Die Auflösung der Optik muss also die 240MP bedienen können.

Hab schnell ein Bild "zusammengeschustert":
6/Beugung_2.jpg
→ Bild in der Galerie (https:../galerie/details.php?image_id=319652)

Wenn man jetzt die (roten) Pixel um eine halbe Pixelbreite verschiebt, ergibt sich keine Änderung im Bild. Sind die Beugungsscheibchen klein genug, so rentiert sich das Shiften.

aidualk
09.08.2019, 07:52
Ich habe das inzwischen auch verstanden - auch als Nicht-Physiker. - danke :top:

*thomasD*
09.08.2019, 08:12
Da macht sich die didaktische Erfahrung von Toni bezahlt - er bringt es halt besser auf den Punkt :top:

TONI_B
09.08.2019, 08:35
Danke! :oops:

kk7
09.08.2019, 15:43
Der Sensor kann aber nicht mit jedem Pixel die gleiche Farbe erfassen. Und Glasfehler,,, dürften auch noch einen Einfluss haben. D.h. Jede Verschiebung verändert mehrere Variablen. Wenn das Glas 65MP abbilden kann, wie sieht es dann aus? Und mit welchem Algorithmus werden die Pixel miteinander verrechnet - hat das auch noch einen Einfluss? Fragen über Fragen ...

GerdS
09.08.2019, 16:44
Also für mich ist - und war - das schon immer klar.

Aber vielleicht müssen wir die komplexe Optik mit der Strahlentheorie, der Sensorgeometrie und den Silizium-Atomstrukturen betrachten.
Denn erst dann ist klar, dass es komplett egal ist für die Masse der Bilder im Internet.

Viele Grüße
Gerd

*thomasD*
09.08.2019, 16:56
Der Sensor kann aber nicht mit jedem Pixel die gleiche Farbe erfassen. Und Glasfehler,,, dürften auch noch einen Einfluss haben. D.h. Jede Verschiebung verändert mehrere Variablen. Wenn das Glas 65MP abbilden kann, wie sieht es dann aus? Und mit welchem Algorithmus werden die Pixel miteinander verrechnet - hat das auch noch einen Einfluss? Fragen über Fragen ...

Jede Position wird mit allen vier Farben aufgenommen - daher der Sensor um je ein Pixel verschoben. Das ganze dann zusätzlich um ein halbes Pixel verschoben um die zusätzliche Auflösung zu erhalten --> Daher 4x4=16 Aufnahmen

Fehler des Objektives werden natürlich deutlicher sichtbar. Mit einem schlechten Objektiv bringt der Sensorshift nichts. Daher habe ich ja geschreiben: Das ist die ultimative Objektiv-Test-Kamera.
Die Verrechnung stelle ich mir gar nicht so kompliziert vor bei einer Verschiebeung von genau einem halben Pixel.

Jan
09.08.2019, 20:30
Wer mehr wissen will kan auch nach pixel shift suchen, das gibt es schon länger und immer noch (z.B. bei Olympus und Hasselblad), bei Olympus angeblich so schnell, dass es sogar ohne Stativ funktionieren soll.
LG Jan

u. kulick
01.10.2019, 01:33
Wenn diese Scherbe Beugungsscheibchen liefert, die größer sind als die Verschiebung des Sensors beim Shiften, bekommst du 2x ein identes Bild und daher keine zusätzlich Information für 240MP. Die Auflösung der Optik muss also die 240MP bedienen können.

Thomas hat den 4x4-Modus beschrieben, also nach deiner Theorie 4x ein identes Bild bei einem Beugungsscheibchen größergleich einem Pixel. Nun können die modernen Sensoren mehr Farbnuancen wahrnehmen als z.B. mein Bildschirm darstellen kann, dazu erhebliche Dynamik (Helligkeitsverläufe). Verschieb ich also den Sensor in 4 verschiedene Halbpixelpositionen, die die Ecken eines Quadrates mit Halbpixelabstand als Kantenlänge beschreiben, und nehme jede Halbpixelposition mit allen 4 zum vollständigen Farbpixel gehörigen Bayerpixeln auf, ergeben sich 16 Aufnahmen, die der genauen Farb- und Helligkeitsermittlung von 4 Bild-Pixeln dienen. Liegt nun das Beugungsscheibchen in einem Farb- und Helligkeitsverlauf, der feinnuanciert vom Sensor erfasst werden kann, kann die per Sensor-Shift genauer ermittelte Nuance an jeder der Quadratecken eine andere sein! Und schon haben wir einen Abbildungsvorteil, denn nicht ein Beugungsscheibchen bestimmt die Pixel-Information für vier Pixel, sondern das Zentrum von vier verschiedenen Beugungsscheibchen bestimmt die Pixelinfo jedes einzelnen Pixels! Ist da also ein Denkfehler bei den Experten hier? Der Unschärfebereich kann IMHO u.U. genauer erfasst werden durch diesen Pixel-Shift-Modus, d.h. seine Farb- und Helligkeitsverläufe.

Wissen wir denn, wie die einzelnen Bilder zum Endbild verrechnet werden?

Ja, so eine Kamera bzw. ihr RAW-Entwicklungsprogramm beherrscht u.U. auch die Kunst, aus ihr bekannten Objektivtypen bestimmte charakteristische Abberationen herauszurechnen. Bleibt aber das Beugungsscheibchen als Grenze dieser Künste. Ein 60 MP auflösendes Objektiv kann also bei Repro-Aufnahmen nicht vier mal mehr Details rausholen, wenn der Sensor per Halbpixelshift einen 240 MP Sensor interpolationsfrei (!) emuliert.