|
|
|||||||||||||||
|
07.08.2019, 21:02 | #21 |
Registriert seit: 06.03.2015
Ort: Berlin
Beiträge: 4.426
|
Auch bei einem Shiftobjektiv?
__________________
Chefexeget an der Rudolf-Steiner Schule |
Sponsored Links | |
|
07.08.2019, 21:09 | #22 |
Registriert seit: 07.01.2008
Ort: HU
Beiträge: 4.718
|
Auch bei einem Shiftobjektiv änderst du den Bildwinkel / die Ausrichtung bzw. Orientierung.
Nochmal: Bei der A7RIV ist das was ganz anderes. Alle 240 MP liegen innerhalb des statischen Bildbereiches. Am Objektiv oder dessen Bildausrichtung wird bei den Aufnahmen nichts geändert. |
07.08.2019, 21:32 | #23 |
Registriert seit: 06.03.2015
Ort: Berlin
Beiträge: 4.426
|
Dass am Objektiv nichts geändert wird, ist mir klar. Der Sensor wird geshiftet. Aber am Ende werden bis zu 16 Einzelbilder zu einer großen RAW Datei verrechnet. Und das passiert alles nach der Aufnahme am heimischen Rechner.
Und Einzelaufnahmen heißt für mich immer noch: das Objektiv muss die Einzelaufnahme bedienen können und nicht das Endresultat. Pixel Shift Mode includes a new 16-shot mode that shifts the sensor in half-pixel increments to capture 16 separate images that can be combined to create whopping 240.8 mp (19,008 px x 12,672 px) RAW files using the next’s version of Sony’s Imaging Edge Desktop software.
__________________
Chefexeget an der Rudolf-Steiner Schule |
08.08.2019, 04:11 | #24 |
Registriert seit: 07.01.2008
Ort: HU
Beiträge: 4.718
|
Geh mal von dem 60 MP-Sensor aus. Stell dir dann einen Sensor vor bei dem 3 von 4 der Pixel fehlen, der somit also insgesamt 15 MP hat. Du machst nun eine Aufnahme und zusätzlich drei Aufnahmen in den Fehlstellen, also 4x15=60 MP. Das verrechnete Bild danach hat 60 MP. Was muss das Objektiv bedienen? 15 MP oder 60 MP? Wenn 15 MP, wo ist dann der Unterschied zum ursprünglichen 60 MP-Sensor?
Anmerkung: In der Realität überlappen sich die Pixel beim Pixelshift, somit wird es nicht ganz den 240MP entsprechen. Aber es bietet mehr Detauls als die 60 MP und fordert das Objektv entsprechend stärker. Such mal nach dem Youtube-Video von Tony & Chelsea, die haben das getestet. Wenn ein Bild innerhalb eines konstanten Motivauschnitts im Ergebnis mehr Details hat, egal ob von einer Aufnahme oder später aus mehreren verrechnet, muss das Objektiv auch entsprechend mehr Details liefern. Die A7RIV ist die absolute Objektiv-Test-Kamera. |
08.08.2019, 06:51 | #25 |
Registriert seit: 06.03.2015
Ort: Berlin
Beiträge: 4.426
|
Dein Beispiel ist sehr gut! 15MP muss das Objektiv bedienen.
Was ist der Unterschied zum 60MP Sensor? Keiner, da m.E. der Denkfehler darin besteht, man hätte einen 60MP Sensor. Du hast aber nur einen 15MP Sensor. Und erst bei dem hast du den sichtbaren Beweis zwischen 15 und 60 MP Bild. Der Detailreichtum kommt ja dadurch zustande, dass die Strecke zwischen Pixel A und Pixel B durch den Shift halbiert wird. Das Objektiv selbst liefert zwischen den beiden Pixeln theoretisch unendlich viele analoge Helligkeitswerte, von denen der Sensor nur zwei auswertet. A und B. Miit dem Shift verschiebt sich die "Auswertungsschablone" und der Sensor bekommt damit Stellen zu sehen, die er aufgrund seiner starren Struktur sonst nicht gesehen hätte.
__________________
Chefexeget an der Rudolf-Steiner Schule |
Sponsored Links | |
|
08.08.2019, 08:23 | #26 |
Registriert seit: 07.01.2008
Ort: HU
Beiträge: 4.718
|
Irgendwie widerspricht sich dein erster und dein zweiter Absatz. Der zweite geht in die richtige Richtung.
Aber ich befürchte wir kommen da nicht zusammen. Es geht darum dass an das Objektiv höhere Anforderungen gestellt werden wenn man das Potential des neuen Pixelshift ausschöpfen möchte. Ich gebe an dieser Stelle aber auf. Geändert von *thomasD* (08.08.2019 um 08:26 Uhr) |
08.08.2019, 08:53 | #27 |
Registriert seit: 09.01.2005
Ort: 67269 Grünstadt
Beiträge: 2.756
|
Rechnet doch einfach mit den Linienpaaren.
Wenn der Sensor um ein halbes/oder ein Linienpaar verschoben wird entsteht keine zusätzliche Information. Die kann nur entstehen, wenn die Linienpaare enger sind als die "originale" Pixelbreite. Dann kann ich durch das verschieben die restlichen/zusätzlichen Linienpaare sichtbar machen. Viele Grüße Gerd |
08.08.2019, 10:49 | #28 |
Registriert seit: 07.01.2008
Ort: HU
Beiträge: 4.718
|
An die Linienpaare hatte ich auch schon gedacht. Aber wenn die anderen Argumente nicht greifen, wieso dann die Linienpaare?
|
08.08.2019, 12:25 | #29 |
Registriert seit: 13.12.2007
Ort: Ö; Deutsch-Wagram
Beiträge: 12.270
|
Das glaube ich nicht. Auch wenn ein Objektiv ein analoges Übertragungssystem ist, sind die Helligkeitswerte zwischen zwei Pixeln nur dann unterschiedlich, wenn es die (analoge) Auflösung des Objektivs zulässt. Das Beugungs- oder Aberrationsscheibchen legt diese Auflösung fest. Wenn man dieses Scheibchen mit einer höheren Auflösung abtastet, bekommt man zwar mehr digitale Werte pro Längeneinheit, aber keine zusätzliche Information!
__________________
|
08.08.2019, 12:46 | #30 |
Registriert seit: 17.12.2007
Ort: Rhein-Main
Beiträge: 21.248
|
Thomas: Ich muss sagen, so ganz verstehe ich das auch nicht was du beschreibst. (aber ich bin auch kein Physiker)
__________________
- Video/Timelapse: Schottische Highlands im November - Berge 2023 - Sternenhimmel Rhön - Rund um die Zugspitze - Ein Wintertag auf der Wasserkuppe Reiseberichte: La Palma - Grönland im Herbst - Nord-Norwegen im Winter - Polarlichttour Norwegen im November |
Sponsored Links | |
|
|
Themen-Optionen | |
Ansicht | |
|
|