|
|
|||||||||||||||
|
08.08.2019, 17:17 | #42 |
Registriert seit: 06.03.2015
Ort: Berlin
Beiträge: 4.451
|
Nur, dass die Einzelbilder mit Sony's Imaging Edge Software zu einer grossen RAW Datei im Nachgang verrechnet werden.
__________________
Chefexeget an der Rudolf-Steiner Schule |
08.08.2019, 17:20 | #43 |
Registriert seit: 07.01.2008
Ort: HU
Beiträge: 4.729
|
Das Endergebnis ist eine Datei mit 240 MP. Um all diese Informationen zu bekommen muss das Objektiv diese liefern - Information bei allen Pixelpositionen. Ansonsten müsste die Datei ja nicht so groß sein.
|
08.08.2019, 17:41 | #44 |
Registriert seit: 06.03.2015
Ort: Berlin
Beiträge: 4.451
|
Ja, das Objektiv liefert diese auch. Allerdings in Einzelteilen, die erst später zusammengesetzt werden.
Mehrere LKW Ladungen ergeben auch einen Berg, den ein einzelner LKW nicht liefern kann. Das hast Du doch schön in Deiner Grafik mit den blauen und roten Strichen verdeutlicht. Ich wäre zu 100% bei Dir, wenn das Ergebnis in einem Durchgang - also aus einer Aufnahme - entstehen würde. Das passiert aber nach all dem, was ich gelesen habe, eben nicht. Und von daher vertrete ich die These, dass ein Objektiv nur so gut sein muss, wie es eine Einzelaufnahme erfordert.
__________________
Chefexeget an der Rudolf-Steiner Schule |
08.08.2019, 18:13 | #45 |
Registriert seit: 07.01.2008
Ort: HU
Beiträge: 4.729
|
Du misst mit einem Photodetektor die Helligkeitswerte eines Monitors mit der Länge 1m x 1,5m.
Im ersten Durchgang misst du bei 1cm, 3cm, 5 cm , .... Im zweiten Durchgang bei 2 cm, 4 cm, 6cm ,.... Du hast insgesamt 100x150 = 15000 Messpunkte. Um ein entsprechend scharfes Bild zu bekommen, muss der Monitor ein Bild von 15000 Bildpunkten oder 50x75=3750 Bildpunkten liefern? |
Sponsored Links | |
|
08.08.2019, 19:09 | #46 |
Registriert seit: 13.12.2007
Ort: Ö; Deutsch-Wagram
Beiträge: 12.283
|
Das Bild, das das Objektiv liefert, besteht aus einer Anzahl von Beugungsscheibchen. Sollte der Sensor eine Pixelbreite von 5µm haben, muss das Objektiv Beugungsscheibchen von ca. 10µm liefern (lt. Abtasttheorem). Wenn jetzt die Pixelshifttechnik den Sensor um 2,5µm verschiebt, entsteht ein identisches zweites Bild, das keine neue Information bringt. D.h. die Auflösung des Objektivs muss ein Beugungsscheibchen kleiner 5µm liefern. Ob das jetzt ein Objektiv kann oder nicht, ist eine andere Frage! Aber prinzipiell muss das Objektiv die Auflösung für 240MP liefern können.
Das Beispiel von Thomas sagt genau das Richtige!
__________________
|
08.08.2019, 19:11 | #47 |
Registriert seit: 05.01.2012
Beiträge: 485
|
Das ist kein Interlace Sensor. Es wird nicht jede zweite Zeile ausgelesen. Sondern es wird jede Zeile ausgelesen und die werden interpoliert. Und ich rede hier nur von Zeilen wegen dem TVvergleich.
Es werden keine Pixel ausgelesen sondern ein 4er Pack vom BayerArray die zusammen dann einen Pixel ergeben. Wenn da von einer Verschiebung von einem "halben" Pixel geredet wird ist das zwar umgangssprachlich korrekt aber eigentlich falsch. Es wird genau um einen Sensorpunkt des BayerArrays verschoben. Und das aendert sich nicht. Das war vorher schon so und ist mit dem Shift auch so. Deine Grafik zeigt es doch witzigerweise... die verdammten Sourcebilder haben die halbe Auflösung ... vertikal und horizontal. Also 1/4 vom Endergebniss des Sensorshiftbildes. Die normalen 61 MP halt. Geändert von Smurf (08.08.2019 um 19:19 Uhr) |
08.08.2019, 19:45 | #48 |
Registriert seit: 07.01.2008
Ort: HU
Beiträge: 4.729
|
Das ist falsch. Die 61 Millionen 'Pixel' sind in der Tat Photodetektoren mit entweder einem roten (1/4 der Meng), blauen (1/4 der Menge) oder grünen (die Hälfte) Farbfiltern davor. Die Luminanz und die Farbinformationen dieser Detektoren wird so miteinander verrechnet (Bayer-Interpolatio), dass 61 Millionen RGB-Pixel entstehen. Das Ergebnis ist nicht so gut wie bei echten 61 Millionen Farbpixeln (ca. 30 % weniger Auflösung --> Foveon-Sensor), aber besser als die Cluster als ein Pixel zu betrachten (1/4 der Auflösung). Die einzelnen 61 Millionen Photodetektoren haben einen Abstand von 3,8 mikrometer. Beim Sensorshift wird neben dem normalen Modus der A7RIII (Verschiebung um 3,8 mikrometer) der Sensor auch zusätzlich um 1,9 Mikrometer verschoben - jeweils in beide Richtungen. Daher die 16 Aufnahmen (4x4).
Geändert von *thomasD* (08.08.2019 um 19:48 Uhr) |
08.08.2019, 20:14 | #49 |
Registriert seit: 05.01.2012
Beiträge: 485
|
Was willst du mir hier eigentlich erzaehlen?
Der Sensor liest seine Fake 61 MP aus ob mit oder ohne Sensorshift. Es ist voellig egal wie weit und wie schraeg horizontal der Sensor verschoben wird. Die Auflösung ist ohne den Sensorshift 61 Trumpsche Fakemegapixel und beim Shiften sind es auch nur Trumpsche 61 Fakemegapixel bloss das der Sensor bewegt wurde. Wieviel Mikrometer du dir da ausrechnest ist ohne Belang. Der Sensor wird als ganzes bewegt und schaut durch die selbe Scherbe wie vorher. Wo soll da der enorm gestiegene Bedarf an Auflösung herkommen wenn alles gleich bleibt. |
08.08.2019, 20:20 | #50 |
Registriert seit: 07.01.2008
Ort: HU
Beiträge: 4.729
|
Wenn du meinst!
|
Sponsored Links | |
|
|
|
|