![]() |
|
|
![]() |
|||||||||||||
![]() |
||||||||||||||||
|
![]() |
#11 | |
Registriert seit: 30.01.2006
Ort: Schaue auf Zürich
Beiträge: 9.336
|
Zitat:
Ich habe ja schon oben meine Vermutung geäussert, dass dies Pixel sind die im Sensor physisch vorhanden sind aber nicht zum Bildergebnis beitragen. Einen Crop hat die Z9 ganz sicher nicht, das wäre ganz sicher aufgefallen und Nikon gibt die effektive Sensorfläche ja auch mit 35.9 x 23.9 mm an. So, jetzt spekuliere ich mal auf die Gefahr hin mich zu blamieren: Erste Möglichkeit: Die Pixel dienen dem Autofokus. Und nicht nur zur Scharfstellung selbst, sondern auch zur Motivverfolgung und -Erkennung. Die Z9 erkennt Menschen, Tiere, Autos usw. vollautomatisch ohne dass dazu manuell eine Einstellung notwendig ist (wie bei Canon und Sony). Ausserdem funktioniert das ohne Unterbrechung der Bildwiedergabe im Sucher. Von der Sony A1 kennt man kurzzeitige „Hänger“ im Sucher wenn viel Daten verarbeitet werden müssen. Die Z9 entkoppelt die Vorgänge vollkommen. Daher „kommt sie so DSLR-Mässig herüber“. Ob 60Hz oder 120 ist eigentlich unwichtig. Sony und Canon interpolieren Bilder um die 120 Hz zu bedienen, das macht Nikon nicht. Darum ist der Sucher so flink und klar. Der Sucher verhält sich wie ein Spiegel. Und das geht durch die komplette Entkopplung von Bilderzeugung und Steuerung mit dafür exklusiv vorgehaltenen Pixel-clustern. Nikon hat das wohl so gelöst (reine Spekulation von mir) dass über das gesamte Bildfeld verteilt Pixel ausschliesslich für den AF und die Belichtungsmessung benutzt werden. Das kleinere Pixelarray ist auch für die Artificial Intelligence Engine notwendig, da die Trainingsdatensätze bzw. das „hidden layer“ des neuronalen Netzwerks auf 6MP Bildern basieren. Diese Bildgrösse wäre ein guter Kompromiss aus Speicheranforderung, Geschwindigkeit (Stromverbrauch) und Erkennungsqualität. Das halte ich für plausibel. Warum? In meiner DSLR D850 funktioniert die Augenerkennung und 3D-Tracking auch mit optischem Sucher über den RGB-Sensor für die Belichtungsmessung. Der hat nur bescheidene 170.000 Pixel was bei typischen Portraits für eine zuverlässige Erkennung genügt, bei Sportaufnahmen jedoch nicht mehr. Da dies ein zweiter Sensor mit eigener unabhängiger Verarbeitung ist, macht das die D850 zu einer sehr agilen Kamera. Bei der D5 und D6 ist das ähnlich. Da Nikon hier nicht hinter diesen von Profis gewohnten und geschätzten Standard zurück fallen will und darf, haben sie gleich Nägel mit Köpfen gemacht und ein ähnliches System auf spiegellos übersetzt, nur mit AI. Man implementiert also einen „virtuellen 6MP Sensor“ in einen 52MP Sensor. Da es keinen Stahlteiler wie bei einer DSLR gibt, wäre das die Lösung für „Spiegellos“. Auch die Tatsache, dass das allseits geforderte 3D-Tracking wieder da ist, spricht dafür. Das 3D-Tracking ist das Killerfeature bei der D500 / D850 / D5 / D6. Das AF-Feld hängt bei AF-C am Objekt wie die Wespe am Zwetschgendatschi. Zweite Möglichkeit: Die Pixel dienen der Dynamiksteuerung des Sensors. Nikon hat eine ähnliche Technologie vorgestellt („Superchip“) bei der dezidierte Sensoren die Verstärkerelektronik lokal beeinflussen. Das Halte ich aber für wenig plausibel, die Dynamik der Z9 ist laut ersten Versuchen nicht so sehr anders als bei den Vorgängern. Daher: unwahrscheinlich. Dass das Bild „Löcher wie ein Käse hat“ kannst Du Dir selbst beantworten. Es gibt genügend Bilder im Netz. Ausserdem ist das auch schon bei jedem „On Sensor PDAF“ der Fall. Jede Sony ab der A7II wäre betroffen.
__________________
Viele Grüße, Klaus Geändert von turboengine (13.11.2021 um 12:21 Uhr) |
|
![]() |
![]() |
Sponsored Links | |
|
|
|