![]() |
|
|
![]() |
|||||||||||||
![]() |
||||||||||||||||
|
![]() |
#241 |
Registriert seit: 20.12.2020
Beiträge: 150
|
|
![]() |
![]() |
Sponsored Links | |
|
![]() |
#242 |
Registriert seit: 30.01.2006
Ort: Schaue auf Zürich
Beiträge: 9.334
|
__________________
Viele Grüße, Klaus Geändert von turboengine (12.11.2021 um 22:18 Uhr) |
![]() |
![]() |
![]() |
#243 | |
Registriert seit: 07.01.2008
Ort: HU
Beiträge: 4.818
|
Zitat:
4xfach Pixelshift führt dazu dass jede Farbe an jeder Position aifgenommen wird. Das verhindert Moire. Die zusätzliche Information wird in VIER Raws gespeichert. 16fach Pixelshift verschiebt den Sensor zursätzlich nochmal um einen halben Pixelpitch, somit können die Zwischeninformationen aufgenommen werden. Das wird dann in 16 RAWs abgespeichert. |
|
![]() |
![]() |
![]() |
#244 | |
Registriert seit: 20.12.2020
Beiträge: 150
|
Zitat:
Nikon wird doch wohl nicht bei 20 oder 30B/s den Sensor noch im Viereck hopsen lassen. Da wäre komplettes Auslesen wohl doch deutlich einfacher. |
|
![]() |
![]() |
![]() |
#245 |
Registriert seit: 08.04.2009
Ort: Neusäß (BY)
Beiträge: 14.500
|
Mit dem Auslesen der kompletten Sensorfläche erhälst DU dann die 52 MP, mit dem Shift 2, 3, 4 x 45MP.
__________________
Gruß aus Bayern Steve |
![]() |
![]() |
Sponsored Links | |
|
![]() |
#246 | |
Registriert seit: 20.12.2020
Beiträge: 150
|
Zitat:
Sie müssten dann die vorgegebene Belichtungszeit aufteilen in 4 Belichtungen für das Endergebnis, das würde wiederum 4 mal Auslesezeit bedeuten => 16ms? Oder 4 * 1ms. Das wäre dann quasi GS und dann noch die mechanische Bewegung nicht vergessen. Ist das realistisch? oder mach ich da einen Denkfehler? Geändert von db2gu (13.11.2021 um 00:36 Uhr) |
|
![]() |
![]() |
![]() |
#247 | |
Registriert seit: 30.01.2006
Ort: Schaue auf Zürich
Beiträge: 9.334
|
Zitat:
Ich habe ja schon oben meine Vermutung geäussert, dass dies Pixel sind die im Sensor physisch vorhanden sind aber nicht zum Bildergebnis beitragen. Einen Crop hat die Z9 ganz sicher nicht, das wäre ganz sicher aufgefallen und Nikon gibt die effektive Sensorfläche ja auch mit 35.9 x 23.9 mm an. So, jetzt spekuliere ich mal auf die Gefahr hin mich zu blamieren: Erste Möglichkeit: Die Pixel dienen dem Autofokus. Und nicht nur zur Scharfstellung selbst, sondern auch zur Motivverfolgung und -Erkennung. Die Z9 erkennt Menschen, Tiere, Autos usw. vollautomatisch ohne dass dazu manuell eine Einstellung notwendig ist (wie bei Canon und Sony). Ausserdem funktioniert das ohne Unterbrechung der Bildwiedergabe im Sucher. Von der Sony A1 kennt man kurzzeitige „Hänger“ im Sucher wenn viel Daten verarbeitet werden müssen. Die Z9 entkoppelt die Vorgänge vollkommen. Daher „kommt sie so DSLR-Mässig herüber“. Ob 60Hz oder 120 ist eigentlich unwichtig. Sony und Canon interpolieren Bilder um die 120 Hz zu bedienen, das macht Nikon nicht. Darum ist der Sucher so flink und klar. Der Sucher verhält sich wie ein Spiegel. Und das geht durch die komplette Entkopplung von Bilderzeugung und Steuerung mit dafür exklusiv vorgehaltenen Pixel-clustern. Nikon hat das wohl so gelöst (reine Spekulation von mir) dass über das gesamte Bildfeld verteilt Pixel ausschliesslich für den AF und die Belichtungsmessung benutzt werden. Das kleinere Pixelarray ist auch für die Artificial Intelligence Engine notwendig, da die Trainingsdatensätze bzw. das „hidden layer“ des neuronalen Netzwerks auf 6MP Bildern basieren. Diese Bildgrösse wäre ein guter Kompromiss aus Speicheranforderung, Geschwindigkeit (Stromverbrauch) und Erkennungsqualität. Das halte ich für plausibel. Warum? In meiner DSLR D850 funktioniert die Augenerkennung und 3D-Tracking auch mit optischem Sucher über den RGB-Sensor für die Belichtungsmessung. Der hat nur bescheidene 170.000 Pixel was bei typischen Portraits für eine zuverlässige Erkennung genügt, bei Sportaufnahmen jedoch nicht mehr. Da dies ein zweiter Sensor mit eigener unabhängiger Verarbeitung ist, macht das die D850 zu einer sehr agilen Kamera. Bei der D5 und D6 ist das ähnlich. Da Nikon hier nicht hinter diesen von Profis gewohnten und geschätzten Standard zurück fallen will und darf, haben sie gleich Nägel mit Köpfen gemacht und ein ähnliches System auf spiegellos übersetzt, nur mit AI. Man implementiert also einen „virtuellen 6MP Sensor“ in einen 52MP Sensor. Da es keinen Stahlteiler wie bei einer DSLR gibt, wäre das die Lösung für „Spiegellos“. Auch die Tatsache, dass das allseits geforderte 3D-Tracking wieder da ist, spricht dafür. Das 3D-Tracking ist das Killerfeature bei der D500 / D850 / D5 / D6. Das AF-Feld hängt bei AF-C am Objekt wie die Wespe am Zwetschgendatschi. Zweite Möglichkeit: Die Pixel dienen der Dynamiksteuerung des Sensors. Nikon hat eine ähnliche Technologie vorgestellt („Superchip“) bei der dezidierte Sensoren die Verstärkerelektronik lokal beeinflussen. Das Halte ich aber für wenig plausibel, die Dynamik der Z9 ist laut ersten Versuchen nicht so sehr anders als bei den Vorgängern. Daher: unwahrscheinlich. Dass das Bild „Löcher wie ein Käse hat“ kannst Du Dir selbst beantworten. Es gibt genügend Bilder im Netz. Ausserdem ist das auch schon bei jedem „On Sensor PDAF“ der Fall. Jede Sony ab der A7II wäre betroffen.
__________________
Viele Grüße, Klaus Geändert von turboengine (13.11.2021 um 12:21 Uhr) |
|
![]() |
![]() |
![]() |
#248 | ||||||||
Registriert seit: 20.12.2020
Beiträge: 150
|
Zitat:
Zitat:
Im Datenblatt ist eindeutig der Bildsensor mit "35,9 mm x 23,9 mm (FX-Format)" und 52,37 Millionen Bildpunkten Pixel angegeben von denen Effektive Auflösung 45,7 Millionen Pixel benutzt werden. Da steht nichts von effektiver Größe macht ja auch null Sinn! Zitat:
So funktioniert das nicht! mal ganz einfach: Bei der Objekterkennung handelt es sich um KI auf Basis neuronaler Netze. Was das System erkennen soll ist allein abhängig davon mit was für Objekte das NN trainiert wurde. Diese trainierten Netze werden im Normalfall auf spezialisierten Prozessoren wie NPU's aufgespielt. Umfangreichere Objekterkennung erfordert umfangreichere Trainingsdaten und größere NN's. NN's arbeiten nicht exakt sondern in den meisten Fällen nur genau genug. Lassen sich aber genauso wie der Mensch visuell täuschen. Die Objekterkennung arbeitet um so besser je höher die Detailauflösung ist. Die NPU bekommt Zugriff auf das zu analysierende Bild und gibt als Ergebnis die Position des Auges im Bild zurück mehr nicht! An dieser Position muss dann der Hauptprozessor die Fokussierung durchführen. Zitat:
Zitat:
Ganzes Bild mit allen Details zu Auswertung ist qualitativ immer besser! 6MB ist rein der unzureichenden Performance geschuldet und warum soll da was verloren gehen? Letztendlich ist es nicht mehr als in der Auflösung herunterskaliertes Bild. Bekommen die anderen doch auch ohne Verlust hin. Zitat:
Das ist doch gerade der riesen Vorteil einer DSLM Ein Sensor, eine eineindeutige Datenbasis und alle Instanzen mit Ihren spezialisierten Aufgaben wie Objektsuche Fokusierung, Monitorausgabe Belichtungsmessung ... können darauf aufsetzen und Ihre Aufgabe erfüllen. Zitat:
Zitat:
Somit ist die Frage für mich immer noch nicht zufriedenstellend beantwortet! Nachtrag: Mich wundert nur dass die Fragestellung scheinbar noch nie diskutiert wurde. Auch der winzige Puffer und die schlechte Bandbreite bei den Serienbildern ist scheinbar auch noch niemand wirklich aufgefallen. Geändert von db2gu (13.11.2021 um 14:32 Uhr) |
||||||||
![]() |
![]() |
![]() |
#249 |
Registriert seit: 07.09.2003
Beiträge: 20.036
|
Und welche Deiner Aussagen ist eine geprüfte?
Dat Ei
__________________
![]() "Wer mit Euch ist, ist nicht ganz bei sich." |
![]() |
![]() |
![]() |
#250 |
Registriert seit: 30.01.2006
Ort: Schaue auf Zürich
Beiträge: 9.334
|
Hier im Forum über eine Kamera, die noch keiner in der Hand hatte?
Da wendest Du Dich am besten an Nikon Deutschland und postest dann hier die Antwort. Weisst Du was? Rutsch mir den Buckel runter!
__________________
Viele Grüße, Klaus |
![]() |
![]() |
Sponsored Links | |
|
![]()
|
|
|