![]() |
Zitat:
Zitat:
Prinzipiell sind daher Vergleiche bei Kunstlicht, wie z.B. dieser http://www.mi-fo.de/forum/index.php?...dpost&p=293163 aussagekräftiger, da hier konstantes Licht gewährleistet ist. Dabei ist der Unterschied dann auch besonders deutlich. |
Leider kann man die Bilder da nicht sehen, wenn man nicht registriert ist.
|
Ich möchte noch ein anderen potentiellen Grund für die widersprüchlichen Resultate ins Spiel bringen: die durch EVF/LV bedingte Dauerfunktion des Sensors mit der damit verbundenen Erwärmung. Kann es sein, dass der Sensor der A99 bei DXO viel wärmer war als bei DPreview? Und sich deshalb noch eine weitere halbe Blendeneinheit im Vergleich zur D600 ergeben hat.
Was ist von einer solchen Vermutung zu halten? Kann dieser Grund ausgeschlossen werden? Gruß hw |
Diue Frage Sensor PDAF ist jetzt irgendwie wieder untergegangen. Wenn der normale PDAF ca. 1/2 Blende Licht braucht, um ordnungsgemäß zu funktionieren, wird der PDAF auf dem Sensor ja auch Licht brauchen. Nicht umsonst kommt Sony auf den Wert, sie hätten sicher lieber weniger Reflektion unf mehr Transmission gehabt.
Aus der Patentschrift geht das für mich nicht hervor. Aber die ist mir auch zu kompliziert. Aber wenn man 100 PDAF Sensoren einbaut, ist halt die Frage, wie groß die Dinger sind. Und entsprechend dem, was die dazugehörigen Microlinsen wegnehmen, gibt es einen Lichtverlust. |
Zitat:
|
Zitat:
http://www.dxomark.com/index.php/Cam...brand2%29/Sony |
Zitat:
|
Ich denke auch, daß der Einfluß der AF-Hilfspunkte auf dem Sensor überschätzt wird. Wenn an den oben in den Raum gestellen 0,2EV etwas dran wäre, dann entspräche das wie gesagt einem Verlust von 12% der Sensorfläche - also jedes achte Pixel. Das müßte sich doch nicht nur auf die Belichtung, sondern auch meßbar auf die Bildqualität / Auflösung auswirken.
|
Zitat:
Man könnte aber auch anders argumentieren. Nehmen wir als Vergleich ein Schachbrettmuster. Werden dann die weißen Flächen weniger belichtet nur weil an der Hälfte der Pixel kein Licht - weil schwarz - ankommt? Ich denke nicht und ich glaube, dass die wenigen Fehlpixel am Sensor durch die Software mit den Werten der Nachbarpixel gefüllt werden - durch elektronische Werte allerdings und nicht durch echtes Licht!:P Beim AF-Modul selber ist es etwas anderes, das braucht ja Licht, um messen zu können und deshalb wird 1/3 aus dem Lichtkanal abgezweigt. Aber das ist ja kein Verlust durch das AF-Modul selber, sondern durch das abzweigen aus der Gesamtmenge ... :!: Weiters ist mir schleierhaft, wie die Mikrolinse des AF-Punktes der Mikrolinse am Nachbarpixel Licht wegnehmen soll. Dann würden sich ja auch im Normalfall die Mikrolinsen gegenseitig Licht wegnehmen - wozu brauche ich sie dann? Deshalb glaube ich felsenfest, dass der AF am Sensor absolut kein Licht wegnimmt, aber ich lasse mich wie immer gerne eines besseren belehren! LG Gerhard |
Vorweg: ich kenne das Patent nicht.
1) wenn ich einen PD-AF auf dem Sensor selbst zu implemetieren hätte, würde ich ihm die volle Lichtdosis gönnen (also nicht nur rot oder grün oder blau). Die dafür verwendeten Pixel scheiden demnach für die Farbinterpolation (Bayer-pattern) also schon mal aus. 2) Damit der Sensor auch etwas zu messen hat, muss er auch eine entprechende Strecke bestreichen, 2 oder 3 Pixel reichen da nicht aus, eher ist eine (mindestens) 3-stellige Anzahl gemeint. Ob das tatsächlich zu einem nennenswserten Einbruch bzgl. des zu errechnenden Bildes und damit zu einer geringeren Lihtempfindlichkeit als Ganzem führt, kann ich nicht beurteilen. mfG Manfred |
Alle Zeitangaben in WEZ +2. Es ist jetzt 07:47 Uhr. |