![]() |
Sony hat ja ein Patenttausch-Abkommen mit Aptina. Von daher denke ich, dass sich das nicht großartig unterscheiden wird.
Interessant finde ich die Anmerkung im Whitepaper, dass die Ansteuerung der zusätzlichen Kondensatoren natürlich zusätzliche Leiterbahnen auf dem Chip erfordert. Sinnvollerweise sollte man das also wohl nur bei BSI-Sensoren machen. |
Irgendwie war das bisher an mir vorbei gegangen:
Sony a7S III has a 2×2 pixel binning sensor: Sensor teardown Zitat:
|
Das ging ja damals durch die Gerüchteküche. Es war nur nicht klar, ob da was dran ist und wenn ja, welcher Sensor es konkret sein würde.
https://www.sonyuserforum.de/forum/s...58#post2149158 |
Ja stimmt, da war mal was. Aber damals ist das nicht so wirklich bei mir angekommen.
Im Juli 2020 waren meine Gedanken ganz wo anders. :crazy: |
Zum Erscheinen der A7SIII, 2020 - habe ich eben zufällig wieder gefunden.
Zitat:
![]() → Bild in der Galerie |
Zitat:
Nach ein paar Tagen ist mir nun aufgefallen, dass das update die Trennung der Einstellung für Foto/Video beim PP (Picture Profil) zurück gesetzt hat. Irritierend, weil z.B. auch Slog3 sich direkt auf das Foto RAW auswirkt. |
Auf einer Seite erläutert Sony den Vorteil der Quad-Bayer Sensor Technologie: Hier natürlich für Smartphones, einfach weil es in dem Bereich wohl das meiste Interesse gibt.
https://www.sony-semicon.com/en/tech...er-coding.html Diese Quad-Bayer-Sensor Technologie ist ja auch in der A7SIII verbaut, und ich habe sie in der Praxis inzwischen ausgiebig kennen gelernt. Sowohl die Vorteile aber auch die Nachteile. Es wird auch ein 'Zusammenfassen' der Pixel zu einem 48MP Sensor beschrieben. Für mich ist das erstmal unverständlich, zumindest für die tatsächliche Praxis. Bei der A7SIII gibt es diese Art Technologie auch nicht. Scheinbar ist das nur in Smartphones integriert (?) Sinngemäß übersetzt: Zitat:
https://www.sony-semicon.com/files/6..._QBC_02_en.png Die Pixel beim Quad-Bayer sind nun mal anders angeordnet als beim normalen Bayer. Das ändert sich ja nicht plötzlich. Kann sich hier jemand einen Reim darauf machen? Hat jemand Erfahrung/Hintergrundwissen was es damit auf sich hat und ob das tatsächlich Sinn macht, die Sensorpixel/Farben so zu interpretieren, was Sony 'Remosaic' (Pixel arrangement conversion) nennt? Mich verwirrt das. Bei der A7SIII werden die Quad-Pixel unterschiedlich ausgelesen, abhängig von der verwendeten ISO, also völlig anders als hier beschrieben. |
Das ist schon so wie in deiner Kamera.
In dem Bild sieht man das jedes Pixel noch mal in 4 Pixel unterteilt ist. Bei wenig Licht werden diese 4 Pixel als 1Pixel ausgelesen. Bei viel Licht werden die 4 Pixel einzeln ausgelesen. Dann wird daraus eine Anordnung wie bei einem normalen Bayer-Sensor berechnet. Das nennen sie Remosaic. In der Horizontalen Reihe kommen ja 2x Grün, 2x Rot. Da wird das 2te grüne um 1Pixel nach rechts geschoben und das 1te rote um 1Pixel nach links. In der Senkrechten wird das mit Grün und Blau gemacht u.s.w bis man das Muster hat, was man rechts sieht. |
Vielen Dank für deine Antwort.
Zitat:
Zitat:
Zitat:
Ob das bei einem Sony Smartphone evtl. anders ist, weiß ich freilich nicht. |
Jetzt habe ich erst verstanden wo das Problem liegt.:doh:
Wenn bei gutem Licht die Auflösung nicht höher liegt macht der ganze Quad-Sensor ja eigentich gar keinen Sinn.:? Da kann ich mir keinen Reim drauf machen. |
Alle Zeitangaben in WEZ +2. Es ist jetzt 17:30 Uhr. |