PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Abschied vom Bayer-Sensor?


Orbiter1
12.11.2014, 11:24
Laut SAR bringt Sony nächstes Jahr Smartphones und Kameras mit neuer Sensortechnologie raus. Die Technologie nennt sich Active Pixel Color Sampling. Wird immerhin mit SR4 eingestuft, aber ich glaube das erst wenn Sony die entsprechenden Produkte vorstellt. Hier der Link zu SAR http://www.sonyalpharumors.com/sr4-hot-news-sony-revolutionizes-the-sensor-world-makes-worlds-first-active-pixel-sensor-apcs/

ddd
12.11.2014, 11:47
moin,

die Modellnummer passt nicht, das "spec sheet" ist sehr wahrscheinlich ein fake.

Genau lesen: "... by moving filter on electrified[cut]" wäre z.B. ein simples Filterrad vor einem Monochrom-Sensor und daher nicht Bestandteil der Sensor-Spezifikation. Oder eine Piezoantrieb, welcher die Bayer-Matrix verschiebt, oder oder ...

Das passt eventuell zu speziellen Industriekameras, oder zu einer medizinischen Anwendung, aber für Fotografie völlig ungeeignet.

Koenich
12.11.2014, 12:22
Hmm....

das müsste dann eventuell eine Ähnliche Technologie wie die Sigma Foveon Sensoren sein, oder?

LG
Martin

wus
12.11.2014, 12:26
Nö.

wus
12.11.2014, 12:52
die Modellnummer passt nicht, das "spec sheet" ist sehr wahrscheinlich ein fake.Das denke ich auch, Widersprüche werden schnell erkennbar wenn man diese "Specs" aufmerksam durchliest und ein bisschen rechnet:
Wie soll ein Sensor mit 2163 x 2226 Pixel 4K Video mit 6144 x 2160 ausgeben? Dafür wäre horizontal eine 3-fache Interpolation nötig.

Und wenn das "Output format" auf 576 Mbps begrenzt ist dann ist "2K Video imaging" mit 2048x1080x16000fps bestenfalls mit extrem hoher Datenkompression möglich. Unkomprimiert ergäbe das - 8 bit Farbtiefe pro Grundfarbe vorausgesetzt - 849 Gbps, wenn man das durch 576 Mbps teilt kommt eine Kompression von 1475:1 raus. Und diese Kompression müsste dann schon auf dem Chip stattfinden!

Zum Vergleich: full HD mit 60 fps, komprimiert mit der höchsten bit rate im AVCHD Format der A77 (28 Mbps) ergibt eine Kompression 107:1. Selbst wenn man berücksichtigt dass mit H265 dopplet so hohe Kompression möglich ist wie mit dem "alten" H264 Codec in der A77: 1500:1 erscheint mir schon arg hoch, wozu das gut sein soll erschließt sich mir nicht auf Anhieb.

Dat Ei
12.11.2014, 13:06
Moin, moin,

Wie soll ein Sensor mit 2163 x 2226 Pixel 4K Video mit 6144 x 2160 ausgeben?

wie kommst Du auf die Auflösung von 6144px x 2160px? Ich kenne nur die Auflösungen, wie sie hier genannt sind: clickclack! (http://en.wikipedia.org/wiki/4K_resolution)

Ok, selbst bei 3840px x 2160px müsste interpoliert werden.


Dat Ei

wus
12.11.2014, 13:39
wie kommst Du auf die Auflösung von 6144px x 2160px? Ich weiß, sehr ungewöhnliche Auflösung - steht aber so in dem eingangs verlinkten Datenblatt.

Dat Ei
12.11.2014, 13:54
Ich weiß, sehr ungewöhnliche Auflösung - steht aber so in dem eingangs verlinkten Datenblatt.

Danke für die Aufklärung.


Dat Ei

Orbiter1
15.11.2014, 12:31
Jetzt gibt es auf SAR weitere Details zur Funktionsweise des neuen Active Pixel Color Sampling Sensors. SAR geht weiter davon aus dass diese Sensortechnologie in zukünftigen Alpha-Kameras zum Einsatz kommen wird. Wir werden sehen ob das wirklich so kommt. Habe da nach wie vor erhebliche Zweifel. Hier ist der Link: http://www.sonyalpharumors.com/sr4-detailed-spec-sheet-of-the-new-sony-apcs-active-pixel-color-sampling-sensor/

mrHiggins
15.11.2014, 12:42
Fall 1:
30 Sekunden belichtung. Jede Farbe 10 Sekunden. Die Helligkeitsinformationen könnte man übertragen (wie beim bayer auch auf die nachbarpixel) insofern würde man das Signal nicht verstärken, aber dennoch wären die Farbinformationen bei bewegenden Objekten teilweise massiv verschoben.

Fall 2:
1/3000sek (die auch benötigt werden!!) fail!

NetrunnerAT
15.11.2014, 12:54
Nala ... wenn ich die Daten so lese, sind 1/3000 kein Problem. Der Chip kann ja 1/16000. Was mich bei dieser Funktion Beschreibung stört ... wie kann ist die Tatsache das auch eine geringe Masse bewegt werden muss und zwar sehr exakt. Der Sensor wird womöglich sehr empfindlich auf Erschütterungen sein. Ob Piezo- oder Magnetantrieb. Die Datenmenge ist eigentlich auch kein Problem, da diese womöglich schon im Sensor selbst aufbereitet wird.

TONI_B
15.11.2014, 16:26
Entweder es ist ein sehr guter Fake, oder aber den Sony-Technikern ist hier wiederum ein tolles Stück Technik gelungen!

Die Werte klingen durchaus plausibel. Sicherlich: bei bewegten Motiven könnte es Probleme geben, aber ich sehe ein gigantisches Potential zB. für Astroaufnahmen! Man hätte quasi eine Monochrome Kamera mit eingebauten "Filterrad". So arbeitet man zwar im Moment, aber mit einem externen großen Filterrad.

Sollten die Empfindlichkeiten tatsächlich so kommen...:top:

usch
15.11.2014, 19:47
Man hätte quasi eine Monochrome Kamera mit eingebauten "Filterrad".
Aber ein Filter ist ein Filter und schluckt Licht, egal ob man die Farben jetzt im Orts- oder im Zeitbereich anordnet. Du gewinnst gegenüber dem Bayer-Sensor eine höhere Auflösung, brauchst aber dafür eine drei Mal so lange Belichtungszeit.

Wirklich revolutionär wären Mikro-Strahlteiler, die das einfallende Licht nicht filtern, sondern verlustlos auf jeweils drei Subpixel aufteilen. Das ginge dann schon eher in Richtung Foveon, nur eben nicht in der Tiefe gestaffelt.

TONI_B
15.11.2014, 20:44
Aber ein Filter ist ein Filter und schluckt Licht, egal ob man die Farben jetzt im Orts- oder im Zeitbereich anordnet. Du gewinnst gegenüber dem Bayer-Sensor eine höhere Auflösung, brauchst aber dafür eine drei Mal so lange Belichtungszeit...Die brauche ich ja jetzt auch bei einer Astroaufnahme mit einer monochromen Kamera. So wäre es halt einfacher von der Bedienung her. ;)

Interessant wäre vor allem ob diese Empfindlichkeitswerte stimmen. :cool:

usch
15.11.2014, 21:06
Die brauche ich ja jetzt auch bei einer Astroaufnahme mit einer monochromen Kamera.
Dafür hast du aber die freie Wahl der Filterkurven und kannst statt R+G+B auch z.B. IR+Y+B nehmen ;).

TONI_B
15.11.2014, 21:31
Ja, sicher - aber wenn dann eher schmalbandige Filter: H-Alpha; O-III; S-II usw.

mrHiggins
15.11.2014, 23:45
Aber ein Filter ist ein Filter und schluckt Licht, egal ob man die Farben jetzt im Orts- oder im Zeitbereich anordnet. Du gewinnst gegenüber dem Bayer-Sensor eine höhere Auflösung, brauchst aber dafür eine drei Mal so lange Belichtungszeit.


Sicher? Nehmen wir an du fotografierst jetzt 3 Sekunden lang. Das tust du dann immernoch. Es fällt in 3 Sekunden gleich viel Licht auf den Sensor. Der Farbfilter gibt nur ein Verhältnis von den Farben an. Die Sekunde in der Rot belichtet wird, bringt dir auch für Blau was.
Beim Addieren der 3 Farbwerten addierst du auch die Helligkeit.


Im Grunde ist das wie beim Foveon. Dort wird das licht in verschiedenen Tiefen gemessen.



Addiert man die 3 Farbkanäle in ein Schwarz-Weiß Bild hat man ein richtig belichtetes Bild.

zigzag
16.11.2014, 01:08
Fall 1:
30 Sekunden belichtung. Jede Farbe 10 Sekunden. Die Helligkeitsinformationen könnte man übertragen (wie beim bayer auch auf die nachbarpixel) insofern würde man das Signal nicht verstärken, aber dennoch wären die Farbinformationen bei bewegenden Objekten teilweise massiv verschoben.

Ist es denn sicher das die einzelnen Pixel nur nacheinander belichtet werden. Wenn man die rgb Schicht alternierend verschiebt verliert man zwar etwas Zeit (ist mir jetzt zu spät zum nachrechnen) aber es gäbe keinen massiven Farbversatz.

usch
16.11.2014, 01:46
Die Sekunde in der Rot belichtet wird, bringt dir auch für Blau was.
Häh?

Falls du darauf abzielst, daß die spektralen Durchlasskurven der Filter etwas überlappen: Das tun sie beim Bayer-Filter auch. Müssen sie ja auch, sonst könntest du gar keine Zwischentöne aufnehmen. Das macht also keinen Unterschied.

Ist es denn sicher das die einzelnen Pixel nur nacheinander belichtet werden. Wenn man die rgb Schicht alternierend verschiebt verliert man zwar etwas Zeit (ist mir jetzt zu spät zum nachrechnen) aber es gäbe keinen massiven Farbversatz.
Du mußt aber nach jedem Verschieben den Sensor auslesen und wieder zurücksetzen, um die Werte einer Farbe zuordnen zu können. Statt drei Einzelaufnahmen mit je 1/100 hättest du dann z.B. 30 Einzelaufnahmen mit je 1/1000 Sekunde Belichtungszeit. Ich bezweifle, daß das in der Frequenz überhaupt machbar ist.

zigzag
16.11.2014, 02:28
Das mit der Belichtung ist wohl eher so, das r + g + b = 1 ist. Also das du die Belichtung von jedem pixel aus den drei einzelnen belichtungen addiert werden.


Ich denke schon das es alternierend Sinn macht. Ich deute auch die Abb. auf SAR so. Dort steht A: continued exposure und B: output image.
Das bedeutet für mich, dass nach einem Verschiebungsvorgang ein erneuter startet, wenn die Belichtung noch nicht fertig ist.

Habe jetzt doch noch mal gerechnet: das verschieben und auslesen dauert laut der Abb. gerundet 1/5000s. Bei einer Belichtungszeit von 1/100s wird der Sensor also 50 mal ausgelesen. Das sind dann 5000 mal die Sekunde.

Edit: Es ist doch schon zu spät, bei 50 Auslesungen bleibt keine Zeit mehr zum belichten:shock:

Keine Ahnung wie wahrscheinlich das jetzt ist, aber die 16000 Auslesungen (fps) bei 2k klingen für mich auch recht unglaublich. Welche Nachteile jetzt der dafür benötigte global shutter mit sich bringt, weiß ich allerdings nicht.

ddd
16.11.2014, 03:13
moin,

16000fps schaffen selbst Hochgeschwindigkeits-Spezialkameras nicht mal ansatzweise. Klar gibt es Cams mit 100.000fps, aber die erreichen diese Rate nur bei reduzierter Framegröße von typ. 2pix Höhe (2 einzelne Pixelzeilen), 500-1000fps werden bei ca. 1700-1080pix Bildhöhe erreicht, das ist weniger als ein Zehntel der angeblichen Rate.
Die Sensoren müssen aktiv gekühlt werden, nutzen Ringbuffer mit GigE-Schnittstelle und können nur wenige Sekunden Dauerlauf (typ. 16GByte Buffer), da die Ringbuffer-Auslesung viel zu langsam ist. Solche Kameras werden in F&E eingesetzt.

Die Daten des ominösen IMX189 sind einfach ausserhalb der Realität. Zudem passt die Nr. nicht, aktuell sind Sensoren mit der Produktnumer 236 oder höher in Entwicklung. Ein IMX189 wäre der Stand von vor ca. 2 Jahren (Mitte 2012), das ist unplausibel.

Eine Filterung mit Mikro-Strahlteilern würde wieder 3 Subpixel pro Bildpunkt erfordern, also bringt dieser Ansatz auch nix. Denn egal wie die Strahlteiler funktionieren, die Filterung muss erfolgen, wenn ich Spektralinformationen ("Farbe") haben will. Wellenlängenabhängige teildurchlässige Spiegel gibt es zwar, aber nur für sehr schmale Frequenzbereiche, und Reflexionsverluste kann man dann nicht verhindern, d.h. vagabundierendes Licht im System usw. Klassische Strahlteiler-Kameras (3CCD) verwenden jedenfalls alle Absorptionsfarbfilter in den Teilwegen, und da hat man viel Platz.

TONI_B
16.11.2014, 11:20
Jetzt hast du unsere ganzen Illusionen vom Super-Sensor zerstört...:lol::lol:

Einerseits war ich irgendwie skeptisch, andererseits fasziniert, ob es wirklich funktionieren könnte.

Trotzdem glaube ich, dass in den "Sensor-Schmieden" von Sony und anderen Firmen noch ganz tolle Dinge auf uns warten werden. zB. wurde gerade im Astro-Bereich eine Kamera mit einem 50MP Sensor mit 6µm Pixel vorgestellt - aber nicht von Sony.

NetrunnerAT
16.11.2014, 11:30
uhm ... gute Einschätzung!

http://www.sony.net/Products/SC-HP/new_pro/april_2014/imx214_e.html

Wuste gar nicht, dass man diese Infos so im Netz findet.

ddd
16.11.2014, 22:02
Trotzdem glaube ich, dass in den "Sensor-Schmieden" von Sony und anderen Firmen noch ganz tolle Dinge auf uns warten werden.
sicher, aber es gibt physikalische Grenzen, die Dir besser als den meisten hier bekannt sind. Z.B. ist die Dynamik ein Problem, da man die Kapazität des Well-Kondensators nicht beliebig erhöhen kann. Empfindlichkeit steigern stößt auch an Grenzen, Photonen-Effizienz ist fast ausgereizt, Verstärkerrauschen liegt bereits bei wenigen einzelnen e-, die Integrationszeiten der AD-Wandler können nicht viel kleiner gemacht oder deren Anzahl erhöht werden usw. Eventuell kann man an der Reflektivität der Silizum-Oberfläche noch stärker drehen, u.a. wurde vor kurzem eine Oberflächenbeschichtung mit einem Reflexionskoeffizienten von nahe Null (http://www.spektrum.de/alias/nanotechnik/schwaerzestes-material-der-welt-macht-dinge-nahezu-unsichtbar/1304074) vorgestellt, Objekte mit diesem Überzug sehen wie ein Loch in der Realität aus :shock:, da sie keinerlei erkennbare Struktur mehr haben und absolut schwarz aussehen. Diese spezielle Methode eignet sich nicht für die Sensoroberfläche, aber die dahinter stehenden Prozesse erlauben mglw. diesen Parameter auf andere Weise positiv zu beeinflussen. Trotzdem ist auch da kein Wunder möglich, immerhin treten m.W. schon heute ein relevanter Anteil der Photonen in den lichtempfindlichen Bereich ein.

Es gibt sicher weitere evolutionäre Entwicklungsschritte.

Bahnbrechende Neuerungen stehen kaum noch zu erwarten, da die vorhandene Technologie bereits recht nahe an den theoretisch-physikalischen Grenzen angelangt ist. Faktor 2 dürfte bei einigen Parametern noch möglich sein, wesentlich mehr eher nicht. Bei Empfindlichkeit und Dynamik wäre das gerade mal je eine Blendenstufe ...
Bei der Auflösung geht noch mehr, 1.1µm Pixelpitch ist bei kleinen Sensoren in der Massenfertigung, das wären lockere 700MPix auf KB. Aber da stoßen aktuelle Objektive an Grenzen, selbst die Otus-Objektive dürften damit überfordert sein, von der Beugung ganz abgesehen, die dann bereits um f/2 zuschlägt.

Bessere Verarbeitungsalgorithmen können weitere Reserven herauskitzeln, gerade im Astro- oder Planetenerkundungsbereich konnten wir sehen, was aus den Aufnahmen 30 Jahre alter Technik mit aktueller Verarbeitung herausgeholt werden konnte. In diesem Bereich erwarte ich eher noch größere Entwicklungsschritte.

Ich frage mich nur, warum sich da jemand solche Mühe mit diesem eigentlich offensichtlichen fake gibt?

@NetrunnerAT: leider gibt es keine öffentlich zugänglichen Datenblätter von Sony für CMOS-Sensoren. Ein einziges ist öffentlich zugänglich: IMX234-0APH5-C (840kB, pdf) (http://www.sony.net/Products/SC-HP/datasheet/01/data/E14701B4X.pdf) (Diagonal 6.864 mm (Type 1/2.61) 16Mega-Pixel CMOS Image Sensor with Square Pixel for Color Cameras), Quelle: http://www.sony.net/Products/SC-HP/datasheet/01/index.html . Grundsätzlich funktionieren alle Sony-CMOS-IMX-Sensoren ähnlich, daher kann man sich einen groben Eindruck anhand dieses Datenblattes verschaffen.

*thomasD*
16.11.2014, 22:13
Naja, eine Blendenstufe fände ich schon ganz ordentlich. Und wenn man eine Möglichkeit fände, alle Wellenlängen zu nutzen und auf die Filter zu verzichten wäre wohl noch einiges drin. Mit dem Ansatz aus dem Fake gewinnt man aber nichts diesbezüglich.

ddd
17.11.2014, 14:27
moin, alle Wellenlängen zu nutzen und auf die Filter zu verzichten
Es dürfte fundamental unmöglich sein, dies zu erreichen.

Wenn ich mittels eines Prismas oder Gitters eine Wellenlängenmesung ohne Filter vornehme, dann verliere ich die Information woher das Licht genau kam, da eine gewisse Mindestintensität und/oder Mindestgröße des Eintrittsspaltes (Beugung!) benötigt wird. In der Astronomie wird teils so gearbeitet, Sternspektren werden auf diese Art aufgenommen. Alllerdings sind die nötigen Gerätschaften wenig "transportabel", und eine Miniaturisierung stößt letztlich an die quantenphysikalischen Grenzen, aktuelle Mikroelektronik incl. Bildsensoren arbeitet bereits tief in deren Reich.

Die Überlegung, statt (Absortions-)Filtern entsprechend spektral empfindliche Detektoren zu verwenden, ändert nichts. Es ist völlig egal, wie ich filtere, ob durch Absorption, spektrale Empfindlichkeit oder spektraler Aufteilung mittels Gitter oder Dispersion (Prisma), das Ergebnis ist (im Idealfall) identisch.

Letztlich funktioniert unser Farbsehen auch durch ortsbezogene Frequenz-Filterung (spektral emfindliche Farbstoffe in verschiedenen Zapfentypen der Netzhaut) und nachfolgendes Demosaicing in der Wetware. Alternative Ansätze im Insekten-(Komplex)Auge sind bekannt, für die bildmäßige Fotografie aber schwieriger umzusetzen.

*thomasD*
17.11.2014, 21:56
Welche physikalischen Gründe sprechen gegen einen echten Foveon-Sensor, bei dem die Photonen mit unterschiedlicher Energie (Wellenlänge) unterschiedliche Eindringtiefe haben und in entsprechender Tiefe den inneren Photoeffekt auslösen? Das Material könnte bspw. geschichtet sein, die oberste absorbiert nur rot und transmittiert den Resst, die Schicht darunter absorbiert gelb und transmittiert den Rest usw.. Die freien Elektronen werden durch ein elektrisches Feld zur Seite abgeschöpft, dazwischen liegen ggf. transparente Isolierschichten. Ggf. wird so auch nur die Leitfähigkeit in den Schichten verändert.

usch
17.11.2014, 23:04
Ein Problem ist z.B., daß die Photonen nicht schnurgerade in das Material eindringen, sondern gestreut werden. Je größer die Wellenlänge, desto geringer wird dadurch die Auflösung. Bei der DP2 hat Sigma daraus schon die Konsequenzen gezogen – nur die oberste Lage (blau) hat eine Auflösung von 20 MP, die Rot- und Grünschicht haben jeweils nur noch knapp 5 MP. Im Endeffekt muß da also auch wieder interpoliert werden.

*thomasD*
18.11.2014, 21:56
Streuung ist aber eine Materialeigenschaft (wellenlängenabhängig, wie Transmission und Absorption auch). Durschaus denkbar dies mit geeigneten Materialien in den Griff zu bekommen.

John W
19.11.2014, 10:47
Bei der Auflösung geht noch mehr, 1.1µm Pixelpitch ist bei kleinen Sensoren in der Massenfertigung, das wären lockere 700MPix auf KB. Aber da stoßen aktuelle Objektive an Grenzen, selbst die Otus-Objektive dürften damit überfordert sein, von der Beugung ganz abgesehen, die dann bereits um f/2 zuschlägt.


Ist die Beugung abhängig vom Pixelpitch, und nicht mehr von der Sensorgröße?

VG
JohnW

TONI_B
19.11.2014, 10:52
Beugung ist/war niemals von der Größe eines Sensor abhängig, sondern hängt nur von der Wellenlänge und der Größe der Öffnung ab.