PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 3 Sensoren (RGB) für Smartphones


cmoetzing
28.03.2018, 07:58
Warum baut noch kein Handy-Hersteller eine Handy-Kamera aus 3 Sensoren die jeweils nur ein Farbspektrum abdecken? Klein genug wären die Sony Sensoren doch, dass man Sie im Dreieck anordnen kann. Die minimale Abweichung des Blickwinkels müsste sich doch herausrechnen lassen nachdem jetzt schon verschiedene Brennweiten in Software fusioniert werden (https://www.heise.de/newsticker/meldung/Huawei-P20-Pro-40-Megapixel-und-Dreifach-Kamera-fuer-bessere-Fotos-4001764.html). Das würde dann dich viel schärfere Bilder und größere Pixel bedeuten (bei gleicher Auflösung, oder eben gleiche Pixelgröße bei 4-facher Auflösung :shock: )

Handys wären ein toller Vorreiter, sodass es die Technik dann vielleicht auch in die normale Fotografie schafft (analog zu hier: https://light.co/camera).

Das wäre dann sowas wie die Sigma unter den Handys.

meshua
28.03.2018, 08:36
Das würde dann dich viel schärfere Bilder und größere Pixel bedeuten (bei gleicher Auflösung, oder eben gleiche Pixelgröße bei 4-facher Auflösung :shock: )


Schau' einfach mal, was die Smartphone-Hersteller aktuell glauben was Anwender unbedingt brauchen: 40+ Megapixel Smartphones, um den internen Speicher möglichst schnell vollzubekommen und den JPEG-Pixelbrei anschließend als 800x600px Bildchen auf Instagram/FB/WA herumzuschicken... Visionäre und Revolutionen sind im Moment Fehlanzeige. :P

Das Groß der Smartphone-Zielgruppe wird den Unterschied eines 3CCD nicht bemerken oder nicht wertschätzen...selbst finde ich SONY's 24MP Produktlinie für mich bzgl. Auflösung als ausreichend - und damit meine ich keine Wertung sondern i.S.v. "es muss nicht zwingend mehr sein, es genügt einfach" . ;)

Viele Grüße, meshua

dinadan
28.03.2018, 13:54
Die Idee, mehrere Smartphone-Sensoren zu kombinieren hatten schon andere, allerdings nicht um RGB zu implementieren. Einen interessanten Ansatz findest du hier (https://petapixel.com/2017/12/08/review-light-l16-brilliant-braindead/).

Smurf
29.03.2018, 18:10
3 Sensoren gleichzeitig = 3facher Stromverbrauch . Bei Mobilephones das Todesurteil

usch
30.03.2018, 04:58
Warum baut noch kein Handy-Hersteller eine Handy-Kamera aus 3 Sensoren die jeweils nur ein Farbspektrum abdecken?
Weil das nur dann einen qualitativen Vorteil bringt, wenn du einen verlustlosen Strahlteiler mit Interferenzfiltern (https://de.wikipedia.org/wiki/Dichroitisches_Prisma) davor setzt. Das wäre allerdings ein ziemlicher Klotz, der vielleicht in einen Camcorder passt, aber wohl kaum in ein sieben Millimeter dünnes Handy. Rot- und Blauanteil treten ja seitlich aus dem Prisma aus, deswegen müssten zwei der Sensoren "stehend" eingebaut werden.

Wenn du einfach nur drei kleine Einzelsensoren mit gewöhnlichen Absorptionsfiltern anstelle eines dreimal so großen Bayer-Sensors verbaust, gewinnst du überhaupt nichts. Die effektive Lichtmenge pro Pixel bleibt ja die gleiche, nur die geometrische Anordnung ist eine andere.

Dafür hast du aber das Problem, dass du für die drei Einzelsensoren dann drei gleiche Objektive brauchst, die auch synchron fokussieren und zoomen müssen.

Fata Morgana
30.03.2018, 22:04
Meiner Meinung nach stehen die Kosten in keinem gesunden Verhältnis zu der Verbesserung der Bildqualität, die zwei zusätzliche Sensoren bringen würden. Es wäre doch einfacher, günstiger und besser sich eine Kompaktkamera mit 1" und lichtstarkem Objektiv zusätzlich zum Mittelklasse-Smartphone zu kaufen als sich so ein High-End-Smartphone mit 3 Kameras zu kaufen.

cmoetzing
01.04.2018, 23:20
Die Kosten können es ja nicht sein; es gibt Mittlerweile ja Kameras mit 3 Sensoren ( plus vorne einer macht sogar 4). Synchroner Fokus ist natürlich ein Ding.

Ein Prisma ist ja unnötig, 3 Linsen mit 3 Sensoren und etwas Software wäre die Idee. Möglich dass das im Nahbereich schwierig wird mit dem zusammenblenden der Bilder.

Einen qualitativen Vorteil erwarte ich in jedem Fall. Bleiben die Sensoren gleich groß sind die Pixel deutlich größer oder die Auflösung geht drastisch nach oben.

Stromverbrauch ist tatsächlich nochmal so eine Sache...

The Norb
01.04.2018, 23:25
...selbst finde ich SONY's 24MP Produktlinie für mich bzgl. Auflösung als ausreichend - und damit meine ich keine Wertung sondern i.S.v. "es muss nicht zwingend mehr sein, es genügt einfach"

Der Meinung bin ich aktuell auch :D

usch
02.04.2018, 00:16
Ein Prisma ist ja unnötig, 3 Linsen mit 3 Sensoren und etwas Software wäre die Idee.
Du hast das Problem nicht verstanden. Du musst ja dafür sorgen, daß jeder der drei Sensoren nur "seine" Grundfarbe empfängt. Wenn du einfach einen subtraktiven Farbfilter davor setzt, verlierst du pro Pixel zwei Drittel des einfallenden Lichts, genau wie bei einem Bayersensor. Und dann macht es für das Ergebnis überhaupt keinen Unterschied mehr, ob die Pixel RRRRRRRR (Sensor 1) GGGGGGGG (Sensor 2) BBBBBBBB (Sensor 3) oder RGBRGBRGBRGBRGBRGBRGBRGB (dreimal so großer Bayer-Sensor) angeordnet sind.

Die 3CCD-(oder 3CMOS-)Anordnung ist dem Bayersensor gerade deswegen überlegen, weil durch die Interferenzfilter sichergestellt ist, daß so gut wie kein Photon verloren geht: Was nicht auf dem einen Sensor landet, bleibt nicht in irgendeiner Farbschicht hängen, sondern geht garantiert auf einen der beiden anderen Sensoren.

TONI_B
02.04.2018, 06:26
Aber wenn die drei Sensoren "Schwarz-Weiß" sehen, geht das natürlich schon...

Wird ja in der Astronomie auch so gemacht, nur halt zeitlich hintereinander: ein Sensor, der von UV bis IR empfindlich ist und zuerst wir R gemacht, dann G und dann B. Mit Filtern, die jeweils einen relativ breiten Spektralbereich abdecken - ähnlich den Filtern die vor den RGB-Pixeln eines Bayer-Pattern Sensors sitzen.

Wenn man jetzt die drei Aufnahmen gleichzeitig macht, würde das schon eine Verbesserung darstellen.

HaPeKa
02.04.2018, 08:38
Typische Expertendiskussion. Ob es tatsächlich nötig ist, dass ein Handy jedes Photon aufzeichnen kann, das daher kommt, wage ich in Frage zu stellen. Die ultimative Bildqualität muss nicht mit einem Handy erzielt werden, auch wenn wir sehr viel von ihm erwarten. Nicht alles, was möglich ist, ist auch sinnvoll, das wurde schon im zweiten Post zu recht festgehalten.

Aber verbessern kann man Handyfotos mit drei Linsen und entsprechender Software natürlich schon. Huawei hat es mit dem P20 Pro mit triple camera (https://www.dxomark.com/huawei-p20-pro-camera-review-innovative-technologies-outstanding-results/) vorgemacht. Und solche Verbesserungen führen konkret zu besseren Handybildern, die auch 'genutzt' werden können :D

TONI_B
02.04.2018, 09:23
Typische Expertendiskussion. Ob es tatsächlich nötig ist, dass ein Handy jedes Photon aufzeichnen kann, das daher kommt, wage ich in Frage zu stellen. Die ultimative Bildqualität muss nicht mit einem Handy erzielt werden, auch wenn wir sehr viel von ihm erwarten. Nicht alles, was möglich ist, ist auch sinnvoll, das wurde schon im zweiten Post zu recht festgehalten.Typische Laienansicht...;)
Was glaubst du macht ein Sensor in einem Handy derzeit? Photonen "wegwerfen"? Jeder Sensor, egal, ob im Handy, in einer DSLR oder in einer Astro-Cam hat eine gewisse Quantenausbeute (im Moment ca. 70%. D.h. 70 von 100 Photonen werden in verwertbare Elektronen umgewandelt, der Rest in Wärme oder reflektiert). Je höher diese Ausbeute ist, desto eher kann man bei wenig Licht fotografieren und das Rauschen ist geringer - was natürlich auch beim Handy sehr wichtig ist. Daher ist es tatsächlich notwendig, dass auch ein Handy "jedes" Photon aufzeichnen kann...:cool:

cmoetzing
03.04.2018, 14:45
Du hast das Problem nicht verstanden. Du musst ja dafür sorgen, daß jeder der drei Sensoren nur "seine" Grundfarbe empfängt. Wenn du einfach einen subtraktiven Farbfilter davor setzt, verlierst du pro Pixel zwei Drittel des einfallenden Lichts, genau wie bei einem Bayersensor. Und dann macht es für das Ergebnis überhaupt keinen Unterschied mehr, ob die Pixel RRRRRRRR (Sensor 1) GGGGGGGG (Sensor 2) BBBBBBBB (Sensor 3) oder RGBRGBRGBRGBRGBRGBRGBRGB (dreimal so großer Bayer-Sensor) angeordnet sind.

Die 3CCD-(oder 3CMOS-)Anordnung ist dem Bayersensor gerade deswegen überlegen, weil durch die Interferenzfilter sichergestellt ist, daß so gut wie kein Photon verloren geht: Was nicht auf dem einen Sensor landet, bleibt nicht in irgendeiner Farbschicht hängen, sondern geht garantiert auf einen der beiden anderen Sensoren.

So ganz kann ich deiner Argumentation nicht folgen.

Wenn Bayer so aussieht

RG
GB

und einer der Sensoren so

GG
GG

Dann ist doch die zweite Anordnung für die Darstellung der grünen Farbe überlegen. Ja, ich habe vor beiden Sensoren einen Farbfilter. Dennoch interpoliere ich in Beispiel 1 die Farbe grün für oben links und unten rechts, was ich im zweiten Beispiel umgehe. Mein Verständnis ist, dass genau das der Vorteil der Foveon-Technologie von Sigma ist? Die wäre hier jetzt mit 3 Sensoren imitiert. Der Vergleich hinkt sicher etwas, aber auch Sigma arbeitet ja mit "statistischen Tricks" um den Sensitivitätsverlust der unteren Schichten auszugleichen.

Die 3CCD-Lösung wäre der 3-Sensor-mit-Farbfilter auch noch einmal überlegen.

usch
03.04.2018, 16:02
Wenn Bayer so aussieht

RG
GB

und einer der Sensoren so

GG
GG

Dann ist doch die zweite Anordnung für die Darstellung der grünen Farbe überlegen.
Du musst natürlich die Gesamtzahl der Pixel beibehalten, also

RRRR | GGGG | BBBB
RRRR | GGGG | BBBB
RRRR | GGGG | BBBB

vergleichen mit

RGRGRG
GBGBGB
RGRGRG
GBGBGB
RGRGRG
GBGBGB

und nicht z.B. 1×16MP vergleichen mit 3×16MP = 48MP. Dann bleibt als einziger Unterschied übrig, daß der Bayersensor Grün etwas besser auflöst auf Kosten von Rot und Blau, was ja durchaus gewollt ist.

Die Lösung mit Einzelsensoren hätte vielleicht den Vorteil, daß drei kleine Sensoren günstiger in der Herstellung sind als ein großer, aber dafür braucht man dann halt auch drei identische Optiken statt nur einer und muss das Ganze auch noch per Software ausrichten.

Man
04.04.2018, 09:53
Meiner Meinung gäbe es bei einer 3-Sensoren-Lösung den Vorteil, dass zu jedem Pixel die volle Farbinformation zu RGB (jew. ein Sensor für R, für G, für B vorhanden) vorhanden ist und demnach die bei 1 Sensor z. B. mit Bayer-Pattern immer notwendige Farbinterpretation entfällt.
Genügend Rechenleistung vorausgesetzt könnte man die Farb- und Helligkeitsinformationen auch zusätzlich über eine Berechnung wie bei einem Bayer-Pattern überprüfen und damit z. B. Fehlinformationen wegen Dunkelrauschen rausrechnen (auch ohne Dunkelbild - statt der Information des "glühenden" Pixels wird dessen Bildinformation auf Basis der nicht glühenden Nachbarpixel des betroffenen Sensors und der nicht glühenden identischen Pixel der Nachbarsensoren errechnet).
Statt 3 eigener Optiken je Sensor (das müsste doch einen heftigen Parallaxenfehler ergeben?) könnte man nur eine Optik verwenden und die Farben über ein Prisma auf die Sensoren verteilen.

Das gab es alles schon in den Kindertagen der Digitalfotografie - gescheitert ist es daran, dass die Justierung der Sensoren (immerhin 3 Ebenen müssen absolut gleich sein) in Zusammenhang mit dem Prisma (Farben müssen immer gleich stark getrennt sein) schwierig bis unmöglich und dazu auch noch fehleranfällig war.

Selbst wenn man heute auf das Prisma verzichten könnte und den Parallaxenfehler rausrechnet, stelle ich es mir schwierig vor, die 3 verschiedenen Optiken immer genau gleich einzustellen. Im Zweifel gibt es also nur Fixfokus für die Handycam.
Durch das Rausrechnen des Parallaxenfehlers verliert man etwas Schärfe und etwas für das Bild nutzbare Sensorfläche.

Mal sehen, ob so etwas kommt.

vlG

Manfred

TONI_B
04.04.2018, 10:20
Sorry, aber wie willst du mit einem Prisma aufteilen?

Das mit dem Strahlenteiler wurde schon besprochen: viel Platz notwendig...

Jan
04.04.2018, 11:08
3-fach größerer Sensor vs. 3 kleine Sensoren sollte etwa zu gleichem Rauschen führen, oder?

3 kleine Objektive, deren Bildkreis jeweils nur einen kleinen R-, G- oder B-Sensor bedienen mögen aber kleiner sein und besser in einem flachen Smartphone unterzubringen sein als ein Objektiv, dass einen entsprechend größeren Sensor ausleuchten kann.

Oder habe ich einen Denkfehler eingebaut?
Jan

Man
04.04.2018, 11:11
...wie willst du mit einem Prisma aufteilen?...

Aufteilung über ein Prisma wurde zum Beispiel so (Quelle: Wikipedia) (https://en.wikipedia.org/wiki/Three-CCD_camera) vorgenommen.

Ob sich das soweit verkleinern lässt, dass es in ein Handy passt und dabei noch funktionstüchtig ist?
Das kann ich nicht beurteilen, halte ich aber aus dem Bauch heraus für schwierig.
Vermutlich müsste aus Platzgründen erst mal das Bild über einen Spiegel oder ein weiteres Prisma umgelenkt werden, damit für den Einbau des für die Trennung der Farben notwendige Prismas genügend Platz im flachen Handygehäuse ist.

Minolta hatte das z. B. bei der X1 umgesetzt, in der das Objektiv aus Platzgründen stehend eingebaut war. Da wurde das mit einem Prisma (Quelle: imaging-resource.com) (https://www.imaging-resource.com/PRODS/X1/X1A.HTM#design) realisiert, aber nur mit 1 Sensor = ohne zusätzliches Prisma für die Farbaufteilung auf 3 CCDs.

vlG

Manfred

Man
04.04.2018, 11:19
3-fach größerer Sensor vs. 3 kleine Sensoren...

Wenn man die Bildqualität verbessern möchte, würde ich die Sensoren bei der 3ccd-Lösung möglichst nicht verkleinern.
Dann hätte man bei der 3ccd-Lösung eine in der Summe größere Sensorfläche wie bei der Kamera mit 1 Sensor zur Verfügung.

vlG

Manfred

Jan
04.04.2018, 11:34
Wenn man die Bildqualität verbessern möchte, würde ich die Sensoren bei der 3ccd-Lösung möglichst nicht verkleinern.

Genau, aber weiter oben wurde - zu recht - geäußert, dass man den (kleinen) Smartphone-RGB-Sensor entweder durch drei kleine monochrome Sensoren ersetzen könnte (mit "normalen" verlustbehafteten Farbfilter davor) oder einen dreifach größeren Bayersensor nutzen könnte. Darauf bezog ich mich.

Das Problem bei dem großen Sensor könnte halt die Größe der Optik sein.

Jan

TONI_B
04.04.2018, 20:12
Aufteilung über ein Prisma wurde zum Beispiel so (Quelle: Wikipedia) (https://en.wikipedia.org/wiki/Three-CCD_camera) vorgenommen.Das ist nicht "ein" Prisma, sondern das ist ein Strahlenteiler, der halt nicht die typische Würfelform aufweist, sondern mindestens zwei(!) Prismen verwendet. ;)