Archiv verlassen und diese Seite im Standarddesign anzeigen : Einige Fragen zur Signalverarbeitung moderner Kameras
skewcrap
25.02.2019, 23:06
Hallo zusammen
Ich habe einige Fragen zur Signalverarbeitung moderner Kameras. Interessiert wäre ich insbesondere auch an Fachliteratur zum Thema.
Alle Kameras zeichnen 3 Farben auf R,G,B. Die spektralen Empfindlichkeiten der Kanäle überlappen sich ziemlich stark.
1) Wieso sind die Empfindlichkeiten so wie sie sind?
2) Welche Eigenschaften sind gewollt, welche eher ungewollt (vielleicht weil idealere Eigenschaften zu teuer wären)?
3) Wie würden die idealen Empfindlichkeiten eines Sensors aussehen und wieso (z.B. schmalbandiger)?
4) Was für andere Optionen kämen z.B. in Frage (Wahl anderer Primärfarben?)
Die spektralen Empfindlichkeiten der Kameras sind im Allgemeinen nur den Herstellern einigermassen bekannt. Die RAW Daten, welche ein Sensor aufzeichnet, sind Kamera spezifisch. Diese Daten müssen ja aufbereitet werden, so dass die aufgenommene Szene für einen menschlichen Betrachter möglichst so aussieht, wie im Original. Zudem müssen die Daten ja auch in einem Format gespeichert werden ohne Abhängigkeit von der Kamera.
5) Weiss jemand, wie genau die aufgenommenen RGB Werte umgerechnet werden und wo? Die Überlappung der Kanäle (cross-talk) muss ja irgend wie rausgerechnet werden. 6) Passiert das bereits in der Kamera?
7) Das würde ja dann implizieren, dass die RAW Daten nicht mehr "Roh" wären?
8) Mich würde auch interessieren was für mathematische Verfahren zum rausrechnen der Überlappung der Kanäle eingesetzt werden.
Vielen Dank schon mal für eure Inputs.
Tafelspitz
26.02.2019, 08:32
4) Was für andere Optionen kämen z.B. in Frage (Wahl anderer Primärfarben?)
Die Überlappung der Kanäle (cross-talk) muss ja irgend wie rausgerechnet werden.
Das menschliche Auge kann das Lichtspektrum zwischen ungefähr 380 und 780 nm erkennen. Dafür zuständig sind drei unterschiedliche Fotorezeptoren, die für rotes, blaues und grünes Licht empfindlich sind. Die Wellenlängenbereiche dieser Rezeptoren überlappen sich dabei stark, siehe z.B. hier (https://de.wikipedia.org/wiki/Zapfen_(Auge)#/media/File:Cone-response-de(2).svg).
"Andere Primärfarmen" sind also rein aufgrund der anatomischen Gegebenheiten unserer Sehorgane nicht möglich.
Ich vermute stark, dass sich viele Antworten auf deine Fragen in der Anatomie des Auges und unserer Rezeption von Farben gründen. Wenn man vertseht, wie das Auge (respektive das Gehirn) Farben "sieht" (https://de.wikipedia.org/wiki/Zapfen_(Auge)), versteht man ziemlich sicher besser, weshalb eine Kamera so aufgebaut ist, wie sie ist.
guenter_w
26.02.2019, 09:29
Titel gelesen - der Tag war gerettet!:crazy::top:
ingoKober
26.02.2019, 09:37
Ich glaube, wenn die Kameras erstmal am modern sind, verarbeiten sie gar keine Signale mehr ;)
7) Das würde ja dann implizieren, dass die RAW Daten nicht mehr "Roh" wären?
Die RAW-Daten aus einer Kamera sind so roh, wie mein Fleisch, und das ist auch kein Gras. Roh im Ursprungssinne, also das unveränderte Sensorsignal, zeichnet keine Kamera auf. Es wird immer in eine speichergünstige Form transformiert.
Hans
peter2tria
26.02.2019, 12:18
Die RAW-Daten aus einer Kamera sind so roh, wie mein Fleisch, und das ist auch kein Gras. Roh im Ursprungssinne, also das unveränderte Sensorsignal, zeichnet keine Kamera auf. Es wird immer in eine speichergünstige Form transformiert.
Hans
Und das Signal wird aufgearbeitet. Das heißt dass auch der Signalverarbeitung mehr und mehr Aufmerksamkeit gilt.
Bestes Beispiel ist die a7r2 zur a7r3: alle Verbesserungen kommen aus der SW (vor dem raw-Format).
Ich würde raw etwa wie 'parboiled' bezeichnen: es gab schon eine Vorverarbeitung.
skewcrap
26.02.2019, 20:27
Hallo zusammen
Ja, das ist in der Tat ein lustiger Typo^^ Habe das unterdessen korrigiert.
@ Tafelspitz
Mit der Anatomie des Auges und der Farbwahrnehmung im Allgemeinen habe ich mich die letzten Wochen ziemlich intensiv auseinandergesetzt. Die Empfindlichkeiten der Fotorezeptoren sind mir bekannt, und auch dass sich rot und grün stark überlappen.
Wenn man die Kurven anschaut, stellt man fest, dass der Peak von blau bei Kameras deutlich nach rechts verschoben ist (>450nm, Peak beim Auge ist bei 420nm). Auch die Form der Kurven unterscheiden sich doch erheblich (Vergleich z.B. https://www.dpreview.com/forums/post/61990852).
Deshalb auch die Frage, was die idealen Empfindlichkeiten einer Kamera wären. Die Detektion der Szene mitels Sensor ist ja nur ein Teil der Farb Reproduktion. Die Farbwiedergabe, z.B. via Monitor kommt ja auch noch. Hier fängts ja dann erst an, interessant zu werden. Aus den aufgenommenen RGB Farben (welche sich überlappen) müssen dann die Signale zur Ansteuerung von z.B. 3 LEDs berechnet werden.
Im Allgemeinen wäre es wohl zu einfach zu sagen, dass Kameras möglichst die gleichen spektralen Empfindlichkeiten haben sollten wie die Zapfen des menschlichen Auges:?:
@ ha_ru
Mir ist klar, dass die RAW Daten nicht komplett Roh sind, mindestens die Digitalisierung muss ja irgend wie statt finden^^ Mich würde eben interessieren, was denn so für Signalverarbeitungsschritte gemacht werden. Irgend wo passiert sicher das Demosaicing, das ist mir klar.
Was die Kamerahersteller alles machen, bis das Raw erstellt ist, werden sie uns nicht verraten. Da steckt sicherlich viel Know-How drin.
skewcrap
27.02.2019, 13:19
Das ist schon klar. Die komplette Implementierung kennen sicherlich nur die Hersteller, allerdings gibt es doch sicher Prinzipien / Methoden, die allgemein bekannt sind. Ich kenne diese halt nicht, da ich mich bis jetzt nicht so detailliert damit beschäftigt habe.
fhaferkamp
27.02.2019, 14:45
Ich weiß nicht, ob der Inhalt in die richtige Richtung geht, aber ich hatte mir mal vor längerer Zeit ein paar Links gespeichert, die als Ausgangspunkt für weitere Recherchen vielleicht ganz interessant sein könnten (engl.):
http://www.normankoren.com/digital_tonality.html#Raw_conversion
http://www.normankoren.com/Tutorials/MTF.html#Human_visual_acuity
Die Links sind allerdings - wie gesagt - schon etwas älter.
skewcrap
27.02.2019, 20:20
Vielen Dank für die Literatur. Werde das in Ruhe anschauen.
Zur Frage 3) habe ich unterdessen zumindest eine Antwort gefunden: Eine Kamera sollte die "Luther condition" erfüllen, das heisst, dass die spektralen Empfindlichkeiten der Kamera als Linearkombination der Tristimuluswerte X, Y und Z darstellbar sein sollen.
Hier gibt es Literatur dazu: https://blog.kasson.com/the-last-word/the-color-reproduction-problem/ (etwas runter Scrollen, gibt noch weitere Seiten).
Offenbar ist die Luther condition schwierig umzusetzen in der Praxis, und die meisten Kameras erfüllen die Bedingung nicht. Es gibt deshalb sicher eine Korrektur mittels Matrix, um das zu korrigieren.