![]() |
|
|
![]() |
|||||||||||||
![]() |
||||||||||||||||
|
![]() |
#1 |
Registriert seit: 20.12.2015
Beiträge: 1.414
|
Einige Fragen zur Signalverarbeitung moderner Kameras
Hallo zusammen
Ich habe einige Fragen zur Signalverarbeitung moderner Kameras. Interessiert wäre ich insbesondere auch an Fachliteratur zum Thema. Alle Kameras zeichnen 3 Farben auf R,G,B. Die spektralen Empfindlichkeiten der Kanäle überlappen sich ziemlich stark. 1) Wieso sind die Empfindlichkeiten so wie sie sind? 2) Welche Eigenschaften sind gewollt, welche eher ungewollt (vielleicht weil idealere Eigenschaften zu teuer wären)? 3) Wie würden die idealen Empfindlichkeiten eines Sensors aussehen und wieso (z.B. schmalbandiger)? 4) Was für andere Optionen kämen z.B. in Frage (Wahl anderer Primärfarben?) Die spektralen Empfindlichkeiten der Kameras sind im Allgemeinen nur den Herstellern einigermassen bekannt. Die RAW Daten, welche ein Sensor aufzeichnet, sind Kamera spezifisch. Diese Daten müssen ja aufbereitet werden, so dass die aufgenommene Szene für einen menschlichen Betrachter möglichst so aussieht, wie im Original. Zudem müssen die Daten ja auch in einem Format gespeichert werden ohne Abhängigkeit von der Kamera. 5) Weiss jemand, wie genau die aufgenommenen RGB Werte umgerechnet werden und wo? Die Überlappung der Kanäle (cross-talk) muss ja irgend wie rausgerechnet werden. 6) Passiert das bereits in der Kamera? 7) Das würde ja dann implizieren, dass die RAW Daten nicht mehr "Roh" wären? 8) Mich würde auch interessieren was für mathematische Verfahren zum rausrechnen der Überlappung der Kanäle eingesetzt werden. Vielen Dank schon mal für eure Inputs. Geändert von skewcrap (26.02.2019 um 20:07 Uhr) |
![]() |
![]() |
Sponsored Links | |
|
|
|