Einzelnen Beitrag anzeigen
Alt 14.04.2012, 23:36   #7
fhaferkamp
Moderator
 
 
Registriert seit: 14.04.2006
Ort: Bissendorf, Landkreis Osnabrück
Beiträge: 4.256
Die Farbfilter sitzen direkt auf dem Sensor vor den einzelnen Bildpunkten. Jeder Bildpunkt auf einem Sensor kann nur für eine Farbe eine Helligkeit erkennen. Wie auf dem Bild bei Wikipedia zu sehen ist, ist das Muster so angelegt, dass erst eine Reihe mit abwechselnd grünen und blauen Pixeln und dann eine Reihe mit roten und grünen Pixeln fest über den Sensor gelegt ist. Dies wiederholt sich für den ganzen Sensor. Das häufigere Vorkommen von grün-empfindlichen Pixeln ist mit der höheren Empfindlichkeit des menschlichen Auges für diese Farbe begründet.

Ein Pixel mit rotem Farbfilter zeichnet nur einen Helligkeitswert auf, wenn ein Lichtstrahl darauf fällt, der einen Rotanteil beinhaltet. Analog zeichnen die anderen Punkte nur Helligkeitswerte auf für Lichtstrahlen mit einem Anteil ihrer Farbe (blau, grün).

Aus diesen 3 Grundfarben (rot,grün,blau) kann man im Prinzip alle Farben mischen. Für jeden Farbanteil kann man z. B. 256 Helligkeitswerte aufzeichnen. Dann kann man durch Kombination der 3 Grundfarben 256*256*256 Farbwerte bilden. Da man für jeden Bildpunkt aber nur für eine Farbe einen Helligkeitswert (0...255) aufgezeichnet hat, muss man die tatsächliche Farbe berechnen.
Entweder in der Kamera (bei jpg-Aufnahmen) oder im RAW-Konverter findet deshalb ein Demosaicing statt. Dabei wird die Farbinformation für jeden Bildpunkt mit einem Mittelwert-Algorithmus aus dem eigenen Helligkeitswert und denen der Nachbarpixel ermittelt. Hier kommt die Anordnung der Farben im Bayermuster zum Tragen. In der Nachbarschaft jedes Bildpunktes gibt es immer Pixel mit Helligkeitswerten für die anderen Farben.

Angenommen wir betrachten einen roten Punkt aus dem Bayermuster, dann hat der betrachtete Bildpunkt eigentlich nur eine Rotinformation. Um die volle Farbinformation zu bestimmen, werden die Helligkeitswerte der benachbarten andersfarbigen Bildpunkte mit herangezogen und daraus der fehlende Grün- und Blauanteil ermittelt.
In ähnlicher Form macht man das auch für alle grünen und blauen Punkte der Bayermatrix und erhält als Ergebnis ein Bild, das der Sensorauflösung mit voller Farbtiefe entspricht.
__________________
Gruß Frank

„In der Informatik geht es genau so wenig um Computer, wie in der Astronomie um Teleskope.“
(Edsger W. Dijkstra)
fhaferkamp ist offline   Mit Zitat antworten