![]() |
|
|
![]() |
|||||||||||||
![]() |
||||||||||||||||
|
![]() |
#16 |
Registriert seit: 22.02.2006
Beiträge: 11.388
|
Und nun einige grundlegende Überlegungen zur Frage SW und Kamera mit Bayer-Sensor
Ich denke, eine Monochrom wendet sich primär an diejenigen Fotografen, die heute noch analog in SW unterwegs sind, und denen die heutigen bayergefilterten Sensoren einfach nicht die feine Grauwertabstufung bietet, die sie wünschen. Natürlich kann man in eine Monochrom keinen Film einlegen, sondern hat immer ein und dieselbe Wiedergabecharakteristik des Sensors. Ob die mitgelieferte Software (Nik Silver Efex) diese sehr bildwirksame Komponente der analogen Fotografie ersetzen kann, wäre eine spannende Frage. Keine Ahnung. Entsprechende Untersuchungen sind mit nicht bekannt. In der SW-Fotografie werden auch SW-Filter eingesetzt, z.B. Rot-, Grün-, Orange- und Gelbfilter, die eine sehr starke Beeinflussung der Bildergebnisse liefern. Bei einer nachträglichen SW-Konvertierung eines Farbbildes kann man diese SW-Filter durch Software "ersetzen", bei der Monochrom geht das nicht, hier muß man bei der Aufnahme filtern. 1. Farbbild eines Kiosks Nachfolgend einige Überlegungen zum Einfluß des Bayer-Sensors am Beispiel des Bildes eines Kiosks, aufgenommen mit der M9 und dem Summar in Farbe: ![]() -> Bild in der Galerie Und durch "Entsättigung" in SW gewandelt: ![]() -> Bild in der Galerie 2. Bild mit Rotfilter vor dem Objektiv Und nun dasselbe Motiv mit Rotfilter aufgenommen. Scheint erstmal "unsinnig" zu sein, aber ich habe es zu Demonstrationszwecken dennoch gemacht. Der Belichtungsmesser wird "irritiert", ich mußte stets stark überbelichten. Erst das „Farbbild", und dann die entsättigte Variante: ![]() -> Bild in der Galerie ![]() -> Bild in der Galerie Beim Bayer-Filter werden 50% der Pixel durch ein grünes Filter, 25% durch ein rotes und 25% durch ein blaues Filter belichtet. Da ich vor das Objektiv ein Rotfilter für die Schwarz-Weiß-Fotografie gesteckt habe, erreichen die Grün- und Blauanteile des Lichts den Sensor erst gar nicht, was dazu führt, daß 75% der Pixel fast kein Licht erhalten und die gesamte Bildinformation durch die 25% Bayer-Rot-Pixel beigesteuert wird. Faktisch hat man damit die Kameraauflösung auf 25% reduziert, also 4,5MP im Falle der M9. Das folgende Bild zeigt diese vier Farbkanäle (Zwei Grünbilder, je ein Rot- und Blaubild, jedes Teilbild hat im Original eine Auflösung von 4,5MP): ![]() -> Bild in der Galerie Statt ein Rotfilter aufs Objektiv zu stecken, hätte man natürlich auch gleich einfach nur die Bayer-Rot-Pixel des Sensors verwenden können und das Bild von 4,5 auf 18MP hochskalieren können. Man hätte aber kürzere Belichtungszeiten erhalten. Bei der Monochrom bleibt es natürlich grundsätzlich bei den 18 MP Auflösung, egal ob man ein Filter verwendet, oder nicht. 3. Nachträgliche Rotfilterung des Bildes aus 1) in der Bildbearbeitung Das Farbbild aus 1) in die vier Farbkomponenten zerlegt: ![]() -> Bild in der Galerie Man sieht, daß das Rotbild relativ dunkel ist, das war halt eine Szene bei trübem Winterwetter mit relativ geringem „Rotanteil“, die Belichtungsmessung wurde stark von den Blau- und Grünanteilen beeinflusst. Aus diesen vier Teilbildern à 4,5MP würde nun durch Interpolation ein 18MP RGB-Bild erzeugt und dann, wie auch immer der Algorithmus der Rotfilterung aussieht, im wesentlichen die Grün- und Blauanteile im Bild wieder eliminiert. Letztendlich beruht dann auch hier das fertige Bild also auf den Bildinformationen, die die 25% - stark unterbelichteten - Bayer-Rot-Pixel beisteuern, da die anderen Pixel eben keine Rot-Information enthalten. Zieht man nun die Helligkeit des Rotkanals deutlich hoch, so ergibt sich daher auch hier ein Bild, das näherungsweise dem „rotgefilterten“ Bild entspricht: ![]() -> Bild in der Galerie Auch hier gilt. Die Information des finalen Bildes wird fast ausschließlich von 25% der Pixel beigesteuert. Die Auflösung ist entsprechend reduziert. 4. Keine Filterung: Und auch wenn man nicht filtern will. Ein SW-Bild wird bei einem Bayer-Sensor stets in irgendeiner Form als Mittelung aus den drei Farbkomponenten (RGB) ermittelt werden. Von diesen drei Farbkomponenten pro Pixel sind aber stets zwei interpolierte Daten, nur eine Helligkeitsinformation ist „real“ und trägt „echte“ Information. Also auch hier gilt also: im Schnitt basiert nur 1/3 der finalen Helligkeits-Information eines Pixels des fertigen SW-Bildes auf „realer“ Information. Und eben das ist bei der Monochrom nicht der Fall. Abgesehen davon, daß die Bayerfilterung die Empfindlichkeit des Sensors erheblich reduziert. Messungen Ohne es mir genauer überlegt zu haben, bin ich nicht sicher, ob dieser Unterschied sich auch bei „üblichen“ Messungen à la Siemensstern und Co. ergeben. Sofern die Meßtafeln monochrom sind, dürften die „Verluste“ der Bayerfilterung möglicherweise nicht voll sichtbar werden, es gilt hier ja R=G=B, da stört es nicht, wenn man nur eine Farbkomponente kennt, die fehlenden sind ja identisch. Aber wie gesagt, darüber habe ich mir keine tieferen Gedanken gemacht. Rainer
__________________
Sag' beim Abschied leise Servus ... |
![]() |
![]() |
|
|