Einzelnen Beitrag anzeigen
Alt 17.03.2010, 00:27   #5
Photongraph
 
 
Registriert seit: 07.10.2008
Ort: Hessen
Beiträge: 1.188
Zitat:
Zitat von Tira Beitrag anzeigen
Ich bin zwar alles andere als ein Experte, aber wenn ichs mir recht überlege, scheint mir Deine These über die Ursache des oben gezeigten Ergebnisses doch zweifelhaft. Der 6-MP-Sensor der D7D liefert durchaus eine theoretische Auflösung von 6 Millionen Bildpunkten - als Helligkeitsinformation. Die Bayer-Matrix dient doch nur zur Interpolation der Farbwerte der einzelnen Pixel. Das obige Bild zeigt wahrscheinlich vielmehr den Einfluss des optischen AA-Filters und anderer Filterungen. Das Ergebnis bleibt allerdings das Gleiche: Es liegen praktisch weniger als 6 MP an Informationen vor.
Eben nicht... Und es ging bei meinen Aussagen übrigens um 6MP aus der D7D und 6MP aus der Alpha 900... 6 MP sind nicht gleich 6 MP... Und darauf bezogen sich meine Aussagen im Grunde genommen, was gibt's daran nichts zu verstehen eiei.

Das Grundprinzip des Bayer-Filters bzw. der Bayer-Interpolation ist eher wie folgt:

,,Wie andere Bildsensoren auch, kann der CMOS-Sensor nur hell und dunkel unterscheiden, nicht aber die Farben. Die Farberkennung kann nur über vorgeschaltete Farbfilter erfolgen, die das Licht in seine Primärfarben Rot (R), Grün (G) und Blau (B) aufteilen. Über ein solches vorgeschaltetes Farbfilter wird jedem Pixel eines CMOS-Sensors nur Licht einer Primärfarbe zugeführt. Die dafür benutzten Farbfilter, die aus regelmäßig angeordneten roten, grünen und blauen Farbfiltern bestehen, können Bayer-Filter oder Interferenzfilter sein.

Quelle: http://www.itwissen.info/definition/lexikon/CMOS-Sensor-CMOS-sensor.html"

D.h. den einzelnen Pixeln wird eine Primärfarbe zugeordnet. Natürlich die Pixeldiode an Sich nimmt nur Helligkeitsunterschiede war, aber ein Farbfilter wird sozusagen vor der Pixeldiode gesetzt.

Zitat:
Zitat von Tira Beitrag anzeigen
Da spielt es für die Menge der im Ergebnis enthaltenen Informationen keine Rolle, ob 12 oder 24 MP Informationen als Ausgangsbasis dienen. Wichtig ist nur, dass es mehr als die der Endgröße sind.
Nochmal ganz einfach erklärt: Bei 6 MP Ausgangsmaterial + Bayer-Interpolation (was bedeutet, dass es nicht mal echte 6 MP sind, verschwinden Details, die eigentlich mit 6 MP normalerweise möglich wären, aber die Bayer-Interpolation schluckt sozusagen die Details. Ein 24,6 MP Sensor umgeht diese Beschränkung bzw. Einschränkung durch die höhere Anzahl der Pixel bzw. höhere Auflösung, die größeres Ausgangsmaterial liefert und dies hat erstmal herzlichst wenig mit der Skalierung zu tun, denn jedes (bei nicht allzu hohen ISO-Empfindlichkeiten) 24,6 MP Bild aus der Alpha 900 downsized bzw. runterskaliert zu 12 MP sieht besser aus als aus einen 12 MP Sensor mit Bayer-Interpolation)

Es spielt also sehr wohl eine Rolle, wenn Details bei einen 6MP Sensor mit Bayer-Interpolation verschwinden und mehr Details erst bei höherer Auflösung möglich sind.

Ansonsten Ralf siehe Stuessis Beitrag:

Zitat:
Zitat von Stuessi Beitrag anzeigen
Hallo Ralf,

die Helligkeit eines Punktes im Bild hängt von allen drei Farben ab, 2 der Farbwerte sind aber gemittelt aus der Umgebung. Deshalb liefert der 6 MPixel Sensor der 7D nur ein Auflösungsvermögen von vielleicht 4 MPixel.
Der AA-Filter und andere Filterungen spielen bei meinem Beispiel kaum eine Rolle.
Zum Beweis habe ich einen Siemensstern mit 180 Lp als mrw-Datei programmiert. Beim eingezeichneten Kreis beträgt der Kreisumfang genau 360 Pixel. Hier liegt also die Grenze der Auflösung. Vergleicht man das mit dem echten Bild der 7D, so ist die Übereinstimmung erstaunlich.



Gruß,
Stuessi
Zitat:
Zitat von Tira Beitrag anzeigen
1. gibt es 4k-Kinobeamer.

2. möchte man gerne eine digitale Kopie archivieren, die möglichst viele Informationen des analogen Trägers enthält. Und das sind bei einem 35mm-Kinobild erheblich mehr als die popeligen 2 MP einer FullHD-Auflösung. 8k könnte je nach Film und Optik ganz gut hinkommen.

3. wird ganz oft aus Kostengründen dennoch auf einem 2k-Intermediate weitergearbeitet. Dennoch macht es durchaus Sinn, auch hierfür auf höher aufgelöstes Material zurückgreifen zu können. Z.B. kann man dann croppen, was nicht nur bei zu tief im Bild hängenden Mikrofonen Sinn macht... Danach wird das digitale 2k-Material auch wieder ausbelichtet, um auch auf den analogen Projektoren abgespielt werden zu können. Interessanterweise bekommen die meisten Kinogänger gar nicht mit, dass ihnen nur ein Bruchteil der eigentlichen Filmauflösung gezeigt wird. Gelegentlich laufen sogar Filme im Kino, die nur auf FullHD-Kameras gedreht wurden (Doris Dörrie - Die Friseuse) oder gar nur auf DV (Hans Weingartner - Das weisse Rauschen). Auch diese Filme kann man sich im Kino mit hochgeblasenen Riesenbildern noch ganz gut anschauen.
1.) 4k Beamer gibt es schon lange, echtes digitales 4k Material aber eher selten, denn die meisten Kinofilmkameras arbeiten der Tat nur mit 2k also Full HD 1080 Auflösung.
8k Beamer gibt es sogar auch usw...

2.) Nicht nur das, für die spätere Nachbearbeitung bzw. Verarbeitung der Filmrollen in digitale Formate ist 4 oder 8k mehr von Vorteil als gleich auf niedrigauflösendere 2k Archivierung zu setzen.

3.) Merkste schon, wenn man sieht, wie unscharf die Bilder teilweise sind bzw. wie wenig Details es für eine so große Leinwand gibt... Das was du meinst rührt auch daher, dass schon früher die Kopien der Filmrollen von minderwertiger Qualität oftmals waren und niemals die Qualität des Original Filmmasters erreichen konnten. Man hatte schon früher selbst im Kino sog gut wie nie die echte volle Qualität der Filme gesehen...
__________________
Grüße Photongraph
PHOTONGRAPH PHOTOGRAPHY FACEBOOK „Photographieren, das ist eine Art zu schreien, sich zu befreien ... Es ist eine Art zu leben." -Henri-Cartier Bresson
Minolta lens design philosophy | 70 years of Minolta | Designed and built for superior durability (Dynax 9) | Von Mavica zur | Sony History

Geändert von Photongraph (17.03.2010 um 01:04 Uhr)
Photongraph ist offline   Mit Zitat antworten
Sponsored Links