![]() |
|
|
![]() |
|||||||||||||
![]() |
||||||||||||||||
|
![]() |
#21 | |
Moderator
Registriert seit: 14.04.2006
Ort: Bissendorf, Landkreis Osnabrück
Beiträge: 4.257
|
Zitat:
![]() Setzen wir mal weiter vorne in der Kette an: Der erste Eingriff findet ja schon vor der eigentlichen Aufnahme statt. Du nutzt einen digitalen Sensor und damit tastest Du die Realität nur an endlich vielen Stellen mit endlicher Genauigkeit ab. Ab hier hat die Aufnahme schon viele Informationen verloren. Wie willst Du denn dieses "Problem" in den Griff bekommen? Und dann reduzierst Du auch noch die aufgenommene Punktdichte. Je weniger Bildpunkte Du aufzeichnest, desto mehr feine Details gehen verloren. Dir sagt sicher der Begriff "Abtasttheorem" etwas, falls nicht, kannst Du ja mal hier nachlesen. Und Du wirst sicher zustimmen, wenn ich behaupte, dass diese verlorenen Bildpunkte nachträglich nicht mehr zurückgewonnen werden können, so dass sie dem Original einer höher abgetasteten Bildversion nahekommen würden. Wieso sollte also dann Dein Bild mit nur einem Viertel an Bildpunkten besser die Realität abbilden, als das Bild mit voller Auflösung? Was Du vielleicht auch mit in Deine Betrachtung einbeziehen solltest, sind die physikalischen Grenzen der menschlichen Sinne. So ist z. B. die Farbauflösung eines menschlichen Auges 1000-fach geringer als die Auflösung für S/W-Strukturen (->Farbwahrnehmung). In der Folge kann man also Farbinformationen auch mit wesentlich geringerer Dichte abtasten als Helligkeitswerte (genau das macht sich ein Bayer-Sensor zu Nutze). Denn was nützen mir exaktere physikalische Farbwerte, wenn ich die bei üblicher Betrachtung des Bildes gar nicht unterscheiden kann? Sie führen nur zu größeren Dateien und ich könnte vielleicht weiter hineinzoomen, aber dann passt das Verhältnis zu den aufgezeichneten Helligkeitswerten nicht mehr, denn die müssten dann ebenfalls wiederum mit noch höherer Frequenz abgetastet werden. Das Verhältnis der Möglichkeit der Unterscheidung von Farbwerten und Helligkeitswerten im Auge wirst Du ja nicht verändern können, das bleibt bei etwa 1:1000 (Farb zu S/W-Empfindlichkeit). Das Ganze verändert sich auch noch mit der absoluten Helligkeit (Nachts sind alle Katzen grau.). Und hier habe ich nur einen begrenzenden Faktor ins Spiel gebracht, es gibt noch weitaus mehr. Diese Begrenzungen werden bei modernen Bildaufzeichnungs- und verarbeitungsverfahren meist berücksichtigt und zu Gunsten der Speichergröße etc. ausgenutzt (verlustbehaftete Komprimierung). Die Verfahren sind immer auf einen Zweck angepasst. Natürlich kann man die resultierenden Nachteile in der Auflösung bestimmter Strukturen später mit physikalischen Messmethoden nachweisen, nur in der Praxis sind sie für den bestimmungsmäßigen Gebrauch einfach irrelevant. Deshalb nennt man solche Arten der Komprimierung auch Irrelevanzreduktion. Man entfernt nur als irrelevant betrachtete Informationen und möglichst keine anderen. Ein geringer Verlust auch sichtbarer Anteile lässt sich natürlich meist nicht ganz vermeiden, weil die Algorithmen meist nicht auf das einzelne Bild optimal angepasst werden. Nur wirst Du das mit Deinen Methoden noch viel weniger erreichen. Um die Kurve zum eigentlichen Thema zurück zu bekommen: Es gibt verschieden Arten von Bildbearbeitungen. Die einen sollen technische Unzulänglichkeiten der verlustbehafteten Aufzeichnung wieder etwas ausbügeln (Bildverbesserung, -optimierung). Hierbei versucht man z. B. das zu geringe Kontrastverhältnis der Aufnahme, das durch den Sensor begrenzt ist und dem Sinneseindruck entgegensteht, zu verbessern (HDR, Lichter-/Schattenmanipulation). Andere Bearbeitungen hingegen sollen einen vorhandenen Eindruck, den ein Bild hinterlässt, gezielt verstärken. So kann man bei einer Aufnahme eines Sonnenuntergangs z. B. die Farben gezielt etwas verstärken, um den Eindruck quasi überhöht darzustellen, weil die physikalische Aufzeichnung des Phänomens den Sinneseindruck vor Ort vielleicht nicht ganz wiedergibt. Mman ist halt nicht an dem Ort, wo das Ereignis jemanden so beeindruckt hat. Die Umgebung hat beim Menschen oft einen erheblichen Einfluss auf die Wahrnehmung. Beispiel: Niemand empfindet im Zimmer das Licht so gelb wie es tatsächlich aufgezeichnet würde, deshalb wurde der Weißabgleich erfunden. Zumindest die Maßnahmen der EBV zur Bildverbesserung wird man bei professionellem Anspruch immer dann einsetzen müssen, wenn man möglichst realitätsnahe Aufnahmen haben möchte, denn jedes physikalische optische System hat Unzulänglichkeiten, die man damit zum Teil ausgleichen kann. Andererseits kann ein Bild technisch völlig unzulänglich sein und trotzdem einen Eindruck hinterlassen. Dieser ist dann meist der subjektiven Wahrnehmung geschuldet und das Bild wirkt auch ohne jegliche Bearbeitung. Hier beginnt dann aber die große Kunst, an der sich die meisten seit Jahren die Zähne ausbeißen. ![]()
__________________
Gruß Frank „In der Informatik geht es genau so wenig um Computer, wie in der Astronomie um Teleskope.“ (Edsger W. Dijkstra) |
|
![]() |
![]() |
Sponsored Links | |
|
|
|