![]() |
1. Unterrichte ich sogar Kommunikationstechnik...:P
2. Gab es Zeiten hier im Forum, wo die mods Beiträge wie deinen beinhart gekürzt oder gelöscht haben. Es gibt auch so etwas wie einen Knigge im Inet - und der sagt, dass solche Zitate unnötig sind. 3. Hab ich ein Ipad! Auch eine gute Ausrede für Faulheit und nicht mitdenken. |
Den Knigge hierzu gibt es sogar hier, es steht in den Forenregeln ausdrücklich drin, nur den benötigten Teil zu zitieren. Das geht auch per iPad und sogar per iPhone - das kannst du mir sehr wohl glauben. Im übrigen ist deine Artikulation, Markus, unter aller Kanone.
Aber wahrscheinlich bekomme ich jetzt eh wieder irgendein Fanboygehabe an den Kopf geworfen... Ich muß mich korrigieren, der Passus ist in der Zwischenzeit entfallen. Dennoch ist es unsinnig, den Vorgängerpost komplett zu zitieren. |
Der Herr Tony hat heute wohl schlechte Laune und weiss nicht, wie unhöflich das Wort Schwachsinn ist.
|
Zitat:
|
Könnt Ihr euch jetzt bitte wieder vertragen und zum eigentlichen Threadthema zurückkehrenn - welches auch immer das sein mag.
PS: Den Fullquote habe ich entfernt. Ich denke, der Beitrag ist auch so zu verstehen. |
Zitat:
Zitat:
Zitat:
Zitat:
Zitat:
Zitat:
Zitat:
Zitat:
|
Ok, also Geisterfahrer und Luftballons mal beiseite (obwohl auch ein Aufgeblasener Luftballon an Masse zunimmt) :D
Bringen wir die ganze Diskussion mit zeeshan doch mal zum eigentlichen Knackpunkt über den Unstimmigkeit herrscht. Dies wäre (wenn ich es richtig verstanden habe) - Hat ein 16MP Sensor mit Bayer-Filter wirklich nur 4MP Auflösung? Ich sage nein, da ich ja 16Millionen Helligkeitsinformationen aufzeichne, diese sind auch wirklich vorhanden, werden aber durch die Bayer-Matrix verändert. Das zusammenlegen von einem 2x2 großen Feld des Sensors in dem die Helligkeitsinformationen von Rot-Grün-Blau-Grün aufgenommen wurden ist eine einfach zu überschauende Methode. Jedoch wird dabei nicht berücksichtigt das die Farben räumlich voneinander getrennt auf den Sensor gefallen sind und nun zusammengeschoben werden. Nehmen wir zum beispiel noch einmal das stark vergrößerte Bild mit dem Kran. http://www.bilder-hochladen.net/file...f4x-c-c20a.jpg Jetzt schaue ich mir nur die Formen bzw. Konturen an. Ich erkenne in der 16MP Aufnahme Konturen am Kran die ich in der 4MP Version nicht sehe. Die Konturen bzw. Umrisse sind eindeutig detaillierter. Das spricht doch dafür das in der 16MP-Version wirklich mehr Information vorhanden ist als in der 4MP Version. Ich kann mir jedenfalls keinen Algorythmus vorstellen der DAS hochrechnen könnte. Zum Beispiel dieses Teil ganz rechts im Bild welches am Kran hängt. Die Form im rechten Bild ließe sich niemals aus dem linken Bild errechnen. Der "nicht so einfache" Demosaic-Algo. in der Kamera scheint also eine, auch tatsächlich, höhere Auflösung des Fertigen Bildes zu erzeugen und ist somit effektiver als das "Pixel-binning". |
Der nächste Punkt der meines erachten nach für Unstimmigkeiten sorgt.
- Sind Nachbearbeitungen unnötig und verschlechtern nur das Bild ? Nicht alle würde ich sagen. - Verzerrungskorrektur: Ja, da müssen Informationen verloren gehen. Ist denke ich für jeden nachvollziehbar. - CA Korrektur Meiner Meinung nach sorgt die CA Korrektur für "mehr" Informationen (man beachte die Anführungszeichen), im Sinne von: "Die Informationen werden zur richtigen Stelle verschoben" Die Ursache von CAs sind ja unterschiedliche Brechungsindexe der unterschiedlichen Wellenlängen an den Objektivlinsen. Dies ist eine Physikalische Gegebenheit von Licht. Theoretisch lassen sich die CAs welche im Objektiv auftreten also perfekt im Voraus berechnen, warum dann nicht perfekt zurück berechnen? - Rauschunterdrückung Ja, dabei werden Details glattgebügelt, aber wie sieht es mit der subjektiven Wahrnehmung von Details aus die von einem Rauschen umgeben sind? Werden diese dann überhaupt noch wahrgenommen? Ist ein "glattbügeln" des Himmels wirklich eine Abweichung von der Realität? Sehe ich auch ein Rauschen wenn ich in den Himmel schaue? Sehe ich mit meinen Augen in dunkler Umgebung denn ein Rauschen, oder auch nur weniger Details? Wenn man sich das mal überlegt, sind einige Korrekturen doch garnicht so schlecht, da ein Verbund aus Objektiv und Sensor ja doch etwas anders arbeitet als unsere Augen. |
Meines Erachtens fehlt die tiefergehende Begründung für die Forderung nach möglichst naturellen RAW-Entwicklungen, weil in der Natur jedes Beispiel dafür fehlt.
Die Augen jedes Lebewesens in Verbindung mit dessen Gehirn führen doch deutlich mehr 'Objektivkorrekturen' durch als jede Digitalkamera, wenn man mal exotische Modi wie Illustration aussen vor lässt. |
Hast ja beim Fernseher auch. Da ist die Farbauflösung weit geringer als die Luminanzauflösung, weil die Farbe in der Auflösung relativ egal ist. Man siehts meist bei PAL, wenn dem Fussballer die rote Hose auf grüner Wiese zuerst zu weit ist und dann zu den Knien rutscht.
Die ist auch der Grund, das die Luminazinformation hauptsächlich aus den beiden grünen Pixeln gewonnen wird. Die rote und blauen eignen sich leider nicht so gut. Das kann man in det SW Umsetzung anschauen, ein Grünfilter verändert wenig, ein rot oder blau-Filter viel. Trotz aller Diskussion wäre einfach mal anzudenken, warum die Workflows so sind wie sie sind. und das auch bei open Source. Einfach deshalb, weil es keine besseren gibt. Die Annahme, selbst ein Genie zu sein, trifft leider nur selten zu. |
Alle Zeitangaben in WEZ +2. Es ist jetzt 19:08 Uhr. |