SonyUserforum

SonyUserforum (https://www.sonyuserforum.de/forum/index.php)
-   Nach der Aufnahme (https://www.sonyuserforum.de/forum/forumdisplay.php?f=12)
-   -   Raw oder Jpg und die Nachbearbeitung, Aufwand vs. Nutzen? (https://www.sonyuserforum.de/forum/showthread.php?t=130679)

TONI_B 12.08.2013 21:08

1. Unterrichte ich sogar Kommunikationstechnik...:P
2. Gab es Zeiten hier im Forum, wo die mods Beiträge wie deinen beinhart gekürzt oder gelöscht haben. Es gibt auch so etwas wie einen Knigge im Inet - und der sagt, dass solche Zitate unnötig sind.
3. Hab ich ein Ipad! Auch eine gute Ausrede für Faulheit und nicht mitdenken.

konzertpix.de 12.08.2013 21:11

Den Knigge hierzu gibt es sogar hier, es steht in den Forenregeln ausdrücklich drin, nur den benötigten Teil zu zitieren. Das geht auch per iPad und sogar per iPhone - das kannst du mir sehr wohl glauben. Im übrigen ist deine Artikulation, Markus, unter aller Kanone.

Aber wahrscheinlich bekomme ich jetzt eh wieder irgendein Fanboygehabe an den Kopf geworfen...

Ich muß mich korrigieren, der Passus ist in der Zwischenzeit entfallen. Dennoch ist es unsinnig, den Vorgängerpost komplett zu zitieren.

fotogen 12.08.2013 21:13

Der Herr Tony hat heute wohl schlechte Laune und weiss nicht, wie unhöflich das Wort Schwachsinn ist.

fotogen 12.08.2013 21:15

Zitat:

Zitat von konzertpix.de (Beitrag 1476348)
Den Knigge hierzu gibt es sogar hier, es steht in den Forenregeln ausdrücklich drin, nur den benötigten Teil zu zitieren. Das geht auch per iPad und sogar per iPhone - das kannst du mir sehr wohl glauben. Im übrigen ist deine Artikulation, Markus, unter aller Kanone.

Aber wahrscheinlich bekomme ich jetzt eh wieder irgendein Fanboygehabe an den Kopf geworfen...

Auch der Herr Konzertpix weiss nicht um die unhöfliche Wirkung des Wortes Schwachsinn. aber es ist ja nicht das erste mal, dass er ob schlechter Umgangsformen auffällig wird. Er rüpelt und poltert lieber :D

BadMan 12.08.2013 21:16

Könnt Ihr euch jetzt bitte wieder vertragen und zum eigentlichen Threadthema zurückkehrenn - welches auch immer das sein mag.

PS: Den Fullquote habe ich entfernt. Ich denke, der Beitrag ist auch so zu verstehen.

Neonsquare 12.08.2013 22:11

Zitat:

Zitat von www_zeeshan_de (Beitrag 1476304)
Wie es aussieht hast du wohl noch immer nicht verstanden was genau ich eingentlich haben wollte (und dass ich es inzwischen ja längst habe): Ich hätte gern einen Algorithmus/Funktion/Software um aus den RAW-Dateien Bilder zu erzeugen (anhand der Pixel binning Methode ==> ein 2x2 Bayer-Pattern wird zu einem RGB-Superpixel zusammengefasst), die keiner zusätzlichen Manipulation unterliegen (Rauschunterdrückung, Colorboosting, CA Correction, Objektivkompensation, Auto-HDR, usw). Dies ist der einzige Weg, die Fakten, die in der RAW-Datei gespeichert sind, unverändert auf den Tisch zu legen.

Falsch Falsch Falsch - es ist eine verlustbehaftete und fehlerbehaftete aber dafür primitive und extrem effizient implementierbare Methode. Es ist alles andere als "die einzige" und erst recht nicht die beste Methode um die in einem RAW gespeicherten Informationen zu gewinnen. dcraw.c kann übrigens auch vollkommen unabhängig von Pixelbinning ohne Rauschunterdrückung oder andere Korrekturen konvertieren - mit unterschiedlichen wählbaren Interpolationsalgorithmen. Das hat mit Pixelbinning erstmal nichts zu tun.

Zitat:

Zitat von www_zeeshan_de (Beitrag 1476304)
Du klammerst dich zu sehr an die 16 Megapixel deiner Kamera. Hättest jetzt eine 80 MP Kamera, dann hättest daraus echte 20 MP generieren können. Dann hättest wahrscheinlich geschrieben, 20 MP sind besser als 4 MP. Die Anzahl der Pixel ist relativ, mit der Zeit wird sich das noch steigern. Dir sollte aber klar sein dass die 4 MP (echte 24 Bits pro Pixel) Datei das Fundament deiner hochskalierten 16 MP (8 Bits pro Pixel, des Rest wird von benachbarten Pixeln "erraten") Bilddatei sind.
In der 16 MP Bilddatei steckt kaum Wucht dahinter, viel zu oft gleichen sich benachbarte Pixel, die Effizienz über "Details pro MegaPixel" in der 16 MP Datei kann 4 mal so hoch sein. Ich versuche dir das mal plausibler zu machen:
Ein Luftballon (luftlos) hat eine Masse. Nun pustest du Luft hinein, der Luftballon wirkt größer, aber die Masse ist nicht um das 1000 fache gestiegen. Sobald die Luft draußen ist, hast du wieder den Ursprungszustand.

Falsch. Das Grenzauflösungsvermögen eines Bayersensors liegt nicht bei 1/4 sondern bei etwa 2/3.

Zitat:

Zitat von www_zeeshan_de (Beitrag 1476304)
Dein 16 MP Bild entspricht dem aufgeblasenen Lufballon. Du kannst das Bild in der größe halbieren, dann hast du wieder den Ursprungszustand (nativ RGB). Wenn dir die 4 MP (nativ RGB) nicht ausreichen, so bin mir sicher wäre eine 64 MP Kamera für geeigneter, denn damit hättest du echte 16 MP (nativ RGB) Bilder.

Falsch. Das was Du hier "nativ" nennst ist weder nativ noch der Ursprungszustand.

Zitat:

Zitat von www_zeeshan_de (Beitrag 1476304)
Kommt mir fast schon einer Zensur gleich.

Falsch. Zensur wäre es wenn die Moderatoren Deine Postings vorab prüfen und noch vor Veröffentlichung löschen. Deine Postings werden jedoch nicht einmal nach der Veröffentlichung gelöscht.

Zitat:

Zitat von www_zeeshan_de (Beitrag 1476304)
Hier müssen Informationen bewusst als Flasch eingestuft werden, damit ja niemand auf die Idee kommt sich mit einer Vorgehensweise zu beschäftigen, deren Software komplett open source ist. Lieber sollen Leute(Anfänger) sich mit Vorgekautem von Programmen zufrieden geben, deren Software proprietär ist (komplett geschlossen, nicht einsehbar). Je dümmer die Anfänger, desto leichter kann man die ködern.

Falsch. Die Fragen OpenSource, Proprietär, kostenlos, kommerziell sind in diesem Thema vollkommen irrelevant. Auf der Startseite dieses Forums findest Du übrigens den OpenSource-RAW-Konverter LightZone vorgestellt. Wer soll geködert werden? Paranoia?

Zitat:

Zitat von www_zeeshan_de (Beitrag 1476304)
Mir ist es egal wer mit welchem Programm was macht, mir ist nur wichtig dass die Leute kritisch gegenüber Softwareroutinen/Funktionen/Algorithmen sein sollten, von denen Sie nicht wissen was diese genau tun, wie Sie es tun, was Sie dabei verschleiern, und vor allem welche Verluste dabei BEWUSST in Kauf genommen werden.

Ich bin kritisch. Ich habe mich extensiv mit diesen Themen beschäftigt - genau deswegen kann ich ja sehen, dass der von Dir beschriebene Weg kontraproduktiv ist.

Zitat:

Zitat von www_zeeshan_de (Beitrag 1476304)
Noch n kleiner Tip physi: Stell doch mal deine Kam auf M, und fotografier doch mal den schönen blauen Himmel mit einer Einstellung dass der Himmel schön mit Übergängen auch dunkelblau enthält. Behalte dir das was du siehst in deinem KOPF, machst n Bild, und schaust dir das gemachte Bild auf dem gleichen Display an. Es ist heller. Selbst auf dem kleinen Display erkennt man das, selbst wenn man nur RAW fotografiert, denn das Preview Bild ist im JPG-Format in der RAW-Datei integriert. Unterm Strich, es ist nicht mehr das was du auf dem LiveView siehst.

Die Sensoren werden im LiveView-Modus anders ausgelesen als bei der eigentlichen Belichtung. Der offensichtlichste Unterschied ist ja bereits das kein Verschluss erfolgt. Außerdem wird der LiveView bei Offenblende erzeugt und die Wirkung der Belichtungsparameter lediglich simuliert.

Zitat:

Zitat von www_zeeshan_de (Beitrag 1476304)
Ich hätte gern das was ich da auf dem LiveView sehe. Je schlichter ein Algorightmus, desto weniger wird manipuliert. Traurig, aber Wahr.

Falsch - es gibt keinen Zusammenhang zwischen der "Schlichtheit" eines Algorithmus und einer vermeintlichen "Manipulation".

physicist 12.08.2013 22:14

Ok, also Geisterfahrer und Luftballons mal beiseite (obwohl auch ein Aufgeblasener Luftballon an Masse zunimmt) :D

Bringen wir die ganze Diskussion mit zeeshan doch mal zum eigentlichen Knackpunkt über den Unstimmigkeit herrscht.

Dies wäre (wenn ich es richtig verstanden habe)

- Hat ein 16MP Sensor mit Bayer-Filter wirklich nur 4MP Auflösung?

Ich sage nein, da ich ja 16Millionen Helligkeitsinformationen aufzeichne, diese sind auch wirklich vorhanden, werden aber durch die Bayer-Matrix verändert.
Das zusammenlegen von einem 2x2 großen Feld des Sensors in dem die Helligkeitsinformationen von Rot-Grün-Blau-Grün aufgenommen wurden ist eine einfach zu überschauende Methode.
Jedoch wird dabei nicht berücksichtigt das die Farben räumlich voneinander getrennt auf den Sensor gefallen sind und nun zusammengeschoben werden.

Nehmen wir zum beispiel noch einmal das stark vergrößerte Bild mit dem Kran.
http://www.bilder-hochladen.net/file...f4x-c-c20a.jpg

Jetzt schaue ich mir nur die Formen bzw. Konturen an.
Ich erkenne in der 16MP Aufnahme Konturen am Kran die ich in der 4MP Version nicht sehe. Die Konturen bzw. Umrisse sind eindeutig detaillierter.
Das spricht doch dafür das in der 16MP-Version wirklich mehr Information vorhanden ist als in der 4MP Version. Ich kann mir jedenfalls keinen Algorythmus vorstellen der DAS hochrechnen könnte. Zum Beispiel dieses Teil ganz rechts im Bild welches am Kran hängt. Die Form im rechten Bild ließe sich niemals aus dem linken Bild errechnen.

Der "nicht so einfache" Demosaic-Algo. in der Kamera scheint also eine, auch tatsächlich, höhere Auflösung des Fertigen Bildes zu erzeugen und ist somit effektiver als das "Pixel-binning".

physicist 12.08.2013 22:43

Der nächste Punkt der meines erachten nach für Unstimmigkeiten sorgt.

- Sind Nachbearbeitungen unnötig und verschlechtern nur das Bild ?

Nicht alle würde ich sagen.

- Verzerrungskorrektur:
Ja, da müssen Informationen verloren gehen. Ist denke ich für jeden nachvollziehbar.


- CA Korrektur
Meiner Meinung nach sorgt die CA Korrektur für "mehr" Informationen (man beachte die Anführungszeichen), im Sinne von: "Die Informationen werden zur richtigen Stelle verschoben"
Die Ursache von CAs sind ja unterschiedliche Brechungsindexe der unterschiedlichen Wellenlängen an den Objektivlinsen. Dies ist eine Physikalische Gegebenheit von Licht. Theoretisch lassen sich die CAs welche im Objektiv auftreten also perfekt im Voraus berechnen, warum dann nicht perfekt zurück berechnen?

- Rauschunterdrückung
Ja, dabei werden Details glattgebügelt, aber wie sieht es mit der subjektiven Wahrnehmung von Details aus die von einem Rauschen umgeben sind? Werden diese dann überhaupt noch wahrgenommen?
Ist ein "glattbügeln" des Himmels wirklich eine Abweichung von der Realität? Sehe ich auch ein Rauschen wenn ich in den Himmel schaue?

Sehe ich mit meinen Augen in dunkler Umgebung denn ein Rauschen, oder auch nur weniger Details?

Wenn man sich das mal überlegt, sind einige Korrekturen doch garnicht so schlecht, da ein Verbund aus Objektiv und Sensor ja doch etwas anders arbeitet als unsere Augen.

fotogen 12.08.2013 22:52

Meines Erachtens fehlt die tiefergehende Begründung für die Forderung nach möglichst naturellen RAW-Entwicklungen, weil in der Natur jedes Beispiel dafür fehlt.
Die Augen jedes Lebewesens in Verbindung mit dessen Gehirn führen doch deutlich mehr 'Objektivkorrekturen' durch als jede Digitalkamera, wenn man mal exotische Modi wie Illustration aussen vor lässt.

mrieglhofer 12.08.2013 22:55

Hast ja beim Fernseher auch. Da ist die Farbauflösung weit geringer als die Luminanzauflösung, weil die Farbe in der Auflösung relativ egal ist. Man siehts meist bei PAL, wenn dem Fussballer die rote Hose auf grüner Wiese zuerst zu weit ist und dann zu den Knien rutscht.

Die ist auch der Grund, das die Luminazinformation hauptsächlich aus den beiden grünen Pixeln gewonnen wird. Die rote und blauen eignen sich leider nicht so gut. Das kann man in det SW Umsetzung anschauen, ein Grünfilter verändert wenig, ein rot oder blau-Filter viel.

Trotz aller Diskussion wäre einfach mal anzudenken, warum die Workflows so sind wie sie sind. und das auch bei open Source. Einfach deshalb, weil es keine besseren gibt. Die Annahme, selbst ein Genie zu sein, trifft leider nur selten zu.


Alle Zeitangaben in WEZ +2. Es ist jetzt 19:08 Uhr.