Geissler Service
Amazon
Forum für die Fotosysteme von Sony und KonicaMinolta
  SonyUserforum - Forum für die Fotosysteme
von Sony und KonicaMinolta
 
Registrieren Galerie Objektiv-Datenbank Kalender Forenregeln Alle Foren als gelesen markieren

Startseite » Forenübersicht » Kreativbereich » Nach der Aufnahme » Raw oder Jpg und die Nachbearbeitung, Aufwand vs. Nutzen?
Antwort
 
Themen-Optionen Ansicht
Alt 23.05.2013, 11:20   #1
cicollus
 
 
Registriert seit: 21.05.2013
Ort: Dresden
Beiträge: 318
ge-spinnter Monitor

Zitat:
Zitat von Tikal Beitrag anzeigen
Und Kalibrierungs Sache von Monitor und dem ganzen Rest da. ;-)
Meinen Laptop-Monitor hatte ich vor einige Zeit mal für 2 Stunden mit Spyder gepaart.

LG Jörn

PS. wenn Jemand von den Tuxianern meine Anleitung (Spyder + ArgyllCMS) benötigt, einfach klingeln

Geändert von cicollus (23.05.2013 um 11:24 Uhr)
cicollus ist offline   Mit Zitat antworten
Sponsored Links
Alt 07.06.2013, 16:49   #2
mrieglhofer
 
 
Registriert seit: 03.12.2003
Beiträge: 8.945
Auch wenn der Raw Konverter keine Kameraprofile unterstützt, kann man damit arbeiten. Man fotografiert ein Target lässt es durch den Raw Konverter mit definierten Einstellung durch und erstellt auf dieser Basis ein Profik,. Dieser Profil kann man dann z.b. in PS dem Bild zuweisen und dann weiterverarbeiten. Damit ist durchaus auch damit ein farbverbindliches Arbeiten möglich.

Das Neatimage besser schärft, liegt m. E. daran, dass es davor gut enttäuscht. Damit kannst danach die Schärfe ohne Störungen höher ziehen.
Wobei eigentlich entrauschen normal am Prozess Anfang, schärfen erst am Prozessende und abhängig von der Verwendung stattfindet. Daher ist das Schärfen in der Kamera eigentlich fast immer falsch.

Geändert von mrieglhofer (07.06.2013 um 17:08 Uhr)
mrieglhofer ist offline   Mit Zitat antworten
Alt 07.06.2013, 17:45   #3
Neonsquare
 
 
Registriert seit: 12.08.2008
Ort: Nürnberg
Beiträge: 4.198
Zitat:
Zitat von mrieglhofer Beitrag anzeigen
Das Neatimage besser schärft, liegt m. E. daran, dass es davor gut enttäuscht.
Klar zuvor gut enttäuschen, dann ist die Erwartungshaltung nicht mehr so hoch! ;-)
Neonsquare ist offline   Mit Zitat antworten
Alt 07.06.2013, 17:49   #4
mrieglhofer
 
 
Registriert seit: 03.12.2003
Beiträge: 8.945
Sch... Tablett. Zuerst hat es gpo immer in FPÖ umgewandelt und jetzt entrauscht in enttäuscht. Liegt wohl am Android. Google liest unser Forum und analysiert, dass Rauschen enttäuscht und daher jemand der entrauscht enttäuscht sein muss.
mrieglhofer ist offline   Mit Zitat antworten
Alt 10.06.2013, 09:23   #5
dey
 
 
Registriert seit: 03.09.2009
Ort: Ilvese boi Mannem
Beiträge: 15.272
Zitat:
Zitat von mrieglhofer Beitrag anzeigen
und jetzt entrauscht in enttäuscht.
Das Ende aller Rauschdebatten Wer hat denn da Zugriff auf den Androidkernel?

Ich glaube bei NI eher an die Kombination aus Entrauschen, Schärfen, Rauschfilter und Profile. Der Schärfungsalgorithmus hat hier einfach große Chancen das Rauschen zu erkennen und zu ignorieren.

bydey
__________________
Meinungsvielfalt -1! Keine Meinung -> kein Profil!
dey ist offline   Mit Zitat antworten
Sponsored Links
Alt 10.07.2013, 02:02   #6
a65
 
 
Registriert seit: 05.04.2013
Beiträge: 298
Wo in deinem flow machst du denn die Bilder Retusche? Ich verwende Lightroom und mache zunächst alle Änderungen am RAW (zuschneiden, Belichtungskorrekturen, lense profiles, schärfen, Rauschunterdrückung) bevor ich (in Lightroom) nach tiff konvertiere, um dann in den nik Plugins weiter zu editieren und den finalen Schliff zu geben. Dann konvertiere ich das tiff nach jpg (ich glaube mit 92 %) in Lightroom.

Leider sind die tiff files alle sehr groß (130 MB sind keine Seltenheit) und ich lösche diese dann meist wieder. Du schreibst auf deiner Homepage einerseits, dass du bereits bei der tiff Konvertierung die Auflösung halbierst (unter jpg quality) und andererseits bei dem Sony Kapitel erst bei der tiff nach jpg Konvertierung. Warum machst du es mit den Sony files anders?
a65 ist offline   Mit Zitat antworten
Alt 14.07.2013, 23:11   #7
www_zeeshan_de
 
 
Registriert seit: 10.05.2013
Beiträge: 119
Zitat:
Zitat von a65 Beitrag anzeigen

1. Wo in deinem flow machst du denn die Bilder Retusche?


2. Du schreibst auf deiner Homepage einerseits, dass du bereits bei der tiff Konvertierung die Auflösung halbierst (unter jpg quality) und andererseits bei dem Sony Kapitel erst bei der tiff nach jpg Konvertierung. Warum machst du es mit den Sony files anders?
1. Gar nicht, sieht erstes Posting auf der ersten Seite dieses Threads, der TO will wissen wer wie vorgeht. Ich mache gar keine Retusche (Was aber nicht bedeuten muss dass das in meinem Workflow nicht mehr möglich ist. Es müsste jedes Bild mit eigenen Einstellungen nach TIF konvertiert werden (anstatt eine Einstellung für alle), danach der bereits beschriebene Workflow von mir).

2. Danke dass du mich darauf aufmerksam gemacht hast. Die Vorgehensweise der Seite "jpg quality" ist schon ein wenig gealtert, und zwischenzeitlich hatte mehrere neuere Kameras. Wenn es S-RAW wie bei Canon auch für Sonys ARW geben würde (also exakt halbe Auflösung statt interpolierte Auflösung[Herstellerangabe]), würde ich das gerne mal ausprobieren. Allerdings gibts das nicht, und damals bei Canon war das wirklich komisch mit der jeweils separaten Software für die G9 vs 400D/450D.
Die Problematik für mich bestand darin, dass beim Halbieren der Größe mit der Herstellersoftware man als Benutzer KEINEN Einfluss darauf hat mit WELCHEM Algorithmus das Bild verkleinert wurde.
Der Einzige Algorithmus, mit dem der Kontrast (und somit auch die Farbwerte der einzelnen Pixel) unverändert bleiben ist Pixelwiederholung/nächster Nachbar. Bei allen anderen Algorithmen wird nach jeder Anwendung das Bild flauer (verliert an Kontrast und Bildschärfe!!Konturen werden weichgebügelt).
Traurig war das für mich, weil selbst bei einer Halbierung der Bildgröße derartig schlecht Algorightmen angewendet wurden (für gewöhnlich sind diese nur erforderlich beim Verkleinern auf ungerade Zahlen).

Damit ich künftig sicher sein kann, dass der Kontrast und die knackigen Farben in den Bildern erhalten bleiben, habe ich den Verkleinerungsprozess in die Software integriert, in der ich den Verkleinerungs-Algorithmus "Pixelwiederholung/Nächster Nachbar" SELBST einstellen kann.
www_zeeshan_de ist offline   Mit Zitat antworten
Alt 18.07.2013, 23:38   #8
mrieglhofer
 
 
Registriert seit: 03.12.2003
Beiträge: 8.945
Ich würde sagen, du gehst einfach mal fotographieren, machst von deinen besten Bildern einen Abzug in 50*60 nach den beiden Verfahren und zeigst uns den Unterschied.
Mich interessieren irgendwelche Vermutung und Annahmen über eine vielleicht theoretische Bildverbesserung nicht, wenn sie in der Praxis nicht sichtbar sind.
Hinsichtlich Schärfen liegst leider ein wenig falsch, da das Mass an Schärfe nie absolut ist, sondern vom Betrachtungsabstand abhängt. Dies ist auch Grund, warum es keine Universalschärfung geben kann.
mrieglhofer ist offline   Mit Zitat antworten
Alt 19.07.2013, 01:04   #9
Neonsquare
 
 
Registriert seit: 12.08.2008
Ort: Nürnberg
Beiträge: 4.198
Zitat:
Zitat von mrieglhofer Beitrag anzeigen
... liegst leider ein wenig falsch, da das Mass an Schärfe nie absolut ist, sondern vom Betrachtungsabstand abhängt. Dies ist auch Grund, warum es keine Universalschärfung geben kann.
Das ist absolut richtig.
Ein Nebeneffekt der steigenden Megapixelzahlen ist auch, dass man sich immer weniger Gedanken um Digitalisierungseffekte machen muss. Deswegen sind AA-Filter dieser hochauflösenden Sensoren oft schwächer oder immer öfter auch nicht vorhanden. Die effektive Auflösung des Systems steigt durch immer mehr Pixel immer weniger, aber die Aliasingeffekte verschwinden in den tatsächlich genutzten Auflösungen. Irgendwann ist die diskrete Natur des Sensors eben vernachlässigbar.

Ein herunterskalieren auf ein Viertel der Pixelauflösung ist nur dann sinnvoll, wenn dies auch die gewünschte Zielauflösung ist. Der Grad der notwendigen Schärfung hängt dann noch vom Betrachtungsabstand ab.

Was man nicht erreicht ist irgendeine Form der "Deinterpolation". Die ganze Idee ist Quatsch - durch den AA-Filter enthält jeder Bayerpixel automatisch auch Helligkeitsinformation der Nachbarpixel. Auch korrespondieren die R,G und B Werte nicht direkt mit den RGB-Pixeln des Bayersensors - denn es gibt dazwischen (neben der Interpolation an sich) mindestens noch die Abbildung des Sensorfarbraums in einen Standardfarbraum, einen Weißabgleich und eine Delinearisieung. Man darf generell nicht so sehr an den Bayer-RGB-Pixeln haften - letztlich kann man das auch als z.B. getrennt in Luminanz und Chroma sehen - jeder der Pixel trägt seinen Teil zur Luminanz bei - wobei der Grünkanal am meisten Luminanzinformation trägt. Es gibt mittlerweile sogar Ansätze welche statt den grünen Filtern durchsichtige Filter (also einfach keine) verwenden (z.B. aktuell Aptinas "Clarity+"). Denn man kann auch aus Gesamt-Luminanz, Rot und Blau die notwendige Information berechnen. Die Tatsächliche Detailwahrnehmung besteht hauptsächlich aus der Luminanzinformation und die ist nicht nur ein Viertel der Bayerpixel wie von Zeeshan naiv dargestellt wird.
Im Resultat ist ein RGB- Pixel im TIF ein komplex berechnetes statistisches Datum.

Geändert von Neonsquare (19.07.2013 um 01:14 Uhr)
Neonsquare ist offline   Mit Zitat antworten
Alt 19.07.2013, 09:08   #10
fotomartin
 
 
Registriert seit: 03.04.2012
Ort: Berlin
Beiträge: 398
seit ein paar Seiten fällt mir zu dem Thread nur noch ein: Don't feed the troll
fotomartin ist offline   Mit Zitat antworten
Sponsored Links
Antwort
Startseite » Forenübersicht » Kreativbereich » Nach der Aufnahme » Raw oder Jpg und die Nachbearbeitung, Aufwand vs. Nutzen?

Themen-Optionen
Ansicht

Forenregeln
Es ist dir nicht erlaubt, neue Themen zu verfassen.
Es ist dir nicht erlaubt, auf Beiträge zu antworten.
Es ist dir nicht erlaubt, Anhänge hochzuladen.
Es ist dir nicht erlaubt, deine Beiträge zu bearbeiten.

BB-Code ist an.
Smileys sind an.
[IMG] Code ist an.
HTML-Code ist aus.

Gehe zu


Alle Zeitangaben in WEZ +2. Es ist jetzt 00:04 Uhr.