SonyUserforum

SonyUserforum (https://www.sonyuserforum.de/forum/index.php)
-   Nach der Aufnahme (https://www.sonyuserforum.de/forum/forumdisplay.php?f=12)
-   -   Raw oder Jpg und die Nachbearbeitung, Aufwand vs. Nutzen? (https://www.sonyuserforum.de/forum/showthread.php?t=130679)

dey 22.05.2013 16:31

Zitat:

Zitat von Tikal (Beitrag 1448746)
Ich nutze kein Windows und kann so einiges nicht nachvollziehen.

Da ist Hilfe dann auch doppelt schwer. Je exotischer, desto allein.

bydey

swivel 22.05.2013 17:14

Zitat:

Zitat von Luckyrunner88 (Beitrag 1448740)
..
RAW hab ich deswegen nicht bearbeitet weil ich Probleme hatte die selbe Schärfe wie im JPEG zu erhalten, ich bin mit den Schärfereglern im LR4 nicht klargekommen...

Hi,

hab den ganzen Tread hier nicht gelesen, sondern bin "nur" hierüber gestolpert.

Ich hab Gestern seit langem mal wieder - dummerweise - die auto HDR Funktion meiner A77 für etliche Nachtfotos genutzt. Ich wollte das Ergebniss sofort.. sonst hätte ich jeweils Belichtungsreihen in RAW gemacht - was ja auch gut möglich ist.

Mir ist zum ersten mal aufgefallen, wie viel besser (mein geliebtes) NeatImage RAW Dateien statt JPEG schärfen kann. JPEGs werden leider sehr viel schneller sichtbar überschärft, - ich krieg keinesfalls identische Schärfe. Kann ja sein, das man dafür die Schärfe in der Kamera runterregeln müsste (oder ?).
Ich denke aber, das NeatImage auch für das "Schärfen" in den RAWs mehr/bessere Grundlagen vorfindet.

Ich ärgere mich (auch) über die LR Schärfenwerkzeuge. Schärfen + (nötiges) Entrauschen ist leider deutlich verlustbehafteter als das NeatImage kann. Andere RAW Konverter machen das auch besser. Ich denke aber das ist auch zum großen Teil abhängig von den RAWS bzw. der A77.

LG

Neonsquare 22.05.2013 17:25

Zitat:

Zitat von dey (Beitrag 1448754)
Da ist Hilfe dann auch doppelt schwer. Je exotischer, desto allein.

Nein würde er Windows benutzen hätte er ein Problem mehr am Hacken. :lol:

Neonsquare 22.05.2013 20:25

Zitat:

Zitat von Tikal (Beitrag 1448746)
Dazu muss ich ja erst mit dem Raw Programm das Teil öffnen und gegebenenfalls im schnellsten Fall ein Standardprofil anwenden und das Bild exportieren.

Irgendwie wirst Du die JPEGs auf den Rechner holen oder? Ob Du die nun im Programm "Finder" rüberkopierst. Oder mit "Aperture" ist doch erstmal egal oder? Das Standardprofil muss man normalerweise auch nicht anwenden - deswegen ist es ja "Standard" ;). Exportieren musst Du es ja nicht zwingend - sondern lediglich wenn Du es "verwenden" willst. Als Mac User profitierst Du dabei von der guten Aperture-Integration. Jeder Dateidialog enthält eine Spezielle Sektion für die Aperture-Bibliothek aus der man die Fotos einfach auswählen kann. Außerdem natürlich der iCloud Fotostream oder Flicks oder Facebook. Das wird nun wirklich nicht schwer gemacht.

Tikal 22.05.2013 20:47

Umm... ich nutze doch kein Mac System.^^ Habe hier ein Linux System am Laufen: Ubuntu mit Shotwell und Darktable. Ich möchte aber nicht die JPEGs erst entwickeln, wenn ich sie benötige. Aber das ist doch schon sowieso ein wenig vom Thema ab. Es geht doch eher um die Nachbearbeitung. Wenn ich der Meinung bin mit dem JPEG nicht zufrieden zu sein und größere Bearbeitungen anzustellen oder einfach nur Bearbeitungen, die RAW erfordern, dann öffne ich die RAW Datei. Auch wenn ich der Meinung bin, es muss jetzt perfekte Qualität geben. In diesem Fall ist mit großem Aufwand gebunden, aber der Nutzen ist für mich enorm. Die JPEG habe ich in diesem Fall als Vergleichsbild; auch wegen den internen Korrekturen der Kamera.

Neonsquare 22.05.2013 21:11

Zitat:

Zitat von dey (Beitrag 1448739)
Wie viele Standardprofile benutzt du?

Ich habe bereits geschrieben, dass ich in Aperture mit einem Profil auskomme. Das ist mein "Standard 0:0:0". Den Rest kann ich in den Anpassungen in Aperture genauso schnell anpassen wie jemand in der Kamera "Standard +1:0:+2" einstellt - vermutlich sogar schneller, aber vor allem übertragbar auf andere Bilder. Natürlich kann ich mir auch Voreinstellungen wie "Porträt", "Landschaft" usw. machen - aber so arbeite ich eben (meistens) nicht. Man kann das aber natürlich - das ist nicht anders als mit der Kamera.

Zitat:

Zitat von dey (Beitrag 1448739)
Sind das nur größere Thumnails oder auch fertige Bilder?

Von den Strohmännern zum Strickdrehen? :lol:. Willst Du damit etwa unterstellen ich würde keine Bilder bearbeiten? Im Ernst: Wie gesagt. Das Standardprofil in Aperture ist MEIN "Standard 0:0:0"-Äquivalent. Die A77 macht Out-Of-Cam bei Standard 0:0:0 durchaus gute Bilder. Die Resultate in Aperture ohne Anpassung sind für mich mindestens ebenso gut. Ich finde "Aperture-Standard" ist recht ähnlich zum A77 Standard 0:0:0. Aperture hat evtl. ein kleines bisschen mehr Kontrast und Grün wirkt satter. Standard 0:0:+3 erreiche ich indem ich die RAW-Finetuning-Regler in Aperture auf Maximum drehe. Aperture zeigt dann trotzdem keine Halos. Wenn ich beim fotografieren keinen Fehler mache, ist das importierte Bild durchaus als fertig anzusehende Variante. (Vielleicht nicht die letzte, aber eine). Es gibt keinen Schritt der dann unbedingt noch individuell gemacht werden MUSS. Wenn ein OOC Standard-0:0:0 Bild fertig wäre, dann ist es mein Aperture-Standard-Bild auch.

Kann man aus dem RAW mehr Rausholen? Klar - manche Bilder profitieren z. B. von einer RAW-Schärfung. Viele Bilder enthalten hier oder dort mal einen Staubfleck oder ähnliche kleine Makel. Vielleicht ist es nicht ganz gerade, oder ich will lieber einen Crop. Sobald das Licht nicht ideal war, kann man durch gezieltes Arbeiten mit Definition, Licht/Schatten, Mittenkontraste, Lebendigkeit und bei schwierigen Fällen "Kurven" sehr detailliert arbeiten. Weit genauer und gezielter als das jemals mit Standard(Kontrast/Sättigung/Schärfe: -3 ..+3) möglich wäre.

Zu deiner Frage ob ich nur "größere Thumbnails" mache. Nein - ich lasse auch auf z. B. bis zu 90x60cm ausbelichten. In diesem Fall skaliere ich die Schärfe gezielt für den Druck oder die Belichtung.

Neonsquare 22.05.2013 21:23

Zitat:

Zitat von Tikal (Beitrag 1448833)
Umm... ich nutze doch kein Mac System.^^ Habe hier ein Linux System am Laufen: Ubuntu mit Shotwell und Darktable. Ich möchte aber nicht die JPEGs erst entwickeln, wenn ich sie benötige. Aber das ist doch schon sowieso ein wenig vom Thema ab. Es geht doch eher um die Nachbearbeitung. Wenn ich der Meinung bin mit dem JPEG nicht zufrieden zu sein und größere Bearbeitungen anzustellen oder einfach nur Bearbeitungen, die RAW erfordern, dann öffne ich die RAW Datei. Auch wenn ich der Meinung bin, es muss jetzt perfekte Qualität geben. In diesem Fall ist mit großem Aufwand gebunden, aber der Nutzen ist für mich enorm. Die JPEG habe ich in diesem Fall als Vergleichsbild; auch wegen den internen Korrekturen der Kamera.

Oh Sorry - Linuxer hab ich mittlerweile gar nicht mehr so sehr auf dem Schirm. Desktop-Linux ist bei mir schon eine ganze Weile her - bin damals auf ein iBook G4 12" mit OSX Panther umgestiegen und habe es nie bereut. Die Server laufen weiter auf Linux. Basteleien mit Raspberry Pi, WRT & Co. auch noch mit Linux - aber Desktop... forget it.


Ich will Deine Vorgehensweise ja auch nicht in Abrede stellen. Aber Du sagst ja selbst, dass es Aufwändig ist. Das hat aber nichts mit RAW zu tun, sondern in der Art wie Du (warum auch immer) das so organisiert hast. Das meine ich wenn ich sage, das man es sich auch unnötig schwer machen kann. Selbst ein RAW+JPEG-Workflow (ich rate davon ab) ist mit den geeigneten Werkzeugen wesentlich einfacher. Wieder als Beispiel Aperture: Man kann - wenn man möchte - die RAW+JPEG-Paare als Paar belassen und bei jeder einzelnen Version eines Bildes zwischen JPEG und RAW-Grundlage switchen; jederzeit. Das ist jedoch nur zu empfehlen, wenn man beide Varianten Dauerhaft archivieren will; ansonsten ist ein getrennter Import besser. Am Ende ist es wieder "Aufwand vs. Nutzen" - das RAW macht nicht den Aufwand.

Tikal 22.05.2013 21:49

Zitat:

Zitat von Neonsquare (Beitrag 1448856)
Man kann - wenn man möchte - die RAW+JPEG-Paare als Paar belassen und bei jeder einzelnen Version eines Bildes zwischen JPEG und RAW-Grundlage switchen; jederzeit. Das ist jedoch nur zu empfehlen, wenn man beide Varianten Dauerhaft archivieren will

Wenn wir schon das Thema angesprochen haben: In Shotwell (Foto Organizer) ist das genauso. Das Paar wird als eine Datei angezeigt und man kann den "Entwickler" für jedes Bild bei Bedarf umschalten. Somit ist es kein Aufwand für mich beides zu haben. Nutze sowieso RAW+JPEG.

cicollus 22.05.2013 22:04

Konverter
 
Zitat:

Zitat von mrieglhofer (Beitrag 1448435)
...

Sinnhafzt ist es, wenn man klar schreibt, was mit welchem Konverter schlechter ist.

Der in meiner A550 verbaute Konverter ist schlechter als Rawtherapee in der automatik-Einstellung.
Im Prinzip bräuchte ich nur das raw-Bild in Rawtherapee aufrufen und ohne eine weitere Einstellung in JPEG konvertieren und hätte ein besseres JPEG-Bild als das was die Kamera erzeugt.

Gruß
Jörn

Edit: Zumindestens wenn das Bild nicht optimal belichtet wurde.

Zaar 22.05.2013 22:15

Zitat:

Zitat von cicollus (Beitrag 1448867)
Im Prinzip bräuchte ich nur das raw-Bild in Rawtherapee aufrufen und ohne eine weitere Einstellung in JPEG konvertieren und hätte ein besseres JPEG-Bild als das was die Kamera erzeugt.

Dafür hätte ich gerne Beispiele, die RAW + JPEG aufgenommen sind (mit geeigneten JPEG-Einstellungen). Diese Behauptung halte ich für ... hm ... gewagt ;)

Gruß,
Markus

cicollus 22.05.2013 22:20

Zitat:

Zitat von swivel (Beitrag 1448762)
Hi,

hab den ganzen Tread hier nicht gelesen, sondern bin "nur" hierüber gestolpert.

... wie viel besser (mein geliebtes) NeatImage RAW Dateien statt JPEG schärfen kann. JPEGs werden leider sehr viel schneller sichtbar überschärft, - ich krieg keinesfalls identische Schärfe. Kann ja sein, das man dafür die Schärfe in der Kamera runterregeln müsste (oder ?).
Ich denke aber, das NeatImage auch für das "Schärfen" in den RAWs mehr/bessere Grundlagen vorfindet.


LG

NeatImage dient zum Entrauschen von ISO-Rauschen und ist unschlagbar eines der besten Programme darin. Aber zum Schärfen ....?

LG Jörn

dey 22.05.2013 22:37

Zitat:

Zitat von cicollus (Beitrag 1448878)
NeatImage dient zum Entrauschen von ISO-Rauschen und ist unschlagbar eines der besten Programme darin. Aber zum Schärfen ....?

ist es ja so was von genial!
Es liegt wohl an der Balance mit dem Entrauschen.
Tatsächlich kann man beim Schärfen weniger einstellen. Ich habe jedoch das Gefühl, dass NI einfach das Rauschen gemäss dem Filter erkennt und entsprechend beim Schärfen links liegen lässt. Die meisten anderen Programme machen sich selbst die Arbeit kaputt.
bydey

cicollus 22.05.2013 22:53

Zitat:

Zitat von dey (Beitrag 1448887)
ist es ja so was von genial!
Es liegt wohl an der Balance mit dem Entrauschen.
Tatsächlich kann man beim Schärfen weniger einstellen. Ich habe jedoch das Gefühl, dass NI einfach das Rauschen gemäss dem Filter erkennt und entsprechend beim Schärfen links liegen lässt. Die meisten anderen Programme machen sich selbst die Arbeit kaputt.
bydey

Ich weiß zwar jetzt nicht genau was Du mit "gemäß Filter" genau meinst, aber NI 'misst' eine gleichmäßige Fläche (grünes Quadrat) und erkennt dann wohl die bunten ISO-Rausch-Pixel, welche da nicht hingehören und versucht diese wegzurechnen.

cicollus 22.05.2013 23:05

edit
 
Zitat:

Zitat von Zaar (Beitrag 1448873)
Dafür hätte ich gerne Beispiele, die RAW + JPEG aufgenommen sind (mit geeigneten JPEG-Einstellungen). Diese Behauptung halte ich für ... hm ... gewagt ;)

Gruß,
Markus

Na klar:
EDIT:

ich habe nun mal 2 Vergleiche auf eine Seite gebracht:

http://www.repage.de/memberdata/photo/vergleich.jpg

Links jeweils das Kamera-JPEG, recht der Rawtherapee-Grundwert.

Und schließlich sah das eine dann so aus:
http://www.fotocommunity.de/pc/pc/my...splay/30078732

LG Jörn




Edit BadMan: Bilder mit einer Größe von mehr als 50 KB sind nach den Forenregeln nur zu verlinken und nicht in den Beitrag einzubinden.
Bitte benutze unsere wunderschöne Galerie. Dort können Bilder bis 500 kb und 1200px Kantenlänge geladen und dann als Thumbnail im Thread verlinkt werden.

Man 22.05.2013 23:51

Zitat:

Zitat von cicollus (Beitrag 1448867)
Der in meiner A550 verbaute Konverter ist schlechter als Rawtherapee in der automatik-Einstellung.
Im Prinzip bräuchte ich nur das raw-Bild in Rawtherapee aufrufen und ohne eine weitere Einstellung in JPEG konvertieren und hätte ein besseres JPEG-Bild als das was die Kamera erzeugt.

Gruß
Jörn

Edit: Zumindestens wenn das Bild nicht optimal belichtet wurde.

Bei dem von dir dazu eingestellten Beispielbild ein paar Beiträge später gefällt mir das Bild mit der Überschrift "1.rawtherapee" weniger gut als das Bild mit der Überschrift "2. a550". War dein oben eingefügtes Zitat eher anders herum gemeint (dann = Kamera-JPG ist eher besser als ein unbeareitetes RAW entwickelt mit Rawtherapee)?

Das RAW-Bild wirkt (auf mich) flau, das JPG-Bild ist (je nach Geschmack) vielleicht etwas zu dunkel abgestimmt, zu knackig und die scharzen Stellen (Kleid) sind vielleicht etwas zu tief schwarz - es gefällt mir trotzdem besser.
Mit ein wenig Nacharbeit (bei Adobe CS5 sollte schon ein klick auf "automatisch" statt "standard" in CameraRaw für eine deutliche Verbesserung ohne manuellen Mehraufwand sorgen) ist da bestimmt noch einiges aus dem RAW-Bild herauszuholen.

Die Abstimmung ist dann (wie immer) eher Geschmackssache.

vlG

Manfred

Tikal 23.05.2013 00:04

Zitat:

Zitat von Man (Beitrag 1448906)
Die Abstimmung ist dann (wie immer) eher Geschmackssache.

Und Kalibrierungs Sache von Monitor und dem ganzen Rest da. ;-)

dey 23.05.2013 09:28

Und darum geht es doch gar nicht. Das man ein Bild in einem RAW-Konverter verschlimmbessern kann ist klar. Auch mit Jpg geht ja noch viel; bis hin zu viel.
Rawtherapee kennt keine Kameraprofile und die sind schon zwingend notwendig, wenn mit default was angenehmes rauskommen soll.
Individuell sollte es auch für Laien möglich sein eine gute Kopie des jpg ooc oder besser hinzubekommen.
bydey

cicollus 23.05.2013 11:15

Zitat:

Zitat von dey (Beitrag 1448970)
Und darum geht es doch gar nicht. Das man ein Bild in einem RAW-Konverter verschlimmbessern kann ist klar. Auch mit Jpg geht ja noch viel; bis hin zu viel.
Rawtherapee kennt keine Kameraprofile und die sind schon zwingend notwendig, wenn mit default was angenehmes rauskommen soll.
Individuell sollte es auch für Laien möglich sein eine gute Kopie des jpg ooc oder besser hinzubekommen.
bydey

Wenn ich mein 2. Beispiel in AfterShot pro eingebe, dann sieht es fast genauso flau aus.
Und AfterShot Pro kennt Kameraprofile.
Aber mit AfterShorPro sind feinere Abgleiche machbar. Und der Zoom ist sauschnell. Werde es wohl kaufen... kostet z.Zt 65 EUR.
EDIT: Und es hat mein 28/2,8-Minolta-Objektiv dabei *huhu*

Die Möglichkeiten der Nachbearbeitung von JPEG sind aber stark eingeschränkt.
An der Histogrammkurve sieht man dann, das bei jedem größeren Eingriff dann ein Stück Bildinformation fehlt. Auch solche Dinge wie Nachbelichtung und Tonwertmapping sind wohl kaum machbar.

cicollus 23.05.2013 11:20

ge-spinnter Monitor
 
Zitat:

Zitat von Tikal (Beitrag 1448911)
Und Kalibrierungs Sache von Monitor und dem ganzen Rest da. ;-)

Meinen Laptop-Monitor hatte ich vor einige Zeit mal für 2 Stunden mit Spyder gepaart.

LG Jörn

PS. wenn Jemand von den Tuxianern meine Anleitung (Spyder + ArgyllCMS) benötigt, einfach klingeln :D

www_zeeshan_de 06.06.2013 22:09

Hatte jetzt ein wenig Zeit ein Paar Bilder machen zu können, die ich nach meinem Workflow hochgeladen habe. Ich habe alle RAWs behalten und nicht gelöscht, falls jemad das RAW haben möchte bitte melden. Für den OOC-JPG vs mein-Workflow-JPG werde ich gesondert Zeit nehmen und noch nachreichen.

http://www.zeeshan.de/slta65/0_slta65.htm

Die Bilder sind in der umgekehrten Reihenfolge, neueste Bilder erscheinen in der Galerie als erstes.

dey 07.06.2013 10:47

Zitat:

Zitat von www_zeeshan_de (Beitrag 1453844)
Hatte jetzt ein wenig Zeit ein Paar Bilder machen zu können, die ich nach meinem Workflow hochgeladen habe.

Danke. Und da kann man jetzt mal weiter machen
Zitat:

Ich habe alle RAWs behalten und nicht gelöscht, falls jemad das RAW haben möchte bitte melden.
Wozu? Dass wir bei jedem Bild, egal ob das RAW oder dein JPG, nachträglich mehr rausholen können, weil individuell nach Geschmack nachbearbeitet ist ja wohl klar.

Zitat:

Für den OOC-JPG vs mein-Workflow-JPG werde ich gesondert Zeit nehmen und noch nachreichen.
Das ist doch der interessante Teil, der hier zu massiven Diskussionen geführt hat.


[OT=on]Ich finde dein textbasierte HP seltsam.
Bei www.zeeshan.de kommt eine Auflistung des root-Verzeichnis; 0_start_homepage.html startet nicht automatisch.
Die ganze Anmutung verwirrt angesichts dieses Footers "Copyright (c) 2013 Zeeshan Sayyed (Staatlich geprüfter Informatiker)".
Wenn du Lust hast kannst du es mir ja mal per PN erklären[/OT]

bydey

mrieglhofer 07.06.2013 16:49

Auch wenn der Raw Konverter keine Kameraprofile unterstützt, kann man damit arbeiten. Man fotografiert ein Target lässt es durch den Raw Konverter mit definierten Einstellung durch und erstellt auf dieser Basis ein Profik,. Dieser Profil kann man dann z.b. in PS dem Bild zuweisen und dann weiterverarbeiten. Damit ist durchaus auch damit ein farbverbindliches Arbeiten möglich.

Das Neatimage besser schärft, liegt m. E. daran, dass es davor gut enttäuscht. Damit kannst danach die Schärfe ohne Störungen höher ziehen.
Wobei eigentlich entrauschen normal am Prozess Anfang, schärfen erst am Prozessende und abhängig von der Verwendung stattfindet. Daher ist das Schärfen in der Kamera eigentlich fast immer falsch.

Neonsquare 07.06.2013 17:45

Zitat:

Zitat von mrieglhofer (Beitrag 1454109)
Das Neatimage besser schärft, liegt m. E. daran, dass es davor gut enttäuscht.

Klar zuvor gut enttäuschen, dann ist die Erwartungshaltung nicht mehr so hoch! ;-)

mrieglhofer 07.06.2013 17:49

Sch... Tablett. Zuerst hat es gpo immer in FPÖ umgewandelt und jetzt entrauscht in enttäuscht. Liegt wohl am Android. Google liest unser Forum und analysiert, dass Rauschen enttäuscht und daher jemand der entrauscht enttäuscht sein muss.

dey 10.06.2013 09:23

Zitat:

Zitat von mrieglhofer (Beitrag 1454130)
und jetzt entrauscht in enttäuscht.

Das Ende aller Rauschdebatten :lol: Wer hat denn da Zugriff auf den Androidkernel? :shock:

Ich glaube bei NI eher an die Kombination aus Entrauschen, Schärfen, Rauschfilter und Profile. Der Schärfungsalgorithmus hat hier einfach große Chancen das Rauschen zu erkennen und zu ignorieren.

bydey

www_zeeshan_de 09.07.2013 22:53

Zitat:

Zitat von physicist (Beitrag 1447767)
Vom Aufwand her ist es nicht anders. Das Ergebnis ist jedoch ein völlig anderes und die JPG meist näher an dem was man als Endergebnis erwartet :D

Ich habe zwischenzeitlich neue Erkenntnisse mit meiner SLT-A65 (initial Release Firmware). Die Ergebnisse RAW2TIF2JPG vs OOC-JPG kann man nicht vergleichen, weil, am OOC-JPG (FINE):
* Kontrasterhöhung
* Farbsättigung-Erhöhung
* Schärfen
durchgeführt wurde (In welchem Maß: unbekannt). Diese kann man wenn man über SONY IDC geht natürlich auch noch durchführen, wenn man dann aber von TIF nach JPG batchkonvertieren möchte, hat man einen entscheidenden Vorteil: Die JPG-Speicher-Optionen kann man selbst auf maximum einstellen (100 % und Farbsubsampling deaktivieren!!!) wogegen die OOC-JPGs nur mit
JPEG, quality: 94, subsampling ON (2x1)
daherkommen. Diesen Wert kann man anhand der neuesten Software Version "IrfanView 4.36" überprüfen indem man dort die jpg öffnet und auf den Info-Button klickt.

Farbsubsampling und NUR 94 % jpg Qualität, das geht mal gar nicht (siehe jpg Qualität auf meiner Homepage). Die SLT-A77 und A99 haben da ggf noch JPG Super Fine Einstellungen (Firmware bitte mit angeben), ich habe diese Kameras jedoch nicht, und somit können wir auf Information von Neonsquare und Co hoffen.

@physicist
Ich habe zwischenzeitlich meinen Workflow ein wenig verbessert und eine Anleitung der Vorgehensweise unter
http://www.zeeshan.de/slta65/0_slta65.htm
beschrieben.
Ich habe jegliche Kamerainterne Bildverbesserer/Verschlechterer (Objektiv- Schattierungskompensation, Verzerrungskompensation, Farbkompensation) DEAKTIVIERT. Eine
NO_EBV.xml
für Sony IDC habe ich dort abgelegt, darin sind JEGLICHE nachträgliche Bildverbesserer/Verschlechterer von ARW2TIF deaktiviert, wie ich dann zum finalen JPG komme, kannst du ebenfallst dort nachlesen. Ein paar Bilder gibts auch in der Galerie dort, Bilder nach dem
NO_EBV.xml
Prinzip werden folgen.
Du darfst gerne mal ein ARW anhand NO_EBV.xml und dem weiteren Workflow bearbeiten. Wie findest du das Ergebnis ?
BTW: hast du jetzt eine Festbrennweite DT 35 F1.8 ?

a65 10.07.2013 02:02

Wo in deinem flow machst du denn die Bilder Retusche? Ich verwende Lightroom und mache zunächst alle Änderungen am RAW (zuschneiden, Belichtungskorrekturen, lense profiles, schärfen, Rauschunterdrückung) bevor ich (in Lightroom) nach tiff konvertiere, um dann in den nik Plugins weiter zu editieren und den finalen Schliff zu geben. Dann konvertiere ich das tiff nach jpg (ich glaube mit 92 %) in Lightroom.

Leider sind die tiff files alle sehr groß (130 MB sind keine Seltenheit) und ich lösche diese dann meist wieder. Du schreibst auf deiner Homepage einerseits, dass du bereits bei der tiff Konvertierung die Auflösung halbierst (unter jpg quality) und andererseits bei dem Sony Kapitel erst bei der tiff nach jpg Konvertierung. Warum machst du es mit den Sony files anders?

physicist 14.07.2013 11:46

Zitat:

Zitat von www_zeeshan_de (Beitrag 1464369)
Du darfst gerne mal ein ARW anhand NO_EBV.xml und dem weiteren Workflow bearbeiten. Wie findest du das Ergebnis ?

Katastrophal.... :shock:

http://www.bilder-hochladen.net/file...f4x-a-d3d9.jpg
Links OOC-JPG - Rechts RAW2TIF2JPG (100% Crop bezogen auf das ooc jpg)

Der Unterschied zwischen 16 und 4 Megapixel ist wohl mehr als offensichtlich :mrgreen:

www_zeeshan_de 14.07.2013 22:44

Zitat:

Zitat von physicist (Beitrag 1465911)
Katastrophal.... :shock:

http://www.bilder-hochladen.net/file...f4x-a-d3d9.jpg
Links OOC-JPG - Rechts RAW2TIF2JPG (100% Crop bezogen auf das ooc jpg)

Der Unterschied zwischen 16 und 4 Megapixel ist wohl mehr als offensichtlich :mrgreen:

Also wenn du schon vergleichen willst, muss du beide Bilder wenigstens auf die gleiche Auflösung bringen. Ich habe deine OOC-JPG jetzt nachträglich verkleinert (auch wenn die bereit Kameraintern geschärft worden war, Schärfen sollte immer der letzte Schritt sein!!). Wie du siehst ist auf dem rechten Bild mehr Kontrast und Schärfe (angewendet worden !?). Ansonsten sind die Ergebnisse relativ gleich, bis auf das feine Bildrauschen auf klaren Flächen im rechten JPG (dies wird im linken OOC-JPG glattgebügelt).
http://www.bilder-hochladen.net/file...-c4ca-jpg.html

Wenn du mit der Kamerainternen OOC-JPG Bildqualität
JPEG, quality: 94, subsampling ON (2x1)
zufrieden bist, hat sich alles andere für dich bereits erübrigt. Wer KEIN Farb-Subsampling und 100 % JPG-Qualität in seinen JPGs haben möchte, der kann den von mir beschrieben Weg gehen (egal ob am Ende mit Bildgrößenverkleinerung auf native RGB-Pixel-Größe [also 4 MP bei einer 16 MP Kamera(Herstellerangabe) oder 6 MP bei einer 24 MP Kamera(Herstellerangabe) usw]). Allen anderen bleibt das Speichern der Bilder im ARW/RAW Format.

www_zeeshan_de 14.07.2013 23:11

Zitat:

Zitat von a65 (Beitrag 1464406)

1. Wo in deinem flow machst du denn die Bilder Retusche?


2. Du schreibst auf deiner Homepage einerseits, dass du bereits bei der tiff Konvertierung die Auflösung halbierst (unter jpg quality) und andererseits bei dem Sony Kapitel erst bei der tiff nach jpg Konvertierung. Warum machst du es mit den Sony files anders?

1. Gar nicht, sieht erstes Posting auf der ersten Seite dieses Threads, der TO will wissen wer wie vorgeht. Ich mache gar keine Retusche (Was aber nicht bedeuten muss dass das in meinem Workflow nicht mehr möglich ist. Es müsste jedes Bild mit eigenen Einstellungen nach TIF konvertiert werden (anstatt eine Einstellung für alle), danach der bereits beschriebene Workflow von mir).

2. Danke dass du mich darauf aufmerksam gemacht hast. Die Vorgehensweise der Seite "jpg quality" ist schon ein wenig gealtert, und zwischenzeitlich hatte mehrere neuere Kameras. Wenn es S-RAW wie bei Canon auch für Sonys ARW geben würde (also exakt halbe Auflösung statt interpolierte Auflösung[Herstellerangabe]), würde ich das gerne mal ausprobieren. Allerdings gibts das nicht, und damals bei Canon war das wirklich komisch mit der jeweils separaten Software für die G9 vs 400D/450D.
Die Problematik für mich bestand darin, dass beim Halbieren der Größe mit der Herstellersoftware man als Benutzer KEINEN Einfluss darauf hat mit WELCHEM Algorithmus das Bild verkleinert wurde.
Der Einzige Algorithmus, mit dem der Kontrast (und somit auch die Farbwerte der einzelnen Pixel) unverändert bleiben ist Pixelwiederholung/nächster Nachbar. Bei allen anderen Algorithmen wird nach jeder Anwendung das Bild flauer (verliert an Kontrast und Bildschärfe!!Konturen werden weichgebügelt).
Traurig war das für mich, weil selbst bei einer Halbierung der Bildgröße derartig schlecht Algorightmen angewendet wurden (für gewöhnlich sind diese nur erforderlich beim Verkleinern auf ungerade Zahlen).

Damit ich künftig sicher sein kann, dass der Kontrast und die knackigen Farben in den Bildern erhalten bleiben, habe ich den Verkleinerungsprozess in die Software integriert, in der ich den Verkleinerungs-Algorithmus "Pixelwiederholung/Nächster Nachbar" SELBST einstellen kann.

Karsten in Altona 15.07.2013 09:57

Zitat:

Zitat von www_zeeshan_de (Beitrag 1466116)
Schärfen sollte immer der letzte Schritt sein!!

Ist ja auch so ein Mythos, der pauschal nicht stimmt. Trifft nur zu, wenn man verkleinert (oder auch vergrößert) auf zb Webgröße und das runterskalierte Bild, am besten nur leicht, nachschärfen will, wenn es das Programm, welches man benutzt, es nicht schon selber erledigt, wie zb Lightroom, wenn man denn will.

www_zeeshan_de 16.07.2013 21:40

Zitat:

Zitat von Neonsquare (Beitrag 1445990)
Das mag ja sein, trifft aber überhaupt nicht die Praxiserfahrung die ich mit der A77 bislang gesammelt habe. Spätestens seit Apple die RAW-Konvertierung für die A77 aktualisiert hat kriege ich mit RAW deutlich mehr Details als per JPEG.

Da ich selbst keine A77 habe, musste ich selbst ein wenig recherchieren.
Ich konnte zwischenzeitlich aber was feststellen:
Auf der Seite
http://www.cameralabs.com/reviews/So...e_images.shtml
kann man das Bild
"""Landscape: 13.22MB, Program auto, 1/320, f5.6, 100 ISO, 16-50mm at 16mm (24mm equiv)"""
nach dem Klick auf ..., "alle Größen anzeigen", dann in Originaldatei downloaden. Danach mit Irfanview 4.36 öffnen, und auf info Button klicken, und siehe da, dort steht:

JPEG, quality: 99, subsampling ON (2x1)

Das bedeutet dass selbst bei der Sony SLT-A77 "Extra Fine" JPG Einstellung nicht mit maximaler JPG-Qualität gespeichert wird. Nur 99 % statt 100 % JPG-Qualität reduziert die Dateigröße bereit IMMENS (also Hohe Verluste), das Schlimmste jedoch ist, dass das Farb-Subsampling immer noch aktiviert ist !!!! Hierdurch verlieren knackige Farben ihre Brillanz.

Auf meiner Seite unter jpg Qualität ist das mit den Farbsubsampling mit/Ohne genauer beschrieben.
Ohne Farbsubsampling (1x1):
http://www.zeeshan.de/jpgquality/jpgquality-11.jpg
Mit Farbsubsampling (2x1):
http://www.zeeshan.de/jpgquality/jpgquality-12.jpg
Mit Farbsubsampling (2x2):
http://www.zeeshan.de/jpgquality/jpgquality-13.jpg

Ich habe in diversen Internetforen gelesen, es gibt Leute die die A77 nur wegen der JPG-Option "Extra Fine" gekauft haben (anstatt eine A65). Ich denke eine A65 und den Weg über RAW/ARW gehen + ein DT 35mmF1.8 ist ggf günstiger.

konzertpix.de 16.07.2013 21:50

Oh Mann, wann entfernst du dich endlich von synthetischen Motiven als Vergleichsgrundlage, für deren Komprimierung und Speicherung JPG gar nicht geeignet ist? Fotografierst du ausschließlich Bildschirmzeichnungen ab oder die Natur? Hast du jemals das hier gelesen und verstanden?

mrieglhofer 16.07.2013 22:53

Zitat:

Zitat von Karsten in Altona (Beitrag 1466188)
Ist ja auch so ein Mythos, der pauschal nicht stimmt. Trifft nur zu, wenn man verkleinert (oder auch vergrößert) auf zb Webgröße und das runterskalierte Bild, am besten nur leicht, nachschärfen will, wenn es das Programm, welches man benutzt, es nicht schon selber erledigt, wie zb Lightroom, wenn man denn will.

Leider nein, ist kein Mythos. Hängt mit dem Sehverhalten ab. Scharf ist ein Bild immer nur für einen bestimmten Betrachtungsabstand und einem bestimmten Medium. Erhöhst du den Betrachtungsabstand, musst du deutlich überschärfen , um den gleichen Schärfeneindruck zu erhalten. Schau dir mal den NIK Sharpener an, spiel mal ein wenig damit. Die haben auf ihrer Website das auch ein bisschen erklärt. Summa summarum, schärfen ist der letzte Schritt und ist aufs Medium, den Betrachtungsabstand und aufs Motiv abzustimmen.

physicist 16.07.2013 23:21

@www_zeeshan_de

Eine Sache verstehe ich immer noch nicht, warum soll ich 75% der Pixel in dem Bild nach "/dev/null" verschieben? (also löschen)

Ja, ich weiß was ein Bayer-Filter ist.
Aber wenn das Reduzieren auf ein Viertel der Pixelzahl dazu dienen soll aus 2 grünen und jeweils 1 Roten und Blauen Helligkeitswert des Bayer-Sensors ein RGB-Pixel zu errechnen, so ist doch der von Dir vorgeschlagene Weg komplett falsch.

Was du machst, ist jeweils 4 RGB-Pixel zu einem neuen RGB Pixel zusammenzufassen.
In dem Moment wo Du deine Bilder als TIF speicherst sind die Helligkeitsinformationen des Sensors doch bereits in RGB-Werte umgerechnet/interpoliert worden.

Möchtest Du aus der Bayer-Matrix immer 2x2 Pixel zusammenfassen und zu einem RGB-Wert machen, so muss das doch noch mit den Rohdaten passieren.:!:
Das zusammenfassen von 2x2 Pixeln ist allerdings, in meinen Augen, ein total falscher Ansatz der nur zu überschärften Bildern mit Farbsäumen führt. (Wie man bei meinem Beispielbild welches exakt nach deiner Methode erstellt wurde sehr gut sieht)

Hier gibts einen Vergleich einiger Interpolationstechniken für Bayer-Bilddaten: http://www.thedailynathan.com/demosa...&image=raw.png

Ob man das Endergebnis dann mit 90% oder 100% JPG Qualität speichert macht wohl am wenigsten aus.
Immerhin fehlen bei deiner Methode ja schon 75% der Bildinformationen und die restlichen 25% sind auch verfälscht, da sie aus bereits interpolierten Pixeln wieder zusammengerechnet wurden :D

Neonsquare 17.07.2013 02:32

@www_zeeshan_de
Also ich weiß nicht, wie es anderen damit geht, aber bei mir ist bei Deinen Folgerungen immer das Hirnareal für "Fremdschämen" massiv beschäftigt. Für mich bewegt sich das auf einer Ebene, die ungesundes Halbwissen bereits deutlich überschritten hat. Ich kann Dir nur empfehlen mal viele Schritte zurückzugehen und nochmal zu beginnen. Ich meine das wohlwollend! Ich denke Du verschwendest Deine Zeit indem Du Dich verrennst.

Die von mir gesehenen Vorteile bei den Details in der RAW-Entwicklung haben nichts mit einer besseren JPEG-Komprimierung zu tun sondern mit besseren Schärfungsalgorithmen bei der RAW-Entwicklung.

Dein ganzer Ansatz mit der TIF-Konvertierung oder der Skalierung ist für die Tonne. Was soll das bezwecken? RAW-Konverter wie Aperture arbeiten intern mit 32 Bit Gleitkommawerten - die Konvertierung wird bei Bedarf durchgeführt und mit den Parametern so gewählt wie die konkrete Verwendung ist. Je nachdem kann man so komprimierte, verkleinerte Web-JPEGs erzeugen oder 16-Bit/Kanal PSD-Dateien für eine weitere Bearbeitung in Photoshop &Co. Das Geheimnis besteht darin nur das RAW und die Parameter zu archivieren und nicht fertig ausgerechnete RGB-Bilddaten.

Zu den JPEG-Theorien mit synthetischen Vergleichsbildern wurde eigentlich bereits genug gesagt.

www_zeeshan_de 18.07.2013 20:42

Zitat:

Zitat von physicist (Beitrag 1466975)
@www_zeeshan_de

1.
Was du machst, ist jeweils 4 RGB-Pixel zu einem neuen RGB Pixel zusammenzufassen.
In dem Moment wo Du deine Bilder als TIF speicherst sind die Helligkeitsinformationen des Sensors doch bereits in RGB-Werte umgerechnet/interpoliert worden.

2.
Möchtest Du aus der Bayer-Matrix immer 2x2 Pixel zusammenfassen und zu einem RGB-Wert machen, so muss das doch noch mit den Rohdaten passieren.:!:

3.
Das zusammenfassen von 2x2 Pixeln ist allerdings, in meinen Augen, ein total falscher Ansatz der nur zu überschärften Bildern mit Farbsäumen führt.
4.
(Wie man bei meinem Beispielbild welches exakt nach deiner Methode erstellt wurde sehr gut sieht)
5.
Hier gibts einen Vergleich einiger Interpolationstechniken für Bayer-Bilddaten: http://www.thedailynathan.com/demosa...&image=raw.png

6.
Ob man das Endergebnis dann mit 90% oder 100% JPG Qualität speichert macht wohl am wenigsten aus.
Immerhin fehlen bei deiner Methode ja schon 75% der Bildinformationen und die restlichen 25% sind auch verfälscht, da sie aus bereits interpolierten Pixeln wieder zusammengerechnet wurden :D

1. Die 4 RGB-Pixel über die du schreibst gibt es nicht, sondern Gruppen aus RGBG-Pixel, deren Werte ineinander verrechnet wurden. Diese wurden ( wie du ja selbst schreibst) anhand von Interpolation errechnet. Und was ich mache ist nichts anderes als das was per Interpolation hochgerechnet wurde, wieder auf die native Größe zu verkleinern (mit Bildung von EINEM Durchschnittswert aus 4). Nochmals zur Interpolation:
Nun gibt es Leute die sagen, alles was anhand von EIN PAAR WENIGEN DATEN mit Hilfe modernster RECHENMETHODEN (und es gibt x-Algorithmen dafür) auf NÄHERUNGSWERTE berechnet werden kann, ist absolut richtig und alles andere ist falsch. Ich gehöre jedoch NICHT dazu, ich bevorzuge Fakten anstatt (Wetter)vorhersagen. All zu oft ist es nämlich auch so, dass die Werte die per Interpolation hochgerechnet wurden, gar nicht stimmen. Doch die Überprüfung* wäre immens aufwändig und die Leute sind froh wenn es irgendwelche Werte gibt (ist immer noch besser als gar keine Werte zu haben).
*Um die (interpolierte) 24 MP TIF Bilder der Sony SLT-A65 zu vergleichen benötig man z B eine Sony SLT-A65B mit (interpolierten) 96 MP auf gleicher Sensorgröße. Das 96 MP TIF-Bild wird dann per NächsterNachbar/Pixelwiederholung auf exkt 24 MP TIF reduziert. Nun schaust du dir beide Bilder an, welches der Bilder hat auf Pixelebene mehr Details ? So einen Vergleich kann man nicht durchführen, weil es die A65B nicht gibt, aber was man machen kann ist das Bild einer 6 MP Kamera (Herstellerangabe) mit dem 6 MP der A65 vergleichen (nach Verkleinern auf halbe Größe [ohne Schärfen]). Hier hätte man dann einen direkten Vergleich von Interpolierten-Werten vs Werten(ohne Interpolation, also Fakten).

2. Gibt es einen Befehl für Sony Image Data Converter, damit ich GENAU DAS mal ausprobieren kann ?

3. Ich würde dich ja verstehen wenn du der Besitzer einer Nikon D800E wärst und nach dem Verkleinern der Bilder dir die Bilder zu scharf vorkommen, aber mit einer A37 (mit AA-Filter) ? Wenn du nach meiner Methode ein Bild auf HALBE Größe reduzierst (ohne jegliches vorhergehendes oder nachträgliches Schärfen) UND das Bild wirkt für dich Überschärft (weil es die native RGB-Auflösung abzüglich Bayer-Filter-Interpolation und Anit-Aliasing-Filter-Blurring erreicht hat), dann denke ich ist evtuell die Analoge Fotografie für dich geeigneter. Bei der digitalen Fotografie werden Analoge Informationen digitalisiert. Um diesen Digitalisierungs-Effekt in den Hintergrund zu schicken, versuchen Hersteller mit allen möglichen Mitteln (Interplationsverfahren, Anti-Aliasing-Filter und sonstige in die Firmware integrierte Funktionen) den Digitalisierungs-Effekt vor den den Augen der Kunden zu verwischen. Mit anderen Worten: Augenwischerei. Sobald man ein Bild in der nativen RGB-Auflösung sieht, ist es scharf, ja, es ist scharf, aber niemals überschärft, es sei denn, man hat es selbst überschärft.

4. Von welchen Farbsäumen redest du ? Du meinst weil du nach dem Halbieren der Bildgröße noch das Schärfen mit dem Wert 50 darüber gejagt hast ? Dann lass doch mal das Schärfen weg ! Oder probier mal mit Schärfen Wert 10 ? Schärfen ist ein recht komplexer und komplizierter Vorgang, das auf jedes Bild/Motiv einzeln abzustimmen ist. Ich hab bisher noch nie geschärft, mit dem Wert 50 habe ich mal versucht Fuß zu fassen, doch während es bei dem einen oder anderen Bild ok ist, kann es bei anderen Bildern wiederum schon zu viel sein.
Was ich eigentlich gesucht habe, ist ein Schärfungs-Wert für XN-View, das ich GENERELL auf alle Bilder anwenden kann, mit dem ich ungefär ein Ergebnise bekomme als wäre in der SONY SLT-A65 KEIN Anti-Aliasing-Filter verbaut worden. Siehe dazu auch mal:
http://www.dpreview.com/reviews/nikon-d800-d800e/27

5. Was soll ich jetzt damit ? Bin ich Hersteller von Digitalkameras ?
Wenn ich bei einer 24 MP Kamera (Herstellerangabe) echte 24 RGB-MP bekomme, bin ich vollstens zufrieden und werde das Bild dann natürlich auch nicht mehr verkleinern (wäre ja tatsächlich Informationsverlust auf RGB-Pixelebene!!). Ob diese 24 RGB-MP dann aus einem 96 MP Sensor mit Bayer-Filter gewonnen wurden, DAS wäre mir sowas von egal solange sich der Preis im 700 Euro Bereich bewegt. 96 Bayer-Filter-MP auf einem APS-C Sensor wäre aber schon heftig, und so bin ich mir sicher werden die Vollformat Sensoren die APS-C Sensoren ersetzen, sobald man die 50 bis 60 MP im Konsumer-Bereich erreicht hat (Ultra HD Bildschirme aber kommen definitiv zuerst und legen die Grundlage für den zunehmenden Bedarf an anspruchsvollen, hochauflösenden Bildern).

6.
Ob man das Bild nun in der Qualität
jpgquality-n3100.jpg=4,41 MB (4.635.369 Bytes)@2000 x 1500 Pixels (3.00 MPixels) (4:3)@JPEG, quality: 100, subsampling OFF
oder in der Qualität
jpgquality-n2090.jpg=1,13 MB (1.187.624 Bytes)@2000 x 1500 Pixels (3.00 MPixels) (4:3)@JPEG, quality: 90, subsampling ON (2x1)
speichert, macht wohl in deinen Augen keinen Unterschied. Bei näherem Betrachen jedoch
http://www.zeeshan.de/jpgquality/jpg...vs_90ss2x1.jpg
sieht man die JPG-Artefakte sehr wohl, auch das Farbensubsampling hat dem kräftigem Rot im Kissen ans Bein gepinkelt. Dieses Bild übrigens wurde aus einer 12 MP Kam auf 3 MP reduziert, insbesondere jetzt ist es besonders wichtig die JPG-Qualität auf maximum zu halten, denn ein interpoliertes 12 MP Bild in 90 % JPG-Qualität zu speichern ist was anderes als ein natives 3 RGB-MP Bild mit 90 % (und subsampling 2x1) zu speichern. Aber selbst wenn du in interpolierter nativer Auflösung mit 100% JPG-Qualität speichern würdest, falls du Subsampling 2x1 in Kauf nimmst, würde dann auch bei 100 % JPG-Qualität der knallrote Kuss im Kissen seine Brillanz verlieren. Was weg ist, ist weg.

physicist 18.07.2013 21:57

Zitat:

Zitat von www_zeeshan_de (Beitrag 1467698)
1. Die 4 RGB-Pixel über die du schreibst gibt es nicht, sondern Gruppen aus RGBG-Pixel, deren Werte ineinander verrechnet wurden. Diese wurden ( wie du ja selbst schreibst) anhand von Interpolation errechnet. Und was ich mache ist nichts anderes als das was per Interpolation hochgerechnet wurde, wieder auf die native Größe zu verkleinern (mit Bildung von EINEM Durchschnittswert aus 4).

Doch, in der gespeicherten TIF besteht jeder Pixel bereits aus R,G und B Werten.
Da ist es schon zu spät für irgendwelche Techniken die man sonst auf Bayer-Sensordaten anwendet.

Du kannst die "herbei-interpolierten" RGB-Pixel auch nicht wieder "de-interpolieren".
Allein schon deshalb nicht weil du nicht weisst wie interpoliert wurde.

Du gehst immer davon aus das der 24MP Kamerasensor nativ nur 6MP hat (deine sogenannten RGBG-Pixel), das stimmt aber nicht. Der Sensor hat eine echte Auflösung von 24MP, jedoch kann der Sensor nur Helligkeitswerte ermitteln.Deswegen der Bayer Filter vor dem Sensor.
Die Auflösung der einzelnen Farben, ja die ist geringer, die Auflösung der Helligkeitswerte ist jedoch 24MP.
Das Problem bzw. die Aufgabe der Interpolation ist es also nicht irgendwelche Pixel dazu zu erfinden, sondern die Aufgabe ist es den real aufgenommenen Helligkeitswerten die richtige Farbe zuzuordnen.


Wenn du jetzt die Sensorpixel im 2x2 Raster einfach zusammenfasst kommt es zu Artefakten wie z.B. 1 Pixel breite Farbsäume.
Dazu kommen unnatürlich harte Kanten an Stellen mit hohen Kontrasten.
Ist ja logisch, denn auf einmal werden Informationen die normalerweise nebeneinander auf den Sensor liegen und gar nicht zusammengehören einfach übereinandergepackt.
Dadurch entstehen dann mitunter Pixel mit einer völlig falscher Farbe.

Hier noch ein Test darüber: http://www.informatik.hu-berlin.de/f...photo10_03.pdf


Zitat:

Zitat von www_zeeshan_de (Beitrag 1467698)
Nochmals zur Interpolation:
Nun gibt es Leute die sagen, alles was anhand von EIN PAAR WENIGEN DATEN mit Hilfe modernster RECHENMETHODEN (und es gibt x-Algorithmen dafür) auf NÄHERUNGSWERTE berechnet werden kann, ist absolut richtig und alles andere ist falsch. Ich gehöre jedoch NICHT dazu, ich bevorzuge Fakten anstatt (Wetter)vorhersagen. All zu oft ist es nämlich auch so, dass die Werte die per Interpolation hochgerechnet wurden, gar nicht stimmen.

Dann werden sie aber erst recht nicht "richtiger" wenn du sie wieder mit einem ganz anderem Verfahren wieder zurück zu interpolieren versuchst.

Zitat:

Zitat von www_zeeshan_de (Beitrag 1467698)
2. Gibt es einen Befehl für Sony Image Data Converter, damit ich GENAU DAS mal ausprobieren kann ?

Ich kenne keinen, aber evtl. hilft ja die Konvertierung in DNG. Ist ja auch ein RAW Format (denke ich, kenne die genaue spezifikation nicht), evtl. gibt es dafür ein Tool mit dem man sich die Interpolationstechnik aussuchen kann.

Vielleicht gehts auch mit DCRAW oder ähnlichen Tools....
http://www.insflug.org/raw/Downloads/

Zitat:

Zitat von www_zeeshan_de (Beitrag 1467698)
3. Wenn du nach meiner Methode ein Bild auf HALBE Größe reduzierst ... UND das Bild wirkt für dich Überschärft (weil es die native RGB-Auflösung abzüglich Bayer-Filter-Interpolation und Anit-Aliasing-Filter-Blurring erreicht hat), dann denke ich ist evtuell die Analoge Fotografie für dich geeigneter.

Nein, es ist geeigneter für mich meine Bilder nicht durch angebliche "deinterpolier-Filter" selber zu zerstören.

Zitat:

Zitat von www_zeeshan_de (Beitrag 1467698)
Um diesen Digitalisierungs-Effekt in den Hintergrund zu schicken, versuchen Hersteller mit allen möglichen Mitteln (Interplationsverfahren, Anti-Aliasing-Filter und sonstige in die Firmware integrierte Funktionen) den Digitalisierungs-Effekt vor den den Augen der Kunden zu verwischen. Mit anderen Worten: Augenwischerei.

Das klingt wie eine Verschwörung :D

Zitat:

Zitat von www_zeeshan_de (Beitrag 1467698)
4. Von welchen Farbsäumen redest du ? Du meinst weil du nach dem Halbieren der Bildgröße noch das Schärfen mit dem Wert 50 darüber gejagt hast ? Dann lass doch mal das Schärfen weg ! Oder probier mal mit Schärfen Wert 10 ? Schärfen ist ein recht komplexer und komplizierter Vorgang, ...........

Ich habe XN-View zum ersten mal benutzt, zum umwandeln habe ich die Stapelverarbeitung benutzt. Ich finde dort keine Einstellung zum schärfen, zumindest keine die standardmäßig aktiv ist.
Wo siehst du heraus das ich irgendwo etwas geschärft habe?

Welche Farbsäume? Bitte schau dir das von mir erstellte Testbild mit den Booten noch einmal an. Fast an jedem Fenster sind Rote Pixel auf der weißen Fläche neben den Fenstern zu sehen.

Zitat:

Zitat von www_zeeshan_de (Beitrag 1467698)
5. Was soll ich jetzt damit ? Bin ich Hersteller von Digitalkameras ?

Nein, ich wollte dir zeigen das bei der Interpolation, so wie du sie gerne hättest, starke Artefakte entstehen. Schau dir das erste Beispiel doch einfach mal an.
Jede andere Interpolationstechnik bringt bessere Resultate als das zusammenfassen von 4 Sensorpixeln zu einem "RGBG-Pixel" wie du ihn nennst...

Wenn es dir egal ist wie die Interpolation funktioniert und welche Technik angewendet wurde, dann kannst du sie auch nicht rückgängig machen.
(Ich bezweifle das es selbst bei Kenntnis des Interpolationsverfahrens möglich ist, aber das kann uns evtl. ein Mathematiker beantworten)

mrieglhofer 18.07.2013 23:38

Ich würde sagen, du gehst einfach mal fotographieren, machst von deinen besten Bildern einen Abzug in 50*60 nach den beiden Verfahren und zeigst uns den Unterschied.
Mich interessieren irgendwelche Vermutung und Annahmen über eine vielleicht theoretische Bildverbesserung nicht, wenn sie in der Praxis nicht sichtbar sind.
Hinsichtlich Schärfen liegst leider ein wenig falsch, da das Mass an Schärfe nie absolut ist, sondern vom Betrachtungsabstand abhängt. Dies ist auch Grund, warum es keine Universalschärfung geben kann.

Neonsquare 19.07.2013 01:04

Zitat:

Zitat von mrieglhofer (Beitrag 1467764)
... liegst leider ein wenig falsch, da das Mass an Schärfe nie absolut ist, sondern vom Betrachtungsabstand abhängt. Dies ist auch Grund, warum es keine Universalschärfung geben kann.

Das ist absolut richtig.
Ein Nebeneffekt der steigenden Megapixelzahlen ist auch, dass man sich immer weniger Gedanken um Digitalisierungseffekte machen muss. Deswegen sind AA-Filter dieser hochauflösenden Sensoren oft schwächer oder immer öfter auch nicht vorhanden. Die effektive Auflösung des Systems steigt durch immer mehr Pixel immer weniger, aber die Aliasingeffekte verschwinden in den tatsächlich genutzten Auflösungen. Irgendwann ist die diskrete Natur des Sensors eben vernachlässigbar.

Ein herunterskalieren auf ein Viertel der Pixelauflösung ist nur dann sinnvoll, wenn dies auch die gewünschte Zielauflösung ist. Der Grad der notwendigen Schärfung hängt dann noch vom Betrachtungsabstand ab.

Was man nicht erreicht ist irgendeine Form der "Deinterpolation". Die ganze Idee ist Quatsch - durch den AA-Filter enthält jeder Bayerpixel automatisch auch Helligkeitsinformation der Nachbarpixel. Auch korrespondieren die R,G und B Werte nicht direkt mit den RGB-Pixeln des Bayersensors - denn es gibt dazwischen (neben der Interpolation an sich) mindestens noch die Abbildung des Sensorfarbraums in einen Standardfarbraum, einen Weißabgleich und eine Delinearisieung. Man darf generell nicht so sehr an den Bayer-RGB-Pixeln haften - letztlich kann man das auch als z.B. getrennt in Luminanz und Chroma sehen - jeder der Pixel trägt seinen Teil zur Luminanz bei - wobei der Grünkanal am meisten Luminanzinformation trägt. Es gibt mittlerweile sogar Ansätze welche statt den grünen Filtern durchsichtige Filter (also einfach keine) verwenden (z.B. aktuell Aptinas "Clarity+"). Denn man kann auch aus Gesamt-Luminanz, Rot und Blau die notwendige Information berechnen. Die Tatsächliche Detailwahrnehmung besteht hauptsächlich aus der Luminanzinformation und die ist nicht nur ein Viertel der Bayerpixel wie von Zeeshan naiv dargestellt wird.
Im Resultat ist ein RGB- Pixel im TIF ein komplex berechnetes statistisches Datum.


Alle Zeitangaben in WEZ +2. Es ist jetzt 10:06 Uhr.