Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Raw oder Jpg und die Nachbearbeitung, Aufwand vs. Nutzen?


Seiten : [1] 2

physicist
24.03.2013, 14:05
Hallo

Ich bin jetzt seit ein Paar Monaten meiner ersten DSLR...nein...SLT meine ich natürlich.
Es ist eine A37 mit einem etwas später gebraucht gekauften SAL1650F28 SSM Objektiv, geniales Teil. :top:

Ok, von der Bildquali bin ich begeistert, was mir mittlerweile nur Kopfzerbrechen bereitet ist die Frage ob ich RAW oder JPG benutzen soll und ob eine manuelle nachbearbeitung überhaupt lohnt.


Hier mal mein bisheriger Weg: :D

Am Anfang habe ich die Kamera natürlich auf RAW gestellt, man will ja die volle Qualität haben :)
Die Fotos meiner bisherigen Kompaktknipse hab ich schön in Picasa einsortiert und bearbeitet.

Tja, AWR-Dateien und Picasa klappt nicht ganz so gut, ziemlich neblig auf den Bildern :shock:
Also schnell ne Batch Datei getippt die mir die Bilder durch den Adobe DNG Converter jagt während sie von der Kamera kopiert werden. Klappt prima, die Dateien kann Picasa dann lesen.
Erst später stellt ich fest, das so Sachen wie Objektivkorrektur, CA etc. garnicht zur anwendung kommen bei RAW.... Naja, aber ist ja irgendwo logisch. RAW ist halt Sensordaten pur...

Es wird Zeit mal Lightroom zu testen. Sieht auch toll aus, die RAWs werden mit Objektivkorrektur versehen, durch irgendwelche automatische Anpassungen per Knopfdruck wirken die Bilder auch weniger flau. Super!

Aber mal ehrlich, das ganze herumgeklicke in Lightroom ist für mich ziemlich unbefriedigend wenn ich sehe das die Kamera wunderschöne JPGs ausspuckt in denen alles schon passiert ist.
Andererseits werde ich sicherlich mal Bilder Belichtungstechnisch etwas verhunzen und dann froh sein in Lightroom oder einem anderen Programm was geradebiegen zu können.
Vorraussetzung ist das ich die ganzen Schieberegler auch mal begreife ;) Momentan geht das eher so nach den "Versuch macht kluch" Prinzip und überall wird mal rumprobiert.
Meine Begeisterung hält sich in grenzen, da ich mit Minutenlangen Rumgeschiebe in Lightroom nie so zufrieden werde wie mit der JPG out of Cam.

Interessant ist da ja der "Sony Image Data Converter". Ich gib ihm die RAW Datei und er zeigt sie mir nahezu genauso an, wie auch die JPG ausgesehen hätte und ich kann die Kameraeinstellungen quasi nachträglich ändern. Toll... warum kann das nur das Sony programm? In jedem anderen RAW Converter sehen meine RAWs total anders aus....

Jedes Raw da manuell durchzujagen macht auch wenig Sinn, also speicher ich mal lieber RAW+JPG. Die Kamera bietet ja die Funktion.

Blöd nur das ich dann alle Fotos Doppelt habe. Überall werden die dann doppelt angezeigt.
Schlimmer noch, sortiere ich sie in Ordner JPG und RAW dann gibt es ein Chaos sobald ich anfange mal auszusortieren. Das muss ich dann ja 2 mal machen, einmal im RAW und einmal im JPG Ordner.

Tja... das momentane Ende vom Lied, ich Fotografier im JPG Modus und benutze weiter Picasa ;)

- Das Sony IDC Tool bietet ja die Möglichkeit die Bilder als RAW mit allen Kameraeinstellungen und Objektivkorrektur optimiert anzuzeigen. Leider ist das Programm sonst aber lahm und nicht sehr umfangreich.

- Lightroom ist mir zu kompliziert, das Aufwand zu Nutzen Verhältnis gefällt mir nicht.
Während ich da selber rumbiege stellen sich mir auch immer folgende Fragen.
Wie soll es überhaupt aussehen?
Entspricht das was ich da einstelle auch dem was tatsächlich im Bild gespeichert wird? Stichwort Kalibrierung des Monitors, Farbeinstellungen des Grakatreibers etc.
Nicht das es nachher nur auf meinem Monitor gut aussieht und überall anders nicht...

- Der Aufwand einer Doppelten Dateiführung RAW+JPG ist mir zu groß.

Wie macht ihr das wenn ihr in RAW fotografiert. Setzt ihr euch bei jedem Bild hin und schiebt fröhlich Regler hin und her?
Oder nutzt ihr in den Entwicklungsprogrammen hauptsächlich nur die Automatische Korrektur?

alberich
24.03.2013, 14:35
Nun, früher haben sich die meisten Menschen auch nicht gefragt ob sie ihre Bilder weiterhin zum Entwickeln bringen oder ob sie eine Dunkelkammer brauchen.

Eine Dunkelkammer brauchte man nicht, die wollte man. So ist es auch mit RAW. Das braucht man nicht, sondern man möchte es. Man möchte seine Bilder eben nach den eigenen Vorstellungen entwickeln. Dazu muss man einen RAW-Konverter beherrschen, so wie man seiner Zeit eine Dunkelkammer beherrschen musste.
Mit ein bisschen "Geklicke und Geschiebe" ist es da nicht getan.

Solange man also nicht weiß warum man den RAW Konverter einsetzen soll und auch nicht bereit ist sich intensiv mit der Materie auseinanderzusetzen genießt man einfach weiterhin die Bilder die aus der Kamera kommen, denn dazu sind sie da.

Das die entwickelten Bilder auf anderen Monitoren genau so aussehen wie auf Deinem eigenen, dafür gibt es keine Garantie. Das gilt aber nicht nur für aus RAW entwickelte Bilder sondern für alle Bildformate. Hänge ein Bild in einen dunklen Keller sieht es auch nicht so aus wie an einer Wand in einem licht durchfluteten Zimmer. Also für die Darstellung ist letztlich jeder selbst verantwortlich.

André 69
24.03.2013, 14:41
Hi,

bei den aktuellen Kameras lese ich immer wieder, daß die JPEG-Engine in der Kamera recht gut ist und oft Aufwand bedeutet aus dem RAW ein JPG wie aus der Kamera zu erzeugen.

Bei Standardsituationen, normalem Licht, niedrigen ISOs wird die die Kamera die Bilder als JPG liefern die man erwartet.
Bei schwierigem Licht, oder Filtereinsatz möchte ich aber nicht auf RAW verzichten wollen, da ein verschieben der Farbtemperatur oder bei über/unterbelichteten Fotos der Spielraum größer ist.
Es gibt schon noch ein paar Sachen, die RAW-Konverter besser können als die Kamera beim wandeln in JPG. Wenn Du aber zwischen den Zeilen liest - RAW nehme ich auch nur dann als Arbeitsgrundlage, wenn ich das als notwendig erachte, sonst das JPG (+RAW)

Gruß André

Nilsen
24.03.2013, 15:01
Hallo zusammen

Ich habe in den letzten Jahren fast nie mit RAW gearbeitet. Nur in speziellen schwierigen Situationen oder wenn ich ein Shooting habe im Studio oder on Location mit Models.

Und dann bearbeite ich auch nur die mit RAW bei denen ich mit dem Kamera-JPG nicht zufrieden bin.
Oder wenn man spezielle Stimmungen machen will. So kann man z.B. die Wolken richtig gewaltig und furchteinflössend gestalten, wenn man will und so ein Foto interesssanter machen. Ist dann nicht mehr natürlich, daber zwischendurch ein Foto auf diese Weise hat auch seinen Reiz.


Ich arbeite mit Photoshop CS4 und dem eingebauten Converter mit meiner A700.

Grüsse
Harry

fotogen
24.03.2013, 15:05
Schwierige Fragen, die Du hier stellst, zu einem politisch bestimmten Themengebiet, das einem in diesem Forum den Kopf kosten kann. ;) ok, kleiner Scherz, natürlich wird niemand geköpftt, maximal etwas geärgert. ;-)

Mutig wie ich bin wage ich einen Versuch der Antwort. ;)

Zunächst einmal finde ich Deine Frage völlig berechtigt.
Ich selbst würde gerne nur jpg fotografieren, also direkt in der Kamera nur jpg einstellen.

Wenn ich eine neue Kamera bekomme, dann teste ich diese zunächst daraufhin. Ich mache viele Aufnahmen nur in jpg mit den besten Qualitätseinstellungen, riskiere auch mal in einem Urlaub nur jpg aufzunehmen. Dabei gewinne ich einen Eindruck über die Qualität der Ergebnisse und Praktikabilität hinsichtlich notwendiger manueller Parametereinstellungen vor den jeweiligen Aufnahmen im Vergleich zu den angebotenen Automatikprogrammen. Danach habe ich ein Gefühl dafür, wie sehr ich wenn ich in jpg aufnehme, vor den Aufnahmen in den Menüs herumdrehen muss oder mich auch auf bestimmte Automatiken verlassen kann. Die Ergebnisbewertung ist meines Erachtens schon hier sehr subjektiv und durch die eigenen Qualitätsansprüche subjektiv bestimmt.

Natürlich habe ich in dieser Phase auch direkte Vergleichsaufnahmen angefertigt, zwischen RAW und jpg. Das mache ich in den Bereichen, in denen die Kamera die optimale Bildqualität erzeugen sollte. Das ist in etwa bei ISO 100 +- Basisempfindlchkeit.
In dem Bereich bewege ich mich bei vielen Aufnahmen oft mit Stativ, daher sind höhere Iso Werte im Kontext der Fragestellung für mich weniger interessant.

Nach diesen vielen Aufmahmen entscheide ich, ob mir jpg qualitativ bei dieser Kamera zu stark gegenüber den RAW Ergebnissen dieser Kamera abfällt oder nicht. Das ist eine Entscheidung aufgrund des Gesamteindrucks. Ich möchte vereinfachen. also entscheide ich dann, ob ich die Kamera nur jpg oder nur RAW einsetze. Ausnahme sind natürlich Sonderfunktionen wie Panorama, die nur in jpg angeboten werden. Dann wird alles was rein Test ist gelöscht und ich halte mich konsequent an deas Ergebnis.

Die einzige Kamera, bei der der Verglech darin resultierte, dass ich nur jpg aufnahm, ist die KonicaMinolta 7D. Bei den verschiedenen Sonys, die ich seither hatte, war mir die jpg Qualität im Vergleich zum jeweiligen Raw der Kamera zu schlecht.

Als RAW Konverter nutze ich DXO, von dessen Qualität ich sehr überzeugt bin. Die Vorenstellung der automatischen Objektivkorrektur bez. Schärfen drehe ich manchmal etwas zurück, weil mir etwas zu stark nachgeachärft wird. Ansonsten liefert DXO sowohl sehr gute Farben als auch realistisch wirkende Kontraste in den verschiedenen Helligkeitsbereichen des Bildes. Die automatik hat das Bild also oft schon fast fertig. natürlich kann man viel tunene, wenn man möchte. Das film filter package von DXO würde ich mir mit dazu nehmen.
Beides erst mal kostenfrei selbst testen und nach Ablauf der Testphase entscheiden, ob Du es kaufst.
Oder natürlich die zweite Option ziehen, mit den jpgs zufrieden sein und gänzlich auf einen RAW Konverter verzichten. Das wäre ideal.

mrieglhofer
24.03.2013, 15:36
Die Diskussion bringt an sich nicht viel, weil ja die Anwendungsbereiche von RAW andere sind als von JPG. Man kann heute, fehlerarmes Arbeiten vorausgesetzt, sehr gut mit JPGs über die Runden kommen.

Möchte man aber die Bilder ein wenig anders haben, wirds schwierig. z.B. Himmel selektiv dunkler, Gesichter heller, Perspektive geraderichten, Farbtempereatur ein wenig wärmer oder kälter usw. Vieles geht im JPG, aber jede Speicherung bedeutet Qualitätsverlust und bei stärkerer Bearbeitung gibts gleich mal Farbabrisse usw.

Aber wesentlich wichtiger ist, dass mit RAW einfach Dinge gehen, die mit JPG nicht gehen. z.B. farbverbindliches Arbeiten (kalibrieren und profilieren der verschiedenen Kameras und Zuordnung der Profile zu den Bilder, Anpassung des Ausgabefarbraumes an den Workflow des Abnehmers, selektivs Schärfen abhängig von der Ausgabegröße und Ausgabetechnologie (ginge auch in JPG, wenn man in der Kamera die Schärfung abschaltet, aber dann mußt eh nachbearbeiten), nachträglich genaues Anpassen der Bilder an die Lichtquelle und Tonalität, fixe Stilprofile für eigene Farbgebung, usw.

Heißt letztlich, für 08/15 Bilder und Massenbilder ist das, was automatisch in der Kamera gemappt wird und dann rauskommt absolut ausreichend. Ist man in einem Umfeld, in dem man farbverbindlich arbeiten muß oder will man einen individuellen Stil, führt ums RAW halt kein Weg rum.

Tikal
24.03.2013, 15:54
Mein Senf darf nicht fehlen!

Ich beschreibe mal kurz meine Erfahrung und bisheriges Vorgehen. Anfangs wollte ich auch nur in RAW fotografieren, habe aber schnell gemerkt, das das nicht so einfach ist. Seitdem nutze ich RAW+JPEG. Denn die JPEGs aus der Kamera sind richtig gut. RAW nutze ich dann, wenn ich irgendwas verhunzt habe oder einfach rumspielen will oder besonders tiefere Bearbeitung ansteht, die mit JPEG vermutlich nicht so gut gehn würde. Auf jeden Fall beruhigt es mich jedes Foto immer als RAW zu haben.

Normal nutze ich jetzt meistens JPEG und korrigiere nur noch leicht die Ausrichtung, eventuell automatischer Weißabgleich, Schärfung und Kontrast. Auch bei High ISO. Ich bin da aus den Ergebnissen direkt aus der Kamera beeindruckt. Mit der RAW das gleiche oder besser zu erreichen ist für mich sehr schwierig, wenn die JPEG gut geworden ist.

Shotwell (leider nur für Linux) zeigt mir RAW+JPEG als eine Einheit an. Ich dachte, das wäre bei den anderen Programmen dieser Art genauso, beispielsweise bei Lightroom. So habe ich das beste aus beiden Welten, außer mehr Speicherplatzverbrauch und der Umgang ist wie mit nur einem Format. Wie sich dein Posting jedoch liest, würde dir vermutlich erst einmal JPEG ausreichen. Wenn es sein muss, dann kannst du immer noch für einzelne Bilder kurzzeitig auf RAW umschalten.

tino79
24.03.2013, 16:27
Ich hab noch etwas, was Dir evtl. bei der Verwaltung hilft wenn Du doch erstmal lieber RAW + JPEG fotografieren möchtest.

http://nubi.bplaced.net/msdelete/

Damit wählst Du Deine RAW und JPEG ordner aus und sagst dem Programm, alles was in dem einen Ordner als RAW nicht vorhanden ist lösche auch im JPEG-Ordner, oder halt umgekehrt.

Meyer zu Drewer
24.03.2013, 16:52
Ich benutze sei Anfang 2008 LR u. nur Raw (A 700). Bin Rentner und freue mich immer
auf die Nachbearbeitung. Im Laufe der Zeit habe ich eine Routine bei der Bearbeitung
gewonnen. Du kannst Dir die LR 4.3 zur Probe auf den Rechner laden. Vorausetzung du hast Win 7 auf dem Rechner und einen Arbeitspeicher v. 1-2 GB und Platz auf der Festplatte. Ich bin 75 Jahre alt und habe LR als einziges EBV auf dem Rechner, etwas
Geduld ist erforderlich, da ja jedes Motiv anders ist. Wir können uns ja unseren Wohn-
sitz verraten- meiner ist Detmold. Vielleicht ist ein pers. Kontakt möglich, MFG

physicist
24.03.2013, 18:06
Lightroom hab ich mir auch schon zum Testen Installiert, genauso wie DXO.
DXO ist in meinen Augen etwas übersichtlicher.

(Was die sonstige Bildbearbeitung angeht bin ich irgendwann vor Jahren mal bei Paint Shop Pro 7 hängen geblieben. Meine Bilddateien sind auch noch in Verzeichnissen sortiert und nicht in irgendwelchen Katalogen und Datenbanken :D )

Leider reichen 30 Tage wohl nicht aus um überhaupt zu begreifen was ich damit machen möchte bzw. wie ich es mache. Ich befürchte mir fehlt auch die Zeit mich so tief damit auseinanderzusetzen obwohl das Interesse da wäre.

Immerhin konnte ich aufgrund eurer Antworten schonmal heraushören das ich mit meiner momentanen Entscheidung auf JPG zu setzen nicht ganz falsch liege.
Ich denke bei Aufnahmen im Dämmerlicht etc. werde ich aber vorsichtshalber auf RAW+JPG umschalten um evtl. doch mal ein wenig rumzuprobieren.

erich_k
24.03.2013, 18:46
Solange du nicht wirklich und restlos von RAW und der dazu nötigen Bearbeitung selber überzeugt bist, kannst du deine Bilder auch in JPG aufnehmen. :D

About Schmidt
24.03.2013, 18:51
Hallo,
das ist ganz einfach eine Glaubens- und Ermessensfrage. Es gibt genügend Fotografen, denen JPG ausreicht und nie auf die Idee kämen, RAW zu fotografieren. Sofern ich Aufnahmen für jemanden mache, von denen ich weiß, dass sie max 10x15 ausbelichtet werden oder sie vielleicht in ein Tageblatt oder ähnlich kommen, reicht mir mittlerweile JPG vollkommen aus. Ich habe keine Lust mehr, mir ein ganzen Sonntag für Bilder vom Krawallverein XY zu bearbeiten, die auf einer Website unter ferner liefen landen oder in irgendwelchen Schubladen verschwinden. Meist ist das Volk begeistert, wenn es sich auf einem Foto erkennt. Die wenigsten schätzen deine Arbeit wirklich.

Anders sieht es aus, wenn ich für jemand 3-4 Bilder von Auto, Motorrad oder ähnlichem machen soll, oder bei Bildern für meine Familie. Da verwende ich RAW, sortiere aber sehr gründlich aus. Bei Bildern die ich nicht schon von der Kamera gelöscht habe, gehe ich sorgfältig noch mal am Computer durch. Dort fliegt dann alles was mir nicht gefällt, unscharf ist oder ähnlich. Ausnahme sind nur Aufnahmen, die unwiederbringlich sind. Da drücke ich schon mal ein Auge zu. Dann tue ich mich an das Bearbeiten. Alle Raw, die nach gewisser Zeit noch nicht entwickelt sind, fliegen vom Rechner, da sich gezeigt hat, dass sie es nicht wert sind und nie mehr bearbeitet werden. Also warum aufheben.

Das alles führt dazu, dass ich viel weniger Datenmüll auf dem Rechner habe und sehr viel kontrollierter Fotografiere, fast so wie früher mit Film. Das ist für mich der richtige Weg, ob er es für andere ist, kann ich nicht sagen.

Gruß Wolfgang

Benny Rebel
24.03.2013, 19:53
Hallo Freunde,

ich berichte mal über meine Erfahrungen bezüglich RAW- und JPG-Bildern und hoffe, dass es hier nützlich sein wird.
Viele ältere Digitalkameras haben keine guten JPG-Konvertierungen in den Kameras. Dazu gehören z.B. die Alpha 900 und 850. Mit der A900 habe ich selbst Jahrelang gearbeitet und habe nie die JPGs in Anspruch genommen, da sie schlicht und einfach nicht gut genug waren.

Seit Alpha 77 sind die JPGs, die aus den Kameras rauskommen, erheblich besser und somit überhaupt brauchbar geworden. Diese ist meine persönliche Meinung. Auch die A99, mit der ich jetzt arbeite, liefert sehr viel bessere JPGs, als ihre Vorgängerin.
Bis vor zwei Jahren habe ich nur in RAW fotografiert, da mir die Qualität der JPG-Bilder einfach nicht ausreichte. Heute gebe ich immer noch extrem selten JPG-Bilder an meine Kunden weiter; jedoch fotografiere wie folgt:

Ich fotografiere RAW und JPG parallel und habe beide Formate für den folgenden Zweck:
Wenn ein Foto, welches nicht so wichtig ist und für einen belanglosen Zweck gedruckt werden soll, dann gebe ich die JPGs raus und spare mir die Bearbeitungszeit. Wenn ich jedoch ein Bild für Feinprints auf Großformat vorsehe, dann wäre es zu schade, das RAW-Potenzial nicht voll auszunutzen. Hierfür sind jedoch die JPG-Bilder immer noch nützlich und zwar für Folgendes:

Ich arbeite, wie viele andere User hier im Forum mit zwei Monitoren. Ich öffne das JPG-Bild auf einem Monitor und schaue mir an, was die Kamera so automatisch aus der Aufnahme herausgeholt hat. Dann öffne ich auf dem zweiten Monitor den RAW-Konverter und versuche, meine RAW-Aufnahme so zu entwickeln, dass es hinterher viel besser aussieht, als das JPG-Bild. Ich habe die Erfahrung gemacht, dass dieser ständige Vergleich der beiden Bilder mir hilft, Fehler bei der Rawentwicklung zu vermeiden. Wenn man nicht diese Kontrolle hat, läuft man Gefahr, dass man die RAW-Entwicklung versaut und hinterher ein schlechteres Bild bekommt, als das JPG aus der Kamera.

Somit fotografiere ich nur noch RAW + JPG in der höchstmöglichen Qualität und weil die Preise der Festplatten nicht mehr so hoch sind wie früher, ist die Archivierung auch nicht mehr so das große Problem.

In der Welt der Fotografie passieren manchmal ganz außergewöhnliche und einzigartige Aufnahmemöglichkeiten, die Dir vielleicht nur einmal im Leben die Chance geben, etwas Spektakuläres zu kreieren. Wenn Du dann nicht aus dieser Situation das Beste herausholst, dann würdest Du Dich vielleicht hinterher ärgern. Damit mir so etwas nie passiert, fotografiere ich stets in RAW + JPG. Dann habe ich auf jeden Fall alles im Kasten, was machbar ist.

Ich hoffe, ich konnte helfen!

Herzliche Grüße von
Benny Rebel

Neonsquare
24.03.2013, 20:05
Ich finde die Frage eigentlich gar nicht so schwer oder umstritten. Die Streiterei liegt vor allem darin begründet, dass immer wieder die gleichen falschen Vorstellung von RAW verbreitet werden. Deswegen hier:

1) RAW heißt nicht "Die reinen Sensordaten"!
Ganz im Gegenteil: Auch diese Daten sind massiv aufbereitet. Der einzige Unterschied ist, dass einige nachverarbeitende Schritte noch ausgelassen sind. Dazu gehört die Bayer-Interpolation, Weißabgleich, Gamma-Gradation (De-Linearisierung) und die Abbildung in den RGB-Farbraum. Da diese Schritte noch nicht erfolgt sind, kann man die dafür notwendigen Parameter auch noch variieren - d. h. man kann z. B. für den Weißabgleich eine andere Farbtemperatur wählen, ohne das dabei irgendein Informationsverlust entsteht. Außerdem können die resultierenden RGB-Daten in einer für die Verarbeitung besseren Darstellung (z.B. 32 Bit Gleitkomma statt 8 Bit Ganzzahl pro Kanal) erzeugt werden.
2) RAW ist NICHT flau!
Es kann sein, dass manche schlechte oder schlecht konfigurierte RAW-Konverter "flaue" Bilder erzeugen, aber es gibt absolut keinen Grund warum ein konvertiertes RAW nicht auch schon ohne menschlichen Aufwand mit guten Kontrasten und Farben daherkommt. Die Kamera macht ja intern nichts anderes als der RAW-Konverter auch. Die Standardeinstellung bei Aperture ist z. B. nicht unähnlich zu den Ergebnissen der Kameras im "Standardmodus".
3) Niemand ist so gut, dass er in jeder Situation die perfekten Einstellungen trifft
Egal wie lange man übt - man wird es nie schaffen, dass man in jeder Situation exakt die passenden Parameter eingestellt hat um das bestmögliche bereits "out of camera" herauszuholen. Insofern ist RAW eigentlich Pflicht, es sei den der Erfolg ist vollkommen egal.

Mit modernen RAW-Konvertern wie Aperture oder LR macht es vom Aufwand her keinerlei Unterschied ob man in RAW oder JPEG fotografiert. Man muss sowohl in der Kamera als auch in seinem Konverter einmal den Aufwand aufbringen und seine Bildeinstellungen so anpassen, dass das Ergebnis den eigenen Wünschen entspricht; das können auch unterschiedliche Presets sein. Am Ende landen die RAWs einfach im RAW-Konverter und werden so dargestellt wie man es mit seinen "Standardeinstellungen" gewohnt ist. Man könnte also sagen: Der "Standard-Kreativmodus" des RAW-Fotografen ist jener des RAW-Konverters am Rechner und wenn dieser so aussehen soll wie jener in der Kamera, dann muss man das eben einmal so einstellen.

Am Ende bleiben bei RAW vs. JPEG also nur zwei Unterschiede übrig: Ist es der erhöhte Speicherbedarf und die höhere CPU-Rechenzeit am Rechner wert, wenn man dafür mehr Spielraum bei der Bearbeitung erhält? Und als zweites: Benötige ich die Bilder unbedingt sofort von der Kamera? (Journalist, Begrenzte Ressourcen im Urlaub usw.).

Gruß,
[neon]

mrieglhofer
24.03.2013, 20:52
Mit modernen RAW-Konvertern wie Aperture oder LR macht es vom Aufwand her keinerlei Unterschied ob man in RAW oder JPEG fotografiert
Technisch ja, da geb ich dir recht. Praktisch nein. Weil man, wenn man ein Bild genauer anschaut, halt immer irgendwo was zu drehen findet;-)

Ein Punkt, den ich immer wieder schreibe, aber der immer durch den Rost fällt, ist das Arbeiten mit individuellen Farbprofilen sowie die nachträgliche Änderung des Ausgabefarbraumes nach freier Wahl.

Tikal
24.03.2013, 21:27
das Arbeiten mit individuellen Farbprofilen sowie die nachträgliche Änderung des Ausgabefarbraumes nach freier Wahl.

Genau darüber habe ich in meinem RAW Konverter schon nach gedacht. Denn diese kann ich in meinem Konverter für jedes Bild auch einstellen. Ich würde gerne mehr dazu erfahren und wann man mit unterschiedlichen Farbprofilen, Eingabe- und Ausgabefarbraums arbeitet. Warum findest du das denn so wichtig?

mrieglhofer
24.03.2013, 21:57
1. Für mich dient es dazu, verschiedene Kameras auf gleiche Farben zu bringen. Wennst ein Target z.B. Colorchecker hast, kannst den abfotografieren und mit dem Adobe DNG Profile Editor ein Profil erstellen. Bei mehreren Kameras unterschiedlicher Typen kriegst da recht gute Übereinstimmung.
Du stimmst damit deine individuellen Kameras ab statt der von Adobe gelieferten Universalprofile einer fremden Kamera.

2. Wenn du Kleidung, Produkte oder so aufnimmst, reicht der WB nicht aus, weil der Farbverlauf ja nicht ganz linear ist. Da kann man dann für eine Session genau mit dem verwendeten Licht ein Profil erstellen und erhält recht genaue Farben.

3. Farbraum: für Web hast normal immer sRGB, für Druck kann das schwanken. Manche nehmen gerne ECI andere AdobeRGB usw. Aus dem RAW kannst ausgeben was du willst bzw. gebraucht wird.

4. Schärfen: Schärfen ist unterschiedlich für Screen oder Druck und da abhängi von der Größe. Was stellst an der Kamera ein? Kameraschärfe aus und dann nachschärfen wäre sinnvoll, beim RAW ist das halt kein Thema.

Wie schon gesagt, für normale Bilder ist das jetzt nicht so das Thema.

Neonsquare
24.03.2013, 22:07
Technisch ja, da geb ich dir recht. Praktisch nein. Weil man, wenn man ein Bild genauer anschaut, halt immer irgendwo was zu drehen findet;-)


Aber das gilt ja für das Kamerajpeg genauso. :).
Wenn möglich richte ich eigentlich alles weitgehend so ein, dass die Bilder eigentlich direkt nach dem Import fertig sind. "Das kann man ja auch später in Photoshop machen" gewöhnt man sich schnell ab wenn es viele Bilder werden.


Ein Punkt, den ich immer wieder schreibe, aber der immer durch den Rost fällt, ist das Arbeiten mit individuellen Farbprofilen sowie die nachträgliche Änderung des Ausgabefarbraumes nach freier Wahl.

Ja stimmt schon - wobei ich zu meiner Schande gestehen muss, dass ich nur noch sRGB nutze; auch für Drucksachen wie Flyer.

Gruß,
[neon]

Karsten in Altona
24.03.2013, 22:57
Wie macht ihr das wenn ihr in RAW fotografiert. Setzt ihr euch bei jedem Bild hin und schiebt fröhlich Regler hin und her??

Ja, so sieht's aus. :top:

MonsieurCB
24.03.2013, 23:19
Also jetzt mal eine doofe Frage (die ich mir durch weniger faules Ausprobieren vermutlich selbst beantworten könnte, sorry ...):

* Ich fotografiere mit A 77 und A 99 - bisher nur in jpg.
* Wenn ich auf "RAW+jpg" stelle, habe a) ich den Nachteil, dass die
Verarbeitung bei/nach der Aufnahme in der Kamera länger dauert ..
... aber vor allem ist b) meine Befürchtung:
* Ich kann dann bei den jpgs keine "Effekte" wie DRO, HDR etc. mehr einstellen!

Oder täusche ich mich da? Logisch wär's eigentlich ... und das ist genau der
einzige Grund, der mich bisher davon abhält: Ich "spiel" nun mal gern mit der
Belichtung, mit speziellen Effektmöglichkeiten etc. .. und wenn das nicht parallel
zu RAW geht, ist für mich der Gag weg ...

Danke Für Aufklärung! (an Störche glaube ich übrigens nicht mehr...;-)

daso
24.03.2013, 23:23
Ich habe meine A57 vor Geburt meines Sohnes im letzten Jahr gekauft und mache z.B. Babybilder ausschließlich im RAW Format. Warum? Ganz einfach. Wer von uns hat das Glück und noch Negative aus seiner/ihrer Baby- und Kinderzeit? Ich würde mal behaupten die wenigsten. Schade eigentlich. Aus diesem Grund möchte ich diese meinen Kindern erhalten. Und wer weiß, was mit der zukünftigen Technik alles machbar ist. Da möchte ich natürlich die best mögliche Qualität, eben das Negativ, erhalten.

EDIT:
Bin ich grad drübergestolpert, schau dir mal die Fotostrecke an, geht um LR...
http://www.spiegel.de/netzwelt/gadgets/bildbearbeitung-mit-lightroom-so-bringen-sie-farben-zum-strahlen-a-884973.html

Anaxaboras
25.03.2013, 00:02
Ob man nun in RAW oder JPEG oder gar in RAW und JPEG aufzeichnet, ist sicherlich nicht nur eine Glaubens- und Ermessensfrage. Das hängt wohl zu einem großen Teil auch davon ab, ob man gewillt ist, den etwas höheren Aufwand bei der RAW-Entwicklung in Kauf zu nehmen.

Ich nehme ja (nicht mehr ausschließlich – dazu gleich mehr) in RAW auf. Meine Gründe dafür sind:


Bei mir entsteht ein Bild erst durch die Ausarbeitung der eigentlichen Aufnahme. Ganz so, wie eben früher erst in der Dunkelkammer unter dem Vergrößerungsgerät und im Entwicklerbad aus der Aufnahme die Fotografie wurde.
RAW-Dateien geben mir einen deutlich größeren Spielraum, meine Aufnahmen nachträglich zum gewünschten Bild auszuarbeiten. Dazu zählt insbesondere die Möglichkeit, ausgewählte Bildbereiche bearbeiten zu können (in LR und ACR).
Die Bildqualität der JPEGs hat bei Kameras von Sony bis zu vorletzten Generation doch noch einiges zu Wünschen übrigen gelassen.
RAW-Dateien sind gegenüber Aufnahmefehlern deutlich gutmütiger.
Mit modernen RAW-Konvertern wie in Lightroom oder auch Photoshop (nicht Photoshop Elements!) lässt sich der Entwicklungsprozess derart automatisieren, dass der Mehraufwand im Vergleich zu JPEG kaum noch ins Gewicht fällt.


Bis im Dezember 2012 habe ich aus den genannten Gründen (fast) ausschließlich in RAW aufgenommen. Dann ist meine A900 gegangen, eine A99 hat sie abgelöst. Seither spielt auch wieder JPEG bei mir eine Rolle, weil:

Nur bei der JEPG-Aufzeichnung Funktionen zur Verfügung stehen, die RAW naturgemäß fehlen. Ich meine hier vor allem Multishot-NR und die HDR-Automatik. Dazu gehören aber auch die „Kreativ“-Effekte, die für mich indes keine Rolle spielen. Beides ließe sich zwar ebenfalls durch Serienaufnahmen bzw. Belichtungsreihen in RAW nachbilden – aber zu einem unverhältnismäßig hohem Aufwand.
Sony die JPEG-Engine im Vergleich zur Vorgängerin deutlich verbessert hat. Bei sorgfältiger Kameraeinstellung lassen sich jetzt auch in JPEG Ergebnisse erzielen, die den RAWs ebenbürtig sind, bisweilen sogar überlegen.
Es Situationen gibt, in denen eine große Anzahl Aufnahmen anfallen, es aber nicht auf das letzte Quentchen Bildqualität ankommt (etwa auf einer Party).


Allerdings hat die Sache doch einen Haken: JPEG erfordert penible Kameraeinstellungen. Das gilt jetzt nicht nur Basics wie Belichtung oder Weißabgleich. Auch die JPEG-Aufbereitung kann und will bedarfsgerecht konfiguriert werden (also Schärfe, Kontrast, Sättigung etc. Dazu gibt es ja noch die Kreativstile, die ich aber nicht verwende).

Man kann also heute mit einer Sony-Kamera sehr gute JPEG-Aufnahmen erhalten, wenn man sie vor jedem Foto auf den Punkt genau einrichtet. Das ist mir in vielen Fällen zu aufwändig und stressig. Ich nehme in RAW auf und achte nur auf eine möglichst genaue Belichtung (das Live-Histogramm unten rechts im EVF meiner A99 ist bei mir standardmäßig eingeblendet), sowie auf den korrekten Weißabgleich. Den Rest erledige ich dann lieber bei einem guten Glas Rotwein am PC.

Bleibt natürlich immer noch: Wer das volle Potential von RAW nutzen will, muss sich in die Möglichkeiten seines RAW-Konverters einarbeiten. Das geht natürlich nicht von heute auf morgen, doch es lohnt sich. Dabei darf man nicht vergessen: Auch die optimale JPEG-Konfiguration gelingt sicher nur, wenn man seine Kamera wirklich aus dem FF kennt und beherrscht. Alternativ gibt es natürlich noch die Motivprogramme (Szenenmodi).

Ich persönlich halte überhaupt nichts davon, RAW und JPEG parallel aufzuzeichnen. Das frisst nur unnötig Speicherplatz und verkompliziert die Verwaltung ungemein – wie schon gesagt.

Auf dem Alpha-Festival wird es dieses Jahr übrigens einen ausgiebigen Workshop zu Lightroom 4 geben. Wer nach Berlin kommt, kann sich dann gerne bei mir persönlich von den Vorteilen des RAW-Formats überzeugen. Und davon, dass Lightroom überhaupt nicht so kompliziert ist, wie es die vielen Regler und Möglichkeiten einem vielleicht einreden.

LG
Martin

daso
25.03.2013, 00:19
auch ein interessantes Video, "RAW Vs JPG", immer gern zitiert. Viel Spaß:
http://www.youtube.com/watch?v=NCZhc5kqEZg

physicist
25.03.2013, 01:35
Also ich denke ich habe erst einmal eine vorübergehende Lösung für mich gefunden. Um auch nach schwierigen Aufnahmesituationen nicht nur mit einer JPG dazustehen wo man bei einer RAW noch etwas hätte retten können, werde ich erst einmal RAW+JPG fotografieren.

Der Speicherplatz ist mir erst einmal egal, habe noch eine Platte wo 900GB frei sind:D

Den von mir am Anfang angesprochenen Mehraufwand in der Verwaltung wegen RAW+JPG habe ich heute sehr effektiv beseitigt :top:

Einige werden die Idee für völlig blöd halten, aber als ich mir überlegte wie schön es wäre einfach die RAW in die JPG mit einzubetten kam mir DIE Idee.
Ein RAW an ein JPG "ranhängen" geht nicht... denkste, geht doch. Aber nur auf NTFS Formatierten Platten :D

Das ganze nennt sich "Alternativer Datenstrom" oder "NTFS alternate streams".
Eine Tolle Sache um Trojaner und Viren zu verstecken, oder RAW dateien. :top:

http://www.gaijin.at/manstreams.php
http://www.flexhex.com/docs/articles/alternate-streams.phtml

Da ich meine Kamera sowieso immer über ein Batch Datei auslese hab ich mir die einfach mal ein wenig umgescriptet.
Die Dateien werden jetzt runterkopiert (.ARW und .JPG) und danach verschwindet die .ARW in der dazugehörigen JPG.
Lösche ich die JPG, so ist auch die ARW verschwunden. Die .ARW kann ich jederzeit bequem aus der JPG extrahieren.
Alle Programme mit denen ich die JPG öffne sehen aber nur die JPG und behandeln sie ganz normal.
Ich denke ich darf nur kein Programm benutzen welches die Original.JPG ändert, aber soetwas nutze ich sowieso nicht. Zur Sicherheit bekommen die Dateien halt ein Schreibschutz Attribut.

Zum schnelleren Extrahieren und wieder einpacken hab ich mir auch 2 befehle für die Konsole erstellt, "hideraw" und "getraw".

Falls interesse besteht poste ich gerne mal eine kleine Anleitung wie das ganze funktioniert.

alberich
25.03.2013, 02:39
Wenn man RAWs im Abhängigkeit zu JPGs löschen möchte oder auch umgekehrt, kann man auch ganz einfach das hier nutzen.

http://nubi.bplaced.net/msdelete/

So kann man einfach die JPGs sichten und nachdem man alles überfllüssige gelöscht hat, startet man das Tool, gibt die Verzeichnisse an, und es löscht automatisch alle entsprechenden RAWs im jeweiligen Ordner. So kann man bequem RAWs und JPGs beim Import in spearaten Verzeichnis- und/oder Laufwerksstrukturen organisieren und trotzdem bequem löschen und "in sync" halten.

Tikal
25.03.2013, 04:41
Das ist ja schön, das du eine Lösung für dich gefunden hast. Noch schöner ist, das dir das selbst programmiert hast. :)

* Ich kann dann bei den jpgs keine "Effekte" wie DRO, HDR etc. mehr einstellen!

Das ist etwas, was ich auch stark bemängele. Obwohl es eigentlich gehn müsste. Hast du RAW+JPEG eingestellt, kannst du die speziellen Features für die JPEGs nicht mehr nutzen. DRO geht (aber kein AutoHDR), Kreativmodus geht (aber kein Bildeffekt) und das meiste geht dann doch nicht, wie z.B. Multiframe Noise Reduction.

steve24
25.03.2013, 08:38
Hallo,
habe hier grade auch mal mitgelesen.
Toll, das du eine Lösung gefunden hast.

Ich für meinen Fall fotografiere auch in RAW, schon seit längerem.
Man kann einfach mehr bearbeiten im Nachhinein, und Fehler besser beseitigen.

Ich arbeite mit Photoshop und konvertiere die RAW Dateien dort ins jpg Format.
Ich glaub, es war die Stappelverarbeitung. Also
erstmal alle Raws automatisch ins jpg Format umwandeln.
Dann kann ich mir erstmal in Ruhe die Fotos im jpg Format anschauen
und mir die besten rauspicken,
die ich dann als RAW-Format in Photoshop öffne und bearbeite nach meinen
Wünschen.

gruß

Stefan

mrieglhofer
25.03.2013, 10:09
Das ganze nennt sich "Alternativer Datenstrom" oder "NTFS alternate streams".
Die Dateien werden jetzt runterkopiert (.ARW und .JPG) und danach verschwindet die .ARW in der dazugehörigen JPG.
.
Hast du dir schon mal überlegt, was passiert, wenn du das mit einem anderen OS lesen willst bzw. wenn du die Dateien auf einem NAS hinerlegst?
Ich finde es toll, das NTFS auf diese Weise ordentlich zu nutzen, aber warum glaubst du, hat sich das auf breiter Front nicht durchgesetzt?

physicist
25.03.2013, 10:40
Weil die Funktion kaum einer kennt :)

Naja. Ein OS wechsel steht bei mir nicht an und ein NAS plane ich auch nicht. Sollte ich doch mal auf die Idee kommen die Dateien auf ein anderes Dateisystem zu kopieren extrahier ich einfach alle raws. Ist nur eine batch datei die ich starten muss.

Für die breite Masse ist die Lösung vielleicht nicht geeignet, aber für mich petsönlich sehr praktisch.

Neonsquare
25.03.2013, 10:42
@physicist
Ich finde es eine coole Lösung, aber irgendwann kommt der Punkt an dem man einsehen sollte, dass eine Lösung wie Lightroom einem kostbare Lebenszeit spart. ;)

Gruß,
[neon]

lampenschirm
25.03.2013, 11:17
Das ist ja schön, das du eine Lösung für dich gefunden hast. Noch schöner ist, das dir das selbst programmiert hast. :)



Das ist etwas, was ich auch stark bemängele. Obwohl es eigentlich gehn müsste. Hast du RAW+JPEG eingestellt, kannst du die speziellen Features für die JPEGs nicht mehr nutzen. DRO geht (aber kein AutoHDR), Kreativmodus geht (aber kein Bildeffekt) und das meiste geht dann doch nicht, wie z.B. Multiframe Noise Reduction.

das hat ja voraussichtlich mit der datenflut zu tun bzw. mit dem aufwendigen Rechenprozess dieser funktionen bzw. immer noch nebenher ein gewaltiges RAW mit ab speichern....naja abwarten bis sie hochend CPUs in die cams verbauen....oder die unterzwischen gewachsenen Pixelzahlen machen dann die rechenleistung gleich wieder platt.....:lol:

oder es meckert dann einfach jeder über die Ewigkeit bis die cam endlich fertig gespeichert hat...

Tikal
25.03.2013, 11:36
Ich würde aber gerne selbst entscheiden ob mir die Wartezeit wert ist. Soviel wird es dann wohl nicht mehr sein.

physicist
25.03.2013, 11:41
@physicist
Ich finde es eine coole Lösung, aber irgendwann kommt der Punkt an dem man einsehen sollte, dass eine Lösung wie Lightroom einem kostbare Lebenszeit spart. ;)

Gruß,
[neon]




Das möchte ich auch keineswegs abstreiten. Man muss es nur einrichten und sich gescheit damit auskennen. Sollte ich mal soweit sein bin ich bestimmt auch nicht abgeneigt es zu nutzen. Zur Zeit jedoch bin ich mit den JPGs sehr zufrieden und behalte mir durch die speicherung der RAWs die möglichkeit für später offen.

Es ist ja noch kein Meister vom Himmel gefallen ;)

Ich werde erst einmal vereinzelt mit Problembildern üben.
Ein gutes Forum wo man nette Ratschläge bekommt kenn ich ja jetzt :D

ulle300
25.03.2013, 18:54
...
Es ist ja noch kein Meister vom Himmel gefallen ;)

Ich werde erst einmal vereinzelt mit Problembildern üben.
Ein gutes Forum wo man nette Ratschläge bekommt kenn ich ja jetzt :D

Tu Dir einen Gefallen, und versuche gute Bilder noch zu verbessern.

Wenn man RAW nur zur Rettung der Bilder wegen schlechter Vorbereitung (schlampige Kameraeinstellungen, ungünstige Lichtverhätnisse ... usw.) einsetzt, dann hat man noch nicht alles verstanden. :(:?;)

Aus einem Problembild wird auch nach intensver RAW-Bearbeitung kein gutes Bild.

Tikal
25.03.2013, 19:14
Aus einem Problembild wird auch nach intensver RAW-Bearbeitung kein gutes Bild.

Kann ich so nicht direkt unterschreiben. Dank RAW kann man eben Überbelichtung ein wenig korrigieren, Weißabgleich beliebig setzen usw. und so fort. Es kommt eben darauf an, was falsch gelaufen ist. In manchen Situationen kann man aus einem Problembild dank RAW noch was gutes draus machen. So meine Erfahrung, aber ich bin auch kein guter Fotograf (ja ehrlich).

www_zeeshan_de
12.05.2013, 00:04
Hallo

Ich bin jetzt seit ein Paar Monaten meiner ersten DSLR...nein...SLT meine ich natürlich.
Es ist eine A37 mit einem etwas später gebraucht gekauften SAL1650F28 SSM Objektiv, geniales Teil. :top:

Ok, von der Bildquali bin ich begeistert, was mir mittlerweile nur Kopfzerbrechen bereitet ist die Frage ob ich RAW oder JPG benutzen soll und ob eine manuelle nachbearbeitung überhaupt lohnt...
...
Wie macht ihr das wenn ihr in RAW fotografiert.
Setzt ihr euch bei jedem Bild hin und schiebt fröhlich Regler hin und her?


Hallo Threadopener.
Dies ist mein erstes Posting hier, und ich hoffe ich kann dir und vielen anderen damit ein wenig helfen.

Zunächst einmal am Rande zu deinem Objektiv, du sagst das SAL1650F28 SSM Objektiv ist ein geniales Teil, hattest du schon mal ein Festbrennweiten-Objektiv (ubabhängig vom SAM oder SSM AF-Motor) ? Wusstest du eigentlich dass ausschließlich Festbrennweiten die maximale Qualität bieten
* (Auflösungsvermögen [Details] bei kritischer Blende [z B F5.6],
* satte Farben,
* weniger-fla-grau-im-Bild und somit maximaler Kontrast [ggf mit Gegenlichtblende]) ?
Natürlich muss ISO immer bei 100 bleiben. Dies ist ja ein Thread über maximale Qualität, deshalb meine Anmerkung.

Du fotografierst im RAW+JPG Modus, das ist aus meiner Sicht ABSOLUT sinnlos !! Schon mal was von zentraler Datenspeicherung gehöht ? Ist ein Begriff aus der IT/EDV-Welt. Da ich so einer aus dieser Ecke bin, achtet ich ein wenig darauf. Ich stelle dir 2 einfache Fragen:
Kann man aus den JPG-Dateien ARW-Dateien generieren ? Antwort: Nein.
Kann man aus den ARW-Dateien JPG-Dateien generieren ? Antwort: Ja.
Es genügt also nur im ARW (RAW) Modus zu fotografieren.

Noch eine Frage: Gibt es spezielle Szenarien, in denen RAW+JPG Modus dennoch sinnvoll sein kann ? Antwort: Ja, aber sehr selten. Wenn ich auf einem Event bin auf dem ich die Bild an ORT und STELLE sofort abgeben soll/muss dann kann man die JPGs abgeben, die ARWs mit nach Hause nehmen. Auf einem Event hat man an ORT und STELLE seinen PC nicht verfügbar (oder keine Zeit) um die aus den ARWs finale hochwertige JPGs zu erstellen.

Da ich selten auf Events bin auf denen ich die Bilder an ORT und STELLE abgeben MUSS, erübrigt sich der ARW+JPG Modus für mich komplett.

Nun aber zur Haupfrage vom Thread:
""Wie macht ihr das wenn ihr in RAW fotografiert. Setzt ihr euch bei jedem Bild hin und schiebt fröhlich Regler hin und her?""

Ich benutze kein LR oder sonstige andere kostenpflichtige Programme um
Schritt 1: aus den ARWs die TIFFs [verlustfreier temporärer Zwischenstand] zu erstellen
Schritt 2: aus den TIFFs die JPGs zu erstellen
Ich habe festgestellt, aus einer RAW-Datei bekommt man mit jeder Hersteller-Fremd-Software unterschiedlich [schlechte] Ergebnisse (siehe auch einige Berichte/Reviews auf dpreview). Sony hat alle Software mitgeliefert, die man benötigt um aus den ARWs verlustfreie TIFFs zu generieren.

Wenn in Deutschland mal wieder die Sonne scheint UND ich auch WE/Freizeit habe, dann nehme ich meine Sony SLT mit (dieses Jahr Premiere: SLT-A65 mit 35mm F1.8 Objektiv) in die große weite Welt.

Generelle Kameraeinstellungen:
* Fotografiert wird nur im PASM-Modus damit man ARW-Dateien bekommt.
* Alle Kamera-Farbeinstellungen bleiben auf Standard !!
* ISO ist FEST auf 100 gesetzt und darf niemals verändert werden!!
* Größtenteils wird im A-Modus fotografiert, damit die Blende bei F5.6 bleibt (kritische Blende).
* Sofern Belichtungszeiten nicht größer als 1/10 Sekunde werden, kann auf den Kamera-internen-Blitz verzichtet werden.
* Metering Mehrfeld
* AF auf Spot-Zentral

Oft komme ich mit bis zu 400 Bildern zurück. Bei dieser großen Anzahl an Bilder ist es unmöglich für mich, bei JEDEM Bild noch irgendwelche Regler in X-Y-Programmen einzustellen um zum Ergebnis zu kommen.

Das primäre Ziel ist von 400 ARWs zu finalen 400 JPGs (mit maximaler Qualität) zu kommen, und das mit dem möglichst geringstem menschlichem Aufwand !!

Spielereien mit LR & co sind nicht erforderlich! [SPIELEREIEN enden oft in eine unendliche Geschichte...].

Ich entnehme die 32GB SDHC Karte aus der Kamera und rein in den Kartenleser, von dort alle ARW-Dateien verschieben nach:
c:\1max mustermann\DIGICAM\SLTA65\TEMP1_ARW\

//(Anfang: Dieser Schritt ist einmalig
Sony Image Data Converter (Version 4.2.02.10112 oder inzwischen neuer) starten.
Auf den Ordner
c:\1max mustermann\DIGICAM\SLTA65\TEMP1_ARW\
gehen.
Ein ARW markieren, oben links auf "RAW Bearbeiten"-Button klicken. Rechter Mausklick auf Bild, Bildverarbeitungseinstellungen, Speichern, speichern unter
FOR_ALL_ARW.xml
Info: Der Speicherort unter WIN7 ist:
c:\Users\%USERNAME%\Documents\Image Data Converter\Settings\
Somit haben wir eine XML für alle künftige Dateien.

Nur zur zusätzlichen Information: Die (unveränderte) Einstellungen waren:
Belichtung: +0,00EV
Weißabgleich: Kamera-Einstellungen (sollte in CAM AWB sein)
Kreativmodus: Kamera-Einstellungen
Kontrast: 0
DynamikberOptim.. : Aus
Farbreproduktion: Standard
Farbton: 0
Sättigung: 0
Schattierungskompensation: 80
Mittelstärke: 0
Randstärke: 0
Schärfe: 0 (alle vier Werte)
Rauschminderung: Automatisch
Verzerrungskompensierung: Aus
Farbkurve: Y (Belichtung)
Anzeigesteuerung: kein Häkchen, kein Häkchen, kein Häkchen

Jetzt auf Anzeigemodus klicken.

//)Ende: Dieser Schritt ist einmalig

Erstes Bild anklicken, Shift gedrückt halten und PfeilRechts-Taste gedrückt halten bis alle Bilder markiert sind. Oben auf blauen Button JPEG_TIFF klicken, bei Ausgabemethode die Auswahl "Die ausgewählten Bildverarbeitungseinstellungen auf alle RAW-Dateien anwenden" klicken, Datei-Auswahl-Dialog erscheint, Die Datei FOR_ALL_ARW.xml anklicken und Öffnen-Button klicken, Ansicht Ausgewählte Bildverarbeitungseinstellungen erscheint mit Vor-Einstellungen und einer roten Linie von linksunten_nach_rechtsoben, auf das X rechtsoben klicken (schließen Button), Unter Dateieinstellungen TIFF-Format (8 Bit sRGB), Bei "Speichern unter" muss
c:\1max mustermann\DIGICAM\SLTA65\TEMP2_TIF
stehen (Ordner vorher anlegen wenn noch nicht vorhanden).
Dateiname: Originaldateiname verwenden.
Sobald man jetzt auf "Speichern"-Button klickt, startet die Umwandlung aller ARW nach TIF. Je nach CPU Leistung kann das unterschiedlich lange dauern. Danach Sony Image Data Converter beenden.
//Kommentar: Es kann auch passieren das die Verarbeitung ohne jegliche Fehlermeldung abbricht, dann muss in den TIF Ordner schauen wie weit die Verarbeitung war, Sony Image Data Converter killen, Sony Image Data Converter starten, und dann mit dem letzten Bild weitermachen. Fehler in Sony Software ? Mittlerweile behoben ?!? Ich hab hier eine 64 Whetstone / 99 DHRYSTONE CPU (8-Kern), es werden alle 8 Kerne pro Bildverarbeitung ausgelastet.

Jetzt haben wir im Ordner
c:\1max mustermann\DIGICAM\SLTA65\TEMP2_TIF
alle TIF Bilder (riesige Dateien !!). Diese werden jetzt mit der [Freeware] Software Xnview von TIF nach JPG umgewandelt. Eine exakte Anleitung kann man auf meiner Homepage unter
jpgquality/0_jpgquality.htm
nachlesen.
Am Ende lösche ich alle ARWs und TIFs (Papierkorb leeren nicht vergessen !). Mit [Freeware] Fast-Stone-Image-Viewer browse ich durch die Bilder und lösche unbrauchbares, EXIF Infos sehe ich sofort auf der rechten Seite sobald ich die Maus nach rechts bewege, eine 1:1 Ansicht erscheint wenn ich auf 1 drücke oder mit F12 aktuelle Größe fest einstelle.

Exkurs: Aus den 24 (Hersteller/Bayer-Interpolierte)-Megapixel ARWs der SLT-A65 werden am Ende 6 Megapixel (nativ RGB). Weitere Infos darüber kann man auf meiner Homepage unter
fotografie/0_pixeldichte.htm
nachlesen.

Ich hoffe ich konnte helfen und freue mich auf positives Feedback.

Roland Hank
12.05.2013, 00:57
Generelle Kameraeinstellungen:
...
* ISO ist FEST auf 100 gesetzt und darf niemals verändert werden!!
* Größtenteils wird im A-Modus fotografiert, damit die Blende bei F5.6 bleibt (kritische Blende).

Oft komme ich mit bis zu 400 Bildern zurück. Bei dieser großen Anzahl an Bilder ist es unmöglich für mich, bei JEDEM Bild noch irgendwelche Regler in X-Y-Programmen einzustellen um zum Ergebnis zu kommen.

Das primäre Ziel ist von 400 ARWs zu finalen 400 JPGs (mit maximaler Qualität) zu kommen, und das mit dem möglichst geringstem menschlichem Aufwand !!

Spielereien mit LR & co sind nicht erforderlich! [SPIELEREIEN enden oft in eine unendliche Geschichte...].

Ich stelle fest, du hast das Thema Fotografie noch nicht verstanden. Es ist nicht das primäre Ziel möglichst scharfe, seelenlosen Bild zu generieren, sondern darum Bilder zu gestalten. Die Bilder müssen in erster Linie den Betrachter ansprechen.

Wenn du die Blende immer auf 5,6 lässt hast du in vielen Fällen vielleicht ein möglichst scharfes Bild aber eine Bildgestaltung mit dem du keinen Blumentopf gewinnen kannst. Die Blende ist das bildgestaltende Element, dies nicht zu nutzen ist absoluter Unfug.

ISO 100 ist zu favorisieren aber wenn das Licht nicht reicht, eine extrem kurze Verschlußzeit erforderlich ist oder aus bildgestalterischen Gründen eine sehr kleine Blende notwendig ist dann muß man die ISOs halt hochdrehen. Das ist einer der größten Vorteile der digitalen Fotografie. Die Gestaltung des Bildes ist wichtig, nicht die maximal erreichbare Qualität.

Wenn ich mit 400 Bilder zurück komme dann suche ich mir vielleicht 10 Bilder heraus, die meine Ansprüche erfüllen und es verdienen gezeigt zu werden. Der Rest der RAWs schlummert für ewig auf meiner Festplatte bis ich das ein oder andere Motiv später vielleicht mal brauche.

Bei mir erfährt jedes Bild, das ich zeige, eine individuelle Entwicklung, denn jedes Motiv ist anders und gute Fotos haben es verdient bis ins Detail optimiert zu werden.

Gruß Roland

mrieglhofer
12.05.2013, 02:31
@zee_shan.de

Naja, die o.a Methode erscheint mir irgendwie sinnlos. Wenn du 400 Bilder machst, aus denen du ohne individuelle Nachbearbeitung JPG erzeugst, dann kannst das in der Kamera genauso gut machen. Würde also absolut reichen, JPG zu fotografieren und danach Batch zum Skalieren damit die 6 MPix raus kommen.

RAW hat nur einen Sinn, wenn man die Bilder entweder individuell bearbeitet oder nachträglich für verschiedene Medien und Farbräume aufbereiten muss.
RAW Nachbearbeitung ist nicht aufwändiger als JPG Nachbearbeitung, verliert aber durch die 16Bit weniger an Qualität. Ohne Nachbearbeitung bringts aber nichts.

Tja, und das war nur das Thema Qualität. Bei Fotoausstellungen ist das Thema techn. Qualität normalerweise keines.

About Schmidt
12.05.2013, 08:36
Allerdings kann ich nicht verstehen, dass man sich eine High Tech Kamera, wie z.B. die A99 kauft und dann auf das RAW verzichten will. Wie ich schon weiter vorn schrieb, JPG dann, wenn es auf Qualität nicht so sehr ankommt. Will ich aber die absolute Qualität, wozu kaufe ich mir sonst eine A99, führt kein Weg an RAW vorbei.

Gruß Wolfgang

fotogen
12.05.2013, 08:46
Allerdings kann ich nicht verstehen, dass man sich eine High Tech Kamera, wie z.B. die A99 kauft und dann auf das RAW verzichten will. Wie ich schon weiter vorn schrieb, JPG dann, wenn es auf Qualität nicht so sehr ankommt. Will ich aber die absolute Qualität, wozu kaufe ich mir sonst eine A99, führt kein Weg an RAW vorbei.

Gruß Wolfgang

Na ja, meines Erachtens kaufen sich die meisten die A99 nicht wegen absoluter Qualität, sondern weil sie Vollformat aus Bildgestalterischen Gründen wollen oder einfach noch mit ihren Weitwinkelfestbrennweiten hinkommen wollen, statt sich APS Superweitwinkelzoom fragwürdiger Qualität anzutzun.
Bildqualitativ ist APS in den seltensten Fällen nicht gut genug. Geschwindigkeitstechnisch ist die A77 sogar besser als die A99 (fps), die A99 hat diesbezüglich also gar keine absolute Topqualität.

unWesen
12.05.2013, 12:03
... Geschwindigkeitstechnisch ist die A77 sogar besser als die A99 (fps), die A99 hat diesbezüglich also gar keine absolute Topqualität.

Wobei die Anzahl Bilder pro Sekunde ja eher eine Quantität denn eine Qualität ist...

Zum Thema:
Ich mache meist Sportbilder, überwiegend Volleyball. Da ist allein schon wegen dem Weissabgleich RAW unumgänglich, auch eine A99 liegt da immer mal wieder etwas (manchmal Massiv) daneben. Zu viele Faktoren (Hallenboden, Werbetafeln, Trikots, bei grossen Events sogar diese Bildschirmwerbebanden).
Die Kollegen der CaNi-Welt haben in dieser Hinsicht die gleichen 'Probleme')

Und ja, ich drehe wenn nötig bei jedem Bild ein wenig an den Reglern von Lightroom.
JPG verwende ich nur dann, wenn es wirklich schnell gehen muss mit der Abgabe von einzelnen Bildern.

mrieglhofer
12.05.2013, 12:33
Na ja, meines Erachtens kaufen sich die meisten die A99 nicht wegen absoluter Qualität, sondern weil sie Vollformat aus Bildgestalterischen Gründen wollen oder einfach noch mit ihren Weitwinkelfestbrennweiten hinkommen wollen, statt sich APS Superweitwinkelzoom fragwürdiger Qualität anzutzun.
Bildqualitativ ist APS in den seltensten Fällen nicht gut genug. Geschwindigkeitstechnisch ist die A77 sogar besser als die A99 (fps), die A99 hat diesbezüglich also gar keine absolute Topqualität.


Das würde ich mal bezweifeln, dass die Rechnung aufheht. Das geht auch im VF nur mit sehr lichtstarken und teuren Objektiven. Sonst bist meist besser dann, eine längere Brennweite einzusetzen, weil da die Freistellung deutlich besser ist.
Bei WW sehen ich auch keine Vorteil im VF. Du kriegst zwar mehr drauf, aber das mehr ist halt dann auch mit fast allen Blenden unscharf;-)
Ausser natürlich die Klassiker 2/24 und dann halt noch die bekannten 28/35. Aber Zooms sind hält unter 8-11 meist ein Drama.
Es ist halt der Schritt vom Amateur zum Profi, wie das Prospekt uns weiss machen will ;-)

About Schmidt
12.05.2013, 12:43
Geschwindigkeitstechnisch ist die A77 sogar besser als die A99 (fps), die A99 hat diesbezüglich also gar keine absolute Topqualität.

Na wenn das ein Kriterium ist. Es gibt Kompaktkameras die machen 50 FPS. :lol:

Meine nun ja schon betagte A850 macht nur 3fps, was mir bislang immer ausreichte. Wer halt nur schnellen Sport fotografieren will, ist bei Sony (in meinen Augen) sowieso falsch. Das können andere Hersteller einfach besser. Nicht umsonst sieht man in Stadien und auf Sportveranstaltungen meist Canon auf den Stativen. Dass dies auch noch andere Gründe hat ist wohl jedem, der sich mit dieser Materie befasst klar. Was soll ich außerdem mit einer Kamera die 5fps schafft, dafür aber mit dem AF nicht hinterher kommt.

Als ich bei der Europa/Weltmeisterschaft der Fallschirmspringer fotografiert habe, lag die 850 mit dem 70-200 G oft daneben, obwohl dies eher eine zuverlässige Kombi ist. Neben mir ein Pressemensch mit Canon EOS 1DS MarkII und einem 600mm F4. Damit durfte ich dann auch einmal fotografieren. Von 15 in Folge gemachten Aufnahmen im Freien Fall (immerhin irgendwo zwischen 200 und 300 Km/h) war kein einziges Foto im Fokus irgendwo daneben. Dass das seinen Preis hat, stellt wohl niemand in Frage. Sony bietet so etwas aber erst nicht einmal, was den Vorteil hat, dass ich die unscharfen RAW erst gar nicht entwickeln brauche. :lol:
Gruß Wolfgang

www_zeeshan_de
12.05.2013, 13:51
@zee_shan.de

Naja, die o.a Methode erscheint mir irgendwie sinnlos. Wenn du 400 Bilder machst, aus denen du ohne individuelle Nachbearbeitung JPG erzeugst, dann kannst das in der Kamera genauso gut machen. Würde also absolut reichen, JPG zu fotografieren und danach Batch zum Skalieren damit die 6 MPix raus kommen.

...

Tja, und das war nur das Thema Qualität. Bei Fotoausstellungen ist das Thema techn. Qualität normalerweise keines.

Die out-of-cam JPGs sind nicht vergleichbar mit den JPGs, die ich über den Weg ARW-2-TIF, dann von TIF-2-JPG bekomme. In der Kamera kann man nur Normal, Fein, Superfein oder so einstellen. Selbst in der Superfein Einstellung ist Farbsubsampling(chromasubsampling) seitens Hersteller AKTIVIERT und die JPG-Qualität ist NICHT AUF 100 % gesetzt (siehe Info jpgquality auf meiner Homepage). Die extrem verlustbehaftete 24MP out-of-cam-jpg später auf 6MP zu verkleinern ist eher sinnlos. Wer mit den out-of-cam-JPGs zufrieden ist, kann gleich die JPG größe auf 6MP einstellen und brauch die JPGs später nicht mehr auf dem PC zu verkleinern. Aber dann kann sich ggf auch eine günstige Kompaktkamera kaufen (Problem hier: Hohe Pixeldichte, Bildrauschen bereits bei ISO 100 und weniger Dynamikumfang). Eine (APS-C)Kamera mit RAW-Format Aufnahme kauft man sich entweder um mit den RAWs zu arbeiten/entwickeln ODER in meinem Fall aus den RAWs die JPGs mit maximaler Qualität zu generieren.

Auf der einen Seite hat man technische Qualität, auf der anderen Seite die künstlerische Qualität. Selten gibt es Leute, die über beides wissen UND anwenden. Technische Qualität sollte als Fundament dienen, darauf kann man aufbauen.

dey
12.05.2013, 15:18
in meinem Fall aus den RAWs die JPGs mit maximaler Qualität zu generieren.


Zeigen

bydey

konzertpix.de
12.05.2013, 15:25
Eine gewagte These!
... Auf der einen Seite hat man technische Qualität, auf der anderen Seite die künstlerische Qualität. Selten gibt es Leute, die über beides wissen UND anwenden...
Bedeutet im Umkehrschluß: bis auf Ausnahmen wissen die echten Fotokünstler nicht über ihre Ausrüstung Bescheid.

Ok, wenn du meinst...

ulle300
12.05.2013, 18:46
Eine gewagte These!

Bedeutet im Umkehrschluß: bis auf Ausnahmen wissen die echten Fotokünstler nicht über ihre Ausrüstung Bescheid.

Ok, wenn du meinst...

Ich finde Deinen "Umkehrschluss" zu heftig. Eher gemeint war wohl:

Es gibt nicht häufig Menschen, die künstlerische und technischer Qualität zu vereinen wissen.
Die von Dir angesprochenen "Fotokünstler" gehören aber dann genau zu diesen "seltenen Leuten".

:(;):)

mrieglhofer
12.05.2013, 19:07
Die out-of-cam JPGs sind nicht vergleichbar mit den JPGs, die ich über den Weg ARW-2-TIF, dann von TIF-2-JPG bekomme. In der Kamera kann man nur Normal, Fein, Superfein oder so einstellen. Selbst in der Superfein Einstellung ist Farbsubsampling(chromasubsampling) seitens Hersteller AKTIVIERT und die JPG-Qualität ist NICHT AUF 100 % gesetzt (siehe Info jpgquality auf meiner Homepage). Die extrem verlustbehaftete 24MP out-of-cam-jpg später auf 6MP zu verkleinern ist eher sinnlos. Wer mit den out-of-cam-JPGs zufrieden ist, kann gleich die JPG größe auf 6MP einstellen und brauch die JPGs später nicht mehr auf dem PC zu verkleinern. Aber dann kann sich ggf auch eine günstige Kompaktkamera kaufen (Problem hier: Hohe Pixeldichte, Bildrauschen bereits bei ISO 100 und weniger Dynamikumfang). Eine (APS-C)Kamera mit RAW-Format Aufnahme kauft man sich entweder um mit den RAWs zu arbeiten/entwickeln ODER in meinem Fall aus den RAWs die JPGs mit maximaler Qualität zu generieren.

Also den Unterschied schau ich mir live an. In einer halbwegs praxisgerechten Anwendung bis A2 ist der Unterschied nicht sichtbar. Und drüber bringst eh die 300dpi nicht mehr zusammen. Nebenbei hat es schon einige Versuche im Forum gegeben, aus dem RAW ein besseres JPG zu erreichen. Bisher erfolglos, aber warum nicht wieder probieren. Bei 24 MPix ist die JPG Engine das kleinste Problem. Das reden wir von nicht optimalem AF, von Verwacklungen, Abbildungsfehler und Beugung bei suboptimalen Blenden, mangelnde Objektivleistung usw.

fotogen
12.05.2013, 19:10
Also den Unterschied schau ich mir live an. In einer halbwegs praxisgerechten Anwendung bis A2 ist der Unterschied nicht sichtbar. Und drüber bringst eh die 300dpi nicht mehr zusammen. Nebenbei hat es schon einige Versuche im Forum gegeben, aus dem RAW ein besseres JPG zu erreichen. Bisher erfolglos, aber warum nicht wieder probieren. Bei 24 MPix ist die JPG Engine das kleinste Problem. Das reden wir von nicht optimalem AF, von Verwacklungen, Abbildungsfehler und Beugung bei suboptimalen Blenden, mangelnde Objektivleistung usw.

Hast Du das mal selbst verglichen, ganz normal am Computer in 100% Ansicht?

mrieglhofer
12.05.2013, 19:31
Ich arbeite mit einer a850, da ist die Situation noch anders. Von dem abgesehen, arbeite ich anderen Gründen ausschließlich mit RAW. Daher bin ich JPG gegenüber soundso eher kritisch eingestellt.

TONI_B hat damals JPG und RAW der A77 eingestellt und es haben sich mehrere Leute daran versucht. Die JPG waren hinsichtlich Auflösung und Klarheit nicht übertreffbar.

Ich beurteile grundsätzlich keine Bilder in 100% am BS an,weil das keinen Sinn ergibt. Meine Bilder werden projeziert oder enden als Poster oder Plakat. Und dort ist kein Unterschied merkbar. Das reicht mir und meinen Abmnehmern.

Von dem abgesehen ist ein JPG mit geringer Kompression, wie in der A77 ff verwendet praktisch verlustfrei, wenn es nicht nachbearbeitert und dazu mehrfach gespeichert wird. Wenn es Qualitätsprobleme gab, war das bisher immer in ganz anderen Bereichen.

Aber bitte, auf ein neues und Happy Testing.

Roland Hank
12.05.2013, 20:06
So lange mir im Vollbild (Print oder Projektion) keine offensichtlichen qualitativen Mängel auffallen ist mir der letzte Ticken Bildqualität auf Pixelebene ziemlich egal, da in der Praxis relativ irrelevant. Auf keinen Fall würde ich dafür aber auf Gestaltungsmöglichkeiten mit der Blende verzichten. Dauerhaft, aus Gründen der Bildqualität, mit nur einer Blende zu fotografieren hat für mich nichts mit Fotografie zu tun, das ist für mich Knipserei.

Ich fotografiere ja auch nur RAW, aber nicht aus qualitativen Gründen, sondern weil beim JPEG der Tonwertumfang extrem beschnitten wird und damit die Nachbearbeitungsmöglichkeiten wesentlich beschränkt werden.

Auf der einen Seite hat man technische Qualität, auf der anderen Seite die künstlerische Qualität. Selten gibt es Leute, die über beides wissen UND anwenden.

Dem kann ich gar nicht zustimmen. Technisch ein gelungenes Bild zu machen ist sehr einfach, gute Fotos abzuliefern bemühen sich die meisten Leute ein Leben lang ohne das es ihnen wirklich gelingt. Fotografen die wissen, wie sie ein Motiv in Szene setzen liefern in der Regel auch einwandfreie technische Qualität ab.

Gruß Roland

fotogen
12.05.2013, 20:38
Ich arbeite mit einer a850, da ist die Situation noch anders. Von dem abgesehen, arbeite ich anderen Gründen ausschließlich mit RAW. Daher bin ich JPG gegenüber soundso eher kritisch eingestellt.

TONI_B hat damals JPG und RAW der A77 eingestellt und es haben sich mehrere Leute daran versucht. Die JPG waren hinsichtlich Auflösung und Klarheit nicht übertreffbar.

Ich beurteile grundsätzlich keine Bilder in 100% am BS an,weil das keinen Sinn ergibt. Meine Bilder werden projeziert oder enden als Poster oder Plakat. Und dort ist kein Unterschied merkbar. Das reicht mir und meinen Abmnehmern.

Von dem abgesehen ist ein JPG mit geringer Kompression, wie in der A77 ff verwendet praktisch verlustfrei, wenn es nicht nachbearbeitert und dazu mehrfach gespeichert wird. Wenn es Qualitätsprobleme gab, war das bisher immer in ganz anderen Bereichen.

Aber bitte, auf ein neues und Happy Testing.

Nein, ich teste nicht mit, nehme aber mein Grundrecht auf freie Meinungsäusserung wahr. ;-)

Ich würde mich ja auch darüber freuen, wenn die jpgs so gut wie die RAWs wären. ich beziehe mich hier auf meine A77.
Ich sehe halt in 100% Ansicht, dass schon ziemlich Details verloren gehen. Daher: meine A77 macht nicht so tolle jpgs, wie ich mir das wünschen würde. Vergleichen tue ich mit DXO RAW Entwicklung.

Neonsquare
12.05.2013, 20:50
TONI_B hat damals JPG und RAW der A77 eingestellt und es haben sich mehrere Leute daran versucht. Die JPG waren hinsichtlich Auflösung und Klarheit nicht übertreffbar.


Das mag ja sein, trifft aber überhaupt nicht die Praxiserfahrung die ich mit der A77 bislang gesammelt habe. Spätestens seit Apple die RAW-Konvertierung für die A77 aktualisiert hat kriege ich mit RAW deutlich mehr Details als per JPEG.

mrieglhofer
12.05.2013, 21:04
Das mag ja sein, trifft aber überhaupt nicht die Praxiserfahrung die ich mit der A77 bislang gesammelt habe. Spätestens seit Apple die RAW-Konvertierung für die A77 aktualisiert hat kriege ich mit RAW deutlich mehr Details als per JPEG.

Dann wäre es wohl sinnvoll, die alten Files nochmals durch die neuen Konvertern zu schicken. Dann wüssten wir, ob sich das relevant geändert hat.
Wie schon geschrieben, bearbeitet ich aus anderen Gründen im RAW. Aber die damalige Diskussion wurde ja ganz hitzig geführt und man musste sich ja fast schämen, dass man RAW verwendet ;-)

fotogen
12.05.2013, 21:07
Wir müssen dahinkommen, unterschiedliche user Erfahrungen zu akzeptieren und gelegentlich auch stehenzulassen. Manchmal ist die Realität so komplex und zum Teil auch wahrnehmungsabhängig, dass auch unterschiedliche Einschätzungen korrekt sein können.

Das Beispiel von Toni B ist sicher ok und er hat gewohnt gründlich und korrekt gearbeitet.
Ich glaube also, dass das stimmt.:top:
Dennoch habe ich auch bei meiner eigenen Kamera keine Tomaten auf den Augen.;)

mrieglhofer
12.05.2013, 21:31
War wegen der Aussage, dass verbesserte Konverter dafür verantwortlich ist. Es hilft halt wenig, wenn sich an einem Beispiel Einige versuchen und keine Verbesserung erreichen und andere dann trotzdem die Verbesserungen sehen. Wir wollen ja irgendwie zu gesicherten Ergebnissen kommen.
Wobei das RAW Thema ja darüber hinaus noch ganz andere Aspekte hat.

www_zeeshan_de
12.05.2013, 22:56
Ich beurteile grundsätzlich keine Bilder in 100% am BS an,weil das keinen Sinn ergibt. Meine Bilder werden projeziert oder enden als Poster oder Plakat. Und dort ist kein Unterschied merkbar. Das reicht mir und meinen Abmnehmern.

Von dem abgesehen ist ein JPG mit geringer Kompression, wie in der A77 ff verwendet praktisch verlustfrei, wenn es nicht nachbearbeitert und dazu mehrfach gespeichert wird.

Hallo mrieglhofer,

ich beurteile grundsätzlich ALLE Bilder NUR in der 100% Ansicht am BS. Und mit 100 % meine ich die native RGB-Auflösung (bei SLT-A65 die TIF-Bilder von 24 MP mit der Methode Pixelwiederholung[nächster Nachbar] auf 6 MP (exakt 3000x2000) verkleinert). Die 24MP Ansicht, von der du ggf schreibst, entspricht 400 % Ansicht weil diese Bayer-Interpoliert ist. Auf dem Bildschirm kann jeder Pixel jeden Farbwert annehmen, in der Bayer-Interpolierten Ansicht hätte ein Pixel auf dem BS eigentlich entweder die Farbe R,G,G oder B [Gruppe aus 4 Pixeln], dass es dennoch nicht so ist, liegt daran dass bereits in der Kamera für jedes Pixel die Farwerte des benachbarten Pixels hinzugerechnet(interpoliert) wurden. Durch Interpolation steigt das Auflösungsvermögen ganzbestimmt nicht, was aber sicherlich steigt ist der Speicherbedarf. Ca 24 MB ist so eine ARW-Datei mit 24MP, könnte aber auch ca 6 bis 10 MB sein (siehe sRAW von diversen Canons, das ist wirklich sinnvoll, aber Canon hat keine SLT-Technik).

Ich Zitiere dich nochmals:
""
Meine Bilder werden projeziert oder enden als Poster oder Plakat. Und dort ist kein Unterschied merkbar. Das reicht mir und meinen Abmnehmern.
""
Jeder hat seinen eigenen Anwendungsfall, und somit somit unterscheiden sich die Anforderungen für jeden. Ich schreibe hier aus der Sicht von Leuten, die viele Bilder machen (Schnappschüsse!), diese werden dann meistens nur auf dem Bildschirm (40, 50, oder 60 Zoll Bildschirm im Wohnzimmer) gezeigt und von ca 400 finden gerade einmal 40 den Weg aufs Papier (wenn überhaupt). Und diese Art von Leuten, es werden immer mehr. Früher wurden 36 Bilder gemacht, alle entwickelt, und viele Bilder waren einfach nur Schrott und wurden weggeworfen (Papierverschwendung!). Heute ist es Umgekehrt, man knipst einfach mehr. Die Leute meckern heute bereits wenn eine Akkuladung nicht 400 Bilder (mit Blitzeinsatz!?) schafft. Jedenfalls nimmt die Knipserei zu, die SLT Technik ist perfekt für Knipserei, auf Display schauen, drücken, fertig. Ich habe bereits mehr als 10000 Bilder mit der SLT-A33 gemacht, aber durch den Sucher dabei geschaut: NIE, dasselbe gilt auch für die SLT-A65, mit der ich bei schönem Wetter fotografieren werde.
Und ich kann dir sagen, das ist mein Anwendungsfall, und das reicht mir und meinen Abnehmern.

Ich Zitiere dich nochmals:
""
Von dem abgesehen ist ein JPG mit geringer Kompression, wie in der A77 ff verwendet praktisch verlustfrei
""
Dem kann ich nicht zustimmen.
Die JPGs-out-of-Cams sind alles, nur nicht verlustfrei.

Wo, auf welcher Ebene (Pixelebene, Bayer oder nativ-RGB), was, und vor allem in welchem Umfag verloren geht, hängt vom Motiv und extrem davon ab, was wir als "Information" verstehen. Ich kann ein Getränk fotografieren, den Leuten sehen genau 1 Information auf dem Bild und sagen dann, toll das ist Multivitaminsaft, das reicht für die meisten. Wenn ich auf dem Bild jetzt aber auch das kleingedruckte auf der Verpackung lesen will (Zutaten, Nährwertangaben usw) dann sprechen wir plötzlich von x-Informationen auf ein und dem gleichen Bild. Die Frage ist, unter welchen Bedingungen (Entfernung zum Objekt) sind diese Informationen noch lesbar festhaltbar auf dem Sensor und ab welchem Punkt gehen diese Infos verloren. Genau an dieser Grenze könnte man jetzt ARW vs JPG-out-of-cam vergleichen, und ich behaupte während in den ARWs das kleingedrucke gerade noch so lesbar ist (lesbare Schrift auf kleinster Pixel-Ebene) ist die Information in der out-of-cam-jpg entweder nur schwer lesbar oder gänzlich verloren. Selbst mit dem 18-55 Kitobjektiv Holt man sich schon die ersten Informations-Verluste, die auch in einem ARW-File nicht mehr vorhanden sind. Hochauflösende Sensoren benötigen eben Hochauflösende Objektive.

Bei Blende F1.8 können von den nativen 6MP der SLT-A65 nur gefühlte 1,5MP angesprochen werden. Ich habe viele Bilder gemacht zu Silvester (Innenraumaufnahmen) und die Bilder von
F5.6 mit Blitz waren einfach super genial im Vergleich zu den Bildern F1.8 ohne Blitz.
Die Bilder mit F1.8 müssten eigentlich dann auf 1500x1000 verkleinert wieder jedes Pixel auf dem Bildschirm ansprechen können, aber das mache ich nicht. Bleibt alles wie es war, aber ich versuche künftig möglichst mit Blende F5.6 zu fotografieren (ggf mit Blitz, Externem Blitz [gegen die Decke] wenns sein muss).
Das muss aber nicht bedeuten, dass jetzt jeder mit F5.6 fotografieren soll.
Es soll Leute geben die sich angegriffen fühlen, wenn ich schreibe, dass man nur bei der kritischen Blende die maximale Auflösung erhält. Kann doch jeder fotografieren wie er will, das ist mir sowas von Wurst. Mein BEitrag soll niemand zu irgendwas zwingen, Mein Beitrag soll anderen helfen.

Tikal
12.05.2013, 23:02
Ich fotografiere grundsätzlich erst mal nur noch in RAW+JPEG. Hier habe ich mich schon mit RAW only oder auch JPEG only versucht und gesetzt, was ich gerade brauche. Bin doch wieder zu beiden zurück gekehrt. Es gibt eben verschiedene Gründe dafür.

Durch mein Projekt 365, jeden Tag Foto machen und hoch stellen, nützt mir JPEG sehr viel. Ich lade das fast fertige Foto noch schnell in die Bildbearbeitung und optimiere das und fertig. Wenn ich in RAW Konverter das Bild öffne, dann vergeht meistens etwas mehr Zeit. Manchmal ist das wegen dem Tonwertumfang notwendig und manchmal möchte ich experimentieren. Aber der Vorteil der JPEGs sind unübertrefflich. Ich stelle in der Kamera passend zur Situation bereits einige wichtige Parameter ein und kann auch Effekte fertig nutzen. Ich kann sogar überall und jederzeit die Bilder automatisch auf mein Tablet übertraten und dort alles damit machen, was ich möchte. JPEGs sind tolle Zeitersparnisse für mich.

Und obwohl RAW+JPEG (hier ist JPEG bei nur "Fine" an meiner A65) nutze und gelegentlich die Ergebnisse vergleiche, so kann ich keinen Unterschied feststellen, was auf die Kompression zurück zu führen ist. Die Qualität der JPEGs sind enorm gut. Ich arbeite nur mit freien Werkzeugen und besitze leider keine DxO oder ähnliche Werkzeuge (nutze ein Linux basiertes System). Daher hole ich wohl auch nicht das letzte Quentchen Qualität aus dem RAW heraus. Auch fehlen mir die ganzen Objektivkorrekturen.

Edit: Übrigens, ich starte auf der Srasse auch grundsätzlich bei Blende 5.6 und ändere sie bei Bedarf bis 4.0. Alle anderen Werte haben dann schon sehr starke Eigenschaften und werden dann bewusst gewählt.

Wenn es irgendwas wieder zu testen oder vergleichen gibt, würde ich gerne mal mit lesen oder sogar mit machen. Aber die angesprochenen Informationsverluste bei JPEG habe ich so noch nicht erlebt. Es ist klar, das die JPEG Kompression Verluste mit sich bringt. Aber diese sehe ich praktisch nicht. Faktisch mögen diese messbar vorhanden sein und einige sehen es tatsächlich.

Roland Hank
12.05.2013, 23:24
Kann doch jeder fotografieren wie er will, das ist mir sowas von Wurst. Mein BEitrag soll niemand zu irgendwas zwingen, Mein Beitrag soll anderen helfen.

Bei ersteren gebe ich dir Recht, was du machst ist mir völlig egal. Wenn du damit glücklich bist, einfach nur ein möglichst scharfes Bild zu haben, dann ist das halt so.

Dein Beitrag hilft aber niemanden weiter, der ernsthaft an Fotografie interessiert ist, ganz im Gegenteil. Hier gibt es viele Einsteiger, die gar nicht beurteilen können was das für ein Quatsch ist, deshalb schreibe ich hier eigentlich nur etwas.

Ich kann eigentlich nur immer den Tipp geben, schaut euch die Bilder derjenigen an die schlaue Ratschläge geben, dann sieht man in der Regel gleich wie viel Kompetenz dahinter steckt.

Gruß Roland

wanderer2022
12.05.2013, 23:43
Na ja, früher war ich darauf angewiesen das mein Labor gut gearbeitet hat, heute das es der jpg Konverter der Kamera tut. Zugegeben, RAW kann man machen, muss man aber nicht, was zählt ist was hinten raus kommt und das ist immer noch abhängig vom Betrachter und nicht vom Aufwand den man macht oder nicht macht. Da helfen auch keine technokratischen Feststellungen.

GBayer
13.05.2013, 01:27
Ich sehe das so:

Wer so eine komplexe Sache, wie die richtige Belichtung automatisiert, bewegt sich mit seinen Ansprüchen im Mittelfeld. Die Kameras sind darauf getrimmt, aus einer Unzahl Parametern ein Mittelwert herzustellen, mit dem die Masse ihrer Benutzer gut leben kann. Die letzten 5 Jahre haben gezeigt, daß auf diesem Gebiet von allen Herstellern deutliche Fortschritte gemacht wurden. Man kann sich heutzutage darauf verlassen, daß im Automatikmodus jede Kamera zu einem passablen Bild kommt, solange die Lichtbedingungen nicht dramatisch von Ideal abweichen. Das kann zu Frustration führen.

Wenn ich aber ein klares Bild im Kopf habe, das ich fotografisch umsetzen will, kann ich keiner Automatik vertrauen - insbesondere bei schwierigen Lichtverhältnissen, die von mir selber nicht behebbar sind.

Fazit: Ich benötige immer beide Formate zur Aufzeichnung - das eine mal mehr oder weniger als das andere. Oft genug reicht die JPG-Ausgabe von der Kamera und ich spare weiteren Aufwand. Hängt bei jedem einzelnen Bild davon ab, ob ich einen mittleren Erfahrungswert der Kamera benutze oder eben für jedes Bild den besten Wert extra einstelle.

Wer sich allein auf das RAW - Format stützt, muß schon viel Erfahrung haben, wie seine Bilder den realen Umständen entsprechend anzupassen sind. Mit Versuch und Irrtum braucht man nämlich eine Menge Geduld und - ausreichend Rückmeldungen von Betrachtern, bis eine zufriedenstellende Bildausgabe klappt. Auch wenn so eine Prozedur einen ganzen Tag pro Bild dauern kann ist es lohnend, wenn man mit dem Ergebnis tausende Kopien in unterschiedlichen Formaten erzeugt. (Weil ja schon das Einfügen eines Wasserzeichens in ein JPG-Bild beim wieder Speichern zu einer Qualitäteinbuße führt.)

Den "Goldenen Mittelweg" gibt es nicht für jeden, solange die speziellen Anforderung nicht definiert sind.

Servus
Gerhard

konzertpix.de
13.05.2013, 06:47
Zeeshan, es ist ziemlich vermessen, einen Spezialfall als Normalfall zu deklarieren und alles andere als suboptimal darzustellen.

Blende 5.6 mag das Optimum an Schärfe bei bestimmten Objektiven und Kameras darstellen. Aber um das Optimum auszureizen, dürfen sich deine Motive ausschließlich in dem gemeinhin als Schärfentiefe (oder Tiefenschärfe) bezeichneten Abstand befinden. Und der ist bei f/5.6 räumlich begrenzt, abhängig von der Brennweite.

Was aber ist, wenn mein Motiv sich nicht flach zwischen 2,5 und 3,5 m ausdehnt, sondern z.B. bis hin zum 600m entfernten Wald im Hintergrund? Den bekomme ich nur dann noch akzeptabel scharf, indem ich weiter abblende (und irgendwo dazwischen scharfstelle).

Oder was ist, wenn ich ein Motiv bewußt betonen will und dieses aus seiner Umgebung (die dann naturgemäß unscharf sein sollte!) herauslösen will? Dann muß ich bei Bedarf schon mal die Blende weiter öffnen.

So, und wie oft treten nun die drei Fälle auf, daß man sie als Normalzustand definieren könnte? Ist das übliche Motiv eher komplett auf wenigen zehn Zentimetern zusammen, oder erstreckt es sich eher über eine größere Distanz? Ist das gewollte Bild nicht doch eher eines, bei dem man das für einen selber bildwichtige Motiv hevorheben will, oder muß es immer flach und überall scharf sein?

Ich hab lange auf deiner Homepage gesucht, und bin immer wieder nur auf Screenshots gestoßen, die deine Ausführungen zu JPG und deren Qualität untermauern sollen. Synthetische Bilder, nicht welche aus der realen Welt. Solche Bilder lassen sich als GIF oder PNG praktisch verlustfrei und noch platzsparender komprimieren, weil JPG und dessen Komprimierung darauf abzielen, für das Auge ohnehin nicht wichtige Bereiche wegzulassen bzw. zu reduzieren.

Bei einem Screenshot mit seinen exakt definierten, harten vertikalen und horizontalen Bildkanten und seinen einfarbig definierten Bildelementen gibt es aber nichts, was sich das Auge wegdenkt, so daß jeder Kompressionsversuch fehlschlagen muß. Daher steht dein gesamtes Argumentationsgerüst auf sehr wackligen Beinen.

Nach länger Suche wurde ich dann doch noch fündig, du zeigst ein Bild eines Jahrmarktstandes. Das zeigt im Gegenzug, daß hier eine Kompression gute Ergebnisse leisten kann und daß Blende 5.6 hier ganz passend ist, um alles scharf zu bekommen, weil der Stand eine Mauer darstellt, auf der alles in etwa gleich weit weg ist. Würde man behaupten wollen, daß es ein gutes Bild sei, dann könnte man sich ziemlich ausschließlich nur auf die sehr gute Schärfe berufen. Bildgestalterisch ist es eher Standardkost.

Und Blende 5.6 hätte wahrscheinlich in diesem Fall auch die Kameraautomatik in P vorgeschlagen, das ist also kein großes Geheimnis.

Was du aber übersiehst, ist, daß man mit allen Blenden zu verschiedenen, aber immer vom bewußt fotografierenden Menschen erwünschten Bildergebnissen kommen kann. Und, daß nicht immer (um nicht zu sagen eher selten) alles knackscharf sein soll.

Kopernikus1966
14.05.2013, 14:28
... aber ich versuche künftig möglichst mit Blende F5.6 zu fotografieren (ggf mit Blitz, Externem Blitz [gegen die Decke] wenns sein muss).

Das muss aber nicht bedeuten, dass jetzt jeder mit F5.6 fotografieren soll.
Es soll Leute geben die sich angegriffen fühlen, wenn ich schreibe, dass man nur bei der kritischen Blende die maximale Auflösung erhält.


Und genau *das* ist sein großes Missverständnis. Fotografie ist nicht reine Informationsübermittlung, dann hätte er nämlich recht!

von seiner Homepage:

Regel Nr 3:
Je groesser die Sensor-Flaeche
==> desto staerker ist der Bokeh Effekt (sehr geringe Tiefenschaerfe) bei Offenblende. Was bringen mir 12 Megapixel, wenn nur 1 Megapixel scharf sind, und die restlichen 11 Megapixel unscharf ? Tolle 12 Megapixelkamera hat man da. Abhilfe: Staerker Abblenden, die Blendezahl(F) erhoehen, zum Beispiel auf 8 stellen.

Er vergisst die Feininger'sche Gewichtungsfunktion auf die Pixel anzuwenden!
:D

screwdriver
14.05.2013, 14:47
Ich sehe das so:
...Auch wenn so eine Prozedur einen ganzen Tag pro Bild dauern kann ist es lohnend, wenn man mit dem Ergebnis tausende Kopien in unterschiedlichen Formaten erzeugt. (Weil ja schon das Einfügen eines Wasserzeichens in ein JPG-Bild beim wieder Speichern zu einer Qualitäteinbuße führt.)



Für eine Bearbeitung in mehreren Stufen nehme ich zum Dateitransfer das verlustfreie PNG-Format.

Mein "Waserzeichenprogramm" (Watermark Image) unterstützt das ebenso wie mein bevorzugtes EBV-Programm (Paint.NET).

Allein das Endergebnis wird dann (meist fürs Internet) als JPG ausgegeben.

physicist
15.05.2013, 20:47
Hallo www_zeeshan_de, danke für deine Anregungen und deinen doch recht ausführlichen Beitrag :)


Zunächst einmal am Rande zu deinem Objektiv, du sagst das SAL1650F28 SSM Objektiv ist ein geniales Teil, hattest du schon mal ein Festbrennweiten-Objektiv (ubabhängig vom SAM oder SSM AF-Motor) ? Wusstest du eigentlich dass ausschließlich Festbrennweiten die maximale Qualität bieten
* (Auflösungsvermögen [Details] bei kritischer Blende [z B F5.6],
* satte Farben,
* weniger-fla-grau-im-Bild und somit maximaler Kontrast [ggf mit Gegenlichtblende]) ?
Natürlich muss ISO immer bei 100 bleiben. Dies ist ja ein Thread über maximale Qualität, deshalb meine Anmerkung.


Das eine Festbrennweite Lichtstärker und oftmals auch Hochauflösender ist als ein Zoomobjektiv war mir von vornherein bewusst, jedoch habe ich mich wohl aus "faulheit" für ein Zoom entschieden, dafür jedoch für ein etwas hochpreisigeres.
Faulheit deswegen weil ich, so wie ich mich einschätze, keine Lust habe ständig Objektive zu wechseln :D


Du fotografierst im RAW+JPG Modus, das ist aus meiner Sicht ABSOLUT sinnlos !! Schon mal was von zentraler Datenspeicherung gehöht ? Ist ein Begriff aus der IT/EDV-Welt. Da ich so einer aus dieser Ecke bin, achtet ich ein wenig darauf. Ich stelle dir 2 einfache Fragen:
Kann man aus den JPG-Dateien ARW-Dateien generieren ? Antwort: Nein.
Kann man aus den ARW-Dateien JPG-Dateien generieren ? Antwort: Ja.
Es genügt also nur im ARW (RAW) Modus zu fotografieren.


Ja, theoretisch gebe ich Dir recht, jedoch finde ich den Aufwand den Du betreibst recht hoch.
Mich würde mal ein Beispielbild interessieren. Einmal JPG out of cam, dasselbe Bild dann mit deiner RAW-TIFF-JPG Kette.

Die Stapelverarbeitung im Sony Programm ist mir ehrlich gesagt, so wie Du sie ausführst, zu aufwändig.
Wenn schon Stapelverarbeitung, dann vollautomatisch ohne viel rumgeklicke. Batch Datei ausführen und der rest soll von alleine passieren:lol:
Leider lässt sich das Sony-Tool nicht über Kommandozeilen-Befehle anwenden. Dann würde ich nämlich tatsächlich nur RAW fotografieren und die JPGs automatisch erzeugen lassen.
Wenn denn ein Qualitätsgewinn dadurch entsteht...



Generelle Kameraeinstellungen:
* Fotografiert wird nur im PASM-Modus damit man ARW-Dateien bekommt.
* Alle Kamera-Farbeinstellungen bleiben auf Standard !!
* ISO ist FEST auf 100 gesetzt und darf niemals verändert werden!!
* Größtenteils wird im A-Modus fotografiert, damit die Blende bei F5.6 bleibt (kritische Blende).
* Sofern Belichtungszeiten nicht größer als 1/10 Sekunde werden, kann auf den Kamera-internen-Blitz verzichtet werden.
* Metering Mehrfeld
* AF auf Spot-Zentral


- A-Modus wird von mir auch zu 90% genutzt
- Farbeinstellungen mag ichs gern mit "Standard +1,+1,+1"
- ISO fest auf 100 find ich übertrieben, zumindest zwischen ISO 100 und 200 ist mir noch kein nennenswerter Unterschied aufgefallen. 400 sehe ich jedoch auch schon als Grenzwert wobei ich aufgrund schlechter Lichtverhältnisse auch schon 800 benutzt habe.
- Wenn du nur bei Kritischer Blende Fotografierst möchte ich mir aber mal die Frage erlauben wozu du eine Lichtstarke Festbrennweite benötigst :D
- 1/10 Sekunde stillhalten kann man hinbekommen, wird aber schon schwierig (für mich zumindest). Leider hält das Motiv aber nicht immer still...


Erstes Bild anklicken, Shift gedrückt halten und PfeilRechts-Taste gedrückt halten bis alle Bilder markiert sind.

Funktioniert da nicht auch Strg-A ?


Ich hoffe ich konnte helfen und freue mich auf positives Feedback.
Auf jeden Fall mal interessant zu sehen wie andere Nutzer ihren "Workflow" gestalten, ganz abseits von Lightroom, DXO und Co.
Hast du Beispielbilder an denen man die Vorteile des Zwischenschrittes über TIFF Dateien erkennen kann?
Ich kann mir noch nicht so richtig vorstellen wodurch da ein Qualitätsgewinn entstehen soll, außer durch die Frei wählbare Kompressionsstufe von JPG.

www_zeeshan_de
16.05.2013, 00:35
Hallo www_zeeshan_de, danke für deine Anregungen und deinen doch recht ausführlichen Beitrag :)
...


Wow ! Ich habe mir viel Zeit genommen und mit viel Mühle und Aufwand den Beitrag geschrieben. Hat mich wirklich gefreut dass sich dafür auch mal jemand bedankt. Danke auch dir und alle anderen für die Antworten.

Zunächst einmal kann das, was ich beschrieben habe jeder mal selbst durchspielen (wenn jemand gewillt ist). Es ist immer leicht nach Testbildern zu schreien, aber schwer bei diesen Wetterbedingungen (im Regen) mit der Kamera raus zu gehen und ein paar (geeignete) Testbilder zu machen. Sobald sich die Option für mich ergibt, werde ich versuchen einen ähnlichen Bericht zu schreiben wie der bereits auf meiner Seite zu lesen ist (Bereich jpgquality). Gerne darf sich jeder daran beteiligen, und selbst ein paar Ergebniss präsentieren.

Ich habe in der Zwischenzeit eine wichtige Information im Vergleich zwischen SLT-A65 und SLT-A77 herausfinden können. Die
SLT-A65 hat nur
JPEG - Standard
JPEG - Fine
wogegen die SLT-A77
JPEG - Standard
JPEG - Fine
JPEG - Extra Fine
hat. Somit ist SLT-A77 besitzer ggf schwieriger, die Unterschiede festzustellen.

Desweiteren ist es auch wichtig einen geeigneten BS mit einer geeigneten Verbindung zu Grafikkarte zu haben (!!!!!!) um Unterschiede auf Pixelebene zu sehen bzw die Farbreduzierung auf ganze flächen festzustellen (Chromasubsampling ist das größte Problem). Mein TIP: Grafikkarte mit Digitalkabel and LED-Backlight glossy/glare Monitor oder glossy/glare TV. Bei TV muss man alle Bildverbesserer ausschalten um ein natives Bild zu bekommen. Bei meinem 42 Zoll LED glossy/glare Full HD Toshi ist ein PC Nativ Modus eingebaut, der so weit geht, dass sogar der Scaler deaktiviert ist (im 1280x720 Modus hab ich ein kleines Bild mit schwarzer Umrahmung). Glossy/Glare deshalb, weil man dort den besseren Schwarzwert, kräftigere Farben und im Gesamtergebnis einen höheren Kontrast hat. Die Desktopauflösung sollte immer dem des Monitors nativer Auflösung entsprechen, sonst hat man wegen Scaler zusätzlich vermurkstes Bild (dumpfe Farben, geringerer Kontrast).

So und jetzt beatworte ich ein paar Punkte von physicist:
* SAL1650F28 SSM: Woher willst du denn wissen dass du ständig Objektive auswechseln musst/wirst ???? Ein Mann, eine Kamera, ein Objektiv.
* Stapelverarbeitung: Wie gesagt, das war die Methode mit dem geringsten menschlichen Aufwand und OHNE dritthersteller Software. Sony IDC per Batch verarbeiten lassen, das wär ein Traum. Aber ich hab das Sony IDC nicht programmiert, sonst wär das längst drin.
* "Wenn denn ein Qualitätsgewinn dadurch entsteht..." . Ein bisschen schwammig formuliert von dir. Eher sollte man sagen, dass über den von mir beschriebenen Weg der Qualitätsverlust minimiert wird. Die ooc-jpg haben einen hohen Qualitätsverlust. Wenn man einstellen könnte dass die ooc-jpg mit echter maximaler Qualität gespeichert werden, dann benötige ich kein ARW mehr, und auch der lästige Workflow am PC wäre überflüssig. Aber Sony (und alle anderen Hersteller auch) sind gezwungen, den Kunden "128 Kbits/s MP3 Stereo" als "genauso gut wie CD-Qualität" zu verkaufen, denn der Kunde freut sich, dass er Tausend Bilder auf seiner Karte speichern kann, und nicht nur 200. Bei nur 200 würde der Kunde zur Konkurrenz wandern.
* "Farbeinstellungen mag ichs gern mit "Standard +1,+1,+1". Hängt von deinem Monitor/BS ab. Wenn du glossy/glare hättest, würdest rel schnell erkennen dass du damit Farbclipping riskierst. Der Dynamikumfang der Farben geht damit ein wenig verloren. Der Aliasingfilter versucht das Scharfe Bild zu glätten um Aliasing-Effekte zu minimieren, mit Schärfe +1 holst du das wieder rein. Wegen dem besseren Kontrast auf einem glossy/glare BS könntest du den Kontrast +1 wieder auf 0 setzen.
* wegen ISO: Auf meine Seite unter fotografie findest du ein paar Anmerkungen. Deine A37 steht in der Pixeldichte-Tabelle weiter oben als meine A65. Klar hat ISO 200 bei dir weniger Auswirkung als bei meine A65.
* Lichtstarke Festbrennweite: Ich habe das Objektiv nicht deshalb gekauft damit ich PRIMÄR im dunkeln Fotografieren kann, nein, bei allen A65/A77 reviews steht explizit immer dabei dass die 24MP des Sensors ein hochauflösendes Objektiv erfordern um angesprochen zu werden. Da ich kein Millionär bin, habe ich mich für das günstige 35mm F1.8 entschieden (siehe Review auf Kurtmunger). Kurt ist cool, und Kurt hat Recht, es ist ein Hammerobjektiv zum Schnäppchenpreis. Gerne hätte ich auch das SAL-20F28 (525 €) und das SAL-300F28G (6100 € und mehr). Aber immer schön auf dem Boden bleiben, ich hab ja wenigstens das 30mm Macro ;).
* "Funktioniert da nicht auch Strg-A ?" Hast du es mal selbst ausprobiert ? Damals ging es nicht. Geht es inzwischen ?

Wenn jemand Zeit hat: Mal mit verschiedenen JPG-Einstellungen(Glättungsfaktor,DCT-Methode,Farbsubsampling usw) im XNView aus einer TIF/BMP-Datei(die noch nie als JPG gespeichert wurde) JPGs generieren, und auf die Dateigröße (in Bytes) achten. Bei welcher Einstellung erhält man eine jpg-Datei mit maximaler Größe ?

mrieglhofer
16.05.2013, 09:43
Klar führen unterschiedliche Kompressionsfaktoren zu unterschiedlicher Dateigröße. Und die Dateigröße gibt auch bei gleichem Ausgangsbild einen guten Hinweis auf die darin noch enthaltenen Details. Das ist ja unbestritten.

Nur ist der Unterschied bei vernünftigen Ausgabegrößen nicht sichtbar bzw. geht in den anderen Bildfehler unter. Das Problem bei 24 MPix ist die eigene schluddrige Arbeitsweise (Freihand), mangelnde Objektivqualität und mangelhafter Autofokus. Dieser trifft ja gerade mal bei vielleicht 50% den schärfsten Punkt. Der Rest ist akzeptabel scharf oder überhaupt daneben.

Die Konzentration auf den Vermeidung des kleinsten Fehlers bringt daher im Ergebnis nichts, wenn nicht alle anderen Komponenten optimiert werden. Heißt, Stativ, Fernauslöser, manuelles Scharfstellen mit Sucherlupe, erstklassige Objektive in optimaler Blende. Dann kann auch die JPG Kompression ein Problem sein. Nur wer tut sich das an ?

dey
16.05.2013, 10:12
Irgendwie finde ich dich, deine Thesen und die Darstellung davon seltsam.
Wow ! Ich habe mir viel Zeit genommen und mit viel Mühle und Aufwand den Beitrag geschrieben. Hat mich wirklich gefreut dass sich dafür auch mal jemand bedankt. Danke auch dir und alle anderen für die Antworten.
Du stellst als Neuling wilde Behautptungen in der Form eines Weisheitsgralshüter auf und alle sollen Jubeln.

Es ist immer leicht nach Testbildern zu schreien, aber schwer bei diesen Wetterbedingungen (im Regen) mit der Kamera raus zu gehen und ein paar (geeignete) Testbilder zu machen.
Du behauptest es getestet zu haben. Dann müssen sowohl die Testbilder als auch die Ergebnisse für das wahre Fotografenleben da sein.

Desweiteren ist es auch wichtig einen geeigneten BS mit einer geeigneten Verbindung zu Grafikkarte zu haben (!!!!!!) um Unterschiede auf Pixelebene zu sehen bzw die Farbreduzierung auf ganze flächen festzustellen (Chromasubsampling ist das größte Problem). Mein TIP: Grafikkarte mit Digitalkabel and LED-Backlight glossy/glare Monitor oder glossy/glare TV. Bei TV muss man alle Bildverbesserer ausschalten um ein natives Bild zu bekommen. Bei meinem 42 Zoll LED glossy/glare Full HD Toshi ist ein PC Nativ Modus eingebaut, der so weit geht, dass sogar der Scaler deaktiviert ist (im 1280x720 Modus hab ich ein kleines Bild mit schwarzer Umrahmung). Glossy/Glare deshalb, weil man dort den besseren Schwarzwert, kräftigere Farben und im Gesamtergebnis einen höheren Kontrast hat. Die Desktopauflösung sollte immer dem des Monitors nativer Auflösung entsprechen, sonst hat man wegen Scaler zusätzlich vermurkstes Bild (dumpfe Farben, geringerer Kontrast).
Das mag schon sein. Doch wozu ist es gut? Du hast das perfekte Bild und wie zeigst du es? Eine 2-Meter-Ausbelichtung in einem 4m²-Raum, damit man es auch ja merkt? "Bitte alle einzeln eintreten!"

So und jetzt beatworte ich ein paar Punkte von physicist:
Es mangelt dir weder an Großzügigkeit :top: noch an Selbstvertrauen :top::top:
* SAL1650F28 SSM: Woher willst du denn wissen dass du ständig Objektive auswechseln musst/wirst ???? Ein Mann, eine Kamera, ein Objektiv.
"Ein Wort" hattest du vergessen
* Stapelverarbeitung: Wie gesagt, das war die Methode mit dem geringsten menschlichen Aufwand und OHNE dritthersteller Software. Sony IDC per Batch verarbeiten lassen, das wär ein Traum. Aber ich hab das Sony IDC nicht programmiert, sonst wär das längst drin.
Das ist gar nicht nötig. IDC hat eine eigene Batchverarbeitung. Um ein JPG äquivalent dem JPG-Ausgabe hinzu bekommen reichen ein bis drei std-profiles.
Eine Vorsortierung in Verzeichnisse a'la Iso100, Iso400, Iso1600 wäre notwendig, da IDC keine Exif-sortierung kennt.
Da aber laut deiner Aussage Aufnahme-Parameter und Ausgabe immer gleich sind ist das an sich nicht nötig.
* "Wenn denn ein Qualitätsgewinn dadurch entsteht..." . Ein bisschen schwammig formuliert von dir. Eher sollte man sagen, dass über den von mir beschriebenen Weg der Qualitätsverlust minimiert wird. Die ooc-jpg haben einen hohen Qualitätsverlust. Wenn man einstellen könnte dass die ooc-jpg mit echter maximaler Qualität gespeichert werden, dann benötige ich kein ARW mehr, und auch der lästige Workflow am PC wäre überflüssig. Aber Sony (und alle anderen Hersteller auch) sind gezwungen, den Kunden "128 Kbits/s MP3 Stereo" als "genauso gut wie CD-Qualität" zu verkaufen, denn der Kunde freut sich, dass er Tausend Bilder auf seiner Karte speichern kann, und nicht nur 200. Bei nur 200 würde der Kunde zur Konkurrenz wandern.Ich frage mich tatsächlich, wie du mit
Bayer-Sensor, AA-Filter und Spiegelfolie leben kannst
* Lichtstarke Festbrennweite: Ich habe das Objektiv nicht deshalb gekauft damit ich PRIMÄR im dunkeln Fotografieren kann, nein, bei allen A65/A77 reviews steht explizit immer dabei dass die 24MP des Sensors ein hochauflösendes Objektiv erfordern um angesprochen zu werden. Da ich kein Millionär bin, habe ich mich für das günstige 35mm F1.8 entschieden (siehe Review auf Kurtmunger). Kurt ist cool, und Kurt hat Recht, es ist ein Hammerobjektiv zum Schnäppchenpreis. Gerne hätte ich auch das SAL-20F28 (525 €) und das SAL-300F28G (6100 € und mehr). Aber immer schön auf dem Boden bleiben, ich hab ja wenigstens das 30mm Macro ;).
Für die Nutzung im Alltag sind mittelprächtige Objektive absolut in der Lage gute Qualität aus den 24MP zu kitzeln

Wenn jemand Zeit hat: Mal mit verschiedenen JPG-Einstellungen(Glättungsfaktor,DCT-Methode,Farbsubsampling usw) im XNView aus einer TIF/BMP-Datei(die noch nie als JPG gespeichert wurde) JPGs generieren, und auf die Dateigröße (in Bytes) achten. Bei welcher Einstellung erhält man eine jpg-Datei mit maximaler Größe ?
Wozu? Ist Größe = Qualität?

bydey

aidualk
16.05.2013, 11:12
SAL1650F28 SSM: Woher willst du denn wissen dass du ständig Objektive auswechseln musst/wirst ???? Ein Mann, eine Kamera, ein Objektiv.


:lol: Klasse! :top:

physicist
16.05.2013, 18:57
So.. da ich ja RAW und JPG zusammen archiviere habe ich mir mal ein paar zufällige Bilder genommen und das ganze ausprobiert:


Wildschwein, SLT-a37, 1650F28, F/3.2, 1/400s, ISO400, 50mm, Handgehalten
Original JPG out of cam:
http://img5.fotos-hochladen.net/thumbnail/originaldsc021iegkvo5fbx_thumb.jpg (http://www.fotos-hochladen.net/view/originaldsc021iegkvo5fbx.jpg)
Direktlink: http://img5.fotos-hochladen.net/uploads/originaldsc021iegkvo5fbx.jpg

Konvertierung der RAW über TIFF nach JPG:
http://www.fotos-hochladen.net/thumbnail/rawtifjpgdsc7mubqnp5ir_thumb.jpg (http://www.fotos-hochladen.net/view/rawtifjpgdsc7mubqnp5ir.jpg)
Direktlink: http://www.fotos-hochladen.net/uploads/rawtifjpgdsc7mubqnp5ir.jpg

Hamburg, SLT-a37, 1650F28, F/7.1, 1/800s, ISO200, 24mm, Handgehalten
Original JPG out of cam:
http://www.fotos-hochladen.net/thumbnail/originaldsc012qtd03u82kl_thumb.jpg (http://www.fotos-hochladen.net/view/originaldsc012qtd03u82kl.jpg)
Direktlink: http://www.fotos-hochladen.net/uploads/originaldsc012qtd03u82kl.jpg

Konvertierung der RAW über TIFF nach JPG:
http://www.fotos-hochladen.net/thumbnail/rawtifjpgdsc10z3y4atbm_thumb.jpg (http://www.fotos-hochladen.net/view/rawtifjpgdsc10z3y4atbm.jpg)
Direktlink: http://www.fotos-hochladen.net/uploads/rawtifjpgdsc10z3y4atbm.jpg

Ich finde die JPGs ehrlich gesagt irgendwie besser... :?

Vor allem das Rauschen im Fell der Wildschweine finde ich bei der TIFF Variante sehr übel, die Kamerainterne Verarbeitung holt da echt einiges raus. :top:
Und das obwohl ich im IDC die Rauschminderung auf "Auto" gelassen habe!

Edit: Strg+A funktioniert wirklich nicht :D

Kopernikus1966
16.05.2013, 19:56
Vor allem das Rauschen im Fell der Wildschweine finde ich bei der TIFF Variante sehr übel, die Kamerainterne Verarbeitung holt da echt einiges raus. :top:
Und das obwohl ich im IDC die Rauschminderung auf "Auto" gelassen habe!

Welches Rauschen??? :shock: Die JPG Variante ist ordentlich geschärft, die TIFF nicht...

Man
16.05.2013, 20:50
...ich beurteile grundsätzlich ALLE Bilder NUR in der 100% Ansicht am BS. Und mit 100 % meine ich die native RGB-Auflösung (bei SLT-A65 die TIF-Bilder von 24 MP mit der Methode Pixelwiederholung[nächster Nachbar] auf 6 MP (exakt 3000x2000) verkleinert). Die 24MP Ansicht, von der du ggf schreibst, entspricht 400 % Ansicht weil diese Bayer-Interpoliert ist. Auf dem Bildschirm kann jeder Pixel jeden Farbwert annehmen, in der Bayer-Interpolierten Ansicht hätte ein Pixel auf dem BS eigentlich entweder die Farbe R,G,G oder B [Gruppe aus 4 Pixeln], dass es dennoch nicht so ist, liegt daran dass bereits in der Kamera für jedes Pixel die Farwerte des benachbarten Pixels hinzugerechnet(interpoliert) wurden. Durch Interpolation steigt das Auflösungsvermögen ganzbestimmt nicht, was aber sicherlich steigt ist der Speicherbedarf. Ca 24 MB ist so eine ARW-Datei mit 24MP, könnte aber auch ca 6 bis 10 MB sein (siehe sRAW von diversen Canons, das ist wirklich sinnvoll, aber Canon hat keine SLT-Technik)....

Wenn es so wäre (weis ich nicht), liegt ein Verbesserungsvorschlag zur Steigerung der Auflösung auf das 4-fache (echte 24 MP im Beispiel) ja schon mal auf der Hand.
Statt immer ein 4-er-Quadrat zu einem Pixel zusammenzurechnen und dann zum nächsten 4-er-Quadrat zu wandern, versetzt man das zu berechnende 4-er-Quadrat nur um 1 (statt 2) Pixel. Damit hat man immer wieder (bei einem Bayer-Pattern) ein Quadrat mit 2xgrün +1xrot + 1xblau, aber die Auflösung steigt auf 24 MP.
Natürlich ist die Farbinformation je Pixel damit immer noch (aus 4 Pixeln) interpoliert - die Auflösung steigt aber auf die angegebenen 24 MP, sofern um die 24MP noch ein "Pixelrand" von 1 Pixel "angebaut" wird.
Ich denke aber nicht, dass ich damit jetzt zum Patentamt latschen müsste, da ich (ganz sicher) nicht der Erste bin, dem das auf- oder einfällt.
In der Werbung zum Foveon-Sensor gab es mal die (Milchmädchen-)Rechnung, dass ein Foveon-Pixel so gut wie 3 Bayer-Pattern-Pixel wäre, da beim Foveon-Sensor die Farbinterpolation aus 3 übereinender liegenden "Quellpixeln" so gut wie die aus 4 nebeneinander liegenden "Quellpixeln" beim Bayer-Pattern sein soll. Ein 5 MP Foveon hätte deshalb "gefühlte" 15 MP Auflösung.
Ich vermute, dass die Farbdiffernzierung eines 5 MP Foveon tatsächlich besser (klarer) ist, als die eines 5 MP Bayer-Pattern (dort haben ja die Nachbarpixel aufgrund der Interpolation immer einen gewissen Einfluss auf die Farbe). aber an der Auflösung ändert das nichts.

...Die ooc-jpg haben einen hohen Qualitätsverlust. Wenn man einstellen könnte dass die ooc-jpg mit echter maximaler Qualität gespeichert werden, dann benötige ich kein ARW mehr, und auch der lästige Workflow am PC wäre überflüssig...

Für die Nachbearbeitung hätte ich die ARWs schon sehr gern.
JPG hat 8 Bit , die ARWs haben (je nach Hersteller und Modell) 12 bis 14 Bit. Im JPG sind also einige Informationen nicht mehr vorhanden, die im ARW abrufbar sind. Das kann sich z. B. in häßlichen Farbabrissen bei (zugegeben dann auch heftig) nachbearbeiteten Bildern bemerkbar machen. Auch die Einstellung einer anderen Farbtemperatur ist zwar z. B. in Photoshop mittlerweile auch bei JPG-Bildern machbar (wenn auch nicht in Grad Kelvin sndern nur in Prozent Veränderung, da die Ursprungsinformation im JPG nicht mehr dazu vorhanden ist), allerdings bringt diese (zumindest theoretisch) schlechtere Ergebnisse.
Ob man das an einem Bildschirm sehen könnte, ist dann aber schon wieder etwas fraglich, da (zumindest mein) Bildschirm kaum in der Lage sein wird, mehr als 8 Bit je Farbkanal (das sind dann immerhin mehr als 16 Millionen verschiedene Farben) darstellen zu können.
Wenn er es könnte, könnte ich es nicht sehen (ich glaube jedenfalls nicht, das ich so viele Farben eindeutig auseinanderhalten könnte).

vlG

Manfred

physicist
16.05.2013, 21:07
Welches Rauschen??? :shock: Die JPG Variante ist ordentlich geschärft, die TIFF nicht...

Vielleicht ist rauschen der falsche Ausdruck.
Das Vordere Wildschwein, sein rechtes Vorderbein. Überall dort wo etwas hellere Haare sind sehe ich ein starkes buntes "rauschen". Hauptsächlich rot und grün.
oder sind das CA's ?

daso
16.05.2013, 21:28
RAW Vs JPG:
http://www.youtube.com/watch?v=NCZhc5kqEZg

Viel Spaß ;)

Knipseknirps
16.05.2013, 21:43
Vielleicht ist rauschen der falsche Ausdruck.
Das Vordere Wildschwein, sein rechtes Vorderbein. Überall dort wo etwas hellere Haare sind sehe ich ein starkes buntes "rauschen". Hauptsächlich rot und grün.
oder sind das CA's ?

Nein, das sind keine CAs, das ist schon Farbrauschen.

Dennoch verstehe ich irgendwie die Problematik nicht. Du kannst doch den Regler im Raw-Konverter statt auf Auto eben stärker einstellen - und beim Reduzieren des Farbrauschens verlierst Du nicht mal unbedingt zuviel Details!

Zugegeben, mir wäre das zu umständlich. Ich jage meine raws stets automnatisch durch DxO (soll jetzt bitte keine Werbung sein) mit dem entsprechenden personalisierten Profil und bin mehr als zufrieden. Soll heißen: mittlerweile definitiv bessere Ergebnisse als bei den jpegs ooc.

physicist
16.05.2013, 22:06
Es ging ja nicht um ein generelles Problem, sondern eher darum www_zeeshan_de's vorgeschlagene Verarbeitung der RAWs mit den ooc JPGs zu vergleichen.

Mein bisheriges Fazit:
Wenn ich keine Lust habe jedes Bild einzeln zu bearbeiten dann fahre ich mit den ooc JPGs um einiges besser. Denn ein unbearbeitetes RAW welches nach TIFF oder JPG konvertiert wird, ist in meinen Augen einer Out-of-Cam JPG total unterlegen.


DxO habe ich auch getestet, aber die Automatik in dem Programm ist mir etwas zuviel des guten. Die Bilder sehen für mich total über-bearbeitet aus.

Ganz wie auf der DxO Homepage.
Die dort gezeigten vorher-nachher Bilder sind in meinen Augen viel zu heftig bearbeitet.
Klar kann so eine übertriebene Bearbeitung auch Stilmittel sein, im großen und ganzen bevorzuge ich aber natürlich aussehende Bilder.

Kopernikus1966
17.05.2013, 05:04
Mein bisheriges Fazit:
Wenn ich keine Lust habe jedes Bild einzeln zu bearbeiten dann fahre ich mit den ooc JPGs um einiges besser. Denn ein unbearbeitetes RAW welches nach TIFF oder JPG konvertiert wird, ist in meinen Augen einer Out-of-Cam JPG total unterlegen.

Volle Zustimmung.
Hast du dir überlegt, woher der Begriff "RAW" kommt? :)

dey
17.05.2013, 09:52
Mein bisheriges Fazit:
Wenn ich keine Lust habe jedes Bild einzeln zu bearbeiten dann fahre ich mit den ooc JPGs um einiges besser. Denn ein unbearbeitetes RAW welches nach TIFF oder JPG konvertiert wird, ist in meinen Augen einer Out-of-Cam JPG total unterlegen.


So funktioniert das nicht.
Das Standardprofil des IDC ist zu flau.
Wie ich schon vorher geschrieben habe braucht man 3 Standardprofile für eine Batchkonvertierung

- für Iso 100: NR off
- für Iso 400: NR auto und das ist 8/10 Fällen gleich gut, wie JPG OOC
- für Iso 160: NR manuell ein guter Anfang ist mit 20 80 40 gemacht

- Kontrast für alle auf 30
- DRO nach Wunsch: ich habe festgestellt, dass DRO auto eine Verbesserung für den Standardprocess ist, da unterbelichtete Matrixmessungen auf dem zu dunklen Objekt etwas aufbessert. Bei Standardausgabe ist das zunehmende Rauschen nicht so wild.
Der Vorteil ist das, was ich bei allen anderen RAW Konvertern vermisse: eine leichte! automatische Korrektur der Belichtung, wenn das Objekt zu dunkel ist.
Bei Iso1600 kann/s sollte man DRO off verwenden, weil sonst der ISO in den dunlen Partien unnötig nach oben gezogen wird

- Schärfe für ISO 100-800: 30 -10 -10 30. Das bewirkt, dass das Rauschen nicht so mitgeschärft wird
- Schärfe bei Iso 1600: 50 -20 -20 40. Hier noch mal etwas ,mehr die Flächen geschont

!Achtung! Wir rden von Standardausgabe, nicht eine möglichst perfekte RAW-Umwandlung.

Wenn ich es möglichst perfekt haben will nehme ich Photo Director 3. Hier hat man natürlich noch viele weitere Einstellmöglichkeiten, die dem IDC fehlen. Über 50% der Bilder kann ich im PD3 gegenüber IDC nicht mehr wirklich verbessern. Vor allem die, die möglichst natürlich bleiben sollen.

JPG-OOC geht bei ca. iso 800 in die Knie, weil NR zu viele Details gebügelt werden und hilft dann fürs croppen nur noch RAW.

Ach, das hatte ich ja schon alles geschrieben.

bydey

[edit]
Noch ein kleiner Nachschlag:
6/idc-iso400-belichtung.jpg
-> Bild in der Galerie (http://www.sonyuserforum.de/galerie/details.php?image_id=161620)
6/idc-iso400-detail.JPG
-> Bild in der Galerie (http://www.sonyuserforum.de/galerie/details.php?image_id=161617)
6/idc-iso6400-belichtung.jpg
-> Bild in der Galerie (http://www.sonyuserforum.de/galerie/details.php?image_id=161619)
6/idc-iso6400-detail.JPG
-> Bild in der Galerie (http://www.sonyuserforum.de/galerie/details.php?image_id=161618)
Die Einstellungen für Schärfe und Rauschen sind hier noch anders gewählt; man muss ja erst mal lernen.

physicist
17.05.2013, 17:49
Ist das linke immer die ooc-JPG ?

So funktioniert das nicht.

Nunja, aber wenn ich anfange mir 3 Profile zu erstellen muss ich die RAWs zuerst noch nach ISO sortieren....
Danach geht das rumgeklicke in IDC wieder los und im Endeffekt habe ich dann manuell Dinge sortiert ohne einen wirklichen Nutzen der RAWs zu haben weil es ja doch nur eine manuelle Stapelverarbeitung ist. :?

Insofern ist die von dir Zitierte Aussage von mir doch eigentlich genau richtig.
Denn ich habe keine Lust jedes Bild zu bearbeiten, dafür ist JPG ooc dann optimal.

Es sei denn es existiert ein Programm welches mir aus den RAW-Dateien wunderbare JPGs zaubert die sogar noch besser aussehen als die ooc JPGs.
Dieses Programm gibt es aber leider nicht da selbst große Firmen wie Adobe nicht dazu in der Lage sind Kameraspezifische EXIF-Daten auszulesen und aufs Bild anzuwenden, so wie die Kamera es tun würde.
Traurig eigentlich.

Bisher gefiel mir die ooc JPG immer noch besser als jede automatische "optimierung", egal in welchem RAW-Entwickler.

Selber die RAW schön zu bekommen ist mir auch noch nicht gelungen, mit den Reglern in den Entwicklungstools bin ich immer überfordert.
Höhen/Mitten/Tiefen, Kontrast, etc., darunter kann ich mir ja was vorstellen.
Aber wenn da schon allein 3 Regler für die Rauschreduzierung auftauchen deren genaue Funktionen bzw. Auswirkungen mir unbekannt sind, geht es über in "rumprobieren". Damit komme ich aber nie ans Ziel.
Wenn ich mein Ergebnis dann wieder mit der ooc JPG vergleiche landet die Bearbeitung meist im Müll und ich ärgere mich über die vergeudete Zeit :D

Klar, das liegt an mir selber und ich denke es gibt bestimmt Leute die das evtl. hinbekommen.

Ideal wäre in meinen Augen ein Programm welches die RAW-Datei läd und alle Veränderungen automatisch so anwendet wie die Kamera es bei der Berechnung der JPG macht.
Somit hab ich dann ein RAW mit dem Look der ooc JPG und kann von diesem optischen Look aus starten Veränderungen vorzunehmen, oder die Änderungen rückgängig zu machen.

Darauf kann ich aber wohl noch lange warten :D

Neonsquare
17.05.2013, 18:56
Der Umweg über TIF ist in jedem Fall quatsch - was soll das bringen. Jeder ordentliche RAW-Konverter arbeitet intern nicht mit 16 Bit Ganzzahlen sondern z. B. mit 32 Bit Gleitkomma-Berechnungen. Argumente die sich darum drehen dass RAW ja 12/14 Bit hätte und JPEG ja 8 Bit oder TIF/PSD in 16 Bit vorliegen vergleicht Äpfel mit Birnen.

Die 12/14 Bit Auflösung der Tonwerte im RAW sind linear und noch vor der Bayer-Interpolation. Das hat erstmal überhaupt nichts mit der Auflösung der Farbkanäle in der Bildbearbeitung zu tun. Nach der Interpolation liegen die Farbraumdaten üblicherweise in einem Arbeitsbereich aus linearen 32 Bit Gleitkommawerten vor. Sämtliche Bearbeitungsalgorithmen arbeiten damit. Speichert man das Resultat in ein 16-Bit PSD, 16 Bit TIF oder 8 Bit JPEG, dann findet eine Abbildung aus 32-Bit Gleitkomma in die jeweiligen Ganzzahlbereiche statt (inkl. Delinearisierung!). Dabei entstehen im Prinzip Rundungsverluste. Wäre der Tonwertumfang des Bildes zu diesem Zeitpunkt (trotz Delinearisierung!) noch größer als durch die ganzzahligen Bereiche abgedeckt wird, dann gibt es Clipping und/oder Banding. 16 Bit/Kanal sind aber dafür normalerweise ausreichend und selbst 8 Bit/Kanal reichen in vielen Fällen aus. Größere Arbeiten in einem Arbeitsbereich mit 8 Bit/Kanal sind nicht empfehlenswert; jede kontrastmindernde Operation auf einen sauberen Verlauf im Bild wird zwangshalber zu Banding führen. Man kann natürlich künstlich Rauschen einbringen um hässliche Effekte zu mindern.

Aber! Wenn es um Fotobearbeitung geht muss man sich heutzutage kaum noch einen Kopf machen. Wie gesagt - Programme wie Lightroom oder Aperture arbeiten mit RAWs intern in Gleitkommazahlen und vermindern so Gefahren von Rundungsverluste, Clipping, Banding u.ä.. Mittlerweile gehen sogar immer mehr lokale Operationen (Masken, "Anpassungen aufpinseln" usw.). Wenn es um die direkte Verwendungsmöglichkeit (ohne Reglerdrehen) geht - mit Aperture ist das für mich absolut gegeben. Wenn ich ein Foto so sorgfältig vorbereite, dass auch das Kamera-JPEG fertig wäre, dann ist es auch das nach Standardeinstellung entwickelte RAW in Aperture. D.h. in weit mehr als 99% der Fälle bräuchte ich kein Reglerdrehen. So wie z. B. hier:

https://dl.dropboxusercontent.com/u/901469/beispiele/2013-05-17_19-01-13_002.jpg

Das ist das Endresultat aus dem ARW so wie es Aperture ohne jegliches zutun anzeigt.

Was heißt das im Resultat? Wer nur zum Spaß fotografiert und damit Leben kann, dass hin und wieder tolle Motive im Nachhinein technisch suboptimal abgebildet werden (vulgo: "unrettbar verloren"), der kann getrost an der Kamera JPEG einstellen. Für alles andere ist RAW Pflicht (Punkt). Mir ist bewusst, dass es durchaus erfahrene Fotografen gibt, die das anders sehen und JPEG schießen. Das kann im Einzelfall funktionieren - allerdings auch absolut nur für fotografische Werke, die direkt so wie sie aus der Kamera kommen verwendet werden (müssen). Trotzdem empfinde ich diese Vorgehensweise als "fotografische Freikletterei".

mrieglhofer
17.05.2013, 18:56
so ein Programm gibst ja. Das ist ja der einzige Vorteil des IDC, der erkennt ja die Einstellungen. Also eigentlich gibst das schon ;-)
Aber sonst ist das Ding halt suboptimal.

Roland Hank
19.05.2013, 01:12
Ich halte nichts von einer automatischen Batch Konvertierung von RAW Dateien. Wie man am Beispiel von Neonsquare sieht ist das ziemlich suboptimal, mit etwas schubsen an ein paar Reglern ist da viel mehr herauszuholen.

Genau so wenig verstehe ich warum man die ganze Ausbeute unbedingt nach JPEG konvertieren muß. Ich entwickle nur Bilder, die ich wirklich veröffentliche und dann für jeden Verwendungszweck ein eigenes JPEG (Auflösung für WEB, Bildschirm oder Beamerpräsentation oder Print mit entsprechend höherer Schärfung).

Andererseits behaupte ich mal das die wenigsten JPEG Fotografen jede einzelne Aufnahme vorher an das Motiv anpassen. Die Regel ist wohl eher eine Standardeinstellung, das kann jeder beliebige RAW Konverter auch. Aber wie schon gesagt, damit verschenkt man eigentlich die Möglichkeiten von RAW.

Ich kann von mir behaupten das ich aus jedem RAW mehr heraus geholt habe wie das JPEG out of Cam.

Gruß Roland

meshua
19.05.2013, 01:30
Ich persönlich betrachte die RAW-Datei einer DSLR analog zum Negativ einer SLR. Das JPEG würde bei mir dem Papierabzug entsprechen. Seit ein paar Monaten bin ich von RAW+JPEG auf RAW umgestiegen. Diese Entscheidung fügt sich am Besten mit meinen Bildentwicklungsprozess ein. Erst wenn das Ausgabemedium bekannt ist werden JPEGS (Abzüge) in s/w oder Farbe, in 13x18 oder 70x100, für das Fotoalbum oder die Galleriewand erzeugt. Auf die digitalen Negative verzichten möchte ich sicherlich nicht.

meshua

Neonsquare
19.05.2013, 01:40
Wie man am Beispiel von Neonsquare sieht ist das ziemlich suboptimal, mit etwas schubsen an ein paar Reglern ist da viel mehr herauszuholen.


Was meinst Du? Ich finde das eine recht solide Grundlage. Natürlich kann man mit individueller Bearbeitung mehr rausholen. Die Ecke links oben muss man wegstempeln wenn man es komplett so verwenden will. Je nach Zielauflösung ist auch kann man auch noch mal nach Fusseln fahnden. Ansonsten habe ich ausgehend von dem gezeigten Bild nur eine winzige (0,06 in der Skala von -1 bis 1) Nuance "Lebendigkeit" und eine geringfügige Kurvenanpassung zur leichten Aufhellung der Mittelwerte gemacht für die Verwendung. Wer mag, kann natürlich noch den weißen Bereich der Puppe per Glanzlicht-Regler reinziehen - aber mir hat es so besser gepasst, denn die Textur der Puppe ist bei der Größe der Produktbilder nicht mehr Sichtbar und das strahlende Weiß wirkt dann besser als ein stumpfes Grau. Am Ende ist das alles natürlich auch Geschmacksache. Ich finde aber nicht, dass das Bild ohne Bearbeitung so schlecht ist wie Du es darstellst.

Roland Hank
19.05.2013, 01:51
Bei deinem Beispiel, sind die Lichter schon am clippen und und wenn du die Tiefen noch etwas anhebst sieht das gleich viel besser aus.

Gruß Roland

Neonsquare
19.05.2013, 02:08
Bei deinem Beispiel, sind die Lichter schon am clippen und und wenn du die Tiefen noch etwas anhebst sieht das gleich viel besser aus.


Klar - das mit den geclippten Lichtern hatte ich oben noch im Edit genannt - bei der Zielgröße der eigentlichen Verwendung ist die Struktur der Puppe nicht mehr Sichtbar. Nehme ich die Lichter dort zurück, dann ist das Endresultat stumpf/grau. Ich habe hier strahlend Weiß dem stumpfen Grau vorgezogen; das ist aber finde ich Geschmacksache. Wenn das Zielformat hochauflösend ist, dann bearbeite ich grundsätzlich nochmal individuell.

Das Anheben der Tiefen hat in etwa denselben Effekt den ich mit meiner Kurvenanpassung gemacht habe. Ein bisschen mehr Blau kommt raus und es sieht knackiger und definitiv besser aus.

Aber ich habe ja nicht behauptet, dass man das Bild nicht mehr verbessern kann - ich finde allerdings schon, dass es auch in seiner "Rohform" vorzeigbar ist. Mir ging es darum, zu zeigen, dass man eben NICHT jedes einzelne Foto individuell bearbeiten muss. Wenn man natürlich den Anspruch hat, dass man aus jedem Bild das Beste herausholt, dann muss man individuell ran. Das ist gilt allerdings absolut genauso für JPEG out of Cam - mit dem schnöden Fakt, dass dann die Mittel eingeschränkt sind. Ich behaupte: Jemand der seine JPEGs aus der Kamera nicht mehr nachbearbeitet, der wird auch mit RAWs und einem geeigneten RAW-Konverter ähnliche Ergebnisse erreichen können. Hier liegt kein Nachteil von RAW gegenüber "JPEG out of Camera" vor. Das war mein Punkt - bist Du da anderer Meinung?

Roland Hank
19.05.2013, 02:12
Da stimme ich dir absolut zu.

Gruß Roland

Neonsquare
19.05.2013, 02:20
Gut :D
Letztendlich beantwortet sich für mich die Thread-Frage "Raw oder Jpg und die Nachbearbeitung, Aufwand vs. Nutzen" sehr einfach:

1) RAW? Welcher Aufwand?
2) "Unbearbeitetes" RAW ist nicht anders als JPEG Out of Cam
3) "Aufwand" ist individuelles Bearbeiten - sowohl bei RAW als auch bei JPEG
4) JPEG-Bearbeitung ist aufwändiger und frustrierender als RAW-Bearbeitung

Das einzige was RAW kostet ist mehr Speicherplatz und CPU-Zeit. Beides ist heutzutage für wenig Geld lösbar.

physicist
19.05.2013, 09:57
2) "Unbearbeitetes" RAW ist nicht anders als JPEG Out of Cam.

Vom Aufwand her ist es nicht anders. Das Ergebnis ist jedoch ein völlig anderes und die JPG meist näher an dem was man als Endergebnis erwartet :D

zippo
19.05.2013, 10:35
2) "Unbearbeitetes" RAW ist nicht anders als JPEG Out of Cam

Stimmt zumindest unter den folgenden Bedingungen nicht: Lightroom + A77
OOC-JPEG ist da deutlich besser als unbearbeitetes RAW.

Tikal
19.05.2013, 10:44
@Neonsquare
Ich möchte mal auf ein paar deiner Punkte eingehen, meine Meinung dazu äußern und Fragen stellen. Falls du nur von deinem persönlichem Workflow ausgehst, dann kann das hier falsch verstanden sein.

"Unbearbeitetes" RAW ist nicht anders als JPEG Out of Cam

Diese Aussage verstehe ich nicht. Das unbearbeitete RAW ist doch definitiv anders als die fertige JPEG aus der Kamera. Ich brauche dir ja wohl jetzt nicht erklären wieso das so ist. Ich meine, ich weiß ja das du genug Erfahrung und Wissen um dieses Thema hast. Wie also kommst du zu dieser Aussage??

Und was meinst du mit "unbearbeitet"? Ich meine damit, kein Schärfen, keine Basiskurve (ohne sie sieht alles so flau aus, kein RAW Programm kommt ohne das aus), kein Entrauschen und sonst nichts. Oder bezieht sich das auf deinen eigenen Workflow mit einem Standard Profil für alle Bilder?

"Aufwand" ist individuelles Bearbeiten - sowohl bei RAW als auch bei JPEG

Das stimmt. Aber die Kamera nimmt ja schon einiges an Arbeit ab, wenn man JPEG aus der Kamera nutzt. RAW bietet eben mehr Potential zu zerstören. Allerdings bietet JPEG weniger Potential das Bild zu verbessern. Oft ist es "bei mir" eben so, das ich die JPEG fast übernehmen kann und nur leicht Weißabgleich und Schärfe korrigieren möchte.

JPEG-Bearbeitung ist aufwändiger und frustrierender als RAW-Bearbeitung

Ich persönlich finde RAW Bearbeitung aufwändiger. Aber das JPEG frustrierend sein kann und man vieles nicht so machen kann, das stimmt ja sowieso. Hier habe ich regelmäßig Detailverluste in den Schatten und in stark belichtete Gegenden. Das nehme ich in Kauf, weil ich keine großen Ansprüche habe. Wenn es perfekt sein soll, nehme ich das RAW als Grundlage.

Das einzige was RAW kostet ist mehr Speicherplatz und CPU-Zeit. Beides ist heutzutage für wenig Geld lösbar.

Mit dieser Aussage kann ich mich nicht anfreunden. Die Verwendung von RAW ist eben eine weitere Zwischenstufe, anstatt man gleich JPEG nutzt. Es kommt auf den Verwendungszweck an. Manchmal ist es egal, was Zeit und Aufwand kostet. Manchmal eben nicht. Und spätestens wenn ich die JPEG unterwegs direkt gleich nutzen möchte, da kommt mir RAW in die Quere. Aber auch sonst, wenn es schnell gehen muss und ich das Bild des Tages online stellen möchte, habe ich keine Zeit mich mit RAW Entwicklung herum zu schlagen. Daher kann ich dieser Aussage oben nicht zustimmen.

fotogen
19.05.2013, 12:38
Stimmt zumindest unter den folgenden Bedingungen nicht: Lightroom + A77
OOC-JPEG ist da deutlich besser als unbearbeitetes RAW.

Mann, muss lightroom in der Standardeinstellung ungeeignet sein. Ich empfehle DXO auszuprobieren.

meshua
19.05.2013, 13:00
Mann, muss lightroom in der Standardeinstellung ungeeignet sein. Ich empfehle DXO auszuprobieren.

...doch meistens sitzt das Problem 30cm vor dem Bildschirm - egal ob ALR oder DXO. :cool:

Neonsquare
19.05.2013, 13:07
Stimmt zumindest unter den folgenden Bedingungen nicht: Lightroom + A77
OOC-JPEG ist da deutlich besser als unbearbeitetes RAW.

Ich benutze Aperture - nach meinen Erfahrungen und bezogen auf meinen Geschmack sind die kameraspezifischen Profile bei Aperture bereits sehr nah an dem was ich will. Kamera-JPEG ist bei der A77 auch wirklich nicht schlecht - ich finde es nicht besser. "Standard" ist für mich meistens nicht ausreichend. Wenn ich die Schärfe bei Kamera-JPEG auf Maximum stelle gibt es Halos und Artefakte. Dagegen bringen der Details und Schärferegler im RAW-Finetuning mehr Details ohne Halos und Artefakte. Die A77 verträgt bei Low-ISO einiges an RAW-Presharpening.

Ich bin recht überzeugt davon, dass man auch unter Lightroom mit einmaligem Aufwand ein Standardprofil erstellen kann, welches dem OOC-JPEG in nichts nachsteht. Es geht ja nicht darum, dass man mit "Werkeinstellung" arbeiten muss. Es geht auch nicht darum, dass der RAW-Konverter identische JPEGs erzeugt. Das fände ich eher Kontraproduktiv.

Roland Hank
19.05.2013, 14:40
Aber auch sonst, wenn es schnell gehen muss und ich das Bild des Tages online stellen möchte, habe ich keine Zeit mich mit RAW Entwicklung herum zu schlagen.

Du hast keine Zeit um ein einziges Bild zu entwickeln ?
Ist unserer Leben so schnelllebig geworden das man keine Minute mehr aufbringen kann um sich und sein Bild bestmöglichst zu präsentieren ?

Die Erkenntnis der Vorteile von RAW scheint sich immer erst im fortgeschrittenen Stadium durchzusetzen. Bei uns im Fotoclub gibt es viele, heute erfolgreiche Wettbewerbsfotografen, die sich schwarz darüber ärgern früher nur JPEG geknipst zu haben und sich damit vieler Möglichkeiten für erfolgreiche Bilder beraubt haben.

Gruß Roland

Neonsquare
19.05.2013, 15:32
Diese Aussage verstehe ich nicht. Das unbearbeitete RAW ist doch definitiv anders als die fertige JPEG aus der Kamera.


Stell Dir vor Du kommst völlig unvorbelastet zur Kamera und RAW-Konverter. Sowohl die Kamera als auch der RAW-Konverter haben eine Reihe von "Standardlooks". Alles entsteht auf die gleiche Weise (gleicher Prozess) - RAW-Daten werden parameterisiert auf ein JPEG übertragen. Die Kamera macht NICHTS anderes als der RAW-Konverter. Unterschiede ergeben sich lediglich aus unterschiedlichen Algorithmen und deren Parameter. Warum sollte ein Ergebnis "OOC" irgendwie grundsätzlich "besser" oder "schlechter" sein? Es gibt vom Prozess her keinen Unterschied - mit dem IDC ist es sogar noch der gleiche Algorithmus.


Und was meinst du mit "unbearbeitet"?


Das war recht flapsig ausgedrückt (deshalb die "). Ich meine das was ein moderner RAW-Konverter anzeigt, wenn man außer den Import noch keinen Regler angefasst hat.


Ich meine damit, kein Schärfen, keine Basiskurve (ohne sie sieht alles so flau aus, kein RAW Programm kommt ohne das aus), kein Entrauschen und sonst nichts. Oder bezieht sich das auf deinen eigenen Workflow mit einem Standard Profil für alle Bilder?


Mein Standardprofil ist tatsächlich das Standardprofil der A77 in Aperture. Bislang nutze ich keine Presets im RAW-Finetuning, obwohl ich hin und wieder über ein "High Detail"-Preset nachgedacht habe in dem die Details maximal betont werden. Aber es ist eh nur ein Regler. Es mag RAW-Konverter die selbst heutzutage noch flaue, ungeschärfte, unfertige Bilder für eine Photoshop-Weiterverarbeitung erzeugen - aber wer tut sich sowas an? Bei Aperture ist das Ziel des Standardprofils ein "fertiges " Bild zu erzeugen - im selben Sinn wie die Standardeinstellung der Kamera fertige Bilder erzeugt. Viele RAW-Konverter liefern noch eine Reihe von Presets - wie die Kameras auch; kein Unterschied. Und man kann eigene Presets erzeugen - wie mehr oder weniger begrenzt in Kameras auch.


Das stimmt. Aber die Kamera nimmt ja schon einiges an Arbeit ab, wenn man JPEG aus der Kamera nutzt. RAW bietet eben mehr Potential zu zerstören. Allerdings bietet JPEG weniger Potential das Bild zu verbessern. Oft ist es "bei mir" eben so, das ich die JPEG fast übernehmen kann und nur leicht Weißabgleich und Schärfe korrigieren möchte.


Mein RAW-Konverter nimmt mir auch jede Menge Arbeit ab - genau wie die Kamera. Viele RAW-Konverter (z.B. Aperture oder DxO) haben auch außerordentlich gut arbeitende Automatiken, welche bei vielen Motiven ein guter erster Schritt sein können. Wenn die RAWs bei Dir noch unfertig rauskommen, dann wäre es an der Zeit den Konverter oder dessen Standardprofil zu überdenken. Deswegen OOC-JPEG zu benutzen finde ich nicht empfehlenswert - insbesondere wenn Dinge wie Weißabgleich korrigiert werden wollen. Denn DAS ist bei RAW verlustfrei.


Ich persönlich finde RAW Bearbeitung aufwändiger.


Ich finde die Argumentation seltsam. RAW-Bearbeitung ist aufwändiger weil man mehr machen kann? Nicht meine Erfahrung. Im Gegenteil - wo ich ein RAW mit einem Zug am Glanzlichter-Regler retten kann, da müsste ich im JPEG in Photoshop Maskieren, Füllen, Weichzeichnen usw. um ein letztlich doch minderwertig gerettetes Bild zu kriegen. Wenn es nichts zu tun gibt bei einem Foto, dann gibt es nichts zu tun; egal ob RAW oder JPEG. Ich kann mir beim besten Willen nicht vorstellen, wieso RAW-Bearbeitung aufwändiger sein soll. Mir scheint Du stellst Bearbeitung der Nichtbearbeitung gegenüber und kommst zu dem Schluß das Bearbeiten aufwändiger als nicht bearbeiten ist. Das stimmt, hat aber mit RAW vs. JPEG nichts zu tun.


Es kommt auf den Verwendungszweck an. Manchmal ist es egal, was Zeit und Aufwand kostet. Manchmal eben nicht.


Löse Dich von dem Gedanken, dass RAW aufwändiger als JPEG ist. Ich habe weniger Aufwand schon alleine deshalb, weil ich nie darüber nachdenken muss ob dies nun ein JPEG-Motiv oder ein RAW-Motiv ist. Bei mir gibts einfach "Fotos".


Und spätestens wenn ich die JPEG unterwegs direkt gleich nutzen möchte, da kommt mir RAW in die Quere.


Nein - selbst Handys können heute RAW Konvertieren und wenn Du es weißt, schießt Du diese Bilder in RAW+JPEG und wirfst daheim das JPEG weg. Noch besser wäre Konvertierung in der Kamera - wie z.B. bei Canon. Die Kamera ist dann schlicht ein mobiler RAW-Konverter und man kann dasselbe Foto verschieden konvertieren.


Aber auch sonst, wenn es schnell gehen muss und ich das Bild des Tages online stellen möchte, habe ich keine Zeit mich mit RAW Entwicklung herum zu schlagen. Daher kann ich dieser Aussage oben nicht zustimmen.

:) Ich finde das wirklich verwunderlich und frage mich was Du zur Entwicklung von RAWs eigentlich machst. Schon die im RAW eingebetteten Vorschaubilder sind für die einfache Verwendung im Web sogar groß genug (1620x1080). Mit Aperture ist "RAW-Entwickeln" erstmal nicht viel mehr als die Speicherkarte zu importieren.

cicollus
21.05.2013, 10:35
Mein Vorgehensweise ist wie folgt:

Wegen der Vorselektierung nehme ich in beiden Formaten auf.
Ausgewählte Foto wandern in Rawatherapee.
- Technisch gut gelungenden Fotos werden verlustfrei optimiert.
- Nicht so gut belichtete Fotos werden bis zu 2..3 Blendenwerte nachbelichet und verbessert.

Wenn ich diese Bearbeitung im JPEG-Format machen würde, so sieht man schon am Histogramm das Bildinformationen eliminiert werden, zum Andern würden wohl einige Einstellungen gar nicht so wirksam sein.

Zusammenfassend finde ich folgende Bearbeitungsmöglichkeiten probierenswert:
-Korrektur Belichtung
-Schatten/Lichter
-Tonmapping
-Chromation,
-Dynamik mit geschützen Hautton

Dies ergibt schon fantastische Effekte, ohne das man mit der Histogrammkurve gespielt hat .... , sind nur wenige Klicks und ggf. bei gleicher Belichtungsreihe ist die auch auf mehrer Fotos anwendbar.

Gruß
Jörn

mrieglhofer
21.05.2013, 16:33
na ja, was ist gut und was ist schlecht?
Farbe ? Tonwertverlauf? Weißabgleich ?

Ich mein, bei Raw kannst einfach szenenweise ein Bach drüberlaufe. Lasse und hast bei allen Bilder sie gleiche Licht stimmung , auch wenn die Kamera davor meinte, mit der Lampe im Bild muss alles anders sein.

Sinnhafzt ist es, wenn man klar schreibt, was mit welchem Konverter schlechter ist.

dey
22.05.2013, 11:46
Hi,

die Ausgangsfrage ist unbeantwortet, wie allways.
Es gibt die zwei Lager. Die einen können aus RAW mit gutem Workflow mehr rausholen, als aus einem JPG. Dem anderen Lager gelingt dies nicht, weil
a) der Workflow zu aufwendig ist
b) es nicht mal gelingt einen guten Standard zu erreichen
c) die Ergebnisse im nachbearbeiteten JPG schon so gut sind, dass sich die Frage stellt, wozu sich durch den Zufallsgenerator RAW-Konverter quälen

Ich selbst kann mit JPG-OOC bei >90% meiner Aufnahmen fotografisch alles erreichen, was ich will. Dass die Tiefen absaufen und die Lichter unrettbar sind, ist sicherlich eine Frage des Geschickes im Umgang mit JPG-EBV und der ausgefallenen Motive.

Ich habe drei Jahre lang versucht irgend etwas mit RAW besser hinzubekomen, als mit JPG und es ist mir vielleicht <10x gelungen.

In der Zwischenzeit bin ich bei RAW angekommen. Dies liegt aber einzig daran, dass die Rauschminderung in der A65 zu aggressiv ist und mir bei JPG zu wenig von den 24MP übrig bleiben. Es gibt keine Einstellmöglichkeit, das Rauschen im JPG-OOC zu erhalten und danach die tolle Qualität von Neat Image zu benutzen.
Wenn mann nicht cropped und auch nicht die 100%-Ansicht für die Kontrolle nutzt kann man zusammen mit DRO, Multi-Shot-NR und HDR bereits im JPG tolle Bilder erzeugen.
Ich mache nur RAW, weil mir RAW+JPG zu viele Einschränkungen bringt; besonders die Geschwindigkeit leidet mir zu sehr.
Mit IDC habe ich eine (exakt 3) Standardumwandlung, die mir das JPG-OOC fast exakt und schnell (batch) zurückbringt. Dank 24 MP ist das Vorschauthumbnail schon 1,6MP gross und das reicht für sehr viele Anwendungen.
Wenn ich mehr brauche, nehme ich erst mal den IDC und schaue, ob mir das Ergebnis schon reicht. Wenn nicht kommt PhotoDirector zum Einsatz, weil es hier Pinsel und Masken und umfangreiche Zugriffe auf Farben gibt.

Das
1437/DSC02593-51-1k2.jpg
-> Bild in der Galerie (http://www.sonyuserforum.de/galerie/details.php?image_id=164114)
ist das einzige Bild, bei dem ich bis jetzt in PhotoDirector so viele Änderungen gemacht habe, dass ich glaube es mit JPG nicht zu schaffen.

Um von dem ewigen Stellungskrieg, den man nach 4 Jahren im SUF sehr gut einschätzen kann, wegzukommen, sollten wir mal weitere Herausforderungen a'la
"Wettbewerb" RAW vs. JPEG an einem Mondfoto (http://www.sonyuserforum.de/forum/showthread.php?t=119889) gönnen. Für mich steht es 1:0 für JPG.

Vielleicht gibt es ja noch andere Herausfroderungen aus anderen Bereichen an denen wir uns versuchen können. Bilder sagen mehr als Tuasend Worte. Besonders für die Pfadsucher am Anfang wäre es hilfreich einschätzen zu können von welchen unfassbar guten Ergebnissen aus RAW gesprochen wird mit Erkenntnisgewinn " Raw oder Jpg und die Nachbearbeitung, Aufwand vs. Nutzen?".

Wir war noch das Thema?

bydey

konzertpix.de
22.05.2013, 11:50
Ich hatte seinerzeit gleich mit RAW(+JPG) begonnen - gezwungenermaßen. Die KoMi D7D konnte nur dann in der Kamera ins Bild hinein vergrößern, wenn ein Huckepack-JPG abgespeichert wurde. Reine RAWs waren nur in der Vollanzeige anzuschauen, ein Vergrößern war nicht möglich. Damals hatte ich noch gedacht, daß ich später irgendwann einmal mit Hilfe von ausgereifter Software noch einige Tacken mehr Qualität aus meinen Bildern herausholen könne.

Das mag durchaus sogar sein, aber ganz ehrlich: nur ein einziges Konzertbild aus jener Ära ist so tief in mir hängen geblieben, daß ich es weiter optimierte. Kein anderes aus der D7D-Ära habe ich nochmals angefasst, obwohl die heutige Software deutlich mehr herausholen könnte.

Warum?

Weil ich schon mit der Nachfolgekamera der D7D, der A700, wesentlich bessere Bilder fotografierte, als ich selbst mit dem ausgefuchstesten aktuellen RAW-Konverter aus den Bildern der D7D heute herausholen würde. Und das pflanzt sich bis heute fort - die A900 toppte die A700 spürbar, die A77 war in anderer Hinsicht der A900 überlegen, und die D800 spielt in wieder einer ganz anderen Liga. Insofern verging mir sehr schnell schon beim Betrachten vergleichbarer neuerer Bilder die Lust am Herumschrauben an den alten Bildern, stattdessen griff ich viel lieber auf das neuere Material zurück. Das geht sogar so weit, daß ich teilweise einen neuerlichen Ausflug mache, um mit der neueren Ausrüstung dieselbe Stelle nochmals zu fotografieren...

Was natürlich nicht heißen soll, daß man auf RAW verzichten möge - ganz im Gegenteil! Die besten Möglichkeiten im Post Processing hat man nun mal mit RAW und die aktuellen RAW-Konverter helfen einem auch bestmöglich bei der Aufarbeitung der Datenmengen. Es soll nur eines heißen: daß das Argument, seine Bilder später mit besserer Software verbessern zu können, schnell verpufft, sobald man eine neue Kamerageneration sein Eigen nennt. Dann wird das schneller, als man sich versieht, zu einem Scheinargument.

Neonsquare
22.05.2013, 13:01
die Ausgangsfrage ist unbeantwortet, wie allways.


Hm - das sehe ich anders. Eine Antwort war schlicht. JPEG kein Nutzen gegenüber RAW. RAW kein Aufwand gegenüber JPEG. Allerdings gefällt die Antwort nicht jedem ;)


Um von dem ewigen Stellungskrieg, den man nach 4 Jahren im SUF sehr gut einschätzen kann, wegzukommen, sollten wir mal weitere Herausforderungen a'la
"Wettbewerb" RAW vs. JPEG an einem Mondfoto (http://www.sonyuserforum.de/forum/showthread.php?t=119889) gönnen. Für mich steht es 1:0 für JPG.


Ich frage mich warum es hier 1:0 stehen soll? Bloß weil Toni über den ganzen Thread hinweg nicht überzeugt ist? Bloß weil als Grundannahme der Strohmann "RAW-Fans sagen mit RAW erreicht man IMMER (!) BESSERE (!) Ergebnisse" aufgebaut wird und sich dann auf den exakten Look des Kamerajpegs (glattgebügelt) eisern festgelegt wird? Schwaches Argument. Insbesondere nachdem schon früh gezeigt wird, dass man dieses eisern verteidigte JPEG-Ergebnis (natürlich!) auch aus dem RAW kriegt. Zur Not eben per IDC. Das wird auch bei anderen Wettbewerben so laufen. Ganz wie mrieglhofer geschrieben hat: Was ist "besser"? Sind es nun "Weichgespülte dokumentarische" Fotos oder "hart überschärfte"? - vielleicht doch eher etwas zwischendrin? Ein ganz klares "kommt drauf an"! Bei RAW hat man jedenfalls mehr Wahlmöglichkeit.


Vielleicht gibt es ja noch andere Herausfroderungen aus anderen Bereichen an denen wir uns versuchen können. Bilder sagen mehr als Tuasend Worte. Besonders für die Pfadsucher am Anfang wäre es hilfreich einschätzen zu können von welchen unfassbar guten Ergebnissen aus RAW gesprochen wird mit Erkenntnisgewinn " Raw oder Jpg und die Nachbearbeitung, Aufwand vs. Nutzen?".


Da ist er wieder - der Strohmann. ;) Wie bereits mehrfach von mir festgestellt. Es gibt keinen objektiven Grund warum JPEG OOC oder ein Ergebnis per externem Konverter immer "besser" oder "schlechter" ist. Das hängt ja schon alleine am "besser" oder "schlechter". Es kann aber auch ganz grundsätzlich nicht gehen, denn eigentlich vergleichen wir nicht "JPEG OOC" vs. "RAW" sondern IDC vs. LR vs. DxO vs. Aperture vs. Capture One vs....
JPEG OOC IST das was der IDC macht - mit der Ausnahme bei Effekten wie HDR & Co. Selbst Multiframe-Noise-Reduction (und mehr!) geht nachträglich noch einfach mit z. B. PhotoAcute.

Der von dir beschriebene "Stellungskrieg" ist Unfug. Die Frage war "Aufwand vs. Nutzen". RAW bietet dasselbe wie JPEG... und mehr. JPEG bietet teilweise vergleichbare Ergebnisse - aber nie den vollen Umfang; eben immer nur einen Teilausschnitt. Da RAW keinen zusätzlichen Aufwand (in Aktionen) darstellt ist es ein reiner Gewinn. Das einzige Argument für JPEG-OOC hat nichts mit Bildqualität zu tun sondern lediglich mit Eile und vorhandenem Equipment. Wenn ich nur mit der Kamera "fertige" Bilder abliefern muss, dann nutze ich den RAW-Konverter der Kamera (zusätzlich).

Was können RAW-Fotografen dafür, dass manche Fotokollegen sich das Leben absichtlich schwer machen? Da werden teilweise dann RAWs auf Krude Art und Weise auf dem Rechner abgelegt und einzeln mit kostenlosen, umständlichen Programmen manipuliert um dann das rausfallende JPEG-Ergebnis wieder zu archivieren. Das hat doch nichts mit RAW zu tun - das hat mit fragwürdiger Wahl bei Software und Methoden zu tun. Es kann auch einfach so gehen, dass man die Speicherkarte einlegt, auf "Importieren" klickt und wenige Sekunden später sieht man die fertigen Fotos wie sie aus der Kamera kommen.

Erebos
22.05.2013, 13:26
...
Es kann auch einfach so gehen, dass man die Speicherkarte einlegt, auf "Importieren" klickt und wenige Sekunden später sieht man die fertigen Fotos wie sie aus der Kamera kommen.

Wobei man das zumindest bei LR meiner Erfahrung nach nicht so einfach hinbekommt.
Zumindest ich habe es noch nicht erreicht das in LR so hinzubekommen. Bei mir läuft es mehr oder minder auf eine Einzelbearbeitung hinaus (Also Serien synchronisiere ich natürlich schon).
Möglich mag das sein, aber den internen Kamera Raw Konverter konnte ich noch nicht vergleichbar mit einem automatischen Workflow abbilden. Meine Raws sehen nach dem Import doch deutlich anders aus, als die JPGs ooc und wenn ich dann für ein Bild Einstellungen gefunden habe und diese auf Bilder anwende, die bei anderen Lichtverhältnissen und Einstellungen gemacht wurden, dann bekomme ich wieder ein Ergebnis, welches sich nicht mit den JPGs deckt. Das die JPGs ooc natürlich oft auch nicht so aussehen, wie ich mir das fertige Bild vorstelle steht auf einem anderen Blatt....
Wenn dem nämlich so wäre, könnte ich mir den Aufwand mit RAW sparen.

dey
22.05.2013, 14:10
Hm - das sehe ich anders. Eine Antwort war schlicht. JPEG kein Nutzen gegenüber RAW. RAW kein Aufwand gegenüber JPEG. Allerdings gefällt die Antwort nicht jedem ;)

Falsch, die Antwort nützt nicht jedem.
Wenn die Aussage ist "Ich bekomme mit RAW bei gleichem Aufwand nicht das gleiche oder gar besseres hin", dann ist deine Pauschalaussage nur nützlich für genau diesen Grabenkampf.
Es werden einfach Aussagen mit Aussagen beantwortet ohne dem Anfänger eine weitere Hilfe zu bieten. Allein von deiner Aussage wird kein besseres Bild entstehen oder ein einfacherer Workflow.
Du gehst schlicht nicht auf das Problem derer ein, die ein Problem mit dem guten RAW-Workflow haben.


Ich frage mich warum es hier 1:0 stehen soll? Bloß weil Toni über den ganzen Thread hinweg nicht überzeugt ist? Bloß weil als Grundannahme der Strohmann "RAW-Fans sagen mit RAW erreicht man IMMER (!) BESSERE (!) Ergebnisse" aufgebaut wird und sich dann auf den exakten Look des Kamerajpegs (glattgebügelt) eisern festgelegt wird? Schwaches Argument.

Nein, weil nix, als besser angesehenes gekommen ist.
Insbesondere nachdem schon früh gezeigt wird, dass man dieses eisern verteidigte JPEG-Ergebnis (natürlich!) auch aus dem RAW kriegt. Zur Not eben per IDC.
Darum ging es zumindest in Toni's Thread nicht sondern darum, das beste Ergebnis in Bezug auf Monfotografie hinzubekommen: Details und Schärfe. An Beispielen aus RAW-Konverter mangelt es dort erheblich.
Das wird auch bei anderen Wettbewerben so laufen. Ganz wie mrieglhofer geschrieben hat: Was ist "besser"? Sind es nun "Weichgespülte dokumentarische" Fotos oder "hart überschärfte"? - vielleicht doch eher etwas zwischendrin? Ein ganz klares "kommt drauf an"! Bei RAW hat man jedenfalls mehr Wahlmöglichkeit.
Wer hat das bezweifelt?

Wenn man weitere Beispiele heranzieht und die Ergebnisse offen diskutiert, wird klarer, was Aufwand und was Nutzen ist.


Da ist er wieder - der Strohmann. ;) Wie bereits mehrfach von mir festgestellt. Es gibt keinen objektiven Grund warum JPEG OOC oder ein Ergebnis per externem Konverter immer "besser" oder "schlechter" ist. Das hängt ja schon alleine am "besser" oder "schlechter". Es kann aber auch ganz grundsätzlich nicht gehen, denn eigentlich vergleichen wir nicht "JPEG OOC" vs. "RAW" sondern IDC vs. LR vs. DxO vs. Aperture vs. Capture One vs....
Es geht immer darum, dass das nachträgliche Konvertieren des RAW besserer! Ergebnisse bringen soll. Und wenn man dann nach diesen Ergebnissen fragt wird ausgewichen.
Die JPG-OOC sind meist gut. Mit etwas EBV werden sie meist noch besser.
Die RAW-Ergebnisse hängen in ihrer Qualität sehr vom RAW-Konverter und ihrer Bedienung ab.
Und wann sind sie besser?

JPEG OOC IST das was der IDC macht - mit der Ausnahme bei Effekten wie HDR & Co. Selbst Multiframe-Noise-Reduction (und mehr!) geht nachträglich noch einfach mit z. B. PhotoAcute.
Ich habe nicht gesagt, dass so etwas nachträglich nicht machbar ist. Mit etwas Aufwand wiederum genauer im Detail.

Der von dir beschriebene "Stellungskrieg" ist Unfug.
Und warum. Weil du es anders siehst!?
Die Frage war "Aufwand vs. Nutzen". RAW bietet dasselbe wie JPEG... und mehr. JPEG bietet teilweise vergleichbare Ergebnisse - aber nie den vollen Umfang; eben immer nur einen Teilausschnitt.
Hat niemand angezweifelt!
Da RAW keinen zusätzlichen Aufwand (in Aktionen) darstellt ist es ein reiner Gewinn.
Warum glauben denn so viele, dass es mehr Aufwand ist? Weil wir uns davor scheuen an Beispielen zu erklären, wie einfach es ist.
Danke!
Das einzige Argument für JPEG-OOC hat nichts mit Bildqualität zu tun sondern lediglich mit Eile und vorhandenem Equipment. Wenn ich nur mit der Kamera "fertige" Bilder abliefern muss, dann nutze ich den RAW-Konverter der Kamera (zusätzlich).
Und das geht schon beim Einschalten der Kamera los... hilft dem Einsteiger nur nicht.

Was können RAW-Fotografen dafür, dass manche Fotokollegen sich das Leben absichtlich schwer machen? Da werden teilweise dann RAWs auf Krude Art und Weise auf dem Rechner abgelegt und einzeln mit kostenlosen, umständlichen Programmen manipuliert um dann das rausfallende JPEG-Ergebnis wieder zu archivieren. Das hat doch nichts mit RAW zu tun - das hat mit fragwürdiger Wahl bei Software und Methoden zu tun. Es kann auch einfach so gehen, dass man die Speicherkarte einlegt, auf "Importieren" klickt und wenige Sekunden später sieht man die fertigen Fotos wie sie aus der Kamera kommen.
Theoretisch!
Und wo ist jetzt die praktische Hilfe.

Aber es scheint so zu sein, dass man den steinigen Weg der RAW-Konvertierung im SUF alleine gehen muss.

bydey

dey
22.05.2013, 14:16
Das die JPGs ooc natürlich oft auch nicht so aussehen, wie ich mir das fertige Bild vorstelle steht auf einem anderen Blatt....
Wenn dem nämlich so wäre, könnte ich mir den Aufwand mit RAW sparen.
Es ist jedoch wiederum unklar, ob du für DEIN fertiges Bild RAW benötigst oder es mit JPG und EBV auch gehen würde.
Ich habe zwischen 500 und 1.000 RAW+JPG-Aufnahmen aus der D5D. Es ist mir selten bis nie gelungen in RAW etwas hinzubekommen, was ich nicht auch in JPG hinbekommen habe.
Ich habe annähernd alle Test- und Freeware-Versionen durch.
Zuerst bin ich am Aha-Erlebnis gescheitert und dann am Standard-Workflow und daraus entseht dann der Satz "RAW ist aufwändig".

bydey

Erebos
22.05.2013, 14:34
Es ist jedoch wiederum unklar, ob du für DEIN fertiges Bild RAW benötigst oder es mit JPG und EBV auch gehen würde...

Nun, da muss ich differenziert antworten. Ich habe zum Beispiel ein Bild von letzter Woche, dass ich als jpg ooc und raw vorliegen hatte. Da ich immer noch auf der suche nach einem quasi Std workflow für LR bin, habe ich versucht das raw möglichst nah an das jpg zu entwickeln. Dabei ist mir recht schnell aufgefallen, dass Texturen von Stoff auf dem jpg von der internen Verarbeitung einfach entrauscht wurden. Damit ist jetzt mein jpg aus raw besser als das jpg ooc, weil man die Strukturen auch auf dem entwickelten jpg noch sieht. Bei einem Abzug 10x15 natürlich nicht sichtbar, sondern nur bei 100% am Bildschirm. Weiterhin hatte ich vor einiger ein recht flaues Bild in Bearbeitung, dass ich mit raw bearbeitet hatte. Bei einer gleichen Bearbeitung des JOGs zeigten sich Tonwertabrisse. Somit denke ich, dass ich ab und an doch die raws brauche.

dey
22.05.2013, 14:38
Nun, da muss ich differenziert antworten. Ich habe zum Beispiel ein Bild von letzter Woche, dass ich als jpg ooc und raw vorliegen hatte. Da ich immer noch auf der suche nach einem quasi Std workflow für kr

Suchst du Hilfe?
Wenn ja, wäre das doch mal so eine Aufgabe mit man sich hier mal beschäftigen könnte.

bydey

Erebos
22.05.2013, 14:44
Suchst du Hilfe?
Wenn ja, wäre das doch mal so eine Aufgabe mit man sich hier mal beschäftigen könnte.

bydey

Hatte ich hier (http://www.sonyuserforum.de/forum/showthread.php?t=132537) angeregt durch diesen Thread schon angefragt, aber konkrete Ergebnisse hat das nicht hervorgebracht.
Ich habe zwar immer wieder gelesen, das RAW keinen Aufwand bedeuten würde, da man nach dem Importieren einfach auf einen Knopf drücken könnte um JPG's zu bekommen, die mit den OOC JPG's konkurieren könnten, aber keiner konnte mir bisher sagen wie man das denn erreicht. Konkret nachgefragt läuft es dann am Ende doch immer wieder auf "ich mach das für jedes Bild individuell" heraus.
Nach meinen Versuchen läuft das bei DxO deutlich besser als bei LR.
Ein bloßer Import ohne an den Reglern zu drehen liefert mit bei LR nichts, was auch nur annähernd an die Qualität eines JPGs ooc herankommt!

dey
22.05.2013, 15:01
Hatte ich hier (http://www.sonyuserforum.de/forum/showthread.php?t=132537) angeregt durch diesen Thread schon angefragt, aber konkrete Ergebnisse hat das nicht hervorgebracht.
Ohne Beispielbilder ist das schwierig.
Auch ist das Ziel ja nicht unbedingt klar.

Ich habe zwar immer wieder gelesen, das RAW keinen Aufwand bedeuten würde, da man nach dem Importieren einfach auf einen Knopf drücken könnte um JPG's zu bekommen, die mit den OOC JPG's konkurieren könnten, aber keiner konnte mir bisher sagen wie man das denn erreicht. Konkret nachgefragt läuft es dann am Ende doch immer wieder auf "ich mach das für jedes Bild individuell" heraus.
Nach meinen Versuchen läuft das bei DxO deutlich besser als bei LR.
Ein bloßer Import ohne an den Reglern zu drehen liefert mit bei LR nichts, was auch nur annähernd an die Qualität eines JPGs ooc herankommt!
Das entspricht auch meiner Erkenntnis. Mit den Ergebnissen von DxO konnte ich mich anfreunden.
IDC ist aktuell das einzige mir bekannte Programm, welches JPG ähnlich OOC hinbekommt. Wie man das in den LR-Workflow einbauen kann ist mir allerdings schleierhaft.

Mir kommt da gerade noch so ein Gedanke. Vieleicht liegt es an den Belichtungsautomatiken. Vielleicht zaubern die noch etwas Intelligenz hinzu, die LR und Konsorten nicht erkennen/ verstehen.
Wenn die RAW-Ler nun einfach etwas exakter und gleichmäßiger (manueller) belichten kommt mit den Standatdimport vielleicht auch immer ein ähnlich passendes Ergebnis raus!?

bydey

Erebos
22.05.2013, 15:14
...Auch ist das Ziel ja nicht unbedingt klar...


Naja, mein Ziel wäre es in LR einen automatischen Workflow zu haben, der beim importieren automatisch ein Bild hervorbringt, dass näherungsweise gleich aussieht wie das JPG ooc. Ausgehend von dieser Basis mache ich dann mein Feintuning bei den Bildern, von denen ich denke, dass diese das notwendig haben. Würde das Funktionieren, bräuchte ich die OOC JPGs nicht mehr, denn dann könnte ich ja ganz schnell an diese über die RAWs kommen. Da ich heute aber quasi jede Serie einzeln bearbeite, muss meine Frau immer ein paar Tage warten, bis sie die Bilder hat und deshalb nötigt sie mich zu RAW + JPG.

dey
22.05.2013, 15:23
Hi erebos,

kannst du dafür nicht auch die eingebetteten Vorschau-JPG mit 1.600x1.000 px nutzen?
Bis auf exakte Schärfe und Details kann man die für eine Vorauswahl schon gut nutzen.

Hier ist wiederum der FaststoneViewer für eine Vorauswahl sehr hilfreich. Es gibt die Option, dass für RAW-Dateien zuerst dieses Vorschaubild verwendet.
1. Karte rein
2. FS starten
3. Schrott löschen
4. LR starten und Rest importieren

bydey

Erebos
22.05.2013, 15:29
Die Vorauswahl ist nicht mein Problem, die geht ja auch mit Irfanview. Mir geht es um eine initiale Bearbeitung der zu behaltenden Bilder. Mache ich meinen Job richtig, muss ich bei vielen Bildern ja keine Belichtung etc. mehr korrigieren. Da würde mir das JPG ooc ja eigentlich reichen.
Bei einigen Bildern muss ich aber doch stärker ran, da will ich die erweiterten Möglichkeiten der RAW Bearbeitung nutzen.
Insofern suche ich immer noch einen Workflow in LR der dem internen Konverter der Kamera weitestgehend entspricht, damit ich nur noch in Raw aufnehmen kann.
Was gut aussieht wird blind entwickelt, der Rest nachgearbeitet.

Neonsquare
22.05.2013, 15:36
...Meine Raws sehen nach dem Import doch deutlich anders aus, als die JPGs ooc...


LR ist ja auch ein anderer RAW-Konverter. Wenn Du exakt den gleichen Look unbedingt haben möchtest, dann kommst Du um den IDC wohl nicht rum. Ich frage mich aber warum es denn überhaupt immer so aussehen muss wie die Kamera im Modus "Standard 0:0:0". Wieso ist gerade das die Richtlinie? Die bessere Vorgehensweise ist zu schauen, was Dir beim LR-Standard-Profil nicht taugt - unabhängig vom Kamera-JPEG. Das kann z. B. sein, dass die Farben oft zu gesättigt rüberkommen - oder eben zu wenig. Vielleicht können die Fotos generell ein bisschen mehr Schärfe vertragen. So etwas.


Das die JPGs ooc natürlich oft auch nicht so aussehen, wie ich mir das fertige Bild vorstelle steht auf einem anderen Blatt....
Wenn dem nämlich so wäre, könnte ich mir den Aufwand mit RAW sparen.

Es ist letztlich immer eine Frage dessen wo man den Lernaufwand reinstecken will. Wenn jemand beim Fotografieren und mit den begrenzten Parametern der Kamera ein fertiges Resultat erzeugen kann, dann ist dieses Wissen trotzdem weniger übertragbar und weniger Dauerhaft als jemand der den Lernaufwand in einen RAW-Konverter am Rechner steckt. Ich benutze seit Jahren nahezu ausschließlich Aperture mit meinen Alphas. Ich kenne das Programm mittlerweile sehr gut. Bei einer neuen Kamera muss ich trotzdem immer wieder erst etwas lernen wie sich das "Rohmaterial" bei manchen Anpassungen verhält. Aber die Standardentwicklung ist über die diversen Kameras hinweg stets brauchbar gewesen - vorausgesetzt man hat die Fehler nicht beim fotografieren gemacht. Aber dann hilft mir JPEG erst recht nicht weiter.

Erebos
22.05.2013, 15:47
...Ich frage mich aber warum es denn überhaupt immer so aussehen muss wie die Kamera im Modus "Standard 0:0:0". Wieso ist gerade das die Richtlinie? Die bessere Vorgehensweise ist zu schauen, was Dir beim LR-Standard-Profil nicht taugt - unabhängig vom Kamera-JPEG. Das kann z. B. sein, dass die Farben oft zu gesättigt rüberkommen - oder eben zu wenig. Vielleicht können die Fotos generell ein bisschen mehr Schärfe vertragen. So etwas.
.

Ja, da gebe ich dir uneingeschränkt recht. Ich orientiere mich am JPG 0:0:0 weil mir das besser gefällt als das was bei LR durch den Standartkonverter rauskommt.
Aber zugegebenermaßen ist dass das Pferd von hinten aufgezäumt.
Ein Beispiel aus der Praxis war ein Bild, dass ich neulich gemacht habe. Mein Kind saß mit einem Tigger Strampler auf einem grünen Kissen. Das JPG ooc hat die Farben auch in einer (für unproffessionelle Ansprüche!) akzeptablen Übereinstimmung wiedergegeben. Auf dem RAW in LR waren das Orange und das grün sehr gelbstichig und blaß. Nur durch den beherzten Einsatz des HSL Reglers konnte ich die Farben annähernd in die Nähe des JPGs bringen. Die Sättigung war es nicht, mit der wurde es nur schlimmer.
Vielleicht habe ich die JPGs noch, dann zeig ich das mal hier als Vergleich. Leider kann ich aber die Referenzfarben hier nicht vorlegen...

dey
22.05.2013, 15:51
Ich benutze seit Jahren nahezu ausschließlich Aperture mit meinen Alphas.
...
. Aber die Standardentwicklung ist über die diversen Kameras hinweg stets brauchbar gewesen -

Wie viele Standardprofile benutzt du?

Sind das nur größere Thumnails oder auch fertige Bilder?

bydey

Luckyrunner88
22.05.2013, 15:55
Es ist spannend diese Diskussion als RAW-Neuling zu folgen. Da kann ich noch einiges erfahren bzw. dazulernen. DANKE! .Ich habe bis jetzt immer Jpeg fotografiert und diese auch so bearbeitet. Da ich viel makro fotografiere auch ausreichend.
RAW hab ich deswegen nicht bearbeitet weil ich Probleme hatte die selbe Schärfe wie im JPEG zu erhalten, ich bin mit den Schärfereglern im LR4 nicht klargekommen. RAW hätte für mich nur den Vorteil der Farbtiefe und nachträglichen Weißabgleich.

Seit ich jedoch mal Rauschfotos (ISO3200) hatte beschäftige ich mich wieder mehr mit RAW. Fotografiere immer in RAW+JPEG Fine. Bei unkritischen Fotos reicht mir das JPEG. Bei kritischen Fotos bearbeite ich gerne das RAW. mit Farben und allem komme ich im LR4 super zurecht...ich hab einfach Probleme mit der Schärfe das sag ich ehrlich.

Eine Frage für ganz dumme vielleicht..welches Programm meint ihr mit IDC???

alberich
22.05.2013, 15:57
Geht man mal auf den Ursprung des RAW-Formates zurück, dann war dieses Format immer schon zur individuellen Weiterverarbeitung gedacht, ja sogar vorgesehen. Eben für alle die, denen das JPG nicht genügt. Wenn man also nun erwartet, dass man ein Format wie RAW dazu benutzen kann es eben nicht mehr individuell weiterverarbeiten zu wollen, sondern daraus standardisiert einfach nur das nach zumachen was die Kamera eh schon macht, dann hat man die Vorteile von RAW nicht wirklich verstanden oder weiß sie nicht zu schätzen. Wenn man dann noch die Möglichkeit bekommt JPG und RAW gleichzeitig aufzunehmen um das Beste aus beiden Welten zu erhalten, dies aber ebenfalls ablehnt, weil das auch wieder Nachteile mit sich bringe, ja dann, sollte man vielleicht eher an seinen Erwartungen arbeiten als an seinem Workflow.
Der Workflow ist doch ausreichend praktikabel gestaltbar. Man nimmt beide Formate auf und wenn man ein RAW benötigt, dann hat man eines in Vorhalte und wenn eben keines benötigt kann man es ja löschen.
Ja, schon klar.
Nun beginnt die gemeinsame forenübergreifende Suche nach der Antwort auf die drängenden Fragen, "Wie kann man umgehen, dass man auch noch RAWs löschen muss, oder bewerten muss, kann man das nicht automatisieren, geht das nicht einfacher? Wohin mit den Daten? Kann man die nicht begrenzen? Wohin mit den RAWs? Ich will dies! Ich will das" usw. usf.
Herrje...Fotografie ist nun mal auch ein klitzekleines bisschen Arbeit und wird es wohl hoffentlich auch bleiben.
.... :) Bitte nicht bierernst nehmen....

Erebos
22.05.2013, 15:58
..welches Programm meint ihr mit IDC???
...

Image Data Converter. Ist höchst wahrscheinlich mit deiner Kamera ausgeliefert worden und der Sony eigene Raw Konverter.

Alison
22.05.2013, 16:02
Ich muss sagen dass ich in letzter Zeit etwas in Schwimmen geraten bin. Ich bin mit der 900er zum Raw Worklflow gekommen, weil die Ergebnisse bei hohem Iso (>800) so viel besser waren als das, was die Kamera geliefert hat.

Nach einigem Ausprobieren bin ich bei LR gelandet und kenne mich damit inzwischen auch gut aus, ich empfinde den Workflow als angenehmer als mit jpgs (Metadatenmanagement, GPS koordinaten, Farbprofile, ...).

Aber seit ich die RX100 habe bin ich ins Schwimmen gerade, weil die Farben und Kontraste der Kamera-jpgs deutlich eher meinen Erwartungen entsprechen, als sämtlich Lightroom Profile, die ich ausprobiert habe*. Gestern Abend habe ich dann noch mal mit Capture One herumgespielt und die Ergebnisse entsprechen zwar auch nicht den Kamera -jpgs (sollen sie ja auch nicht) zeigen aber eine in meinen Augen auch sehr schöne Farbwiedergabe und -differenzierung. Leider ist der RX100 Support nur "vorläufig" was sich darin äußert dass es kein Korrekturprofil für die Verzeichnung gibt :(, und dass ist bei dieser Kamera bekanntlich sehr wichtig.

Ich mach mit der Kleinen glaube ich mal wieder mehr jpgs.:?



* ich habe das nebenan (http://www.mi-fo.de/forum/index.php?showtopic=32990&st=15)gerade zusammengefasst (Post 26 und 27)

Luckyrunner88
22.05.2013, 16:08
Image Data Converter. Ist höchst wahrscheinlich mit deiner Kamera ausgeliefert worden und der Sony eigene Raw Konverter.

Ok...so einfach kann die Lösung sein..vielen Dank :-)

Tikal
22.05.2013, 16:09
Was mir auch wichtig ist, mittlerweile, ist die automatische Korrektur von JPEGs in der Kamera. Diese Korrekturen kriege ich selbst nicht so gut hin. Ich bleibe bei meiner Aussage, das es für mich eben ein erhöhtes Aufwand bedeutet, wenn ich Raw entwickle. Dazu muss ich ja erst mit dem Raw Programm das Teil öffnen und gegebenenfalls im schnellsten Fall ein Standardprofil anwenden und das Bild exportieren. Bis vor kurzem konnte ich auch nicht die Rauschunterdrückung der Kamera schlagen.

Ich nutze kein Windows und kann so einiges nicht nachvollziehen. Habe kein Sony image data converter oder Lightroom. Möchte meine Bilder auch nicht von einem Raw Konverter abhängig machen. Ich lasse lieber noch ein Jpeg neben der Raw für mich in der Kamera mit entwickeln. Habe so keine Nachteile. Nur Vorteile. Die Vorschau Ansicht des Raw ist mir manchmal zu klein.

dey
22.05.2013, 16:31
Ich nutze kein Windows und kann so einiges nicht nachvollziehen.

Da ist Hilfe dann auch doppelt schwer. Je exotischer, desto allein.

bydey

swivel
22.05.2013, 17:14
..
RAW hab ich deswegen nicht bearbeitet weil ich Probleme hatte die selbe Schärfe wie im JPEG zu erhalten, ich bin mit den Schärfereglern im LR4 nicht klargekommen...

Hi,

hab den ganzen Tread hier nicht gelesen, sondern bin "nur" hierüber gestolpert.

Ich hab Gestern seit langem mal wieder - dummerweise - die auto HDR Funktion meiner A77 für etliche Nachtfotos genutzt. Ich wollte das Ergebniss sofort.. sonst hätte ich jeweils Belichtungsreihen in RAW gemacht - was ja auch gut möglich ist.

Mir ist zum ersten mal aufgefallen, wie viel besser (mein geliebtes) NeatImage RAW Dateien statt JPEG schärfen kann. JPEGs werden leider sehr viel schneller sichtbar überschärft, - ich krieg keinesfalls identische Schärfe. Kann ja sein, das man dafür die Schärfe in der Kamera runterregeln müsste (oder ?).
Ich denke aber, das NeatImage auch für das "Schärfen" in den RAWs mehr/bessere Grundlagen vorfindet.

Ich ärgere mich (auch) über die LR Schärfenwerkzeuge. Schärfen + (nötiges) Entrauschen ist leider deutlich verlustbehafteter als das NeatImage kann. Andere RAW Konverter machen das auch besser. Ich denke aber das ist auch zum großen Teil abhängig von den RAWS bzw. der A77.

LG

Neonsquare
22.05.2013, 17:25
Da ist Hilfe dann auch doppelt schwer. Je exotischer, desto allein.


Nein würde er Windows benutzen hätte er ein Problem mehr am Hacken. :lol:

Neonsquare
22.05.2013, 20:25
Dazu muss ich ja erst mit dem Raw Programm das Teil öffnen und gegebenenfalls im schnellsten Fall ein Standardprofil anwenden und das Bild exportieren.

Irgendwie wirst Du die JPEGs auf den Rechner holen oder? Ob Du die nun im Programm "Finder" rüberkopierst. Oder mit "Aperture" ist doch erstmal egal oder? Das Standardprofil muss man normalerweise auch nicht anwenden - deswegen ist es ja "Standard" ;). Exportieren musst Du es ja nicht zwingend - sondern lediglich wenn Du es "verwenden" willst. Als Mac User profitierst Du dabei von der guten Aperture-Integration. Jeder Dateidialog enthält eine Spezielle Sektion für die Aperture-Bibliothek aus der man die Fotos einfach auswählen kann. Außerdem natürlich der iCloud Fotostream oder Flicks oder Facebook. Das wird nun wirklich nicht schwer gemacht.

Tikal
22.05.2013, 20:47
Umm... ich nutze doch kein Mac System.^^ Habe hier ein Linux System am Laufen: Ubuntu mit Shotwell und Darktable. Ich möchte aber nicht die JPEGs erst entwickeln, wenn ich sie benötige. Aber das ist doch schon sowieso ein wenig vom Thema ab. Es geht doch eher um die Nachbearbeitung. Wenn ich der Meinung bin mit dem JPEG nicht zufrieden zu sein und größere Bearbeitungen anzustellen oder einfach nur Bearbeitungen, die RAW erfordern, dann öffne ich die RAW Datei. Auch wenn ich der Meinung bin, es muss jetzt perfekte Qualität geben. In diesem Fall ist mit großem Aufwand gebunden, aber der Nutzen ist für mich enorm. Die JPEG habe ich in diesem Fall als Vergleichsbild; auch wegen den internen Korrekturen der Kamera.

Neonsquare
22.05.2013, 21:11
Wie viele Standardprofile benutzt du?


Ich habe bereits geschrieben, dass ich in Aperture mit einem Profil auskomme. Das ist mein "Standard 0:0:0". Den Rest kann ich in den Anpassungen in Aperture genauso schnell anpassen wie jemand in der Kamera "Standard +1:0:+2" einstellt - vermutlich sogar schneller, aber vor allem übertragbar auf andere Bilder. Natürlich kann ich mir auch Voreinstellungen wie "Porträt", "Landschaft" usw. machen - aber so arbeite ich eben (meistens) nicht. Man kann das aber natürlich - das ist nicht anders als mit der Kamera.


Sind das nur größere Thumnails oder auch fertige Bilder?


Von den Strohmännern zum Strickdrehen? :lol:. Willst Du damit etwa unterstellen ich würde keine Bilder bearbeiten? Im Ernst: Wie gesagt. Das Standardprofil in Aperture ist MEIN "Standard 0:0:0"-Äquivalent. Die A77 macht Out-Of-Cam bei Standard 0:0:0 durchaus gute Bilder. Die Resultate in Aperture ohne Anpassung sind für mich mindestens ebenso gut. Ich finde "Aperture-Standard" ist recht ähnlich zum A77 Standard 0:0:0. Aperture hat evtl. ein kleines bisschen mehr Kontrast und Grün wirkt satter. Standard 0:0:+3 erreiche ich indem ich die RAW-Finetuning-Regler in Aperture auf Maximum drehe. Aperture zeigt dann trotzdem keine Halos. Wenn ich beim fotografieren keinen Fehler mache, ist das importierte Bild durchaus als fertig anzusehende Variante. (Vielleicht nicht die letzte, aber eine). Es gibt keinen Schritt der dann unbedingt noch individuell gemacht werden MUSS. Wenn ein OOC Standard-0:0:0 Bild fertig wäre, dann ist es mein Aperture-Standard-Bild auch.

Kann man aus dem RAW mehr Rausholen? Klar - manche Bilder profitieren z. B. von einer RAW-Schärfung. Viele Bilder enthalten hier oder dort mal einen Staubfleck oder ähnliche kleine Makel. Vielleicht ist es nicht ganz gerade, oder ich will lieber einen Crop. Sobald das Licht nicht ideal war, kann man durch gezieltes Arbeiten mit Definition, Licht/Schatten, Mittenkontraste, Lebendigkeit und bei schwierigen Fällen "Kurven" sehr detailliert arbeiten. Weit genauer und gezielter als das jemals mit Standard(Kontrast/Sättigung/Schärfe: -3 ..+3) möglich wäre.

Zu deiner Frage ob ich nur "größere Thumbnails" mache. Nein - ich lasse auch auf z. B. bis zu 90x60cm ausbelichten. In diesem Fall skaliere ich die Schärfe gezielt für den Druck oder die Belichtung.

Neonsquare
22.05.2013, 21:23
Umm... ich nutze doch kein Mac System.^^ Habe hier ein Linux System am Laufen: Ubuntu mit Shotwell und Darktable. Ich möchte aber nicht die JPEGs erst entwickeln, wenn ich sie benötige. Aber das ist doch schon sowieso ein wenig vom Thema ab. Es geht doch eher um die Nachbearbeitung. Wenn ich der Meinung bin mit dem JPEG nicht zufrieden zu sein und größere Bearbeitungen anzustellen oder einfach nur Bearbeitungen, die RAW erfordern, dann öffne ich die RAW Datei. Auch wenn ich der Meinung bin, es muss jetzt perfekte Qualität geben. In diesem Fall ist mit großem Aufwand gebunden, aber der Nutzen ist für mich enorm. Die JPEG habe ich in diesem Fall als Vergleichsbild; auch wegen den internen Korrekturen der Kamera.

Oh Sorry - Linuxer hab ich mittlerweile gar nicht mehr so sehr auf dem Schirm. Desktop-Linux ist bei mir schon eine ganze Weile her - bin damals auf ein iBook G4 12" mit OSX Panther umgestiegen und habe es nie bereut. Die Server laufen weiter auf Linux. Basteleien mit Raspberry Pi, WRT & Co. auch noch mit Linux - aber Desktop... forget it.


Ich will Deine Vorgehensweise ja auch nicht in Abrede stellen. Aber Du sagst ja selbst, dass es Aufwändig ist. Das hat aber nichts mit RAW zu tun, sondern in der Art wie Du (warum auch immer) das so organisiert hast. Das meine ich wenn ich sage, das man es sich auch unnötig schwer machen kann. Selbst ein RAW+JPEG-Workflow (ich rate davon ab) ist mit den geeigneten Werkzeugen wesentlich einfacher. Wieder als Beispiel Aperture: Man kann - wenn man möchte - die RAW+JPEG-Paare als Paar belassen und bei jeder einzelnen Version eines Bildes zwischen JPEG und RAW-Grundlage switchen; jederzeit. Das ist jedoch nur zu empfehlen, wenn man beide Varianten Dauerhaft archivieren will; ansonsten ist ein getrennter Import besser. Am Ende ist es wieder "Aufwand vs. Nutzen" - das RAW macht nicht den Aufwand.

Tikal
22.05.2013, 21:49
Man kann - wenn man möchte - die RAW+JPEG-Paare als Paar belassen und bei jeder einzelnen Version eines Bildes zwischen JPEG und RAW-Grundlage switchen; jederzeit. Das ist jedoch nur zu empfehlen, wenn man beide Varianten Dauerhaft archivieren will

Wenn wir schon das Thema angesprochen haben: In Shotwell (Foto Organizer) ist das genauso. Das Paar wird als eine Datei angezeigt und man kann den "Entwickler" für jedes Bild bei Bedarf umschalten. Somit ist es kein Aufwand für mich beides zu haben. Nutze sowieso RAW+JPEG.

cicollus
22.05.2013, 22:04
...

Sinnhafzt ist es, wenn man klar schreibt, was mit welchem Konverter schlechter ist.

Der in meiner A550 verbaute Konverter ist schlechter als Rawtherapee in der automatik-Einstellung.
Im Prinzip bräuchte ich nur das raw-Bild in Rawtherapee aufrufen und ohne eine weitere Einstellung in JPEG konvertieren und hätte ein besseres JPEG-Bild als das was die Kamera erzeugt.

Gruß
Jörn

Edit: Zumindestens wenn das Bild nicht optimal belichtet wurde.

Zaar
22.05.2013, 22:15
Im Prinzip bräuchte ich nur das raw-Bild in Rawtherapee aufrufen und ohne eine weitere Einstellung in JPEG konvertieren und hätte ein besseres JPEG-Bild als das was die Kamera erzeugt.


Dafür hätte ich gerne Beispiele, die RAW + JPEG aufgenommen sind (mit geeigneten JPEG-Einstellungen). Diese Behauptung halte ich für ... hm ... gewagt ;)

Gruß,
Markus

cicollus
22.05.2013, 22:20
Hi,

hab den ganzen Tread hier nicht gelesen, sondern bin "nur" hierüber gestolpert.

... wie viel besser (mein geliebtes) NeatImage RAW Dateien statt JPEG schärfen kann. JPEGs werden leider sehr viel schneller sichtbar überschärft, - ich krieg keinesfalls identische Schärfe. Kann ja sein, das man dafür die Schärfe in der Kamera runterregeln müsste (oder ?).
Ich denke aber, das NeatImage auch für das "Schärfen" in den RAWs mehr/bessere Grundlagen vorfindet.


LG

NeatImage dient zum Entrauschen von ISO-Rauschen und ist unschlagbar eines der besten Programme darin. Aber zum Schärfen ....?

LG Jörn

dey
22.05.2013, 22:37
NeatImage dient zum Entrauschen von ISO-Rauschen und ist unschlagbar eines der besten Programme darin. Aber zum Schärfen ....?
ist es ja so was von genial!
Es liegt wohl an der Balance mit dem Entrauschen.
Tatsächlich kann man beim Schärfen weniger einstellen. Ich habe jedoch das Gefühl, dass NI einfach das Rauschen gemäss dem Filter erkennt und entsprechend beim Schärfen links liegen lässt. Die meisten anderen Programme machen sich selbst die Arbeit kaputt.
bydey

cicollus
22.05.2013, 22:53
ist es ja so was von genial!
Es liegt wohl an der Balance mit dem Entrauschen.
Tatsächlich kann man beim Schärfen weniger einstellen. Ich habe jedoch das Gefühl, dass NI einfach das Rauschen gemäss dem Filter erkennt und entsprechend beim Schärfen links liegen lässt. Die meisten anderen Programme machen sich selbst die Arbeit kaputt.
bydey

Ich weiß zwar jetzt nicht genau was Du mit "gemäß Filter" genau meinst, aber NI 'misst' eine gleichmäßige Fläche (grünes Quadrat) und erkennt dann wohl die bunten ISO-Rausch-Pixel, welche da nicht hingehören und versucht diese wegzurechnen.

cicollus
22.05.2013, 23:05
Dafür hätte ich gerne Beispiele, die RAW + JPEG aufgenommen sind (mit geeigneten JPEG-Einstellungen). Diese Behauptung halte ich für ... hm ... gewagt ;)

Gruß,
Markus

Na klar:
EDIT:

ich habe nun mal 2 Vergleiche auf eine Seite gebracht:

http://www.repage.de/memberdata/photo/vergleich.jpg

Links jeweils das Kamera-JPEG, recht der Rawtherapee-Grundwert.

Und schließlich sah das eine dann so aus:
http://www.fotocommunity.de/pc/pc/mypics/1877515/display/30078732

LG Jörn




Edit BadMan: Bilder mit einer Größe von mehr als 50 KB sind nach den Forenregeln nur zu verlinken und nicht in den Beitrag einzubinden.
Bitte benutze unsere wunderschöne Galerie. Dort können Bilder bis 500 kb und 1200px Kantenlänge geladen und dann als Thumbnail im Thread verlinkt werden.

Man
22.05.2013, 23:51
Der in meiner A550 verbaute Konverter ist schlechter als Rawtherapee in der automatik-Einstellung.
Im Prinzip bräuchte ich nur das raw-Bild in Rawtherapee aufrufen und ohne eine weitere Einstellung in JPEG konvertieren und hätte ein besseres JPEG-Bild als das was die Kamera erzeugt.

Gruß
Jörn

Edit: Zumindestens wenn das Bild nicht optimal belichtet wurde.

Bei dem von dir dazu eingestellten Beispielbild ein paar Beiträge später gefällt mir das Bild mit der Überschrift "1.rawtherapee" weniger gut als das Bild mit der Überschrift "2. a550". War dein oben eingefügtes Zitat eher anders herum gemeint (dann = Kamera-JPG ist eher besser als ein unbeareitetes RAW entwickelt mit Rawtherapee)?

Das RAW-Bild wirkt (auf mich) flau, das JPG-Bild ist (je nach Geschmack) vielleicht etwas zu dunkel abgestimmt, zu knackig und die scharzen Stellen (Kleid) sind vielleicht etwas zu tief schwarz - es gefällt mir trotzdem besser.
Mit ein wenig Nacharbeit (bei Adobe CS5 sollte schon ein klick auf "automatisch" statt "standard" in CameraRaw für eine deutliche Verbesserung ohne manuellen Mehraufwand sorgen) ist da bestimmt noch einiges aus dem RAW-Bild herauszuholen.

Die Abstimmung ist dann (wie immer) eher Geschmackssache.

vlG

Manfred

Tikal
23.05.2013, 00:04
Die Abstimmung ist dann (wie immer) eher Geschmackssache.

Und Kalibrierungs Sache von Monitor und dem ganzen Rest da. ;-)

dey
23.05.2013, 09:28
Und darum geht es doch gar nicht. Das man ein Bild in einem RAW-Konverter verschlimmbessern kann ist klar. Auch mit Jpg geht ja noch viel; bis hin zu viel.
Rawtherapee kennt keine Kameraprofile und die sind schon zwingend notwendig, wenn mit default was angenehmes rauskommen soll.
Individuell sollte es auch für Laien möglich sein eine gute Kopie des jpg ooc oder besser hinzubekommen.
bydey

cicollus
23.05.2013, 11:15
Und darum geht es doch gar nicht. Das man ein Bild in einem RAW-Konverter verschlimmbessern kann ist klar. Auch mit Jpg geht ja noch viel; bis hin zu viel.
Rawtherapee kennt keine Kameraprofile und die sind schon zwingend notwendig, wenn mit default was angenehmes rauskommen soll.
Individuell sollte es auch für Laien möglich sein eine gute Kopie des jpg ooc oder besser hinzubekommen.
bydey

Wenn ich mein 2. Beispiel in AfterShot pro eingebe, dann sieht es fast genauso flau aus.
Und AfterShot Pro kennt Kameraprofile.
Aber mit AfterShorPro sind feinere Abgleiche machbar. Und der Zoom ist sauschnell. Werde es wohl kaufen... kostet z.Zt 65 EUR.
EDIT: Und es hat mein 28/2,8-Minolta-Objektiv dabei *huhu*

Die Möglichkeiten der Nachbearbeitung von JPEG sind aber stark eingeschränkt.
An der Histogrammkurve sieht man dann, das bei jedem größeren Eingriff dann ein Stück Bildinformation fehlt. Auch solche Dinge wie Nachbelichtung und Tonwertmapping sind wohl kaum machbar.

cicollus
23.05.2013, 11:20
Und Kalibrierungs Sache von Monitor und dem ganzen Rest da. ;-)

Meinen Laptop-Monitor hatte ich vor einige Zeit mal für 2 Stunden mit Spyder gepaart.

LG Jörn

PS. wenn Jemand von den Tuxianern meine Anleitung (Spyder + ArgyllCMS) benötigt, einfach klingeln :D

www_zeeshan_de
06.06.2013, 22:09
Hatte jetzt ein wenig Zeit ein Paar Bilder machen zu können, die ich nach meinem Workflow hochgeladen habe. Ich habe alle RAWs behalten und nicht gelöscht, falls jemad das RAW haben möchte bitte melden. Für den OOC-JPG vs mein-Workflow-JPG werde ich gesondert Zeit nehmen und noch nachreichen.

http://www.zeeshan.de/slta65/0_slta65.htm

Die Bilder sind in der umgekehrten Reihenfolge, neueste Bilder erscheinen in der Galerie als erstes.

dey
07.06.2013, 10:47
Hatte jetzt ein wenig Zeit ein Paar Bilder machen zu können, die ich nach meinem Workflow hochgeladen habe.
Danke. Und da kann man jetzt mal weiter machen
Ich habe alle RAWs behalten und nicht gelöscht, falls jemad das RAW haben möchte bitte melden.
Wozu? Dass wir bei jedem Bild, egal ob das RAW oder dein JPG, nachträglich mehr rausholen können, weil individuell nach Geschmack nachbearbeitet ist ja wohl klar.

Für den OOC-JPG vs mein-Workflow-JPG werde ich gesondert Zeit nehmen und noch nachreichen.
Das ist doch der interessante Teil, der hier zu massiven Diskussionen geführt hat.


http://www.zeeshan.de/slta65/0_slta65.htm
Ich finde dein textbasierte HP seltsam.
Bei www.zeeshan.de kommt eine Auflistung des root-Verzeichnis; 0_start_homepage.html startet nicht automatisch.
Die ganze Anmutung verwirrt angesichts dieses Footers "Copyright (c) 2013 Zeeshan Sayyed (Staatlich geprüfter Informatiker)".
Wenn du Lust hast kannst du es mir ja mal per PN erklären

bydey

mrieglhofer
07.06.2013, 16:49
Auch wenn der Raw Konverter keine Kameraprofile unterstützt, kann man damit arbeiten. Man fotografiert ein Target lässt es durch den Raw Konverter mit definierten Einstellung durch und erstellt auf dieser Basis ein Profik,. Dieser Profil kann man dann z.b. in PS dem Bild zuweisen und dann weiterverarbeiten. Damit ist durchaus auch damit ein farbverbindliches Arbeiten möglich.

Das Neatimage besser schärft, liegt m. E. daran, dass es davor gut enttäuscht. Damit kannst danach die Schärfe ohne Störungen höher ziehen.
Wobei eigentlich entrauschen normal am Prozess Anfang, schärfen erst am Prozessende und abhängig von der Verwendung stattfindet. Daher ist das Schärfen in der Kamera eigentlich fast immer falsch.

Neonsquare
07.06.2013, 17:45
Das Neatimage besser schärft, liegt m. E. daran, dass es davor gut enttäuscht.


Klar zuvor gut enttäuschen, dann ist die Erwartungshaltung nicht mehr so hoch! ;-)

mrieglhofer
07.06.2013, 17:49
Sch... Tablett. Zuerst hat es gpo immer in FPÖ umgewandelt und jetzt entrauscht in enttäuscht. Liegt wohl am Android. Google liest unser Forum und analysiert, dass Rauschen enttäuscht und daher jemand der entrauscht enttäuscht sein muss.

dey
10.06.2013, 09:23
und jetzt entrauscht in enttäuscht.

Das Ende aller Rauschdebatten :lol: Wer hat denn da Zugriff auf den Androidkernel? :shock:

Ich glaube bei NI eher an die Kombination aus Entrauschen, Schärfen, Rauschfilter und Profile. Der Schärfungsalgorithmus hat hier einfach große Chancen das Rauschen zu erkennen und zu ignorieren.

bydey

www_zeeshan_de
09.07.2013, 22:53
Vom Aufwand her ist es nicht anders. Das Ergebnis ist jedoch ein völlig anderes und die JPG meist näher an dem was man als Endergebnis erwartet :D

Ich habe zwischenzeitlich neue Erkenntnisse mit meiner SLT-A65 (initial Release Firmware). Die Ergebnisse RAW2TIF2JPG vs OOC-JPG kann man nicht vergleichen, weil, am OOC-JPG (FINE):
* Kontrasterhöhung
* Farbsättigung-Erhöhung
* Schärfen
durchgeführt wurde (In welchem Maß: unbekannt). Diese kann man wenn man über SONY IDC geht natürlich auch noch durchführen, wenn man dann aber von TIF nach JPG batchkonvertieren möchte, hat man einen entscheidenden Vorteil: Die JPG-Speicher-Optionen kann man selbst auf maximum einstellen (100 % und Farbsubsampling deaktivieren!!!) wogegen die OOC-JPGs nur mit
JPEG, quality: 94, subsampling ON (2x1)
daherkommen. Diesen Wert kann man anhand der neuesten Software Version "IrfanView 4.36" überprüfen indem man dort die jpg öffnet und auf den Info-Button klickt.

Farbsubsampling und NUR 94 % jpg Qualität, das geht mal gar nicht (siehe jpg Qualität auf meiner Homepage). Die SLT-A77 und A99 haben da ggf noch JPG Super Fine Einstellungen (Firmware bitte mit angeben), ich habe diese Kameras jedoch nicht, und somit können wir auf Information von Neonsquare und Co hoffen.

@physicist
Ich habe zwischenzeitlich meinen Workflow ein wenig verbessert und eine Anleitung der Vorgehensweise unter
http://www.zeeshan.de/slta65/0_slta65.htm
beschrieben.
Ich habe jegliche Kamerainterne Bildverbesserer/Verschlechterer (Objektiv- Schattierungskompensation, Verzerrungskompensation, Farbkompensation) DEAKTIVIERT. Eine
NO_EBV.xml
für Sony IDC habe ich dort abgelegt, darin sind JEGLICHE nachträgliche Bildverbesserer/Verschlechterer von ARW2TIF deaktiviert, wie ich dann zum finalen JPG komme, kannst du ebenfallst dort nachlesen. Ein paar Bilder gibts auch in der Galerie dort, Bilder nach dem
NO_EBV.xml
Prinzip werden folgen.
Du darfst gerne mal ein ARW anhand NO_EBV.xml und dem weiteren Workflow bearbeiten. Wie findest du das Ergebnis ?
BTW: hast du jetzt eine Festbrennweite DT 35 F1.8 ?

a65
10.07.2013, 02:02
Wo in deinem flow machst du denn die Bilder Retusche? Ich verwende Lightroom und mache zunächst alle Änderungen am RAW (zuschneiden, Belichtungskorrekturen, lense profiles, schärfen, Rauschunterdrückung) bevor ich (in Lightroom) nach tiff konvertiere, um dann in den nik Plugins weiter zu editieren und den finalen Schliff zu geben. Dann konvertiere ich das tiff nach jpg (ich glaube mit 92 %) in Lightroom.

Leider sind die tiff files alle sehr groß (130 MB sind keine Seltenheit) und ich lösche diese dann meist wieder. Du schreibst auf deiner Homepage einerseits, dass du bereits bei der tiff Konvertierung die Auflösung halbierst (unter jpg quality) und andererseits bei dem Sony Kapitel erst bei der tiff nach jpg Konvertierung. Warum machst du es mit den Sony files anders?

physicist
14.07.2013, 11:46
Du darfst gerne mal ein ARW anhand NO_EBV.xml und dem weiteren Workflow bearbeiten. Wie findest du das Ergebnis ?


Katastrophal.... :shock:

http://www.bilder-hochladen.net/files/thumbs/3f4x-a-d3d9.jpg (http://www.bilder-hochladen.net/files/3f4x-a-d3d9-jpg.html)
Links OOC-JPG - Rechts RAW2TIF2JPG (100% Crop bezogen auf das ooc jpg)

Der Unterschied zwischen 16 und 4 Megapixel ist wohl mehr als offensichtlich :mrgreen:

www_zeeshan_de
14.07.2013, 22:44
Katastrophal.... :shock:

http://www.bilder-hochladen.net/files/thumbs/3f4x-a-d3d9.jpg (http://www.bilder-hochladen.net/files/3f4x-a-d3d9-jpg.html)
Links OOC-JPG - Rechts RAW2TIF2JPG (100% Crop bezogen auf das ooc jpg)

Der Unterschied zwischen 16 und 4 Megapixel ist wohl mehr als offensichtlich :mrgreen:

Also wenn du schon vergleichen willst, muss du beide Bilder wenigstens auf die gleiche Auflösung bringen. Ich habe deine OOC-JPG jetzt nachträglich verkleinert (auch wenn die bereit Kameraintern geschärft worden war, Schärfen sollte immer der letzte Schritt sein!!). Wie du siehst ist auf dem rechten Bild mehr Kontrast und Schärfe (angewendet worden !?). Ansonsten sind die Ergebnisse relativ gleich, bis auf das feine Bildrauschen auf klaren Flächen im rechten JPG (dies wird im linken OOC-JPG glattgebügelt).
http://www.bilder-hochladen.net/files/kv95-1-c4ca-jpg.html

Wenn du mit der Kamerainternen OOC-JPG Bildqualität
JPEG, quality: 94, subsampling ON (2x1)
zufrieden bist, hat sich alles andere für dich bereits erübrigt. Wer KEIN Farb-Subsampling und 100 % JPG-Qualität in seinen JPGs haben möchte, der kann den von mir beschrieben Weg gehen (egal ob am Ende mit Bildgrößenverkleinerung auf native RGB-Pixel-Größe [also 4 MP bei einer 16 MP Kamera(Herstellerangabe) oder 6 MP bei einer 24 MP Kamera(Herstellerangabe) usw]). Allen anderen bleibt das Speichern der Bilder im ARW/RAW Format.

www_zeeshan_de
14.07.2013, 23:11
1. Wo in deinem flow machst du denn die Bilder Retusche?


2. Du schreibst auf deiner Homepage einerseits, dass du bereits bei der tiff Konvertierung die Auflösung halbierst (unter jpg quality) und andererseits bei dem Sony Kapitel erst bei der tiff nach jpg Konvertierung. Warum machst du es mit den Sony files anders?

1. Gar nicht, sieht erstes Posting auf der ersten Seite dieses Threads, der TO will wissen wer wie vorgeht. Ich mache gar keine Retusche (Was aber nicht bedeuten muss dass das in meinem Workflow nicht mehr möglich ist. Es müsste jedes Bild mit eigenen Einstellungen nach TIF konvertiert werden (anstatt eine Einstellung für alle), danach der bereits beschriebene Workflow von mir).

2. Danke dass du mich darauf aufmerksam gemacht hast. Die Vorgehensweise der Seite "jpg quality" ist schon ein wenig gealtert, und zwischenzeitlich hatte mehrere neuere Kameras. Wenn es S-RAW wie bei Canon auch für Sonys ARW geben würde (also exakt halbe Auflösung statt interpolierte Auflösung[Herstellerangabe]), würde ich das gerne mal ausprobieren. Allerdings gibts das nicht, und damals bei Canon war das wirklich komisch mit der jeweils separaten Software für die G9 vs 400D/450D.
Die Problematik für mich bestand darin, dass beim Halbieren der Größe mit der Herstellersoftware man als Benutzer KEINEN Einfluss darauf hat mit WELCHEM Algorithmus das Bild verkleinert wurde.
Der Einzige Algorithmus, mit dem der Kontrast (und somit auch die Farbwerte der einzelnen Pixel) unverändert bleiben ist Pixelwiederholung/nächster Nachbar. Bei allen anderen Algorithmen wird nach jeder Anwendung das Bild flauer (verliert an Kontrast und Bildschärfe!!Konturen werden weichgebügelt).
Traurig war das für mich, weil selbst bei einer Halbierung der Bildgröße derartig schlecht Algorightmen angewendet wurden (für gewöhnlich sind diese nur erforderlich beim Verkleinern auf ungerade Zahlen).

Damit ich künftig sicher sein kann, dass der Kontrast und die knackigen Farben in den Bildern erhalten bleiben, habe ich den Verkleinerungsprozess in die Software integriert, in der ich den Verkleinerungs-Algorithmus "Pixelwiederholung/Nächster Nachbar" SELBST einstellen kann.

Karsten in Altona
15.07.2013, 09:57
Schärfen sollte immer der letzte Schritt sein!!Ist ja auch so ein Mythos, der pauschal nicht stimmt. Trifft nur zu, wenn man verkleinert (oder auch vergrößert) auf zb Webgröße und das runterskalierte Bild, am besten nur leicht, nachschärfen will, wenn es das Programm, welches man benutzt, es nicht schon selber erledigt, wie zb Lightroom, wenn man denn will.

www_zeeshan_de
16.07.2013, 21:40
Das mag ja sein, trifft aber überhaupt nicht die Praxiserfahrung die ich mit der A77 bislang gesammelt habe. Spätestens seit Apple die RAW-Konvertierung für die A77 aktualisiert hat kriege ich mit RAW deutlich mehr Details als per JPEG.

Da ich selbst keine A77 habe, musste ich selbst ein wenig recherchieren.
Ich konnte zwischenzeitlich aber was feststellen:
Auf der Seite
http://www.cameralabs.com/reviews/Sony_Alpha_SLT_A77/sample_images.shtml
kann man das Bild
"""Landscape: 13.22MB, Program auto, 1/320, f5.6, 100 ISO, 16-50mm at 16mm (24mm equiv)"""
nach dem Klick auf ..., "alle Größen anzeigen", dann in Originaldatei downloaden. Danach mit Irfanview 4.36 öffnen, und auf info Button klicken, und siehe da, dort steht:

JPEG, quality: 99, subsampling ON (2x1)

Das bedeutet dass selbst bei der Sony SLT-A77 "Extra Fine" JPG Einstellung nicht mit maximaler JPG-Qualität gespeichert wird. Nur 99 % statt 100 % JPG-Qualität reduziert die Dateigröße bereit IMMENS (also Hohe Verluste), das Schlimmste jedoch ist, dass das Farb-Subsampling immer noch aktiviert ist !!!! Hierdurch verlieren knackige Farben ihre Brillanz.

Auf meiner Seite unter jpg Qualität ist das mit den Farbsubsampling mit/Ohne genauer beschrieben.
Ohne Farbsubsampling (1x1):
http://www.zeeshan.de/jpgquality/jpgquality-11.jpg
Mit Farbsubsampling (2x1):
http://www.zeeshan.de/jpgquality/jpgquality-12.jpg
Mit Farbsubsampling (2x2):
http://www.zeeshan.de/jpgquality/jpgquality-13.jpg

Ich habe in diversen Internetforen gelesen, es gibt Leute die die A77 nur wegen der JPG-Option "Extra Fine" gekauft haben (anstatt eine A65). Ich denke eine A65 und den Weg über RAW/ARW gehen + ein DT 35mmF1.8 ist ggf günstiger.

konzertpix.de
16.07.2013, 21:50
Oh Mann, wann entfernst du dich endlich von synthetischen Motiven als Vergleichsgrundlage, für deren Komprimierung und Speicherung JPG gar nicht geeignet ist? (http://de.wikipedia.org/wiki/Jpg#Visuelle_Qualit.C3.A4t_und_verwandte_Formate) Fotografierst du ausschließlich Bildschirmzeichnungen ab oder die Natur? Hast du jemals das hier (http://www.sonyuserforum.de/forum/showpost.php?p=1446048&postcount=62)gelesen und verstanden?

mrieglhofer
16.07.2013, 22:53
Ist ja auch so ein Mythos, der pauschal nicht stimmt. Trifft nur zu, wenn man verkleinert (oder auch vergrößert) auf zb Webgröße und das runterskalierte Bild, am besten nur leicht, nachschärfen will, wenn es das Programm, welches man benutzt, es nicht schon selber erledigt, wie zb Lightroom, wenn man denn will.

Leider nein, ist kein Mythos. Hängt mit dem Sehverhalten ab. Scharf ist ein Bild immer nur für einen bestimmten Betrachtungsabstand und einem bestimmten Medium. Erhöhst du den Betrachtungsabstand, musst du deutlich überschärfen , um den gleichen Schärfeneindruck zu erhalten. Schau dir mal den NIK Sharpener an, spiel mal ein wenig damit. Die haben auf ihrer Website das auch ein bisschen erklärt. Summa summarum, schärfen ist der letzte Schritt und ist aufs Medium, den Betrachtungsabstand und aufs Motiv abzustimmen.

physicist
16.07.2013, 23:21
@www_zeeshan_de

Eine Sache verstehe ich immer noch nicht, warum soll ich 75% der Pixel in dem Bild nach "/dev/null" verschieben? (also löschen)

Ja, ich weiß was ein Bayer-Filter ist.
Aber wenn das Reduzieren auf ein Viertel der Pixelzahl dazu dienen soll aus 2 grünen und jeweils 1 Roten und Blauen Helligkeitswert des Bayer-Sensors ein RGB-Pixel zu errechnen, so ist doch der von Dir vorgeschlagene Weg komplett falsch.

Was du machst, ist jeweils 4 RGB-Pixel zu einem neuen RGB Pixel zusammenzufassen.
In dem Moment wo Du deine Bilder als TIF speicherst sind die Helligkeitsinformationen des Sensors doch bereits in RGB-Werte umgerechnet/interpoliert worden.

Möchtest Du aus der Bayer-Matrix immer 2x2 Pixel zusammenfassen und zu einem RGB-Wert machen, so muss das doch noch mit den Rohdaten passieren.:!:
Das zusammenfassen von 2x2 Pixeln ist allerdings, in meinen Augen, ein total falscher Ansatz der nur zu überschärften Bildern mit Farbsäumen führt. (Wie man bei meinem Beispielbild welches exakt nach deiner Methode erstellt wurde sehr gut sieht)

Hier gibts einen Vergleich einiger Interpolationstechniken für Bayer-Bilddaten: http://www.thedailynathan.com/demosaic/algorithms.php?algorithm=pixelbinning&image=raw.png

Ob man das Endergebnis dann mit 90% oder 100% JPG Qualität speichert macht wohl am wenigsten aus.
Immerhin fehlen bei deiner Methode ja schon 75% der Bildinformationen und die restlichen 25% sind auch verfälscht, da sie aus bereits interpolierten Pixeln wieder zusammengerechnet wurden :D

Neonsquare
17.07.2013, 02:32
@www_zeeshan_de
Also ich weiß nicht, wie es anderen damit geht, aber bei mir ist bei Deinen Folgerungen immer das Hirnareal für "Fremdschämen" massiv beschäftigt. Für mich bewegt sich das auf einer Ebene, die ungesundes Halbwissen bereits deutlich überschritten hat. Ich kann Dir nur empfehlen mal viele Schritte zurückzugehen und nochmal zu beginnen. Ich meine das wohlwollend! Ich denke Du verschwendest Deine Zeit indem Du Dich verrennst.

Die von mir gesehenen Vorteile bei den Details in der RAW-Entwicklung haben nichts mit einer besseren JPEG-Komprimierung zu tun sondern mit besseren Schärfungsalgorithmen bei der RAW-Entwicklung.

Dein ganzer Ansatz mit der TIF-Konvertierung oder der Skalierung ist für die Tonne. Was soll das bezwecken? RAW-Konverter wie Aperture arbeiten intern mit 32 Bit Gleitkommawerten - die Konvertierung wird bei Bedarf durchgeführt und mit den Parametern so gewählt wie die konkrete Verwendung ist. Je nachdem kann man so komprimierte, verkleinerte Web-JPEGs erzeugen oder 16-Bit/Kanal PSD-Dateien für eine weitere Bearbeitung in Photoshop &Co. Das Geheimnis besteht darin nur das RAW und die Parameter zu archivieren und nicht fertig ausgerechnete RGB-Bilddaten.

Zu den JPEG-Theorien mit synthetischen Vergleichsbildern wurde eigentlich bereits genug gesagt.

www_zeeshan_de
18.07.2013, 20:42
@www_zeeshan_de

1.
Was du machst, ist jeweils 4 RGB-Pixel zu einem neuen RGB Pixel zusammenzufassen.
In dem Moment wo Du deine Bilder als TIF speicherst sind die Helligkeitsinformationen des Sensors doch bereits in RGB-Werte umgerechnet/interpoliert worden.

2.
Möchtest Du aus der Bayer-Matrix immer 2x2 Pixel zusammenfassen und zu einem RGB-Wert machen, so muss das doch noch mit den Rohdaten passieren.:!:

3.
Das zusammenfassen von 2x2 Pixeln ist allerdings, in meinen Augen, ein total falscher Ansatz der nur zu überschärften Bildern mit Farbsäumen führt.
4.
(Wie man bei meinem Beispielbild welches exakt nach deiner Methode erstellt wurde sehr gut sieht)
5.
Hier gibts einen Vergleich einiger Interpolationstechniken für Bayer-Bilddaten: http://www.thedailynathan.com/demosaic/algorithms.php?algorithm=pixelbinning&image=raw.png

6.
Ob man das Endergebnis dann mit 90% oder 100% JPG Qualität speichert macht wohl am wenigsten aus.
Immerhin fehlen bei deiner Methode ja schon 75% der Bildinformationen und die restlichen 25% sind auch verfälscht, da sie aus bereits interpolierten Pixeln wieder zusammengerechnet wurden :D

1. Die 4 RGB-Pixel über die du schreibst gibt es nicht, sondern Gruppen aus RGBG-Pixel, deren Werte ineinander verrechnet wurden. Diese wurden ( wie du ja selbst schreibst) anhand von Interpolation errechnet. Und was ich mache ist nichts anderes als das was per Interpolation hochgerechnet wurde, wieder auf die native Größe zu verkleinern (mit Bildung von EINEM Durchschnittswert aus 4). Nochmals zur Interpolation:
Nun gibt es Leute die sagen, alles was anhand von EIN PAAR WENIGEN DATEN mit Hilfe modernster RECHENMETHODEN (und es gibt x-Algorithmen dafür) auf NÄHERUNGSWERTE berechnet werden kann, ist absolut richtig und alles andere ist falsch. Ich gehöre jedoch NICHT dazu, ich bevorzuge Fakten anstatt (Wetter)vorhersagen. All zu oft ist es nämlich auch so, dass die Werte die per Interpolation hochgerechnet wurden, gar nicht stimmen. Doch die Überprüfung* wäre immens aufwändig und die Leute sind froh wenn es irgendwelche Werte gibt (ist immer noch besser als gar keine Werte zu haben).
*Um die (interpolierte) 24 MP TIF Bilder der Sony SLT-A65 zu vergleichen benötig man z B eine Sony SLT-A65B mit (interpolierten) 96 MP auf gleicher Sensorgröße. Das 96 MP TIF-Bild wird dann per NächsterNachbar/Pixelwiederholung auf exkt 24 MP TIF reduziert. Nun schaust du dir beide Bilder an, welches der Bilder hat auf Pixelebene mehr Details ? So einen Vergleich kann man nicht durchführen, weil es die A65B nicht gibt, aber was man machen kann ist das Bild einer 6 MP Kamera (Herstellerangabe) mit dem 6 MP der A65 vergleichen (nach Verkleinern auf halbe Größe [ohne Schärfen]). Hier hätte man dann einen direkten Vergleich von Interpolierten-Werten vs Werten(ohne Interpolation, also Fakten).

2. Gibt es einen Befehl für Sony Image Data Converter, damit ich GENAU DAS mal ausprobieren kann ?

3. Ich würde dich ja verstehen wenn du der Besitzer einer Nikon D800E wärst und nach dem Verkleinern der Bilder dir die Bilder zu scharf vorkommen, aber mit einer A37 (mit AA-Filter) ? Wenn du nach meiner Methode ein Bild auf HALBE Größe reduzierst (ohne jegliches vorhergehendes oder nachträgliches Schärfen) UND das Bild wirkt für dich Überschärft (weil es die native RGB-Auflösung abzüglich Bayer-Filter-Interpolation und Anit-Aliasing-Filter-Blurring erreicht hat), dann denke ich ist evtuell die Analoge Fotografie für dich geeigneter. Bei der digitalen Fotografie werden Analoge Informationen digitalisiert. Um diesen Digitalisierungs-Effekt in den Hintergrund zu schicken, versuchen Hersteller mit allen möglichen Mitteln (Interplationsverfahren, Anti-Aliasing-Filter und sonstige in die Firmware integrierte Funktionen) den Digitalisierungs-Effekt vor den den Augen der Kunden zu verwischen. Mit anderen Worten: Augenwischerei. Sobald man ein Bild in der nativen RGB-Auflösung sieht, ist es scharf, ja, es ist scharf, aber niemals überschärft, es sei denn, man hat es selbst überschärft.

4. Von welchen Farbsäumen redest du ? Du meinst weil du nach dem Halbieren der Bildgröße noch das Schärfen mit dem Wert 50 darüber gejagt hast ? Dann lass doch mal das Schärfen weg ! Oder probier mal mit Schärfen Wert 10 ? Schärfen ist ein recht komplexer und komplizierter Vorgang, das auf jedes Bild/Motiv einzeln abzustimmen ist. Ich hab bisher noch nie geschärft, mit dem Wert 50 habe ich mal versucht Fuß zu fassen, doch während es bei dem einen oder anderen Bild ok ist, kann es bei anderen Bildern wiederum schon zu viel sein.
Was ich eigentlich gesucht habe, ist ein Schärfungs-Wert für XN-View, das ich GENERELL auf alle Bilder anwenden kann, mit dem ich ungefär ein Ergebnise bekomme als wäre in der SONY SLT-A65 KEIN Anti-Aliasing-Filter verbaut worden. Siehe dazu auch mal:
http://www.dpreview.com/reviews/nikon-d800-d800e/27

5. Was soll ich jetzt damit ? Bin ich Hersteller von Digitalkameras ?
Wenn ich bei einer 24 MP Kamera (Herstellerangabe) echte 24 RGB-MP bekomme, bin ich vollstens zufrieden und werde das Bild dann natürlich auch nicht mehr verkleinern (wäre ja tatsächlich Informationsverlust auf RGB-Pixelebene!!). Ob diese 24 RGB-MP dann aus einem 96 MP Sensor mit Bayer-Filter gewonnen wurden, DAS wäre mir sowas von egal solange sich der Preis im 700 Euro Bereich bewegt. 96 Bayer-Filter-MP auf einem APS-C Sensor wäre aber schon heftig, und so bin ich mir sicher werden die Vollformat Sensoren die APS-C Sensoren ersetzen, sobald man die 50 bis 60 MP im Konsumer-Bereich erreicht hat (Ultra HD Bildschirme aber kommen definitiv zuerst und legen die Grundlage für den zunehmenden Bedarf an anspruchsvollen, hochauflösenden Bildern).

6.
Ob man das Bild nun in der Qualität
jpgquality-n3100.jpg=4,41 MB (4.635.369 Bytes)@2000 x 1500 Pixels (3.00 MPixels) (4:3)@JPEG, quality: 100, subsampling OFF
oder in der Qualität
jpgquality-n2090.jpg=1,13 MB (1.187.624 Bytes)@2000 x 1500 Pixels (3.00 MPixels) (4:3)@JPEG, quality: 90, subsampling ON (2x1)
speichert, macht wohl in deinen Augen keinen Unterschied. Bei näherem Betrachen jedoch
http://www.zeeshan.de/jpgquality/jpg_quality_100ss1x1_vs_90ss2x1.jpg
sieht man die JPG-Artefakte sehr wohl, auch das Farbensubsampling hat dem kräftigem Rot im Kissen ans Bein gepinkelt. Dieses Bild übrigens wurde aus einer 12 MP Kam auf 3 MP reduziert, insbesondere jetzt ist es besonders wichtig die JPG-Qualität auf maximum zu halten, denn ein interpoliertes 12 MP Bild in 90 % JPG-Qualität zu speichern ist was anderes als ein natives 3 RGB-MP Bild mit 90 % (und subsampling 2x1) zu speichern. Aber selbst wenn du in interpolierter nativer Auflösung mit 100% JPG-Qualität speichern würdest, falls du Subsampling 2x1 in Kauf nimmst, würde dann auch bei 100 % JPG-Qualität der knallrote Kuss im Kissen seine Brillanz verlieren. Was weg ist, ist weg.

physicist
18.07.2013, 21:57
1. Die 4 RGB-Pixel über die du schreibst gibt es nicht, sondern Gruppen aus RGBG-Pixel, deren Werte ineinander verrechnet wurden. Diese wurden ( wie du ja selbst schreibst) anhand von Interpolation errechnet. Und was ich mache ist nichts anderes als das was per Interpolation hochgerechnet wurde, wieder auf die native Größe zu verkleinern (mit Bildung von EINEM Durchschnittswert aus 4).

Doch, in der gespeicherten TIF besteht jeder Pixel bereits aus R,G und B Werten.
Da ist es schon zu spät für irgendwelche Techniken die man sonst auf Bayer-Sensordaten anwendet.

Du kannst die "herbei-interpolierten" RGB-Pixel auch nicht wieder "de-interpolieren".
Allein schon deshalb nicht weil du nicht weisst wie interpoliert wurde.

Du gehst immer davon aus das der 24MP Kamerasensor nativ nur 6MP hat (deine sogenannten RGBG-Pixel), das stimmt aber nicht. Der Sensor hat eine echte Auflösung von 24MP, jedoch kann der Sensor nur Helligkeitswerte ermitteln.Deswegen der Bayer Filter vor dem Sensor.
Die Auflösung der einzelnen Farben, ja die ist geringer, die Auflösung der Helligkeitswerte ist jedoch 24MP.
Das Problem bzw. die Aufgabe der Interpolation ist es also nicht irgendwelche Pixel dazu zu erfinden, sondern die Aufgabe ist es den real aufgenommenen Helligkeitswerten die richtige Farbe zuzuordnen.


Wenn du jetzt die Sensorpixel im 2x2 Raster einfach zusammenfasst kommt es zu Artefakten wie z.B. 1 Pixel breite Farbsäume.
Dazu kommen unnatürlich harte Kanten an Stellen mit hohen Kontrasten.
Ist ja logisch, denn auf einmal werden Informationen die normalerweise nebeneinander auf den Sensor liegen und gar nicht zusammengehören einfach übereinandergepackt.
Dadurch entstehen dann mitunter Pixel mit einer völlig falscher Farbe.

Hier noch ein Test darüber: http://www.informatik.hu-berlin.de/forschung/gebiete/viscom/teaching/media/cphoto10/cphoto10_03.pdf



Nochmals zur Interpolation:
Nun gibt es Leute die sagen, alles was anhand von EIN PAAR WENIGEN DATEN mit Hilfe modernster RECHENMETHODEN (und es gibt x-Algorithmen dafür) auf NÄHERUNGSWERTE berechnet werden kann, ist absolut richtig und alles andere ist falsch. Ich gehöre jedoch NICHT dazu, ich bevorzuge Fakten anstatt (Wetter)vorhersagen. All zu oft ist es nämlich auch so, dass die Werte die per Interpolation hochgerechnet wurden, gar nicht stimmen.

Dann werden sie aber erst recht nicht "richtiger" wenn du sie wieder mit einem ganz anderem Verfahren wieder zurück zu interpolieren versuchst.


2. Gibt es einen Befehl für Sony Image Data Converter, damit ich GENAU DAS mal ausprobieren kann ?

Ich kenne keinen, aber evtl. hilft ja die Konvertierung in DNG. Ist ja auch ein RAW Format (denke ich, kenne die genaue spezifikation nicht), evtl. gibt es dafür ein Tool mit dem man sich die Interpolationstechnik aussuchen kann.

Vielleicht gehts auch mit DCRAW oder ähnlichen Tools....
http://www.insflug.org/raw/Downloads/


3. Wenn du nach meiner Methode ein Bild auf HALBE Größe reduzierst ... UND das Bild wirkt für dich Überschärft (weil es die native RGB-Auflösung abzüglich Bayer-Filter-Interpolation und Anit-Aliasing-Filter-Blurring erreicht hat), dann denke ich ist evtuell die Analoge Fotografie für dich geeigneter.


Nein, es ist geeigneter für mich meine Bilder nicht durch angebliche "deinterpolier-Filter" selber zu zerstören.


Um diesen Digitalisierungs-Effekt in den Hintergrund zu schicken, versuchen Hersteller mit allen möglichen Mitteln (Interplationsverfahren, Anti-Aliasing-Filter und sonstige in die Firmware integrierte Funktionen) den Digitalisierungs-Effekt vor den den Augen der Kunden zu verwischen. Mit anderen Worten: Augenwischerei.

Das klingt wie eine Verschwörung :D


4. Von welchen Farbsäumen redest du ? Du meinst weil du nach dem Halbieren der Bildgröße noch das Schärfen mit dem Wert 50 darüber gejagt hast ? Dann lass doch mal das Schärfen weg ! Oder probier mal mit Schärfen Wert 10 ? Schärfen ist ein recht komplexer und komplizierter Vorgang, ...........

Ich habe XN-View zum ersten mal benutzt, zum umwandeln habe ich die Stapelverarbeitung benutzt. Ich finde dort keine Einstellung zum schärfen, zumindest keine die standardmäßig aktiv ist.
Wo siehst du heraus das ich irgendwo etwas geschärft habe?

Welche Farbsäume? Bitte schau dir das von mir erstellte Testbild mit den Booten noch einmal an. Fast an jedem Fenster sind Rote Pixel auf der weißen Fläche neben den Fenstern zu sehen.


5. Was soll ich jetzt damit ? Bin ich Hersteller von Digitalkameras ?

Nein, ich wollte dir zeigen das bei der Interpolation, so wie du sie gerne hättest, starke Artefakte entstehen. Schau dir das erste Beispiel doch einfach mal an.
Jede andere Interpolationstechnik bringt bessere Resultate als das zusammenfassen von 4 Sensorpixeln zu einem "RGBG-Pixel" wie du ihn nennst...

Wenn es dir egal ist wie die Interpolation funktioniert und welche Technik angewendet wurde, dann kannst du sie auch nicht rückgängig machen.
(Ich bezweifle das es selbst bei Kenntnis des Interpolationsverfahrens möglich ist, aber das kann uns evtl. ein Mathematiker beantworten)

mrieglhofer
18.07.2013, 23:38
Ich würde sagen, du gehst einfach mal fotographieren, machst von deinen besten Bildern einen Abzug in 50*60 nach den beiden Verfahren und zeigst uns den Unterschied.
Mich interessieren irgendwelche Vermutung und Annahmen über eine vielleicht theoretische Bildverbesserung nicht, wenn sie in der Praxis nicht sichtbar sind.
Hinsichtlich Schärfen liegst leider ein wenig falsch, da das Mass an Schärfe nie absolut ist, sondern vom Betrachtungsabstand abhängt. Dies ist auch Grund, warum es keine Universalschärfung geben kann.

Neonsquare
19.07.2013, 01:04
... liegst leider ein wenig falsch, da das Mass an Schärfe nie absolut ist, sondern vom Betrachtungsabstand abhängt. Dies ist auch Grund, warum es keine Universalschärfung geben kann.

Das ist absolut richtig.
Ein Nebeneffekt der steigenden Megapixelzahlen ist auch, dass man sich immer weniger Gedanken um Digitalisierungseffekte machen muss. Deswegen sind AA-Filter dieser hochauflösenden Sensoren oft schwächer oder immer öfter auch nicht vorhanden. Die effektive Auflösung des Systems steigt durch immer mehr Pixel immer weniger, aber die Aliasingeffekte verschwinden in den tatsächlich genutzten Auflösungen. Irgendwann ist die diskrete Natur des Sensors eben vernachlässigbar.

Ein herunterskalieren auf ein Viertel der Pixelauflösung ist nur dann sinnvoll, wenn dies auch die gewünschte Zielauflösung ist. Der Grad der notwendigen Schärfung hängt dann noch vom Betrachtungsabstand ab.

Was man nicht erreicht ist irgendeine Form der "Deinterpolation". Die ganze Idee ist Quatsch - durch den AA-Filter enthält jeder Bayerpixel automatisch auch Helligkeitsinformation der Nachbarpixel. Auch korrespondieren die R,G und B Werte nicht direkt mit den RGB-Pixeln des Bayersensors - denn es gibt dazwischen (neben der Interpolation an sich) mindestens noch die Abbildung des Sensorfarbraums in einen Standardfarbraum, einen Weißabgleich und eine Delinearisieung. Man darf generell nicht so sehr an den Bayer-RGB-Pixeln haften - letztlich kann man das auch als z.B. getrennt in Luminanz und Chroma sehen - jeder der Pixel trägt seinen Teil zur Luminanz bei - wobei der Grünkanal am meisten Luminanzinformation trägt. Es gibt mittlerweile sogar Ansätze welche statt den grünen Filtern durchsichtige Filter (also einfach keine) verwenden (z.B. aktuell Aptinas "Clarity+"). Denn man kann auch aus Gesamt-Luminanz, Rot und Blau die notwendige Information berechnen. Die Tatsächliche Detailwahrnehmung besteht hauptsächlich aus der Luminanzinformation und die ist nicht nur ein Viertel der Bayerpixel wie von Zeeshan naiv dargestellt wird.
Im Resultat ist ein RGB- Pixel im TIF ein komplex berechnetes statistisches Datum.

fotomartin
19.07.2013, 09:08
seit ein paar Seiten fällt mir zu dem Thread nur noch ein: Don't feed the troll :roll:

prodo
24.07.2013, 17:34
Ich hab noch etwas, was Dir evtl. bei der Verwaltung hilft wenn Du doch erstmal lieber RAW + JPEG fotografieren möchtest.

http://nubi.bplaced.net/msdelete/

Damit wählst Du Deine RAW und JPEG ordner aus und sagst dem Programm, alles was in dem einen Ordner als RAW nicht vorhanden ist lösche auch im JPEG-Ordner, oder halt umgekehrt.

Moin an alle.
ich wollte mir gerade msdelete herunterladen. Leider funktioniert der Link nicht mehr. Kennt jemand einen neuen?

StarScream
03.08.2013, 20:10
Nabend,

als Anfänger finde ich dieses Thema äusserst interessant. Ein Thema das stark polarisiert, und zigfach über das ganze Netz verteilt zu finden ist.
So bin ich auf diesen Artikel gestoßen.
Die darin vertretene Meinung deckt sich anscheinend auch mit einigen hier im Forum. (Zumindest habe ich solche Aussagen die in diese Richtungen gehen schon gelesen.)

http://nachbelichtet.com/2008/10/14/der-markus-meint-raw-oder-jpeg-klar-jpeg/

daso
03.08.2013, 20:41
Warum werden neue Kameras immer noch mit diesen und noch mehr (z. B. Nikons D-Lighting) Einstellungsmöglichkeiten ausgestattet, wenn doch nur RAW der Weg zum Glück ist? Ganz einfache Antwort: Weil die Qualität der JPEG-Fotos direkt aus der Kamera besser ist, als die von nachträglich konvertierten RAWs

Und wer sagt, dass ich das Foto genauso haben will wie es die JPG Engine berechnet? Da hat wohl einer nicht verstanden wozu man in RAW fotografiert...

das ist genauso ein leidiges thema wie playstation Vs XBOX oder Windows Vs Linux... soll doch jeder nutzen was er will ohne andere "bekehren" zu müssen...

www_zeeshan_de
03.08.2013, 23:09
...Die Auflösung der einzelnen Farben, ja die ist geringer...


Und die liegt bei einem 24 MP (Herstellerangabe) Sensor eben genau bei 6 MP. Danke für den Hinweis mit dcraw. Ich war in letzter Zeit ausschließlich damit beschäftigt, aus meine vorhanden RAWs mit dcraw und "-q x" die Ergebnisse zu prüfen und zu vergleichen.

Mein Ziel/Anspruch/Wunsch: Ich hätte gern die Farbwerte, die bereits auf vom Sensor in die RAW-Datei gespeichert wurden, OHNE jegliche Manipulation als RGB-Pixel. Hierfür ist höhere Mathematik mit rechenintensiven Interpolationsverfahren NICHT erforderlich. Nachdem ich selbst mit "-q 0" nicht zufrieden war, blieb mir nichts anderes übrig, sich mit dem Entwickler von dcraw in Kontakt zu treten (oder Falls keine Antwort, dann eben mit Kollegen den Code von dcraw zu analysieren und ggf selbst eine neue Funktion zu programmieren). Ich habe mein Anliegen dem Dave mitgeteilt, und er hat mir geantwortet WAS genau der Parameter "-h" bewirkt. In einem 2x2 Bayer Pattern befinden sich 2 Grüne, aus diesen wird ein Durchschnittswert für einen Grünen Pixel berechnet, anschließend werden die 3 Pixel (1xRot,1xGrün,1xBlau) zu einem RGB-Pixel zusammengefasst. Das geschieht übrigens ohne merkliche CPU-Auslastung, und die Ergebnisse, die sind genau das, was der Sensor "digitalisiert" hatte. Das Ergebnis ist also auf jeden Fall schärfer (Sättiger und Kontrastreicher) als jegliches Bild, sei es mit IDC oder dcraw "-q x" generiert und dann auf genau die Hälfte per nearest neighbor verkleinert. Leider befindet sich noch die Auswirkung des AA-Filters im Bild, um diese "ein wenig" zu eliminieren jage ich zum Schluss noch Schärfen+10 (per XNview) drüber [nach dem ich zuvor noch Kontrast+10 drüber gejagt habe). Ohne AA-Filter könnte ich das schärfen+10 reduzieren oder weglassen.

Wer möchte darf das gerne mal selbst ausprobieren und die Ergebnisse vergleichen. Mir war von vornherein klar wenn ich irgendwie einen Weg finden kann, mit dem die Bilder "untouched out of sensor" kommen, dann habe ich definitiv die beste Bildqualität (Schärfe, Kontrast, Farben).

Wahrscheinlich meckerst du jetzt über die "1 Pixel breite Farbsäume und harte Kanten". Die harte Kanten sind das was Bildschärfe beinhaltet, diese kommt vom Objektiv, ist somit gewünscht, der AA-Filter macht das Bild ja bereits unvermeidbar unscharf auf unterster Pixelebene. Was die Farbsäume betrifft, diese wurden weder per Software-Eingriff hinzugerechnet, noch manipuliert oder entfernt. Ganz im Gegenteil, sie entsprechen der Wahrheit, den Fakten, den Daten die auf dem Sensor festgehalten wurden, und zwar in dem Moment, indem man fotografiert. Du siehst sie wenn du das Bild auf 400 % oder größer digitalrein-zoomst, aber schau das Bild mal in 100 % an (nativ RGB), die Bilder wirken total natürlich und ausgewogen. Beim speichern mit JPG-Qualität 90 % hast du in der 400 % Ansicht 2 bis 3 Pixel breite JPG Artefakte, diese nimmst du gerne in Kauf aber meckerst über 1 Pixel breite natürliche harte Kanten ? Passt nicht zusammen.

Wie dem auch sei, mein Wunsch ging in Erfüllung und ich habe eine Lösung für meine Ansprüche gefunden. Das umwandeln von VIELEN RAW2TIF Bilder (in einem Schlag) mit dcraw ist kompliziert, weil die Puffer für die cmd-Line begrenzt ist, und deshalb werde ich mir wohl ein kleines Tool programmieren, der mir (und wenn ich schon dabei bin), auch ein paar andere Probleme gleich mit erledigt (Temp dirs vorher löschen, Dateidatum auf EXIF-Datum setzen, aus jedem ARW jeweils ein autobelichtung, ohnebelichtung, belwert2, belwert4 TIFF generiert), so habe ich bei unterbelichteten Bildern gleich das korrekt belichtete TIF vorhanden und kompiere es nur noch nach einen Ordner, dessen Inhalt später nach JPG umgewandelt wird.

www_zeeshan_de
03.08.2013, 23:46
Nabend,

als Anfänger finde ich dieses Thema äusserst interessant. Ein Thema das stark polarisiert, und zigfach über das ganze Netz verteilt zu finden ist.
So bin ich auf diesen Artikel gestoßen.
Die darin vertretene Meinung deckt sich anscheinend auch mit einigen hier im Forum. (Zumindest habe ich solche Aussagen die in diese Richtungen gehen schon gelesen.)

http://nachbelichtet.com/2008/10/14/der-markus-meint-raw-oder-jpeg-klar-jpeg/

Die Problematik besteht darin, dass Qualität inzwischen Definitionssache ist. Ein optisch scharfes Bild [ohne jegliches schärfen per EBV] kann bei vielen als überscharf empfunden werden (einfach weil viele Minderwertiges gewohnt sind oder weil ihnen eben Qualität vorenthalten wird!!!). Wenn man nun das optisch scharfe Bild nachträglich unschärft, verlustbehaftet speichert, dann sind die Konsumenten nicht nur mit dem Ergebnis zufriedener, sondern Sie freuen sich auch noch über kleine, handliche Dateien.

Optische Qualität zeichnet sich immer in erster Instanz per Bildschärfe aus (danach folgen CA, Farben, Kontrast usw). Bei PC Grafikkarten übertreffen sich die Hersteller mit x-fach Antialiasing... und klassifizieren somit Bildqualität. Hierzu muss man mal in die Vergangenheit zurückgehen (dies gilt auch für den AA-Filter in den Digitalkameras [vor dem Sensor]): Am Anfang hatte man relativ geringe Auflösungen auf den Sensoren bzw auf den Bildschirmen in denen die 3D Spiele liefen. Damals waren Treppeneffekte deutlich sichtbar, diese mussten also mit aller Macht "eliminiert" werden. Ob dadurch auch Details verloren gehen, oder der Kontrast im Bild darunter leidet, das wird dir keiner verraten (denn diese Verluste kann man ja schließlich per nachträglichem Schärfen oder color Boosting wieder gewinnen). Was ich dir damit sagen möchte, wie oft und welche Verfahren wurden denn auf dein JPG angewendet, das du aus der OOC-JPG als "Super Qualität" klassifizierst ? Du weißt es nicht ? Ich auch nicht, und wills auch gar nicht wissen. Ich weiß nur, dass da ETLICHE Manipulationen stattgefunden haben, und bei jeder Manipulation verliert das Bild an Schärfe, Kontrast und Farben. Zum schluss wird Kontrast und Color Boosting drübergejagt.

Wie wäre es wenn du ein Bild hättest ohne jegliche Manipulation ?
Hast du mal gesehen wie kräftig die Farben OO-RAW sind ?
Hast du mal gesehen wie scharf das Bild OO-RAW ist ?
Hast du mal gesehen wie Kontrastreich das Bild OO-RAW ist ?

Ich habe meine Vergleiche durchgeführt, und bin zu verblüffenden Ergebnissen gekommen.

Deshalb: Sich besser nicht als OOC-JPG-Fanboy outen, sondern bitte erst mal Vergleiche durchführen. Erst dann kannst du dir sicher sein, dass du in beide Welten OO-JPG vs RAW2TIF2JPG geschaut hast. Wenn du dann immer noch mit OOC-JPG zufrieden bist, dann ist das eben dein Anspruch, mit maximal (möglicher) Qualität hat das aber nichts zu tun. Und was RAW angeht, das ist gar kein Bild zum vergleichen, das sind nur Sensordaten, die festgehalten wurden (zusammen mit einem JPG-Thumbnail+EXIF+[verschlüsselte]MetadatenVomHersteller), aus dem man mit unterschiedlichem Interpolationsverfahren unterschiedliche Ergebnisse (bei identischem Belichtungs-Wert) bekommt. Entweder interpoliert man und bekommt ein Ergebnis, oder man lässt jegliche Interpolation (also künstliches hinzurechnen von Informationen) weg, dann bekommt man wieder ein anderes Ergebnis (für mich das Original).

So und jetzt darfst du Qualität für deine Ansprüche selbst definieren.

physicist
04.08.2013, 08:17
Nunja, ich denke der Thread hat gezeigt das jeder Qualität anders definiert.
Das zusammenfassen eines 2x2 Bayer Pattern zu einem RGB-Pixel mag zuerst logisch und sinnvoll erscheinen, führt jedoch zu extremen artefakten.

Wie ich schon sagte, wenn ich in Windows die Schriftartenglättung "Cleartype" aktiviere sehe ich auch farbsäume an der Schrift. Dadurch das farbige Subpixel des Monitors zur glättung benutzt werden. Vielleich sind meine augen einfach empfindlich dafür.

In meinen Augen ist eine umwandlung mit 2x2 pattern einfach nicht so richtig zuende gedacht...

Aber schön das dir mein Hinweis geholfen hat mit dcraw. Zum puffer-problem: wie wäre es mit einer simplen batch datei mit for-schleife?

StarScream
04.08.2013, 09:57
Guten Morgen,

wow hätte nicht gedacht das soviel hinter dem Thema steckt. Lediglich das es eine Geschmackssache über die Qualität ist, war mir bekannt.

Auch wenn ich noch nicht sonderlich gut darin bin, macht es mir als Anfänger einen heidenspass mit den Raw zu arbeiten. In den 4 Monaten in denen ich das mache habe ich mich im Vergleich zu meinen ersten Bearbeitungsversuchen schon verbessert.
Was ich meinte: Ich habe für mich noch nicht überprüft wie mir die Qualität der ooc-jpgs im Vergleich zu meinen entwickelten raws gefällt.
Denn jpgs habe ich mit meiner Kamera bisher kaum gemacht.

Eins interessiert mich noch, auch wenn ich das meiste was hier auch hochtechnisch aufgerollt wurde nicht verstehe.

Was ist ein OO-Raw?

Und sowie ich das jetz verstanden habe hat man ohnehin, und wenn überhaupt nur mit einem Tool das du da bastelst, die Möglichkeit. An Daten ohne Manipulation zu kommen.
Aber selbst wenn, man dran kommt und ein solches Raw erhält. Spielt dann nicht noch die Interpretation des Raw-Konverters bzw des Grafikprogramms eine Rolle.

Korrigiert mich sollte ich was falsch verstanden haben oder daneben liegen.

Edit:
Mit dem Link wollte ich auch niemanden provozieren oder diese Meinung vertreten / oder festklopfen.
Ich habe zwar nur in Raw gearbeitet bin aber auch dem jpg nicht abgeneigt. Und werde mich wohl auch noch eine Weile damit beschäftigen. :D

Neonsquare
04.08.2013, 11:42
wow hätte nicht gedacht das soviel hinter dem Thema steckt. Lediglich das es eine Geschmackssache über die Qualität ist, war mir bekannt.


Ich empfehle Dir eine gesunde Skepsis - denn so einiges hier im Thread ist technisch vollkommener Unsinn.


Auch wenn ich noch nicht sonderlich gut darin bin, macht es mir als Anfänger einen heidenspass mit den Raw zu arbeiten. In den 4 Monaten in denen ich das mache habe ich mich im Vergleich zu meinen ersten Bearbeitungsversuchen schon verbessert.
Was ich meinte: Ich habe für mich noch nicht überprüft wie mir die Qualität der ooc-jpgs im Vergleich zu meinen entwickelten raws gefällt.
Denn jpgs habe ich mit meiner Kamera bisher kaum gemacht.


Die Frage nach JPEG oder RAW ist nur bedingt eine Frage der erzielbaren Bildqualität. Prinzipiell ist beides ja technisch dasselbe: Einmal sitzt eben der Konverter in der Kamera und das andere mal als Programm auf einem weiteren Gerät. Wie gut die erreichbare Bildqualität gegenüber dem Potential der Kamera ist hängt von vielen Faktoren ab. Vor allem die Konverter älterer Kameras sind durch diverse Weiterentwicklungen von RAW-Konvertern heutzutage überholt. Nimmst Du jedoch eine brandneue Kamera aus dem Regal, dann ist (hoffentlich) deren RAW-Konverter State-Of-the-Art und gleichzeitig passiert es immer wieder, dass die RAW-Konverter von Drittherstellern noch nicht gut an das neue Modell angepasst sind.

Es gibt also niemals eine allgemeine Antwort zu der Frage, ob die Bildqualität einer Kamera mit JPEG oder mit RAW besser sei. Allerdings steckt im RAW stets das Potential die Bestmögliche Bildqualität zu erreichen. In einem JPEG hat man - mit viel Glück - die zu diesem Zeitpunkt beste Qualität. Sobald die RAW-Konverter am Rechner verbessert werden kann aus dem RAW wieder mehr herausgeholt werden.


Eins interessiert mich noch, auch wenn ich das meiste was hier auch hochtechnisch aufgerollt wurde nicht verstehe.

Was ist ein OO-Raw?


Das ist eine Bullshit-Erfindung. Es gibt diesen Begriff nicht außerhalb dieses Threads.


Und sowie ich das jetz verstanden habe hat man ohnehin, und wenn überhaupt nur mit einem Tool das du da bastelst, die Möglichkeit. An Daten ohne Manipulation zu kommen.
Aber selbst wenn, man dran kommt und ein solches Raw erhält. Spielt dann nicht noch die Interpretation des Raw-Konverters bzw des Grafikprogramms eine Rolle.


Das Tool ist ebenfalls Bullshit. Der damit realisierte "Workflow" lässt jeden Informatiker mit Wissen über Bildverarbeitung die Haare zu Berge stehen. Da gibt es so viele Faktenfehler, dass es schon schwierig ist einen sinnvollen Anfang zu finden das aufzudröseln. Schon alleine die Aussage, dass man durch Bayer-Interpolation nur ein Viertel der Auflösung hat ist Naiv. Der einzige wahre Bestandteil davon ist, dass die Grenzauflösung eines Bayersensors stets deutlich kleiner ist als die Anzahl an Sensorpixeln. Zur Verständnis darüber ist folgende Seite interessant:

http://www.thedailynathan.com/demosaic/algorithms.php

Dort werden eine Reihe von Interpolationsalgorithmen für Bayersensoren vorgestellt. "Pixel Binning" ist dabei die Variante, bei der die vier Pixel eines Bayer-Musters einfach zu einem Pixel zusammengefasst werden. Dabei wird Luminanz-Auflösung einfach verworfen. Die besten Interpolationsalgorithmen sind adaptiv - d.h. sie ziehen neben dem reinen Bayer-Muster-Prinzip auch den tatsächlichen Inhalt eines Bildes zu Rate. Denn - wer hätte das gedacht: Ein Foto enthält Information :top:. Adaptive Bayerinterpolation weiß diese Vorhandene Interpolation zu nutzen. Je mehr Information man aus dem Bild gewinnen will, desto schwieriger der adaptive Algorithmus. Der wohl komplizierteste Algorithmus der obigen Seite ist Pattern Recognition (Mustererkennung) und dieser eröffnet ein ganz neues Feld von Verbesserungen wo die Finale Qualität wieder sehr stark davon abhängt welche Muster erkannt werden können.


Edit:
Mit dem Link wollte ich auch niemanden provozieren oder diese Meinung vertreten / oder festklopfen.


Dein Link ist von 2008. Die Welt der RAW-Konverter hat sich seitem wieder deutlich weiterentwickelt. Ein heutiges Lightroom, Aperture oder Capture One ist besser als ein In-Camera-Konverter einer D300 von damals. Das heißt nicht, dass nicht heute möglicherweise der interne Konverter einer D800 besser sein könnte als so mancher aktuelle RAW-Konverter am Computer. Das ist aber nicht der Punkt: Jede RAW-Datei enthält das Potential daraus heute oder später die bestmögliche Bildqualität zu entwickeln. Bei einem Kamera-JPEG begrenzt man sich automatisch auf den Stand der Technik zum Zeitpunkt des Fotos.

konzertpix.de
04.08.2013, 12:15
Die Warnung von neonsquare vor den unzähligen falschen Schlüssen und Behauptungen in diesem Thread sollte vor Anzeigen des Threads hier in einem separaten Fenster erscheinen. Zweisprachig, damit Leute, die sich durch den Google-Übersetzer hierher leiten ließen, ebenfalls gewarnt werden.

aidualk
04.08.2013, 12:31
Da hat aber jemand klasse Zeug geraucht. :shock: :lol:

www_zeeshan_de
04.08.2013, 19:07
1.
Was ist ein OO-Raw?

2.
Und sowie ich das jetz verstanden habe hat man ohnehin, und wenn überhaupt nur mit einem Tool das du da bastelst, die Möglichkeit an Daten ohne Manipulation zu kommen.

3.
Aber selbst wenn, man dran kommt und ein solches Raw erhält. Spielt dann nicht noch die Interpretation des Raw-Konverters bzw des Grafikprogramms eine Rolle.

4.
Korrigiert mich sollte ich was falsch verstanden haben oder daneben liegen.



1. Ein ooc-jpg ist ein out of cam jpg. Nun kann man aber aus einer RAW-Datei ein Bild anhand unterschiedlichsten Algorithmen (in unterschiedlichsten Formaten wie ppm,tif,jpg,usw) erzeugen, und deshalb sind diese Bilder out of RAW generiert (also NICHT out of cam). In welchem Format du ein Bild erzeugen möchtest, ist dir überlassen, ich mache das über TIF, weil in TIF die EXIF mitgespeichert werden, und ich diese dann konvertieren von TIF nach JPG mit übernehmen kann. Bei ppm-Datei gabs über dcraw z B keine EXIF Daten, jpgs erzeugt der dcraw gar nicht (und brauchts das auch nicht zu tun, recht so).

2. Falsch. Das Tool, das ich entwickeln möchte dient nur meiner Bequemlichkeit tausende von RAW Dateien in einem Zug über dcraw in TIF zu konvertieren (ggf mit utnerschiedlichen Belichtungswerten). Um aus einer RAW-datei ein Bild ohne jegliche Manipulation zu generieren, kannst du das Tool dcraw.exe zur Hilfe nehmen. Kompilierte exe (bitte immer Antivirscan drüberjagen):
http://www.centrostudiprogressofotografico.it/en/dcraw/
Danach legst du deine RAW-Datei (z Beispiel DSC03069.ARW) in den dcraw.exe Ordner, startest cmd und gibst folgendes ein:

* OHNE BELICHTUNG (bei überbelichteten Bildern oder für Vergleiche und Benchmarks, Sterne und Mondfotografie):
dcraw -v -h -w -T -W DSC03069.ARW

Jetzt bekommst du ein TIF ohne jegliche Manipulation (kannst sogar auf einem Netbook mit lahmen Atom Prozessor machen, es gibt faktisch kaum was zum berechnen für die CPU).

Möchtest du das Bild belichtet entwickeln (also aufhellen), gibts unterschiedliche Optionen, ich liste Sie für dich mal auf:

* Automatisch belichten (Generell für alle Bilder):
dcraw -v -h -w -T DSC03069.ARW

* Mit Wert 2 überbelichten (Szenario: verdunkelte Personen im Vordergrund, Heller Himmel im Hintergrund):
dcraw -v -h -w -T -b 2 DSC03069.ARW

* Mit Wert 4 überbelichten (Szenario: stark verdunkelte Personen im Vordergrund, Heller Himmel im Hintergrund):
dcraw -v -h -w -T -b 4 DSC03069.ARW

3. Man erhält kein RAW, siehe Antwort Nr 2 .

4. Habe dich korrigiert. Ich denke mit Antwort Nr 2 hast du (und alle anderen Leser) jetzt etwas zum ausprobieren und vergleichen. Bitte immer auf die Farben, Kontraste, Bildschärfe (und wenns auf Pixelebene ist) achten. Bilder möglichst in gleicher Bildgröße vergleichen. Mit Sony IDC bekommt man immer ein 3000x2000 Pixel Bild, wogegen man mit dcraw immer ein 3012x2012 Pixel bekommt, trotzdem kann man diese vergleichen (mehr infos auf dcraw homepage den FAQ lesen [guugln]). Solltest du die Bilder mit Interpolation "-q x" 0,1,2,3 generieren (also 6000x4000 Pixel) wollen, musst du entweder die "-h" Bilder mit neares Neighbor auf das DOPPELTE vergrößern, oder die Interpolierten Bilder mit nearest Neigbor HALBIEREN. Wie man Bilder vergleicht? Also gut:
Zum vergleichen in fast stone image viewer mit STRG beide bilder markieren dann P drücken,
dann in der mitte oben auf den grünen "pfeil links" klicken,
dann wird das rechte bild auf dem linken drübergelegt, so siehst jeden unterschied. Wenn nötig, in die Ansicht 200 %, 400 % oder 800 % wechseln.

physicist
04.08.2013, 23:03
Na dass probier ich doch gleich mal aus.... (Spart den anderen Mitlesern hier Zeit und Mühe..)
Voila, hier mal ein Ausschnitt:

http://www.bilder-hochladen.net/files/thumbs/3f4x-b-6512.jpg (http://www.bilder-hochladen.net/files/3f4x-b-6512-jpg.html)



Rechts: Das out-of-cam JPG @ 100%
Links: Die jetzt neue Prozedur von zeeshan @ 200%

Gut... das Ergebnis ist erstaunlicherweise besser als ich dachte, aber ich finde es immernoch sinnlos das 75% der Auflösung nun weggeworfen wurden.
Da bringt es auch nix mir schönzureden wie toll scharf es doch bei 100% Ansicht nun ist.
Es nimmt ja nur noch ein Viertel der ursprünglichen Fläche ein, mit genügend Verkleinerung bekomme ich jedes Bild scharf :D

Ich hoffe langsam auch das niemand diese Methode hier wirklich ernst nimmt...

www_zeeshan_de
05.08.2013, 03:07
1.
Rechts: Das out-of-cam JPG @ 100%
Links: Die jetzt neue Prozedur von zeeshan @ 200%

2.
Gut... das Ergebnis ist erstaunlicherweise besser als ich dachte, aber ich finde es immernoch sinnlos das 75% der Auflösung nun weggeworfen wurden.

3.
Da bringt es auch nix mir schönzureden wie toll scharf es doch bei 100% Ansicht nun ist.
Es nimmt ja nur noch ein Viertel der ursprünglichen Fläche ein, mit genügend Verkleinerung bekomme ich jedes Bild scharf :D



1. Ein paar Infos mehr (wie du die tif erstellt hast wären sinnvoll), per dcraw bekommt man übrigens tiff-Dateien und keine tif wie in deinemm Screenshot.

2. Die 75 % Auflösung, von der du redest wurden anhand der 25 % (für mich 100 % nativ RGB-Auflösung) per Interpolation hochgerechnet.
==> Was nun für wen 100 % Ansicht ist, ist wiederum Definitionssache.
Ich hatte schon mal beschrieben, dass eine 6 MP (Herstellerangabe) Kamera in Sachen Auflösungsvermögen nicht mit einer 6 MP jpg (native RGB Auflösung ALT-A65) mithalten kann. Wärden die Interpolationsverfahren dermassen toll, wie sie angeprießen werden, dann müssten beide Bilder auf gleicher Höhe sein. Dem ist aber nicht so, und deshalb schweigt auch jeder über diesen Punkt.

3. Das Bild wurde nicht verkleinert, sondern entspricht der 100 % RGB-Sensorauflösung. Ein Bild in der Auflösung (Herstellerangabe) entspricht der Graustufenauflösung (im Optimalfall), die Farbwerte sind hochgerechnete, interpolierte Werte, also 200 %.
Erneut:
==> Was nun für wen 100 % Ansicht ist, ist wiederum Definitionssache.

Wieso stellst du nicht die original RAW-Datei und deine ooc-jpg zum download bereit ? Dann kann das jeder mal selbst testen/vergleichen.

Ich poste jetzt hier keine mickrigen Screenshots-Ausschnitte, wie man Bilder vergleicht, habe ich beschrieben. Ich stelle nun
DSC02026.ARW
DSC02027-ooc-bir.jpg
DSC02026-h+cont10+sharp10.jpg
zum download bereit (beide jpgs jeweils in der nativ RGB 100 % Ansicht).
http://www.zeeshan.de/slta65/oocjpghalf_vs_dcraw-h.zip
Vergleiche kann jeder selbst durchführen.

physicist
05.08.2013, 06:10
Du hast die Kommandozeile für dcraw gepostet, diese habe ich dann auch benutzt.* Automatisch belichten (Generell für alle Bilder):
dcraw -v -h -w -T DSC03069.ARW

Es ist eine .TIF und keine .TIFF da ich auf meinem Arbeits-Laptop gerade nur ein Programm hatte welches .TIF öffnen konnte, .TIFF jedoch nicht. Also habe ich die Dateiendung umbenannt.

Hier die Dateien in einer .zip:
http://www.share-online.biz/dl/HZH3I1RMKT7


Zu deinem Vergleich:
Dein OOC-JPG hat nur die halbe Auflösung wie deine RAW-Datei, toller Vergleich.....
Das ist doch kein Out-Of-Cam-JPG mehr wenn Du die Auflösung reduzierst :roll:

Neonsquare
05.08.2013, 08:49
Ich poste jetzt hier keine mickrigen Screenshots-Ausschnitte, wie man Bilder vergleicht, habe ich beschrieben. Ich stelle nun
DSC02026.ARW
DSC02027-ooc-bir.jpg
DSC02026-h+cont10+sharp10.jpg
zum download bereit (beide jpgs jeweils in der nativ RGB 100 % Ansicht).
http://www.zeeshan.de/slta65/oocjpghalf_vs_dcraw-h.zip
Vergleiche kann jeder selbst durchführen.

Erwartungsgemäß - starker Auflösungsverlust und heftiges Aliasing und Moiré bei Zeeshans "00-Raw" (Toiletten-RAW).

StarScream
05.08.2013, 09:59
Moin,

das Linke sieht ja mal absolut besch**** aus!!

Ich mache das wie bisher. Raw in Lightroom entwickeln.

Das Zeuch da oben ist zu kompliziert, und 00-Rawentwicklung sieht nach Müll aus.

Irgendwie komm ich mir bei der 00-Raw Geschichte veralbert vor.

Könnte ja ein Troll sein...

Neonsquare
05.08.2013, 14:30
@StarScream
Die Option -h bei dcraw entspricht dem "Pixel Binning"-Algorithmus auf der von mir verlinkten Seite. Dort steht dazu auch:

While this process works well in theory, and computationally is very inexpensive, binning comes at the cost of severely reduced resolution - in this case of the 2x2 Bayer unit, resolution is reduced 1/2 in both horizontal and vertical directions. Basic binning also does not deal with the offset in red, green, and blue photodetectors - thus color artifacts at edges will still exist.

"works well" ist dabei insbesondere im Kontext "very inexpensive" und der extrem einfachen Realisierung zu sehen. So etwas lässt sich auch in Hardwareform leicht realisieren oder auf schwachbrüstigen Mobilgeräten. Trotzdem ist mit den komplexeren Algorithmen wesentlich mehr Information nutzbar.

www_zeeshan_de
11.08.2013, 01:43
Das ist doch kein Out-Of-Cam-JPG mehr wenn Du die Auflösung reduzierst..

* Ob man nun ein Bild anhand Interpolation hochskaliert und das hochskalierte Bild dann als 100 % Bildgröße betrachtet
ODER
* Ob man das Bild ohne Interpolation (und somit ohne Hochskalieren) als 100 % Bildgröße betrachtet
==> das ist Definitionssache.

Ich hatte dir bereits beim ersten Posting von deinem Bild angemerkt, dass dein Bild deutlich überschärft ist, damals hast du gefragt woher ich das weiß, na ganz einfach, indem ich mir das Bild angeschaut hatte (Bildausschnitt). Jetzt wo ich auch mal das ganze Bild habe, inkl als RAW+EXIF, sehe ich anhand der EXIF meinen verdacht bestätigt, denn du hattest Sharpen +1 in der Kamera eingestellt. Es wird ein Zoom-Obj verwendet (natürlich perfekt für Vergleichsbilder [ironie]) und reicht es nicht, dass neben Farben+1 und Kontrast+1 auch noch alle sonstige In-Kamera-Manipulations-Funktionen aktiviert sind, hast du auch noch ISO 200 bei sonnigem Tageslicht eingestellt.

Was du jetzt erwartest, ist dass der Weg über den RAW-Konverter denselben Müll herbeizaubert, den du am Gesamtergebis im ooc-jpg hast. Alles was ich dir sagen kann, ist dass du über RAW die Option hast, eine jpg mit maximaler Qualität zu speichern (out of raw jpg), diesen Weg gibts GAR NICHT über ooc-jpg, weil die Kamera nur mit 94 % jpg-Qualität und Farbsubsampling 2x1 die ooc-jpgs speichert.

Es macht wenig Sinn, insbesondere bei deinem vorliegendem ARW, über X RAW Konvertern zu gehen, um dir zu zeigen dass man irgendwie an dem Punkt kommt, den du da gerne wie ooc-jpg hättest.

Ich habe da ganze andere Impulse, gehen wir doch mal zurück zu dem Punkt, an dem du dein Bild gemacht hast, und du hättest (fiktiv) eine Festbrennweite drauf (womit Farben+1,Kontrast+1,Schärfen+1 überflüssig wird, bei Blende 7 übrigens ist auch aut Chromaticaberr-corr überflüssig), und statt ISO 200 hättest auf ISO 100 gesetzt (womit man auch OHNE jegliche Rauschunterdrückungsalgorithmen brauchbare Ergebnisse erzielt), was glaubst du was hättest du da auf deinen Sensor gebrannt ? Denselben Müll oder doch etwas optisch hochwertigeres am Gesamtergebnis ?
"dcraw -h" manipuliert dein Bild nicht im Geringsten sondern legt dir Fakten auf den Tisch, das zeigt sich in mehr Bildrauschen [gleichzeitig aber auch in mehr Details worüber eher geschwiegen wird].

Mein Impuls ist, ich hätte gern das was ich da auf dem Sensor brenne, und zwar SO wie ich es drauf gebrannt habe OHNE jegliche Veränderung. Mich interessieren die Algorithmen, die vom Hersteller zu Hersterller unterschiedlich sind, sei es in Rauschunterdrückung, auto-HDR, Objektivkorrektur und was weiß ich noch, recht wenig.
//(Exkurs
Hast du schon mal programmiert ? Weiß du wie viel Murks jeden Tag programmiert wird bis man zu brauchbaren Ergebnissen kommt oder Ergebnisse von Algorithmen, die als brauchbar eingestuft werden, sind oft nur NOT-Lösungen.
//)Exkurs
Wenn ich es schaffe, einen fotografischen Moment qualitativ hochwertig auf den Sensor zu brennen, dann bekomme ich auch qualitativ brauchbare Ergebnisse.
Lässt du dich von A nach B chauffieren um später allen zu erzählen dass du heute einen so tollen Wagen gefahren hast ?

Ich habe mir zum Schluss nur noch den Kran links oben in deinem Bild angeschaut, die Überschärfungs-Säume um den Kran findest du nur im ooc-jpg, im in der "dcraw -h" gibts die nicht. Insgesamt ist das Bild aber selbst in der "dcraw -h" Variante nicht sonderlich überzeugend, das liegt aber eindeutig am ISO 200 und am Zoom-Obj. Das 35 F1.8 kostet momentan 180 Euronen im Angebot beim Händler, bei denen Frauen männergleich in den Krieg zogen.

www_zeeshan_de
11.08.2013, 02:30
Oh Mann, wann entfernst du dich endlich von synthetischen Motiven als Vergleichsgrundlage, für deren Komprimierung und Speicherung JPG gar nicht geeignet ist? (http://de.wikipedia.org/wiki/Jpg#Visuelle_Qualit.C3.A4t_und_verwandte_Formate) Fotografierst du ausschließlich Bildschirmzeichnungen ab oder die Natur? Hast du jemals das hier (http://www.sonyuserforum.de/forum/showpost.php?p=1446048&postcount=62)gelesen und verstanden?

Du verweist auf Wikipedia ? Wow ganz toll, dort steht natürlich immer nur das RICHTIGE. Wer schreibt denn eigentlich die Artikel dort ? Wusstest du dass Wikipedia Artikel ständig geändert werden, teilweise auch gelöscht weil dort oft Falschinformation verbreitet werden?

Ich drehe den Spieß jetzt mal ganz einfach um, deine Aussage ist, dass das JPG-Format für "synthetischen Motive, Screenshots" nicht geeignet ist.
Daraus folgt:
Das Bild mit dem "Synthetischem Motiv"
http://www.zeeshan.de/jpgquality/jpgquality-11.jpg
muss KLAR UND DEUTLICH SICHTBAR verschlechtert worden sein, weil es im jpg-Format gespeichert wurde.
Prüfergebnis: Dem ist nicht so. Das Bild hat KEINE sichtbare Artefakte oder sonstige Verschlechterungen erfahren, nachdem es im JPG-Format gescpeichert wurde.

Es stimmt vorne und hinten nicht was du da behauptest, und nur weil es auf Wikipedia so steht, bedeutet das erst recht mal gar nichts.

Das hat sich bei den Leute evtl so verbreitet, weil das sich so rumgesprochen hat. Aber warum hat es sich so rumgesprochen ?

Ganz einfach: Weil jemand ein Screenshot als JPG gespeichert hat OHNE vorher die JPG-Qualitätsstufe aufs Maximum (Farbsubsampling deaktivieren) zu setzen (ggf weil oft die Programme gar keine Optionen bieten). Was dabei dann raus kommt, siehst du ja auf (wobei das ebenfalls 100 % JPG-Qualität ist, aber eben mit Farbsubsampling)
http://www.zeeshan.de/jpgquality/jpgquality-13.jpg

Nur weil es Leute gibt, die nicht wissen dass JPG unterschiedliche Qualitätsoptionen hat, bedeutet es noch lange nicht dass JPG für Screenshots ungeeignet ist.
Komplett lächerlich.

Kannst du 100%ig ausschließen dass aktiviertes Farbsubsampling KEINE negative Folgen auf fotografische Bilder hat ?
Nein kannst du nicht.
Ich empfehle dir (falls du ein qualitativ hochwertiges Bild im RAW-Format hast), daraus JPGs zu generieren, einmal mit deaktiviertem Fabsubsampling, und dann eben mit aktiviertem.
Selbst ein Blinder sieht den Unterschied.

Und komm mir künftig nicht mit "wurde schon in x Diskussionen diskutiert" oder "ist historisch bedingt". Nur weil man die letzten 1000 Jahre etwas "historisch bedingt" falsch gemacht hat, muss es nicht heißen dass man es auch die nächsten 1000 Jahre falsch machen muss.
Über Contergan hat man auch gesagt, ist wunderbar.
Und was ist dabei rausgekommen ?
Über Handy-Strahlung, WLAN-Strahlung, und der ganze Elektrosmog sagt man auch, es ist unschädlich. Aber was weiß man über die Langzeitwirkung ? Wie ist es in 50 Jahren wenn plötzlich die Krebsrate steigt, oder neuartige Krankheiten in Erscheinung treten und es sich dann herausstellt, dass die MAX Strahlungswerte runtergeregelt werden müssen?

@Neonsquare:
Bei dir würde ich mich freuen wenn du deine Fäkalien-Diplomarbeit zu Ende geschrieben hast. Fast jedes Posting von dir beginnt mit oder beinhaltet "Bullshit" oder "Toilette". Gewiss kein Ort für ein Gespräch unter Erwachsenen, mit diesen Begriffen hast du dir aber selbst jegliche Basis dafür genommen, dass ich auf deine Kommentare antworte.

konzertpix.de
11.08.2013, 03:21
Herr, wirf Hirn hinunter... :zuck:

Zur Definition wälz dich halt durch das englische Original: http://www.jpeg.org/jpeg/index.html - die Wikipedia-Autoren machen auch nichts anderes, nur daß sie versuchen, es auf deutsch darzustellen.

Natürlich kann man ein JPG so speichern, daß es praktisch keine sichtbaren Artefakte zeigt. Zu welchen Kosten? Dein Beispiel ist 1,5 MB groß. Das ist für einen Screenshot schlicht viel zu viel, als GIF mit 64 Farben (mehr enthält der Screenshot sichtbar nicht) ist exakt dasselbe Bild 175 kB groß. Einhundertfünfundsiebzig Kilobyte, nicht eintausendfünfhundert Kilobyte! Und das bleibt es sogar, selbst wenn man es 20 mal öffnet und wieder als GIF mit 64 Farben speichert! So etwas ist sinnvoll eingesetzte Kompression, nicht dein supertolles Beispiel!

Bei Fotos sieht das vollkommen anders aus. Fotos enthalten Millionen und Abermillionen Farbnuancen und um diese sinnvoll komprimieren zu können, nutzt man JPG und hierbei dessen unterschiedliche Komprimierungsfaktoren und -Optionen, je nachdem, wieviel Verlust gegenüber dem Original man einkalkulieren mag - man wägt ab zwischen Verlust und erzielbare Dateigröße (bzw. ihre Kleinheit). Mit allen seinen Nachteilen, aber mit dem Riesen Vorteil der stark schrumpfbaren Dateigröße. Und dem Nachteil, daß ein zweites Mal speichern eines Bildes das Ursprungsbild nicht wieder generiert, sondern erneut versucht, anhand diverser Algorithmen vernachlässigbare Informationen zu finden und wegzulassen.

So, und nun wird es Zeit, dich und deine Unreflektiertheit in Quarantäne zu schicken und der Ignore-Liste einen weiteren Eintrag angedeihen zu lassen. So einen ausgemachten Blödsinn gibt es hier definitiv kein zweites Mal. Saublöd ist allerdings wie schon erwähnt, daß hier unbedarfte Dritte dein Geschwafel als Wahrheit erachten könnten und damit sich der Blödsinn zum Schaden des SUF ungehindert weiter verbreiten könnte :flop:

Neonsquare
11.08.2013, 07:37
Du verweist auf Wikipedia ? Wow ganz toll, dort steht natürlich immer nur das RICHTIGE. Wer schreibt denn eigentlich die Artikel dort ? Wusstest du dass Wikipedia Artikel ständig geändert werden, teilweise auch gelöscht weil dort oft Falschinformation verbreitet werden?


Du bist echt nicht echt oder? Geheimnisvolle Hintermänner fälschen die Beschreibung des JPEG-Bildformats auf Wikipedia?


Es stimmt vorne und hinten nicht was du da behauptest, und nur weil es auf Wikipedia so steht, bedeutet das erst recht mal gar nichts.


Du scheinst nicht ganz zu verstehen wie das läuft - wir Glauben hier nicht einfach unhinterfragt irgendeiner Instanz. Auf Wikipedia stehen bei guten Artikeln nicht nur zusammengetragene Infos sondern auch Quellenangaben. Die Fakten können so schnell geprüft werden - insbesondere bei rein technischen Themen wie hier. Statt hier zu herumzutönen hättest Du das längst tun können - stattdessen muss wieder jemand anderes für Dich den Erklärbär spielen.


Nur weil es Leute gibt, die nicht wissen dass JPG unterschiedliche Qualitätsoptionen hat, bedeutet es noch lange nicht dass JPG für Screenshots ungeeignet ist.
Komplett lächerlich.


Wenn der Screenshot ausreichend viele Farben und Verläufe enthält dann ist JPEG durchaus geeignet - das ist ja gerade der Punkt. Deine synthetischen Beispiele sind jedoch trist und wüst und bieten fast nur homogene Flächen, dafür ist JPEG nicht gedacht und nur bedingt geeignet.


Kannst du 100%ig ausschließen dass aktiviertes Farbsubsampling KEINE negative Folgen auf fotografische Bilder hat ?
Nein kannst du nicht.


Das hat er nicht geschrieben - allerdings ist JPEG von Grund auf dazu konstruiert fotografische Bilder hocheffizient zu kodieren. Wenn man diese Effizienz empirisch beobachten möchte reicht es nicht synthetische Primitivbildchen zu kodieren. Aber wenn man keine echten Fotos hat muss man eben zu sowas greifen hm? Wie wärs mal mit einem Spaziergang inkl. Kamera an frischer Luft? Oder lassen sie dich nicht raus? ;)


Über Contergan hat man auch gesagt, ist wunderbar.


Welch schräge Gehirnwindungen führen Dich zu derartigen Vergleichen?


Und was ist dabei rausgekommen ?
Über Handy-Strahlung, WLAN-Strahlung, und der ganze Elektrosmog sagt man auch, es ist unschädlich. Aber was weiß man über die Langzeitwirkung ? Wie ist es in 50 Jahren wenn plötzlich die Krebsrate steigt, oder neuartige Krankheiten in Erscheinung treten und es sich dann herausstellt, dass die MAX Strahlungswerte runtergeregelt werden müssen?


Jetzt wickel mal die Alufolie vom Kopf runter und komm endlich in der echten Welt an.


@Neonsquare:
Bei dir würde ich mich freuen wenn du deine Fäkalien-Diplomarbeit zu Ende geschrieben hast. Fast jedes Posting von dir beginnt mit oder beinhaltet "Bullshit" oder "Toilette". Gewiss kein Ort für ein Gespräch unter Erwachsenen, mit diesen Begriffen hast du dir aber selbst jegliche Basis dafür genommen, dass ich auf deine Kommentare antworte.

Du machst es Dir leicht - Du gehst nie auf inhaltliche Argumente ein. Schön dass Du wenigstens reagierst, wenn man drastisch vor Deinen Ergüssen warnt. Womöglich bist Du doch gar kein Troll-Scherz-Computerprogramm sondern doch nur ein armer Tropf der sich total verrannt hat.
Jemand zeigt ein Bild welches nach Deiner Methode erstellt wurde und die vollkommen erwartbaren negativen Eigenschaften demonstriert und Du kommst mit "Festbrennweiten". Jetzt mal wirklich vollkommen ernst: Du machst Dich hier zum Affen. Ich glaube Dir, dass Du eine Menge über das Zeugs nachgedacht hast, aber Du hast bereits früh auf falschen Annahmen basiert und sitzt jetzt auf einem Scherbenhaufen von hanebüchenen Theorien. Das schlimme daran ist, dass Anfänger diesen Irrwegen folgen könnten. Bedenke nicht jeder der vermeintliche Irrwege und vom gängigen Wissen abweichende Ideen verbreitet ist ein Galileo Galilei. Die meisten sind einfach verblendete Sturköpfe die sich keinerlei Wissen aneignen können weil sie in ihrer Paranoia nur noch Verschwörungen sehen.

physicist
11.08.2013, 09:04
* Ob man nun ein Bild anhand Interpolation hochskaliert und das hochskalierte Bild dann als 100 % Bildgröße betrachtet
ODER
* Ob man das Bild ohne Interpolation (und somit ohne Hochskalieren) als 100 % Bildgröße betrachtet
==> das ist Definitionssache.

Ich erkläre dir mal meine Definition. 100% sind Originalauflösung des fertigen Bildes. Bei meinen ooc-JPGs also 16MP, bei deinen "00-RAWs" 4MP.
Das sind jeweils 100%. Es macht Sinn diese auch so zu vergleichen. Punkt.
Eigenschaften die ich am Endergebnis verändere brauche ich nicht zu vergleichen.

Der Vergleich findet dann bei gleicher Darstellungsgröße statt.
Nein, um ein Bild um den Faktor 2 in Länge und Breite größer darzustellen benötigt man keine Interpolation. Aus einem Pixel werden einfach 4.


Jetzt wo ich auch mal das ganze Bild habe, inkl als RAW+EXIF, sehe ich anhand der EXIF meinen verdacht bestätigt, denn du hattest Sharpen +1 in der Kamera eingestellt.
Ja, und ich bin sehr glücklich damit.


Es wird ein Zoom-Obj verwendet (natürlich perfekt für Vergleichsbilder [ironie]) und reicht es nicht, dass neben Farben+1 und Kontrast+1 auch noch alle sonstige In-Kamera-Manipulations-Funktionen aktiviert sind, hast du auch noch ISO 200 bei sonnigem Tageslicht eingestellt.

Boah... ISO200. Da muss die Kamera ja grottenschlechte Bilder machen. Alles total verrauscht bei der Einstellung. lol :lol:

Ja natürlich benutze ich das Zoomobjektiv zum vergleichen.
Es geht hier immernoch um "OOC" gegen "deine Konvertierung". Das mache ich mit meiner Kamera und meinem Objektiv welches ich nutze.... Sonst bringt mir der Vergleich nix.


Was du jetzt erwartest, ist dass der Weg über den RAW-Konverter denselben Müll herbeizaubert, den du am Gesamtergebis im ooc-jpg hast. Alles was ich dir sagen kann, ist dass du über RAW die Option hast, eine jpg mit maximaler Qualität zu speichern (out of raw jpg), diesen Weg gibts GAR NICHT über ooc-jpg, weil die Kamera nur mit 94 % jpg-Qualität und Farbsubsampling 2x1 die ooc-jpgs speichert.

Ja... moment, ich überleg mal kurz:
- 100% der Auflösung mit Farbsubsampling 2x1 und JPG@94%
- 25 % der Auflösung und falsch interpolierte Pixel ohne Farbsubsampling und JPG@100%
...


Es macht wenig Sinn, insbesondere bei deinem vorliegendem ARW, über X RAW Konvertern zu gehen, um dir zu zeigen dass man irgendwie an dem Punkt kommt, den du da gerne wie ooc-jpg hättest.
Jup, da sind wir uns einig.


Ich habe da ganze andere Impulse, gehen wir doch mal zurück zu dem Punkt, an dem du dein Bild gemacht hast, und du hättest (fiktiv) eine Festbrennweite drauf (womit Farben+1,Kontrast+1,Schärfen+1 überflüssig wird, bei Blende 7 übrigens ist auch aut Chromaticaberr-corr überflüssig), und statt ISO 200 hättest auf ISO 100 gesetzt (womit man auch OHNE jegliche Rauschunterdrückungsalgorithmen brauchbare Ergebnisse erzielt), was glaubst du was hättest du da auf deinen Sensor gebrannt ? Denselben Müll oder doch etwas optisch hochwertigeres am Gesamtergebnis ?

Achso, jetzt liegt es an meinem minderwertigen 1650F28 SSM, ja sag das doch gleich. :roll:
Sorry, aber jetzt an der Ausrüstung den Fehler zu suchen ist wohl mehr als sinnlos.

Ja, das Bild hätte evtl. in ISO100 gemacht werden sollen, ich würde es mittlerweile auch so machen. Aber es war genau der Sinn meines Spazierganges durch Hamburg diese Sachen auszuprobieren.


Mein Impuls ist, ich hätte gern das was ich da auf dem Sensor brenne, und zwar SO wie ich es drauf gebrannt habe OHNE jegliche Veränderung. Mich interessieren die Algorithmen, die vom Hersteller zu Hersterller unterschiedlich sind, sei es in Rauschunterdrückung, auto-HDR, Objektivkorrektur und was weiß ich noch, recht wenig.
Denn solltest du dir belichtete "Bayer-Bilder" an die Wand hängen wo die Farben nebeneinander liegen. Hat das schonmal jemand ausprobiert? bei Großen Plakaten werden die Farben ja auch nebeneinander gedruckt :D

Alternativ empfehle ich eine S/W Kamera ohne Bayer-Filter. (Leica M Monochrom)


//(Exkurs
Hast du schon mal programmiert ? Weiß du wie viel Murks jeden Tag programmiert wird bis man zu brauchbaren Ergebnissen kommt oder Ergebnisse von Algorithmen, die als brauchbar eingestuft werden, sind oft nur NOT-Lösungen.
//)Exkurs
Ja, habe ich. Zum Thema Murks und Notlösung, mit deiner dcraw -h Interpolation bist du genau dort angekommen.


Ich habe mir zum Schluss nur noch den Kran links oben in deinem Bild angeschaut, die Überschärfungs-Säume um den Kran findest du nur im ooc-jpg, im in der "dcraw -h" gibts die nicht.
Jup, da sind Schärfungssäume bei über 100% Ansicht...
Dafür besteht er aber bei gleicher Darstellungsgröße nicht nur noch aus verpixelten chromatischen Abberationen wie in der von dir hochgelobten "00-RAW".
Edit: Vergleichsbild am Ende dieses Postings angefügt


Insgesamt ist das Bild aber selbst in der "dcraw -h" Variante nicht sonderlich überzeugend, das liegt aber eindeutig am ISO 200 und am Zoom-Obj.

Also meine Zusammenfassung:

- SAL 1650f28 SSM = Schlechtestes Zoomobjektiv ever...
- ISO200 = Total verrauschte Pixelsuppe...

- 4MP sind besser als 16MP
- Chromatische abberationen brauchen nicht beseitigt werden
- "Pixel Binning", der Demosaic-Algo. mit den meisten Artefakten, liefert bei dir die besten Bildergebnisse (aha...)
- Schärfen, bzw. jegliche Form der nachbearbeitung des RAWs ist böse (ja, Lightroom wird völlig überbewertet, das braucht kein Mensch)

Danke, ich habe verstanden :top: :mrgreen:


EDIT:
Der Kran... Der ja so schlimm aussieht da rechts in der ooc-JPG.
Links! Ja, links ist er gut... verpixelt, voller CAs... aber eigentlich doch gut. Irgendwie...
Doch isser, ich bin mir sicher... :lol:
/ironie off

http://www.bilder-hochladen.net/files/thumbs/3f4x-c-c20a.jpg (http://www.bilder-hochladen.net/files/3f4x-c-c20a-jpg.html)
Links: zeeshan's Methode, Rechts: OOC-JPG

@zeeshan:
Wie kannst Du dir bei dem Beispiel noch was schönreden?
Die Pixelsuppe da auf der linken Seite ist dir zufolge also die "native" Aufnahme des Sensors?
Das "mehr" an Details auf der rechten Seite ist also völlig frei dazuerfunden von völlig unfähigen Algorythmen?

Ich glaube du hast dich mit deinen Theorien so dermaßen verrannt das du den Wald vor lauter Bäumen nicht mehr siehst....

fotogen
11.08.2013, 09:11
Ist aus der Diskussion ableitbar, warum Profikameras kleine jpgs machen, die so gut ausschauen wie RAW entwickelte jpgs und Einsteiger- bis Semipro Kameras grosse jpgs mit schlechterer Qualität erzeugen?

Kann das mit Profifarb- und Helligkeitsprofilen zu tun haben?

Sind die schlechten jpgs nur so gross, weil sie viele Artefakte enthalten, die im Prinzip viele Falschinformationen darstellen, welche Speicherplatz benötigen, während eine artefaktfreie homogene glatte Fläche viel weniger Speicherplatz benötigt?

mrieglhofer
11.08.2013, 11:51
Ist aus der Diskussion ableitbar, warum Profikameras kleine jpgs machen, die so gut ausschauen wie RAW entwickelte jpgs und Einsteiger- bis Semipro Kameras grosse jpgs mit schlechterer Qualität erzeugen?

Kann das mit Profifarb- und Helligkeitsprofilen zu tun haben?

Sind die schlechten jpgs nur so gross, weil sie viele Artefakte enthalten, die im Prinzip viele Falschinformationen darstellen, welche Speicherplatz benötigen, während eine artefaktfreie homogene glatte Fläche viel weniger Speicherplatz benötigt?

Rauschen und Entrauschen in der Vorverarbeitung hat grossen Einfluss auf die Dateigröße. profikameras weisen in der Regel sehr große Pixel auf, damit kann das Bild bei kleinerer Dateigröße kleiner ausfallen und besser aussehen.

Zum TO:
Nur mal zum Nachdenken. Da gabs doch mal den Witz: "Achtung: auf der Autobahn ist ein Geisterfahrer unterwegs. Darauf der Ausruf: "Was, einer? Hunderte!"

Es gibt da draussen sehr viele Leute, die hochkompetent beruflich solche Dinge entwickeln und verwenden. Die Wahrscheinlichkeit, dass gerade du einen neuen revolutionären wissenschaftlichen Ansatz entdeckt hast, halt ich dahingehend für Null.

www_zeeshan_de
11.08.2013, 13:38
Edit: Vergleichsbild am Ende dieses Postings angefügt


Ich gehe künftig den Weg über "dcraw -h", damit ich ein Bild mit möglichst wenige Veränderungen bekomme. Im Vergleich zu ooc-jpg beinhaltet das Ergebnis von "dcraw -h" generell kräftigere Farben (sofern auf 00c-jpg kein color boosting angewendet wurde
ODER
wenn doch, dann schwinden im ooc-jpg die Details in farbigen Bereichen bzw an farblichen Übergängen (es entstehen color clipping), genau hier liegen in "dcraw -h" die Stärken: Es beinhaltet die kräftigere Farben (ohne jegliches Boosting).
Ich habe mir dein Vergleichsbild gespeichert und was sagt Irvanview Info ?
JPEG, quality: 98, subsampling ON (2x2)
Du postest einen Bild-Ausschnitt zum Vergleichen, speicherst es vorher aber bewusst in einer minderwertigen Qualität. Dadurch entstehen größere Verluste im "dcraw -h" Bildausschnitt als im ooc-jpg (am ooc-jpg wurde ja bereits Farbsubsampling angewendet und es wurde mit 94 % out of cam gespeichert).
Deshalb meine bitte an dich, künftig bitte generell (wenigstens) bei Vergleichsbildern immer mit 100 % jpg-Qualität speichern und das subsampling DEAKTIVIEREN.

Auch wenn dein Bild ein echt schwieriges Beispiel ist (und es in minderwertiger Qualität gespeichert wurde), und du gerne 4 gegen 1 vergleichst, so muss ich dennoch erwähnen, dass im linken Bild (1fache Auflösung) insbesondere am OBEREN Kranabschnitt erkennbar ist dass er gelb ist, wogegen dies im rechten Bild(4fache Auflösung) nicht der Fall ist. Das Bild rechts ist bleich, selbst der Himmel enthält im linken Bild noch farbigen Übergang, rechts ist der Himmel eher einfarbig.

Neonsquare
11.08.2013, 14:02
Auch wenn dein Bild ein echt schwieriges Beispiel ist (und es in minderwertiger Qualität gespeichert wurde), und du gerne 4 gegen 1 vergleichst, so muss ich dennoch erwähnen, dass im linken Bild (1fache Auflösung) insbesondere am OBEREN Kranabschnitt erkennbar ist dass er gelb ist, wogegen dies im rechten Bild(4fache Auflösung) nicht der Fall ist. Das Bild rechts ist bleich, selbst der Himmel enthält im linken Bild noch farbigen Übergang, rechts ist der Himmel eher einfarbig.

Das ist Schönrederei. Auch in diesem Beispiel ist gut erkenntlich, dass mit deiner Methode ein starker Detailverlust einhergeht. Aus Farbartefakten nun eine höhere Farbempfindlichkeit abzuleiten halte ich für gewagt. Auf meinen Einwand, dass deine Methode die Luminanzinformation der vollen Pixelauflösung verwirft bist Du bis jetzt nicht eingegangen. Stattdessen liest man in Deinen Antworten eine gewaltige Skepsis über jegliche Bildverarbeitungsalgorithmen - ohne jegliche konstruktive Zweifel sondern aus nahezu religiös anmutender Abneigung.

physicist
11.08.2013, 14:12
Im Vergleich zu ooc-jpg beinhaltet das Ergebnis von "dcraw -h" generell kräftigere Farben
Ja, aber die falschen, dank 2x2-Pattern=RGB-Pixel wunschdenken...


JPEG, quality: 98, subsampling ON (2x2)
Du postest einen Bild-Ausschnitt zum Vergleichen, speicherst es vorher aber bewusst in einer minderwertigen Qualität. Dadurch entstehen größere Verluste im "dcraw -h" Bildausschnitt als im ooc-jpg


Die Unterschiede sind so dermaßen gravierend, da spielt Subsampling keine Rolle mehr und auch nicht ob mit 98 oder 100% Qualität gespeichert wurde....

so muss ich dennoch erwähnen, dass im linken Bild (1fache Auflösung) insbesondere am OBEREN Kranabschnitt erkennbar ist dass er gelb ist, wogegen dies im rechten Bild(4fache Auflösung) nicht der Fall ist. Das Bild rechts ist bleich, selbst der Himmel enthält im linken Bild noch farbigen Übergang, rechts ist der Himmel eher einfarbig.

Naja, ob der Kran da gelb ist, oder ob es nur irgendeine Farbe irgendwo zwischen dunkelgrau und Hellblau ist...
Auf dem Linken Bild ist der Kran sogar Grün und Rot.... :D

Einfarbig oder bleich ist da am Himmel auch nix... Ich sehe einen glatten Farbverlauf.
Das Rauschen ist nur entfernt und der Farbton etwas anders.

fotogen
11.08.2013, 14:13
Ich gehe künftig den Weg über "dcraw -h", damit ich ein Bild mit möglichst wenige Veränderungen bekomme. Im Vergleich zu ooc-jpg beinhaltet das Ergebnis von "dcraw -h" generell kräftigere Farben (sofern auf 00c-jpg kein color boosting angewendet wurde
ODER
wenn doch, dann schwinden im ooc-jpg die Details in farbigen Bereichen bzw an farblichen Übergängen (es entstehen color clipping), genau hier liegen in "dcraw -h" die Stärken: Es beinhaltet die kräftigere Farben (ohne jegliches Boosting).
Ich habe mir dein Vergleichsbild gespeichert und was sagt Irvanview Info ?
JPEG, quality: 98, subsampling ON (2x2)
Du postest einen Bild-Ausschnitt zum Vergleichen, speicherst es vorher aber bewusst in einer minderwertigen Qualität. Dadurch entstehen größere Verluste im "dcraw -h" Bildausschnitt als im ooc-jpg (am ooc-jpg wurde ja bereits Farbsubsampling angewendet und es wurde mit 94 % out of cam gespeichert).
Deshalb meine bitte an dich, künftig bitte generell (wenigstens) bei Vergleichsbildern immer mit 100 % jpg-Qualität speichern und das subsampling DEAKTIVIEREN.

Auch wenn dein Bild ein echt schwieriges Beispiel ist (und es in minderwertiger Qualität gespeichert wurde), und du gerne 4 gegen 1 vergleichst, so muss ich dennoch erwähnen, dass im linken Bild (1fache Auflösung) insbesondere am OBEREN Kranabschnitt erkennbar ist dass er gelb ist, wogegen dies im rechten Bild(4fache Auflösung) nicht der Fall ist. Das Bild rechts ist bleich, selbst der Himmel enthält im linken Bild noch farbigen Übergang, rechts ist der Himmel eher einfarbig.

Das rechte Kranbild ist deutlich besser als das linke. Wenn Du was besseres willst, warum nimmst Du dann nicht einfach den DXO Konverter oder lightroom, anstatt mit einem nichtkommerziellen Konverter und Entwicklungsparametern zu spielen?

Neonsquare
11.08.2013, 17:28
warum nimmst Du dann nicht einfach den DXO Konverter oder lightroom, anstatt mit einem nichtkommerziellen Konverter und Entwicklungsparametern zu spielen?

Weil er denkt, dass die entwickelten Interpolationsalgorithmen für Bayersensoren alle das "native" Bild nur schlechter machen. Weil er immer noch nicht sieht, dass Pixelbinning Luminanzinformation verwirft. Weil er weder Interpolation noch diskrete Cosinustransformation versteht. Weil er einzelne Fakten maßlos überinterpretiert - ein Beispiel:

A) Interpolation berechnet aus diskreten Stützwerten kontinuierliche Zwischenwerte
B) Die berechneten Zwischenwerte weichen von realen Werten ab
C) Abweichung ist schlecht
D) Beim Pixelbinning findet keine Interpolation statt
Zeeshans Schlußfolgerung: Pixelbinning ist besser weil keine Interpolation, also auch keine Abweichung durch Interpolation

Realität: Die einzelnen Pixel eines Bayer-Quadrupel weichen spatial (örtlich) ab. Damit ergeben sich Farbartefakte und Aliasing an Pixelübergängen. Das sind ebenfalls Abweichungen von der idealen Abbildung, welche durch Interpolation vermieden werden können. Pixelbinning nutzt lediglich die Farbinformation der einzelnen Pixel und verrechnet sie. Spatiale Luminanzinformation wird verworfen.

urmeli-hd
11.08.2013, 20:27
Ich bin erstaunt über den Diskussionsverlauf - ein typischer Männer-Thread: Technikverliebt, an Messwerten orientiert, m.E. am Ergebnis erheblich vorbei diskutiert. Gute Ergebnisse bekommst du schlimmstenfalls auch mit einem Handy hin - es kommt immer auf die Bildaussage an, das Werkzeug und seine Möglichkeiten ist allenfalls Mittel zum Zweck.

Ich habe mir auch oft die Frage gestellt, ob es besser sei, meine Bilder in RAW oder als JPG aufzunehmen und ich habe einige wie Glaubenskriege ausgetragene Diskussionen im Web gelesen - am Ende denke ich, muss jeder seinen eigenen Weg finden und selbst wissen, was für ihn alleine die "Wahrheit" ist. Vor vielen Jahren hatte ich eine Dunkelkammer zusammen mit einem Freund. Irgendwann ist die Fotografie familienbedingt auf den Hund gekommen, ich habe das Equipment verkauft und nach Jahren wieder ganz klein mit einer Minolta A1 angefangen- Alles in JPG aufgenommen und so verwendet, wie sie aus der Kamera kamen. Dann folgten digitale DSLR mit anderen Möglichkeiten. Dann fing ich wieder an, Bildbearbeitung zu betreiben - diesmal nicht analog, sondern digital. Für mich stand recht bald fest, dass meine Fotografierarbeit mit der Aufnahme nicht beendet ist - und alle meine persönlichen Vergleiche haben mir bewiesen, dass dafür das RAW-Format die besseren, d.h. v.a. besser durchzeichneten Ergebnisse liefert. Letztlich muss das jeder für sich selbst entscheiden. Ich selbst speichere derzeit meine Bilder sowohl als RAW als auch als JPG, wobei ich allerdings dazu übergehen werde, mich komplett auf RAW zu beschränken.

Für RAW spricht das bessere Ausgangsmaterial für eigene digitale "Dunkelkammer"arbeit - dafür taugt JPG einfach nicht, jedenfalls haben mir alle meine praktischen Versuche gezeigt, dass das nichts für mich ist. Gegen RAW spricht das proprietäre Format, von dem ich nicht weiss, ob es in 10 Jahren noch ein Programm geben wird, das mit genau der RAWs meiner Kameras umgehen kann (DNG ist da für mich, der ich mit Aperture arbeite, leider auch keine Alternative). Für JPG spricht die halbwegs verlässliche Erwartungshaltung, dass man dieses Format auch in 10, vielleicht sogar 20 Jahren noch wird öffnen können - wobei das auch niemand wirklich weiss. Die Frage nach Speicherkapazität dürfte heutzutage ohnehin kaum noch einer stellen wollen.

Die ganzen theoretischen Ergübelungen des Threads gehen mir viel zu sehr am Ziel vorbei - und die kann nur heissen, mit den sich dir bietenden Möglichkeiten eine beabsichtige Aussage umzusetzen.

Neonsquare
11.08.2013, 20:40
Ich bin erstaunt über den Diskussionsverlauf - ein typischer Männer-Thread: Technikverliebt, an Messwerten orientiert, m.E. am Ergebnis erheblich vorbei diskutiert. Gute Ergebnisse bekommst du schlimmstenfalls auch mit einem Handy hin - es kommt immer auf die Bildaussage an, das Werkzeug und seine Möglichkeiten ist allenfalls Mittel zum Zweck.


Ich bin erstaunt über Deinen Beitrag. Ja es gibt gefühlt hunderte RAW vs. JPEG Threads auf die Dein Beitrag wie der Deckel auf den sprichwörtlichen Topf passen würde - aber bei diesem Thread geht es mittlerweile überhaupt nicht darum sondern um einige krude Fehlinformationen, die vehement entgegen aller Gegenargumente und Gegenbeispiele verteidigt werden. Wenn man diesem Thread eines nicht vorwerfen kann, dann das von Dir genannte.

Andererseits - vielleicht ist das ja von Dir so gemeint, dass wir dem verbreiten von Fehlinformation entgegentreten indem wir einfach wieder das alte Streithennen-Thema auspacken? :lol:

physicist
11.08.2013, 21:07
Die ganzen theoretischen Ergübelungen des Threads gehen mir viel zu sehr am Ziel vorbei - und die kann nur heissen, mit den sich dir bietenden Möglichkeiten eine beabsichtige Aussage umzusetzen.

Eben, und mit 16 Megapixel hat man mehr "Möglichkeiten" als mit 4 Megapixel :D

*zwinker*

urmeli-hd
11.08.2013, 21:20
...vielleicht ist das ja von Dir so gemeint, dass wir dem verbreiten von Fehlinformation entgegentreten indem wir einfach wieder das alte Streithennen-Thema auspacken?

Nein. Aber nach diesen unzähligen Beiträgen müsste doch klar geworden sein, dass auch weder eine noch so theoretische Ergrübelung noch irgendein Messwert zu irgendetwas führen wird.Zweit Fronten - offensichtlich unvereinbar. Wie viele gute Bilder hätte man in dieser Zeit machen und bearbeiten können...

(eine Zeitlang war's ganz interessant, das alles zu verfolgen - jetzt reicht's)

mrieglhofer
11.08.2013, 21:35
Nein. Aber nach diesen unzähligen Beiträgen müsste doch klar geworden sein, dass auch weder eine noch so theoretische Ergrübelung noch irgendein Messwert zu irgendetwas führen wird.Zweit Fronten - offensichtlich unvereinbar. Wie viele gute Bilder hätte man in dieser Zeit machen und bearbeiten können...

(eine Zeitlang war's ganz interessant, das alles zu verfolgen - jetzt reicht's)

Geht ja um was anderes. Da ist ein Geisterfahrer unterwegs. Und davor muss man Anfänger halt warnen, sonst glauben sie den Blödsinn auch noch. Inhaltlich ist der Threat soundso sinnfrei.

urmeli-hd
12.08.2013, 07:26
Geht ja um was anderes. Da ist ein Geisterfahrer unterwegs. Und davor muss man Anfänger halt warnen, sonst glauben sie den Blödsinn auch noch...

Wenn du auf der Autobahn einem Geisterfahrer begegnest, hilft allein ausweichen. Alles andere ist lebensgefährlich.

Neonsquare
12.08.2013, 07:31
Wenn du auf der Autobahn einem Geisterfahrer begegnest, hilft allein ausweichen. Alles andere ist lebensgefährlich.

Naja - aber die Polizei benachrichtigen wär schon auch etwas sinnvoll oder? ;)

urmeli-hd
12.08.2013, 07:36
Naja - aber die Polizei benachrichtigen wär schon auch etwas sinnvoll oder? ;)

Stimmt. Aber wer ist hier die Polizei? Und was soll die machen? Den Thread löschen, den User sperren? Auch nicht in Ordnung...

Ich kenne keinen Geisterfahrer, dem man argumentativ beikam. Egal. Schluss jetzt.

Neonsquare
12.08.2013, 09:32
Stimmt. Aber wer ist hier die Polizei? Und was soll die machen? Den Thread löschen, den User sperren? Auch nicht in Ordnung...


Metaphern tragen nicht immer 100%ig. Wenn jemand allerdings darauf pocht anstatt den Wink mit dem Zaunpfahl zu folgen, dann steht er entweder auf der Leitung oder macht es mit Absicht.


Ich kenne keinen Geisterfahrer, dem man argumentativ beikam. Egal. Schluss jetzt.

Nicht böse gemeint - aber was ist denn eigentlich Dein Problem? Ich kann Dir da irgendwie nicht ganz folgen. Mittlerweile haben mehrere Forenmitglieder erklärt, dass es zuletzt vor allem darum ging den in diesem Thread von dem genannten "Geisterfahrer" publizierten Theorien zu widersprechen. Du scheinst das irgendwie anders zu sehen?

urmeli-hd
12.08.2013, 10:04
Nicht böse gemeint - aber was ist denn eigentlich Dein Problem? Ich kann Dir da irgendwie nicht ganz folgen. Mittlerweile haben mehrere Forenmitglieder erklärt, dass es zuletzt vor allem darum ging den in diesem Thread von dem genannten "Geisterfahrer" publizierten Theorien zu widersprechen. Du scheinst das irgendwie anders zu sehen?

Eigentlich möchte ich keine Meta-Diskussion führen, um einen nutzlos gewordenen Thread aufzuarbeiten - aber du fragst mich nach meinen persönlichen Problem: Ich bin von der Diskussion inhaltlich wie formal genervt.

Grundsätzlich halte ich die Entscheidung ob RAW oder JPEG oder beides oder vielleicht bei manchen auch besser gar kein Format für eine wichtige Frage: Diese Frage muss jeder für sich selbst beantworten, weil jeder einen anderen Ansatz bzw. eine andere Intention hat, an das Thema Fotografieren und Verarbeiten bzw. Speichern der erhaltenen Ergebnisse heran zu gehen. Ich habe Sie für mich beantwortet - vielleicht nicht abschliessend, aber zumindest für den Moment: RAW + parallele Speicherung von JPG. Wenn andere meinen, JPG sei das für sie geeignetere Format, dann soll es so sein. Ob es grundsätzlich das bessere ist, ist mir ehrlich gesagt wurschtegal - mir persönlich ist ausschliesslich wichtig, was das praxisgerechteste Ergebnis für meine Kombination Kamera + persönliches fotografisches (Un)vermögen + Rechner + EBV-Software + persönliches (Un)vermögen bei der EBV das zielführendste Ergebnis bringt.

Wenn ich mir die Argumente der "Gegenseite" anschaue: Der Mann ist Informatiker und so denkt und argumentiert er auch. Ich mag mich täuschen, aber mir scheint es, als sei für ihn der Prozess der Bilderstellung und -bearbeitung ein v.a. technisches Vorgehen - wie willst du jemandem, der sich so weit weg von einer kreativen Herangehensweise bewegt, etwas mit Erfolg entgegnen. Das sind zwei unterschiedliche Ebenen, auf denen man sich hier begegnet.

Irgendwie erinnert mich das an die etwas aus der Mode gekommenen Diskussionen um die Frage, ob nun 5 oder 12 MP besser seien. Das führt zu nix. Und zum Hinweis auf die Anfänger: Ich glaube, dass kaum ein Anfänger diese Diskussion wirklich zuende verfolgt. Die Frage, ob nun RAW oder JPG besser sei, ist nun (nicht nur für den Anfänger) auch nicht beantwortet.

So - und nun habe ich mich dazu verführen lassen, doch noch etwas zu schreiben...

Neonsquare
12.08.2013, 10:19
Eigentlich möchte ich keine Meta-Diskussion führen, um einen nutzlos gewordenen Thread aufzuarbeiten - aber du fragst mich nach meinen persönlichen Problem: Ich bin von der Diskussion inhaltlich wie formal genervt.


Dann gebe ich Dir den ernstgemeinten Tipp Dir zu überlegen, ob Du diese Diskussionen nicht einfach besser ignorierst. Andererseits ist für mich die Tatsache, dass Du Dir die Mühe gemacht hast das alte Thema nochmal auszugraben ein Zeichen dafür, dass Dich die Diskussion doch tangiert.


Wenn ich mir die Argumente der "Gegenseite" anschaue: Der Mann ist Informatiker und so denkt und argumentiert er auch. Ich mag mich täuschen, aber mir scheint es, als sei für ihn der Prozess der Bilderstellung und -bearbeitung ein v.a. technisches Vorgehen - wie willst du jemandem, der sich so weit weg von einer kreativen Herangehensweise bewegt, etwas mit Erfolg entgegnen. Das sind zwei unterschiedliche Ebenen, auf denen man sich hier begegnet.


Er ist nicht der einzige Informatiker ;) - und bloß weil er das scheinbar ist, heißt das nicht dass er fehlerfrei ist, denn gerade jene Aspekte welche die technischen Details umfasst sind von ihm vollkommen falsch verstanden worden. Da liegt eine Menge gefährliches Halbwissen! DAS ist der Knackpunkt der letzten Diskussionen. Da ist jemand der es offenbar irgendwie schafft bei Dir als "wissender Informatiker" durchzukommen und mit technischen Fehlinformationen bei Dir und anderen möglicherweise dieses Unwissen ablädt. Das hat einige Forenkollegen eben dazu gebracht immer wieder zu korrigieren. Offenbar trotzdem teilweise erfolglos.


Irgendwie erinnert mich das an die etwas aus der Mode gekommenen Diskussionen um die Frage, ob nun 5 oder 12 MP besser seien. Das führt zu nix. Und zum Hinweis auf die Anfänger: Ich glaube, dass kaum ein Anfänger diese Diskussion wirklich zuende verfolgt. Die Frage, ob nun RAW oder JPG besser sei, ist nun (nicht nur für den Anfänger) auch nicht beantwortet.


Provokante These: Diskussionsforen sind zum diskuttieren da. Wenn Du Fragen wie "RAW vs. JPEG" oder von mir aus "Viel vs. Wenig MP" nicht diskuttiert sehen willst - dann ist das ganze Thema Fotoforum vielleicht keine so gute Idee. Im Ernst: Wenn Du es nicht ertragen kannst, dass Fragen diskuttiert werden die für Dich keinen Sinn ergeben, dann ignorier es eben. Es ist doch blöd sich dann hinzustellen und zu sagen "Hey ihr - ich finde eure Diskussion blöd - hört halt auf!".

konzertpix.de
12.08.2013, 10:48
Ich fände es fast sogar besser, diese Metadiskussion um RAW vs. JPG aus dem Thread hier abzutrennen, denn damit hat urmeli Recht, daß sich diese Diskussion ja gar nicht ums Thema dreht.

Nur hapert es in diesem Thread an einem immens: es passt bereits der erste Teil des Thread-Titel nicht zum Inhalt des Openerposts. Dem TO ging es nämlich gar nicht darum, Vorteile vs. Nachteile von RAW vs JPG herauszufinden, sondern offenbar darum, einen Weg zu finden, vom RAW zum ordentlich geratenen JPG zu kommen, ohne groß an irgendwelchen Reglern zu zupfen oder erst noch lange auf ein Programm zu warten...

Das ist der Punkt, um den es von Anfang an geht und gar nicht eine Darstellung RAW vs. JPG.

Insofern könnte zeeshans Ansatz ja sogar ein sinnvoller Ansatz sein, wenn er denn auch in der Umsetzung sinnvoll wäre. Ist er aber nicht - nur ist er ganz offensichtlich auch nicht in der Lage, trotz diverser Gegenbeispiele seitens seines verwendeten Ausgangsmaterials und entsprechend umgesetzter Ergebnisbeispiele zu erfassen, daß er einem Denkfehler unterliegt. Wenn nun jemand unbedarft hergeht und mühselig sein "Geheimrezept" anwendet, macht er sich damit vollkommen unnütze Arbeit.

Neonsquare
12.08.2013, 11:50
Ich fände es fast sogar besser, diese Metadiskussion aus dem Thread hier abzutrennen, denn damit hat urmeli Recht, daß sich diese Diskussion ja gar nicht ums Thema dreht.


Da bin ich anderer Meinung - erst durch diese "Metadiskussion" hat sich für mich gezeigt, dass trotz unserer Bemühung die Botschaft des vermeintlichen Geheimrezepts eines Informatikers ankommt.

konzertpix.de
12.08.2013, 12:11
Danke für deinen Post! Ich hab meinen ein wenig umgestellt und die Metadiskussion auf ihren Inhalt reduziert, denn die ursprüngliche Reihenfolge der Absätze konnte missverständlich interpretiert werden.

Man sollte hier eine Ausnahme vom sonst üblichen und durchaus sinnvollen Prozedere machen und den kompletten Thread im Nirvana versenken.

physicist
12.08.2013, 12:20
Dem TO ging es nämlich gar nicht darum, Vorteile vs. Nachteile von RAW vs JPG herauszufinden, sondern offenbar darum, einen Weg zu finden, vom RAW zum ordentlich geratenen JPG zu kommen, ohne groß an irgendwelchen Reglern zu zupfen oder erst noch lange auf ein Programm zu warten...


Das trifft es eigentlich ganz gut.
Als ich diesen Thread eröffnet habe ging es mir in erster Linie darum eine Möglichkeit zu finden die Vorteile von RAW und JPG zu vereinen.

Vorteil JPG:
- Bild ist "fertig" (entrauscht, geschärft, weißabgleich etc)

Vorteil RAW:
- Bessere Möglichkeiten zur Nachbearbeitung.

Die OOC-JPG gefällt mir in der Regel besser als ein von Lightroom automatisch angepasstes RAW. Als Anfänger beim Post-Processing bekomme ich aus Lightroom jedoch keine Bilder die besser aussehen als die OOC-JPGs.

Nun würde ich die RAW-Nachbearbeitung gerne dort beginnen wo die OOC-JPG aufgehört hat. Dies geht aber nur mit dem IDC.

Diese Diskussion ist, für mich zumindest, auch schon längst geklärt. :top:



Zeeshan geht einen ganz anderen Weg, er möchte genau das Gegenteil.
Ein 100% unbearbeitetes Bild. In seinen Augen quasi "noch unbearbeiteter als ein RAW"
Sprich die Wiederherstellung der Informationen wie sie noch VOR dem Bayer-Filter vorlagen.

Klingt toll, ist aber auf seeshans Weg komplett daneben. Also warum nicht darüber diskutieren :D

www_zeeshan_de
12.08.2013, 19:24
...quasi "noch unbearbeiteter als ein RAW"
Sprich die Wiederherstellung der Informationen wie sie noch VOR dem Bayer-Filter vorlagen...

Nur weil du was zur Belustigung brauchst, brauchst keinen Schwachsinn über mich verbreiten. So etwas habe ich nie geschrieben (du darfst dazu gerne den gesamten Thread nochmals durchlesen).

Wie es aussieht hast du wohl noch immer nicht verstanden was genau ich eingentlich haben wollte (und dass ich es inzwischen ja längst habe): Ich hätte gern einen Algorithmus/Funktion/Software um aus den RAW-Dateien Bilder zu erzeugen (anhand der Pixel binning Methode ==> ein 2x2 Bayer-Pattern wird zu einem RGB-Superpixel zusammengefasst), die keiner zusätzlichen Manipulation unterliegen (Rauschunterdrückung, Colorboosting, CA Correction, Objektivkompensation, Auto-HDR, usw). Dies ist der einzige Weg, die Fakten, die in der RAW-Datei gespeichert sind, unverändert auf den Tisch zu legen.

Selbstversändlich liegen diese Informationen NACH DEM BAYER FILTER auf dem Sensor und somit IN der RAW-Datei.

"""
Boah... ISO200. Da muss die Kamera ja grottenschlechte Bilder machen. Alles total verrauscht bei der Einstellung. lol
"""
Ja, wenn du mit "dcraw -h" das Bild enwickelst, ist das so. Wie ich schon oben erwähnt habe, das Bild unterliegt KEINERLEI (möchtegern) Verschönerung. Es mag bei deiner 16 MP Kamere bei ISO 100 weniger rauschen als bei meiner SLT-A65 mit 24 MP auf gleicher Sensorgröße, aber das Bildrauschen ist sichtbar bei meinen Bildern mit "dcraw -h", selbst bei ISO 100. Das mag für viele nun nachteilig klingen, dass das Bild aber neben dem Bildrauschen auch mehr Details enthält, darüber schweigt man lieber.

"""
Eben, und mit 16 Megapixel hat man mehr "Möglichkeiten" als mit 4 Megapixel
"""
Du klammerst dich zu sehr an die 16 Megapixel deiner Kamera. Hättest jetzt eine 80 MP Kamera, dann hättest daraus echte 20 MP generieren können. Dann hättest wahrscheinlich geschrieben, 20 MP sind besser als 4 MP. Die Anzahl der Pixel ist relativ, mit der Zeit wird sich das noch steigern. Dir sollte aber klar sein dass die 4 MP (echte 24 Bits pro Pixel) Datei das Fundament deiner hochskalierten 16 MP (8 Bits pro Pixel, des Rest wird von benachbarten Pixeln "erraten") Bilddatei sind.
In der 16 MP Bilddatei steckt kaum Wucht dahinter, viel zu oft gleichen sich benachbarte Pixel, die Effizienz über "Details pro MegaPixel" in der 16 MP Datei kann 4 mal so hoch sein. Ich versuche dir das mal plausibler zu machen:
Ein Luftballon (luftlos) hat eine Masse. Nun pustest du Luft hinein, der Luftballon wirkt größer, aber die Masse ist nicht um das 1000 fache gestiegen. Sobald die Luft draußen ist, hast du wieder den Ursprungszustand.

Dein 16 MP Bild entspricht dem aufgeblasenen Lufballon. Du kannst das Bild in der größe halbieren, dann hast du wieder den Ursprungszustand (nativ RGB). Wenn dir die 4 MP (nativ RGB) nicht ausreichen, so bin mir sicher wäre eine 64 MP Kamera für geeigneter, denn damit hättest du echte 16 MP (nativ RGB) Bilder.

Du hattest deine Bilder hochgeladen und ich hab Sie mir angeschaut. Auch ich hatte was hochgeladen (2 Bilder, gleiche Auflösung), aber darüber zeigst du kein Interesse mal die Unterschiede in beiden Bildern zu beschreiben. Es geht hier noch nicht einmal um Pixelpeeping, kannst die Bilder auch in Vollbild-Ansicht anschauen. Ein paar beschreibende Sätze wären nicht schlecht. Wenn man einen Vergleich durchführt, muss man eben 2 Dinge gegenüberstellen. Dir scheint nur wichtig zu sein, nur das was ich mache ist richtig, und alles andere ist falsch. Kling ein bisschen wie "Mein Auto ist das best, mein Computer ist der schnellste", ein bisschen ähnlich wie der fotogen schon geschrieben hat "das eine Bild ist besser, das andere ist schlecht" [der fotogen bei dpreview mit einem review, das wär der Hammer "Review and verdict in one sentence: Sony Model XYZ is much much better than any Canikons XYZ"].

Anregungen:
Wie sind zum Beispiel die Farben ?
Wie wirkt der Lottoschen in seiner Farbpracht ?
Auf welchem Bild wirkt der Lottoschein natürlicher ?
Ist eines der Bilder überbelichtet ?
Wie sind die rote Farbübergänge auf der Chipstüte ?
Ist es ein schlichtes einfaches geplättetes ROT oder gibts selbst im rot noch Details ?
Wenn man auf dem linken Getränkekarton auf einem Bild die Kirsche im Hintergrund besser sieht, dann muss das an der Unterbelichting liegen, aber ist das Bild unterbelichtet oder ist eher das Gegenteil der Fall ?

Das sind nur ein paar Punkte die man prüfen kann. Ich habe das Gefühl hier wird nur gemeckert und gemotzt, und die eingene Vorgehensweise EMPIRISCH verteidigt, da muss man sich zusammenschließen und a la "Robin Hood"-Manier Anfänger vor einer alternativen Vorgehensweise beschützen, und fremden Workflow (wenns denn einer ist) als Falschinformation deklassieren.

Kommt mir fast schon einer Zensur gleich. Hier müssen Informationen bewusst als Flasch eingestuft werden, damit ja niemand auf die Idee kommt sich mit einer Vorgehensweise zu beschäftigen, deren Software komplett open source ist. Lieber sollen Leute(Anfänger) sich mit Vorgekautem von Programmen zufrieden geben, deren Software proprietär ist (komplett geschlossen, nicht einsehbar). Je dümmer die Anfänger, desto leichter kann man die ködern.

Es sei denn, da kommt jemand und sagt, ich hätte gern... und schon hat ein Problem.

Mir ist es egal wer mit welchem Programm was macht, mir ist nur wichtig dass die Leute kritisch gegenüber Softwareroutinen/Funktionen/Algorithmen sein sollten, von denen Sie nicht wissen was diese genau tun, wie Sie es tun, was Sie dabei verschleiern, und vor allem welche Verluste dabei BEWUSST in Kauf genommen werden.

Noch n kleiner Tip physi: Stell doch mal deine Kam auf M, und fotografier doch mal den schönen blauen Himmel mit einer Einstellung dass der Himmel schön mit Übergängen auch dunkelblau enthält. Behalte dir das was du siehst in deinem KOPF, machst n Bild, und schaust dir das gemachte Bild auf dem gleichen Display an. Es ist heller. Selbst auf dem kleinen Display erkennt man das, selbst wenn man nur RAW fotografiert, denn das Preview Bild ist im JPG-Format in der RAW-Datei integriert. Unterm Strich, es ist nicht mehr das was du auf dem LiveView siehst.
Ich hätte gern das was ich da auf dem LiveView sehe. Je schlichter ein Algorightmus, desto weniger wird manipuliert. Traurig, aber Wahr.

fotogen
12.08.2013, 19:31
Beziehst Du Dich jetzt wieder auf das Krahnbeispiel und sagst, dass die Raw Entwicklung (linkes Bild) mehr Details hat als das Kamera jpg (rechtes Bild)? Ich möchte Dir nur folgen können.

edit BadMan: Fullquote entfernt.

physicist
12.08.2013, 19:57
@ zeeshan

Da du am anfang dieses Themas nach einem Weg gesucht hast die Auswirkungen des Bayer-Filters und des angewendeten Demosaic-Algorythmus rückgängig zu machen, war dies meine Interpretation deines Vorhabens.

Die 16Megapixel sind nicht aus "aufgeblasenen" 4 Megapixel entstanden, sondern aus tatsächlichen 16Millionen Helligkeitsinformationen.

Deinen Lottoschein habe ich nicht weiter begutachtet, da ein OOC-JPG welches künstlich auf 4MP reduziert wurde für mich keine Grundlage für einen Vergleich mehr ist.

Ich sehe auch keinen Sinn darin nun das Vorschaubild im Liveview mit dem Endergebnis zu vergleichen. Höchstens das Reale Bild mit dem Endergebnis.


Je schlichter ein Algorightmus, desto weniger wird manipuliert. Traurig, aber Wahr.

Ich sehe da keinen Zusammenhang, auch ein sehr einfacher Algo kann sehr viel ändern.

TONI_B
12.08.2013, 20:56
@fotogen
Einen Beitrag, der auf meinem 24" Bildschirm mehr als eine Seite beansprucht, unmittelbar danach vollständig zu zitieren, grenzt mMn auch an Schwachs...:flop:

Sorry, aber diese Unart ist wohl nicht auszurotten.:twisted:

fotogen
12.08.2013, 21:02
@fotogen
Einen Beitrag, der auf meinem 24" Bildschirm mehr als eine Seite beansprucht, unmittelbar danach vollständig zu zitieren, grenzt mMn auch am Schwachs...:flop:

Sorry, aber diese Unart ist wohl nicht auszurotten.:twisted:

Geh doch erst mal zur VHS in eine Kommunikationskurs. Knigge lässt grüssen.
Anschliessend kaufst Du Dir ein ipad oder iphone und übst und lernst wie aufwendig das Löschen längerer Textabschnitte damit ist.
Und wenn Du dann noch immer nicht verstanden hast, wie dumm und überflüssig Dein letzter Beitrag war, dann beisst Du dir am besten in den eigenen Hintern. :top:

TONI_B
12.08.2013, 21:08
1. Unterrichte ich sogar Kommunikationstechnik...:P
2. Gab es Zeiten hier im Forum, wo die mods Beiträge wie deinen beinhart gekürzt oder gelöscht haben. Es gibt auch so etwas wie einen Knigge im Inet - und der sagt, dass solche Zitate unnötig sind.
3. Hab ich ein Ipad! Auch eine gute Ausrede für Faulheit und nicht mitdenken.

konzertpix.de
12.08.2013, 21:11
Den Knigge hierzu gibt es sogar hier, es steht in den Forenregeln ausdrücklich drin, nur den benötigten Teil zu zitieren. Das geht auch per iPad und sogar per iPhone - das kannst du mir sehr wohl glauben. Im übrigen ist deine Artikulation, Markus, unter aller Kanone.

Aber wahrscheinlich bekomme ich jetzt eh wieder irgendein Fanboygehabe an den Kopf geworfen...

Ich muß mich korrigieren, der Passus ist in der Zwischenzeit entfallen. Dennoch ist es unsinnig, den Vorgängerpost komplett zu zitieren.

fotogen
12.08.2013, 21:13
Der Herr Tony hat heute wohl schlechte Laune und weiss nicht, wie unhöflich das Wort Schwachsinn ist.

fotogen
12.08.2013, 21:15
Den Knigge hierzu gibt es sogar hier, es steht in den Forenregeln ausdrücklich drin, nur den benötigten Teil zu zitieren. Das geht auch per iPad und sogar per iPhone - das kannst du mir sehr wohl glauben. Im übrigen ist deine Artikulation, Markus, unter aller Kanone.

Aber wahrscheinlich bekomme ich jetzt eh wieder irgendein Fanboygehabe an den Kopf geworfen...

Auch der Herr Konzertpix weiss nicht um die unhöfliche Wirkung des Wortes Schwachsinn. aber es ist ja nicht das erste mal, dass er ob schlechter Umgangsformen auffällig wird. Er rüpelt und poltert lieber :D

BadMan
12.08.2013, 21:16
Könnt Ihr euch jetzt bitte wieder vertragen und zum eigentlichen Threadthema zurückkehrenn - welches auch immer das sein mag.

PS: Den Fullquote habe ich entfernt. Ich denke, der Beitrag ist auch so zu verstehen.

Neonsquare
12.08.2013, 22:11
Wie es aussieht hast du wohl noch immer nicht verstanden was genau ich eingentlich haben wollte (und dass ich es inzwischen ja längst habe): Ich hätte gern einen Algorithmus/Funktion/Software um aus den RAW-Dateien Bilder zu erzeugen (anhand der Pixel binning Methode ==> ein 2x2 Bayer-Pattern wird zu einem RGB-Superpixel zusammengefasst), die keiner zusätzlichen Manipulation unterliegen (Rauschunterdrückung, Colorboosting, CA Correction, Objektivkompensation, Auto-HDR, usw). Dies ist der einzige Weg, die Fakten, die in der RAW-Datei gespeichert sind, unverändert auf den Tisch zu legen.


Falsch Falsch Falsch - es ist eine verlustbehaftete und fehlerbehaftete aber dafür primitive und extrem effizient implementierbare Methode. Es ist alles andere als "die einzige" und erst recht nicht die beste Methode um die in einem RAW gespeicherten Informationen zu gewinnen. dcraw.c kann übrigens auch vollkommen unabhängig von Pixelbinning ohne Rauschunterdrückung oder andere Korrekturen konvertieren - mit unterschiedlichen wählbaren Interpolationsalgorithmen. Das hat mit Pixelbinning erstmal nichts zu tun.


Du klammerst dich zu sehr an die 16 Megapixel deiner Kamera. Hättest jetzt eine 80 MP Kamera, dann hättest daraus echte 20 MP generieren können. Dann hättest wahrscheinlich geschrieben, 20 MP sind besser als 4 MP. Die Anzahl der Pixel ist relativ, mit der Zeit wird sich das noch steigern. Dir sollte aber klar sein dass die 4 MP (echte 24 Bits pro Pixel) Datei das Fundament deiner hochskalierten 16 MP (8 Bits pro Pixel, des Rest wird von benachbarten Pixeln "erraten") Bilddatei sind.
In der 16 MP Bilddatei steckt kaum Wucht dahinter, viel zu oft gleichen sich benachbarte Pixel, die Effizienz über "Details pro MegaPixel" in der 16 MP Datei kann 4 mal so hoch sein. Ich versuche dir das mal plausibler zu machen:
Ein Luftballon (luftlos) hat eine Masse. Nun pustest du Luft hinein, der Luftballon wirkt größer, aber die Masse ist nicht um das 1000 fache gestiegen. Sobald die Luft draußen ist, hast du wieder den Ursprungszustand.


Falsch. Das Grenzauflösungsvermögen eines Bayersensors liegt nicht bei 1/4 sondern bei etwa 2/3.


Dein 16 MP Bild entspricht dem aufgeblasenen Lufballon. Du kannst das Bild in der größe halbieren, dann hast du wieder den Ursprungszustand (nativ RGB). Wenn dir die 4 MP (nativ RGB) nicht ausreichen, so bin mir sicher wäre eine 64 MP Kamera für geeigneter, denn damit hättest du echte 16 MP (nativ RGB) Bilder.


Falsch. Das was Du hier "nativ" nennst ist weder nativ noch der Ursprungszustand.


Kommt mir fast schon einer Zensur gleich.


Falsch. Zensur wäre es wenn die Moderatoren Deine Postings vorab prüfen und noch vor Veröffentlichung löschen. Deine Postings werden jedoch nicht einmal nach der Veröffentlichung gelöscht.


Hier müssen Informationen bewusst als Flasch eingestuft werden, damit ja niemand auf die Idee kommt sich mit einer Vorgehensweise zu beschäftigen, deren Software komplett open source ist. Lieber sollen Leute(Anfänger) sich mit Vorgekautem von Programmen zufrieden geben, deren Software proprietär ist (komplett geschlossen, nicht einsehbar). Je dümmer die Anfänger, desto leichter kann man die ködern.


Falsch. Die Fragen OpenSource, Proprietär, kostenlos, kommerziell sind in diesem Thema vollkommen irrelevant. Auf der Startseite dieses Forums findest Du übrigens den OpenSource-RAW-Konverter LightZone vorgestellt. Wer soll geködert werden? Paranoia?


Mir ist es egal wer mit welchem Programm was macht, mir ist nur wichtig dass die Leute kritisch gegenüber Softwareroutinen/Funktionen/Algorithmen sein sollten, von denen Sie nicht wissen was diese genau tun, wie Sie es tun, was Sie dabei verschleiern, und vor allem welche Verluste dabei BEWUSST in Kauf genommen werden.


Ich bin kritisch. Ich habe mich extensiv mit diesen Themen beschäftigt - genau deswegen kann ich ja sehen, dass der von Dir beschriebene Weg kontraproduktiv ist.


Noch n kleiner Tip physi: Stell doch mal deine Kam auf M, und fotografier doch mal den schönen blauen Himmel mit einer Einstellung dass der Himmel schön mit Übergängen auch dunkelblau enthält. Behalte dir das was du siehst in deinem KOPF, machst n Bild, und schaust dir das gemachte Bild auf dem gleichen Display an. Es ist heller. Selbst auf dem kleinen Display erkennt man das, selbst wenn man nur RAW fotografiert, denn das Preview Bild ist im JPG-Format in der RAW-Datei integriert. Unterm Strich, es ist nicht mehr das was du auf dem LiveView siehst.


Die Sensoren werden im LiveView-Modus anders ausgelesen als bei der eigentlichen Belichtung. Der offensichtlichste Unterschied ist ja bereits das kein Verschluss erfolgt. Außerdem wird der LiveView bei Offenblende erzeugt und die Wirkung der Belichtungsparameter lediglich simuliert.


Ich hätte gern das was ich da auf dem LiveView sehe. Je schlichter ein Algorightmus, desto weniger wird manipuliert. Traurig, aber Wahr.

Falsch - es gibt keinen Zusammenhang zwischen der "Schlichtheit" eines Algorithmus und einer vermeintlichen "Manipulation".

physicist
12.08.2013, 22:14
Ok, also Geisterfahrer und Luftballons mal beiseite (obwohl auch ein Aufgeblasener Luftballon an Masse zunimmt) :D

Bringen wir die ganze Diskussion mit zeeshan doch mal zum eigentlichen Knackpunkt über den Unstimmigkeit herrscht.

Dies wäre (wenn ich es richtig verstanden habe)

- Hat ein 16MP Sensor mit Bayer-Filter wirklich nur 4MP Auflösung?

Ich sage nein, da ich ja 16Millionen Helligkeitsinformationen aufzeichne, diese sind auch wirklich vorhanden, werden aber durch die Bayer-Matrix verändert.
Das zusammenlegen von einem 2x2 großen Feld des Sensors in dem die Helligkeitsinformationen von Rot-Grün-Blau-Grün aufgenommen wurden ist eine einfach zu überschauende Methode.
Jedoch wird dabei nicht berücksichtigt das die Farben räumlich voneinander getrennt auf den Sensor gefallen sind und nun zusammengeschoben werden.

Nehmen wir zum beispiel noch einmal das stark vergrößerte Bild mit dem Kran.
http://www.bilder-hochladen.net/files/thumbs/3f4x-c-c20a.jpg (http://www.bilder-hochladen.net/files/3f4x-c-c20a-jpg.html)

Jetzt schaue ich mir nur die Formen bzw. Konturen an.
Ich erkenne in der 16MP Aufnahme Konturen am Kran die ich in der 4MP Version nicht sehe. Die Konturen bzw. Umrisse sind eindeutig detaillierter.
Das spricht doch dafür das in der 16MP-Version wirklich mehr Information vorhanden ist als in der 4MP Version. Ich kann mir jedenfalls keinen Algorythmus vorstellen der DAS hochrechnen könnte. Zum Beispiel dieses Teil ganz rechts im Bild welches am Kran hängt. Die Form im rechten Bild ließe sich niemals aus dem linken Bild errechnen.

Der "nicht so einfache" Demosaic-Algo. in der Kamera scheint also eine, auch tatsächlich, höhere Auflösung des Fertigen Bildes zu erzeugen und ist somit effektiver als das "Pixel-binning".

physicist
12.08.2013, 22:43
Der nächste Punkt der meines erachten nach für Unstimmigkeiten sorgt.

- Sind Nachbearbeitungen unnötig und verschlechtern nur das Bild ?

Nicht alle würde ich sagen.

- Verzerrungskorrektur:
Ja, da müssen Informationen verloren gehen. Ist denke ich für jeden nachvollziehbar.


- CA Korrektur
Meiner Meinung nach sorgt die CA Korrektur für "mehr" Informationen (man beachte die Anführungszeichen), im Sinne von: "Die Informationen werden zur richtigen Stelle verschoben"
Die Ursache von CAs sind ja unterschiedliche Brechungsindexe der unterschiedlichen Wellenlängen an den Objektivlinsen. Dies ist eine Physikalische Gegebenheit von Licht. Theoretisch lassen sich die CAs welche im Objektiv auftreten also perfekt im Voraus berechnen, warum dann nicht perfekt zurück berechnen?

- Rauschunterdrückung
Ja, dabei werden Details glattgebügelt, aber wie sieht es mit der subjektiven Wahrnehmung von Details aus die von einem Rauschen umgeben sind? Werden diese dann überhaupt noch wahrgenommen?
Ist ein "glattbügeln" des Himmels wirklich eine Abweichung von der Realität? Sehe ich auch ein Rauschen wenn ich in den Himmel schaue?

Sehe ich mit meinen Augen in dunkler Umgebung denn ein Rauschen, oder auch nur weniger Details?

Wenn man sich das mal überlegt, sind einige Korrekturen doch garnicht so schlecht, da ein Verbund aus Objektiv und Sensor ja doch etwas anders arbeitet als unsere Augen.

fotogen
12.08.2013, 22:52
Meines Erachtens fehlt die tiefergehende Begründung für die Forderung nach möglichst naturellen RAW-Entwicklungen, weil in der Natur jedes Beispiel dafür fehlt.
Die Augen jedes Lebewesens in Verbindung mit dessen Gehirn führen doch deutlich mehr 'Objektivkorrekturen' durch als jede Digitalkamera, wenn man mal exotische Modi wie Illustration aussen vor lässt.

mrieglhofer
12.08.2013, 22:55
Hast ja beim Fernseher auch. Da ist die Farbauflösung weit geringer als die Luminanzauflösung, weil die Farbe in der Auflösung relativ egal ist. Man siehts meist bei PAL, wenn dem Fussballer die rote Hose auf grüner Wiese zuerst zu weit ist und dann zu den Knien rutscht.

Die ist auch der Grund, das die Luminazinformation hauptsächlich aus den beiden grünen Pixeln gewonnen wird. Die rote und blauen eignen sich leider nicht so gut. Das kann man in det SW Umsetzung anschauen, ein Grünfilter verändert wenig, ein rot oder blau-Filter viel.

Trotz aller Diskussion wäre einfach mal anzudenken, warum die Workflows so sind wie sie sind. und das auch bei open Source. Einfach deshalb, weil es keine besseren gibt. Die Annahme, selbst ein Genie zu sein, trifft leider nur selten zu.

fallobst
02.09.2013, 17:16
Hallo

Ich habe zu Beginn hier mitgelesen, aber wie sich die Diskussion dann schnell entwickelte, hatte ich das Interesse daran verloren.

Ich beschreibe darum nur meine Praxis.
Ich fotografiere fast immer RAW und JPEG parallel. Dann sichte ich die Fotos anhand der JPEGs und entscheide mich, an welchen Aufnahmen ich etwas feilen will.
Dann nehme ich fast immer die aktuellste Variante von Capture One und lege los.
Wie ich schon bei einem Ostseebild schrieb, bin ich von der aktuellen Variante von Capture One sehr angetan.

Hier ein Beispiel, wie ich aus einer Aufnahme, bei der ich ungenau und mit suboptimalen Einstellungen gearbeitet hatte, ein zufriedenstellendes Bild gemacht habe.
Ich weiß aus Erfahrung, für diesen Zweck ist die Verwendung der RAW Datei die besser Wahl.
Wer eine andere Arbeitsweise hat und diese wortreich begründen kann oder auch nicht, hat ebenso meinen Segen, wie ich ihn mir selbst erteilt habe, nachdem ich meine Arbeit an dem Bild zufrieden beendet hatte.

Hier die Aufnahme als JPEG aus der Kamera, unbearbeitet und auf Forumgröße skaliert.

829/Gamensee_ooC.jpg
-> Bild in der Galerie (http://www.sonyuserforum.de/galerie/details.php?image_id=179852)

Hier mein fertiges Bild.

829/Gamensee_COv7.jpg
-> Bild in der Galerie (http://www.sonyuserforum.de/galerie/details.php?image_id=179853)

Ich ergänze noch eine Bearbeitungsvariante.
Ich habe dabei die Einstellungen für die RAW Entwicklung auf das JPEG ooC übertragen. Da der Farbton dennoch deutlich kühler ist, habe ich den Weißabgleich zusätzlich leicht erhöht. Dennoch bleibt das Bild kühler und der Himmel bekommt kein Blau.
Anhand dieses Beispiels fühle ich meine beschriebene Arbeitsweise bestätigt, da ich farbliche Korrekturen anhand der RAW Datei sicherer hinbekomme als am JPEG.

Hier diese Variante.

829/Gamensee_Anpass_plus_WB_.jpg
-> Bild in der Galerie (http://www.sonyuserforum.de/galerie/details.php?image_id=179871)

Darf man sie auch bildreich anhand deines JPG-OOC begründen?

bydey

Leg' los. Ich weiß zwar nicht, wie du das meinst, aber vielleicht weiß ich es nach deinem Beitrag.


Es grüßt Matthias

dey
02.09.2013, 17:25
Wer eine andere Arbeitsweise hat und diese wortreich begründen kann oder auch nicht,

Darf man sie auch bildreich anhand deines JPG-OOC begründen?

bydey

fallobst
02.09.2013, 19:12
Ich habe nun alle drei Varianten in eine Vergleichansicht gebracht und auf 100% Ansicht gestellt.

Anhand der linken Bildseite kann man deutliche Unterschiede bei den drei Varianten ausmachen und seine eigenen Schlüsse daraus ziehen.

829/Gamensee_Vergleich.jpg
-> Bild in der Galerie (http://www.sonyuserforum.de/galerie/details.php?image_id=179873)

Es grüßt Matthias

www_zeeshan_de
08.10.2013, 22:06
...
- Hat ein 16MP Sensor mit Bayer-Filter wirklich nur 4MP Auflösung?

==> Ja. Ein 16MP (nur eine Farbe pro Pixel) Sensor mit Bayer-Filter hat nur 4MP RGB-Auflösung (alle 3 Farben pro Pixel, nativ RGB).


Zwischenzeitlich konnte ich eine für dritte konfigurierbare Version von meinem Programm originalraw fertigstellen. originalraw erzeugt aus RAW-Dateien anhand "dcraw -h" fertige jpgs mit maximaler Qualität. Nebenbei werden zusätzlich Hunderte von Komfortfunktionien gleich mit abgearbeitet. Eine genauere Beschreibung befindet sich auf meiner Website.
originalraw ist das perfekte Programm für alle, die im RAW-Mode fotografieren, und daheim aus den RAWs fertige JPGs auf dem PC haben wollen, und das mit NUR EINEM KLICK.

fotomartin
09.10.2013, 10:13
==> Ja. Ein 16MP (nur eine Farbe pro Pixel) Sensor mit Bayer-Filter hat nur 4MP RGB-Auflösung (alle 3 Farben pro Pixel, nativ RGB).


Das ist falsch.
Wenn du aus 2x2 Pixeln auf 1 Pixel runterrechnest, kannst du zwar danach um 2 Pixel weiter wandern und aus den nächsten 2x2 Pixeln wieder 1 Pixel machen, das ist aber eine von dir selbst gewählte Entwicklungsmethode, die nichts mit Realität/Orginal/nativ/Sonstwas zu tun hat.

Du könntest genauso nur um 1 Pixel weiterwandern, und aus diesem 2x2 Pixel Block ein neues Pixel erzeugen. Du erhältst dann ein 16MP RGB Bild, bei dem ebenfalls jedes Pixel aus 2x2 Bayer Pixeln erzeugt wurde. Oder du kannst eine der vielen weiteren verfügbaren Algorithmen benutzen.

JEDE Methode, auch deine, ist eine Interpretation der Roh-Daten, mit individuellen Vor- und Nachteilen. Die von dir vorgeschlagene Methode ist die mit dem geringsten Rechenaufwand (also die schnellste) und wird TROTZDEM von KEINEM der verbreiteten RAW-Konverter verwendet oder auch nur als Option angeboten. Entweder ist die ganze IT-Welt zu blöde (wobei diese Verallgemeinerung dich mit einschließen würde, richtig?) oder irgendwas ist faul an deiner als "perfekt" bezeichneten RAW-Interpretation...

viele Grüße,
Martin

mrieglhofer
09.10.2013, 15:03
Das ist falsch.
Wenn du aus 2x2 Pixeln auf 1 Pixel runterrechnest, kannst du zwar danach um 2 Pixel weiter wandern und aus den nächsten 2x2 Pixeln wieder 1 Pixel machen, das ist aber eine von dir selbst gewählte Entwicklungsmethode, die nichts mit Realität/Orginal/nativ/Sonstwas zu tun hat.

Du könntest genauso nur um 1 Pixel weiterwandern, und aus diesem 2x2 Pixel Block ein neues Pixel erzeugen. Du erhältst dann ein 16MP RGB Bild, bei dem ebenfalls jedes Pixel aus 2x2 Bayer Pixeln erzeugt wurde. Oder du kannst eine der vielen weiteren verfügbaren Algorithmen benutzen.

JEDE Methode, auch deine, ist eine Interpretation der Roh-Daten, mit individuellen Vor- und Nachteilen. Die von dir vorgeschlagene Methode ist die mit dem geringsten Rechenaufwand (also die schnellste) und wird TROTZDEM von KEINEM der verbreiteten RAW-Konverter verwendet oder auch nur als Option angeboten. Entweder ist die ganze IT-Welt zu blöde (wobei diese Verallgemeinerung dich mit einschließen würde, richtig?) oder irgendwas ist faul an deiner als "perfekt" bezeichneten RAW-Interpretation...

viele Grüße,
Martin

Wie heisst es so schön, wenn auf der Autobahn dir alle auf deiner Fahrbahn entgegenkommen, heisst das nicht zwangsläufig, dass du in die falsche Richtung fährst, aber mal kurz drüber nachdenken wäre sicher angesagt.

www_zeeshan_de
27.12.2013, 15:26
@ zeeshan

Die 16Megapixel sind nicht aus "aufgeblasenen" 4 Megapixel entstanden, sondern aus tatsächlichen 16Millionen Helligkeitsinformationen.



Bei deiner 16 MP Kamera gilt:
Die Bilder mit 16 Millionen RGB-Pixel (33 % der Pixel fotografiert, 66 % der Pixel interpoliert) aus deiner Kamera sind aus "aufgeblasenen, interpolierten" 16 Millionen Single-Color-Pixeln entstanden. Deine 16 MP Kamera kann lediglich 4 Millionen native RGB-Pixel fotografieren.

Bei der Sony SLT-A65 gilt:
Die Bilder mit 24 Millionen RGB-Pixel (33 % der Pixel fotografiert, 66 % der Pixel interpoliert) sind aus "aufgeblasenen, interpolierten" 24 Millionen Single-Color-Pixeln entstanden. Die Sony SLT-A65 kann lediglich 6 Millionen native RGB-Pixel fotografieren.

Und die Aussage
""Mit Interpolation bekommt man bessere Bilder""
ist hiermit widerlegt:
Bildqualität ohne Interpolation vs Bildqualität mit Interpolation
http://www.zeeshan.de/fotografie_interpolation/0_fotografie_interpolation.htm

mrieglhofer
27.12.2013, 16:31
Mein Gott, eine Hummel kann auf Grund des Verhältnisses zwischen Gewicht und Flügel nicht fliegen. Sie weiss es nicht und tut es trotzdem .

Und solange ich aus einem 24 Mpix Sensor bei 300dpi 20" breite scharfe Bilder drucken kann, ist der Rest egal, und das geht nachweislich. Sogar 30*40Zoll ist ohne Probleme machbar.

Nebenbei ist das ein Blödsinn, da zumindest die 50% grünen Pixel für die Luminanz herangezogen werden und damit 12MPix Auflösung gegeben sind.

www_zeeshan_de
31.12.2013, 16:28
Das Wetter war mal kurz sonnig, also konnte ich eine paar weitere Bilder für den direkten Vergleich machen.

Hier die Ergebnisse:
http://www.zeeshan.de/fotografie_interpolation/0_fotografie_interpolation.htm

Die RAW Dateien sind natürlich auch verfügbar:
http://www.zeeshan.de/fotografie_interpolation/

mrieglhofer
01.01.2014, 13:28
Das heisst, du hast jetzt bewiesen, dass ein 24Mpix Sensor, runter gerechnet auf 6MPix besser Bilder liefert als ein 6MPix Sensor. Wow, das wusste bisher niemand ;-)
Aber was hat das mit Interpolation zu tun. Die hast ja in beiden Fällen und was ist der praktische Nutzen?

Gerhard61
01.01.2014, 13:58
Köstlich was sich aus der (zugegeben schwierigen) Frage: RAW oder JPEG hier entwickelt hat.

Frohes neues Jahr euch allen :D :top:

Neonsquare
01.01.2014, 18:54
Das Wetter war mal kurz sonnig, also konnte ich eine paar weitere Bilder für den direkten Vergleich machen.

Hier die Ergebnisse:
http://www.zeeshan.de/fotografie_interpolation/0_fotografie_interpolation.htm

Die RAW Dateien sind natürlich auch verfügbar:
http://www.zeeshan.de/fotografie_interpolation/

Kompliment - Du hast ein nahezu perfektes Beispiel dafür gebracht wie schlecht die von Dir propagierte Methode ist. Man braucht sich eigentlich nur alleine den Sattel des Motorrads anzuschauen - die Struktur wird in Deinem "nicht interpolierten" Beispiel völlig falsch - wiedergegeben und erweckt gar den Eindruck eines völlig anderen Materials.

Anthem
01.01.2014, 22:19
Ich habe jetzt hier alles mitgelesen und das ist auch sehr interessant, obwohl ich ehrlich gesagt nicht die Hälfte davon verstehe. Eine Berechnungsmethode soll bessere Ergebnisse liefern alles bisher möglich. Das klingt doch gut. Aber warum werden dann Bilder aus zwei Kameras mit unterschiedlichen Sensoren als Ausgang verglichen? Wäre es nicht sinnvoller, Bilder aus einer Kamera mit den beiden Methoden zu rendern. Also einmal dcraw und mal mit Zeromod? Dann hätte ich ein Ergebnis, das ich vergleichen kann. Oder der breiten Basis wegen beide Kameras mit beiden Methoden?
Gruß
Michael

www_zeeshan_de
11.01.2014, 16:46
...
die Struktur wird in Deinem "nicht interpolierten" Beispiel völlig falsch - wiedergegeben
...


Genau das Gegenteil ist der Fall. Das Bild ohne Interpolation kann die Details der Strukturen im Material wiedergeben, wogegen die Details im Bild mit der Interpolation aufgrund des nicht vorhandenen Auflösungsvermögens nicht wiedergegeben werden können.

www_zeeshan_de
11.01.2014, 17:07
1.
Ich habe jetzt hier alles mitgelesen und das ist auch sehr interessant, obwohl ich ehrlich gesagt nicht die Hälfte davon verstehe.

2.
Eine Berechnungsmethode soll bessere Ergebnisse liefern als alles bisher möglich. Das klingt doch gut.

3.
Aber warum werden dann Bilder aus zwei Kameras mit unterschiedlichen Sensoren als Ausgang verglichen?

4.
Wäre es nicht sinnvoller, Bilder aus einer Kamera mit den beiden Methoden zu rendern. Also einmal dcraw und mal mit Zeromod? Dann hätte ich ein Ergebnis, das ich vergleichen kann.

5.
Oder der breiten Basis wegen beide Kameras mit beiden Methoden?

Gruß
Michael


1.
Nicht schlimm. So einfach ist es ja auch nicht.

2.
Das Superpixelverfahren ist KEINE Berechnungsmethode.
Alles andere an Methoden sind Berechnungsmethoden.
Das Superpixelverfahren berechnet NULL KOMMA NIX (!!).
Es werden lediglich aus fotografierten Pixelwerten die RGB-Pixel gebildet, und dabei geht es um Wertzuweisungen, nicht um berechnen von Pixelwerten anhand von benachbarten Pixeln wie es alle anderen mathematisch komplexen Algorithmen erforden.

3.
Die Sensorgröße ist gleich, auf beiden Sensoren ist das unverändert gleiche bebliebene Bayer-Pattern.
Das Superpixelverfahren ohne Interpolation erzeugt ein 6 Millionen RGB-Pixel Bild.
Das Bayer-Demosaicing-Verfahren mit Interpolation erzeugt ebenfalls ein 6 Millionen RGB-Pixel Bild.
Für den DIREKTEN Vergleich (Gegenüberstellung) hat man somit jeweils ein Bild mit der gleichen Zielgröße (6 Millionen RGB-Pixel) im Arbeitsspeicher (17,3 Megabytes im RAM).
Die umgangssprachlich gängige Aussage "Mit Interpolation bekommt man bessere Bildqualität" kann somit auf den Prüfstand gestellt werden.

4.
http://www.zeeshan.de/dcraw_zero_mod/0_dcraw_zero_mod.htm

5.
Man kann noch tausend andere Varianten von Testberichten erstellen. Ich habe weder die Zeit noch die Ressourcen alle Varianten rauf und runter zu testen. Wenn ich aber einen Bericht online stelle, lege ich Wert darauf dass RAW-Dateien, JPG-Dateien in max Qualität jedem zugänglich sind, damit jeder selbst die Bilder in nativer RGB-Auflösung in seiner PC Umgebung betrachten und beurteilen kann, das ist schon aufwändig genug.
Gerne darf jeder die von ihm erwünschte Testvariante/Berichtsvariante selbst durchführen und online stellen. Freue mich auch mal wenns was interessantes zu lesen gibt.

Neonsquare
11.01.2014, 17:34
@alle
Achtung mal wieder Bullshit-Alarm in den letzten beiden Posts.

@zeeshan
Du bist ganz schön hartnäckig - das muss man dir lassen. Es wird in Foren ja gerne mal mit Beispielbildern gestritten - aber bei Deinen Bildern ist das schöne, dass sie Deine Theorien einfach so augenfällig widerlegen, dass es fast schon Spaß macht. Wenn ich jetzt mal auf die letzte Seite des Buches vorblättere was lese ich dann? Tragödie oder Komödie?

fotomartin
11.01.2014, 21:41
4.
http://www.zeeshan.de/dcraw_zero_mod/0_dcraw_zero_mod.htm


Hast du dir eigentlich den Namen "RGB-Superpixel" selber ausgedacht? :-)

Also seitdem du echte Fotos für deine Vergleiche nutzt, machst du es deinen Kritikern wirklich leicht. Versuch mal, in deinem Beispiel mit den Nährwertangaben (DSC02026) den Text zu lesen. Bei welcher Variante fällt es leichter? Bei der bösen "Interpolierten".. Und welche Variante ist voll von Farbartefakten und kaum lesbar?! Genau - deine Zeromod-Superpixel Variante.
Schau dir mal dein Nährwertangaben-Bild in 24MP 1:1 neben 6MP-zeromod in 2:1 an. Wenn du den Unterschied dann immernoch nicht siehst, fürchte ich, du brauchst entweder einen neuen Monitor oder einen Termin beim Optiker.

viele Grüße,
Martin

mrieglhofer
11.01.2014, 22:20
Ist halt sowohl die Theorie eine Sackgasse als auch die praktischen Ergebnisse. Tut zwar weh, aber es ist klar, warum alle Konverter anders arbeiten.

Tikal
11.01.2014, 22:27
Ich möchte die Methode ja nicht schlecht machen, aber ich sehe in der zero-mod Variante (so wie du sie nennst) mehr Moire-Artefakte und Treppen-Effekte. Die Bilder sind dann auch zu scharf. So gefällt es mir leider nicht, weil ich in der Realität ja auch keine Pixel sehe. Das könnte man höchstens als Ausgangsbasis für weitere Bearbeitungen nutzen, aber dann dürfte es nicht in JPEG, sondern müsste als RAW vorliegen. Andererseits wird ein erheblicher Mehraufwand getrieben, dessen Nutzen ich momentan nicht sehe. Vielleicht bei extremen Makroaufnahmen, mit sehr guter Kontrolle bei der Aufnahme im Studio. ich persönlich sehe leider durch dieses spezielle Verfahren keine allgemeine Verbesserung der Bildqualität.

Man muss bei den Beispielbildern auf http://www.zeeshan.de/dcraw_zero_mod/0_dcraw_zero_mod.htm auch aufpassen, weil die unbearbeiteten JPEGS manchmal auf der rechten Seite stehen und manchmal auf der linken stehen.

www_zeeshan_de
14.01.2014, 01:13
...

1.
Versuch mal, in deinem Beispiel mit den Nährwertangaben (DSC02026) den Text zu lesen. Bei welcher Variante fällt es leichter? Bei der bösen "Interpolierten".. Und welche Variante ist voll von Farbartefakten und kaum lesbar?! Genau - deine Zeromod-Superpixel Variante.

2.
Schau dir mal dein Nährwertangaben-Bild in 24MP 1:1 neben 6MP-zeromod in 2:1 an.

...


1.
Falls es dir entgangen ist, ich habe den Bericht mit den Bildern komplett selbst erstell. Ich brauche ganz bestimmt nichts zu versuchen, ich kenne es schon. Und jedes mal wenn ich erneut darauf schaue komme ich (zusammen mit einigen anderen Freunden) zum gleichen Ergebnis. In diesem Fall:
http://www.zeeshan.de/dcraw_zero_mod/dcraw_zero_mod-2.jpg
Die Schrift auf dem rechten Bild ist eindeutig kontrastreicher, klarer, und genau dieses Bild rechts ist der zero_mod.

2.
Man muss schon dumm genug sein um ein Bild mit lediglich 25 % RGB-Pixel-Fläche (6 Millionen Pixel zero_mod) gegen ein Bild mit 100 % RGB-Pixel-Fläche (24 Millionen Pixel Herstellerangabe) zu vergleichen ! Das ist ungefär genau so dumm wie wenn man 3 Fussballspieler gegen 11 Fussballspieler antreten lässt. Du merkst selbst wie schwachsinnig das ist.
Wenn du Digital-Bilder verlgeichen willst, musst du beiden die gleiche Menge an RAM zur Verfügung stellen (Analog im Fussball: gleiche Anzahl von Spielern).
Einen solchen Vergleich habe ich durchgeführt und die Ergebnisse sind eindeutig: Bei gleicher Bildgröße im RAM ist das Bild vom zero_mod (also ohne Interpolation) das eindeutig Bessere:
http://www.zeeshan.de/fotografie_interpolation/0_fotografie_interpolation.htm

www_zeeshan_de
14.01.2014, 02:13
1.
Ich möchte die Methode ja nicht schlecht machen, aber ich sehe in der zero-mod Variante (so wie du sie nennst) mehr Moire-Artefakte und Treppen-Effekte.

2.
Die Bilder sind dann auch zu scharf.

3.
So gefällt es mir leider nicht, weil ich in der Realität ja auch keine Pixel sehe.

4.
Das könnte man höchstens als Ausgangsbasis für weitere Bearbeitungen nutzen, aber dann dürfte es nicht in JPEG, sondern müsste als RAW vorliegen. Andererseits wird ein erheblicher Mehraufwand getrieben, dessen Nutzen ich momentan nicht sehe. Vielleicht bei extremen Makroaufnahmen, mit sehr guter Kontrolle bei der Aufnahme im Studio. ich persönlich sehe leider durch dieses spezielle Verfahren keine allgemeine Verbesserung der Bildqualität.

5.
Man muss bei den Beispielbildern auf http://www.zeeshan.de/dcraw_zero_mod/0_dcraw_zero_mod.htm auch aufpassen, weil die unbearbeiteten JPEGS manchmal auf der rechten Seite stehen und manchmal auf der linken stehen.



1.
Für die Referenz-Test-Bilder habe ich natürlich eine Festbrennweite bei kritischer Blende und fest ISO100 verwendet (eingestellt). Geht es hier doch darum, zu zeigen wie weit man gehen kann, welche Details der Sensor der SLT-A65 festhalten kann WENN man mit entsprechender Optik und Blende das Auflösungsvermögen am Limit ansprechen möchte.
Geht es jedoch um die Realität im Umfeld, dann muss ich sagen, dass meistens Zoom-Objektive eingesetzt werden. Viele Neueinsteiger verwenden jahrelang das mitgelieferte Kit-Objektiv, hier zeigt der zero_mod (ERST RECHT) seine stärken, es holt das letzte Quäntchen Schärfe aus den Billig-Objektiven bzw aus den Kompromiss-Zoom-Objektiven. Probiere es doch mal aus mit einem Zoom-Objektiv oder mit einem Kit-Objektiv, mache paar Bilder!
Mich stören die Moire/Aliasing nicht im geringsten, handelt es sich doch hier um digitale Fotografie, und diese ist nun mal endlich. Um dem entgegen zu wirken, benötigen wir Sensoren mit höheren Auflösungsvermögen, denn dann werden auch die Treppchen-Effekte immer kleiner.
Das war bei PC Bildschirmauflösungen von 640x480 übrigens genau so, dann hat die Industrie angefangen Anti-Aliasingfilter in die Grafikkarten-Treiber einzubauen (wobei dann der Strombedarf anstieg und sich dann die 3D-Rechenleistung um ca 33 % verringerte...), selbst heute werben 3D-Grafikkartenhersteller mit 16fach Antialiasing bei Auflösungen, die die FULL HD Auflösungen übersteigen... was n Schwachsinn. Für viele ist das daraus resultierende UNSCHARFE Bild genau das was sie "GEWOHNT" sind zu sehen. Du kannst die ja mal auf wikipedia den Artikel über Anti-Aliasing durchlesen, das steht so vieles über AA beschrieben... aber der Nachteil von Anti-Aliasing, wow, gerade mal 2 entscheidende Sätze:
""
Antialiasing nimmt zusätzliche Rechenleistung in Anspruch, die besonders beim Echtzeitrendern nicht vernachlässigbar ist. Ein weiterer Nachteil ist, dass ein mit Antialiasing erzeugtes Bild als unscharf empfunden werden kann;
""

2.
Du findest die Bilder zu scharf ? Dann machst du dich aber lächerlich. Weißt du warum? Ganz einfach: Die per zero_mod erzeugte Bilder geben genau das wieder, was die OPTIK auf den Sensor gebrannt hat, es wurde KEIN NACHTRÄGLICHES SCHÄRFEN PER SOFTWARE auf die Bilder angewendet wie es herkömmlichen Methoden/Algorithmen der Fall ist.
Wenn du sagst, die Bilder sind zu scharf, dann würde das bedeuten die Bilder sind SCHÄRFER ALS DIE REALITÄT, was natürlich nicht sein kann.
Es ist eben DEINE GEWOHNHEIT eine gewisse UNSCHÄRFE im Bild zu wahren, damit es deinen Ansprüchen genügt. Ich habe den Anspruch, ich möchte das sehen was ich fotografiert habe.

3.
Ich weiss nicht was du in der Realität siehst und was nicht, und das wird auch niemals jemand anderer außer dir selbst erleben. Es sind durchaus Verfahren in unserem Sehvermögen verankert, die versuche gewisse Informationen die vorhanden sind und die wir auch sehen können und würden zu filtern und zu entfernen. Andererseits kann sich das Sehvermögen und das Gehirn natürlich auch in die Irre leiten lassen, siehe Optische Täuschungen. Ich sage, das was der Sensor eine Digitalkamera festhält, ist die Realität (selbst wenn ich es mit dem Auge selbst nicht sehen kann). Ein IR-Filter vor dem Sensor übrigens sogt dafür dass der Sensor keine IR Strahlen auf dem Sensor festhält, finde ich auch ok so, aber es gibt auch hierfür Anwendungsfälle.
Damit du keine Pixel siehst, bedarf es eben Sensoren mit sehr hohen Auflösungsvermögen oder für deinen Anspruch, jag doch mal einen UNSCHÄRFEN Filter drüber !! Dann bekommst du genau das was du gewohnt bist.

4.
Originalraw speichert die RAW-Dateien in den RAW_IMAGES Ordner, die jpg-Dateien werden in den jpg Ordner gespeichert. Die RAW-Dateien sind also ebenfalls vorhanden.
Bildqualität an sich ist (ich wiederhole mich, siehe alle Postings im Thread) DEFINITIONSSACHE. Jeder hat seine eigene Ansprüche. Ich sage, je mehr ein Bild manipuliert wird, desto stärker weicht es vom Original ab und bei jedem Manipulations-Schritt entstehen nicht nur vermeintliche Verbesserungen, sondern eben auch Verschlechterungen. Ich möchte keine Schnick-Schnack Bildverbesserer-Verschlechterer, ich möchte einfach UNVERÄNDERT das, was ich fotografiert habe, denn nur hier weis ich, ist der fotografische Anteil am HÖCHSTEN und der fotomontage Anteil am niedrigsten.

5.
Ich musste kichern als ich das gelesen habe. Es sieht so aus als möchtest du in Robin-Hood-Manier alle vor irgendwas beschützen... aber vor was ? Darüber dass du dich selbst dabei ertappt hast ein Bild mit dem zero_mod als das bessere Bild zu klassifizieren weil du gedacht hast dass die Bilder mit dem zero_mod immer auf der linken Seite sind und das ist bei einigen Bildern nicht der Fall... und damit das anderen nicht auch noch passiert machst du Meldung... *lustig*... ich erspare mir jeglichen weiten Kommentar...

Insgesamt trotzdem danke für deinen Beitrag, hat mich angeregt dir zu antworten.

fotomartin
14.01.2014, 02:32
Dein Ansatz "gleiche Menge an RAM" ist unsinnig, da die 24 Megapixel nun einmal zur Verfügung stehen. Das du nur 6MP (analog 3 Spieler) nutzen willst, ist deine freie Entscheidung, ich möchte gerne alle 24MP mit einem modernen Interpolationsalgorithmus nutzen (11 Spieler). Also lasse ich, da beim Fußball nun mal 11 Spieler vorgesehen sind, auch 11 Spieler auflaufen und, wie du richtig erkannt hast, wäre es dumm von dir, mit nur 3 Spielern dagegen halten zu wollen.

Was du jetzt mit deinen Bildvergleichen versuchst, ist, mich zu zwingen, auch nur 3 Spieler zu benutzen. Und meiner Meinung nach verlieren deine zeromod Algorithmus Pixel Spieler trotzdem gegen meine 3.
Da du und dein Fanclub das offenbar anders sehen, war der Appell aus meinem vorherigen Post, mit deinen 3 super Rgb Spielern doch mal gegen alle meine 11 Spieler/24MP anzutreten.

Das du dein 6MP Bild dazu auf 24MP hochskalieren musst, sollte deiner Logik nach doch kein Problem sein, da meine 24MP ja auch interpoliert sind und außerdem: schwupps haben wir wieder die gleiche Menge an RAM
(deswegen ist der RAM Ansatz auch Blödsinn - du kannst jedes Bild auf jede beliebige RAM Größe skalieren).

Versteh mich nicht falsch: wenn du gerne nur zu dritt Fußball spielst, kannst du das von mir aus auch bei der Fotografie machen, interessiert mich nicht die Bohne.
Aber du propagierst hier komische Technologieverstümmelungsaktionen und ähnlich wie falsche Wikipedia Artikel korrigiert werden können, erlaube ich mir eben eine Gegendarstellung zu deinen Fehlinterpretationen.

Viele Grüße,
Martin

Tikal
14.01.2014, 05:39
1.
Mich stören die Moire/Aliasing nicht im geringsten, handelt es sich doch hier um digitale Fotografie, und diese ist nun mal endlich. Um dem entgegen zu wirken, benötigen wir Sensoren mit höheren Auflösungsvermögen, denn dann werden auch die Treppchen-Effekte immer kleiner.

Mich schon. Und warum sollte ich auf fortschrittliche Technologien wie Anti Aliasing verzichten, wenn mich das Aliasing momentan stört? Das ist nun mal digitale Fotografie und da gehört die Bearbeitung und zusammen Berechnung für eine Annäherung nun mal dazu. Allenfalls in bestimmten Ausnahmefällen könnte deine Vorgehensweise FÜR MICH nützlich sein.

2. Siehe auch 4. und 1.
Ich finde sie zu scharf, weil man Treppchen Effekt erkennt, was nun mal den Pixeln geschulded wird. Aber 100% und mehr sind eben nur für den Vergleich geeignet und bei Fehlersuche. Auch sind die Bilder nicht das, was der Sensor sieht, weil bereits weiteres bearbeitet wurde. Siehe 4.

3. Unschärfen Filter ist nicht das gleiche wie Anti Aliasing. Aber das müsste ich erst ausprobieren. Und dann stellt sich die Frage, was für ein Nutzen das hat. Ich möchte nicht auf die Datenaufbereitung und Einstellungen samt Korrekturen in der Kamera verzichten. Ansonsten fehlt deiner Methode auch die 16bit um mir nennenswerte Vorteile gegenüber der ooc zu liefern.

4. Du kannst gar nicht das sehen, was dein Sensor sieht. Die Raw Informationen müssen für dich und dein Monitor erst in RGB umgerechnet werden. Aber wenn du das trotzden anstrebst, gibt es noch weitere Aspekte zu beachten. Wenn ich in Darktable (Raw Konverter unter Linux Systemen) eine Raw öffne, sind bereits zwei Dinge erledigt. Einmal die Grundschärfung und einmal eine Standardkurve, ohne die das Bild dunkler und sehr flau aussieht. Kein Vergleich zu deinem JPEG. Da kommen wir dem Sensor noch nähet als bei deinem Beispiel. Aber das Bild ist so nur für Vergleiche nützlich, sonst nichts. Das nutze ich schon seit ich das Programm kenne. Ich möchte die Bilder nicht so haben wie sie der Sensor aufnimmt. Die brauchen alle eine Bearbeitung.

5. Wenn man dich und deine Methoden ernst nehmen soll, dann darfst du dich nicht öffentlich über andere lustig machen und herablassend reden. Ich bin nicht Robin Hood und ich versuche andere nicht zu beschützen. Wenn man wissenschaftlich vorgeht, dann sollte man auch schematisch vorgehen und nicht mal links mal rechts abbilden. Das stiftet nur Verwirrung. Wer sich ernsthaft damit beachäftigt, könnte versehentlich so zu falschen Schlüssen kommen. Du solltest auch mal Kritik vertragen und cool bleiben können. Sonst war es das. Denn das soziale ist mir auch wichtig und ich lass mich nicht dumm anmachen. Und im Vergleich zu dir bin ich nicht in einer missionaren Position.

dey
14.01.2014, 11:14
Dein Ansatz "gleiche Menge an RAM" ist unsinnig, da die 24 Megapixel nun einmal zur Verfügung stehen. Das du nur 6MP (analog 3 Spieler) nutzen willst, ist deine freie Entscheidung, ich möchte gerne alle 24MP mit einem modernen Interpolationsalgorithmus nutzen (11 Spieler). Also lasse ich, da beim Fußball nun mal 11 Spieler vorgesehen sind, auch 11 Spieler auflaufen und, wie du richtig erkannt hast, wäre es dumm von dir, mit nur 3 Spielern dagegen halten zu wollen.


Dein vergleich hinkt. Drei erwachsene Fussballer werden 11 Kiddies im Griff behalten. Und seine Behauptung ist ja, dass die 11 unvollständig sind.

So ich habe mich mal daran gemacht, den Vergleich durchzuführen, da ich einen Vergleich zwischen einem 8 Jahre alten 6MP-CCD gegen einen 3 Jahre alten 24MP-CMOS doch etwas unsportlich finde.

Zuerst das Bild von z mit einem von mir bei 200%
6/20131224133211-DSC04696vgl200.jpg
→ Bild in der Galerie (http:../galerie/details.php?image_id=190491)

Was das mit den 200% soll ist mir schon ein Rätsel; 100% sind das max sinnvolle. Wer ein Output auf 200% wählt, dem ist nicht zu helfen. (Es sei denn ich behaupte mit 24MP müßte das ja gehen; laut Hersteller)

Also bei 100% verglichen
6/20131224133211-DSC04696vgl100.jpg
→ Bild in der Galerie (http:../galerie/details.php?image_id=190492)

Und weil es ja darum geht, die interpolierten 24MP madig zu machen auch noch die beiden 6MP Bilder auf 24MP hochskaliert.
6/20131224133211-DSC04696vgl24mp.jpg
→ Bild in der Galerie (http:../galerie/details.php?image_id=190493)

Mir sagt das alles jetzt nur, dass ich weiter mit den interpolierten 24MP mache und danach entweder croppe und dann mein Archivformat von 6MP wähle oder eben gleich 6MP.

Und ich bin bei Tikal: deine überschärften Bilder leiden unter Moire und CA.
Es gibt durchaus Beispiele, die zeigen, dass deutlich mehr Details da sind, als bei den 6 MP der 7D, aber wie mein Beispiel zeigt liegt das eher an der Grundauflösung des 6MP-CCD.
Das alles relativiert sich dann bei Ausgabe auf eine sinnvolle Größe. Deine deine 100%-Ansichten würde ich so nicht sehen wollen.

bydey

Neonsquare
14.01.2014, 12:16
Was das mit den 200% soll ist mir schon ein Rätsel;

Zumindest dafür kann es gute Gründe geben. Wenn man die Pixelstrukturen bequemer betrachten will, dann ist das bei 200% einfacher. Ich hab das auch schon hin und wieder gemacht wenn ich die Interpolation verschiedener RAW-Konverter verglichen habe. Das es hier um Pixel Binning gegen komplexere Interpolationen geht, ist 200% durchaus auch eine interessante Betrachtungsweise, die im übrigen auch den Finger in die Wunde von Pixel Binning legt. Tatsächlich treten eben nunmal genau die Probleme auf die z. B. auch auf dem von mir gezeigten Link erwähnt werden:

Demosaic Algorithms, The Daily Nathan (http://www.thedailynathan.com/demosaic/algorithms.php?algorithm=pixelbinning&image=i/i80j1_resolution-chart-original.png)

Man kann sich dort auch die Wirkung verschiedener Demosaic-Algorithmen auf unterschiedliche Beispielbilder (siehe Custom Images) anzeigen lassen. Ich könnte mir vorstellen, das so mancher überrascht wäre, wie erheblich sich der jeweilige Demosaic-Algorithmus auf die Bilder auswirkt.

Btw. Zeeshans glorreiche "Erfindung" ist der einfachste dort aufgeführte Demosaic-Algorithmus (Pixel Binning) - und auch der mit den größten Problemen.

fotomartin
14.01.2014, 13:34
Was das mit den 200% soll ist mir schon ein Rätsel


Du hast mich glaub falsch verstanden - Wenn du das 24MP Bild kleiner als 1:1 betrachtest, dann werden für die Darstellung Informationen verworfen. Du musst es also zum fairen Vergleich mindestens in 1:1 betrachten. Damit das 6MP-zeromod Bild gleich groß erscheint wie das 24MP Bild in 100%, musst du das 6MP-Bild daneben in 200% anzeigen, sodass 1 Bild-Pixel auf 4 Monitor-Pixel vergrößert wird.
Nur dann siehst du das mehr an Luminanz-Auflösung des 24MP Bildes im Vergleich zu zeeshan's Ansatz, bei welchem diese Informationen von vorn herein verworfen werden - ein Fakt, den zeeshan seit Beginn der Diskussion beharrlich ignoriert.

Bei deinem letzten Vergleichsbild...

6/20131224133211-DSC04696vgl24mp.jpg
→ Bild in der Galerie (http:../galerie/details.php?image_id=190493)

... hast du das ja dann auch gemacht und man sieht mehr als deutlich den Unterschied zwischen zeeshans Lösung (ganz links) und dem - mit einem modernen Algorithmus erstellten - 24MP Bild ganz rechts.

Quintessenz also nach wie vor:
Zeeshans Variante führt zu - in allen Belangen - schlechteren Bildern als die Verwendung eines heutzutage normalen, modernen Algorithmus, wie ihn jeder moderne RAW Konverter heute verwendet.
Wer sich gerne ins eigene Fleisch schneidet, bitte - jeder andere kann das hier alles vergessen und weiter Sony IDC, Adobe ACR/Lightroom, DXOmark o.ä. verwenden.

dey
14.01.2014, 15:20
Du hast mich glaub falsch verstanden -[/B]


Ne ne, der 200%-Vergleich ist das erste Vergleichsbild auf seiner Interpolationsseite und hatte nix mit deinem Beitrag zu tun. Deswegen habe ich den ersten Vergleich so gemacht, wie er es mit dem Bild der 7D gemacht hatte.

Ich nutze selbst 200% und 400%, um zu sehen, ob kleine Regleränderungen überhaupt noch Änderungen bringen. Das würde ich aber nicht für einen Schärfe- oder Detailvergleich zwischen zwei Systemen verwenden, da es sich nur noch um theoretische Werte handelt und nicht um praktische.
Die finale Beurteilung ist bei mir eher bei 50%, denn das nutze ich später auch.

Ein interessanter Punkt für mich hierbei ist, was ich mit Bildern für das croppen mache. Schärfe und Detail auf Max, damit ich auch was croppen kann oder beides eher moderat, damit der crop nicht völlig zerhackt ausssieht.

Ich denke ich habe mit den drei Varianten schon die Realität abgedeckt.

bydey

Neonsquare
14.01.2014, 15:28
Ich nutze selbst 200% und 400%, um zu sehen, ob kleine Regleränderungen überhaupt noch Änderungen bringen. Das würde ich aber nicht für einen Schärfe- oder Detailvergleich zwischen zwei Systemen verwenden, da es sich nur noch um theoretische Werte handelt und nicht um praktische.
Die finale Beurteilung ist bei mir eher bei 50%, denn das nutze ich später auch.


Die finale Beurteilung der Schärfe hängt bei mir von der Verwendung und vom Inhalt ab. Ein Bild das auf in eine 900x900px Box im Web dargestellt wird, wird bei mir sehr deutlich geschärft. Manche Motive profitieren jedoch inhaltlich überhaupt nicht von einer Schärfung (viel weiche Übergänge, generell weiche Darstellung) - dann schärfe ich auch nicht.

Eine Schärfe/Detailbeurteilung auf 200px-Ebene ist irreführend. Bestimmte Details nimmt man erst wahr, wenn die Wahrnehmung der "Pixelgrenze" überwunden ist - wir kennen diesen Effekt ja auch sehr plakativ bei Icon-Design mit Pixelbildern - erst der Abstand bringt das Bild.

dey
14.01.2014, 15:35
Hi neon,

wie gesagt, theoretischer Vergleich.
Ich arbeite anders als du beim Thema Ausgabe. Es gibt eine finale Archivgröße und die wird für alles verwendet. Wenn ich jetzt für das SUF auf 1MP gehe schaue ich nur noch, ob das Ergebnis halbwegs meinem Archivbild entspricht, was bei Faststoneviewer zu 99% der Fall ist.

Es ist jedoch bei Schärfe- Detailbeurteilung manchmal so, dass ich das Gefühl habe, da tut sich nix, das kann doch nicht sein. Dann nehme 200-400%-Ansicht. Z.B. um den Untersschied zwischen Betrag und Radius zu erkennen oder zu verstehen.

Im Fall des Vergleichs von zero_mod_24MP gegen 7d_interpol wird ein ohnehin schon nicht mehr detailreiches Ausgangsbild auf 200% aufgeblasen um es richtig schlecht aussehen zu lassen. Ich finde das wenig sinnvoll. Das war, was ich meinte.

bydey

www_zeeshan_de
14.01.2014, 20:43
...
So ich habe mich mal daran gemacht, den Vergleich durchzuführen
...

bydey

Ein sehr schönes Beispiel dafür wie man du Dinge so lange veränderst, bist du genau das hast, was du haben willst.
Die Datei
20131224133211-DSC04696.jpg
(in deinen Bilder ist es 20131224133211-DSC04696-z.jpg)
hat normalerweise
10,7 MB (11.291.180 Bytes).

Du hast die Datei
20131224133211-DSC04696.jpg
mit dem zero_mod "beschämend" so weit in der JPG-Qualitätsstufe verschlechtert, dass am Ende nur noch 2,86 Megabytes davon übrig geblieben sind, und diese hast du dann mit allen anderen "von dir bevorzugten" JPG-Dateien mit weit höheren JPG-Qualitätsstufen gegenübergestellt (einmal 6,73 Megabytes, einmal 20,2 Megabytes).

So weit ich mich erinnere, bekommt man nur mit originalraw und dem zero_mod JPG-Dateien mit maximaler JPG-Größe (und auch Qualität). Selbst die 24 MP Out-of-Cam FINE JPGs sind in der Dateigröße kleiner.

Und obwohl du das Bild mit dem zero_mod extrem verlustbehaftet gespeichert hast (um es schlecht aussehen zu lassen) ist es erstaunlich, wie viele Details trotzdem in den lediglich 2,86 Megabytes verblieben sind.