![]() |
Zitat:
bydey |
Zitat:
hab den ganzen Tread hier nicht gelesen, sondern bin "nur" hierüber gestolpert. Ich hab Gestern seit langem mal wieder - dummerweise - die auto HDR Funktion meiner A77 für etliche Nachtfotos genutzt. Ich wollte das Ergebniss sofort.. sonst hätte ich jeweils Belichtungsreihen in RAW gemacht - was ja auch gut möglich ist. Mir ist zum ersten mal aufgefallen, wie viel besser (mein geliebtes) NeatImage RAW Dateien statt JPEG schärfen kann. JPEGs werden leider sehr viel schneller sichtbar überschärft, - ich krieg keinesfalls identische Schärfe. Kann ja sein, das man dafür die Schärfe in der Kamera runterregeln müsste (oder ?). Ich denke aber, das NeatImage auch für das "Schärfen" in den RAWs mehr/bessere Grundlagen vorfindet. Ich ärgere mich (auch) über die LR Schärfenwerkzeuge. Schärfen + (nötiges) Entrauschen ist leider deutlich verlustbehafteter als das NeatImage kann. Andere RAW Konverter machen das auch besser. Ich denke aber das ist auch zum großen Teil abhängig von den RAWS bzw. der A77. LG |
Zitat:
|
Zitat:
|
Umm... ich nutze doch kein Mac System.^^ Habe hier ein Linux System am Laufen: Ubuntu mit Shotwell und Darktable. Ich möchte aber nicht die JPEGs erst entwickeln, wenn ich sie benötige. Aber das ist doch schon sowieso ein wenig vom Thema ab. Es geht doch eher um die Nachbearbeitung. Wenn ich der Meinung bin mit dem JPEG nicht zufrieden zu sein und größere Bearbeitungen anzustellen oder einfach nur Bearbeitungen, die RAW erfordern, dann öffne ich die RAW Datei. Auch wenn ich der Meinung bin, es muss jetzt perfekte Qualität geben. In diesem Fall ist mit großem Aufwand gebunden, aber der Nutzen ist für mich enorm. Die JPEG habe ich in diesem Fall als Vergleichsbild; auch wegen den internen Korrekturen der Kamera.
|
Zitat:
Zitat:
Kann man aus dem RAW mehr Rausholen? Klar - manche Bilder profitieren z. B. von einer RAW-Schärfung. Viele Bilder enthalten hier oder dort mal einen Staubfleck oder ähnliche kleine Makel. Vielleicht ist es nicht ganz gerade, oder ich will lieber einen Crop. Sobald das Licht nicht ideal war, kann man durch gezieltes Arbeiten mit Definition, Licht/Schatten, Mittenkontraste, Lebendigkeit und bei schwierigen Fällen "Kurven" sehr detailliert arbeiten. Weit genauer und gezielter als das jemals mit Standard(Kontrast/Sättigung/Schärfe: -3 ..+3) möglich wäre. Zu deiner Frage ob ich nur "größere Thumbnails" mache. Nein - ich lasse auch auf z. B. bis zu 90x60cm ausbelichten. In diesem Fall skaliere ich die Schärfe gezielt für den Druck oder die Belichtung. |
Zitat:
Ich will Deine Vorgehensweise ja auch nicht in Abrede stellen. Aber Du sagst ja selbst, dass es Aufwändig ist. Das hat aber nichts mit RAW zu tun, sondern in der Art wie Du (warum auch immer) das so organisiert hast. Das meine ich wenn ich sage, das man es sich auch unnötig schwer machen kann. Selbst ein RAW+JPEG-Workflow (ich rate davon ab) ist mit den geeigneten Werkzeugen wesentlich einfacher. Wieder als Beispiel Aperture: Man kann - wenn man möchte - die RAW+JPEG-Paare als Paar belassen und bei jeder einzelnen Version eines Bildes zwischen JPEG und RAW-Grundlage switchen; jederzeit. Das ist jedoch nur zu empfehlen, wenn man beide Varianten Dauerhaft archivieren will; ansonsten ist ein getrennter Import besser. Am Ende ist es wieder "Aufwand vs. Nutzen" - das RAW macht nicht den Aufwand. |
Zitat:
|
Konverter
Zitat:
Im Prinzip bräuchte ich nur das raw-Bild in Rawtherapee aufrufen und ohne eine weitere Einstellung in JPEG konvertieren und hätte ein besseres JPEG-Bild als das was die Kamera erzeugt. Gruß Jörn Edit: Zumindestens wenn das Bild nicht optimal belichtet wurde. |
Zitat:
Gruß, Markus |
Zitat:
LG Jörn |
Zitat:
Es liegt wohl an der Balance mit dem Entrauschen. Tatsächlich kann man beim Schärfen weniger einstellen. Ich habe jedoch das Gefühl, dass NI einfach das Rauschen gemäss dem Filter erkennt und entsprechend beim Schärfen links liegen lässt. Die meisten anderen Programme machen sich selbst die Arbeit kaputt. bydey |
Zitat:
|
edit
Zitat:
EDIT: ich habe nun mal 2 Vergleiche auf eine Seite gebracht: http://www.repage.de/memberdata/photo/vergleich.jpg Links jeweils das Kamera-JPEG, recht der Rawtherapee-Grundwert. Und schließlich sah das eine dann so aus: http://www.fotocommunity.de/pc/pc/my...splay/30078732 LG Jörn Edit BadMan: Bilder mit einer Größe von mehr als 50 KB sind nach den Forenregeln nur zu verlinken und nicht in den Beitrag einzubinden. Bitte benutze unsere wunderschöne Galerie. Dort können Bilder bis 500 kb und 1200px Kantenlänge geladen und dann als Thumbnail im Thread verlinkt werden. |
Zitat:
Das RAW-Bild wirkt (auf mich) flau, das JPG-Bild ist (je nach Geschmack) vielleicht etwas zu dunkel abgestimmt, zu knackig und die scharzen Stellen (Kleid) sind vielleicht etwas zu tief schwarz - es gefällt mir trotzdem besser. Mit ein wenig Nacharbeit (bei Adobe CS5 sollte schon ein klick auf "automatisch" statt "standard" in CameraRaw für eine deutliche Verbesserung ohne manuellen Mehraufwand sorgen) ist da bestimmt noch einiges aus dem RAW-Bild herauszuholen. Die Abstimmung ist dann (wie immer) eher Geschmackssache. vlG Manfred |
Zitat:
|
Und darum geht es doch gar nicht. Das man ein Bild in einem RAW-Konverter verschlimmbessern kann ist klar. Auch mit Jpg geht ja noch viel; bis hin zu viel.
Rawtherapee kennt keine Kameraprofile und die sind schon zwingend notwendig, wenn mit default was angenehmes rauskommen soll. Individuell sollte es auch für Laien möglich sein eine gute Kopie des jpg ooc oder besser hinzubekommen. bydey |
Zitat:
Und AfterShot Pro kennt Kameraprofile. Aber mit AfterShorPro sind feinere Abgleiche machbar. Und der Zoom ist sauschnell. Werde es wohl kaufen... kostet z.Zt 65 EUR. EDIT: Und es hat mein 28/2,8-Minolta-Objektiv dabei *huhu* Die Möglichkeiten der Nachbearbeitung von JPEG sind aber stark eingeschränkt. An der Histogrammkurve sieht man dann, das bei jedem größeren Eingriff dann ein Stück Bildinformation fehlt. Auch solche Dinge wie Nachbelichtung und Tonwertmapping sind wohl kaum machbar. |
ge-spinnter Monitor
Zitat:
LG Jörn PS. wenn Jemand von den Tuxianern meine Anleitung (Spyder + ArgyllCMS) benötigt, einfach klingeln :D |
Hatte jetzt ein wenig Zeit ein Paar Bilder machen zu können, die ich nach meinem Workflow hochgeladen habe. Ich habe alle RAWs behalten und nicht gelöscht, falls jemad das RAW haben möchte bitte melden. Für den OOC-JPG vs mein-Workflow-JPG werde ich gesondert Zeit nehmen und noch nachreichen.
http://www.zeeshan.de/slta65/0_slta65.htm Die Bilder sind in der umgekehrten Reihenfolge, neueste Bilder erscheinen in der Galerie als erstes. |
Zitat:
Zitat:
Zitat:
[OT=on]Ich finde dein textbasierte HP seltsam. Bei www.zeeshan.de kommt eine Auflistung des root-Verzeichnis; 0_start_homepage.html startet nicht automatisch. Die ganze Anmutung verwirrt angesichts dieses Footers "Copyright (c) 2013 Zeeshan Sayyed (Staatlich geprüfter Informatiker)". Wenn du Lust hast kannst du es mir ja mal per PN erklären[/OT] bydey |
Auch wenn der Raw Konverter keine Kameraprofile unterstützt, kann man damit arbeiten. Man fotografiert ein Target lässt es durch den Raw Konverter mit definierten Einstellung durch und erstellt auf dieser Basis ein Profik,. Dieser Profil kann man dann z.b. in PS dem Bild zuweisen und dann weiterverarbeiten. Damit ist durchaus auch damit ein farbverbindliches Arbeiten möglich.
Das Neatimage besser schärft, liegt m. E. daran, dass es davor gut enttäuscht. Damit kannst danach die Schärfe ohne Störungen höher ziehen. Wobei eigentlich entrauschen normal am Prozess Anfang, schärfen erst am Prozessende und abhängig von der Verwendung stattfindet. Daher ist das Schärfen in der Kamera eigentlich fast immer falsch. |
Zitat:
|
Sch... Tablett. Zuerst hat es gpo immer in FPÖ umgewandelt und jetzt entrauscht in enttäuscht. Liegt wohl am Android. Google liest unser Forum und analysiert, dass Rauschen enttäuscht und daher jemand der entrauscht enttäuscht sein muss.
|
Zitat:
Ich glaube bei NI eher an die Kombination aus Entrauschen, Schärfen, Rauschfilter und Profile. Der Schärfungsalgorithmus hat hier einfach große Chancen das Rauschen zu erkennen und zu ignorieren. bydey |
Zitat:
* Kontrasterhöhung * Farbsättigung-Erhöhung * Schärfen durchgeführt wurde (In welchem Maß: unbekannt). Diese kann man wenn man über SONY IDC geht natürlich auch noch durchführen, wenn man dann aber von TIF nach JPG batchkonvertieren möchte, hat man einen entscheidenden Vorteil: Die JPG-Speicher-Optionen kann man selbst auf maximum einstellen (100 % und Farbsubsampling deaktivieren!!!) wogegen die OOC-JPGs nur mit JPEG, quality: 94, subsampling ON (2x1) daherkommen. Diesen Wert kann man anhand der neuesten Software Version "IrfanView 4.36" überprüfen indem man dort die jpg öffnet und auf den Info-Button klickt. Farbsubsampling und NUR 94 % jpg Qualität, das geht mal gar nicht (siehe jpg Qualität auf meiner Homepage). Die SLT-A77 und A99 haben da ggf noch JPG Super Fine Einstellungen (Firmware bitte mit angeben), ich habe diese Kameras jedoch nicht, und somit können wir auf Information von Neonsquare und Co hoffen. @physicist Ich habe zwischenzeitlich meinen Workflow ein wenig verbessert und eine Anleitung der Vorgehensweise unter http://www.zeeshan.de/slta65/0_slta65.htm beschrieben. Ich habe jegliche Kamerainterne Bildverbesserer/Verschlechterer (Objektiv- Schattierungskompensation, Verzerrungskompensation, Farbkompensation) DEAKTIVIERT. Eine NO_EBV.xml für Sony IDC habe ich dort abgelegt, darin sind JEGLICHE nachträgliche Bildverbesserer/Verschlechterer von ARW2TIF deaktiviert, wie ich dann zum finalen JPG komme, kannst du ebenfallst dort nachlesen. Ein paar Bilder gibts auch in der Galerie dort, Bilder nach dem NO_EBV.xml Prinzip werden folgen. Du darfst gerne mal ein ARW anhand NO_EBV.xml und dem weiteren Workflow bearbeiten. Wie findest du das Ergebnis ? BTW: hast du jetzt eine Festbrennweite DT 35 F1.8 ? |
Wo in deinem flow machst du denn die Bilder Retusche? Ich verwende Lightroom und mache zunächst alle Änderungen am RAW (zuschneiden, Belichtungskorrekturen, lense profiles, schärfen, Rauschunterdrückung) bevor ich (in Lightroom) nach tiff konvertiere, um dann in den nik Plugins weiter zu editieren und den finalen Schliff zu geben. Dann konvertiere ich das tiff nach jpg (ich glaube mit 92 %) in Lightroom.
Leider sind die tiff files alle sehr groß (130 MB sind keine Seltenheit) und ich lösche diese dann meist wieder. Du schreibst auf deiner Homepage einerseits, dass du bereits bei der tiff Konvertierung die Auflösung halbierst (unter jpg quality) und andererseits bei dem Sony Kapitel erst bei der tiff nach jpg Konvertierung. Warum machst du es mit den Sony files anders? |
Zitat:
http://www.bilder-hochladen.net/file...f4x-a-d3d9.jpg Links OOC-JPG - Rechts RAW2TIF2JPG (100% Crop bezogen auf das ooc jpg) Der Unterschied zwischen 16 und 4 Megapixel ist wohl mehr als offensichtlich :mrgreen: |
Zitat:
http://www.bilder-hochladen.net/file...-c4ca-jpg.html Wenn du mit der Kamerainternen OOC-JPG Bildqualität JPEG, quality: 94, subsampling ON (2x1) zufrieden bist, hat sich alles andere für dich bereits erübrigt. Wer KEIN Farb-Subsampling und 100 % JPG-Qualität in seinen JPGs haben möchte, der kann den von mir beschrieben Weg gehen (egal ob am Ende mit Bildgrößenverkleinerung auf native RGB-Pixel-Größe [also 4 MP bei einer 16 MP Kamera(Herstellerangabe) oder 6 MP bei einer 24 MP Kamera(Herstellerangabe) usw]). Allen anderen bleibt das Speichern der Bilder im ARW/RAW Format. |
Zitat:
2. Danke dass du mich darauf aufmerksam gemacht hast. Die Vorgehensweise der Seite "jpg quality" ist schon ein wenig gealtert, und zwischenzeitlich hatte mehrere neuere Kameras. Wenn es S-RAW wie bei Canon auch für Sonys ARW geben würde (also exakt halbe Auflösung statt interpolierte Auflösung[Herstellerangabe]), würde ich das gerne mal ausprobieren. Allerdings gibts das nicht, und damals bei Canon war das wirklich komisch mit der jeweils separaten Software für die G9 vs 400D/450D. Die Problematik für mich bestand darin, dass beim Halbieren der Größe mit der Herstellersoftware man als Benutzer KEINEN Einfluss darauf hat mit WELCHEM Algorithmus das Bild verkleinert wurde. Der Einzige Algorithmus, mit dem der Kontrast (und somit auch die Farbwerte der einzelnen Pixel) unverändert bleiben ist Pixelwiederholung/nächster Nachbar. Bei allen anderen Algorithmen wird nach jeder Anwendung das Bild flauer (verliert an Kontrast und Bildschärfe!!Konturen werden weichgebügelt). Traurig war das für mich, weil selbst bei einer Halbierung der Bildgröße derartig schlecht Algorightmen angewendet wurden (für gewöhnlich sind diese nur erforderlich beim Verkleinern auf ungerade Zahlen). Damit ich künftig sicher sein kann, dass der Kontrast und die knackigen Farben in den Bildern erhalten bleiben, habe ich den Verkleinerungsprozess in die Software integriert, in der ich den Verkleinerungs-Algorithmus "Pixelwiederholung/Nächster Nachbar" SELBST einstellen kann. |
Zitat:
|
Zitat:
Ich konnte zwischenzeitlich aber was feststellen: Auf der Seite http://www.cameralabs.com/reviews/So...e_images.shtml kann man das Bild """Landscape: 13.22MB, Program auto, 1/320, f5.6, 100 ISO, 16-50mm at 16mm (24mm equiv)""" nach dem Klick auf ..., "alle Größen anzeigen", dann in Originaldatei downloaden. Danach mit Irfanview 4.36 öffnen, und auf info Button klicken, und siehe da, dort steht: JPEG, quality: 99, subsampling ON (2x1) Das bedeutet dass selbst bei der Sony SLT-A77 "Extra Fine" JPG Einstellung nicht mit maximaler JPG-Qualität gespeichert wird. Nur 99 % statt 100 % JPG-Qualität reduziert die Dateigröße bereit IMMENS (also Hohe Verluste), das Schlimmste jedoch ist, dass das Farb-Subsampling immer noch aktiviert ist !!!! Hierdurch verlieren knackige Farben ihre Brillanz. Auf meiner Seite unter jpg Qualität ist das mit den Farbsubsampling mit/Ohne genauer beschrieben. Ohne Farbsubsampling (1x1): http://www.zeeshan.de/jpgquality/jpgquality-11.jpg Mit Farbsubsampling (2x1): http://www.zeeshan.de/jpgquality/jpgquality-12.jpg Mit Farbsubsampling (2x2): http://www.zeeshan.de/jpgquality/jpgquality-13.jpg Ich habe in diversen Internetforen gelesen, es gibt Leute die die A77 nur wegen der JPG-Option "Extra Fine" gekauft haben (anstatt eine A65). Ich denke eine A65 und den Weg über RAW/ARW gehen + ein DT 35mmF1.8 ist ggf günstiger. |
Oh Mann, wann entfernst du dich endlich von synthetischen Motiven als Vergleichsgrundlage, für deren Komprimierung und Speicherung JPG gar nicht geeignet ist? Fotografierst du ausschließlich Bildschirmzeichnungen ab oder die Natur? Hast du jemals das hier gelesen und verstanden?
|
Zitat:
|
@www_zeeshan_de
Eine Sache verstehe ich immer noch nicht, warum soll ich 75% der Pixel in dem Bild nach "/dev/null" verschieben? (also löschen) Ja, ich weiß was ein Bayer-Filter ist. Aber wenn das Reduzieren auf ein Viertel der Pixelzahl dazu dienen soll aus 2 grünen und jeweils 1 Roten und Blauen Helligkeitswert des Bayer-Sensors ein RGB-Pixel zu errechnen, so ist doch der von Dir vorgeschlagene Weg komplett falsch. Was du machst, ist jeweils 4 RGB-Pixel zu einem neuen RGB Pixel zusammenzufassen. In dem Moment wo Du deine Bilder als TIF speicherst sind die Helligkeitsinformationen des Sensors doch bereits in RGB-Werte umgerechnet/interpoliert worden. Möchtest Du aus der Bayer-Matrix immer 2x2 Pixel zusammenfassen und zu einem RGB-Wert machen, so muss das doch noch mit den Rohdaten passieren.:!: Das zusammenfassen von 2x2 Pixeln ist allerdings, in meinen Augen, ein total falscher Ansatz der nur zu überschärften Bildern mit Farbsäumen führt. (Wie man bei meinem Beispielbild welches exakt nach deiner Methode erstellt wurde sehr gut sieht) Hier gibts einen Vergleich einiger Interpolationstechniken für Bayer-Bilddaten: http://www.thedailynathan.com/demosa...&image=raw.png Ob man das Endergebnis dann mit 90% oder 100% JPG Qualität speichert macht wohl am wenigsten aus. Immerhin fehlen bei deiner Methode ja schon 75% der Bildinformationen und die restlichen 25% sind auch verfälscht, da sie aus bereits interpolierten Pixeln wieder zusammengerechnet wurden :D |
@www_zeeshan_de
Also ich weiß nicht, wie es anderen damit geht, aber bei mir ist bei Deinen Folgerungen immer das Hirnareal für "Fremdschämen" massiv beschäftigt. Für mich bewegt sich das auf einer Ebene, die ungesundes Halbwissen bereits deutlich überschritten hat. Ich kann Dir nur empfehlen mal viele Schritte zurückzugehen und nochmal zu beginnen. Ich meine das wohlwollend! Ich denke Du verschwendest Deine Zeit indem Du Dich verrennst. Die von mir gesehenen Vorteile bei den Details in der RAW-Entwicklung haben nichts mit einer besseren JPEG-Komprimierung zu tun sondern mit besseren Schärfungsalgorithmen bei der RAW-Entwicklung. Dein ganzer Ansatz mit der TIF-Konvertierung oder der Skalierung ist für die Tonne. Was soll das bezwecken? RAW-Konverter wie Aperture arbeiten intern mit 32 Bit Gleitkommawerten - die Konvertierung wird bei Bedarf durchgeführt und mit den Parametern so gewählt wie die konkrete Verwendung ist. Je nachdem kann man so komprimierte, verkleinerte Web-JPEGs erzeugen oder 16-Bit/Kanal PSD-Dateien für eine weitere Bearbeitung in Photoshop &Co. Das Geheimnis besteht darin nur das RAW und die Parameter zu archivieren und nicht fertig ausgerechnete RGB-Bilddaten. Zu den JPEG-Theorien mit synthetischen Vergleichsbildern wurde eigentlich bereits genug gesagt. |
Zitat:
Nun gibt es Leute die sagen, alles was anhand von EIN PAAR WENIGEN DATEN mit Hilfe modernster RECHENMETHODEN (und es gibt x-Algorithmen dafür) auf NÄHERUNGSWERTE berechnet werden kann, ist absolut richtig und alles andere ist falsch. Ich gehöre jedoch NICHT dazu, ich bevorzuge Fakten anstatt (Wetter)vorhersagen. All zu oft ist es nämlich auch so, dass die Werte die per Interpolation hochgerechnet wurden, gar nicht stimmen. Doch die Überprüfung* wäre immens aufwändig und die Leute sind froh wenn es irgendwelche Werte gibt (ist immer noch besser als gar keine Werte zu haben). *Um die (interpolierte) 24 MP TIF Bilder der Sony SLT-A65 zu vergleichen benötig man z B eine Sony SLT-A65B mit (interpolierten) 96 MP auf gleicher Sensorgröße. Das 96 MP TIF-Bild wird dann per NächsterNachbar/Pixelwiederholung auf exkt 24 MP TIF reduziert. Nun schaust du dir beide Bilder an, welches der Bilder hat auf Pixelebene mehr Details ? So einen Vergleich kann man nicht durchführen, weil es die A65B nicht gibt, aber was man machen kann ist das Bild einer 6 MP Kamera (Herstellerangabe) mit dem 6 MP der A65 vergleichen (nach Verkleinern auf halbe Größe [ohne Schärfen]). Hier hätte man dann einen direkten Vergleich von Interpolierten-Werten vs Werten(ohne Interpolation, also Fakten). 2. Gibt es einen Befehl für Sony Image Data Converter, damit ich GENAU DAS mal ausprobieren kann ? 3. Ich würde dich ja verstehen wenn du der Besitzer einer Nikon D800E wärst und nach dem Verkleinern der Bilder dir die Bilder zu scharf vorkommen, aber mit einer A37 (mit AA-Filter) ? Wenn du nach meiner Methode ein Bild auf HALBE Größe reduzierst (ohne jegliches vorhergehendes oder nachträgliches Schärfen) UND das Bild wirkt für dich Überschärft (weil es die native RGB-Auflösung abzüglich Bayer-Filter-Interpolation und Anit-Aliasing-Filter-Blurring erreicht hat), dann denke ich ist evtuell die Analoge Fotografie für dich geeigneter. Bei der digitalen Fotografie werden Analoge Informationen digitalisiert. Um diesen Digitalisierungs-Effekt in den Hintergrund zu schicken, versuchen Hersteller mit allen möglichen Mitteln (Interplationsverfahren, Anti-Aliasing-Filter und sonstige in die Firmware integrierte Funktionen) den Digitalisierungs-Effekt vor den den Augen der Kunden zu verwischen. Mit anderen Worten: Augenwischerei. Sobald man ein Bild in der nativen RGB-Auflösung sieht, ist es scharf, ja, es ist scharf, aber niemals überschärft, es sei denn, man hat es selbst überschärft. 4. Von welchen Farbsäumen redest du ? Du meinst weil du nach dem Halbieren der Bildgröße noch das Schärfen mit dem Wert 50 darüber gejagt hast ? Dann lass doch mal das Schärfen weg ! Oder probier mal mit Schärfen Wert 10 ? Schärfen ist ein recht komplexer und komplizierter Vorgang, das auf jedes Bild/Motiv einzeln abzustimmen ist. Ich hab bisher noch nie geschärft, mit dem Wert 50 habe ich mal versucht Fuß zu fassen, doch während es bei dem einen oder anderen Bild ok ist, kann es bei anderen Bildern wiederum schon zu viel sein. Was ich eigentlich gesucht habe, ist ein Schärfungs-Wert für XN-View, das ich GENERELL auf alle Bilder anwenden kann, mit dem ich ungefär ein Ergebnise bekomme als wäre in der SONY SLT-A65 KEIN Anti-Aliasing-Filter verbaut worden. Siehe dazu auch mal: http://www.dpreview.com/reviews/nikon-d800-d800e/27 5. Was soll ich jetzt damit ? Bin ich Hersteller von Digitalkameras ? Wenn ich bei einer 24 MP Kamera (Herstellerangabe) echte 24 RGB-MP bekomme, bin ich vollstens zufrieden und werde das Bild dann natürlich auch nicht mehr verkleinern (wäre ja tatsächlich Informationsverlust auf RGB-Pixelebene!!). Ob diese 24 RGB-MP dann aus einem 96 MP Sensor mit Bayer-Filter gewonnen wurden, DAS wäre mir sowas von egal solange sich der Preis im 700 Euro Bereich bewegt. 96 Bayer-Filter-MP auf einem APS-C Sensor wäre aber schon heftig, und so bin ich mir sicher werden die Vollformat Sensoren die APS-C Sensoren ersetzen, sobald man die 50 bis 60 MP im Konsumer-Bereich erreicht hat (Ultra HD Bildschirme aber kommen definitiv zuerst und legen die Grundlage für den zunehmenden Bedarf an anspruchsvollen, hochauflösenden Bildern). 6. Ob man das Bild nun in der Qualität jpgquality-n3100.jpg=4,41 MB (4.635.369 Bytes)@2000 x 1500 Pixels (3.00 MPixels) (4:3)@JPEG, quality: 100, subsampling OFF oder in der Qualität jpgquality-n2090.jpg=1,13 MB (1.187.624 Bytes)@2000 x 1500 Pixels (3.00 MPixels) (4:3)@JPEG, quality: 90, subsampling ON (2x1) speichert, macht wohl in deinen Augen keinen Unterschied. Bei näherem Betrachen jedoch http://www.zeeshan.de/jpgquality/jpg...vs_90ss2x1.jpg sieht man die JPG-Artefakte sehr wohl, auch das Farbensubsampling hat dem kräftigem Rot im Kissen ans Bein gepinkelt. Dieses Bild übrigens wurde aus einer 12 MP Kam auf 3 MP reduziert, insbesondere jetzt ist es besonders wichtig die JPG-Qualität auf maximum zu halten, denn ein interpoliertes 12 MP Bild in 90 % JPG-Qualität zu speichern ist was anderes als ein natives 3 RGB-MP Bild mit 90 % (und subsampling 2x1) zu speichern. Aber selbst wenn du in interpolierter nativer Auflösung mit 100% JPG-Qualität speichern würdest, falls du Subsampling 2x1 in Kauf nimmst, würde dann auch bei 100 % JPG-Qualität der knallrote Kuss im Kissen seine Brillanz verlieren. Was weg ist, ist weg. |
Zitat:
Da ist es schon zu spät für irgendwelche Techniken die man sonst auf Bayer-Sensordaten anwendet. Du kannst die "herbei-interpolierten" RGB-Pixel auch nicht wieder "de-interpolieren". Allein schon deshalb nicht weil du nicht weisst wie interpoliert wurde. Du gehst immer davon aus das der 24MP Kamerasensor nativ nur 6MP hat (deine sogenannten RGBG-Pixel), das stimmt aber nicht. Der Sensor hat eine echte Auflösung von 24MP, jedoch kann der Sensor nur Helligkeitswerte ermitteln.Deswegen der Bayer Filter vor dem Sensor. Die Auflösung der einzelnen Farben, ja die ist geringer, die Auflösung der Helligkeitswerte ist jedoch 24MP. Das Problem bzw. die Aufgabe der Interpolation ist es also nicht irgendwelche Pixel dazu zu erfinden, sondern die Aufgabe ist es den real aufgenommenen Helligkeitswerten die richtige Farbe zuzuordnen. Wenn du jetzt die Sensorpixel im 2x2 Raster einfach zusammenfasst kommt es zu Artefakten wie z.B. 1 Pixel breite Farbsäume. Dazu kommen unnatürlich harte Kanten an Stellen mit hohen Kontrasten. Ist ja logisch, denn auf einmal werden Informationen die normalerweise nebeneinander auf den Sensor liegen und gar nicht zusammengehören einfach übereinandergepackt. Dadurch entstehen dann mitunter Pixel mit einer völlig falscher Farbe. Hier noch ein Test darüber: http://www.informatik.hu-berlin.de/f...photo10_03.pdf Zitat:
Zitat:
Vielleicht gehts auch mit DCRAW oder ähnlichen Tools.... http://www.insflug.org/raw/Downloads/ Zitat:
Zitat:
Zitat:
Wo siehst du heraus das ich irgendwo etwas geschärft habe? Welche Farbsäume? Bitte schau dir das von mir erstellte Testbild mit den Booten noch einmal an. Fast an jedem Fenster sind Rote Pixel auf der weißen Fläche neben den Fenstern zu sehen. Zitat:
Jede andere Interpolationstechnik bringt bessere Resultate als das zusammenfassen von 4 Sensorpixeln zu einem "RGBG-Pixel" wie du ihn nennst... Wenn es dir egal ist wie die Interpolation funktioniert und welche Technik angewendet wurde, dann kannst du sie auch nicht rückgängig machen. (Ich bezweifle das es selbst bei Kenntnis des Interpolationsverfahrens möglich ist, aber das kann uns evtl. ein Mathematiker beantworten) |
Ich würde sagen, du gehst einfach mal fotographieren, machst von deinen besten Bildern einen Abzug in 50*60 nach den beiden Verfahren und zeigst uns den Unterschied.
Mich interessieren irgendwelche Vermutung und Annahmen über eine vielleicht theoretische Bildverbesserung nicht, wenn sie in der Praxis nicht sichtbar sind. Hinsichtlich Schärfen liegst leider ein wenig falsch, da das Mass an Schärfe nie absolut ist, sondern vom Betrachtungsabstand abhängt. Dies ist auch Grund, warum es keine Universalschärfung geben kann. |
Zitat:
Ein Nebeneffekt der steigenden Megapixelzahlen ist auch, dass man sich immer weniger Gedanken um Digitalisierungseffekte machen muss. Deswegen sind AA-Filter dieser hochauflösenden Sensoren oft schwächer oder immer öfter auch nicht vorhanden. Die effektive Auflösung des Systems steigt durch immer mehr Pixel immer weniger, aber die Aliasingeffekte verschwinden in den tatsächlich genutzten Auflösungen. Irgendwann ist die diskrete Natur des Sensors eben vernachlässigbar. Ein herunterskalieren auf ein Viertel der Pixelauflösung ist nur dann sinnvoll, wenn dies auch die gewünschte Zielauflösung ist. Der Grad der notwendigen Schärfung hängt dann noch vom Betrachtungsabstand ab. Was man nicht erreicht ist irgendeine Form der "Deinterpolation". Die ganze Idee ist Quatsch - durch den AA-Filter enthält jeder Bayerpixel automatisch auch Helligkeitsinformation der Nachbarpixel. Auch korrespondieren die R,G und B Werte nicht direkt mit den RGB-Pixeln des Bayersensors - denn es gibt dazwischen (neben der Interpolation an sich) mindestens noch die Abbildung des Sensorfarbraums in einen Standardfarbraum, einen Weißabgleich und eine Delinearisieung. Man darf generell nicht so sehr an den Bayer-RGB-Pixeln haften - letztlich kann man das auch als z.B. getrennt in Luminanz und Chroma sehen - jeder der Pixel trägt seinen Teil zur Luminanz bei - wobei der Grünkanal am meisten Luminanzinformation trägt. Es gibt mittlerweile sogar Ansätze welche statt den grünen Filtern durchsichtige Filter (also einfach keine) verwenden (z.B. aktuell Aptinas "Clarity+"). Denn man kann auch aus Gesamt-Luminanz, Rot und Blau die notwendige Information berechnen. Die Tatsächliche Detailwahrnehmung besteht hauptsächlich aus der Luminanzinformation und die ist nicht nur ein Viertel der Bayerpixel wie von Zeeshan naiv dargestellt wird. Im Resultat ist ein RGB- Pixel im TIF ein komplex berechnetes statistisches Datum. |
Alle Zeitangaben in WEZ +2. Es ist jetzt 10:06 Uhr. |