![]() |
|
|
![]() |
|||||||||||||
![]() |
||||||||||||||||
|
![]() |
#151 |
Registriert seit: 02.08.2009
Ort: Hamburg
Beiträge: 4.739
|
Ist ja auch so ein Mythos, der pauschal nicht stimmt. Trifft nur zu, wenn man verkleinert (oder auch vergrößert) auf zb Webgröße und das runterskalierte Bild, am besten nur leicht, nachschärfen will, wenn es das Programm, welches man benutzt, es nicht schon selber erledigt, wie zb Lightroom, wenn man denn will.
|
![]() |
![]() |
Sponsored Links | |
|
![]() |
#152 | |
Registriert seit: 10.05.2013
Beiträge: 119
|
![]() Zitat:
Ich konnte zwischenzeitlich aber was feststellen: Auf der Seite http://www.cameralabs.com/reviews/So...e_images.shtml kann man das Bild """Landscape: 13.22MB, Program auto, 1/320, f5.6, 100 ISO, 16-50mm at 16mm (24mm equiv)""" nach dem Klick auf ..., "alle Größen anzeigen", dann in Originaldatei downloaden. Danach mit Irfanview 4.36 öffnen, und auf info Button klicken, und siehe da, dort steht: JPEG, quality: 99, subsampling ON (2x1) Das bedeutet dass selbst bei der Sony SLT-A77 "Extra Fine" JPG Einstellung nicht mit maximaler JPG-Qualität gespeichert wird. Nur 99 % statt 100 % JPG-Qualität reduziert die Dateigröße bereit IMMENS (also Hohe Verluste), das Schlimmste jedoch ist, dass das Farb-Subsampling immer noch aktiviert ist !!!! Hierdurch verlieren knackige Farben ihre Brillanz. Auf meiner Seite unter jpg Qualität ist das mit den Farbsubsampling mit/Ohne genauer beschrieben. Ohne Farbsubsampling (1x1): http://www.zeeshan.de/jpgquality/jpgquality-11.jpg Mit Farbsubsampling (2x1): http://www.zeeshan.de/jpgquality/jpgquality-12.jpg Mit Farbsubsampling (2x2): http://www.zeeshan.de/jpgquality/jpgquality-13.jpg Ich habe in diversen Internetforen gelesen, es gibt Leute die die A77 nur wegen der JPG-Option "Extra Fine" gekauft haben (anstatt eine A65). Ich denke eine A65 und den Weg über RAW/ARW gehen + ein DT 35mmF1.8 ist ggf günstiger. |
|
![]() |
![]() |
![]() |
#153 |
Registriert seit: 28.09.2007
Ort: bei Ulm
Beiträge: 5.888
|
Oh Mann, wann entfernst du dich endlich von synthetischen Motiven als Vergleichsgrundlage, für deren Komprimierung und Speicherung JPG gar nicht geeignet ist? Fotografierst du ausschließlich Bildschirmzeichnungen ab oder die Natur? Hast du jemals das hier gelesen und verstanden?
__________________
LG, Rainer Robert Capa: If your photographs aren't good enough, you're not close enough. | meine Heimatseite | etwas zum Nachdenken | ein typischer Kurt Hinweis: die deutsche Rechtschreibung ist Freeware, d.h. du darfst sie kostenlos nutzen. Allerdings ist sie nicht Open Source, d.h. du darfst sie nicht verändern oder in veränderter Form veröffentlichen. |
![]() |
![]() |
![]() |
#154 | |
Registriert seit: 03.12.2003
Beiträge: 8.945
|
Zitat:
|
|
![]() |
![]() |
![]() |
#155 |
Themenersteller
Registriert seit: 25.11.2012
Ort: Jersbek
Beiträge: 132
|
@www_zeeshan_de
Eine Sache verstehe ich immer noch nicht, warum soll ich 75% der Pixel in dem Bild nach "/dev/null" verschieben? (also löschen) Ja, ich weiß was ein Bayer-Filter ist. Aber wenn das Reduzieren auf ein Viertel der Pixelzahl dazu dienen soll aus 2 grünen und jeweils 1 Roten und Blauen Helligkeitswert des Bayer-Sensors ein RGB-Pixel zu errechnen, so ist doch der von Dir vorgeschlagene Weg komplett falsch. Was du machst, ist jeweils 4 RGB-Pixel zu einem neuen RGB Pixel zusammenzufassen. In dem Moment wo Du deine Bilder als TIF speicherst sind die Helligkeitsinformationen des Sensors doch bereits in RGB-Werte umgerechnet/interpoliert worden. Möchtest Du aus der Bayer-Matrix immer 2x2 Pixel zusammenfassen und zu einem RGB-Wert machen, so muss das doch noch mit den Rohdaten passieren. ![]() Das zusammenfassen von 2x2 Pixeln ist allerdings, in meinen Augen, ein total falscher Ansatz der nur zu überschärften Bildern mit Farbsäumen führt. (Wie man bei meinem Beispielbild welches exakt nach deiner Methode erstellt wurde sehr gut sieht) Hier gibts einen Vergleich einiger Interpolationstechniken für Bayer-Bilddaten: http://www.thedailynathan.com/demosa...&image=raw.png Ob man das Endergebnis dann mit 90% oder 100% JPG Qualität speichert macht wohl am wenigsten aus. Immerhin fehlen bei deiner Methode ja schon 75% der Bildinformationen und die restlichen 25% sind auch verfälscht, da sie aus bereits interpolierten Pixeln wieder zusammengerechnet wurden ![]() Geändert von physicist (16.07.2013 um 23:38 Uhr) |
![]() |
![]() |
Sponsored Links | |
|
![]() |
#156 |
Registriert seit: 12.08.2008
Ort: Nürnberg
Beiträge: 4.198
|
@www_zeeshan_de
Also ich weiß nicht, wie es anderen damit geht, aber bei mir ist bei Deinen Folgerungen immer das Hirnareal für "Fremdschämen" massiv beschäftigt. Für mich bewegt sich das auf einer Ebene, die ungesundes Halbwissen bereits deutlich überschritten hat. Ich kann Dir nur empfehlen mal viele Schritte zurückzugehen und nochmal zu beginnen. Ich meine das wohlwollend! Ich denke Du verschwendest Deine Zeit indem Du Dich verrennst. Die von mir gesehenen Vorteile bei den Details in der RAW-Entwicklung haben nichts mit einer besseren JPEG-Komprimierung zu tun sondern mit besseren Schärfungsalgorithmen bei der RAW-Entwicklung. Dein ganzer Ansatz mit der TIF-Konvertierung oder der Skalierung ist für die Tonne. Was soll das bezwecken? RAW-Konverter wie Aperture arbeiten intern mit 32 Bit Gleitkommawerten - die Konvertierung wird bei Bedarf durchgeführt und mit den Parametern so gewählt wie die konkrete Verwendung ist. Je nachdem kann man so komprimierte, verkleinerte Web-JPEGs erzeugen oder 16-Bit/Kanal PSD-Dateien für eine weitere Bearbeitung in Photoshop &Co. Das Geheimnis besteht darin nur das RAW und die Parameter zu archivieren und nicht fertig ausgerechnete RGB-Bilddaten. Zu den JPEG-Theorien mit synthetischen Vergleichsbildern wurde eigentlich bereits genug gesagt. |
![]() |
![]() |
![]() |
#157 | |
Registriert seit: 10.05.2013
Beiträge: 119
|
![]() Zitat:
Nun gibt es Leute die sagen, alles was anhand von EIN PAAR WENIGEN DATEN mit Hilfe modernster RECHENMETHODEN (und es gibt x-Algorithmen dafür) auf NÄHERUNGSWERTE berechnet werden kann, ist absolut richtig und alles andere ist falsch. Ich gehöre jedoch NICHT dazu, ich bevorzuge Fakten anstatt (Wetter)vorhersagen. All zu oft ist es nämlich auch so, dass die Werte die per Interpolation hochgerechnet wurden, gar nicht stimmen. Doch die Überprüfung* wäre immens aufwändig und die Leute sind froh wenn es irgendwelche Werte gibt (ist immer noch besser als gar keine Werte zu haben). *Um die (interpolierte) 24 MP TIF Bilder der Sony SLT-A65 zu vergleichen benötig man z B eine Sony SLT-A65B mit (interpolierten) 96 MP auf gleicher Sensorgröße. Das 96 MP TIF-Bild wird dann per NächsterNachbar/Pixelwiederholung auf exkt 24 MP TIF reduziert. Nun schaust du dir beide Bilder an, welches der Bilder hat auf Pixelebene mehr Details ? So einen Vergleich kann man nicht durchführen, weil es die A65B nicht gibt, aber was man machen kann ist das Bild einer 6 MP Kamera (Herstellerangabe) mit dem 6 MP der A65 vergleichen (nach Verkleinern auf halbe Größe [ohne Schärfen]). Hier hätte man dann einen direkten Vergleich von Interpolierten-Werten vs Werten(ohne Interpolation, also Fakten). 2. Gibt es einen Befehl für Sony Image Data Converter, damit ich GENAU DAS mal ausprobieren kann ? 3. Ich würde dich ja verstehen wenn du der Besitzer einer Nikon D800E wärst und nach dem Verkleinern der Bilder dir die Bilder zu scharf vorkommen, aber mit einer A37 (mit AA-Filter) ? Wenn du nach meiner Methode ein Bild auf HALBE Größe reduzierst (ohne jegliches vorhergehendes oder nachträgliches Schärfen) UND das Bild wirkt für dich Überschärft (weil es die native RGB-Auflösung abzüglich Bayer-Filter-Interpolation und Anit-Aliasing-Filter-Blurring erreicht hat), dann denke ich ist evtuell die Analoge Fotografie für dich geeigneter. Bei der digitalen Fotografie werden Analoge Informationen digitalisiert. Um diesen Digitalisierungs-Effekt in den Hintergrund zu schicken, versuchen Hersteller mit allen möglichen Mitteln (Interplationsverfahren, Anti-Aliasing-Filter und sonstige in die Firmware integrierte Funktionen) den Digitalisierungs-Effekt vor den den Augen der Kunden zu verwischen. Mit anderen Worten: Augenwischerei. Sobald man ein Bild in der nativen RGB-Auflösung sieht, ist es scharf, ja, es ist scharf, aber niemals überschärft, es sei denn, man hat es selbst überschärft. 4. Von welchen Farbsäumen redest du ? Du meinst weil du nach dem Halbieren der Bildgröße noch das Schärfen mit dem Wert 50 darüber gejagt hast ? Dann lass doch mal das Schärfen weg ! Oder probier mal mit Schärfen Wert 10 ? Schärfen ist ein recht komplexer und komplizierter Vorgang, das auf jedes Bild/Motiv einzeln abzustimmen ist. Ich hab bisher noch nie geschärft, mit dem Wert 50 habe ich mal versucht Fuß zu fassen, doch während es bei dem einen oder anderen Bild ok ist, kann es bei anderen Bildern wiederum schon zu viel sein. Was ich eigentlich gesucht habe, ist ein Schärfungs-Wert für XN-View, das ich GENERELL auf alle Bilder anwenden kann, mit dem ich ungefär ein Ergebnise bekomme als wäre in der SONY SLT-A65 KEIN Anti-Aliasing-Filter verbaut worden. Siehe dazu auch mal: http://www.dpreview.com/reviews/nikon-d800-d800e/27 5. Was soll ich jetzt damit ? Bin ich Hersteller von Digitalkameras ? Wenn ich bei einer 24 MP Kamera (Herstellerangabe) echte 24 RGB-MP bekomme, bin ich vollstens zufrieden und werde das Bild dann natürlich auch nicht mehr verkleinern (wäre ja tatsächlich Informationsverlust auf RGB-Pixelebene!!). Ob diese 24 RGB-MP dann aus einem 96 MP Sensor mit Bayer-Filter gewonnen wurden, DAS wäre mir sowas von egal solange sich der Preis im 700 Euro Bereich bewegt. 96 Bayer-Filter-MP auf einem APS-C Sensor wäre aber schon heftig, und so bin ich mir sicher werden die Vollformat Sensoren die APS-C Sensoren ersetzen, sobald man die 50 bis 60 MP im Konsumer-Bereich erreicht hat (Ultra HD Bildschirme aber kommen definitiv zuerst und legen die Grundlage für den zunehmenden Bedarf an anspruchsvollen, hochauflösenden Bildern). 6. Ob man das Bild nun in der Qualität jpgquality-n3100.jpg=4,41 MB (4.635.369 Bytes)@2000 x 1500 Pixels (3.00 MPixels) (4:3)@JPEG, quality: 100, subsampling OFF oder in der Qualität jpgquality-n2090.jpg=1,13 MB (1.187.624 Bytes)@2000 x 1500 Pixels (3.00 MPixels) (4:3)@JPEG, quality: 90, subsampling ON (2x1) speichert, macht wohl in deinen Augen keinen Unterschied. Bei näherem Betrachen jedoch http://www.zeeshan.de/jpgquality/jpg...vs_90ss2x1.jpg sieht man die JPG-Artefakte sehr wohl, auch das Farbensubsampling hat dem kräftigem Rot im Kissen ans Bein gepinkelt. Dieses Bild übrigens wurde aus einer 12 MP Kam auf 3 MP reduziert, insbesondere jetzt ist es besonders wichtig die JPG-Qualität auf maximum zu halten, denn ein interpoliertes 12 MP Bild in 90 % JPG-Qualität zu speichern ist was anderes als ein natives 3 RGB-MP Bild mit 90 % (und subsampling 2x1) zu speichern. Aber selbst wenn du in interpolierter nativer Auflösung mit 100% JPG-Qualität speichern würdest, falls du Subsampling 2x1 in Kauf nimmst, würde dann auch bei 100 % JPG-Qualität der knallrote Kuss im Kissen seine Brillanz verlieren. Was weg ist, ist weg. |
|
![]() |
![]() |
![]() |
#158 | |||||||
Themenersteller
Registriert seit: 25.11.2012
Ort: Jersbek
Beiträge: 132
|
Zitat:
Da ist es schon zu spät für irgendwelche Techniken die man sonst auf Bayer-Sensordaten anwendet. Du kannst die "herbei-interpolierten" RGB-Pixel auch nicht wieder "de-interpolieren". Allein schon deshalb nicht weil du nicht weisst wie interpoliert wurde. Du gehst immer davon aus das der 24MP Kamerasensor nativ nur 6MP hat (deine sogenannten RGBG-Pixel), das stimmt aber nicht. Der Sensor hat eine echte Auflösung von 24MP, jedoch kann der Sensor nur Helligkeitswerte ermitteln.Deswegen der Bayer Filter vor dem Sensor. Die Auflösung der einzelnen Farben, ja die ist geringer, die Auflösung der Helligkeitswerte ist jedoch 24MP. Das Problem bzw. die Aufgabe der Interpolation ist es also nicht irgendwelche Pixel dazu zu erfinden, sondern die Aufgabe ist es den real aufgenommenen Helligkeitswerten die richtige Farbe zuzuordnen. Wenn du jetzt die Sensorpixel im 2x2 Raster einfach zusammenfasst kommt es zu Artefakten wie z.B. 1 Pixel breite Farbsäume. Dazu kommen unnatürlich harte Kanten an Stellen mit hohen Kontrasten. Ist ja logisch, denn auf einmal werden Informationen die normalerweise nebeneinander auf den Sensor liegen und gar nicht zusammengehören einfach übereinandergepackt. Dadurch entstehen dann mitunter Pixel mit einer völlig falscher Farbe. Hier noch ein Test darüber: http://www.informatik.hu-berlin.de/f...photo10_03.pdf Zitat:
Zitat:
Vielleicht gehts auch mit DCRAW oder ähnlichen Tools.... http://www.insflug.org/raw/Downloads/ Zitat:
Zitat:
![]() Zitat:
Wo siehst du heraus das ich irgendwo etwas geschärft habe? Welche Farbsäume? Bitte schau dir das von mir erstellte Testbild mit den Booten noch einmal an. Fast an jedem Fenster sind Rote Pixel auf der weißen Fläche neben den Fenstern zu sehen. Zitat:
Jede andere Interpolationstechnik bringt bessere Resultate als das zusammenfassen von 4 Sensorpixeln zu einem "RGBG-Pixel" wie du ihn nennst... Wenn es dir egal ist wie die Interpolation funktioniert und welche Technik angewendet wurde, dann kannst du sie auch nicht rückgängig machen. (Ich bezweifle das es selbst bei Kenntnis des Interpolationsverfahrens möglich ist, aber das kann uns evtl. ein Mathematiker beantworten) Geändert von physicist (18.07.2013 um 23:45 Uhr) |
|||||||
![]() |
![]() |
![]() |
#159 |
Registriert seit: 03.12.2003
Beiträge: 8.945
|
Ich würde sagen, du gehst einfach mal fotographieren, machst von deinen besten Bildern einen Abzug in 50*60 nach den beiden Verfahren und zeigst uns den Unterschied.
Mich interessieren irgendwelche Vermutung und Annahmen über eine vielleicht theoretische Bildverbesserung nicht, wenn sie in der Praxis nicht sichtbar sind. Hinsichtlich Schärfen liegst leider ein wenig falsch, da das Mass an Schärfe nie absolut ist, sondern vom Betrachtungsabstand abhängt. Dies ist auch Grund, warum es keine Universalschärfung geben kann. |
![]() |
![]() |
![]() |
#160 | |
Registriert seit: 12.08.2008
Ort: Nürnberg
Beiträge: 4.198
|
Zitat:
Ein Nebeneffekt der steigenden Megapixelzahlen ist auch, dass man sich immer weniger Gedanken um Digitalisierungseffekte machen muss. Deswegen sind AA-Filter dieser hochauflösenden Sensoren oft schwächer oder immer öfter auch nicht vorhanden. Die effektive Auflösung des Systems steigt durch immer mehr Pixel immer weniger, aber die Aliasingeffekte verschwinden in den tatsächlich genutzten Auflösungen. Irgendwann ist die diskrete Natur des Sensors eben vernachlässigbar. Ein herunterskalieren auf ein Viertel der Pixelauflösung ist nur dann sinnvoll, wenn dies auch die gewünschte Zielauflösung ist. Der Grad der notwendigen Schärfung hängt dann noch vom Betrachtungsabstand ab. Was man nicht erreicht ist irgendeine Form der "Deinterpolation". Die ganze Idee ist Quatsch - durch den AA-Filter enthält jeder Bayerpixel automatisch auch Helligkeitsinformation der Nachbarpixel. Auch korrespondieren die R,G und B Werte nicht direkt mit den RGB-Pixeln des Bayersensors - denn es gibt dazwischen (neben der Interpolation an sich) mindestens noch die Abbildung des Sensorfarbraums in einen Standardfarbraum, einen Weißabgleich und eine Delinearisieung. Man darf generell nicht so sehr an den Bayer-RGB-Pixeln haften - letztlich kann man das auch als z.B. getrennt in Luminanz und Chroma sehen - jeder der Pixel trägt seinen Teil zur Luminanz bei - wobei der Grünkanal am meisten Luminanzinformation trägt. Es gibt mittlerweile sogar Ansätze welche statt den grünen Filtern durchsichtige Filter (also einfach keine) verwenden (z.B. aktuell Aptinas "Clarity+"). Denn man kann auch aus Gesamt-Luminanz, Rot und Blau die notwendige Information berechnen. Die Tatsächliche Detailwahrnehmung besteht hauptsächlich aus der Luminanzinformation und die ist nicht nur ein Viertel der Bayerpixel wie von Zeeshan naiv dargestellt wird. Im Resultat ist ein RGB- Pixel im TIF ein komplex berechnetes statistisches Datum. Geändert von Neonsquare (19.07.2013 um 01:14 Uhr) |
|
![]() |
![]() |
Sponsored Links | |
|
![]()
|
|
|