Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Bildentrauschen in einer neuen Dimension


alberich
11.11.2010, 13:45
Das Ende der Fahnenstange scheint noch lange nicht erreicht..

http://photoscala.de/Artikel/Staunenswerter-Bildentrauscher

dey
11.11.2010, 13:48
Hi,

die Frage ist
a) wie sieht das ursprüngliche Bild aus und hat es was mit dem Ergebnis zu tun und
b) in wie weit ist das Ausgangsmaterial zufällig oder nicht. Die Augen habe eine sehr hohe Punktdichte im Vergleich zu vielen anderen Bereichen.

bydey

looser
11.11.2010, 17:54
Ich frage mich auch ob das mit einem Farbfoto auch noch so gut geht?

MFG Michael

Pollux58
11.11.2010, 17:58
Hallo,

und das Fazit könnte lauten: " keine Rauschdiskussion mehr":D

..oben drauf noch der S-Spline Algorithmus und wir brauchen auch keine großen Sensoren mehr.


Grüße, Maik

alberich
11.11.2010, 18:00
..oben drauf noch der S-Spline Algorithmus und wir brauchen auch keine großen Sensoren mehr.


Na, der nun nicht gerade.... :)

JoeJung
11.11.2010, 18:25
Wenn jetzt auch noch Schärfungsalgorithmen entwickelt werden, um die fehlende Objektivauflösung bzw. die Lichtbeugung zu kompensieren, wird es in ein paar Jahren möglicherweise APS-C Sensoren mit 60 MPixel oder mehr geben :P

Lg. Josef

Shooty
11.11.2010, 19:02
b) in wie weit ist das Ausgangsmaterial zufällig oder nicht. Die Augen habe eine sehr hohe Punktdichte im Vergleich zu vielen anderen Bereichen.


Genau das ist mir auch aufgefallen.
Ich hab den Text zwar nun nicht gelesen aber wie es scheint braucht das verfahren für die Übergänge von Tonwertabstufungen die passenden Pixel. der rest kann ja mit der jeweiligen angrenzenden Farbe gefüllt werden.

Da ich keinen plan habe wie das momentane entrauschen eigendlich so wirklich funktioniert vermag ich auch kaum zu beurteilen ob das nun so toll überhaupt ist ;)

Aber is doch nett was man alles machen kann ^^

JoeJung
11.11.2010, 19:22
Stellt sich das Problem mit den Farben überhaupt? Können nicht die einzelnen Farbkanäle, die ja monochrom sind, mit dieser Methode entrauscht werden oder würde es so Farbverfälschungen geben?

Lg. Josef

NitroTrinker
11.11.2010, 23:04
Die Frage die sich für mich stellt: Ist sowas überhaupt für uns relevant?

Wenn man nur mal das schwarze Bild als Vollbild anschaut, dann versucht geistig Details zu bilden und dann auf das andere Bild schaut sieht man nicht wirklich mehr als auf dem schwarzen.

Ergo braucht man ganz spezielle Pixel um dieses Bild herzustellen. Wenn ich ihm jetzt aber einfach 10% an beliebigen Pixeln gebe, von mir aus auch jedes 10 Pixel, würde nicht so ein Bild dabei raus kommen oder irre ich mich da?

Neonsquare
11.11.2010, 23:05
Ist ja schon fast zur hälfte OffTopic, aber als ich jetzt DxO 6.5 die Noise Reduction probiert habe, hatte ich fast das Gefühl ein leichtes Voronoi-Diagramm zu sehen. Vielleicht benutzt DxO intern eine Voronoi-Interpolation.

Stoney
12.11.2010, 09:39
Die Frage die sich für mich stellt: Ist sowas überhaupt für uns relevant?
Genau das frage ich mich auch. Denn was bitte hat das linke Bild mit einem verrauschten Bild aus einer Digitalkamera zu tun?

Itscha
12.11.2010, 10:07
Genau das frage ich mich auch. Denn was bitte hat das linke Bild mit einem verrauschten Bild aus einer Digitalkamera zu tun?

Ich gehe davon aus, dass die Bilder lediglich die Funktionsweise und vor allem die Effizienz des Entrauschungstools verdeutlichen sollen.

Natürlich ist das kein verrauschtes Bild aus einer Digitalkamera.
oT:
Die Kamera, die solche Bilder macht, wollte auch niemand kaufen, glaube ich. Ich stelle mir die Testergebnisse in der Colorfoto vor. :mrgreen: ;)

Stoney
12.11.2010, 10:43
Ich gehe davon aus, dass die Bilder lediglich die Funktionsweise und vor allem die Effizienz des Entrauschungstools verdeutlichen sollen.

Natürlich ist das kein verrauschtes Bild aus einer Digitalkamera.
Wie kann man das verdeutlichen, indem man etwas völlig anderes tut?
Im einen Fall habe ich unvollständige, aber korrekte Bildinformation, im anderen Fall vollständige, aber inkorrekte Information (für jeden Pixel Abweichungen in der Helligkeit, wenn wir mal bei S/W bleiben). Ich kenne mich zwar nicht aus in dem Bereich, kann mir aber im Moment nicht vorstellen, wie man das so einfach übertragen kann.

NitroTrinker
12.11.2010, 11:45
Dann sind wir uns einig :top:.

@Stoney:
Sehr schön ausgedrückt, genau das meinte ich.

Itscha
12.11.2010, 12:04
Wie kann man das verdeutlichen, indem man etwas völlig anderes tut?
Im einen Fall habe ich unvollständige, aber korrekte Bildinformation, im anderen Fall vollständige, aber inkorrekte Information (für jeden Pixel Abweichungen in der Helligkeit, wenn wir mal bei S/W bleiben). Ich kenne mich zwar nicht aus in dem Bereich, kann mir aber im Moment nicht vorstellen, wie man das so einfach übertragen kann.

Ich hab ja auch nicht gesagt, dass der Verdeutlichungsversuch in meinen Augen besonders gelungen ist. Das wäre aber auch nicht das erste Mal, dass jemand Äpfel mit Birnen vergleicht, und versucht das seriös aussehen zu lassen. Ich vermute aber trotzdem, dass ich richtig liege. Aber um das zu betonen: Ich vermute.

Wenn das Entrauschmittel so revolutionär ist, wie die Meldung verheißt, werden wir noch aussagekräftigere Infos dazu bekommen. Ich halte es aber für falsch, das jetzt schon als Ente abzutun, nur weil die Beispielbilder total daneben sind.

TONI_B
13.11.2010, 08:36
Hier:
http://www.mia.uni-saarland.de/Publications/grewenig-dagm10.pdf
ist die Originalarbeit zu lesen.

Also keine Ente.

Photoscala hat aber mMn das Ausgangsbild als rekonstruiertes Bild "verkauft" (siehe S8 des pdf-Files).

Ellersiek
13.11.2010, 09:11
Und wenn man sich im PDF das Fingerabdruckbeispiel anschaut, dann geht das für mich eher in Richtung Photoshop-Filter als in einen Entrauschungsalgorithmus: Das haben sich die Strukturen schon deutlich verändert.

Also da wird man noch auf ein paar weitere Beispielbilder warten müssen um das vernünftig beurteilen zu können.

Gruß
Ralf