![]() |
|
|
![]() |
|||||||||||||
![]() |
||||||||||||||||
|
![]() |
#13 | |
Registriert seit: 01.02.2011
Beiträge: 1.712
|
Zitat:
das Thema ist für mich superspannend ![]() Die Interpolation und die Algorithmen für die "Bildoptimierung" (u.a.) spielen da ja die Rolle. Ich weiß nicht ob Du mit obiger Aussage Recht hast... Benachbarte Pixel werden doch sicher für die Information welche ein Sensor"Pixel" erzeugt nicht direkter herangezogen - oder? Theoretisch wäre dann wohl die Möglichkeit einer falschen Information durch Verwackeln bei vielen kleinen Pixeln höher als bei weniger Sensorpixeln, - da ja die Realität "unendlich" auflöst und somit durch Verwacklungen möglicherweise "komplett falsch" interpoliert* werden könnte (sehr theoretisch...sorry) (*die Infos der vielen kleinen Pixel im Verhältniss zu weniger größeren.) Aber ich seh das "nur" theoretisch und hab zu wenig Ahnung davon! Und das sprengt auch dieses Thema.. Edit: Fällt mir grad ein Bsp. ein. Ein Karomuster als Bild. Rote und blaue Linien. Die kleineren Sensorpixel könnten theoretisch bei Verwacklung nur die roten Linien erfassen. Größere Sensorpixel erfassen Beides - rot und blau - und würden die Farbe damit insgesamt doch besser darstellen ? Praktisch hab ich den Eindruck, daß die Algorithmen der A77 die "Fehler" glattbüglen - also eher Pixelmatsch. Und eben bei gleichem Vergrößerungsfaktor. Geändert von swivel (21.02.2013 um 13:25 Uhr) |
|
![]() |
![]() |
|
|