![]() |
|
|
![]() |
|||||||||||||
![]() |
||||||||||||||||
|
![]() |
#7 |
Registriert seit: 13.12.2007
Ort: Ö; Deutsch-Wagram
Beiträge: 12.395
|
@gpo
Leider hast du die Fragen von Hans überhaupt nicht beantwortet - warum auch immer. Deine Interpretation, dass "jedes Bild nach Beugung" durchsucht wird, kann ich überhaupt nicht nachvollziehen. ICH durchsuche überhaupt keine Bilder nach Beugung. Meine Beiträge gab es nur dann, wenn falsche Dinge behauptet wurden ala "Theorie und Praxis" usw. Als ob Beugung eine "Theorie" sei, die erst bewiesen werden müsste! Mein Anliegen in diesem Zusammenhang ist und war, die physikalischen Tatsachen darzustellen - leider offensichtlich von vielen nicht verstanden. @Hans 100% sollte, wie du richtig vermutet hast, bedeuten, dass 1Pxl des Sensors 1Pxl am Bildschirm entspricht. Dieses eine Pixel des Sensors bezieht aber seine Farbinformation aus mehreren Nachbarpixeln. Aus dieser "Rechnerei" ergibt sich eine geringere Auflösung (siehe Stuessis Beispiele), trotzdem wir gemeinhin jedem Pixel zB. bei einem 12MP Sensor ein Pixel vom Bildschirm zugeordnet, wenn man von 100% spricht. Ob Sinnhaftig oder nicht, sei dahingestellt. Und ein Bildschirm mit 1024x768 hat für jedes dieser Pixel drei Farbpixel.
__________________
![]() |
![]() |
![]() |
|
|