Ziemlich missverständlich geschrieben der Artikel meine ich. Bei "(Rand)verzerrungen" und der Beschreibung dort denke ich eher an gebogene Linien u.ä., die sich natürlich durch die Objektivgeometrie ergeben. Das hat mit dem Sensor nichts zu tun und daran kann auch eine neue Sensortechnik nichts ändern. Ähnliches gilt für perspektivische Verzerrungen (wobei die noch weniger mit der Technik, dem Objektiv usw. zu tun haben).
Nicht gerade auf den Sensor treffende Lichtstrahlen sorgen -speziell bei Weitwinkelobjektiven- für Lichtverluste (sichtbar als Vignettierungen) und Schärfeabfall an den Rändern/den Ecken. Das ist in dem Artikel wohl mit "Verzerrungen" gemeint. Jedenfalls könnte diese neue Sensortechnik da Vorteile bringen. Ähnliches wird eigentlich durch entsprechend geformte Mikrolinsen über den lichtempfindlichen Sensorelementen meines Wissens nach schon lange realisiert. Aber wenn ich das richtig verstehe, kann man die Fotodioden selbst nun halbkugelförmig formen, was zu weniger Lichtverlust und besseren Abbildungsleistungen führen kann. Schön. Ob es aus einer WW-Gurke ein Topobjektiv macht, oder vielleicht doch nur wieder noch billigere "Objektive" in z.B. Handykameras ermöglichen soll, bleibt aber abzuwarten.
Aber der Artikel - wie gesagt, IMO leicht missverständlich (gar falsch will ich mal nicht sagen) formuliert.
Auch die Ausführungen zum Auge ... ich bin da kein Fachmann, aber meines Wissens nach liefert das Auge selbst nur sehr punktuell scharfe Bilder, die erst durch seine Bewegungen und der hervorragenden "Bildverarbeitung" unseres Gehirns "über das gesamte Gesichtsfeld ein scharfes und verzerrungsfreies Bild liefert". Wenn es das überhaupt tut. Am Rand des Gesichtsfeldes sieht der Mensch meines Wissens nach nur sehr schemenhaft und ich glaube sogar nur schwarz weiß. Insofern hinkt eigentlich auch dieser Vergleich ziemlich.
P.S. was dem Mopar-Fan sein Hemi-Motor, ist dem Digiknipser dann seine Hemi-cam ;)
|