@eiq
Ich kenne den Nikon Autofokus mit Nutzung des Belichtungssensors - das ist eine tolle Idee, aber ich stelle mir schon noch mal einen erheblichen Qualitätssprung vor, wenn man ein hochauflösendes Bild vom Hauptsensor dafür nutzen kann. Das meine ich im Endeffekt mit den Möglichkeiten die sich Sony da momentan und in Zukunft bieten. Einfach das nachzubauen was Canon bzw. Nikon da machen wäre rückschrittlich. Das geniale ist doch, dass mittlerweile für Geräte wie DSLRs eine Rechenleistung zur Verfügung steht, die derartige Dinge erst ermöglicht. Bezüglich der Beschränkung auf 2D: Trotzdem ist natürlich eine 2-Dimensionale Objektverfolgung sehr nützlich, weil sie die für die Entfernungsinformation nötigen Phasen-AF-Sensoren effektiv konzentriert und lenkt. Die Gesichtserkennung der A550 ist auch eine Unterstützungstechnologie für die AF-Sensoren. Was mir gerade noch einfiel: Es ist ein weit verbreiteter Irrtum, dass die menschliche Tiefenwahrnehmung auf die binokulare Sicht zurückzuführen ist. Auch die Forschung nach Algorithmen hat sich lange Zeit darauf beschränkt, Tiefeninformation aus den unterschieden mehrerer Bilder zu extrahieren. Es gibt jedoch auch Methoden wie man aus einem einzigen Bild Tiefeninformation gewinnen kann. Hier mal ein Link auf eine Studie:
http://ai.stanford.edu/~asaxena/reco...ion_aaai08.pdf
brauchbare Algorithmen, welche Tiefeninformationen aus einzelnen Bildern gewinnen können, könnten das Autofokussystem massiv unterstützen. Ebenso könnte man 3D-Informationen aus einem Live-Video auch mit mehreren Frames gewinnen. Auch wenn die Information noch nicht genau genug für einen exakten Fokus ist, kann sie trotzdem zur Unterstützung der herkömmlichen AF-Sensoren dienen. All diese Möglichkeiten werden durch die gestiegene und weiter steigende Rechenleistung von Kleingeräten möglich und ich hoffe, dass sich Sony hier innovativ verhält und nicht einfach kopiert was bei anderen Herstellern in der Vergangenheit entwickelt wurde.
Gruß,
Jochen