Brennweite war vielleicht zu allgemein. Gemeint war die effektive Kantenbreite im Liveview-Bild, die von Objektabstand, Brennweite und Vergrößerung (z.B. Telekonverter/digitaler Zoom) bestimmt wird.
Ich stelle mir das so vor:
Nehmen wir an eine Parkettfuge auf dem Fußboden wird als Kante erkannt wenn sie beispielsweise 4 Pixel im Liveview-Bild einnimmt. Wenn diese Fuge aber vergrößert wird, eben durch höhere Brennweite, geringerer Objektabstand oder digitaler Vergrößerung, dann nimmt diese Kante vielleicht 12 Pixel ein und wird von dem Algorithmus nicht mehr als Kante erkannt.
Der Kontrast ist aber immer noch derselbe. Es ist nur die Ortsauflösung, die sich ändert. Der Kontrast entscheidet nur, ob die Parkettfuge überhaupt erkannt wird oder nicht.
Man kann das auch nachvollziehen: mit Smart-Telekonverter oder Digitalzoom werden bei gleichem Objekt und gleicher Beleuchtung weniger Pixel zum Peaking verwendet.
Die Kamera kennt die Parameter Abstand und effektive Vergrößerung und könnte diese eigentlich mit einberechnen, um eine konsistente Kantendetektion für alle Fälle zu liefern.
Vorausgesetzt die Detektion funktioniert so wie ich mir das vorstelle, wäre momentan das Peaking unsinnig eingeschränkt.
|