Hier haben sich einige sehr interessante Aussagen zusammengefunden!
Hier und da würde ich gerne nochmal etwas tiefer nachhaken:
@Thomas
Zitat:
Leitz verwendete im Elmar 50/2.8 seit den 1950er Jahren Lanthangläser (das Teil ist quasi CA-frei auf einem Niveau, das manches aktuelle Objektiv alt aussehen lässt), und sicher war auch bei anderen Herstellern aus der ersten Reihe sowas gängig. Teilweise wurde schon in den 1930er Jahren mit solchen Sondergläsern gearbeitet.
|
Welchen Gegenwert hatten diese Objektive damals zu ihrer Zeit. Aus dem Stehgreif würde ich vermuten, dass man sich von diesem Geld heute durchaus einen Kleinwagen kaufen könnte. Würdest du sagen, dass ein CZ 55mm 1.8 Objektiv (oder sagen wir das 135 1.8) heute im selben Maßstab an die grenze des technisch machbaren heranreicht oder werden hier immer noch größere Kompromisse an die "Bezahlbarkeit" und die Serienfertigung eingegangen.
Von den Objektiven in meinem Institut, die an eine Flir Wärmebildkamera herangeschraubt werden weiß ich, dass diese Objektive eigentlich nur durch die ihre extrem geringe Stückzahl Kleinwagenpreise besitzten und von ihren inneren Werten eigentlich eher "nur" oberklasse Fotoobjektive sind.
@Mick
Zitat:
Ich könnte mir vorstellen, daß hier Software zum Einsatz kommt, die die Gesetze der Optik genauestens abbildet und daher problemlos ein theoretisch perfektes Objektiv aus Ausgabe liefert
|
Chromatische Aperation kann ich mir als Automatische korrektur sehr gut vorstellen. Ideen durch die man hingegen die Beugung des Lichtes herausrechnen könnte habe ich überhaupt keine (und wenn sollte ich mal schnell ins Patentamt rennen).
Vielleicht schaffe ich es heute noch mich im Bereich der Halbleiterfertigung heute etwas schlau zu machen. Hier trifft man ja auf genau dasselbe Problem. Sicherlich ist in einer Fertigungsstraße für 22nm jeder nur denkbare "Trick" vorhanden der sich sicher auch bei Licht anwenden lässt.
@Toni
Zitat:
Das Problem ist eher das Rauschen, denn da setzt natürlich auch die Physik eine Grenze: je kleiner die Pixel, desto schlechter ist das Signal-Rausch-Verhältnis. Aber auch da kann man durch Mehrfachbelichten und Stacken viel gewinnen.
|
Wie kompliziert sind eigentlich mittlerweile Entrauschungsalgorithmen?
Aktuell habe ich relativ viel mit Lockinverstärkern *1 zu tun. Seit den 80er Jahren werden dort fast unverändert Geräte verkauft. Mit diesen noch relativ einfachen Signalverarbeitung erreicht man Ausgabewerte, die noch weit unterhalb des Rauschlevels liegen. Andenkbar wäre für mich auch ein solches Prinzip z.b. durch mehrfachabtastung des Sensors. Aber vielleicht sind die Filter jetzt bereits "Rocket Science" für jeden der sich mit Signalverarbeitung nur ein wenig auskennt?
@Helgo
Zitat:
Das bedeutet, dass prinzipiell bis auf eine schmale Ebene die scharf wird, der Rest hinter der Freistellung verschwindet (Pupille scharf, Rest naja). Weil, wenn man abblendet, dann die Beugungsunschärfe bemerkbar wird.
|
So habe ich das bisher auch verstanden. Das Arbeiten unter diesen Bedingungen stelle ich mir auch nicht gerade einfach vor, schon jetzt liegt bei etwas Bewegung bei mir schon häufig die Schärfeebene um wenige cm verkehrt.
@Tikal
Zitat:
Das kann man betrachten wie man will, aber in manchen Disziplinen ist "schärfer" auch "besser" als das gleiche Bild mit weniger Schärfe.
|
Mir geht es hier auch nur allein um das technische Hintegrundwissen.
*1
http://de.wikipedia.org/wiki/Lock-in-Verst%C3%A4rker