SonyUserforum

SonyUserforum (https://www.sonyuserforum.de/forum/index.php)
-   A-Mount Objektive (ILCA, SLT, DSLR) (https://www.sonyuserforum.de/forum/forumdisplay.php?f=25)
-   -   Auflösungsgrenze -> Wo geht die Reise hin (https://www.sonyuserforum.de/forum/showthread.php?t=141842)

Tikal 12.01.2014 02:40

Wenn keine stichhaltigen Beweise vorliegen, sollte man mit solchen Äußerungen vorsichtig sein. Das kann Ruf schädigen.

TONI_B 12.01.2014 06:57

Zitat:

Zitat von mick232 (Beitrag 1535581)
Ist es wirklich heute noch ein Problem, Objektive gut zu "rechnen" - anders gefragt: ist die Mathematik wirklich ein limitierender Faktor oder ist das heutzutage nur noch ein geflügeltes Wort?

mMn ist es nicht wirklich ein großes Problem heutzutage ein gutes Objektiv zu rechnen! Die Software dazu gibt es zT sogar als freeware...:cool:

Und es gibt auch - im nichtkommerziellen Bereich - viele optische Systeme, die perfekte Abbildungen liefern (zB. Mikroskopobjektive, Optiken für die Chipfertigung, Astronomische Geräte).

Das Problem sind eher die kaufmännischen Vorgaben: wie man an den neuen Zeiss-Otus-Gläsern sieht, kann man offenbar auch für "uns" hervorragende Objektive rechnen, die dann aber entsprechend kosten (>3000€). Da hat man auch 12(!) statt sonst üblichen 6 oder 7 Linsen für ein Normalobjektiv verwendet. Damit hat man wesentlich mehr Freiheitsgrade zur Korrektur der Fehler. Und wenn man dann auch noch teure Sondergläser verwendet, wird es teuer.

Aber ich habe so das Gefühl, dass es ein Mordsspaß war für die Konstrukteure sich einmal so richtig austoben zu können...:lol:

Wenn aber der Kaufmann sagt, dass das Objektiv maximal 300€ kosten darf und man dabei auch noch viel verdienen will, wird es sehr schwer werden - speziell, wenn die Stückzahlen klein bleiben. Die - zu Unrecht - vielgescholtenen Kit - oder Super-Zooms sind oft überraschend gut weil durch die hohen Stückzahlen durchaus ein respektabler Gewinn zu erwarten ist. Auch wenn man viele Linsen verbaut.

dey 12.01.2014 10:01

Ich denke die MP der Zukunft werden nur noch einem Prozessor und nicht mehr dem RAW zur Verfügung gestellt.
Das bei dem Nokia Handy die MP nutzbar sind glaube ich nicht.
Wenn jedoch der Klarbildzoom die MP wirklich nutzen kann, weil der Algorithmus stimmt ist es doch gut.

@Toni. Du arbeitest doch gerne an den physikalischen Grenzen. Was meinst du, wie viel der 24MP sind für dich nutzbar?

bydey

helgo2000 12.01.2014 10:50

Also ich finde diese Diskussion für das optische Verständnis beim Fotografieren ziemlich interessant.

Zu meinem Verständnis - denke ich da richtig: wenn die Auflösung der Chips an die MP-Grenze kommt, müssten die Objektive weit offen bleiben, damit keine Beugungsunschärfe entsteht. Bei Vollformat kommen wir dann an vielleicht Blende 1?

Das bedeutet, dass prinzipiell bis auf eine schmale Ebene die scharf wird, der Rest hinter der Freistellung verschwindet (Pupille scharf, Rest naja). Weil, wenn man abblendet, dann die Beugungsunschärfe bemerkbar wird.

Um die Schärfe dennoch zu erhöhen, müsste man den Chip verkleinern (Klarbildzoom), damit man wieder mehr abblenden kann. Als Nebeneffekt wäre dann auch möglich, besser digital zu zoomen, wenn nur genügend MP auf der Restfläche übrig blieben.

Richtig?

helgo

TONI_B 12.01.2014 10:57

Zitat:

Zitat von dey (Beitrag 1535632)
@Toni. Du arbeitest doch gerne an den physikalischen Grenzen. Was meinst du, wie viel der 24MP sind für dich nutzbar?

Alle! :cool:;)

Ich merke wirklich einen riesigen Unterschied bei Aufnahmen, die ich am Fernrohr mit der A700 oder A77 mache! Das Fernrohr liefert beugungsbeschränkte Bilder über ein Bildfeld, das sicher so groß ist wie der APS-C Sensor. Und dort ist die A77 viel besser als die A700. Aber auch das SAL18250 liefert bessere Bilder! Es sind also nicht nur die guten Optiken...

Ich sogar noch Unterschiede zwischen der A77 mit 3,9µm und meiner Planetenkamera, die hat nur 3,75µm Pixelgröße. Gut, die ist Monochrome und hat kein AA-Filter. Aber damit sieht man, was machbar ist.

Das Problem ist eher das Rauschen, denn da setzt natürlich auch die Physik eine Grenze: je kleiner die Pixel, desto schlechter ist das Signal-Rausch-Verhältnis. Aber auch da kann man durch Mehrfachbelichten und Stacken viel gewinnen.

mrieglhofer 12.01.2014 12:24

Da arbeitest auch mit einem schweren Stativ und hast die doppelte Auflösung. Nimm ein langes Tele und Freihand und vergleiche dann mal die Auflösung gegenüber einer Stativaufnahme mit manueller Fokussierung und Lupe. Der Unterschied ist durchaus sichtbar. ;-)

mrieglhofer 12.01.2014 12:35

Zitat:

Zitat von helgo2000 (Beitrag 1535642)
Also ich finde diese Diskussion für das optische Verständnis beim Fotografieren ziemlich interessant.

Zu meinem Verständnis - denke ich da richtig: wenn die Auflösung der Chips an die MP-Grenze kommt, müssten die Objektive weit offen bleiben, damit keine Beugungsunschärfe entsteht. Bei Vollformat kommen wir dann an vielleicht Blende 1?

Das bedeutet, dass prinzipiell bis auf eine schmale Ebene die scharf wird, der Rest hinter der Freistellung verschwindet (Pupille scharf, Rest naja). Weil, wenn man abblendet, dann die Beugungsunschärfe bemerkbar wird.

Um die Schärfe dennoch zu erhöhen, müsste man den Chip verkleinern (Klarbildzoom), damit man wieder mehr abblenden kann. Als Nebeneffekt wäre dann auch möglich, besser digital zu zoomen, wenn nur genügend MP auf der Restfläche übrig blieben.

Richtig?

helgo

Falsch.

Derzeit bei 24MPix kannst bei Bl. 16 die Beugung sehen, bei Crop bei Bl. 11. Bei höherer Auflösung gehts halt dann wieder eine Blende runter. Da muss dann das Objektiv bei 5,6 sein Optimun erreichen, was mit Zeiss Linsen und normalen Brennweiten ganz gut geht. Bei längeren Brennweiten oder WW gehts dann schon nicht mehr so einfach.
Bei kleineren Chips ist das noch krasser. Die RX-10 kannst defacto nur bei 2,8 und 4 ohne Beugungsverlust einsetzen, die RX-100 am Tele mit 4,9 offenblendig ist schon deutlich in der Beugung. Ist aber egal, weil die Optik da eh schon schwach ist ;-) So wird sie halt noch ein wenig schwächer. Aber abblenden, um die unscharfen Ränder scharf zu bekommen führt dann zum Verlust von Auflösung über die ganze Fläche. Das sieht man in den Objektivcharts recht gut. (Dxomark).
Nur ist das ganze relativ irrelevant. Wenn jemand max. A4 ausgibt oder auf FullHD, merkt er weder die hohe Systemauflösung noch die Beugung. Und jene, die Plakate mit der Lupe betrachten wolle, werden sich halt für Zeiss um die 3000€ entscheiden müssen. Was die Bilder nicht besser nur schärfer macht ;-)

Tikal 12.01.2014 13:26

Zitat:

Zitat von mrieglhofer (Beitrag 1535676)
Was die Bilder nicht besser nur schärfer macht ;-)

Das kann man betrachten wie man will, aber in manchen Disziplinen ist "schärfer" auch "besser" als das gleiche Bild mit weniger Schärfe.

aidualk 12.01.2014 14:12

gelöscht

Revox 12.01.2014 14:39

Hier haben sich einige sehr interessante Aussagen zusammengefunden!

Hier und da würde ich gerne nochmal etwas tiefer nachhaken:

@Thomas
Zitat:

Leitz verwendete im Elmar 50/2.8 seit den 1950er Jahren Lanthangläser (das Teil ist quasi CA-frei auf einem Niveau, das manches aktuelle Objektiv alt aussehen lässt), und sicher war auch bei anderen Herstellern aus der ersten Reihe sowas gängig. Teilweise wurde schon in den 1930er Jahren mit solchen Sondergläsern gearbeitet.
Welchen Gegenwert hatten diese Objektive damals zu ihrer Zeit. Aus dem Stehgreif würde ich vermuten, dass man sich von diesem Geld heute durchaus einen Kleinwagen kaufen könnte. Würdest du sagen, dass ein CZ 55mm 1.8 Objektiv (oder sagen wir das 135 1.8) heute im selben Maßstab an die grenze des technisch machbaren heranreicht oder werden hier immer noch größere Kompromisse an die "Bezahlbarkeit" und die Serienfertigung eingegangen.
Von den Objektiven in meinem Institut, die an eine Flir Wärmebildkamera herangeschraubt werden weiß ich, dass diese Objektive eigentlich nur durch die ihre extrem geringe Stückzahl Kleinwagenpreise besitzten und von ihren inneren Werten eigentlich eher "nur" oberklasse Fotoobjektive sind.

@Mick
Zitat:

Ich könnte mir vorstellen, daß hier Software zum Einsatz kommt, die die Gesetze der Optik genauestens abbildet und daher problemlos ein theoretisch perfektes Objektiv aus Ausgabe liefert
Chromatische Aperation kann ich mir als Automatische korrektur sehr gut vorstellen. Ideen durch die man hingegen die Beugung des Lichtes herausrechnen könnte habe ich überhaupt keine (und wenn sollte ich mal schnell ins Patentamt rennen).
Vielleicht schaffe ich es heute noch mich im Bereich der Halbleiterfertigung heute etwas schlau zu machen. Hier trifft man ja auf genau dasselbe Problem. Sicherlich ist in einer Fertigungsstraße für 22nm jeder nur denkbare "Trick" vorhanden der sich sicher auch bei Licht anwenden lässt.

@Toni
Zitat:

Das Problem ist eher das Rauschen, denn da setzt natürlich auch die Physik eine Grenze: je kleiner die Pixel, desto schlechter ist das Signal-Rausch-Verhältnis. Aber auch da kann man durch Mehrfachbelichten und Stacken viel gewinnen.
Wie kompliziert sind eigentlich mittlerweile Entrauschungsalgorithmen?
Aktuell habe ich relativ viel mit Lockinverstärkern *1 zu tun. Seit den 80er Jahren werden dort fast unverändert Geräte verkauft. Mit diesen noch relativ einfachen Signalverarbeitung erreicht man Ausgabewerte, die noch weit unterhalb des Rauschlevels liegen. Andenkbar wäre für mich auch ein solches Prinzip z.b. durch mehrfachabtastung des Sensors. Aber vielleicht sind die Filter jetzt bereits "Rocket Science" für jeden der sich mit Signalverarbeitung nur ein wenig auskennt?


@Helgo
Zitat:

Das bedeutet, dass prinzipiell bis auf eine schmale Ebene die scharf wird, der Rest hinter der Freistellung verschwindet (Pupille scharf, Rest naja). Weil, wenn man abblendet, dann die Beugungsunschärfe bemerkbar wird.
So habe ich das bisher auch verstanden. Das Arbeiten unter diesen Bedingungen stelle ich mir auch nicht gerade einfach vor, schon jetzt liegt bei etwas Bewegung bei mir schon häufig die Schärfeebene um wenige cm verkehrt.

@Tikal
Zitat:

Das kann man betrachten wie man will, aber in manchen Disziplinen ist "schärfer" auch "besser" als das gleiche Bild mit weniger Schärfe.
Mir geht es hier auch nur allein um das technische Hintegrundwissen.

*1 http://de.wikipedia.org/wiki/Lock-in-Verst%C3%A4rker


Alle Zeitangaben in WEZ +2. Es ist jetzt 07:47 Uhr.