PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Auflösungsgrenze -> Wo geht die Reise hin


Revox
11.01.2014, 18:22
Vor vielen Jahren zu Zeiten der 7D wurde der Megapixelwahn stark kritisiert und genau zu der Zeit war ich mit dem 6 Megapixelsensor eigentlich zufrieden. Später kam dann der Umstieg auf einen besseren Autofokus und dazu kamen nochmals 6 weiter Megapixel. Mittlerweile ist es Vollformat mit 24 Megapixeln und meine Fotos sind immer noch gleich gut/schlecht.

Was mir aber deutlich auffällt ist, dass mein Objektivpark langsam an die Grenzen stößt. Es sind fast ausschließlich Festbrennweiten.

Die Objektivtechnologie hat sich sicher in einigen bereichen seit 20Jahren stark verändert.

Heute wären die optischen Berechnungen sicher auf meinem Notebook oder Androidhandy möglich.
Die Fertigungstechnologien sind fortgeschritten, sodass mit weitaus weniger Aufwand eine gleiche präzsion erreicht wie in vergangenen Zeiten.

Auf der anderen Seite sind aber viele Optische grenzen Physikalisch bedingt!
Wie lange kann man im "Mainstreammarkt" auf der optischen Seite mit den Kameras noch mithalten? Werden Objektive auf gleichem Niveau nicht irgendwann unproportional teuer?

(Die aktuelle 55mm Festbrennweite ist mit 1k€ als exklusiv zu bezeichnen?)

WB-Joe
11.01.2014, 18:59
Vor vielen Jahren zu Zeiten der 7D wurde der Megapixelwahn stark kritisiert und genau zu der Zeit war ich mit dem 6 Megapixelsensor eigentlich zufrieden. Später kam dann der Umstieg auf einen besseren Autofokus und dazu kamen nochmals 6 weiter Megapixel. Mittlerweile ist es Vollformat mit 24 Megapixeln und meine Fotos sind immer noch gleich gut/schlecht.
Ja, zu dieser Zeit sorgte der Megapixelwahn tatsächlich für Unmut, denn vielen Usern waren Dynamikumfang und hohe ISO-Fähigkeit wichtiger.
Bei den neueren Kameras wie der D800/A99 und der A7/r stellt sich die Frage schlichtweg nicht mehr. Sony erreicht mit ihren Sensoren Werte die die meisten hier für unmöglich gehalten hätten. Die High-ISO-Fähigkeiten sind ebenfalls mit jeder Kamera drastisch verbessert worden und sind heute in Regionen die kaum zu fassen sind.
ISO3200 is Heute ein Gebrauchswert kein Marketing mehr.

Auf der anderen Seite sind aber viele Optische grenzen Physikalisch bedingt!
Wie lange kann man im "Mainstreammarkt" auf der optischen Seite mit den Kameras noch mithalten? Werden Objektive auf gleichem Niveau nicht irgendwann unproportional teuer?
Wenn ich mir die A77 mit ihrem APS-C-Sensor ansehe sind wir doch schon seit 2 Jahren an der Grenze des Sinnvollen. Bei älteren Objektiven ist doch bei der A77 schon der Punkt erreicht wo das Objektiv der limitierende Faktor ist.
In relativ kurzer Zeit werden wir den 50MP-KB-Sensor sehen, damit beginnen dann aber die Probleme richtig.......
Hier müssen dann die Objektivhersteller dann den Spagat zwischen Schärfe und möglichst geringem Randabfall machen.
Teuer wird es auf alle Fälle, das sieht man an den neuen E-Zeissen zur A7r. Den Schock haben die Nikonisten mit der D800E schon hinter sich.

dey
11.01.2014, 19:06
Hi revox.
Ich sehe das ganz entspannt.
Ich bezweifle, dass ich einen Schnappschuss habe, der wirklich 24 mP auflöst -> 24 MP auf APS-C bedeutet sauberes arbeiten.
Ich bin nicht mal sicher, ob meine Objektive in der Lage sind die 24MP aufzulösen. Es fehlt mir eine Referenz.
Ob es klug ist 24MP hinter einer Folie zu verstecken?
Letztlich ist das einzige, was ärgerlich ist, dass die RAWs so gross sind, wenn am Ende nur 12 oder 16 MP drin sind.
Und leider ist die kamerainterne JPG-Kompression auf 6 oder 12 MP schwach.
Stört alles nicht. Nach RAw wird alles auf 6MP Archivgrösse komprimiert und vorher gecropt bis es weh tut.

bydey

TONI_B
11.01.2014, 20:03
Physikalisch gibt es natürlich eine Grenze und das ist die Beugung des Lichts!

Man sieht ja jetzt auch schon, dass bei guten Objektiven bei der A77 ab f/8 die Beugung der limitierende Faktor ist.

So gesehen kann man mit sehr gut gerechneten Objektiven, die noch dazu lichtstark sein müssen, durchaus in den Bereich von 1-2µm großen Pixeln kommen. Dann ist aber Schluss...:cool:

Bei Mikroskop-Objektiven ist man schon seit Jahrzehnten an der Beugungsgrenze - da half auch nur maximales Öffnungsverhältnis (Stichwort:"Numerische Apertur")

Brainpiercing
11.01.2014, 20:20
Ich finde eher frustrierend das Sony nicht auf den Senkel kommt, mit den vielen Megapixeln eine Downsampling-funktion zu implementieren, die auch mit einem Bild auf Rauschwerte kommt wie sonst nur die Multiframe-Methode. Das MUSS gehen, Rauschen ist per Definition selbst-auslöschend, wenn man es nur richtig zusammenrechnet.

Ich glaube bei den Objektiven selbst ist noch nicht Schluss. Mal ehrlich, die alten Minolta-Linsen von 1985 lösen selbst an den 24MP noch sehr gut auf - ganz ohne neue high-tech-Beschichtungen, super LD Glass, super Hochbrechendes Glas, asphärische Elemente oder sonstwas. Zumindest wenn sie die haben, dann war das damals Marketing-technisch noch nicht relevant, und ist mir somit nicht bekannt. Ein bissl Luft wird also noch sein :)

konzertpix.de
11.01.2014, 20:25
Ich finde eher frustrierend das Sony nicht auf den Senkel kommt, mit den vielen Megapixeln eine Downsampling-funktion zu implementieren, die auch mit einem Bild auf Rauschwerte kommt wie sonst nur die Multiframe-Methode. Das MUSS gehen, Rauschen ist per Definition selbst-auslöschend, wenn man es nur richtig zusammenrechnet.

Fotografiere in JPG und stelle eine kleinere Bildgröße ein, fertig. Nicht jeder Menüpunkt muss so benannt werden, wie man es selber gerne hätte...

aidualk
11.01.2014, 20:27
Ich denke auch der Pixelpitch der A77/A65 ist so ziemlich das Limit des sinnvollen. Klar würde da auch noch mehr gehen, aber es wird dann kritisch was das ausnutzen angeht.


Man sieht ja jetzt auch schon, dass bei guten Objektiven bei der A77 ab f/8 die Beugung der limitierende Faktor ist.


Hier sieht man schon bei Bl. 5,6, im direkten Vergleich zur Bl. 4, den Einfluss der Beugung. Und bei Bl. 8 ganz massiv (obere Reihe mit dem Zeiss Objektiv. Unten, das alte Minolta ist da im direkten Vergleich schon ein wenig überfordert).

47/Vergleich_an_A65_Mitte.jpg
→ Bild in der Galerie (http:../galerie/details.php?image_id=180519)

Umgerechnet auf VF wäre das in etwa ein 54MP Sensor.

dey
11.01.2014, 20:38
Fotografiere in JPG und stelle eine kleinere Bildgröße ein, fertig. Nicht jeder Menüpunkt muss so benannt werden, wie man es selber gerne hätte...

Leider nur bedingt hilfreich, weil kamerainterne JPG Engine schlecht 6 MP und ganz schlecht auf 12 MP runterskaliert.
Ich wollte zu Anfang im 6MP Modus + STC arbeiten. Gar nicht toll! :(

bydey

laurel
11.01.2014, 21:19
Ja, zu dieser Zeit sorgte der Megapixelwahn tatsächlich für Unmut, denn vielen Usern waren Dynamikumfang und hohe ISO-Fähigkeit wichtiger.
Bei den neueren Kameras wie der D800/A99 und der A7/r stellt sich die Frage schlichtweg nicht mehr. Sony erreicht mit ihren Sensoren Werte die die meisten hier für unmöglich gehalten hätten. Die High-ISO-Fähigkeiten sind ebenfalls mit jeder Kamera drastisch verbessert worden und sind heute in Regionen die kaum zu fassen sind.
ISO3200 is Heute ein Gebrauchswert kein Marketing mehr.


Wenn ich mir die A77 mit ihrem APS-C-Sensor ansehe sind wir doch schon seit 2 Jahren an der Grenze des Sinnvollen. Bei älteren Objektiven ist doch bei der A77 schon der Punkt erreicht wo das Objektiv der limitierende Faktor ist.
In relativ kurzer Zeit werden wir den 50MP-KB-Sensor sehen, damit beginnen dann aber die Probleme richtig.......
Hier müssen dann die Objektivhersteller dann den Spagat zwischen Schärfe und möglichst geringem Randabfall machen.
Teuer wird es auf alle Fälle, das sieht man an den neuen E-Zeissen zur A7r. Den Schock haben die Nikonisten mit der D800E schon hinter sich.

In welcher Kamera vermutest du die 54Mp Chip Einführung ???
mfg

BeHo
11.01.2014, 22:20
Nachdem Sony mittlerweile sogar 20 MP auf einen 1/2.3''-Sensor packt, ... :?

ddd
11.01.2014, 22:26
moin, die alten Minolta-Linsen von 1985 lösen selbst an den 24MP noch sehr gut auf - ganz ohne neue high-tech-Beschichtungen, super LD Glass, super Hochbrechendes Glas, asphärische Elemente oder sonstwas.
Um 1968 hat Minolta bereits Sondergläser eingesetzt, vermutlich auch schon vorher, und Asphären spätestens seit 1987 (im AF35/1.4), eventuell hat auch das AF35-70/4 von 1985 bereits asphärische Elemente (bin mir nicht sicher). Leitz verwendete im Elmar 50/2.8 seit den 1950er Jahren Lanthangläser (das Teil ist quasi CA-frei auf einem Niveau, das manches aktuelle Objektiv alt aussehen lässt), und sicher war auch bei anderen Herstellern aus der ersten Reihe sowas gängig. Teilweise wurde schon in den 1930er Jahren mit solchen Sondergläsern gearbeitet.

Es ist nur damals marketingmäßig nicht so heraus gestellt worden. Auch heute wird diese von den Zubehörherstellern hervorgehoben, die Originalhersteller halten sich da eher zurück.

btt:
die Auflösungsgrenze liegt theoretisch in der Größenordnung der Lichtwellenlänge, d.h. bei einem Pixelpitch von 0.56µm (Grün als für uns Menschen wichtigste Farbe angenommen) oder bei Bayerfilter-Sensoren entsprechend bei 0.28µm (Beugungsscheibe statt AA-Filter = doppelte Strahlteilung, quasi Überabtastung durch die Farbkanäle).

Sony produziert seit 2010 (!) Sensoren mit einem Pixelpitch von 1.12µm (http://image-sensors-world.blogspot.de/2010/10/sony-introduces-112um-bsi-pixels.html) in kleineren Formaten, das liegt schon recht nahe an der theoretischen Grenze. Die weitere Optimierung wie z.B. stacked-BSI ist mindestens in Arbeit, wenn nicht schon in Serie, dient aber erst mal nicht mehr der weiteren Verkleinerung des Pixelpitch, sondern der Dynamik-, Empfindlichkeits- und Geschwindigkeitserhöhung.

Die benötigte Öffnung liegt bei 1.12µm um f/2.0-f/2.8, ab f/4 wäre die Beugung sehr deutlich sichtbar. Es gibt einige wenige (APS-C/KB-) Objektive, die dies in der Bildmitte heute schon schaffen könnten.

36x24mm² @ 1.12µm Pitch = ca. 700 MPix ... (die MPix gehen quadratisch ;) )

Die Technologie für einen 54 MPix-KB-Sensor (3.9µm Pitch) ist seit 2011 in Großserie, dass wird sicher noch kommen. Ob noch höher auflösende Kameras mit großen Sensoren in absehbarer Zeit (5 Jahre) entwickelt werden ist bei der momentanen Marktsituation weniger wahrscheinlich.

Andererseits werden im Kompakt- und Handybereich auch immer höher auflösende System vorgestellt, die RX100/RX100MII/RX10 mit ihren 1"-20MPix-Sensoren (2.4µm Pitch) z.B. hätte es nach Forenmeinung niemals geben dürfen :mrgreen:
Diese Technologie ergäbe skaliert auf APS-C 64MPix und auf KB 150MPix und benötigt Öffnungen von f/2.8-f/4. Nicht unmöglich ...

mrieglhofer
11.01.2014, 22:31
Im Prinzip ist es egal, ob der Sensor mehr Auflösung hat. Das Gesamtsystem profitiert in jedem Fall, auch wenn die Optik noch so schlecht ist. Nur darf man sich nicht der Annahme hingeben, dass man die Auflösung auch hinter raus bekommt.

Wenn man heute gute 24MPx Bilder mit optimaler Blende, sehr gutem Glas und Stativ oder Studioblitz anschaut und dann mit normalen Aufnahmen vergleicht sieht man, dass man nur einen Teil der Auflösung in der Realität erreicht. Da sind minimale Verwackler, leichte AF-Fehler, Objektivfehler, Beugung usw.

Löst der Sensor jetzt mehr auf, wird sich da ja grundsätzlich nichts ändern, nur wird der Unterschied noch grösser. Vor allen kann man die schwachen Objektive beugungsbedingt nicht mehr so stark abblenden wie bisher und die Schere geht zu.
Mit sehr guten Objektiven, die bei 4-5,6 ihre optimale Leistung erreichen, wird man bei sehr sorgfältigem Arbeiten nochmal mehr rausholen können. Nur wer tut das in der Praxis wirklich.
Damit wird man in der Realität zwar grössere Dateien, aber meist nicht mehr Bildqualität erreichen.

Tikal
11.01.2014, 22:39
Um diese ganzen Auflösungen auch in der Praxis zu erreichen, muss sehr viel genauer gearbeitet werden. Beispielsweise wie bei Landschaften und Makros. Ansonsten verschenkt man ja das Potential ein wenig. Und wer mit den alten Objektiven (nicht abwertend gemeint) zufrieden ist, kann diese ja auch an den neuen Kameras nutzen. Es entsteht ja keinerlei Nachteile. Ganz im Gegenteil, durch die Mehr an Pixeln lassen sich Fehler besser abschwächen. Dann kann ja also kommen was will.

mick232
12.01.2014, 00:04
So gesehen kann man mit sehr gut gerechneten Objektiven

Ist es wirklich heute noch ein Problem, Objektive gut zu "rechnen" - anders gefragt: ist die Mathematik wirklich ein limitierender Faktor oder ist das heutzutage nur noch ein geflügeltes Wort?

Ich könnte mir vorstellen, daß hier Software zum Einsatz kommt, die die Gesetze der Optik genauestens abbildet und daher problemlos ein theoretisch perfektes Objektiv aus Ausgabe liefert - wenn man es auch bauen könnte, sprich die nötigen Materialien (Glas, Beschichtungen) hat, deren Eigenschaften mit der nötigen Genauigkeit bestimmen kann, die nötige Fertigungsgenauigkeit erreicht, es finanzierbar bleibt, etc.

mrieglhofer
12.01.2014, 00:20
Der letzte Punkt ist der interessante. Die neuen Zeiss zeigen ja, wo die Reise preislich hingeht, wenn man Qualität haben will. Das rechnen ist nicht das Problem, aber das ganze hochpräzise zu fertigen und justieren kostet sehr viel Geld. Und wer will denn dann Objektive im Bereich ab 1000€ oder für gute Zooms 2000-3000€ zahlen. Da sind die Stückzahlen endendwollend.

Und wenn es preislich passen soll, dann sieht man ja heute schon, was rauskommt. Plastikbomber mit Auflösungabfall bis zu 30-50% an den Rändern und schöngerechnet. Ausreichend Leistung mit ordentlich Serien Streuungen.

Aber das ist eh nicht das Problem. Die meisten Leute werden in der Praxis den Auflösungsunterschied gar nicht merken, weil sie die Ausgabegrössen nicht nutzen und/oder nicht so präzise und pinkelig arbeiten. Und leicht verwackelt ist die Objektiv Auflösung kein Thema mehr ;-)

Brainpiercing
12.01.2014, 01:01
Ist es wirklich heute noch ein Problem, Objektive gut zu "rechnen" - anders gefragt: ist die Mathematik wirklich ein limitierender Faktor oder ist das heutzutage nur noch ein geflügeltes Wort?

Ich könnte mir vorstellen, daß hier Software zum Einsatz kommt, die die Gesetze der Optik genauestens abbildet und daher problemlos ein theoretisch perfektes Objektiv aus Ausgabe liefert - wenn man es auch bauen könnte, sprich die nötigen Materialien (Glas, Beschichtungen) hat, deren Eigenschaften mit der nötigen Genauigkeit bestimmen kann, die nötige Fertigungsgenauigkeit erreicht, es finanzierbar bleibt, etc.

Naja, also, SO einfach scheint das mit dem Rechnen auch nicht zu sein. Erst vor kurzer Zeit gab es für MFT das Olympus 17/F1.8, daß ja wohl miserabel gerechnet war für eine Festbrennweite (Auflösung, Verzerrung, alles ziemlich mau), und das für so einen kleinen Sensor wie MFT. Und das verkaufen sie auch für 500€, was ich schon nicht so günstig finde. Da verstehe ich dann nicht mehr so ganz, nach welchen Gesetzmäßigkeiten das abläuft. Es sollte doch eigentlich in den Zeiten eines F1.8er ZOOMs kein Problem mehr darstellen, eine optisch einwandfreie Festbrennweite herzustellen, für den halben Preis, und noch dazu für einen kleinen Sensor. Aber die Realität sieht immer wieder anders aus.

phootobern
12.01.2014, 01:06
Naja, also, SO einfach scheint das mit dem Rechnen auch nicht zu sein. Erst vor kurzer Zeit gab es für MFT das Olympus 17/F1.8, daß ja wohl miserabel gerechnet war für eine Festbrennweite (Auflösung, Verzerrung, alles ziemlich mau), und das für so einen kleinen Sensor wie MFT. Und das verkaufen sie auch für 500€, was ich schon nicht so günstig finde. Da verstehe ich dann nicht mehr so ganz, nach welchen Gesetzmäßigkeiten das abläuft. Es sollte doch eigentlich in den Zeiten eines F1.8er ZOOMs kein Problem mehr darstellen, eine optisch einwandfreie Festbrennweite herzustellen, für den halben Preis, und noch dazu für einen kleinen Sensor. Aber die Realität sieht immer wieder anders aus.

Fotografierst du mit dem nach dir so schlechten Olympus 17mm Objektiv oder Plauderst du da was rum?

Tikal
12.01.2014, 01:17
Olympus M.Zuiko Digital 17 mm f/1.8 review - Introduction - Lenstip.com - http://www.lenstip.com/index.php?test=obiektywu&test_ob=357

Falls es jemanden interessiert.

Brainpiercing
12.01.2014, 01:24
Fotografierst du mit dem nach dir so schlechten Olympus 17mm Objektiv oder Plauderst du da was rum?

Ich habe leider nicht das Geld, noch ein drittes System (nach A und E-mount) anzufangen, aber ich habe ziemlich lang herum-recherchiert nach einer guten Festbrennweite zum Verschenken für MFT. Habe dann nach langem hin und her doch das Pana/Leica genommen. Der etwas "bedächtige" AF ist damit auch nicht langsamer als beim Sony SEL 35er.

Natürlich kannst du sagen, daß dank digitaler Korrektur immer noch gute Bilder da herauskommen, und ich würde wahrscheinlich das gleiche sagen, hätte ich es gekauft. An der Physik ist aber trotzdem nichts herumzudeuten. Die Verzerrung spricht für sich. Ob man die Auflösung in der Praxis merkt ist wohl die Frage. Ich spreche ja auch nur über das Preis/Leistungs-Verhältnis, und darüber, daß das eine wirklich neues Objektiv ist, wo man eigentlich von fast perfekten optischen Eigenschaften ausgehen müsste.

phootobern
12.01.2014, 01:57
Was so Test ja auch immer Aussagen mögen.

Das Olympus 12-40 2.8 wurde als deutlich besser eingestuft und eine höhere Auflösung als beim 17mm getestet.

Ich habe die beiden bei 35mm verglichen, und das 17mm hat klar die Nase vorn.

Es ist aber toll was das 12-40 2.8 leistet, auch wen ja für viele das Spielzeug Format ist.

Einfach bei solchen Test nie vergessen dass irgendwer die Tests auch finanziert.
Ich weiss wie es in der Bike Industrie mit Tests funktioniert.
Ich glaube nur noch meinen eigenen gefälschten Tests;)

Gruss Markus

Tikal
12.01.2014, 02:40
Wenn keine stichhaltigen Beweise vorliegen, sollte man mit solchen Äußerungen vorsichtig sein. Das kann Ruf schädigen.

TONI_B
12.01.2014, 06:57
Ist es wirklich heute noch ein Problem, Objektive gut zu "rechnen" - anders gefragt: ist die Mathematik wirklich ein limitierender Faktor oder ist das heutzutage nur noch ein geflügeltes Wort?mMn ist es nicht wirklich ein großes Problem heutzutage ein gutes Objektiv zu rechnen! Die Software dazu gibt es zT sogar als freeware...:cool:

Und es gibt auch - im nichtkommerziellen Bereich - viele optische Systeme, die perfekte Abbildungen liefern (zB. Mikroskopobjektive, Optiken für die Chipfertigung, Astronomische Geräte).

Das Problem sind eher die kaufmännischen Vorgaben: wie man an den neuen Zeiss-Otus-Gläsern sieht, kann man offenbar auch für "uns" hervorragende Objektive rechnen, die dann aber entsprechend kosten (>3000€). Da hat man auch 12(!) statt sonst üblichen 6 oder 7 Linsen für ein Normalobjektiv verwendet. Damit hat man wesentlich mehr Freiheitsgrade zur Korrektur der Fehler. Und wenn man dann auch noch teure Sondergläser verwendet, wird es teuer.

Aber ich habe so das Gefühl, dass es ein Mordsspaß war für die Konstrukteure sich einmal so richtig austoben zu können...:lol:

Wenn aber der Kaufmann sagt, dass das Objektiv maximal 300€ kosten darf und man dabei auch noch viel verdienen will, wird es sehr schwer werden - speziell, wenn die Stückzahlen klein bleiben. Die - zu Unrecht - vielgescholtenen Kit - oder Super-Zooms sind oft überraschend gut weil durch die hohen Stückzahlen durchaus ein respektabler Gewinn zu erwarten ist. Auch wenn man viele Linsen verbaut.

dey
12.01.2014, 10:01
Ich denke die MP der Zukunft werden nur noch einem Prozessor und nicht mehr dem RAW zur Verfügung gestellt.
Das bei dem Nokia Handy die MP nutzbar sind glaube ich nicht.
Wenn jedoch der Klarbildzoom die MP wirklich nutzen kann, weil der Algorithmus stimmt ist es doch gut.

@Toni. Du arbeitest doch gerne an den physikalischen Grenzen. Was meinst du, wie viel der 24MP sind für dich nutzbar?

bydey

helgo2000
12.01.2014, 10:50
Also ich finde diese Diskussion für das optische Verständnis beim Fotografieren ziemlich interessant.

Zu meinem Verständnis - denke ich da richtig: wenn die Auflösung der Chips an die MP-Grenze kommt, müssten die Objektive weit offen bleiben, damit keine Beugungsunschärfe entsteht. Bei Vollformat kommen wir dann an vielleicht Blende 1?

Das bedeutet, dass prinzipiell bis auf eine schmale Ebene die scharf wird, der Rest hinter der Freistellung verschwindet (Pupille scharf, Rest naja). Weil, wenn man abblendet, dann die Beugungsunschärfe bemerkbar wird.

Um die Schärfe dennoch zu erhöhen, müsste man den Chip verkleinern (Klarbildzoom), damit man wieder mehr abblenden kann. Als Nebeneffekt wäre dann auch möglich, besser digital zu zoomen, wenn nur genügend MP auf der Restfläche übrig blieben.

Richtig?

helgo

TONI_B
12.01.2014, 10:57
@Toni. Du arbeitest doch gerne an den physikalischen Grenzen. Was meinst du, wie viel der 24MP sind für dich nutzbar?Alle! :cool:;)

Ich merke wirklich einen riesigen Unterschied bei Aufnahmen, die ich am Fernrohr mit der A700 oder A77 mache! Das Fernrohr liefert beugungsbeschränkte Bilder über ein Bildfeld, das sicher so groß ist wie der APS-C Sensor. Und dort ist die A77 viel besser als die A700. Aber auch das SAL18250 liefert bessere Bilder! Es sind also nicht nur die guten Optiken...

Ich sogar noch Unterschiede zwischen der A77 mit 3,9µm und meiner Planetenkamera, die hat nur 3,75µm Pixelgröße. Gut, die ist Monochrome und hat kein AA-Filter. Aber damit sieht man, was machbar ist.

Das Problem ist eher das Rauschen, denn da setzt natürlich auch die Physik eine Grenze: je kleiner die Pixel, desto schlechter ist das Signal-Rausch-Verhältnis. Aber auch da kann man durch Mehrfachbelichten und Stacken viel gewinnen.

mrieglhofer
12.01.2014, 12:24
Da arbeitest auch mit einem schweren Stativ und hast die doppelte Auflösung. Nimm ein langes Tele und Freihand und vergleiche dann mal die Auflösung gegenüber einer Stativaufnahme mit manueller Fokussierung und Lupe. Der Unterschied ist durchaus sichtbar. ;-)

mrieglhofer
12.01.2014, 12:35
Also ich finde diese Diskussion für das optische Verständnis beim Fotografieren ziemlich interessant.

Zu meinem Verständnis - denke ich da richtig: wenn die Auflösung der Chips an die MP-Grenze kommt, müssten die Objektive weit offen bleiben, damit keine Beugungsunschärfe entsteht. Bei Vollformat kommen wir dann an vielleicht Blende 1?

Das bedeutet, dass prinzipiell bis auf eine schmale Ebene die scharf wird, der Rest hinter der Freistellung verschwindet (Pupille scharf, Rest naja). Weil, wenn man abblendet, dann die Beugungsunschärfe bemerkbar wird.

Um die Schärfe dennoch zu erhöhen, müsste man den Chip verkleinern (Klarbildzoom), damit man wieder mehr abblenden kann. Als Nebeneffekt wäre dann auch möglich, besser digital zu zoomen, wenn nur genügend MP auf der Restfläche übrig blieben.

Richtig?

helgo
Falsch.

Derzeit bei 24MPix kannst bei Bl. 16 die Beugung sehen, bei Crop bei Bl. 11. Bei höherer Auflösung gehts halt dann wieder eine Blende runter. Da muss dann das Objektiv bei 5,6 sein Optimun erreichen, was mit Zeiss Linsen und normalen Brennweiten ganz gut geht. Bei längeren Brennweiten oder WW gehts dann schon nicht mehr so einfach.
Bei kleineren Chips ist das noch krasser. Die RX-10 kannst defacto nur bei 2,8 und 4 ohne Beugungsverlust einsetzen, die RX-100 am Tele mit 4,9 offenblendig ist schon deutlich in der Beugung. Ist aber egal, weil die Optik da eh schon schwach ist ;-) So wird sie halt noch ein wenig schwächer. Aber abblenden, um die unscharfen Ränder scharf zu bekommen führt dann zum Verlust von Auflösung über die ganze Fläche. Das sieht man in den Objektivcharts recht gut. (Dxomark).
Nur ist das ganze relativ irrelevant. Wenn jemand max. A4 ausgibt oder auf FullHD, merkt er weder die hohe Systemauflösung noch die Beugung. Und jene, die Plakate mit der Lupe betrachten wolle, werden sich halt für Zeiss um die 3000€ entscheiden müssen. Was die Bilder nicht besser nur schärfer macht ;-)

Tikal
12.01.2014, 13:26
Was die Bilder nicht besser nur schärfer macht ;-)

Das kann man betrachten wie man will, aber in manchen Disziplinen ist "schärfer" auch "besser" als das gleiche Bild mit weniger Schärfe.

aidualk
12.01.2014, 14:12
gelöscht

Revox
12.01.2014, 14:39
Hier haben sich einige sehr interessante Aussagen zusammengefunden!

Hier und da würde ich gerne nochmal etwas tiefer nachhaken:

@Thomas
Leitz verwendete im Elmar 50/2.8 seit den 1950er Jahren Lanthangläser (das Teil ist quasi CA-frei auf einem Niveau, das manches aktuelle Objektiv alt aussehen lässt), und sicher war auch bei anderen Herstellern aus der ersten Reihe sowas gängig. Teilweise wurde schon in den 1930er Jahren mit solchen Sondergläsern gearbeitet.

Welchen Gegenwert hatten diese Objektive damals zu ihrer Zeit. Aus dem Stehgreif würde ich vermuten, dass man sich von diesem Geld heute durchaus einen Kleinwagen kaufen könnte. Würdest du sagen, dass ein CZ 55mm 1.8 Objektiv (oder sagen wir das 135 1.8) heute im selben Maßstab an die grenze des technisch machbaren heranreicht oder werden hier immer noch größere Kompromisse an die "Bezahlbarkeit" und die Serienfertigung eingegangen.
Von den Objektiven in meinem Institut, die an eine Flir Wärmebildkamera herangeschraubt werden weiß ich, dass diese Objektive eigentlich nur durch die ihre extrem geringe Stückzahl Kleinwagenpreise besitzten und von ihren inneren Werten eigentlich eher "nur" oberklasse Fotoobjektive sind.

@Mick
Ich könnte mir vorstellen, daß hier Software zum Einsatz kommt, die die Gesetze der Optik genauestens abbildet und daher problemlos ein theoretisch perfektes Objektiv aus Ausgabe liefert
Chromatische Aperation kann ich mir als Automatische korrektur sehr gut vorstellen. Ideen durch die man hingegen die Beugung des Lichtes herausrechnen könnte habe ich überhaupt keine (und wenn sollte ich mal schnell ins Patentamt rennen).
Vielleicht schaffe ich es heute noch mich im Bereich der Halbleiterfertigung heute etwas schlau zu machen. Hier trifft man ja auf genau dasselbe Problem. Sicherlich ist in einer Fertigungsstraße für 22nm jeder nur denkbare "Trick" vorhanden der sich sicher auch bei Licht anwenden lässt.

@Toni
Das Problem ist eher das Rauschen, denn da setzt natürlich auch die Physik eine Grenze: je kleiner die Pixel, desto schlechter ist das Signal-Rausch-Verhältnis. Aber auch da kann man durch Mehrfachbelichten und Stacken viel gewinnen.
Wie kompliziert sind eigentlich mittlerweile Entrauschungsalgorithmen?
Aktuell habe ich relativ viel mit Lockinverstärkern *1 zu tun. Seit den 80er Jahren werden dort fast unverändert Geräte verkauft. Mit diesen noch relativ einfachen Signalverarbeitung erreicht man Ausgabewerte, die noch weit unterhalb des Rauschlevels liegen. Andenkbar wäre für mich auch ein solches Prinzip z.b. durch mehrfachabtastung des Sensors. Aber vielleicht sind die Filter jetzt bereits "Rocket Science" für jeden der sich mit Signalverarbeitung nur ein wenig auskennt?


@Helgo
Das bedeutet, dass prinzipiell bis auf eine schmale Ebene die scharf wird, der Rest hinter der Freistellung verschwindet (Pupille scharf, Rest naja). Weil, wenn man abblendet, dann die Beugungsunschärfe bemerkbar wird.
So habe ich das bisher auch verstanden. Das Arbeiten unter diesen Bedingungen stelle ich mir auch nicht gerade einfach vor, schon jetzt liegt bei etwas Bewegung bei mir schon häufig die Schärfeebene um wenige cm verkehrt.

@Tikal
Das kann man betrachten wie man will, aber in manchen Disziplinen ist "schärfer" auch "besser" als das gleiche Bild mit weniger Schärfe.
Mir geht es hier auch nur allein um das technische Hintegrundwissen.

*1 http://de.wikipedia.org/wiki/Lock-in-Verst%C3%A4rker

ddd
12.01.2014, 16:33
moin, Welchen Gegenwert hatten diese Objektive damals zu ihrer Zeit.
schwer zu sagen. Ich habe keine Infos, das Objektiv war aber zu seiner Zeit die "low cost-Normalbrennweite". Ken Rockwell schreibt etwas von $575 basierend auf dem 1972er Preis inflationskorrigiert auf 2009. Eine Leica-III oder Leica-M3 soll Ende der 1950er Jahre (das Elmar 50/2.8 wurde von 1956-1972 gebaut) einen (?) Brutto-Monatslohn eines Angestellten gekostet haben, wobei die Lebenshaltungskosten (Essen, Wohnen, Kleidung) damals einen größeren Anteil am Einkommen verschlungen haben als heute.
Die genannten Objektive sind sicher näher an der Grenze, das Elmar ist ein Vierlinser und für eine Normalbrennweite lichtschwach. Die gute Qualität gilt auch an APS-C@16MPix (NEX-6), wie es sich an einer A7R macht, bleibt abzuwarten.
Mir ging es mehr um den Hinweis, dass Sondergläser nicht erst seit den 1990er Jahren verwendet wurden, sondern schon viel früher und nicht nur in exotischen Spezialobjektiven.

Ideen durch die man hingegen die Beugung des Lichtes herausrechnen könnte habe ich überhaupt keine
ganz einfach: PSF - point spread function. Das ist seit "hundert" Jahren bekannt und nicht patentierbar, da "Physik pur". Das wird z.B. in der Astronomie auch eingesetzt und auch bei Chipbelichtern usw. Der Rechenaufwand ist groß, vor allem aber der Messaufwand, da im Prinzip für jeden Punkt im Bildraum die PSF bestimmt werden muss -und zwar für jede individuelle Objektiv-Sensor-Paarung-, dann aber im Prinzip alle (!) Fehler enthalten sind und wirklich herausgerechnet werden können, es handelt sich nicht um eine Schätzung oder Näherung. Eine Arbeitgruppe hat das mit einem selbstgebastelten "Flaschenboden" als Objektiv vorgeführt, und dabei wurde nur grob genähert, trotzdem waren die Ergebnisse sehr interessant.

Wie kompliziert sind eigentlich mittlerweile Entrauschungsalgorithmen?
trivial. Wenn Rechenleistung und Zeit und Energiebedarf keine Rolle spielt ;) Aber: "schnelle" AD-Wandler rauschen mehr, das ist fundamental und nicht technisch vermeidbar. In einer Kamera aktueller Technologie ist die Stromversorgung und die daraus folgende Abwärmeproduktion zusammen mit der verfügbaren Akku-Kapazität ein ganz kritischer Parameter. Niemand würde eine Kamera im Mineralwasserkistenformat akzeptieren, deren 200kg Akku-Pack auf einem Bollerwagen nachgezogen wird und die 100 Liter Kühlwasser pro Stunde verbraucht und trotzdem pro Bild mehrere Minuten Aufnahmezeit benötigt.

Das Arbeiten unter diesen Bedingungen stelle ich mir auch nicht gerade einfach vor, schon jetzt liegt bei etwas Bewegung bei mir schon häufig die Schärfeebene um wenige cm verkehrt.
selbst bei Blende 11 ist die Schärfenebene eine mathematische Ebene, hat also die Dicke 0 (null). Die Auflösungsgrenze sorgt dafür, dass auch vor und hinter dieser Ebene noch kein Abfall der Auflösung erkennbar ist. Daran ändert sich nichts, egal wie hoch die Auflösung ist, es ist halt im Extremfall genau in der Ebene mehr Auflösung vorhanden. Real spielen weitere Abbildungsfehler eine Rolle und begrenzen die Auflösung. Toni schrieb schon, Teleskope und Mikroskopobjektive sind seit langem beugungbegrenzt und werden trotzdem verwendet.
Mikroskopobjektive haben teilweise Öffnungen größer als f/1 (man kann die numerische Apertur NA im Nahbereich nicht wirklich in eine relative Öffnung=Blendenzahl im Unendlichen umrechnen, auch Brennweite vs. Vergrößerung geht nicht). Man fährt visuell mit dem Z-Trieb durch die Objektebenen, beim Fotografieren wird mit mehreren hundert Ebenen gestackt, und das war schon zu Filmzeiten üblich.

Revox
12.01.2014, 17:07
schwer zu sagen. Ich habe keine Infos, das Objektiv war aber zu seiner Zeit die "low cost-Normalbrennweite". Ken Rockwell schreibt etwas von $575 basierend auf dem 1972er Preis inflationskorrigiert auf 2009. Eine Leica-III oder Leica-M3 soll Ende der 1950er Jahre (das Elmar 50/2.8 wurde von 1956-1972 gebaut) einen (?) Brutto-Monatslohn eines Angestellten gekostet haben, wobei die Lebenshaltungskosten (Essen, Wohnen, Kleidung) damals einen größeren Anteil am Einkommen verschlungen haben als heute.
Die genannten Objektive sind sicher näher an der Grenze, das Elmar ist ein Vierlinser und für eine Normalbrennweite lichtschwach. Die gute Qualität gilt auch an APS-C@16MPix (NEX-6), wie es sich an einer A7R macht, bleibt abzuwarten.
Mir ging es mehr um den Hinweis, dass Sondergläser nicht erst seit den 1990er Jahren verwendet wurden, sondern schon viel früher und nicht nur in exotischen Spezialobjektiven.
Sehr Interessant, ich würde daher den Schluss ziehen, dass komplizierte Optiken in der heutigen Zeit nicht wesentlich günstiger in der Herstellung sind als damals.

ganz einfach: PSF - point spread function. Das ist seit "hundert" Jahren bekannt und nicht patentierbar, da "Physik pur". Das wird z.B. in der Astronomie auch eingesetzt und auch bei Chipbelichtern usw. Der Rechenaufwand ist groß, vor allem aber der Messaufwand, da im Prinzip für jeden Punkt im Bildraum die PSF bestimmt werden muss -und zwar für jede individuelle Objektiv-Sensor-Paarung-, dann aber im Prinzip alle (!) Fehler enthalten sind und wirklich herausgerechnet werden können, es handelt sich nicht um eine Schätzung oder Näherung. Eine Arbeitgruppe hat das mit einem selbstgebastelten "Flaschenboden" als Objektiv vorgeführt, und dabei wurde nur grob genähert, trotzdem waren die Ergebnisse sehr interessant.
Ein ähnliches Prinzip kenne ich aus dem Audiobereich ganz gut: Musiksignal wird hier mit der inversen Impulsantwort gefaltet. Wahre Klangwunder kann man aus einem schlechten Lautsprecherchassis oder einem wenig gedämpften Raum nicht erwarten.
Ähnlich wird es aber doch auch mit Optiken sein?
Als Elektrotechniker wird man mit noch "einfacherer" Regelungstechnik "gefoltert". Egal welche Form der Korrektur man verwendet: Wichtig ist hier immer die Vorraussetzung das ein System Zeitinvariant ist. Mit anderen Worten, sich das Objektiv nicht weiter verändert. An dieser Stelle spielen Temperaturunterschiede wie auch das entstehende Spiel durch den Zoommechanismus eine große Rolle.
Ich habe kein tiefgreifendes Wissen in diesen Bereichen, aber mein ing. Gefühl sagt mir, dass in solchen Techniken keine Größenordnungen drin sind. Aber ich lasse mich da gerne eines Besseren belehren. Hast du zufällig einen Link zu der genannten Arbeitsgruppe?

trivial. Wenn Rechenleistung und Zeit und Energiebedarf keine Rolle spielt Aber: "schnelle" AD-Wandler rauschen mehr, das ist fundamental und nicht technisch vermeidbar. In einer Kamera aktueller Technologie ist die Stromversorgung und die daraus folgende Abwärmeproduktion zusammen mit der verfügbaren Akku-Kapazität ein ganz kritischer Parameter. Niemand würde eine Kamera im Mineralwasserkistenformat akzeptieren, deren 200kg Akku-Pack auf einem Bollerwagen nachgezogen wird und die 100 Liter Kühlwasser pro Stunde verbraucht und trotzdem pro Bild mehrere Minuten Aufnahmezeit benötigt.
Wer spricht hier gleich von 200Kg, eine 1Kw Grafikkarte reicht doch sicher schon in der Nachbearbeitung aus :cool:
Aber mal im Ernst, ist der damals sagen umwogene analoge Rauschfilter in der A700/A900 wirklich nicht viel mehr, als ein analoger Tiefpassfilter gewesen?
Es ist einfach sehr schwer Marketing Gag von Rocket Science zu unterscheiden, was du eben genau mit den alten Objektiven auch schon angesprochen hast!

frame
12.01.2014, 18:28
Olympus M.Zuiko Digital 17 mm f/1.8 review - Introduction - Lenstip.com - http://www.lenstip.com/index.php?test=obiektywu&test_ob=357


Es interessiert mich - ich habe die Linse selbst nicht, denke aber manchmal darüber nach mir eine zu holen.

Ich habe ein bisschen recherchiert und lenstip steht ziemlich alleine da mit diesem Review - es gibt viele begeisterte User des Oly 17/1.8 quer über die deutschen und englischen Foren ...

z.B.:
http://blog.entropicremnants.com/2013/02/10/whats-all-the-angst-about-the-olympus-17mm-f18-review.aspx

Tikal
12.01.2014, 19:03
Ich habe das Review nicht gelesen und auch nicht weiter gesucht. Habe auch das Objektiv nicht. Wollte es halt trotzdem mal verlinken, da ich denke das die Seite einen guten Job macht. Letztendlich hat jeder andere Prioritäten und in der Praxis sind bestimmte Eigenschaften für einen manchmal auch gar nicht so wichtig. Man kann natürlich jedem Test vorwerfen, sie hätten das nicht "korrekt" gemacht. Aber es gibt halt keine einzige korrekte Tests. Das sollte man zumindest im Hinterkopf haben.

Brainpiercing
12.01.2014, 23:22
Was so Test ja auch immer Aussagen mögen.

*SNIP*

Gruss Markus

Schon richtig, daß das Objektiv bei den meisten einfachen Praxistests in der Regel gut abgeschnitten hat, naja mit Ausnahme der Verzerrung bei RAW.

Wie auch immer. Ich halte die Tests von Lenstip eigentlich für recht stichhaltig, weil sehr wissenschaftlich. Momentan für mich vertrauenswürdiger als z.B. DPreview.

Wie auch immer. Ich habe einen Kollegen der es sich wohl demnächst leisten wird, dann kann ich nachfragen.