![]() |
Auflösungsgrenze -> Wo geht die Reise hin
Vor vielen Jahren zu Zeiten der 7D wurde der Megapixelwahn stark kritisiert und genau zu der Zeit war ich mit dem 6 Megapixelsensor eigentlich zufrieden. Später kam dann der Umstieg auf einen besseren Autofokus und dazu kamen nochmals 6 weiter Megapixel. Mittlerweile ist es Vollformat mit 24 Megapixeln und meine Fotos sind immer noch gleich gut/schlecht.
Was mir aber deutlich auffällt ist, dass mein Objektivpark langsam an die Grenzen stößt. Es sind fast ausschließlich Festbrennweiten. Die Objektivtechnologie hat sich sicher in einigen bereichen seit 20Jahren stark verändert. Heute wären die optischen Berechnungen sicher auf meinem Notebook oder Androidhandy möglich. Die Fertigungstechnologien sind fortgeschritten, sodass mit weitaus weniger Aufwand eine gleiche präzsion erreicht wie in vergangenen Zeiten. Auf der anderen Seite sind aber viele Optische grenzen Physikalisch bedingt! Wie lange kann man im "Mainstreammarkt" auf der optischen Seite mit den Kameras noch mithalten? Werden Objektive auf gleichem Niveau nicht irgendwann unproportional teuer? (Die aktuelle 55mm Festbrennweite ist mit 1k€ als exklusiv zu bezeichnen?) |
Zitat:
Bei den neueren Kameras wie der D800/A99 und der A7/r stellt sich die Frage schlichtweg nicht mehr. Sony erreicht mit ihren Sensoren Werte die die meisten hier für unmöglich gehalten hätten. Die High-ISO-Fähigkeiten sind ebenfalls mit jeder Kamera drastisch verbessert worden und sind heute in Regionen die kaum zu fassen sind. ISO3200 is Heute ein Gebrauchswert kein Marketing mehr. Zitat:
In relativ kurzer Zeit werden wir den 50MP-KB-Sensor sehen, damit beginnen dann aber die Probleme richtig....... Hier müssen dann die Objektivhersteller dann den Spagat zwischen Schärfe und möglichst geringem Randabfall machen. Teuer wird es auf alle Fälle, das sieht man an den neuen E-Zeissen zur A7r. Den Schock haben die Nikonisten mit der D800E schon hinter sich. |
Hi revox.
Ich sehe das ganz entspannt. Ich bezweifle, dass ich einen Schnappschuss habe, der wirklich 24 mP auflöst -> 24 MP auf APS-C bedeutet sauberes arbeiten. Ich bin nicht mal sicher, ob meine Objektive in der Lage sind die 24MP aufzulösen. Es fehlt mir eine Referenz. Ob es klug ist 24MP hinter einer Folie zu verstecken? Letztlich ist das einzige, was ärgerlich ist, dass die RAWs so gross sind, wenn am Ende nur 12 oder 16 MP drin sind. Und leider ist die kamerainterne JPG-Kompression auf 6 oder 12 MP schwach. Stört alles nicht. Nach RAw wird alles auf 6MP Archivgrösse komprimiert und vorher gecropt bis es weh tut. bydey |
Physikalisch gibt es natürlich eine Grenze und das ist die Beugung des Lichts!
Man sieht ja jetzt auch schon, dass bei guten Objektiven bei der A77 ab f/8 die Beugung der limitierende Faktor ist. So gesehen kann man mit sehr gut gerechneten Objektiven, die noch dazu lichtstark sein müssen, durchaus in den Bereich von 1-2µm großen Pixeln kommen. Dann ist aber Schluss...:cool: Bei Mikroskop-Objektiven ist man schon seit Jahrzehnten an der Beugungsgrenze - da half auch nur maximales Öffnungsverhältnis (Stichwort:"Numerische Apertur") |
Ich finde eher frustrierend das Sony nicht auf den Senkel kommt, mit den vielen Megapixeln eine Downsampling-funktion zu implementieren, die auch mit einem Bild auf Rauschwerte kommt wie sonst nur die Multiframe-Methode. Das MUSS gehen, Rauschen ist per Definition selbst-auslöschend, wenn man es nur richtig zusammenrechnet.
Ich glaube bei den Objektiven selbst ist noch nicht Schluss. Mal ehrlich, die alten Minolta-Linsen von 1985 lösen selbst an den 24MP noch sehr gut auf - ganz ohne neue high-tech-Beschichtungen, super LD Glass, super Hochbrechendes Glas, asphärische Elemente oder sonstwas. Zumindest wenn sie die haben, dann war das damals Marketing-technisch noch nicht relevant, und ist mir somit nicht bekannt. Ein bissl Luft wird also noch sein :) |
Zitat:
|
Ich denke auch der Pixelpitch der A77/A65 ist so ziemlich das Limit des sinnvollen. Klar würde da auch noch mehr gehen, aber es wird dann kritisch was das ausnutzen angeht.
Zitat:
![]() → Bild in der Galerie Umgerechnet auf VF wäre das in etwa ein 54MP Sensor. |
Zitat:
Ich wollte zu Anfang im 6MP Modus + STC arbeiten. Gar nicht toll! :( bydey |
Zitat:
mfg |
Nachdem Sony mittlerweile sogar 20 MP auf einen 1/2.3''-Sensor packt, ... :?
|
moin,
Zitat:
Es ist nur damals marketingmäßig nicht so heraus gestellt worden. Auch heute wird diese von den Zubehörherstellern hervorgehoben, die Originalhersteller halten sich da eher zurück. btt: die Auflösungsgrenze liegt theoretisch in der Größenordnung der Lichtwellenlänge, d.h. bei einem Pixelpitch von 0.56µm (Grün als für uns Menschen wichtigste Farbe angenommen) oder bei Bayerfilter-Sensoren entsprechend bei 0.28µm (Beugungsscheibe statt AA-Filter = doppelte Strahlteilung, quasi Überabtastung durch die Farbkanäle). Sony produziert seit 2010 (!) Sensoren mit einem Pixelpitch von 1.12µm in kleineren Formaten, das liegt schon recht nahe an der theoretischen Grenze. Die weitere Optimierung wie z.B. stacked-BSI ist mindestens in Arbeit, wenn nicht schon in Serie, dient aber erst mal nicht mehr der weiteren Verkleinerung des Pixelpitch, sondern der Dynamik-, Empfindlichkeits- und Geschwindigkeitserhöhung. Die benötigte Öffnung liegt bei 1.12µm um f/2.0-f/2.8, ab f/4 wäre die Beugung sehr deutlich sichtbar. Es gibt einige wenige (APS-C/KB-) Objektive, die dies in der Bildmitte heute schon schaffen könnten. 36x24mm² @ 1.12µm Pitch = ca. 700 MPix ... (die MPix gehen quadratisch ;) ) Die Technologie für einen 54 MPix-KB-Sensor (3.9µm Pitch) ist seit 2011 in Großserie, dass wird sicher noch kommen. Ob noch höher auflösende Kameras mit großen Sensoren in absehbarer Zeit (5 Jahre) entwickelt werden ist bei der momentanen Marktsituation weniger wahrscheinlich. Andererseits werden im Kompakt- und Handybereich auch immer höher auflösende System vorgestellt, die RX100/RX100MII/RX10 mit ihren 1"-20MPix-Sensoren (2.4µm Pitch) z.B. hätte es nach Forenmeinung niemals geben dürfen :mrgreen: Diese Technologie ergäbe skaliert auf APS-C 64MPix und auf KB 150MPix und benötigt Öffnungen von f/2.8-f/4. Nicht unmöglich ... |
Im Prinzip ist es egal, ob der Sensor mehr Auflösung hat. Das Gesamtsystem profitiert in jedem Fall, auch wenn die Optik noch so schlecht ist. Nur darf man sich nicht der Annahme hingeben, dass man die Auflösung auch hinter raus bekommt.
Wenn man heute gute 24MPx Bilder mit optimaler Blende, sehr gutem Glas und Stativ oder Studioblitz anschaut und dann mit normalen Aufnahmen vergleicht sieht man, dass man nur einen Teil der Auflösung in der Realität erreicht. Da sind minimale Verwackler, leichte AF-Fehler, Objektivfehler, Beugung usw. Löst der Sensor jetzt mehr auf, wird sich da ja grundsätzlich nichts ändern, nur wird der Unterschied noch grösser. Vor allen kann man die schwachen Objektive beugungsbedingt nicht mehr so stark abblenden wie bisher und die Schere geht zu. Mit sehr guten Objektiven, die bei 4-5,6 ihre optimale Leistung erreichen, wird man bei sehr sorgfältigem Arbeiten nochmal mehr rausholen können. Nur wer tut das in der Praxis wirklich. Damit wird man in der Realität zwar grössere Dateien, aber meist nicht mehr Bildqualität erreichen. |
Um diese ganzen Auflösungen auch in der Praxis zu erreichen, muss sehr viel genauer gearbeitet werden. Beispielsweise wie bei Landschaften und Makros. Ansonsten verschenkt man ja das Potential ein wenig. Und wer mit den alten Objektiven (nicht abwertend gemeint) zufrieden ist, kann diese ja auch an den neuen Kameras nutzen. Es entsteht ja keinerlei Nachteile. Ganz im Gegenteil, durch die Mehr an Pixeln lassen sich Fehler besser abschwächen. Dann kann ja also kommen was will.
|
Zitat:
Ich könnte mir vorstellen, daß hier Software zum Einsatz kommt, die die Gesetze der Optik genauestens abbildet und daher problemlos ein theoretisch perfektes Objektiv aus Ausgabe liefert - wenn man es auch bauen könnte, sprich die nötigen Materialien (Glas, Beschichtungen) hat, deren Eigenschaften mit der nötigen Genauigkeit bestimmen kann, die nötige Fertigungsgenauigkeit erreicht, es finanzierbar bleibt, etc. |
Der letzte Punkt ist der interessante. Die neuen Zeiss zeigen ja, wo die Reise preislich hingeht, wenn man Qualität haben will. Das rechnen ist nicht das Problem, aber das ganze hochpräzise zu fertigen und justieren kostet sehr viel Geld. Und wer will denn dann Objektive im Bereich ab 1000€ oder für gute Zooms 2000-3000€ zahlen. Da sind die Stückzahlen endendwollend.
Und wenn es preislich passen soll, dann sieht man ja heute schon, was rauskommt. Plastikbomber mit Auflösungabfall bis zu 30-50% an den Rändern und schöngerechnet. Ausreichend Leistung mit ordentlich Serien Streuungen. Aber das ist eh nicht das Problem. Die meisten Leute werden in der Praxis den Auflösungsunterschied gar nicht merken, weil sie die Ausgabegrössen nicht nutzen und/oder nicht so präzise und pinkelig arbeiten. Und leicht verwackelt ist die Objektiv Auflösung kein Thema mehr ;-) |
Zitat:
|
Zitat:
|
Olympus M.Zuiko Digital 17 mm f/1.8 review - Introduction - Lenstip.com - http://www.lenstip.com/index.php?tes...wu&test_ob=357
Falls es jemanden interessiert. |
Zitat:
Natürlich kannst du sagen, daß dank digitaler Korrektur immer noch gute Bilder da herauskommen, und ich würde wahrscheinlich das gleiche sagen, hätte ich es gekauft. An der Physik ist aber trotzdem nichts herumzudeuten. Die Verzerrung spricht für sich. Ob man die Auflösung in der Praxis merkt ist wohl die Frage. Ich spreche ja auch nur über das Preis/Leistungs-Verhältnis, und darüber, daß das eine wirklich neues Objektiv ist, wo man eigentlich von fast perfekten optischen Eigenschaften ausgehen müsste. |
Was so Test ja auch immer Aussagen mögen.
Das Olympus 12-40 2.8 wurde als deutlich besser eingestuft und eine höhere Auflösung als beim 17mm getestet. Ich habe die beiden bei 35mm verglichen, und das 17mm hat klar die Nase vorn. Es ist aber toll was das 12-40 2.8 leistet, auch wen ja für viele das Spielzeug Format ist. Einfach bei solchen Test nie vergessen dass irgendwer die Tests auch finanziert. Ich weiss wie es in der Bike Industrie mit Tests funktioniert. Ich glaube nur noch meinen eigenen gefälschten Tests;) Gruss Markus |
Wenn keine stichhaltigen Beweise vorliegen, sollte man mit solchen Äußerungen vorsichtig sein. Das kann Ruf schädigen.
|
Zitat:
Und es gibt auch - im nichtkommerziellen Bereich - viele optische Systeme, die perfekte Abbildungen liefern (zB. Mikroskopobjektive, Optiken für die Chipfertigung, Astronomische Geräte). Das Problem sind eher die kaufmännischen Vorgaben: wie man an den neuen Zeiss-Otus-Gläsern sieht, kann man offenbar auch für "uns" hervorragende Objektive rechnen, die dann aber entsprechend kosten (>3000€). Da hat man auch 12(!) statt sonst üblichen 6 oder 7 Linsen für ein Normalobjektiv verwendet. Damit hat man wesentlich mehr Freiheitsgrade zur Korrektur der Fehler. Und wenn man dann auch noch teure Sondergläser verwendet, wird es teuer. Aber ich habe so das Gefühl, dass es ein Mordsspaß war für die Konstrukteure sich einmal so richtig austoben zu können...:lol: Wenn aber der Kaufmann sagt, dass das Objektiv maximal 300€ kosten darf und man dabei auch noch viel verdienen will, wird es sehr schwer werden - speziell, wenn die Stückzahlen klein bleiben. Die - zu Unrecht - vielgescholtenen Kit - oder Super-Zooms sind oft überraschend gut weil durch die hohen Stückzahlen durchaus ein respektabler Gewinn zu erwarten ist. Auch wenn man viele Linsen verbaut. |
Ich denke die MP der Zukunft werden nur noch einem Prozessor und nicht mehr dem RAW zur Verfügung gestellt.
Das bei dem Nokia Handy die MP nutzbar sind glaube ich nicht. Wenn jedoch der Klarbildzoom die MP wirklich nutzen kann, weil der Algorithmus stimmt ist es doch gut. @Toni. Du arbeitest doch gerne an den physikalischen Grenzen. Was meinst du, wie viel der 24MP sind für dich nutzbar? bydey |
Also ich finde diese Diskussion für das optische Verständnis beim Fotografieren ziemlich interessant.
Zu meinem Verständnis - denke ich da richtig: wenn die Auflösung der Chips an die MP-Grenze kommt, müssten die Objektive weit offen bleiben, damit keine Beugungsunschärfe entsteht. Bei Vollformat kommen wir dann an vielleicht Blende 1? Das bedeutet, dass prinzipiell bis auf eine schmale Ebene die scharf wird, der Rest hinter der Freistellung verschwindet (Pupille scharf, Rest naja). Weil, wenn man abblendet, dann die Beugungsunschärfe bemerkbar wird. Um die Schärfe dennoch zu erhöhen, müsste man den Chip verkleinern (Klarbildzoom), damit man wieder mehr abblenden kann. Als Nebeneffekt wäre dann auch möglich, besser digital zu zoomen, wenn nur genügend MP auf der Restfläche übrig blieben. Richtig? helgo |
Zitat:
Ich merke wirklich einen riesigen Unterschied bei Aufnahmen, die ich am Fernrohr mit der A700 oder A77 mache! Das Fernrohr liefert beugungsbeschränkte Bilder über ein Bildfeld, das sicher so groß ist wie der APS-C Sensor. Und dort ist die A77 viel besser als die A700. Aber auch das SAL18250 liefert bessere Bilder! Es sind also nicht nur die guten Optiken... Ich sogar noch Unterschiede zwischen der A77 mit 3,9µm und meiner Planetenkamera, die hat nur 3,75µm Pixelgröße. Gut, die ist Monochrome und hat kein AA-Filter. Aber damit sieht man, was machbar ist. Das Problem ist eher das Rauschen, denn da setzt natürlich auch die Physik eine Grenze: je kleiner die Pixel, desto schlechter ist das Signal-Rausch-Verhältnis. Aber auch da kann man durch Mehrfachbelichten und Stacken viel gewinnen. |
Da arbeitest auch mit einem schweren Stativ und hast die doppelte Auflösung. Nimm ein langes Tele und Freihand und vergleiche dann mal die Auflösung gegenüber einer Stativaufnahme mit manueller Fokussierung und Lupe. Der Unterschied ist durchaus sichtbar. ;-)
|
Zitat:
Derzeit bei 24MPix kannst bei Bl. 16 die Beugung sehen, bei Crop bei Bl. 11. Bei höherer Auflösung gehts halt dann wieder eine Blende runter. Da muss dann das Objektiv bei 5,6 sein Optimun erreichen, was mit Zeiss Linsen und normalen Brennweiten ganz gut geht. Bei längeren Brennweiten oder WW gehts dann schon nicht mehr so einfach. Bei kleineren Chips ist das noch krasser. Die RX-10 kannst defacto nur bei 2,8 und 4 ohne Beugungsverlust einsetzen, die RX-100 am Tele mit 4,9 offenblendig ist schon deutlich in der Beugung. Ist aber egal, weil die Optik da eh schon schwach ist ;-) So wird sie halt noch ein wenig schwächer. Aber abblenden, um die unscharfen Ränder scharf zu bekommen führt dann zum Verlust von Auflösung über die ganze Fläche. Das sieht man in den Objektivcharts recht gut. (Dxomark). Nur ist das ganze relativ irrelevant. Wenn jemand max. A4 ausgibt oder auf FullHD, merkt er weder die hohe Systemauflösung noch die Beugung. Und jene, die Plakate mit der Lupe betrachten wolle, werden sich halt für Zeiss um die 3000€ entscheiden müssen. Was die Bilder nicht besser nur schärfer macht ;-) |
Zitat:
|
gelöscht
|
Hier haben sich einige sehr interessante Aussagen zusammengefunden!
Hier und da würde ich gerne nochmal etwas tiefer nachhaken: @Thomas Zitat:
Von den Objektiven in meinem Institut, die an eine Flir Wärmebildkamera herangeschraubt werden weiß ich, dass diese Objektive eigentlich nur durch die ihre extrem geringe Stückzahl Kleinwagenpreise besitzten und von ihren inneren Werten eigentlich eher "nur" oberklasse Fotoobjektive sind. @Mick Zitat:
Vielleicht schaffe ich es heute noch mich im Bereich der Halbleiterfertigung heute etwas schlau zu machen. Hier trifft man ja auf genau dasselbe Problem. Sicherlich ist in einer Fertigungsstraße für 22nm jeder nur denkbare "Trick" vorhanden der sich sicher auch bei Licht anwenden lässt. @Toni Zitat:
Aktuell habe ich relativ viel mit Lockinverstärkern *1 zu tun. Seit den 80er Jahren werden dort fast unverändert Geräte verkauft. Mit diesen noch relativ einfachen Signalverarbeitung erreicht man Ausgabewerte, die noch weit unterhalb des Rauschlevels liegen. Andenkbar wäre für mich auch ein solches Prinzip z.b. durch mehrfachabtastung des Sensors. Aber vielleicht sind die Filter jetzt bereits "Rocket Science" für jeden der sich mit Signalverarbeitung nur ein wenig auskennt? @Helgo Zitat:
@Tikal Zitat:
*1 http://de.wikipedia.org/wiki/Lock-in-Verst%C3%A4rker |
moin,
Zitat:
Die genannten Objektive sind sicher näher an der Grenze, das Elmar ist ein Vierlinser und für eine Normalbrennweite lichtschwach. Die gute Qualität gilt auch an APS-C@16MPix (NEX-6), wie es sich an einer A7R macht, bleibt abzuwarten. Mir ging es mehr um den Hinweis, dass Sondergläser nicht erst seit den 1990er Jahren verwendet wurden, sondern schon viel früher und nicht nur in exotischen Spezialobjektiven. Zitat:
Zitat:
Zitat:
Mikroskopobjektive haben teilweise Öffnungen größer als f/1 (man kann die numerische Apertur NA im Nahbereich nicht wirklich in eine relative Öffnung=Blendenzahl im Unendlichen umrechnen, auch Brennweite vs. Vergrößerung geht nicht). Man fährt visuell mit dem Z-Trieb durch die Objektebenen, beim Fotografieren wird mit mehreren hundert Ebenen gestackt, und das war schon zu Filmzeiten üblich. |
Zitat:
Zitat:
Ähnlich wird es aber doch auch mit Optiken sein? Als Elektrotechniker wird man mit noch "einfacherer" Regelungstechnik "gefoltert". Egal welche Form der Korrektur man verwendet: Wichtig ist hier immer die Vorraussetzung das ein System Zeitinvariant ist. Mit anderen Worten, sich das Objektiv nicht weiter verändert. An dieser Stelle spielen Temperaturunterschiede wie auch das entstehende Spiel durch den Zoommechanismus eine große Rolle. Ich habe kein tiefgreifendes Wissen in diesen Bereichen, aber mein ing. Gefühl sagt mir, dass in solchen Techniken keine Größenordnungen drin sind. Aber ich lasse mich da gerne eines Besseren belehren. Hast du zufällig einen Link zu der genannten Arbeitsgruppe? Zitat:
Aber mal im Ernst, ist der damals sagen umwogene analoge Rauschfilter in der A700/A900 wirklich nicht viel mehr, als ein analoger Tiefpassfilter gewesen? Es ist einfach sehr schwer Marketing Gag von Rocket Science zu unterscheiden, was du eben genau mit den alten Objektiven auch schon angesprochen hast! |
Zitat:
Ich habe ein bisschen recherchiert und lenstip steht ziemlich alleine da mit diesem Review - es gibt viele begeisterte User des Oly 17/1.8 quer über die deutschen und englischen Foren ... z.B.: http://blog.entropicremnants.com/201...18-review.aspx |
Ich habe das Review nicht gelesen und auch nicht weiter gesucht. Habe auch das Objektiv nicht. Wollte es halt trotzdem mal verlinken, da ich denke das die Seite einen guten Job macht. Letztendlich hat jeder andere Prioritäten und in der Praxis sind bestimmte Eigenschaften für einen manchmal auch gar nicht so wichtig. Man kann natürlich jedem Test vorwerfen, sie hätten das nicht "korrekt" gemacht. Aber es gibt halt keine einzige korrekte Tests. Das sollte man zumindest im Hinterkopf haben.
|
Zitat:
Wie auch immer. Ich halte die Tests von Lenstip eigentlich für recht stichhaltig, weil sehr wissenschaftlich. Momentan für mich vertrauenswürdiger als z.B. DPreview. Wie auch immer. Ich habe einen Kollegen der es sich wohl demnächst leisten wird, dann kann ich nachfragen. |
Alle Zeitangaben in WEZ +2. Es ist jetzt 01:16 Uhr. |