![]() |
Wenn keine stichhaltigen Beweise vorliegen, sollte man mit solchen Äußerungen vorsichtig sein. Das kann Ruf schädigen.
|
Zitat:
Und es gibt auch - im nichtkommerziellen Bereich - viele optische Systeme, die perfekte Abbildungen liefern (zB. Mikroskopobjektive, Optiken für die Chipfertigung, Astronomische Geräte). Das Problem sind eher die kaufmännischen Vorgaben: wie man an den neuen Zeiss-Otus-Gläsern sieht, kann man offenbar auch für "uns" hervorragende Objektive rechnen, die dann aber entsprechend kosten (>3000€). Da hat man auch 12(!) statt sonst üblichen 6 oder 7 Linsen für ein Normalobjektiv verwendet. Damit hat man wesentlich mehr Freiheitsgrade zur Korrektur der Fehler. Und wenn man dann auch noch teure Sondergläser verwendet, wird es teuer. Aber ich habe so das Gefühl, dass es ein Mordsspaß war für die Konstrukteure sich einmal so richtig austoben zu können...:lol: Wenn aber der Kaufmann sagt, dass das Objektiv maximal 300€ kosten darf und man dabei auch noch viel verdienen will, wird es sehr schwer werden - speziell, wenn die Stückzahlen klein bleiben. Die - zu Unrecht - vielgescholtenen Kit - oder Super-Zooms sind oft überraschend gut weil durch die hohen Stückzahlen durchaus ein respektabler Gewinn zu erwarten ist. Auch wenn man viele Linsen verbaut. |
Ich denke die MP der Zukunft werden nur noch einem Prozessor und nicht mehr dem RAW zur Verfügung gestellt.
Das bei dem Nokia Handy die MP nutzbar sind glaube ich nicht. Wenn jedoch der Klarbildzoom die MP wirklich nutzen kann, weil der Algorithmus stimmt ist es doch gut. @Toni. Du arbeitest doch gerne an den physikalischen Grenzen. Was meinst du, wie viel der 24MP sind für dich nutzbar? bydey |
Also ich finde diese Diskussion für das optische Verständnis beim Fotografieren ziemlich interessant.
Zu meinem Verständnis - denke ich da richtig: wenn die Auflösung der Chips an die MP-Grenze kommt, müssten die Objektive weit offen bleiben, damit keine Beugungsunschärfe entsteht. Bei Vollformat kommen wir dann an vielleicht Blende 1? Das bedeutet, dass prinzipiell bis auf eine schmale Ebene die scharf wird, der Rest hinter der Freistellung verschwindet (Pupille scharf, Rest naja). Weil, wenn man abblendet, dann die Beugungsunschärfe bemerkbar wird. Um die Schärfe dennoch zu erhöhen, müsste man den Chip verkleinern (Klarbildzoom), damit man wieder mehr abblenden kann. Als Nebeneffekt wäre dann auch möglich, besser digital zu zoomen, wenn nur genügend MP auf der Restfläche übrig blieben. Richtig? helgo |
Zitat:
Ich merke wirklich einen riesigen Unterschied bei Aufnahmen, die ich am Fernrohr mit der A700 oder A77 mache! Das Fernrohr liefert beugungsbeschränkte Bilder über ein Bildfeld, das sicher so groß ist wie der APS-C Sensor. Und dort ist die A77 viel besser als die A700. Aber auch das SAL18250 liefert bessere Bilder! Es sind also nicht nur die guten Optiken... Ich sogar noch Unterschiede zwischen der A77 mit 3,9µm und meiner Planetenkamera, die hat nur 3,75µm Pixelgröße. Gut, die ist Monochrome und hat kein AA-Filter. Aber damit sieht man, was machbar ist. Das Problem ist eher das Rauschen, denn da setzt natürlich auch die Physik eine Grenze: je kleiner die Pixel, desto schlechter ist das Signal-Rausch-Verhältnis. Aber auch da kann man durch Mehrfachbelichten und Stacken viel gewinnen. |
Da arbeitest auch mit einem schweren Stativ und hast die doppelte Auflösung. Nimm ein langes Tele und Freihand und vergleiche dann mal die Auflösung gegenüber einer Stativaufnahme mit manueller Fokussierung und Lupe. Der Unterschied ist durchaus sichtbar. ;-)
|
Zitat:
Derzeit bei 24MPix kannst bei Bl. 16 die Beugung sehen, bei Crop bei Bl. 11. Bei höherer Auflösung gehts halt dann wieder eine Blende runter. Da muss dann das Objektiv bei 5,6 sein Optimun erreichen, was mit Zeiss Linsen und normalen Brennweiten ganz gut geht. Bei längeren Brennweiten oder WW gehts dann schon nicht mehr so einfach. Bei kleineren Chips ist das noch krasser. Die RX-10 kannst defacto nur bei 2,8 und 4 ohne Beugungsverlust einsetzen, die RX-100 am Tele mit 4,9 offenblendig ist schon deutlich in der Beugung. Ist aber egal, weil die Optik da eh schon schwach ist ;-) So wird sie halt noch ein wenig schwächer. Aber abblenden, um die unscharfen Ränder scharf zu bekommen führt dann zum Verlust von Auflösung über die ganze Fläche. Das sieht man in den Objektivcharts recht gut. (Dxomark). Nur ist das ganze relativ irrelevant. Wenn jemand max. A4 ausgibt oder auf FullHD, merkt er weder die hohe Systemauflösung noch die Beugung. Und jene, die Plakate mit der Lupe betrachten wolle, werden sich halt für Zeiss um die 3000€ entscheiden müssen. Was die Bilder nicht besser nur schärfer macht ;-) |
Zitat:
|
gelöscht
|
Hier haben sich einige sehr interessante Aussagen zusammengefunden!
Hier und da würde ich gerne nochmal etwas tiefer nachhaken: @Thomas Zitat:
Von den Objektiven in meinem Institut, die an eine Flir Wärmebildkamera herangeschraubt werden weiß ich, dass diese Objektive eigentlich nur durch die ihre extrem geringe Stückzahl Kleinwagenpreise besitzten und von ihren inneren Werten eigentlich eher "nur" oberklasse Fotoobjektive sind. @Mick Zitat:
Vielleicht schaffe ich es heute noch mich im Bereich der Halbleiterfertigung heute etwas schlau zu machen. Hier trifft man ja auf genau dasselbe Problem. Sicherlich ist in einer Fertigungsstraße für 22nm jeder nur denkbare "Trick" vorhanden der sich sicher auch bei Licht anwenden lässt. @Toni Zitat:
Aktuell habe ich relativ viel mit Lockinverstärkern *1 zu tun. Seit den 80er Jahren werden dort fast unverändert Geräte verkauft. Mit diesen noch relativ einfachen Signalverarbeitung erreicht man Ausgabewerte, die noch weit unterhalb des Rauschlevels liegen. Andenkbar wäre für mich auch ein solches Prinzip z.b. durch mehrfachabtastung des Sensors. Aber vielleicht sind die Filter jetzt bereits "Rocket Science" für jeden der sich mit Signalverarbeitung nur ein wenig auskennt? @Helgo Zitat:
@Tikal Zitat:
*1 http://de.wikipedia.org/wiki/Lock-in-Verst%C3%A4rker |
Alle Zeitangaben in WEZ +2. Es ist jetzt 07:47 Uhr. |