![]() |
Beugungsunschärfe meist nicht sichtbar! (Off-Topic-Beiträge)
Edit RainerV:
Da in diesem Thread über so ziemlich alles diskutiert wurde, nur nicht über den folgenden Originalbeitrag, habe ich den Originalbeitrag und die wenigen, sich darauf beziehenden Antworten in einen neuen Thread ausgelagert. Wer also zum eigentlichen Thema etwas sagen möchte, der tue das bitte hier! Hallo, meiner Meinung nach werden die wenigsten Bilder wegen der Beugung unscharf. In der Mehrzahl der Fälle sind sicher Verwackeln oder Fehlfokus die Ursache für unscharfe Bilder. Ich habe mal versucht, den Einfluß der Beugung in Abhängigkeit von der eingestellten Blende zu veranschaulichen und mit der Theorie zu vergleichen. Kamera: Alpha 900 Objektiv: Sigma Makro 50mm/2,8 Abbildungsmaßstab 1:1, damit hohe effektive Blendenzahlen erreicht werden. Vorlage: USAF-1951 Testbild in Durchlicht Beleuchtung: Blitz Blendenreihe von effektiv 5,6 bis Blendenzahl 90 (das entspricht den eingestellten Werten 2,8 bis 45) Kameraeinstellung: extrafein (Bitte keine Diskussion JPG<-->RAW...) Die Striche und Lücken zwischen den Strichen sind auf der Testvorlage gleich groß. Ich habe deshalb versucht, die Elemente herauszusuchen, bei denen die Striche nicht nur erkennbar, sondern deutlich voneinander getrennt sichtbar sind. Das theor. Auflösungsvermögen habe ich zum Vergleich mit der Formel A = 1/(1.22*0.0006*Blendenzahl) Lp/mm berechnet. Sicher stimmen die Blendenwerte bei dieser Kamera-Objektiv-Kombination nicht 100-prozentig, Fehler in der Größenordnung einer drittel Blende sind sicher nicht ausgeschlossen... ![]() -> Bild in der Galerie Anhand dieser Tabelle ![]() -> Bild in der Galerie kann jeder seine eigenes Auswertung vornahmen. Nicht die Beugung bestimmt im Allgemeinen das Auflösungsvermögen, sondern der Sensor der Kamera! Das Auflösungsvermögen des Sensors liegt bei etwa 40 Lp/mm, wie schon meine Bilder eines Strichgitters zeigten. Gruß, Stuessi edit: Damit einige Ergebnisse nicht verloren gehen, stelle ich sie hier rein. ![]() -> Bild in der Galerie Mit viel Phantasie kann man die Striche rechts oben (7.1) noch bei den oberen Ausschnitten erkennen: mehr als 120 Lp/mm. ![]() -> Bild in der Galerie So sieht es aus, wenn ich die Negative mit dem Nikon Coolscan V scanne, der eine nominelle Auflösung von 4000 dpi, entspr. 80 Lp/mm hat. ![]() -> Bild in der Galerie Gegenstandsgröße(Lochdurchmesser) ca. 0,5mm ===> Bildgröße ca. 3µm (Strahlensatz), die Linsen- und Fokussierfehler und Beugung (Beugungsscheibchen von etwa 8µm Durchmesser) vergrößern das Bild. Der Pixelabstand bei der 7D beträgt etwa 8µm. ![]() -> Bild in der Galerie |
Zitat:
ein wahrer Satz...den ich mir gern im anderen Fred von dir gewünscht hätte :top: denn er betrifft 99% aller Fotografen sowie 99% aller Bilder :cool: an Stuessies Arbeit hat keiner was auszusetzen nur...in 99% der Fälle spielt es eben keine Rolle ;) und das mein ToniB hätte ich mir auch von jemandem erwartet der im Lehramt tätig ist:top: den Zeiss Mythos wieder "hochzureden" ist in diesem Zusammenhang(Amateurforum) ein Witz... den meisten ist nach dem (teuren)DSLR-Kauf doch recht schnell klar... das es faktisch KEINE scharfen Kameras...für wenig Geld gibt, (Zeiss)Objektive dann bis locker zum vierfachen mehr kosten... und das, wegen den 1% die die meisten gar nicht wahrnehmen können:P ( was übrigends das Thema im anderen Fred war!) aber, weils Spass macht werfe ich mal weitere wichtige Faktoren in den Ring>>> der Monitor:shock: selbst die besten haben Auflösungen von "nur" 72 bis etwas über 105 (monitor-Dpi)... damit kann überhaupt keiner am Moni....ein wirklich scharfes Bild sehen, denn selbst mit meinen mittlerweilen schlechteren Augen sehe ich aus ca. 50cm deutlich das Pixelmuster:roll: und Ausdrucken kann man auch nicht trauen>>> 1) Standart Fotopapiere im Vergrößerer belichtet, stellen ca 300 Dpi da, ziehen es aber "schmusig zusammen" 2) Digital-Prints werden mit Laser(oder ähnlichen) belichtern gemacht... zeigen in der Tiefe eben auch Muster und Raster(Lambda) 3) Tintenstrahler, die immer besser werden....können wiederum "gar nicht unscharf" abbilden denn, bekanntlich sind Tintentropfen>>> immer scharf, weil immer gleiche Größe, und nur der Misch-Überlagerungseffekt betrügt das Auge ich frage mich also... warum man das (bestehende) Beugungsthema ständig derart überbewerten muss... und sich auch noch in die Wolle bekommt :shock::cool:;) gerechterweise müsten dann die anderen ca. 10 optischen Problemfälle aus dem Objektibau.... ständig mitberücksichtigt werden :top: macht praktisch aber keiner :cool: man beißt sich lieber an etwas fest, weil irgendwo steht, das Bilder ab f11 unscharf werden :oops: Mfg gpo |
Zitat:
Zitat:
Zitat:
Zitat:
Ja, wenn jemand mit der technischen Qualität (Schärfe) seiner Bilder nicht zufrieden ist und daraufhin z.B. ein bei f32 aufgenommenes Beispiel zeigt, dann wird die Beugung als mögliche Ursache für nicht optimale Ergebnisse erwähnt - idR. zusammen mit weiteren. Ich finde das völlig legitim und es kann auch angebracht sein - genau das hat Stuessi hier m.E.n. gezeigt! Also wo genau ist eigentlich das Problem? Zitat:
|
Zitat:
Zitat:
Nur eines: bei 100% aller Aufnahmen tritt Beugung auf! Ob sie bildbestimmend wird, ist eine andere Frage... Zitat:
Dem Rest der Ausführungen kann ich nur bedingt folgen, denn die Auflösung eines Monitors hat mMn überhaupt nichts damit zu tun - man kann ja beliebig reinzoomen.. |
Hallo !
Ich möchte das Thema mal etwas ausweiten. Was Beugung ist,kann man ja physkalisch erklären. Ob man sie bemerkt hängt von vielen Faktoren ab. Mit verschiedenen -auch hier angesprochenen-Dingen habe ich beim genaueren Versuch der Definition aber Schwierigkeiten: Was ist 100% Darstellung ? Meint man damit ein Kamerapixel=1 Monitorpixel ? Wenn ja, ist ein einzelnes lichtempfindliches Element gemeint, oder, da man ja mehrere zur Farbdarstellung benötigt,das zusammengerechnete Resultat von mehreren Elementen. Das gilt für Aufnahme wie Wiedegabe. Einfach gesagt:Wenn eine Kamera 12 Mio. Pixel hat, hat sie dann auch 12Mio.verschieden darstellbare "Punkte"? Wenn ein Monitor eine Auflösung von 1280X1024 hat, wieviel farbige Elemente kann er dann darstellen? Sehe ich Bilder auf kleinem Monitor "schärfer" wie auf großem? Ich habe oft das Problem mit Begriffen umzugehen, die mir bei genauer Betrachtung zeigen, daß ich sie nicht richtig verstanden habe. Daß gilt nicht nur für Fotografie ! Wenn ich solche "Selbstverständlichkeiten" hier frage, mich bitte nicht verhauen, ich betrachte mich nämlich als "Normaldoof" Gruß HANS |
Zitat:
dann mache ich das mal :cool: in der Tat haben unsere Experten ein Mitteilungsproblem...wie man hier und im anderen Fred wunderschön lesen kann :P denn auch dort ging es um eine Bild was "augenscheinlich" keine Beugungsprobleme hatte.... wie man hier...aber eben auch in anderen Foren lesen kann, wird faktisch JEDES Bild was reingestellt wird,....nach der Beugung "untersucht" :roll: Genau diese Leute zeigen aber eben selten "was besseres" noch können sie es einfach fotografisch begründen denn... >>> ein gutes Bild bleibt ein gutes Bild auch wenn die Beugung gnadenlos zuschlägt... das kann man von "Schärfe und Unschärfe" genauso behaupten...denn, meist sind solche Sachen unwiederholbar, also einmalig und das ist es dann egal... wie sehr die physikalischen Bedingungen zugeschlagen haben :top: nur leider sind unsere Experten nicht in der Lage DAS hinzunehmen... ich kann es hinnehmen denn... egal wie ich eine Kamera malträtiert hatte...es hat sich noch NIE ein Kunde über Beugungsprobleme beschwert :cool: (auch nicht die wahren Experten der Druckvorstufe...die es wohl sahen :P) anders gesagt... wenn ständig bei Bildkritik/Besprechung....vorhandene aber kaum sichtbare Beugung.....als erste Prämisse genannt wird... ist etwas faul im Staate :cry: Kein Profi aus meinem Bereich hat je um diesen Begriff so ein Bohei gemacht... wenn das Bild gut, der Job OK waren, kümmert sich keine Sau mehr um Physik :D Mfg gpo |
Zunächst einmal vielen Dank an Stuessi, für die ausführliche Erläuterung nebst abfotografierter Testcharts :top:.
Bei mir ist allerdings so, dass ich keine zweidimensionalen Testtafeln fotografiere, sondern Objekte/Subjekte in der realen Welt :D. Und da gibt es nicht nur die Beugungsunscharfe sondern eben auch die Tiefenunschärfe, beides muss ich halt unter einen Hut bringen. Zitat:
Aber wie schon im anderen Thread gesagt: Soll doch jeder nach seiner Façon selig werden. Mir tun nur die immer zahlreicher werdenden Einsteiger hier im Forum leid, wenn wirklich alles problematisiert wird. Martin |
@gpo
Leider hast du die Fragen von Hans überhaupt nicht beantwortet - warum auch immer. Deine Interpretation, dass "jedes Bild nach Beugung" durchsucht wird, kann ich überhaupt nicht nachvollziehen. ICH durchsuche überhaupt keine Bilder nach Beugung. Meine Beiträge gab es nur dann, wenn falsche Dinge behauptet wurden ala "Theorie und Praxis" usw. Als ob Beugung eine "Theorie" sei, die erst bewiesen werden müsste! Mein Anliegen in diesem Zusammenhang ist und war, die physikalischen Tatsachen darzustellen - leider offensichtlich von vielen nicht verstanden. @Hans 100% sollte, wie du richtig vermutet hast, bedeuten, dass 1Pxl des Sensors 1Pxl am Bildschirm entspricht. Dieses eine Pixel des Sensors bezieht aber seine Farbinformation aus mehreren Nachbarpixeln. Aus dieser "Rechnerei" ergibt sich eine geringere Auflösung (siehe Stuessis Beispiele), trotzdem wir gemeinhin jedem Pixel zB. bei einem 12MP Sensor ein Pixel vom Bildschirm zugeordnet, wenn man von 100% spricht. Ob Sinnhaftig oder nicht, sei dahingestellt. Und ein Bildschirm mit 1024x768 hat für jedes dieser Pixel drei Farbpixel. |
@ Toni !
Ein Monitor mit 1280PX Horizontal hat also 3840 beleuchtete Punkte horizontal Ein lichtempfindliches Element der Kamera muß also 4digitale Werte weitergeben(Helligkeit,RGB Anteile), wobei von dieser lichtempfinlichen Einheit nur ein Wert, die Helligkeit ,erfaßt werden kann.Der Rest wird aus Rechnung hinzugefügt. So habe ich das bisher interpretiert. Richtig ? HANS |
Zitat:
jedes der 12 Millionen Pixel der Alpha 700 zeichnet immer nur einen einzigen Helligkeitswert auf. 50% der Pixel werden durch ein Grünfilter, und je 25% durch ein Blau- bzw. Rotfilter hindurch belichtet. Die Helligkeit wird in 4096 Abstufungen gespeichert. In einem RGB-Bild (gespeichert z.B. in einem JPG oder TIF) wird allerdings pro Pixel jeweils ein Rot-, ein Grün- und ein Blauwert in einer Helligkeitsausprägung von 0 bis 255 (oder auch 0 bis 65535) gespeichert. Da, wie gesagt, aber pro Pixel nur ein einziger Helligkeitswert durch den Sensor aufgezeichnet wird, werden die anderen beiden Farbinformationen aus den Nachbarpixeln interpoliert. Auf gut deutsch: 2/3 der Farbinformationen in einem RGB-Bild sind zu den eigentlichen Sensordaten "hinzuinterpoliert". In der 100%-Ansicht wird ein solches RGB-Pixel dann durch ein Monitorpixel, das ebenfalls aus drei Helligkeitswerten für Rot, Grün und Blau besteht, dargestellt. Rainer |
Alle Zeitangaben in WEZ +2. Es ist jetzt 11:57 Uhr. |