Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Welche Sensorgröße (APS-C) landet wirklich im Bild?


maceis
12.05.2021, 22:33
Hallo zusammen,

ich habe eine eher theoretische Frage.
In meinem Fall geht es konkret um eine Alpha 6400.

In den Datenblättern kann man ja die Sensorgröße in mm nachlesen.
Ich habe aber irgendwo auch mal gelesen, dass im aufgenommenen Bild (RAW-Format) nicht die komplette Sensorfläche bis zum Rand gespeichert wird.
Ein gewisser Randbereich wird aus technischen Gründen abgeschnitten.

Mich würde nun interessieren, ob bekannt ist, welche reale Größe des Sensors (Länge mal Breite in mm) bei Aufnahme im RAW Format in der Bilddatei abgespeichert wird.
Hintergrund ist, dass ich für eine spezielle mikrofotografische Einrichtung die reale Endvergrößerung ausrechnen möchte.

Vielen Dank im Voraus
Herzliche Grüße
maceis

jsffm
12.05.2021, 23:09
Gespeichert wird immer die ganze Sensorgröße, erst bei der Nachverarbeitung wird evtl. was abgeschnitten, wenn Verzeichnung korrigiert werden muss.

flyppo
12.05.2021, 23:48
Z.B. sowas, was Sony bei Objektiven verzappt. Im RAW werden die Ecken einfach durch das Objektiv beschattet, im JPG weggeschnitten. Beides aus der Kamera.

https://abload.de/img/comp_bk_raw28ks

https://abload.de/img/comp_bk_jpgpejfe.jpg

Edit by peter2tria: Direkt eingebundene eigene Bilder dürfen nach den Forenregeln nur max. 600x600 Pixel und max. 200 KB haben. Sonst bitte die Galerie nutzen. Dort sind Bildgrößen bis max. 2400x1600 Pixel und max. 1536 KB möglich.

Tobbser
13.05.2021, 00:09
Hoi flyppo,

leg doch mal ein Lineal an die Steinkanten bei beiden Bildern. Hier wird, wie Jürgen schon schrieb, Verzeichnung korrigiert. Das kann man natürlich auch mit anderthalb Kilogramm mehr Spezialglas hinbekommen, aber das kauft dann (fast) keiner mehr und braucht auch (fast) keiner. Spannend ist die Frage habe ich im unteren Bild trotzdem noch die angegebene Brennweite und im Sinne des TO, wie viel % wird wegschnitten und gezerrt. Ich messe mit dem Lineal ca.in der Horizontalen 5% in der Mitte bis 10% in den Ecken un in der Senkrechten 2,5% in der Mitte bis 5% in den Ecken.

Liebe Grüsse
Tobias

Gerhard-7D
13.05.2021, 00:12
Gespeichert wird immer die ganze Sensorgröße, erst bei der Nachverarbeitung wird evtl. was abgeschnitten, wenn Verzeichnung korrigiert werden muss.

Hallo,

ich habe nochmal bei Digitalkamera.de nachgesehen, da wird z.B. bei der A77V folgendes angegeben:

CMOS-Sensor APS-C 23,6 x 15,8 mm (Cropfaktor 1,5)
24,7 Megapixel (physikalisch) und 24,3 Megapixel (effektiv)
Pixelpitch 3,9 µm
Fotoauflösung
6.000 x 4.000 Pixel (3:2)

Ist es nicht so, dass tatsächlich ein kleiner Randbereich der Sensorfläche entfällt, da dieser für die Korrektur des Antishake Systems als "Puffer" gebraucht wird ?

Oder wie erklären sich diese (sogar 3) unterschiedlichen MPix angaben ?

lg. Gerhard

Porty
13.05.2021, 01:03
Beim Antishake wird der Sensor verschoben. Das was Du beschreibst, macht man bei Video von Bild zu Bild. Während der Belichtung eines Bildes geht das nicht, da müsste man ja während der Belichtung die Pixel auf dem Sensor umadressieren.

TONI_B
13.05.2021, 08:04
Hintergrund ist, dass ich für eine spezielle mikrofotografische Einrichtung die reale Endvergrößerung ausrechnen möchte.Wenn du es in einem wissenschaftlichen Kontext genau haben willst, musst du ohnehin eine reale Kalibration durchführen: ein Objekt mit genau bekannter Größe wird fotografiert und daraus wird dann der Abbildungsmaßstab in Pixel pro mm oder µm berechnet.

Es gibt für alle Anwendungen (kalibrierte) Maßstäbe und je nach geforderter Genauigkeit reicht beispielsweise schon ein Lineal aus. Danach gibt es geätzte Skalen (https://www.amazon.de/Stage-Mikrometer-Mikroskop-Kamera-Kalibrierung/dp/B078QJHKFX/ref=asc_df_B078QJHKFX/?tag=googshopde-21&linkCode=df0&hvadid=309338941342&hvpos=&hvnetw=g&hvrand=13745038593978608411&hvpone=&hvptwo=&hvqmt=&hvdev=c&hvdvcmdl=&hvlocint=&hvlocphy=20044&hvtargid=pla-456727641499&psc=1&th=1&psc=1&tag=&ref=&adgrpid=63230907802&hvpone=&hvptwo=&hvadid=309338941342&hvpos=&hvnetw=g&hvrand=13745038593978608411&hvqmt=&hvdev=c&hvdvcmdl=&hvlocint=&hvlocphy=20044&hvtargid=pla-456727641499) auf Glas im Bereich von 1mm bis 100µm, die gar nicht so teuer sind.

maceis
14.05.2021, 11:01
Hallo zusammen,

vielen Dank für Eure Beiträge.
Die Bilderlinks kann ich leider nicht aufrufen.

Es geht bei mir nicht um wissenschaftliche Exaktheit, ich möchte es aus Eigeninteresse möglichst genau wissen.

Objektmikrometer habe ich.
Bezahlbare werden i. d. R. in China gefertigt und es gibt keine konkreten Angaben, über deren Genauigkeit.
Allein die Strichdicke macht beispielsweise bei einer Messlänge von 100 µm schon über 10% aus. Hinzu kommen, wenn auch geringe, Abbildungsfehler wie z. B. chromatische Aberrationen.

Teilweise wird auch mit menschlichen Blutzellen kalibriert, die eine bekannt Größe haben, aber auch hier gibt es eine geringe Spreizung.

In dem Artikel, den ich im Hinterkopf habe, hieß es, dass die Randpixel nur für die Berechnung der Korrektur von Fehlern am Rand und ähnliches verarbeitet werden. Das in der RAW Datei abgesicherte Bild sei etwas kleiner, als die absolute Sensorgröße.

Mich würde interessieren, welche physikalische Größe die 6.000 x 4.000 Pixel der RAW Datei in der Sensorebene haben.

Viele Grüße
maceis

usch
14.05.2021, 11:59
Wie Toni schieb: Selber nachmessen. Und zwar am besten, indem du auf einer optischen Bank eine Messskala direkt auf den Sensor projizierst, denn sonst hast du zusätzlich noch die Toleranzen von Objektivbrennweite und Auflagemaß drin.

wus
14.05.2021, 12:35
Mich würde interessieren, welche physikalische Größe die 6.000 x 4.000 Pixel der RAW Datei in der Sensorebene haben.Wenn diese Angaben
CMOS-Sensor APS-C 23,6 x 15,8 mm (Cropfaktor 1,5)
24,7 Megapixel (physikalisch) und 24,3 Megapixel (effektiv)
Pixelpitch 3,9 µm
Fotoauflösung
6.000 x 4.000 Pixel (3:2)
stimmten, genau und komplett wären, der mit Pixeln versehene, aber nicht mit abgespeicherte Randbereich rundum gleich breit wäre, es nicht noch einen zuätzlichen schmalen, elektronisch gar nicht benützen Randbereich gäbe, der aus Gründen der limitierten Fertigungspräzision aber sicher nötig ist (die Sensoren werden ja in großer Anzahl auf Wafern gefertigt, die dann in die einzelnen Sensoren zersägt werden), könnte man das aus diesen Angaben ja ausrechnen.

Leider sind sie das aber nicht, zumindest nicht im Fall der α77 (deren Sensor wahrscheinlich der gleiche ist wie der der α6400). Die α77 JPGs haben 6000 x 4000 Pixel, also genau 24 MP. Ihre RAWs haben laut Faststone Image Viewer 6024 x 4024 Pixel, was ausmultipliziert aber nicht 24,3, sondern nur 24,24 MP ergibt.

Der Crop Faktor ist auch nicht genau 1,5. Wenn man es nachrechnet kommt man auf 1,5254 (horizontal) und 1,5190 (vertikal).

Um die genaue Größe des netto verwendeten Sensorbereichs ohne optische Bank auszumessen bräuchte man m.E. nicht nur ein Objekt mit sehr genau bekannter Größe (Maßstab), sondern auch ein Objektiv mit extrem genau bekannter Brennweite und Nodalpunktlage. Letzteres gehört leider nicht zu den Angaben die Hersteller von Consumerobjektiven machen. Und auch die Brennweitenangaben stimmen nicht immer genau, ganz im Gegenteil gibt es hier nicht so selten deutliche Abweichungen. Und natürlich müsste man bei dieser Messung auch extrem genau arbeiten!

Das alles macht diese Messung nicht gerade trivial. Und das ist noch milde ausgedrückt.

TONI_B
14.05.2021, 12:57
Vielleicht könnte der TO mal konkret sagen um welchen Abbildungsmaßstab es eigentlich geht und welche Genauigkeitsansprüche er hat, denn so stochern wir ein wenig im Nebel herum...

Auf die Angaben der Hersteller würde ich mich nicht verlassen und verstehe auch nicht was das mit den Randpixeln zu tun haben sollte.

Wie "wissenschaftlich" muss es sein?

Wenn ohnehin schon ein Objektmikrometer vorhanden ist, macht man möglichst viele Messungen, damit sich etwaige Fehler z.T. rausmitteln bzw. damit man sieht wie konsistent die Messungen sind. Und dass die Dicke der Striche bei einem Mikrometer nicht konstant ist, ist zwar nicht gut, aber das sollte nicht wirklich ein Problem darstellen: mittels EBV einen Linescan drüberlegen! Dann kann man mit Subpixelgenauigkeit arbeiten.

Also bitte ein bisschen mehr Fantasie ist angesagt...:cool:

maceis
14.05.2021, 14:51
Hallo nochmal,

Danke für Euer Interesse und die neuen Antworten.

Zunächst möchte ich noch einmal sagen, dass es nicht um irgendwelche wissenschaftliche Anforderungen geht, sondern um rein "hobbymäßiges" Eigeninteresse. Ich möchte auch noch einmal sagen, dass ich bereits gemessen habe und die daraus gewonnenen Erkenntnisse überprüfen und dabei alle mir zugängliche Informationen einfließen lassen möchte.

Die Frage nach dem Abbildungsmaßstab beantworte ich gerne etwas ausführlich und beschreibe mal das komplette System konkret.

Zur Anwendung kommt ein Differentialinterferenzkontrastmikroskop (Leitz Orthoplan mit entsprechender Ausstattung) mit einer speziellen Kameraadaption.

Für die Kameraadaption wurde ein speziell auf die verwendete Mikroskopoptik angepasste Optik aus einer alten Mikrosopkamera (Leitz Vario Orthomat Kamerasystem) verwendet, die ursprünglich für Aufnahmen mit klassischem analogen Kleinbildfilm entwickelt wurde. Diese Optik besteht aus einem Linsensystem, welches u. a. die Restabbildungsfehler der Mikroskopotik weitestgehend kompensieren soll, was auch sehr gut funktioniert. Das ganze wurde so umgebaut, dass ich die Kamera über eine T2-Anschluss anbringen kann.

Ich versuche mal den Beleuchtungsstrahlengang zu erklären, woraus sich dann auch die nominale Endvergrößerung ergibt. Ich muss allerdings einräumen, dass das schon an die Grenzen meines physikalischen Verständnisses geht.

Es geht los mit einer Beleuchtungseinrichtung, deren Licht über ein Linsensystem und Umlenkspiegel durch den Fuß des Stativs von unten eingespiegelt wird. Das Licht durchläuft dann zunächst eine Einrichtung, die aus zahlreichen Komponenten zur Zentrierung und Manipulation des Lichtes besteht. Die wichtigsten davon sind ein linearer Polarisatior, eine Verzögerungsplatte (λ/4), eine Aperturblende, ein Linsensystem (Kondensor) und ein Wollastonprisma.
Das so "manipulierte" Licht durchläuft das beobachtete Objekt und tritt dann in das Objektiv ein. Für diese Art der Beobachtung verwende ich Objektive mit nominalen Vergrößerungsmaßstäben 25x, 40x und 100x.
Das Licht durchläuft dann ein weiteres Wollastonprisma, eine Tubusoptik mit einem Vergrößerungsmaßsstab von nominal 1,25x und einen weiteren Linearpolarisator.
Im Kopf wird das Licht über Prismen aufgespaltet.
20% gelangen in den Beobachtungsstrahlengang. Das entstehende virtuelle Zwischenbild kann ich dann über Okulare mit einer Vergrößerung von 10x betrachten.
80% gelangen in die Ortomathoptik. Die kleinste Nachvergrößerung (es ist ein Zoomsystem), mit der ich bisher auch gemessen habe, beträgt 2:1.
Über ein zweistufiges System können die beiden Abbildungen parfokal justiert werden, damit das Kamerabild über die Okulare scharfgestellt werden kann.

Für das 40x Objektiv sieht die rechnerische Endvergrößerung dann so aus:
40 x 1,25 x 2 = 100
Messtechnisch ermittelt habe ich eine Bildbreite (bei 6.000 x 4.000 im ARW Format) von 239 µm.
Daraus ergäbe sich eine Sensorbreite von 23,9 mm.
Laut Sony Datenblatt ist der Sensor 23,5 mm breit, was einer Abweichung von sehr akzeptablen 1,70 % entspricht.

Und jetzt stelle ich mir die Frage, ob die 23,5 mm Sensorbreite den 6.000 Pixeln entspricht oder ob das vielleicht verkaufsfördernd geschönten Angaben sind.
Wenn die 6.000 Pixel beispielsweise nur 23,0 mm auf dem Sensor entsprechen, läge die Abweichung bei (immer noch brauchbaren) 3,91 %.

Nochmal: Die ganze Fragestellung hat eigentlich keinen tieferen Sinn, als meine persönliche Neugier. Mir ist auch völlig bewusst, dass die unvermeidbaren Abweichungen viel Gründe haben können. Die Vergrößerugsmaßstäbe der Mikroskopkomponenten sind z. B. sicher auch nicht auf die Kommastelle genau. Die Manipulation durch die oben beschriebenen Prismen etc. können zu Verzerrungen führen usw.

Ich hoffe, ich konnte mit meinen Ausführungen klarmachen, worauf meine Frage abzielt.

Viele Grüße
Martin

usch
14.05.2021, 15:06
Da wirst du Sony fragen müssen, nicht uns. Wir kennen ja auch nur die veröffentlichten technischen Daten. Und da ist nirgends dokumentiert, worauf sich die angegebene Sensorgröße bezieht:


Den kompletten Chip inklusive Ausleseelektronik, Kontaktierung usw.?
Den Brutto-Pixelbereich von 24,7 MP inklusive der nicht genutzten Ränder?
Den in den Raw-Dateien gespeicherten Ausschnitt von 6024x4024 Pixeln?
Den nominalen Bereich von 6000x4000 Pixeln?


:zuck:

TONI_B
14.05.2021, 15:35
Für die Objektive gilt eine Toleranz von 5%. D.h. du bist mit deinen 1,7% ohnehin im richtigen Bereich.

Wie hast du die 239µm ermittelt? Mit dem Objektmikrometer? Dem würde ich mehr trauen als den Angaben der Vergrößerungen bei den Objektiven - speziell bei den Zwischenoptiken!

D.h. wenn du bei mehreren (vielen) Messungen mit dem Objektmikrometer den Abbildungsmaßstab (in Pixel/µm) bestimmt hast, kannst du auch auf die effektive Vergrößerung schließen, die du erreichst.

Aber nicht über die Gesamtanzahl der Pixel des Sensors, sondern eben über Bilder, wo du per EBV die Anzahl der Pixel bestimmst, die auf zB. 100µm abgebildet werden.

Die Vergrößerung ist ja über den Abbildungsmaßstab und nicht unbedingt über das Bildfeld definiert.

Also: Bestimmung der Pixel pro µm und alles ist im Lot...:cool:

DiKo
14.05.2021, 15:51
Moin,

angegeben ist zumindest für den IMX271AQR (https://www.sony-semicon.co.jp/products/common/pdf/IMX271AQR_Flyer.pdf) die Diagonale des aktiven Bereichs: 28,4mm
Der aktive Bereich umfasst die 6024x4024Pixel, die auch im RAW gespeichert werden.
Der Pixel sind als quadratisch angegeben, von daher ist der Rest jetzt Rechenarbeit.

Dieser oder eine Sony-interne Variation davon ist der Sensor, der in den neueren APS-C Kameras seit 2018 verbaut worden ist.

Gruß, Dirk

maceis
14.05.2021, 15:53
Hallo zusammen,

Da wirst du Sony fragen müssen, nicht uns. Wir kennen ja auch nur die veröffentlichten technischen Daten.
Hast Recht, danke. Hätte ja sein können, dass jemand mehr gefunden hat als ich.

Wie hast du die 239µm ermittelt? Mit dem Objektmikrometer?Ja, auf Grundlage einer 0,1 mm Skala.

Also: Bestimmung der Pixel pro µm und alles ist im Lot...:cool:Genau so mache ich es seit einiger Zeit mit meinem anderen Mikroskop und werde wohl auch dabei bleiben.

Ich danke Euch allen.
Viele Grüße
maceis

TONI_B
14.05.2021, 16:31
Genau so mache ich es seit einiger Zeit mit meinem anderen Mikroskop und werde wohl auch dabei bleiben.Ist sicher besser so, denn die Angabe der Hersteller, sowohl vom Chip als auch von den Mikroskopobjektiven sind ja nur von beschränkter Genauigkeit. Wie gesagt: Objektive 5% Toleranz und bei der Pixelgröße der Sensoren ist es halt nicht egal, ob 4,76 oder 4,77µm pro Pixel. Da ist deine Messung mit dem Objektmikrometer sicher genauer!

zigzag
14.05.2021, 16:37
Also, wenn ich es jetzt richtig verstehe machst Du mit einem Mikroskop DIC / Normarski aufnahmen .

Hier ist es Standard, die Auflösung zu messen. Zuvor möchte das System aber auch ordentlich geköhlert werden. Hier der erste Treffer bei Google: (klick (https://bilder.buecher.de/zusatz/42/42298/42298613_lese_1.pdf)). Auch bedarf das einstellen des Prismas schon etwas Übung. Und nicht vergessen den passenden Filter im Kondensor zum Objektiv zu wählen, sonst hast Du kein richtiges DIC. Hier steht auch auf dem Objektiv welcher dies ist (DIC II oder DIC III).

Ansonsten sprechen wir in der Mikroskopie nicht von einer Vergrößerung, sondern von Auflösung. 100x ist halt nicht gleich 100x. Bei Mikroskopobjektiven ist die NA (Numerische Apertur) weitaus interessanter. Sie beschreibt, kurz gesagt, wie viel Licht das Objektiv einsammeln kann (Öffnungswinkel) und berücksichtig auch das Immersionsmedium (Luft, Wasser oder Öl). Bei Durchlicht kommt noch die NA des Kondensors dazu. Hier ist eine Übersicht, welche Zahl auf dem Objektiv was bedeutet (Zeiss Campus (http://zeiss-campus.magnet.fsu.edu/tutorials/basics/objectivecolorcoding/indexflash.html)). Auf der Seite gibt es noch eine Menge mehr interessant Artikel zu Mikroskopen und Techniken.

So, was kann ich Dir jetzt raten :)
Nachdem Du das Mikroskop geköhlert hast, und Dir sicher bist, dass Du das Objektiv richtig verwendest (benötigst Du z.B. Wasser zwischen dem Objektiv und Deiner Probe?), machst Du erneut Aufnahmen von Deinem China-Maßstab.

Das fertige Bild öffnest Du mit Fiji bzw ImageJ (DAS Standard Programm für Mikroskopie Bilder) (Klick (https://fiji.sc/)). Wenn Du das Bild geöffnet hast, dann benutzt Du das Linien Tool und ziehst eine Linie durch Deinen Maßstab. Am besten Durch mehrere der Linien. Beim ziehen der Linie hältst Du die Shift Taste gedrückt. So wird die Linie gerade. Danack drückst Du STRG (o. CTRL) + K. Damit erstellst Du einen Plot mit mehreren "Peaks". Hier kannst Du nun von Peak zu Peak messen (wieder mit shift). Diesmal nur von einem Paek zum nächsten. Danach drückst Du STRG + M und bekommst eine Messung. Unter "Length" (ganz rechts in der Tabelle), siehst Du nun wieviele Pixel es von Peak zu Peak sind. Wenn Du mehrere Messungen machst, dann kannst Du das Ergebnis auch mitteln.

Wenn Du nun Deine eigentlichen Aufnahmen mit Fiji öffnest, dann kannst Du über SRTG+Shift+P die Eigenschaften des Bildes öffnen. Hier kannst Du nun Deinen gemessenen Wert für die Pixel angeben. Und jetzt kannst Du in Dein Bild mittels Analyze>Tools>ScaleBar einen Maßstab in Dein Bild einfügen.

Ist alles einfacher als es klingt ;-)

TONI_B
14.05.2021, 16:45
Ja, genau! Ich mache die LineScans auch mit ImageJ.

Und bezüglich "Nomarksy" kommen Erinnerungen hoch: wie viele Stunden habe ich am Mikroskop verbracht und habe damit Schichtdickenbestimmungen durchgeführt während meiner Zeit an der Uni!?

usch
14.05.2021, 16:59
angegeben ist zumindest für den IMX271AQR (https://www.sony-semicon.co.jp/products/common/pdf/IMX271AQR_Flyer.pdf) die Diagonale des aktiven Bereichs: 28,4mm
"Diagonale des aktiven Bereichs" steht da nicht. Da steht "Image Size", und danach auch wieder drei verschiedene Pixelzahlen ohne nähere Angabe, auf welche davon sich die "Image size" denn jetzt bezieht.

Der Pixel sind als quadratisch angegeben
Genauer gesagt mit 3,91µm x 3,91µm. Unter der Annahme, daß das nicht die Öffnung der Bins ist, sondern der Pixelabstand, wäre das ja gerade der gesuchte Wert.

DiKo
14.05.2021, 17:59
Da steht:

"The IMX271AQR is a diagnoal 28.4 mm (Type 1.8) CMOS active pixel type image sensor with a square pixel array and 23.32 M effective pixels."

Wenn sie sich dort auf "active pixel" beziehen und diese unten mit 6024 x 4024 angeben, warum sollte das plötzlich andere Werte annehmen?:zuck:

Oder meinst Du, das hier mit "active pixel" wieder etwas anderes gemeint ist?

Gruß, Dirk

zigzag
14.05.2021, 18:44
...
Und bezüglich "Nomarksy" kommen Erinnerungen hoch: wie viele Stunden habe ich am Mikroskop verbracht und habe damit Schichtdickenbestimmungen durchgeführt während meiner Zeit an der Uni!?

He he :-) Am Mikroskop kann man schon recht viel Zeit verbringen. Ist jetzt mein Beruf, allerdings weniger Durchlicht, eher Fluoreszenz. Normarski habe ich sehr viel während der Diplomarbeit benutzt. Entwicklung von C. elegans Embryonen. Und wenn es für den Professor nicht sauber genug eingestellt war, hat dieser auch ohne zu zögern die bereits 3h laufende Messung abgebrochen. :D

"
Genauer gesagt mit 3,91µm x 3,91µm. Unter der Annahme, daß das nicht die Öffnung der Bins ist, sondern der Pixelabstand, wäre das ja gerade der gesuchte Wert.
Wenn wir den Pixel Pitch kennen, dann ist es recht einfach. 3,91 µm (Pixel auf dem Sensor) und 100x Vergrößerung entsprechen dann 39,1 nm/ Pixel auf dem fertigen Bild.

Für die mögliche Auflösung würde man aber wie gesagt noch weitere Angaben benötigen (NA Objektiv, NA Kondensor, Wellenlänge ...). Auch darf hier das Bayern Pattern nicht vergessen werden.
Zum errechnen der theoretisch max möglichen Auflösung kann man auch die Smartphone App "Resolution" verwenden (klick (https://play.google.com/store/apps/details?id=com.Barlowax.resolutionfragments&gl=DE)). Hier kann man alle Parameter einstellen. Die Vorhanden Kameras sind glaube ich aber alles schwarz weiß Kameras (eher für Fluoreszenz) und haben kein Bayern-Pattern.

Bei der App dann auf Transmission gehen, Objektiv auswählen und NA setzen, NA des Kondensors setzen. Auch die hier verwendete Nachvergrößerung kann eingestellt werden. Unter "Set Camera" kann man den Pixel Pitch auch manuell eingeben.

Interessant sind dann 2 Werte: Image Pixel Pitch (Größe der Pixel auf dem Bild), hier dann z.B. 39,1 nm und die Theoretische max. Auflösung, welche von den NA's und der Wellenlänge abhängt. Unter Nyquist wird einem zudem gesagt, ob die Abtastrate (oder Pixelgröße) ausreicht, um die max. Auflösung auch zu erreichen. Aber mit einem 40x Luft Objektiv sollte das selbst bei 10µm großen Pixeln (auf dem Sensor) kein Problem sein. Hier bedarf es schon echt gute Objektive (mit Öl Immersion), um eine entsprechend hohe NA zu haben.

Aber ich glaube das geht jetzt deutlich weiter als für den TO nützlich.

maceis
14.05.2021, 21:03
Hallo Thomas,

Vorab: Ich verwende nicht den DIC nach Nomarski (nicht Normarski und auch nicht Nomarsky) sondern nach Smith, was aber für das Thema hier nicht weiter von Bedeutung ist.

Danke für Deine ausführlichen Erläuterungen, auch wenn mir die Bedeutung und Zusammenhänge der Begriffe Vergrößerung, Abbildungsmaßstab, NA, Auflösung usw. schon bekannt waren und Du sicherlich das Bayer-Pattern (nicht Bayern-...) meintest.

Der Hinweis auf ImageJ und Fuji war aber super. Ich habe die Programme zwar installiert, aber lange nicht mehr verwendet. Damit kann man (auch) sehr präzise messen und ich werde die öfter wieder mal benutzen. Und auch der Hinweis auf die App Resolution war sehr hilfreich. Danke auch dafür.

Wenn der Pixel Pitch der Alpha 6400 tatsächlich 3,91 µm ist (was ich jetzt auch anderswo bestätigt gefunden habe) dann beträgt die Differenz zwischen meiner empirischen Messung und den nominalen Angaben auf die Bildbreite von 6.000 Pixeln gerade einmal 4,4 µm.
Ich denke mal, da kann ich in der Summe von ausreichend präzisen Werten ausgehen.

Nebenbei bemerkt, ist die Fragestellung ursprünglich bei mir aufgekommen, als ich mir Gedanken darüber gemacht habe, ob ich mit meiner Kameraadaption noch im Bereich der förderlichen Vergrößerung bin, was erfreulicherweise ganz klar - auch bei meinem 100x Öl Objektiv - der Fall ist.

Viel Grüße
maceis

usch
15.05.2021, 02:27
Wenn sie sich dort auf "active pixel" beziehen und diese unten mit 6024 x 4024 angeben, warum sollte das plötzlich andere Werte annehmen?:zuck:
Weil sich hier "active pixel type (https://de.wikipedia.org/wiki/Active_Pixel_Sensor)" allgemein auf die Sensortechnologie bezieht im Gegensatz zum Passive Pixel Sensor, während weiter unten "Number of active pixels" (man achte auf den Plural) einfach die Anzahl der bildgebend genutzten Pixel ist.

Wobei ich zugeben muss, dass ich die unterschiedlichen Pixeldimensionen auch noch nicht wirklich durchschaue. Ich schätze, "Total number of pixels" wird auch die maskieren Randbereiche ("Optical black") enthalten, aber der Unterschied zu den "effective pixels" ist immer noch größer als die dort angebene Anzahl. :zuck:

zigzag
15.05.2021, 09:45
Hallo maceis,


... Nomarski nicht Normarski und auch nicht Nomarsky) ...
... Bayer-Pattern (nicht Bayern-...) meintest...


Mea culpa! Dabei war ich mir sicher, dass ich zumindest das Bayer-Pattern noch verbessert habe. :zuck: Und Nomarski sollte ich eigentlich auch richtig schreiben können.

Freut mich, wenn der Hinweis auf ImageJ und Fiji (nicht Fuji ;-), Fiji is just ImageJ ) sowie auf die App geholfen hat. Die App benutze ich wirklich ganz gerne im Labor. Ich prüfe damit, ob wir bei der Kombination von Kamera und Objektiv noch die nötige Auflösung erreichen (oftmals benötigen wir 2x Nyquist für die Nachverarbeitung). Aber bei uns haben die Kameras meist deutlich größere Pixel.

Ach ja, und DIC nach Smith kannte ich gar nicht. Wieder etwas gelernt :top:

Viele Grüße und ein schönes Wochenende,
Thomas