Archiv verlassen und diese Seite im Standarddesign anzeigen : Suche Infos zum Sensor 7D - physikalische Experimente
Hey, also ich habe mich nun im 3ten Semester endlich dazu durchgerungen ein Grundpraktikum zu machen. Das sind Wald und wiesen Versuche der Physik, bei der mir aber immer sehr viele Ideen kommen, das Ganze technisch zu verbessern. Es handelt sich also um "Schulversuche"
Kurzversion:
Ich will die Kamera als optischen Sensor ohne Objektiv dran benutzen zum Abstandsmessen von zwei Lichtpunkten (Laser). Dazu muss ich allerdings wissen wie groß die Pixelfläche wirklich ist um das auf ein Pixel runterzurechnen.
Langeversion:
Es handelt sich um den Foucault'schen Versuch zum Bestimmen der Lichtgeschwindigkeit (der ist historisch, da die Lichtgeschwindigkeit mittlerweile eine festgelegte Konstante ist und damit die Länge des Meters definiert wurde).
http://upload.wikimedia.org/wikipedia/commons/thumb/e/e2/Drehspiegelmethode.png/350px-Drehspiegelmethode.png
Was dahintersteckt: Während der Lichtstrahl die Strecke S zurücklegt, hat der rotierende Spiegel sich ein Stück weiter gedreht und es erscheint ein Lichtpunkt auf einem Schirm, der vom Ausgang etwas entfernt ist.
Der Versuchsaufbau an sich etwas komplizierter es bleibt aber dabei: zu messen ist der Abstand zwischen zwei punkten.
Was auf dem Bild so „nett“ messbar aussieht, ist in der Praxis ziemlich haarig, da diese Ablenkung sich im Millimeterbereich befindet.
Ich hatte vor die Kamera anstelle des Schirms direkt (mit Staubschutz) anstelle des Schirms hinzustellen. Die Punkte entsprechen der Originalgröße des Laserstrahls.
Kennt jemand eine Software bei der man bei JPG's recht schnell den Abstand von zwei Punkten in Pixeln messen kann?
Ist das der richtige Sensor
http://www.kodak.com/ezpres/business/ccd/global/plugins/acrobat/en/datasheet/fullframe/KAF-6302LELongSpec.pdf
Die 9mikrometer hören sich irgendwie "ungenau" an und was ist damit überhaupt gemeint (nur die optisch aktive fläche eines Pixels oder auch der "Kram drum herum" bis "der kram drum herum" des nächsten Pixels beginnt).
Bei 9Mikrometer wäre ich bei 27,648mm
Wen das ganze interessiert, ich kann das fertige Protokoll bestimmt hochladen (für alle alten Physikerhasen und auch die sich vor kurzer Zeit damit rumgeplagt haben)
Kennt jemand eine Software bei der man bei JPG's recht schnell den Abstand von zwei Punkten in Pixeln messen kann?
Hallo,
reicht eventuell ein Geodreieck (http://www.markus-bader.de/MB-Ruler/index.d.htm)?
VG eled
FixFoto (Shareware) kann ganz gut Entfernungen an einem JPG messen.
JFoto (Freeware) ist auch recht nett für die ("wissenschaftliche") Vermessung von Bildern geeignet.
Ich würde mich auch nicht unbedingt auf die Pixelabmessunge stützen. Versuch doch selbt den Sensor zu kalibrieren d.h. zwei (oder mehrere) Punkte mit genau bekannten Abstand vermessen und damit weiterarbeiten...
P.S.: Bin auch Physiker :lol:
So ziemlich jede gruppe vor uns hat mit einem Geodreieck gearbeitet.
JFoto finde ich so schnell nichts passendes (kannst du mir noch ein Suchstichwort geben?)
Momentan fehlen mir noch die Ideen der Kalibrierung.
Immerhin müsste ich ohne optik quasi direkt auf dem Sensor rumwärkeln.
Ich gebe es momentan noch nicht auf, herauszufinden wie groß die Sensorfläche ist, wenn das wirklich der Sensor ist, müsste man doch nur die Bildgröße durch die auf der JPG sichtbaren pixel teilen? (Vorrausgesetzt es werden auch alle Bildpunkte von der Software verwendet... aber hier Verbergen sich höchstens 2%...)
Ob es vielleicht doch "genau" genug ist einen Schirm abzufotographieren mit "Lineal"?
Ist das der richtige Sensor
http://www.kodak.com/ezpres/business/ccd/global/plugins/acrobat/en/datasheet/fullframe/KAF-6302LELongSpec.pdf
Definitiv nicht. Der Sony Sensor ist von Sony, nicht von Kodak und auch kein Fullframe sondern ein APSC Chip.
Definitiv nicht. Der Sony Sensor ist von Sony, nicht von Kodak und auch kein Fullframe sondern ein APSC Chip.
Es ist ja noch eine alte D7, die hatten soweit ich weiß einen Kodak (wie auch die Nikkon D50/D70). Der sensor dort hat 2,8cm breite was ja kein FF, glaube die Angabe bezieht sich auf irgendetwas anderes.
nein, die Dynax 7D hat einen APSC Sony Sensor, genau wie die Nikons. Und der Sensor den du da ausgegraben hast ist Fullframe, schau aufs Deckblatt. Kanns also nicht sein.
Aber auch 2,8cm sind zu groß im Vergleich zu den Angaben der APSC Größe:
23.5 x 15.7 mm..
So ziemlich jede gruppe vor uns hat mit einem Geodreieck gearbeitet.
Ist das (http://home.arcor.de/th.bach/Software/Software1.htm) besser?
Hey danke die software sieht ja allersliebst aus.
Bleibt "nur" noch die Sensorgrößenspekulation.
23.5 x 15.7 mm..Die Angaben variieren von "APS-C-Chip" zu "APS-C-Chip". 23,5 x 15,7 mm² sind jedenfalls die Zahlen, die der Hersteller nennt. Wie genau brauchst du es denn?
(Nebenbei: Dreht nicht der Physiker typischer Weise so lange am Versuchsaufbau, bis rauskommt, was rauskommen soll? Sprich: Kannst du nicht mit deinem Versuch den Sensor „vermessen“?)
BodenseeTroll
21.04.2008, 23:26
Hm, wenn ich mir die Bilder hier (http://positron.physik.uni-halle.de/VVB/Versuche/pdf/O71.pdf) angucke, dann glaube ich nicht, dass Du Dir über die Pixelgrösse Gedanken machen musst. Allein der Laser"punkt" ist etwa 2mm breit. Abgesehen davon "hat" die Kamera keine Pixel. Die Kamera berechnet Pixel. Oder willst Du Dich mit der Frage beschäftigen, wie Du Rohdaten aus dem Bayer-Sensor auslesen kannst?
Warum nicht einfach Helligkeiten messen? Nimm einen Gehäusedeckel deiner 7D. Bohre zentral ein Loch, Durchmesser 1cm. Verschliesse das Loch mit einer Alufolie, in die Du mittig ein minimales Loch gemacht hast. Stichwort Pinhole-Kamera. (ja, damit kann man auch wirklich fotografieren...) Ausserdem machst Du 3mm weiter ein 2. Loch. Justiere die Kamera so, dass die Gesamthelligkeit maximal wird, wenn der Laser bei stehendem Spiegel auf das Mittelloch fällt. Wenn sich der Spiegel dreht, miss solange die Helligkeit bei steigender Drehgeschwindigkeit, bis die Helligkeit wieder maximal wird, weil das 2. Loch getroffen wird. Der Abstand der Löcher ist bekannt, also kannst Du losrechnen.
Allerdings würde das sogar besser funktionieren, wenn Du statt der tollen Digicam eine einfache USB-Webcam nimmst...
Viele Grüsse,
Michael
Die Idee finde ich auch klasse! Problematisch wäre hier nur, dass du nur mit einer Winkelgeschwindigkeit messen kannst pro "Lochverschiebung" (weiterer Nachteil ist, dass du noch etwas mehr erklären musst).
Contra Webcam: Mit der kannst du nur über recht lange zeit messen und die Vibrationen des Rotatinsspiegels oder anderes verrücken fällt stärker ins Gewicht.
Die Problematik ist gar nicht, dass die "Pixel" zu grob sein könnten (das sind sie um viele Größenordnungen nicht.
Dass der Sensor auch nur "interpoliert" ist mir auch bewusst. Was ich allerdings aus meiner Sicht wissen muss ist:
Wenn ich in der Software 3000pixel habe, wie viele mm sind das? Denn Leider geht der Wert den ich über die Breite habe linear als Fehlerquelle ein. Dh wenn das CCD doch nur 23,4mm breit ist habe ich schon einen Systematischen Fehler von 0,1mm (wenn 23,5mm der "echte" Wert ist).
Ich habe vorhin daran gedacht einfach mal den "unbehandelten" Laser (der ja eine bestimmte dicke hat) in auf den Sensor treffen zu lassen, in der Hoffnung, dass man den sehr "gut" ausmessen kann, z.b indem man ihn durch eine Schublehre jagt :D oder der Hersteller hier eine verlässliche Angabe macht.
Das aus Protokollen habe ich zudem noch gelesen, dass die Drehfrequenz des Motors nicht so exakt bestimmbar mit Photozelle und Oszilluskop ist, dort werde wohl auch meine Soundkarte verwenden zeitliche Abstände in der Audiomessungen müssten ja bestens sein.
Es wird übrigens gemunkelt, dass die Gruppe die die besten Ergebnisse der Letzten Jahre erziehlt einen Kasten Bier erhällt.
Sorry! Das Programm nennt sich ImageJ (1. Eintrag in google zu finden!).
Nachdem dein Laserpunkt einige mm Durchmesser hat, musst du wohl über EBV zuerst den Mittelpunkt davon bestimmen (das kann ImageJ, ich glaub sogar in 3D) und dann den Abstand zweier Punkte
Weiters spuckt google für "Minolta 7D & Sensorgröße" folgendes aus:
Konica Minolta Maxxum 7D Sensor CCD (RGB), Sony ICX413AQ Sensorgrösse 23,5 x15,7mm Auflösung exakt 6,1 Megapixel Auflösung 3.008 x 2.000.
Damit sollte es wohl zu schaffen sein, oder?
Aber google kann man schon im 3. Semester? :lol::roll:
Hast du dir auch schon einen bohrer besorgt mit dem du ein loch in das Kamera Gehäuse machen kannst?
oder willst du die lichtquelle irgendwie umlenken??
Ich würde auf der mattscheibe einfach eine micrometerskala anbringen und diese mit nem macro abfoten. dann kannst du das direkt an der skala ablesen.
mfg
edit:
wegen dem kodak ccds: fullframe bezeichnet auch eine auslese Technik, und hat in diesem fall nichts mit der sensorgröße zutun.
mfg
Ähm verflucht wieso googelt es sich bei dir so gut? Ich habe wirklich gesucht, sogar mit englischen stichwörtern (und dann MAxxum) und hab wirklich nichts brauchbares gefunden.
DANKE!
Die Versuchsskizze ist überhaupt nicht vollständig, wir werden es mit einem Halbdurchlässigen Spiegel durchführen sodass du nicht mehr vom "Laser" weg messen sondern wirklich zwei Lichtpunkte hast aus messen musst.
http://vorsam-server.physik.uni-ulm.de/Versuche/O/html/O_030V00.htm
edit:
wegen dem kodak ccds: fullframe bezeichnet auch eine auslese Technik, und hat in diesem fall nichts mit der sensorgröße zutun.
Verdammt, das kommt davon wenn man nur das Deckblatt eines Datensatzes ließt. :oops:;)
Die Versuchsskizze ist überhaupt nicht vollständig, wir werden es mit einem Halbdurchlässigen Spiegel durchführen sodass du nicht mehr vom "Laser" weg messen sondern wirklich zwei Lichtpunkte hast aus messen musst.
Tut mir leid, aber dieser Satz ist mehr als unverständlich! :(
Du kannst von Glück reden, dass ich nicht dein Betreuer bin...:lol::lol:
(Ich habe jahrelang Studenten betreut. Jetzt sind es "nur" mehr Schüler!)
Hast du dir auch schon einen bohrer besorgt mit dem du ein loch in das Kamera Gehäuse machen kannst?
oder willst du die lichtquelle irgendwie umlenken??
Ich würde auf der mattscheibe einfach eine micrometerskala anbringen und diese mit nem macro abfoten. dann kannst du das direkt an der skala ablesen.
Nur bei der Versuchskizze oben muss ich ein Loch durch die Kamera bohren. Im "kompletten" Versuch muss ich dank eines Halbdurchlässigen Spiegels keinen Weg durch die Kamera freibohren. :P
BodenseeTroll
22.04.2008, 15:02
Denn Leider geht der Wert den ich über die Breite habe linear als Fehlerquelle ein. Dh wenn das CCD doch nur 23,4mm breit ist habe ich schon einen Systematischen Fehler von 0,1mm (wenn 23,5mm der "echte" Wert ist).
Hm, ja. Und? Alle Variablen gehen linear ein. Wenn Du die Meßstrecke verdoppelst, halbierst du den Fehler. Ich würde mal prüfen, ob es möglich ist, irgendwas zwischen zwei Häusern mit einer wirklich langen Strecke aufzubauen. Ausserdem, wie genau lässt sich die Winkelgeschwindigkeit vom Spiegel messen?
Ich habe vorhin daran gedacht einfach mal den "unbehandelten" Laser (der ja eine bestimmte dicke hat) in auf den Sensor treffen zu lassen
Du weisst, dass der Laser vermutlich viel zu hell ist? Ausserdem würde ich auch probieren, wie die Kaskade weitergeht: Laser "solo" und auch Laser nach Durchlauf der gesamten Lichtstrecke, aber bei stehendem Spiegel. Wenn sich der Spiegel dreht, dann gibts noch zusätzliche Erschütterungen. Wenn Du dann die Belichtungszeit zu klein wählst, gibt das neue Diskretisierungsfehler.
Irgendwie kommt mir das so vor, wie in der Geschichte, in der gefragt wird, wie gross pi ist. Der Mathematiker sagt: Pi ist das Verhältnis zwischen Kreisumfang und Kreisdurchmesser. Der Ingenieur sagt: Pi ist 3,14. Der Physikstudent sagt: Pi ist 3.141592654.... auf 20 Stellen nach dem Komma. Alle staunen, wie er sich das merken kann. Darauf sagt der Student: Das muss ich doch wissen, schliesslich messe ich immer Pi mal Daumen, da muss wenigstens pi stimmen....
Viele Grüsse,
Michael
Ja je länger man darüber nachdenkt desto vertrackter wird alles, aber das wird genau der Grund für ein Grundpraktikum sein.
Kurze Belichtungszeit-> Vibrationsfehler
Lange Belichtungszeit -> Unscharfe bilder (wo ist der Mittelpunkt?)
Der Laser ist nicht zu stark, ich habe Berichte gelesen bei denen empfohlen wurde im Dunkeln zu arbeiten um den Schirm ablesen zu können.
Vielen vielen dank erstmal für die vielen Guten Ideen!