SonyUserforum
Amazon
Forum für die Fotosysteme von Sony und KonicaMinolta
  SonyUserforum - Forum für die Fotosysteme
von Sony und KonicaMinolta
 
Registrieren Rund ums Bild Galerie Objektiv-Datenbank Kalender Forenregeln Nützliches

Startseite » Forenübersicht » Treffpunkt » Die Glaskugel » Abschied vom Bayer-Sensor?
Antwort
 
Themen-Optionen Ansicht
Alt 16.11.2014, 02:08   #1
zigzag
 
 
Registriert seit: 18.07.2013
Ort: Würselen
Beiträge: 381
Zitat:
Zitat von mrHiggins Beitrag anzeigen
Fall 1:
30 Sekunden belichtung. Jede Farbe 10 Sekunden. Die Helligkeitsinformationen könnte man übertragen (wie beim bayer auch auf die nachbarpixel) insofern würde man das Signal nicht verstärken, aber dennoch wären die Farbinformationen bei bewegenden Objekten teilweise massiv verschoben.
Ist es denn sicher das die einzelnen Pixel nur nacheinander belichtet werden. Wenn man die rgb Schicht alternierend verschiebt verliert man zwar etwas Zeit (ist mir jetzt zu spät zum nachrechnen) aber es gäbe keinen massiven Farbversatz.
__________________
Gruß Thomas
---------------
Costa Rica Reisebericht klick
zigzag ist offline   Mit Zitat antworten
Sponsored Links
Alt 16.11.2014, 02:46   #2
usch
 
 
Registriert seit: 16.08.2010
Beiträge: 19.169
Zitat:
Zitat von mrHiggins Beitrag anzeigen
Die Sekunde in der Rot belichtet wird, bringt dir auch für Blau was.
Häh?

Falls du darauf abzielst, daß die spektralen Durchlasskurven der Filter etwas überlappen: Das tun sie beim Bayer-Filter auch. Müssen sie ja auch, sonst könntest du gar keine Zwischentöne aufnehmen. Das macht also keinen Unterschied.

Zitat:
Zitat von zigzag Beitrag anzeigen
Ist es denn sicher das die einzelnen Pixel nur nacheinander belichtet werden. Wenn man die rgb Schicht alternierend verschiebt verliert man zwar etwas Zeit (ist mir jetzt zu spät zum nachrechnen) aber es gäbe keinen massiven Farbversatz.
Du mußt aber nach jedem Verschieben den Sensor auslesen und wieder zurücksetzen, um die Werte einer Farbe zuordnen zu können. Statt drei Einzelaufnahmen mit je 1/100 hättest du dann z.B. 30 Einzelaufnahmen mit je 1/1000 Sekunde Belichtungszeit. Ich bezweifle, daß das in der Frequenz überhaupt machbar ist.
__________________
Any feature is a bug unless it can be turned off. (Heuer's Law, 1990)
usch ist offline   Mit Zitat antworten
Alt 16.11.2014, 03:28   #3
zigzag
 
 
Registriert seit: 18.07.2013
Ort: Würselen
Beiträge: 381
Das mit der Belichtung ist wohl eher so, das r + g + b = 1 ist. Also das du die Belichtung von jedem pixel aus den drei einzelnen belichtungen addiert werden.


Ich denke schon das es alternierend Sinn macht. Ich deute auch die Abb. auf SAR so. Dort steht A: continued exposure und B: output image.
Das bedeutet für mich, dass nach einem Verschiebungsvorgang ein erneuter startet, wenn die Belichtung noch nicht fertig ist.

Habe jetzt doch noch mal gerechnet: das verschieben und auslesen dauert laut der Abb. gerundet 1/5000s. Bei einer Belichtungszeit von 1/100s wird der Sensor also 50 mal ausgelesen. Das sind dann 5000 mal die Sekunde.

Edit: Es ist doch schon zu spät, bei 50 Auslesungen bleibt keine Zeit mehr zum belichten

Keine Ahnung wie wahrscheinlich das jetzt ist, aber die 16000 Auslesungen (fps) bei 2k klingen für mich auch recht unglaublich. Welche Nachteile jetzt der dafür benötigte global shutter mit sich bringt, weiß ich allerdings nicht.
__________________
Gruß Thomas
---------------
Costa Rica Reisebericht klick

Geändert von zigzag (16.11.2014 um 03:32 Uhr)
zigzag ist offline   Mit Zitat antworten
Alt 16.11.2014, 04:13   #4
ddd
Moderator
 
 
Registriert seit: 15.01.2004
Ort: D-31311 Uetze
Beiträge: 4.107
moin,

16000fps schaffen selbst Hochgeschwindigkeits-Spezialkameras nicht mal ansatzweise. Klar gibt es Cams mit 100.000fps, aber die erreichen diese Rate nur bei reduzierter Framegröße von typ. 2pix Höhe (2 einzelne Pixelzeilen), 500-1000fps werden bei ca. 1700-1080pix Bildhöhe erreicht, das ist weniger als ein Zehntel der angeblichen Rate.
Die Sensoren müssen aktiv gekühlt werden, nutzen Ringbuffer mit GigE-Schnittstelle und können nur wenige Sekunden Dauerlauf (typ. 16GByte Buffer), da die Ringbuffer-Auslesung viel zu langsam ist. Solche Kameras werden in F&E eingesetzt.

Die Daten des ominösen IMX189 sind einfach ausserhalb der Realität. Zudem passt die Nr. nicht, aktuell sind Sensoren mit der Produktnumer 236 oder höher in Entwicklung. Ein IMX189 wäre der Stand von vor ca. 2 Jahren (Mitte 2012), das ist unplausibel.

Eine Filterung mit Mikro-Strahlteilern würde wieder 3 Subpixel pro Bildpunkt erfordern, also bringt dieser Ansatz auch nix. Denn egal wie die Strahlteiler funktionieren, die Filterung muss erfolgen, wenn ich Spektralinformationen ("Farbe") haben will. Wellenlängenabhängige teildurchlässige Spiegel gibt es zwar, aber nur für sehr schmale Frequenzbereiche, und Reflexionsverluste kann man dann nicht verhindern, d.h. vagabundierendes Licht im System usw. Klassische Strahlteiler-Kameras (3CCD) verwenden jedenfalls alle Absorptionsfarbfilter in den Teilwegen, und da hat man viel Platz.
__________________
gruesze, thomas -das Leben ist zu kurz, um sich über kostengünstige, mittelmäßige Objektive zu ärgern- ... ich moderiere nicht, ich bin hier nur der Hausmeister.
So kannst du das Sonyuserforum und unsere Arbeit unterstützen
ddd ist offline   Mit Zitat antworten
Alt 16.11.2014, 12:20   #5
TONI_B
 
 
Registriert seit: 13.12.2007
Ort: Ö; Deutsch-Wagram
Beiträge: 12.395
Jetzt hast du unsere ganzen Illusionen vom Super-Sensor zerstört...

Einerseits war ich irgendwie skeptisch, andererseits fasziniert, ob es wirklich funktionieren könnte.

Trotzdem glaube ich, dass in den "Sensor-Schmieden" von Sony und anderen Firmen noch ganz tolle Dinge auf uns warten werden. zB. wurde gerade im Astro-Bereich eine Kamera mit einem 50MP Sensor mit 6µm Pixel vorgestellt - aber nicht von Sony.
__________________
TONI_B ist offline   Mit Zitat antworten
Sponsored Links
Alt 16.11.2014, 12:30   #6
NetrunnerAT
 
 
Registriert seit: 02.01.2008
Ort: Wien
Beiträge: 2.466
uhm ... gute Einschätzung!

http://www.sony.net/Products/SC-HP/n.../imx214_e.html

Wuste gar nicht, dass man diese Infos so im Netz findet.

Geändert von NetrunnerAT (16.11.2014 um 12:34 Uhr)
NetrunnerAT ist offline   Mit Zitat antworten
Alt 16.11.2014, 23:02   #7
ddd
Moderator
 
 
Registriert seit: 15.01.2004
Ort: D-31311 Uetze
Beiträge: 4.107
Zitat:
Zitat von TONI_B Beitrag anzeigen
Trotzdem glaube ich, dass in den "Sensor-Schmieden" von Sony und anderen Firmen noch ganz tolle Dinge auf uns warten werden.
sicher, aber es gibt physikalische Grenzen, die Dir besser als den meisten hier bekannt sind. Z.B. ist die Dynamik ein Problem, da man die Kapazität des Well-Kondensators nicht beliebig erhöhen kann. Empfindlichkeit steigern stößt auch an Grenzen, Photonen-Effizienz ist fast ausgereizt, Verstärkerrauschen liegt bereits bei wenigen einzelnen e-, die Integrationszeiten der AD-Wandler können nicht viel kleiner gemacht oder deren Anzahl erhöht werden usw. Eventuell kann man an der Reflektivität der Silizum-Oberfläche noch stärker drehen, u.a. wurde vor kurzem eine Oberflächenbeschichtung mit einem Reflexionskoeffizienten von nahe Null vorgestellt, Objekte mit diesem Überzug sehen wie ein Loch in der Realität aus , da sie keinerlei erkennbare Struktur mehr haben und absolut schwarz aussehen. Diese spezielle Methode eignet sich nicht für die Sensoroberfläche, aber die dahinter stehenden Prozesse erlauben mglw. diesen Parameter auf andere Weise positiv zu beeinflussen. Trotzdem ist auch da kein Wunder möglich, immerhin treten m.W. schon heute ein relevanter Anteil der Photonen in den lichtempfindlichen Bereich ein.

Es gibt sicher weitere evolutionäre Entwicklungsschritte.

Bahnbrechende Neuerungen stehen kaum noch zu erwarten, da die vorhandene Technologie bereits recht nahe an den theoretisch-physikalischen Grenzen angelangt ist. Faktor 2 dürfte bei einigen Parametern noch möglich sein, wesentlich mehr eher nicht. Bei Empfindlichkeit und Dynamik wäre das gerade mal je eine Blendenstufe ...
Bei der Auflösung geht noch mehr, 1.1µm Pixelpitch ist bei kleinen Sensoren in der Massenfertigung, das wären lockere 700MPix auf KB. Aber da stoßen aktuelle Objektive an Grenzen, selbst die Otus-Objektive dürften damit überfordert sein, von der Beugung ganz abgesehen, die dann bereits um f/2 zuschlägt.

Bessere Verarbeitungsalgorithmen können weitere Reserven herauskitzeln, gerade im Astro- oder Planetenerkundungsbereich konnten wir sehen, was aus den Aufnahmen 30 Jahre alter Technik mit aktueller Verarbeitung herausgeholt werden konnte. In diesem Bereich erwarte ich eher noch größere Entwicklungsschritte.

Ich frage mich nur, warum sich da jemand solche Mühe mit diesem eigentlich offensichtlichen fake gibt?

@NetrunnerAT: leider gibt es keine öffentlich zugänglichen Datenblätter von Sony für CMOS-Sensoren. Ein einziges ist öffentlich zugänglich: IMX234-0APH5-C (840kB, pdf) (Diagonal 6.864 mm (Type 1/2.61) 16Mega-Pixel CMOS Image Sensor with Square Pixel for Color Cameras), Quelle: http://www.sony.net/Products/SC-HP/d.../01/index.html . Grundsätzlich funktionieren alle Sony-CMOS-IMX-Sensoren ähnlich, daher kann man sich einen groben Eindruck anhand dieses Datenblattes verschaffen.
__________________
gruesze, thomas -das Leben ist zu kurz, um sich über kostengünstige, mittelmäßige Objektive zu ärgern- ... ich moderiere nicht, ich bin hier nur der Hausmeister.
So kannst du das Sonyuserforum und unsere Arbeit unterstützen
ddd ist offline   Mit Zitat antworten
Alt 16.11.2014, 23:13   #8
*thomasD*
 
 
Registriert seit: 07.01.2008
Ort: HU
Beiträge: 4.838
Naja, eine Blendenstufe fände ich schon ganz ordentlich. Und wenn man eine Möglichkeit fände, alle Wellenlängen zu nutzen und auf die Filter zu verzichten wäre wohl noch einiges drin. Mit dem Ansatz aus dem Fake gewinnt man aber nichts diesbezüglich.
*thomasD* ist offline   Mit Zitat antworten
Alt 19.11.2014, 11:47   #9
John W
 
 
Registriert seit: 18.12.2009
Ort: Emsland
Beiträge: 202
Zitat:
Zitat von ddd Beitrag anzeigen
Bei der Auflösung geht noch mehr, 1.1µm Pixelpitch ist bei kleinen Sensoren in der Massenfertigung, das wären lockere 700MPix auf KB. Aber da stoßen aktuelle Objektive an Grenzen, selbst die Otus-Objektive dürften damit überfordert sein, von der Beugung ganz abgesehen, die dann bereits um f/2 zuschlägt.
Ist die Beugung abhängig vom Pixelpitch, und nicht mehr von der Sensorgröße?

VG
JohnW
John W ist offline   Mit Zitat antworten
Antwort
Startseite » Forenübersicht » Treffpunkt » Die Glaskugel » Abschied vom Bayer-Sensor?


Forenregeln
Es ist dir nicht erlaubt, neue Themen zu verfassen.
Es ist dir nicht erlaubt, auf Beiträge zu antworten.
Es ist dir nicht erlaubt, Anhänge hochzuladen.
Es ist dir nicht erlaubt, deine Beiträge zu bearbeiten.

BB-Code ist an.
Smileys sind an.
[IMG] Code ist an.
HTML-Code ist aus.

Gehe zu


Alle Zeitangaben in WEZ +2. Es ist jetzt 08:34 Uhr.