PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : A77 mit Pixel-Binning für High-ISO?


wolfram.rinke
01.08.2011, 15:04
Hallo,
habe im gelben-Rumorsforum gelesen bzw. gehört, dass die neue D400 von Nikon (A77 Konkurrenzmodell die den selben Sensor wie A77 haben soll) im high-iso Bereich ein Pixel-Binning erlaubt. D.h. es werden zB 4-Pixel zusammengeschalten, was 1) die Pixelempfindlichkeit enorm verbessert 2) das Rauschen minimiert und 3) keine interpolierten Pixel mehr wie bei einem Bayer-Sensor-Muster erfordert.

Ob das die SLT-A77 auch können wird. Was meint ihr, oder wird diese technische Möglichkeit (auto-of Cam) dem Mitbewerb überlassen?

Itscha
01.08.2011, 15:08
Den gleichen Sensor hatten ja schon mehrere Nikons und Sonys. Die Signalverarbeitung und die Bildqualität unterschieden sich aber offensichtlich deutlich, z.B. im Rauschbereich.
Wenn man davon ausgeht, dass für die Signalverarbeitung jeder Hersteller selbst verantwortlich zeichnet, wird das wohl nicht automatisch in der A77 zu finden sein, nur weil es in der D400 mit dem eventuell gleichen Sensor drin ist (sein könnte).

Pixelquäler
01.08.2011, 15:25
Super, noch ein A77 Thread.:roll:

aidualk
01.08.2011, 15:46
oooh bitte, hängt den an einen der anderen dran... :?

RainerV
01.08.2011, 15:54
Wozu haben wir denn dann die Glaskugel "geschaffen"? Um nachher - genau wie vor der Einführung der Glaskugel - doch alles wieder in "einen" Thread, in dem man dann nichts mehr findet und sich deshalb alles permanent wiederholt, zu packen?

Und dieses Thema hier hatten wir meines Wissens noch nicht.

Sollte sich dann dieses Thema wiederholen, dann kann man ja zusammenführen oder einfach auf den bestehenden Thread verweisen.

Daß in der Glaskugel teilweise wild spekuliert wird, liegt in der Natur der Sache. Damit müßt ihr klar kommen. Auch wenns sicher manchmal schwer fällt. ;)

Wir "armen" Moderatoren müssen in den Thread ja auch immer wieder mal versuchen allzuviel Off-Topic zu unterbinden, auch wenn wir eigentlich selbst nicht wissen was eigentlich "On-Topic" wäre. ;)

Vielleicht kann uns jemand, der technisch bewandert ist, ja auch sagen, ob das Pixel-Binning überhaupt Vorteile gegenüber dem nachträglichen Runterrechnen am PC bringen kann. Das wäre dann eine durchaus interessante Erkenntnis.

Rainer

Neonsquare
01.08.2011, 16:01
Den gleichen Sensor hatten ja schon mehrere Nikons und Sonys. Die Signalverarbeitung und die Bildqualität unterschieden sich aber offensichtlich deutlich, z.B. im Rauschbereich.


Hab ich was verpasst? Der lediglich gerüchteweise vermutete 24MP-Sensor der A77 soll bereits in mehreren Nikons und Sonys benutzt worden sein? Klar - in Prototypen vielleicht ;).

Vielleicht ist diese Info ja die Wahrheit hinter den "Fovevon-Gerüchten" vor einiger Zeit. Der 24MP-Sensor hätte dann eine neuartige Matrixanordnung, die ein solches Pixelbinning zulässt. Kennt man ja an und für sich ja auch von Kompaktknipsen wie der Fuji F200 EXR.

Ernst-Dieter aus Apelern
01.08.2011, 16:12
Den gleichen Sensor hatten ja schon mehrere Nikons und Sonys. Die Signalverarbeitung und die Bildqualität unterschieden sich aber offensichtlich deutlich, z.B. im Rauschbereich.
Wenn man davon ausgeht, dass für die Signalverarbeitung jeder Hersteller selbst verantwortlich zeichnet, wird das wohl nicht automatisch in der A77 zu finden sein, nur weil es in der D400 mit dem eventuell gleichen Sensor drin ist (sein könnte).
Den Spagath zwischen Rauschfreiheit und Detailerhaltung bei High Iso hat in der Vergangenheit Nikon wohl etwas besser geschafft.Zumindest mit den letzten Modellen hat Sony aber aufgeholt, läßt doch hoffen!:roll:
Ernst-Dieter

---------- Post added 01.08.2011 at 17:19 ----------






Ob das die SLT-A77 auch können wird. Was meint ihr, oder wird diese technische Möglichkeit (auto-of Cam) dem Mitbewerb überlassen?
Ist Dein Fragezeichen ein eher "ängstliches" Fragezeichen?
Ernst-Dieter

Itscha
01.08.2011, 16:30
Hab ich was verpasst? Der lediglich gerüchteweise vermutete 24MP-Sensor der A77 soll bereits in mehreren Nikons und Sonys benutzt worden sein?

Na klar, weiß doch jeder, dass Sony in seinen Kameras die alten Sensoren aus unverkäuflichen Nikons verbaut! Oder willst Du hier was anderes behaupten?:evil:

:mrgreen: ;)

usch
01.08.2011, 16:35
Wozu haben wir denn dann die Glaskugel "geschaffen"? Um nachher - genau wie vor der Einführung der Glaskugel - doch alles wieder in "einen" Thread, in dem man dann nichts mehr findet und sich deshalb alles permanent wiederholt, zu packen?
Eigentlich ging es in erster Linie darum, darum, die Spekulationen aus den anderen Unterforen herauszuhalten. Von mir aus kann man die A77-Threads auch gerne aufteilen in einen EVF-Thread, einen Sensor-Thread, einen Speicherkarten-Thread, einen Akku-Thread, ... :cool:

Vielleicht kann uns jemand, der technisch bewandert ist, ja auch sagen, ob das Pixel-Binning überhaupt Vorteile gegenüber dem nachträglichen Runterrechnen am PC bringen kann.
Man spart etwas analoges Verstärkerrauschen, weil man mit größeren Ladungsmengen arbeiten kann und nicht so weit aufdrehen muß. Der andere Effekt, den man auch nachträglich erreichen könnte, kommt dann da noch oben drauf.

Ein weiterer Vorteil wäre, daß dann die Raw-Dateien nur noch ein Viertel der Größe hätten (6 MP statt 24 MP); ich glaube, ich würde das immer eingeschaltet lassen. ;)

Problematisch ist das Bayer-Muster, weil man nur gleichfarbige Pixel zusammenschalten kann und es gar keine nebeneinanderliegenden Pixel der gleichen Farbe gibt. Phase One löst das beim P65+ dadurch, daß sie Rot und Blau horizontal und vertikal auf Lücke verbinden und Grün diagonal, was natürlich einen völlig anderen Demosaiking-Algorithmus erfordert.

wolfram.rinke
01.08.2011, 16:44
Den Spagath zwischen Rauschfreiheit und Detailerhaltung bei High Iso hat in der Vergangenheit Nikon wohl etwas besser geschafft.Zumindest mit den letzten Modellen hat Sony aber aufgeholt, läßt doch hoffen!:roll:
Ernst-Dieter

---------- Post added 01.08.2011 at 17:19 ----------


Ist Dein Fragezeichen ein eher "ängstliches" Fragezeichen?
Ernst-Dieter

Das "Rauschproblem" bei den Alphas lag IMHO am fehlenden oder schlechten Farbentrauschen der verwendeten JPG-Engine in den Cams. Das hat sich sicher sehr verbessert bzw. wurde in den aktuellen Modellen berücksichtigt. Vielleicht auch einiges sensorseitig verbessert (speziell der Rot-Kanal war ja nicht zu übersehen ;) ).

Das ist etwas OT:
Das Fragezeichen ist schon etwas "ängstlich" zu verstehen. Immerhin hat Nikon am gleichen Tag auch ein "major announcement" . Wobei es den Gerüchten zufolge nicht eine D400 sondern eine D800 und eine D4 sein soll (beide FX Format) mit 24Mpix bzw 32Mpix :shock: und Sony will die A850/A900 Nachfolger erst 2012 vorstellen. :shock: :shock:

Vielleicht ist das auch nur ein Marketing-Trick und Nikon und Sony tauschen sich die Märkte ab. Diesmal Sony im APS-C Segment mit der A77 dafür Nikon im FX Segment und im nächsten Jahr umgekehrt. Da kommt sich dann niemand in die Quere.

Fastboy
01.08.2011, 16:45
Na klar, weiß doch jeder, dass Sony in seinen Kameras die alten Sensoren aus unverkäuflichen Nikons verbaut! Oder willst Du hier was anderes behaupten?:evil:

:mrgreen: ;)

Es gibt keine unverkäuflichen Nikons. :twisted: Das sind doch Profigeräte, die reisst man den Händler doch gleich von der Palette. ;)

Das ist doch Sony die nur Ladenhüter für Laien Amateurknipser.

LG
Gerhard

Slowlens
01.08.2011, 19:47
. ;)



Vielleicht kann uns jemand, der technisch bewandert ist, ja auch sagen, ob das Pixel-Binning überhaupt Vorteile gegenüber dem nachträglichen Runterrechnen am PC bringen kann. Das wäre dann eine durchaus interessante Erkenntnis.

Rainer

Wenn die Information stimmt, dass der Entfall der Bayer Interpolation und des AA Filters damit einhergeht, dann ist das eine physikalische Änderung in der Kamera, die bereits dort höhere Auflösung und Grundschärfe herbeiführt, die man am PC nicht simulieren kann.

Sollte diese Information nicht stimmen, dann wissen wir zu wenig über die Art der Implementierung, um Deine Frage zu beantworten.

Ich denke, die entsprechenden Gerüchte verdichten sich kurz vor dem announcement und sind korrekt und kohärent mit dem älteren rumor, der besagte, dass die A77 eine 60% höhere auflösung haben wird gegenüber der A700. Das liesse sich alleine durch Verdopplung der Pixelzahl auf gleicher Fläche nicht erreichen.

wolfram.rinke
01.08.2011, 20:57
Wenn die Information stimmt, dass der Entfall der Bayer Interpolation und des AA Filters damit einhergeht, dann ist das eine physikalische Änderung in der Kamera, die bereits dort höhere Auflösung und Grundschärfe herbeiführt, die man am PC nicht simulieren kann.
...
Ich denke, die entsprechenden Gerüchte verdichten sich kurz vor dem announcement und sind korrekt und kohärent mit dem älteren rumor, der besagte, dass die A77 eine 60% höhere auflösung haben wird gegenüber der A700. Das liesse sich alleine durch Verdopplung der Pixelzahl auf gleicher Fläche nicht erreichen.

Sony hat ja bereits einen Exmor 20Mpix APS-C 4-HD Sensor mit einem neuen Pixel-Layout bereits am Markt und dieser bewährt sich in der top Video-Camera F65. Es handelt sich dabei um einen Sensor ohne Bayer-Anordnung und ohne AA-Filter, den braucht es nicht mehr wegen einer neuen Pixel-Anordnung. Vielleicht hat da eine Entwicklung der Video-Abteilung in die SLT/DSLR Entwicklung einzuggehalten.

Details zur Erinnerung gibt es ja hier: http://pro.sony.com/bbsc/video/collections-nab2011/?pageno=2&navId=4294963164&sort=recent&view=grid&tp=true#top

Slowlens
01.08.2011, 22:19
Wolfram, danke für den interessanten link. Das 38 Minuten Video zur F65 kann ich weiterempfehlen.

http://pro.sony.com/bbsc/video/collections-nab2011/?pageno=2&navId=4294963164&sort=recent&view=grid&tp=true#top

'To 4k and beyond' ist der Titel des Videos.

oglala
01.08.2011, 23:43
Das "Rauschproblem" bei den Alphas lag IMHO am fehlenden oder schlechten Farbentrauschen der verwendeten JPG-Engine in den Cams. Das hat sich sicher sehr verbessert bzw. wurde in den aktuellen Modellen berücksichtigt. Vielleicht auch einiges sensorseitig verbessert (speziell der Rot-Kanal war ja nicht zu übersehen ;) ).

Da auch die RAWs ganz gewaltig farbrauschten und schon vorher so mach Sony Sensor seine Wege zu Nikon gefunden hat, dürfte das Problem wohl in der Signalverarbeitung gelegen haben.

Haben, denn Sony hat wohl aufgeschlossen, zumindest wenn man den Tests glauben darf. Ich habe nur den Sony-internen Vergleich, und die Unterschiede sind gewaltig.

Vielleicht ist das auch nur ein Marketing-Trick und Nikon und Sony tauschen sich die Märkte ab. Diesmal Sony im APS-C Segment mit der A77 dafür Nikon im FX Segment und im nächsten Jahr umgekehrt. Da kommt sich dann niemand in die Quere.

Zwischen Sony und Nikon scheint es in der Tat so etwas wie ein "long term relationship" zu geben. Man kommt sich, gerade in letzter Zeit, auffällig wenig ins Gehege.

Das ist dann das tolle am Systemwechsel von Sony zu Nikon: Die Objektive kann man nicht mitnehmen, den Sensor schon :lol::lol::lol:

Ernst-Dieter aus Apelern
02.08.2011, 05:29
Das ist etwas OT:
Das Fragezeichen ist schon etwas "ängstlich" zu verstehen. Immerhin hat Nikon am gleichen Tag auch ein "major announcement" . Wobei es den Gerüchten zufolge nicht eine D400 sondern eine D800 und eine D4 sein soll (beide FX Format) mit 24Mpix bzw 32Mpix :shock: und Sony will die A850/A900 Nachfolger erst 2012 vorstellen. :shock: :shock:


Wobei ich mir fast sicher bin, daß die noch unbekannten Nikons in einer eigenen , anpruchsvollen Preisliga spielen werden.
Ernst-Dieter

---------- Post added 02.08.2011 at 06:31 ----------

Da auch die RAWs ganz gewaltig farbrauschten und schon vorher so mach Sony Sensor seine Wege zu Nikon gefunden hat, dürfte das Problem wohl in der Signalverarbeitung gelegen haben.





Eine andere Ursache gibt es wohl nicht! Zustimmung.
Ernst-Dieter

RainerV
02.08.2011, 06:43
Wenn die Information stimmt, dass der Entfall der Bayer Interpolation und des AA Filters damit einhergeht, dann ist das eine physikalische Änderung in der Kamera, die bereits dort höhere Auflösung und Grundschärfe herbeiführt, die man am PC nicht simulieren kann.
...
Schauen wir mal, ob tatsächlich solch ein Sensor kommt. Ich habe da so meine Zweifel.

Rainer

steve.hatton
02.08.2011, 10:25
Brauchen wir jetzt einen neuen Thread für die A79 ?

el-ray
02.08.2011, 13:00
http://i55.tinypic.com/4htxzs.jpg

:D

mgr
03.08.2011, 15:53
Ganz ist mir nicht klar wie bei einem CMOS Sensor (nicht CCD) ein sinnvolles analoges
Pixel Binning funktionieren soll um damit die Quanteneffizienz zu erhöhen und trotzdem
die Farbinformation zu erhalten ?

LG Martin

Systemwechsel
03.08.2011, 15:55
Ganz ist mir nicht klar wie bei einem CMOS Sensor (nicht CCD) ein sinnvolles analoges
Pixel Binning funktionieren soll um damit die Quanteneffizienz zu erhöhen und trotzdem
die Farbinformation zu erhalten ?

LG Martin
Die Quantenausbeute wird ganz sicher nicht erhöht.

usch
03.08.2011, 16:04
Ganz ist mir nicht klar wie bei einem CMOS Sensor (nicht CCD) ein sinnvolles analoges Pixel Binning funktionieren soll um damit die Quanteneffizienz zu erhöhen und trotzdem die Farbinformation zu erhalten ?

So? http://www.phaseone.com/Digital-Backs/P65/~/media/Phase%20One/Reviews/Review%20pdfs/Backs/Phase-One-Sensorplus.ashx

Ich seh jetzt aber nicht, wo da der prinzipielle Unterschied zwischen CMOS und CCD sein sollte.

Die Quantenausbeute wird ganz sicher nicht erhöht.
Es geht um das Signal/Rauschverhältnis. Die Ausbeute ist ja nur eine Funktion der wirksamen Sensorfläche.

Systemwechsel
03.08.2011, 16:08
So? http://www.phaseone.com/Digital-Backs/P65/~/media/Phase%20One/Reviews/Review%20pdfs/Backs/Phase-One-Sensorplus.ashx

Ich seh jetzt aber nicht, wo da der prinzipielle Unterschied zwischen CMOS und CCD sein sollte.

Was mit der Ladung passiert...

Es geht um das Signal/Rauschverhältnis. Die Ausbeute ist ja nur eine Funktion der wirksamen Sensorfläche.
Nein.

mgr
03.08.2011, 16:16
Die Quantenausbeute wird ganz sicher nicht erhöht.

Sorry ich hab das mit Full Well Capacity verwechselt.

---------- Post added 03.08.2011 at 17:33 ----------

So? [url]http://www.phaseone.com/Digital-Backs/P65/~/media/Phase%20One/Reviews/Review%20pdfs/Backs/Phase-One-Sensorplus.ashx[/url

Das mit der Anordnung und den Farben leuchtet mir einigermassen ein, allerdings ist mir
das Ganze von der technischen Realisierung her bei CMOS Chips immer noch nicht
wirklich klar. Bisher hat es doch immer geheissen Binning ist bei CMOS nicht wirklich
realisierbar. Ist nicht ein Vorteil beim Binning, dass die Photonen in die benachbarten
"Töpfe" überlaufen können und somit nicht verloren gehen? Wie ist das eigentlich mit
den Pixelabständen und "Anti-Blooming" (haben die DSLRs so was überhaupt?)
vereinbar? Vielleicht stell ich mir das auch falsch vor.

LG Martin

alberich
03.08.2011, 16:43
http://www.cmosis.com/assets/pdf/publications/slides-cmosis-eos-june2009.pdf

mgr
03.08.2011, 16:55
http://www.cmosis.com/assets/pdf/publications/slides-cmosis-eos-june2009.pdf

Danke für den Link. Nicht ganz trivial aber sehr interessant und vielversprechend.
Falls das wirklich kommt bin ich schon auf das Ergebnis gespannt.

LG Martin

Tsal
05.08.2011, 22:44
nun statt Pixel-binning wirds ja wahrscheinlich Mulit-NR haben, was ich sehr interessant finde mit dem entfal des Spiegelklappens und dem schnellen Verschluss. Wäre sehr fein wenn es sich fast wie nur ein Foto anfühlen würde.

Systemwechsel
09.08.2011, 08:42
Danke für den Link. Nicht ganz trivial aber sehr interessant und vielversprechend.
Falls das wirklich kommt bin ich schon auf das Ergebnis gespannt.

LG Martin
Vielversprechend? Es zeigt, dass man bei CMOS mit immensem Aufwand nur einen Bruchteil dessen errreichen kann, was bei monochromen CCDs völlig problemlos und absolut flexibel möglich ist. Binning von 5x7 oder 3x11 gefällig?

mgr
12.08.2011, 22:41
Es zeigt, dass man bei CMOS mit immensem Aufwand nur einen Bruchteil dessen errreichen kann, was bei monochromen CCDs völlig problemlos und absolut flexibel möglich ist.

Mag sein. Aber was wäre denn eine sinnvolle Alternative für DSLRs ? Von CCDs geht man ja anscheinend weg.

Martin

wolfram.rinke
13.08.2011, 07:07
Deep-Sky-Stacker unterstützt Pixel-Binning bei der Entwicklung aus dem RAW-File.
Kennt wer von euch einen RAW-Konverter der dies auch kann und nicht wie DSS spezialisiert ist auf Astro-Fotografie?

Habe leider bis jetzt nichts gefunden ausser DSS.

TONI_B
13.08.2011, 07:26
Ja, ich habe mich auch schon gefragt, warum man das pinning nicht nachher per EBV aus den raw-Files macht!

Hast du DSS schon mal auf normale Bilder angewendet?

Neonsquare
13.08.2011, 08:12
AFAIK hat man bei Pixelbinning im Sensor weniger Systemrauschen, weil die Ladungen mehrerer Pixel gemeinsam erfasst und gewandelt werden. Bei einem Binning im Postprocessing hat man bei jedem Teilpixel eine kleine Menge Rauschen, die beim verrechnen zu einem Gesamtpixel noch verteilt würde.

mrieglhofer
13.08.2011, 10:04
die beim verrechnen zu einem Gesamtpixel noch verteilt würde.
wie meinst das? Wird es dann weniger oder mehr?

M.E. müßte, da das Rauschen ja statistisch verteilt ist, der Signal Rauschabstand dabei ansteigen.

WoBa
13.08.2011, 10:40
Hallo Wolfram,

ausser DeepSky Stacker können alle EBV-Programmme für Astrobildbearbeitung Pixelbinning. Ich benutze dafur Astro Art 5. Tolles Programm.
Nur muß man wissen wann und wo Binning sinnvoll eingesetzt werden kann.
Mitg meinen Astrokameras ist bis 4x4 Binning möglich. Macht aber erst bei Brennweiten über 2m sinn. Damit wird ein besseres Sampling erreicht.
Dazu gibt es auch eine Formel um das zu berechnen.
Rauschminderung geht besser mit stacken, was auch die A580 kameraintern macht (6 Bilder hintereinander aufgenommen.
Hardwarebinning macht bei normalen Kammeras nur wenig sinn, da bei den kurzen Brennweiten sehr viele Details verloren gehen, auch die Dynamik leidet darunter, und und und..

Gruß

Wolfgang

wolfram.rinke
13.08.2011, 11:06
Hallo Wolfram,

ausser DeepSky Stacker können alle EBV-Programmme für Astrobildbearbeitung Pixelbinning. Ich benutze dafur Astro Art 5. Tolles Programm.
Nur muß man wissen wann und wo Binning sinnvoll eingesetzt werden kann.
Mitg meinen Astrokameras ist bis 4x4 Binning möglich. Macht aber erst bei Brennweiten über 2m sinn. Damit wird ein besseres Sampling erreicht.
Dazu gibt es auch eine Formel um das zu berechnen.
Rauschminderung geht besser mit stacken, was auch die A580 kameraintern macht (6 Bilder hintereinander aufgenommen.
Hardwarebinning macht bei normalen Kammeras nur wenig sinn, da bei den kurzen Brennweiten sehr viele Details verloren gehen, auch die Dynamik leidet darunter, und und und..

Gruß

Wolfgang

Hallo Wolfgang, danke für den Hinweis.

Systemwechsel
13.08.2011, 11:10
wie meinst das? Wird es dann weniger oder mehr?

M.E. müßte, da das Rauschen ja statistisch verteilt ist, der Signal Rauschabstand dabei ansteigen.
Beim echten Binning bleibt das Rauschen gleich, während das Signal mit dem Binningfaktor zunimmt. Entsprechend steigt das Signal-Rausch-Verhältnis.

WoBa
13.08.2011, 11:29
Hallo Systemwechsel,

genau so ist es.

Gruß

Wolfgang

Neonsquare
13.08.2011, 11:53
wie meinst das? Wird es dann weniger oder mehr?

M.E. müßte, da das Rauschen ja statistisch verteilt ist, der Signal Rauschabstand dabei ansteigen.

Einfach gesagt: Bei jedem Pixel hast Du ein immanentes Grundrauschen**. Von mir aus stellst Du es Dir so vor, dass alle Pixel bis zu den Knöcheln im Wasser stehen ;). Fasst Du bei einem Hardware-Binnung mehrere Pixel zusammen, dann ist dieses Grundrauschen trotzdem gleich hoch - das Wasser steht immer noch bis zu den Knöcheln. Aber mehrere Pixel "sehen" mehr Licht als ein Pixel. Der Analog-Digitalwandler kriegt ohne Bindung also weniger Signal bei gleichem Grundrauschen.

Bei Postprocessing ist das anders - das befindet sich ja nach der Wandlung. Der ADC hat also von jedem Pixel genau die Signalqualität bekommen, die er von einem einzelnen Pixel bekommt und es hat sich nach mehreren Ausleseprozessen eben auch mehr Rauschen aufgebaut. Der Algorithmus hat dann zwar für einen "Software-Binning-Pixel" auch die Signalinformation mehrerer Pixel - aber auch das Rauschen mehrerer Pixel. Bei der Verrechnung wird ja sowohl "Signal" als auch "Rauschen" einbezogen - also korreliert der resultierende Pixel mit dem Rauschen aller beteiligter Pixel. Im Resultat bringt es ein bisschen was, weil eben das Signal üblicherweise der Löwenteil gegenüber dem Rauschen ist (Scherenprinzip). Es ist ein ähnlicher Vorteil wie bei Multiframe-NR - nur das man bei jenem eben keinen direkten Auflösungsverlust durch Binning hat.

Programme wie PhotoAcute können aus Bildserien nicht nur Rauschen entfernen (Multiframe-NR) sondern beispielsweise auch "Superresolution-Bilder" erzeugen. In der Multiframe-Technik steckt schon so einiges an Potential - was sich natürlich mit Kameras wie der A55 (10FPS) oder gar der A77 mit möglicherweise 12FPS besonders gut nutzen lässt.

**) Das hier gemeinte Rauschen entsteht beim Prozess des Auslesens des Pixel. Wenn ein Sensor also mehrere Pixel auf einmal in einen Gesamtwert auslesen kann, entsteht trotzdem nur einmal dieses systemische Rauschen.

TONI_B
13.08.2011, 12:25
Einfach gesagt: Bei jedem Pixel hast Du ein immanentes Grundrauschen**. ...
**) Das hier gemeinte Rauschen entsteht beim Prozess des Auslesens des Pixel. Wenn ein Sensor also mehrere Pixel auf einmal in einen Gesamtwert auslesen kann, entsteht trotzdem nur einmal dieses systemische Rauschen.So einfach ist das nicht! Es gibt mehrere Rauschquellen:

1. Thermisches Rauschen (kommt daher, dass Elektronen generiert werden, obwohl gar kein Photon auftrifft)

2. Ausleserauschen (kommt von der Auslese-Elektronik), welches wiederum verschiedene Quellen hat.

usch
13.08.2011, 14:18
So einfach ist das nicht!
Natürlich kann man das beliebig kompliziert machen. Eine der Vorlesungen in meinem Studium hat sich ein Semester lang mit nichts anderem als Rauschen und Signalfehlern beschäftigt.

Aber hier läuft es letztlich immer darauf hinaus, das Signal so früh wie möglich in der Verarbeitungskette anzuheben, um über das Grundrauschen zu kommen. Wenn du vier Pappkartons (Photonen) im Keller (Sensor) auf dem Boden stehen hast und dir läuft Wasser in die Bude (Rauschen), hast du vier abgesoffene Kartons. Wenn du die anschließend rausholst (Raw-Datei) und stapelst (Software-Binning), sind es immer noch vier abgesoffene Kartons, nur vier Mal so hoch. Hättest du die Kartons gleich von Anfang an im Keller gestapelt (Hardware-Binning), wäre in der Überschwemmung nur einer abgesoffen und die anderen drei hättest du trocken herausholen können. Mal bildlich gesprochen. ;)

Slowlens
13.08.2011, 14:41
So einfach ist das nicht! Es gibt mehrere Rauschquellen:

1. Thermisches Rauschen (kommt daher, dass Elektronen generiert werden, obwohl gar kein Photon auftrifft)

2. Ausleserauschen (kommt von der Auslese-Elektronik), welches wiederum verschiedene Quellen hat.

Zu 2. implementiert Sony Sensoren, die den A/D-Wandler direkt auf dem (oder nahe an dem) Bildsensor haben, um die analoge Strecke, auf der Rauschen entsteht, zu verkürzen.

Meine Einschätzung ist, dass das verbleibende Rauschen, das uns im Bild wirklich stört, durch die Signalverstärkung entsteht. Langzeitbelichtungen und dabei auftretendes thermisches Rauschen aussen vor gelassen.

Wie könnte das pixelbinning diesbetreffend wirksam einsetzen. Am effektivsten sicherlich derart, dass weniger verstärkt werden muss, weil anschliessend schwache Bildsignale durch Überlagerung benachbarter Pixel nach einem intelligenten Algorithmus aufaddiert werden und so zu einem Bildpunkt mit weniger Rauschen führen können.
So könnte das doch funktionieren, solange man über eine Einzelaufnahme nachdenkt.
Eine andere Variante ist die bereits implementierte und nutzt Mehrfachaufnahmen. Das gibt's in den cybershots und NEX, und den SLTs vielleicht auch schon.
Eine dritte Variante könnte noch sein, dass Sensorverschiebung und Mehrfachbelichtung gekoppelt werden. Ich meine, das ist das, was man in manchen Mittelformatkameras findet.
Der Begriff binning deutet jedoch darauf hin, dass das Verfahren darauf beruht, dass im Konzept Pixel nach einem festen Schema miteinander verknüpft werden und dies Basis für die Berechnung ist.
Die obig beschriebene Cybershot-Alternative scheidet daher wohl aus. Meine erste Alternativenidee halte ich für am effektivsten.

Vielleicht macht Sony aber gar nichts oder ganz was anderes.

Neonsquare
13.08.2011, 18:52
So einfach ist das nicht! Es gibt mehrere Rauschquellen...


Gehe ich recht in der Annahme, dass Du es nichtmal ganz gelesen hast? :roll: Du könntest ja mal mit dem Finger darauf deuten, wo ich behaupte es gäbe nur eine Ursache für Rauschen. In meinem Text habe ich aber sehr deutlich über den "Ausleseprozess" als Quelle des hier vor allem relevanten Rauschens geschrieben.

TONI_B
13.08.2011, 22:19
Klar lese ich einen Beitrag bevor ich antworte! Warum so gereizt?

Warum sollte das thermische Rauschen hier keine Rolle spielen?

*thomasD*
14.08.2011, 16:31
Ich habe versucht, das mal theoretisch darzustellen: Anhand einer Sinusfunktion. Das ist zwar nur eindimensional, aber prinzipiell sollte es das Gleiche sein:

A) Berechnetes Sinssignal
B) Signal mit Rauschen (Zufallswerte zwischen -0,25 und +0,25)
C) Mittelung: Je zwei nebeneinanderliegende verrauschte Werte addiert und das Ergebnis halbiert (entspricht Software-Methode)
D) Differenz zwischen Mittelung und Ursprungssignal
E) Pixelbining: Je zwei nebeneinanderliegende Originalwerte addiert, dann gleichgroßes Rauschen addiert (Werte zwischen -0,25 und +0,25), Ergebnis dann halbiert
F) Differenz zwischen E) und Ursprungssignal

Im Ergebnis gibt es nicht viel Unterschied, obwohl rechnerisch bei der Mittelung immer noch Differenzen zum Signal von -0,25 bis +0,25 auftreten können, beim Bining nur von -0,125 bis +0,125. Größere Fehler treten im letzten Fall auf, da es unabhängig vom Rauschen durch die Zusammenfassung zweier Werte schon eine Abweichung vom Signalwert gibt.


6/Pixelbining.jpg
-> Bild in der Galerie (http://www.sonyuserforum.de/galerie/details.php?image_id=131344)