SonyUserforum

SonyUserforum (https://www.sonyuserforum.de/forum/index.php)
-   Die Glaskugel (https://www.sonyuserforum.de/forum/forumdisplay.php?f=104)
-   -   A77 mit Pixel-Binning für High-ISO? (https://www.sonyuserforum.de/forum/showthread.php?t=106585)

wolfram.rinke 01.08.2011 16:04

A77 mit Pixel-Binning für High-ISO?
 
Hallo,
habe im gelben-Rumorsforum gelesen bzw. gehört, dass die neue D400 von Nikon (A77 Konkurrenzmodell die den selben Sensor wie A77 haben soll) im high-iso Bereich ein Pixel-Binning erlaubt. D.h. es werden zB 4-Pixel zusammengeschalten, was 1) die Pixelempfindlichkeit enorm verbessert 2) das Rauschen minimiert und 3) keine interpolierten Pixel mehr wie bei einem Bayer-Sensor-Muster erfordert.

Ob das die SLT-A77 auch können wird. Was meint ihr, oder wird diese technische Möglichkeit (auto-of Cam) dem Mitbewerb überlassen?

Itscha 01.08.2011 16:08

Den gleichen Sensor hatten ja schon mehrere Nikons und Sonys. Die Signalverarbeitung und die Bildqualität unterschieden sich aber offensichtlich deutlich, z.B. im Rauschbereich.
Wenn man davon ausgeht, dass für die Signalverarbeitung jeder Hersteller selbst verantwortlich zeichnet, wird das wohl nicht automatisch in der A77 zu finden sein, nur weil es in der D400 mit dem eventuell gleichen Sensor drin ist (sein könnte).

Pixelquäler 01.08.2011 16:25

Super, noch ein A77 Thread.:roll:

aidualk 01.08.2011 16:46

oooh bitte, hängt den an einen der anderen dran... :?

RainerV 01.08.2011 16:54

Wozu haben wir denn dann die Glaskugel "geschaffen"? Um nachher - genau wie vor der Einführung der Glaskugel - doch alles wieder in "einen" Thread, in dem man dann nichts mehr findet und sich deshalb alles permanent wiederholt, zu packen?

Und dieses Thema hier hatten wir meines Wissens noch nicht.

Sollte sich dann dieses Thema wiederholen, dann kann man ja zusammenführen oder einfach auf den bestehenden Thread verweisen.

Daß in der Glaskugel teilweise wild spekuliert wird, liegt in der Natur der Sache. Damit müßt ihr klar kommen. Auch wenns sicher manchmal schwer fällt. ;)

Wir "armen" Moderatoren müssen in den Thread ja auch immer wieder mal versuchen allzuviel Off-Topic zu unterbinden, auch wenn wir eigentlich selbst nicht wissen was eigentlich "On-Topic" wäre. ;)

Vielleicht kann uns jemand, der technisch bewandert ist, ja auch sagen, ob das Pixel-Binning überhaupt Vorteile gegenüber dem nachträglichen Runterrechnen am PC bringen kann. Das wäre dann eine durchaus interessante Erkenntnis.

Rainer

Neonsquare 01.08.2011 17:01

Zitat:

Zitat von Itscha (Beitrag 1204590)
Den gleichen Sensor hatten ja schon mehrere Nikons und Sonys. Die Signalverarbeitung und die Bildqualität unterschieden sich aber offensichtlich deutlich, z.B. im Rauschbereich.

Hab ich was verpasst? Der lediglich gerüchteweise vermutete 24MP-Sensor der A77 soll bereits in mehreren Nikons und Sonys benutzt worden sein? Klar - in Prototypen vielleicht ;).

Vielleicht ist diese Info ja die Wahrheit hinter den "Fovevon-Gerüchten" vor einiger Zeit. Der 24MP-Sensor hätte dann eine neuartige Matrixanordnung, die ein solches Pixelbinning zulässt. Kennt man ja an und für sich ja auch von Kompaktknipsen wie der Fuji F200 EXR.

Ernst-Dieter aus Apelern 01.08.2011 17:12

Zitat:

Zitat von Itscha (Beitrag 1204590)
Den gleichen Sensor hatten ja schon mehrere Nikons und Sonys. Die Signalverarbeitung und die Bildqualität unterschieden sich aber offensichtlich deutlich, z.B. im Rauschbereich.
Wenn man davon ausgeht, dass für die Signalverarbeitung jeder Hersteller selbst verantwortlich zeichnet, wird das wohl nicht automatisch in der A77 zu finden sein, nur weil es in der D400 mit dem eventuell gleichen Sensor drin ist (sein könnte).

Den Spagath zwischen Rauschfreiheit und Detailerhaltung bei High Iso hat in der Vergangenheit Nikon wohl etwas besser geschafft.Zumindest mit den letzten Modellen hat Sony aber aufgeholt, läßt doch hoffen!:roll:
Ernst-Dieter

---------- Post added 01.08.2011 at 17:19 ----------

Zitat:

Zitat von wolfram.rinke (Beitrag 1204588)




Ob das die SLT-A77 auch können wird. Was meint ihr, oder wird diese technische Möglichkeit (auto-of Cam) dem Mitbewerb überlassen?

Ist Dein Fragezeichen ein eher "ängstliches" Fragezeichen?
Ernst-Dieter

Itscha 01.08.2011 17:30

Zitat:

Zitat von Neonsquare (Beitrag 1204636)
Hab ich was verpasst? Der lediglich gerüchteweise vermutete 24MP-Sensor der A77 soll bereits in mehreren Nikons und Sonys benutzt worden sein?

Na klar, weiß doch jeder, dass Sony in seinen Kameras die alten Sensoren aus unverkäuflichen Nikons verbaut! Oder willst Du hier was anderes behaupten?:evil:

:mrgreen: ;)

usch 01.08.2011 17:35

Zitat:

Zitat von RainerV (Beitrag 1204627)
Wozu haben wir denn dann die Glaskugel "geschaffen"? Um nachher - genau wie vor der Einführung der Glaskugel - doch alles wieder in "einen" Thread, in dem man dann nichts mehr findet und sich deshalb alles permanent wiederholt, zu packen?

Eigentlich ging es in erster Linie darum, darum, die Spekulationen aus den anderen Unterforen herauszuhalten. Von mir aus kann man die A77-Threads auch gerne aufteilen in einen EVF-Thread, einen Sensor-Thread, einen Speicherkarten-Thread, einen Akku-Thread, ... :cool:

Zitat:

Zitat von RainerV (Beitrag 1204627)
Vielleicht kann uns jemand, der technisch bewandert ist, ja auch sagen, ob das Pixel-Binning überhaupt Vorteile gegenüber dem nachträglichen Runterrechnen am PC bringen kann.

Man spart etwas analoges Verstärkerrauschen, weil man mit größeren Ladungsmengen arbeiten kann und nicht so weit aufdrehen muß. Der andere Effekt, den man auch nachträglich erreichen könnte, kommt dann da noch oben drauf.

Ein weiterer Vorteil wäre, daß dann die Raw-Dateien nur noch ein Viertel der Größe hätten (6 MP statt 24 MP); ich glaube, ich würde das immer eingeschaltet lassen. ;)

Problematisch ist das Bayer-Muster, weil man nur gleichfarbige Pixel zusammenschalten kann und es gar keine nebeneinanderliegenden Pixel der gleichen Farbe gibt. Phase One löst das beim P65+ dadurch, daß sie Rot und Blau horizontal und vertikal auf Lücke verbinden und Grün diagonal, was natürlich einen völlig anderen Demosaiking-Algorithmus erfordert.

wolfram.rinke 01.08.2011 17:44

Zitat:

Zitat von Ernst-Dieter aus Apelern (Beitrag 1204645)
Den Spagath zwischen Rauschfreiheit und Detailerhaltung bei High Iso hat in der Vergangenheit Nikon wohl etwas besser geschafft.Zumindest mit den letzten Modellen hat Sony aber aufgeholt, läßt doch hoffen!:roll:
Ernst-Dieter

---------- Post added 01.08.2011 at 17:19 ----------


Ist Dein Fragezeichen ein eher "ängstliches" Fragezeichen?
Ernst-Dieter

Das "Rauschproblem" bei den Alphas lag IMHO am fehlenden oder schlechten Farbentrauschen der verwendeten JPG-Engine in den Cams. Das hat sich sicher sehr verbessert bzw. wurde in den aktuellen Modellen berücksichtigt. Vielleicht auch einiges sensorseitig verbessert (speziell der Rot-Kanal war ja nicht zu übersehen ;) ).

Das ist etwas OT:
Das Fragezeichen ist schon etwas "ängstlich" zu verstehen. Immerhin hat Nikon am gleichen Tag auch ein "major announcement" . Wobei es den Gerüchten zufolge nicht eine D400 sondern eine D800 und eine D4 sein soll (beide FX Format) mit 24Mpix bzw 32Mpix :shock: und Sony will die A850/A900 Nachfolger erst 2012 vorstellen. :shock: :shock:

Vielleicht ist das auch nur ein Marketing-Trick und Nikon und Sony tauschen sich die Märkte ab. Diesmal Sony im APS-C Segment mit der A77 dafür Nikon im FX Segment und im nächsten Jahr umgekehrt. Da kommt sich dann niemand in die Quere.

Fastboy 01.08.2011 17:45

Zitat:

Zitat von Itscha (Beitrag 1204650)
Na klar, weiß doch jeder, dass Sony in seinen Kameras die alten Sensoren aus unverkäuflichen Nikons verbaut! Oder willst Du hier was anderes behaupten?:evil:

:mrgreen: ;)

Es gibt keine unverkäuflichen Nikons. :twisted: Das sind doch Profigeräte, die reisst man den Händler doch gleich von der Palette. ;)

Das ist doch Sony die nur Ladenhüter für Laien Amateurknipser.

LG
Gerhard

Slowlens 01.08.2011 20:47

Zitat:

Zitat von RainerV (Beitrag 1204627)
. ;)



Vielleicht kann uns jemand, der technisch bewandert ist, ja auch sagen, ob das Pixel-Binning überhaupt Vorteile gegenüber dem nachträglichen Runterrechnen am PC bringen kann. Das wäre dann eine durchaus interessante Erkenntnis.

Rainer

Wenn die Information stimmt, dass der Entfall der Bayer Interpolation und des AA Filters damit einhergeht, dann ist das eine physikalische Änderung in der Kamera, die bereits dort höhere Auflösung und Grundschärfe herbeiführt, die man am PC nicht simulieren kann.

Sollte diese Information nicht stimmen, dann wissen wir zu wenig über die Art der Implementierung, um Deine Frage zu beantworten.

Ich denke, die entsprechenden Gerüchte verdichten sich kurz vor dem announcement und sind korrekt und kohärent mit dem älteren rumor, der besagte, dass die A77 eine 60% höhere auflösung haben wird gegenüber der A700. Das liesse sich alleine durch Verdopplung der Pixelzahl auf gleicher Fläche nicht erreichen.

wolfram.rinke 01.08.2011 21:57

Zitat:

Zitat von Slowlens (Beitrag 1204745)
Wenn die Information stimmt, dass der Entfall der Bayer Interpolation und des AA Filters damit einhergeht, dann ist das eine physikalische Änderung in der Kamera, die bereits dort höhere Auflösung und Grundschärfe herbeiführt, die man am PC nicht simulieren kann.
...
Ich denke, die entsprechenden Gerüchte verdichten sich kurz vor dem announcement und sind korrekt und kohärent mit dem älteren rumor, der besagte, dass die A77 eine 60% höhere auflösung haben wird gegenüber der A700. Das liesse sich alleine durch Verdopplung der Pixelzahl auf gleicher Fläche nicht erreichen.

Sony hat ja bereits einen Exmor 20Mpix APS-C 4-HD Sensor mit einem neuen Pixel-Layout bereits am Markt und dieser bewährt sich in der top Video-Camera F65. Es handelt sich dabei um einen Sensor ohne Bayer-Anordnung und ohne AA-Filter, den braucht es nicht mehr wegen einer neuen Pixel-Anordnung. Vielleicht hat da eine Entwicklung der Video-Abteilung in die SLT/DSLR Entwicklung einzuggehalten.

Details zur Erinnerung gibt es ja hier: http://pro.sony.com/bbsc/video/colle...id&tp=true#top

Slowlens 01.08.2011 23:19

Wolfram, danke für den interessanten link. Das 38 Minuten Video zur F65 kann ich weiterempfehlen.

http://pro.sony.com/bbsc/video/colle...id&tp=true#top

'To 4k and beyond' ist der Titel des Videos.

oglala 02.08.2011 00:43

Zitat:

Zitat von wolfram.rinke (Beitrag 1204655)
Das "Rauschproblem" bei den Alphas lag IMHO am fehlenden oder schlechten Farbentrauschen der verwendeten JPG-Engine in den Cams. Das hat sich sicher sehr verbessert bzw. wurde in den aktuellen Modellen berücksichtigt. Vielleicht auch einiges sensorseitig verbessert (speziell der Rot-Kanal war ja nicht zu übersehen ;) ).

Da auch die RAWs ganz gewaltig farbrauschten und schon vorher so mach Sony Sensor seine Wege zu Nikon gefunden hat, dürfte das Problem wohl in der Signalverarbeitung gelegen haben.

Haben, denn Sony hat wohl aufgeschlossen, zumindest wenn man den Tests glauben darf. Ich habe nur den Sony-internen Vergleich, und die Unterschiede sind gewaltig.

Zitat:

Zitat von wolfram.rinke (Beitrag 1204655)
Vielleicht ist das auch nur ein Marketing-Trick und Nikon und Sony tauschen sich die Märkte ab. Diesmal Sony im APS-C Segment mit der A77 dafür Nikon im FX Segment und im nächsten Jahr umgekehrt. Da kommt sich dann niemand in die Quere.

Zwischen Sony und Nikon scheint es in der Tat so etwas wie ein "long term relationship" zu geben. Man kommt sich, gerade in letzter Zeit, auffällig wenig ins Gehege.

Das ist dann das tolle am Systemwechsel von Sony zu Nikon: Die Objektive kann man nicht mitnehmen, den Sensor schon :lol::lol::lol:

Ernst-Dieter aus Apelern 02.08.2011 06:29

Zitat:

Zitat von wolfram.rinke (Beitrag 1204655)
Das ist etwas OT:
Das Fragezeichen ist schon etwas "ängstlich" zu verstehen. Immerhin hat Nikon am gleichen Tag auch ein "major announcement" . Wobei es den Gerüchten zufolge nicht eine D400 sondern eine D800 und eine D4 sein soll (beide FX Format) mit 24Mpix bzw 32Mpix :shock: und Sony will die A850/A900 Nachfolger erst 2012 vorstellen. :shock: :shock:

Wobei ich mir fast sicher bin, daß die noch unbekannten Nikons in einer eigenen , anpruchsvollen Preisliga spielen werden.
Ernst-Dieter

---------- Post added 02.08.2011 at 06:31 ----------

Zitat:

Zitat von oglala (Beitrag 1204817)
Da auch die RAWs ganz gewaltig farbrauschten und schon vorher so mach Sony Sensor seine Wege zu Nikon gefunden hat, dürfte das Problem wohl in der Signalverarbeitung gelegen haben.




Eine andere Ursache gibt es wohl nicht! Zustimmung.
Ernst-Dieter

RainerV 02.08.2011 07:43

Zitat:

Zitat von Slowlens (Beitrag 1204745)
Wenn die Information stimmt, dass der Entfall der Bayer Interpolation und des AA Filters damit einhergeht, dann ist das eine physikalische Änderung in der Kamera, die bereits dort höhere Auflösung und Grundschärfe herbeiführt, die man am PC nicht simulieren kann.
...

Schauen wir mal, ob tatsächlich solch ein Sensor kommt. Ich habe da so meine Zweifel.

Rainer

steve.hatton 02.08.2011 11:25

Brauchen wir jetzt einen neuen Thread für die A79 ?

el-ray 02.08.2011 14:00

http://i55.tinypic.com/4htxzs.jpg

:D

mgr 03.08.2011 16:53

Ganz ist mir nicht klar wie bei einem CMOS Sensor (nicht CCD) ein sinnvolles analoges
Pixel Binning funktionieren soll um damit die Quanteneffizienz zu erhöhen und trotzdem
die Farbinformation zu erhalten ?

LG Martin

Systemwechsel 03.08.2011 16:55

Zitat:

Zitat von mgr (Beitrag 1205534)
Ganz ist mir nicht klar wie bei einem CMOS Sensor (nicht CCD) ein sinnvolles analoges
Pixel Binning funktionieren soll um damit die Quanteneffizienz zu erhöhen und trotzdem
die Farbinformation zu erhalten ?

LG Martin

Die Quantenausbeute wird ganz sicher nicht erhöht.

usch 03.08.2011 17:04

Zitat:

Zitat von mgr (Beitrag 1205534)
Ganz ist mir nicht klar wie bei einem CMOS Sensor (nicht CCD) ein sinnvolles analoges Pixel Binning funktionieren soll um damit die Quanteneffizienz zu erhöhen und trotzdem die Farbinformation zu erhalten ?

So? http://www.phaseone.com/Digital-Back...ensorplus.ashx

Ich seh jetzt aber nicht, wo da der prinzipielle Unterschied zwischen CMOS und CCD sein sollte.

Zitat:

Zitat von Systemwechsel (Beitrag 1205537)
Die Quantenausbeute wird ganz sicher nicht erhöht.

Es geht um das Signal/Rauschverhältnis. Die Ausbeute ist ja nur eine Funktion der wirksamen Sensorfläche.

Systemwechsel 03.08.2011 17:08

Zitat:

Zitat von usch (Beitrag 1205540)
So? http://www.phaseone.com/Digital-Back...ensorplus.ashx

Ich seh jetzt aber nicht, wo da der prinzipielle Unterschied zwischen CMOS und CCD sein sollte.

Was mit der Ladung passiert...
Zitat:

Es geht um das Signal/Rauschverhältnis. Die Ausbeute ist ja nur eine Funktion der wirksamen Sensorfläche.
Nein.

mgr 03.08.2011 17:16

Zitat:

Zitat von Systemwechsel (Beitrag 1205537)
Die Quantenausbeute wird ganz sicher nicht erhöht.

Sorry ich hab das mit Full Well Capacity verwechselt.

---------- Post added 03.08.2011 at 17:33 ----------

Zitat:

Zitat von usch (Beitrag 1205540)
So? [url]http://www.phaseone.com/Digital-Backs/P65/~/media/Phase%20One/Reviews/Review%20pdfs/Backs/Phase-One-Sensorplus.ashx[/url

Das mit der Anordnung und den Farben leuchtet mir einigermassen ein, allerdings ist mir
das Ganze von der technischen Realisierung her bei CMOS Chips immer noch nicht
wirklich klar. Bisher hat es doch immer geheissen Binning ist bei CMOS nicht wirklich
realisierbar. Ist nicht ein Vorteil beim Binning, dass die Photonen in die benachbarten
"Töpfe" überlaufen können und somit nicht verloren gehen? Wie ist das eigentlich mit
den Pixelabständen und "Anti-Blooming" (haben die DSLRs so was überhaupt?)
vereinbar? Vielleicht stell ich mir das auch falsch vor.

LG Martin

alberich 03.08.2011 17:43

http://www.cmosis.com/assets/pdf/pub...s-june2009.pdf

mgr 03.08.2011 17:55

Zitat:

Zitat von alberich (Beitrag 1205556)

Danke für den Link. Nicht ganz trivial aber sehr interessant und vielversprechend.
Falls das wirklich kommt bin ich schon auf das Ergebnis gespannt.

LG Martin

Tsal 05.08.2011 23:44

nun statt Pixel-binning wirds ja wahrscheinlich Mulit-NR haben, was ich sehr interessant finde mit dem entfal des Spiegelklappens und dem schnellen Verschluss. Wäre sehr fein wenn es sich fast wie nur ein Foto anfühlen würde.

Systemwechsel 09.08.2011 09:42

Zitat:

Zitat von mgr (Beitrag 1205558)
Danke für den Link. Nicht ganz trivial aber sehr interessant und vielversprechend.
Falls das wirklich kommt bin ich schon auf das Ergebnis gespannt.

LG Martin

Vielversprechend? Es zeigt, dass man bei CMOS mit immensem Aufwand nur einen Bruchteil dessen errreichen kann, was bei monochromen CCDs völlig problemlos und absolut flexibel möglich ist. Binning von 5x7 oder 3x11 gefällig?

mgr 12.08.2011 23:41

Zitat:

Zitat von Systemwechsel (Beitrag 1207931)
Es zeigt, dass man bei CMOS mit immensem Aufwand nur einen Bruchteil dessen errreichen kann, was bei monochromen CCDs völlig problemlos und absolut flexibel möglich ist.

Mag sein. Aber was wäre denn eine sinnvolle Alternative für DSLRs ? Von CCDs geht man ja anscheinend weg.

Martin

wolfram.rinke 13.08.2011 08:07

Deep-Sky-Stacker unterstützt Pixel-Binning bei der Entwicklung aus dem RAW-File.
Kennt wer von euch einen RAW-Konverter der dies auch kann und nicht wie DSS spezialisiert ist auf Astro-Fotografie?

Habe leider bis jetzt nichts gefunden ausser DSS.

TONI_B 13.08.2011 08:26

Ja, ich habe mich auch schon gefragt, warum man das pinning nicht nachher per EBV aus den raw-Files macht!

Hast du DSS schon mal auf normale Bilder angewendet?

Neonsquare 13.08.2011 09:12

AFAIK hat man bei Pixelbinning im Sensor weniger Systemrauschen, weil die Ladungen mehrerer Pixel gemeinsam erfasst und gewandelt werden. Bei einem Binning im Postprocessing hat man bei jedem Teilpixel eine kleine Menge Rauschen, die beim verrechnen zu einem Gesamtpixel noch verteilt würde.

mrieglhofer 13.08.2011 11:04

Zitat:

die beim verrechnen zu einem Gesamtpixel noch verteilt würde.
wie meinst das? Wird es dann weniger oder mehr?

M.E. müßte, da das Rauschen ja statistisch verteilt ist, der Signal Rauschabstand dabei ansteigen.

WoBa 13.08.2011 11:40

Hallo Wolfram,

ausser DeepSky Stacker können alle EBV-Programmme für Astrobildbearbeitung Pixelbinning. Ich benutze dafur Astro Art 5. Tolles Programm.
Nur muß man wissen wann und wo Binning sinnvoll eingesetzt werden kann.
Mitg meinen Astrokameras ist bis 4x4 Binning möglich. Macht aber erst bei Brennweiten über 2m sinn. Damit wird ein besseres Sampling erreicht.
Dazu gibt es auch eine Formel um das zu berechnen.
Rauschminderung geht besser mit stacken, was auch die A580 kameraintern macht (6 Bilder hintereinander aufgenommen.
Hardwarebinning macht bei normalen Kammeras nur wenig sinn, da bei den kurzen Brennweiten sehr viele Details verloren gehen, auch die Dynamik leidet darunter, und und und..

Gruß

Wolfgang

wolfram.rinke 13.08.2011 12:06

Zitat:

Zitat von WoBa (Beitrag 1209663)
Hallo Wolfram,

ausser DeepSky Stacker können alle EBV-Programmme für Astrobildbearbeitung Pixelbinning. Ich benutze dafur Astro Art 5. Tolles Programm.
Nur muß man wissen wann und wo Binning sinnvoll eingesetzt werden kann.
Mitg meinen Astrokameras ist bis 4x4 Binning möglich. Macht aber erst bei Brennweiten über 2m sinn. Damit wird ein besseres Sampling erreicht.
Dazu gibt es auch eine Formel um das zu berechnen.
Rauschminderung geht besser mit stacken, was auch die A580 kameraintern macht (6 Bilder hintereinander aufgenommen.
Hardwarebinning macht bei normalen Kammeras nur wenig sinn, da bei den kurzen Brennweiten sehr viele Details verloren gehen, auch die Dynamik leidet darunter, und und und..

Gruß

Wolfgang

Hallo Wolfgang, danke für den Hinweis.

Systemwechsel 13.08.2011 12:10

Zitat:

Zitat von mrieglhofer (Beitrag 1209649)
wie meinst das? Wird es dann weniger oder mehr?

M.E. müßte, da das Rauschen ja statistisch verteilt ist, der Signal Rauschabstand dabei ansteigen.

Beim echten Binning bleibt das Rauschen gleich, während das Signal mit dem Binningfaktor zunimmt. Entsprechend steigt das Signal-Rausch-Verhältnis.

WoBa 13.08.2011 12:29

Hallo Systemwechsel,

genau so ist es.

Gruß

Wolfgang

Neonsquare 13.08.2011 12:53

Zitat:

Zitat von mrieglhofer (Beitrag 1209649)
wie meinst das? Wird es dann weniger oder mehr?

M.E. müßte, da das Rauschen ja statistisch verteilt ist, der Signal Rauschabstand dabei ansteigen.

Einfach gesagt: Bei jedem Pixel hast Du ein immanentes Grundrauschen**. Von mir aus stellst Du es Dir so vor, dass alle Pixel bis zu den Knöcheln im Wasser stehen ;). Fasst Du bei einem Hardware-Binnung mehrere Pixel zusammen, dann ist dieses Grundrauschen trotzdem gleich hoch - das Wasser steht immer noch bis zu den Knöcheln. Aber mehrere Pixel "sehen" mehr Licht als ein Pixel. Der Analog-Digitalwandler kriegt ohne Bindung also weniger Signal bei gleichem Grundrauschen.

Bei Postprocessing ist das anders - das befindet sich ja nach der Wandlung. Der ADC hat also von jedem Pixel genau die Signalqualität bekommen, die er von einem einzelnen Pixel bekommt und es hat sich nach mehreren Ausleseprozessen eben auch mehr Rauschen aufgebaut. Der Algorithmus hat dann zwar für einen "Software-Binning-Pixel" auch die Signalinformation mehrerer Pixel - aber auch das Rauschen mehrerer Pixel. Bei der Verrechnung wird ja sowohl "Signal" als auch "Rauschen" einbezogen - also korreliert der resultierende Pixel mit dem Rauschen aller beteiligter Pixel. Im Resultat bringt es ein bisschen was, weil eben das Signal üblicherweise der Löwenteil gegenüber dem Rauschen ist (Scherenprinzip). Es ist ein ähnlicher Vorteil wie bei Multiframe-NR - nur das man bei jenem eben keinen direkten Auflösungsverlust durch Binning hat.

Programme wie PhotoAcute können aus Bildserien nicht nur Rauschen entfernen (Multiframe-NR) sondern beispielsweise auch "Superresolution-Bilder" erzeugen. In der Multiframe-Technik steckt schon so einiges an Potential - was sich natürlich mit Kameras wie der A55 (10FPS) oder gar der A77 mit möglicherweise 12FPS besonders gut nutzen lässt.

**) Das hier gemeinte Rauschen entsteht beim Prozess des Auslesens des Pixel. Wenn ein Sensor also mehrere Pixel auf einmal in einen Gesamtwert auslesen kann, entsteht trotzdem nur einmal dieses systemische Rauschen.

TONI_B 13.08.2011 13:25

Zitat:

Zitat von Neonsquare (Beitrag 1209688)
Einfach gesagt: Bei jedem Pixel hast Du ein immanentes Grundrauschen**. ...
**) Das hier gemeinte Rauschen entsteht beim Prozess des Auslesens des Pixel. Wenn ein Sensor also mehrere Pixel auf einmal in einen Gesamtwert auslesen kann, entsteht trotzdem nur einmal dieses systemische Rauschen.

So einfach ist das nicht! Es gibt mehrere Rauschquellen:

1. Thermisches Rauschen (kommt daher, dass Elektronen generiert werden, obwohl gar kein Photon auftrifft)

2. Ausleserauschen (kommt von der Auslese-Elektronik), welches wiederum verschiedene Quellen hat.

usch 13.08.2011 15:18

Zitat:

Zitat von TONI_B (Beitrag 1209705)
So einfach ist das nicht!

Natürlich kann man das beliebig kompliziert machen. Eine der Vorlesungen in meinem Studium hat sich ein Semester lang mit nichts anderem als Rauschen und Signalfehlern beschäftigt.

Aber hier läuft es letztlich immer darauf hinaus, das Signal so früh wie möglich in der Verarbeitungskette anzuheben, um über das Grundrauschen zu kommen. Wenn du vier Pappkartons (Photonen) im Keller (Sensor) auf dem Boden stehen hast und dir läuft Wasser in die Bude (Rauschen), hast du vier abgesoffene Kartons. Wenn du die anschließend rausholst (Raw-Datei) und stapelst (Software-Binning), sind es immer noch vier abgesoffene Kartons, nur vier Mal so hoch. Hättest du die Kartons gleich von Anfang an im Keller gestapelt (Hardware-Binning), wäre in der Überschwemmung nur einer abgesoffen und die anderen drei hättest du trocken herausholen können. Mal bildlich gesprochen. ;)


Alle Zeitangaben in WEZ +2. Es ist jetzt 21:18 Uhr.