PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : A77: Was bringt das Runterskalieren von 24 auf 12 Mio Pixel?


qezal
23.03.2012, 17:01
Wer kann mir die möglichen Vor- oder Nachteile eines Runterskalierens von 24 auf 12 Mio Pixel näher erläutern? Oder - ganz naiv gefragt - habe ich dann, wenn ich bei der A77 im Menü von 24 auf 12 runterschalte, was das Sensorverhalten angeht, eine Kamera vor mir, die genauso reagiert, als wenn die Kamera schon vom Werk aus mit einem 12 Mio Pixel-Sensor ausgeliefert worden wäre? Ist die Antwort "JA", wäre meine Zusatzfrage:
Gehe ich dann evtl. auch möglichen Rauschproblemen, die ja von vielen wegen der hohen Pixelzahl der A77 befürchtet werden, aus dem Weg?

Anaxaboras
23.03.2012, 17:09
NEIN.

Dennoch zur zweiten Frage: JA (zumindest wird das Rauschen durch Runterskalieren verringert)

Martin

zippo
23.03.2012, 17:16
Wer kann mir die möglichen Vor- oder Nachteile eines Runterskalierens von 24 auf 12 Mio Pixel näher erläutern?

Vorteile: Mehr Bilder passen auf eine Speicherkarte, eventuell reagiert die Kamera schneller (weiß aber nicht ob das tatsächlich spürbar ist außerhalb von Serienaufnahmen).

Nachteil: Die Hälfte der Bildinformationen geht verloren.

Oder - ganz naiv gefragt - habe ich dann, wenn ich bei der A77 im Menü von 24 auf 12 runterschalte, was das Sensorverhalten angeht, eine Kamera vor mir, die genauso reagiert, als wenn die Kamera schon vom Werk aus mit einem 12 Mio Pixel-Sensor ausgeliefert worden wäre?

Nein. Die Erzeugung des 12-mp-Bildes geschieht erst nach der Aufnahme.

Viele Grüße von Zippo!

---------- Post added 23.03.2012 at 16:19 ----------

NEIN.

Dennoch zur zweiten Frage: JA (zumindest wird das Rauschen durch Runterskalieren verringert)

Martin

Aber nur weil auch alle anderen Bildinformationen durch Runterskalieren verringert werden. :-)

mrieglhofer
23.03.2012, 18:49
Na ja, die ganze Verarbeitungskette spart Speicher, Zeit usw.

Wenn du bei einer Pressekonferenz Bilder mit 24 MPix machst und sie in der Pause über UMTS hochlädst, dann ahnst du vielleicht, warum kleiner da feiner ist.

Wenn du z.B bei einer Veranstaltung nicht vorhast, Bilder größer als A3 zu machen, kannst getrost runterskalieren. Und wennst dann doch ein Poster brauchst, schaffst du mit 12 Mpix immer noch bis 80*60.

Oder wenn du High ISO einsetzt, dann wirst sehr oft zur Verbesserung der Qualität runterskalieren. Das kannst dann auch gleich machen, wennst nicht nachbearbeiten willst.

Prinzipiell gehen die meisten Leute davon aus, von jedem Bild extreme Crops zu brauchen oder A1 oder A0 auszugeben. Wäre ja blöd, wenn das einzige gute Bild dann zu wenig Auflösung hat. In der Regel bleibt das aber ein Wunschtraum;-)
Profis verwenden die Auflösung, die sie für den Auftrag brauchen, das sowohl im Druck als auch in der Fotografie. Gehen also eher vom Output aus. Macht ja keinen Sinn für Passbilder 24 MPIx zu verwenden, da sind schon 6MPix übertrieben.

Jens N.
23.03.2012, 22:11
Nachteil: Die Hälfte der Bildinformationen geht verloren.


Und RAW ist nich.

Stuessi
23.03.2012, 23:51
...Nachteil: Die Hälfte der Bildinformationen geht verloren.
...
Das ist ein Irrtum!
Es geht fast nichts verloren, denn ein 24 MPixel Bild (Bayer-Sensor) enthält etwa nur die Informationen eines echten 12 MPixel Bildes.
Zum Beweis habe ich einen Ausschnitt 500x500 Pixel aus einem 24 MPixel Bild auf 70% runterskaliert (350x350Pixel), abgespeichert und dann wieder auf 500x500 Pixel hochskaliert.

6/A-Testbild-A900-DSC05492-Blende_8.jpg
-> Bild in der Galerie (http://www.sonyuserforum.de/galerie/details.php?image_id=143576)
6/B-A-Testbild-A900-DSC05492-Blende_8.jpg
-> Bild in der Galerie (http://www.sonyuserforum.de/galerie/details.php?image_id=143577)
6/C-B-A-Testbild-A900-DSC05492-Blende_8.jpg
-> Bild in der Galerie (http://www.sonyuserforum.de/galerie/details.php?image_id=143578)

Gruß,
Stuessi

Erebos
24.03.2012, 09:17
Profis verwenden die Auflösung, die sie für den Auftrag brauchen, das sowohl im Druck als auch in der Fotografie. Gehen also eher vom Output aus. Macht ja keinen Sinn für Passbilder 24 MPIx zu verwenden, da sind schon 6MPix übertrieben.


Ich lese hier immer, dass Profis nicht mit RAW arbeiten? Ich für meinen Teil schmeisse lieber nach der Aufnahme Informationen weg.

@quezal:
Die Kamera arbeitet immer mit 24MPix, du kannst dich nur entscheiden ob bei der Umwandlung nach .jpg in der Kamera das Bild von der Auflösung her verringert wird.
Und das mache ich lieber später am PC.

padiej
25.03.2012, 01:10
Stuessi hat vollkommen Recht !!!

Der Bayer Sensor ist auf 12 MP skaliert nicht schlechter. Nur im Labor wird man die Unterschiede zum 24 MP Bild messen können.
Ich habe schon in der 6 MP Ära solche Vergleiche gemacht. Bayer erzeugt viele "Luftdaten", die man wegskalieren kann.


Zur Frage Runterskalieren:

Ich nehme RAW auf.
Ich drehe und schneide zu.
Ich entrausche und verbessere.
Dann skaliere ich und bringe die Bilder meist auf 6 MP heraus.

Aber diese 6 MP haben nichts mehr mit den 6 MP alter DSLRs zu tun.
Diese 6 MP sind dann "foveonlike" bzw. "analogkonform".

Ich meine damit - jeder Bildpunkt hat seine "richtige" Farbe

mrieglhofer
25.03.2012, 01:45
Aber diese 6 MP haben nichts mehr mit den 6 MP alter DSLRs zu tun.
Diese 6 MP sind dann "foveonlike" bzw. "analogkonform".

Ich meine damit - jeder Bildpunkt hat seine "richtige" Farbe
Wenn du dich da nicht täuscht. Jedes Pixel hat dann die Mischung von 4 interpolierten, falschen Pixeln. Ob das dann die richtige Farbe ist? Sonst interpoliert das Auge.

Aber was beim Runterskalieren auftritt ist, dass das Rauschen vermindert wird, da dieses statistisch auf allen 4 Pixeln auftritt und sich dadurch tlw. aufhebt im Gegensatz zum Nutzsignal.
Und natürlich haben die derzeitigen Bayer Sensoren nur 50% der Pixel für grün und je 25% für blau und rot. Nachdem für die Luminanz hauptsächlich der Grünanteil genommen wird, sollte die tatsächlich Auflösung zumindest 50% sein. Je nach Algorithmus zur Auswertung auch mehr. Der Rest ist interpoliert. Der Grund liegt darin, dass das Auge Schärfe nicht an der Farbe erkennt sprich die Farbe kann unscharf sein ohne dass es stört.

zippo
25.03.2012, 02:59
Das ist ein Irrtum!
Es geht fast nichts verloren, denn ein 24 MPixel Bild (Bayer-Sensor) enthält etwa nur die Informationen eines echten 12 MPixel Bildes.

Ja aber Du erhältst ja beim Runterskalieren ja nicht die Originaldaten des Bayersensors, sondern aus den interpolierten 24mp wird noch mal interpoliert um ein 12mp Bild zu machen. Also doppelte Berechnung mit doppelten Schätzungen des Prozessors. Aus dem Gulasch kannst Du keine Kuh mehr machen! :-)

Viele Grüße von Zippo!

usch
25.03.2012, 04:28
Wenn du dich da nicht täuscht. Jedes Pixel hat dann die Mischung von 4 interpolierten, falschen Pixeln.
Nicht zwangsläufig. Jedes Pixel enthält immer noch genau einen echten Farbwert neben zwei interpolierten. Wenn du exakt 1:2 herunterskalierst, kannst du auch alle interpolierten Daten wegwerfen und ein neues Pixel aus einem echten Rotwert, einem echten Blauwert und zwei echten Grünwerten bilden. Dann hast du 100% echte Daten und gar nichts mehr interpoliert.

Sinnvollerweise würde man das gleich beim Demosaiken machen und die interpolierten Werte gar nicht erst erzeugen. Ich hoffe doch, daß der BIONZ so schlau ist und nicht erst aus den Bayer-Daten die dreifache Menge erzeugt, um sie dann wieder auf ein Viertel runterzurechnen.

About Schmidt
25.03.2012, 08:50
Ich lese hier immer, dass Profis nicht mit RAW arbeiten? Ich für meinen Teil schmeisse lieber nach der Aufnahme Informationen weg.


Es kommt doch immer darauf an, was der Profi aufnimmt und für was er es braucht. Ein Landschaftsfotograf, der Aufnahmen für Geo oder ähnliche Magazine macht, ist kaum unter Zeitdruck. Seine Aufnahmen müssen nur besser sein, als die der anderen Mitbewerber. Genau so glaube ich kaum, dass ein Studiofotograf seine Möglichkeiten verschenkt und mit JPG fotografiert.
Am roten Teppich sieht das anders aus. Die Bilder sind Minuten später in der Redaktion und da sitzen "Spezialisten" die dafür sorgen, dass das Bild nicht totgeblitzt oder das Dekolletee so sitzt wie gewünscht. Klar das ist überspitzt dar gestellt. Aber hier zählt weniger die Qualität als die Aktualität. Also warum soll der Profi hier RAW einsetzen? Meist würde hier BMP reichen :lol:

Gruß Wolfgang

Artur
25.03.2012, 08:55
Ich lese hier immer, dass Profis nicht mit RAW arbeiten?

Das stimmt nur bedingt: Sicher, rumrennende Reporter brauchen ggf. kein RAW. Will der Fotograf seine Bilder am PC nachbearbeiten - und das sind wohl numerisch die meisten - so ist RAW unverzichtbar.

laurel
25.03.2012, 09:08
Stuessi hat vollkommen Recht !!!

Der Bayer Sensor ist auf 12 MP skaliert nicht schlechter. Nur im Labor wird man die Unterschiede zum 24 MP Bild messen können.
Ich habe schon in der 6 MP Ära solche Vergleiche gemacht. Bayer erzeugt viele "Luftdaten", die man wegskalieren kann.


Zur Frage Runterskalieren:

Ich nehme RAW auf.
Ich drehe und schneide zu.
Ich entrausche und verbessere.
Dann skaliere ich und bringe die Bilder meist auf 6 MP heraus.

Aber diese 6 MP haben nichts mehr mit den 6 MP alter DSLRs zu tun.
Diese 6 MP sind dann "foveonlike" bzw. "analogkonform".

Ich meine damit - jeder Bildpunkt hat seine "richtige" Farbe

Hallo !
Diese Informationen sind mir neu .
Woher habt ihr dieses Wissen ??
mfg

---------- Post added 25.03.2012 at 09:11 ----------

Das ist ein Irrtum!
Es geht fast nichts verloren, denn ein 24 MPixel Bild (Bayer-Sensor) enthält etwa nur die Informationen eines echten 12 MPixel Bildes.
Zum Beweis habe ich einen Ausschnitt 500x500 Pixel aus einem 24 MPixel Bild auf 70% runterskaliert (350x350Pixel), abgespeichert und dann wieder auf 500x500 Pixel hochskaliert.

6/A-Testbild-A900-DSC05492-Blende_8.jpg
-> Bild in der Galerie (http://www.sonyuserforum.de/galerie/details.php?image_id=143576)
6/B-A-Testbild-A900-DSC05492-Blende_8.jpg
-> Bild in der Galerie (http://www.sonyuserforum.de/galerie/details.php?image_id=143577)
6/C-B-A-Testbild-A900-DSC05492-Blende_8.jpg
-> Bild in der Galerie (http://www.sonyuserforum.de/galerie/details.php?image_id=143578)

Gruß,
Stuessi

Hallo Stuessi !
Wenn ich 24 MP durch 3 rechne bekomme ich doch 8MP volle Farbinformationen .
Also sollte der 24MP Sensor echte 8 MP für die Bildauflösung zur Verfügung haben??
mfg

wus
25.03.2012, 10:49
(...)

Meist würde hier BMP reichen :lol:

Gruß Wolfgang
BMP wäre immer noch besser als JPG, da nicht komprimiert. Wenn es wie das JPG aus RGGB interpoliert wäre, wäre es allerdings doppelt so groß wie RAW.

Blitz Blank
25.03.2012, 12:16
Wenn ich 24 MP durch 3 rechne bekomme ich doch 8MP volle Farbinformationen .


Du mußt durch 4 teilen, nicht durch 3, denn jedes Pixel enthält ein Subpixel für Rot, eines für Blau und zwei für Grün.

Frank

Anaxaboras
25.03.2012, 13:39
Wenn ich 24 MP durch 3 rechne bekomme ich doch 8MP volle Farbinformationen .
Also sollte der 24MP Sensor echte 8 MP für die Bildauflösung zur Verfügung haben??
mfg

Du mußt durch 4 teilen, nicht durch 3, denn jedes Pixel enthält ein Subpixel für Rot, eines für Blau und zwei für Grün.

Richtig ist in der Tat: Um die Auflösung zu halbieren, muss man die Anzahl der Pixel durch 4 teilen. Das hat aber einen einfachen Grund: Nach der 1 ist die die 4 die nächste Zahl, aus der sich wieder ein Quadrat bilden lässt - man fasst also 2x2 Pixel zu einem neuen Bildpunkt zusammen.

Das mit den Subpixeln gilt nur für TFT-Monitore. Der Bildsensor ist farbenblind, er sieht nur schwarzweiß. Erst die "Bayer"-Brille lässt ihn Farbe "sehen". Wobei die vollen Farbinformationen eines Pixel stets interpoliert sind. Insofern ist Stuessis Beispiel auch wenig praxistauglich, da es keine Farbinformationen enthält.

Martin

wus
26.03.2012, 10:06
Stuessi hat vollkommen Recht !!!

Der Bayer Sensor ist auf 12 MP skaliert nicht schlechter. Nur im Labor wird man die Unterschiede zum 24 MP Bild messen können.
Ich habe schon in der 6 MP Ära solche Vergleiche gemacht. Bayer erzeugt viele "Luftdaten", die man wegskalieren kann.


Zur Frage Runterskalieren:

Ich nehme RAW auf.
Ich drehe und schneide zu.
Ich entrausche und verbessere.
Dann skaliere ich und bringe die Bilder meist auf 6 MP heraus.

Aber diese 6 MP haben nichts mehr mit den 6 MP alter DSLRs zu tun.
Diese 6 MP sind dann "foveonlike" bzw. "analogkonform".

Ich meine damit - jeder Bildpunkt hat seine "richtige" Farbe

Hallo Peter,

bist Du Dir sicher dass Dein RAW Konverter beim Runterskalieren von 24 auf 6 MP wirklich für jedes Pixel von den Original-Subpixeln des 24 Mega-Subpixel-RAWs ausgeht? Das wäre natürlich in der Tat eine neue Qualität und würde das doppelte Interpolieren das Zippo anspricht vermeidet. Funktionieren kann das natürlich nur bei genau 4:1 verkleinern, daher hinterlässt Deine Formulierung "...bringe die Bilder meist auf 6 MP heraus" schon erhebliche Zweifel daran.

Gibt es überhaupt RAW-Konverter die so eine Sonderfunktion bieten? Welchen verwendest Du?

Ich hoffe doch, daß der BIONZ so schlau ist und nicht erst aus den Bayer-Daten die dreifache Menge erzeugt, um sie dann wieder auf ein Viertel runterzurechnen.
Das wäre natürlich schön, aber ehrlich gesagt fast zu schön um wahr zu sein - daher glaube ich es erst mal nicht. Wäre aber sehr interessant es herauszufinden.

jennss
28.03.2012, 11:43
Ja aber Du erhältst ja beim Runterskalieren ja nicht die Originaldaten des Bayersensors, sondern aus den interpolierten 24mp wird noch mal interpoliert um ein 12mp Bild zu machen. Also doppelte Berechnung mit doppelten Schätzungen des Prozessors. Aus dem Gulasch kannst Du keine Kuh mehr machen! :-)


Doch, das geht. Beim 12 MP-Bild brauchst du auch keine Wiederbelebung, wie bei der Kuh. :D
Die Pixelschärfe wird beim Runterrechnen deutlich höher, ähnllich einem Foveonsensor. Wenn man das 12 MP-Bild wieder auf 24 MP hochrechnet, ist es kaum schlechter geworden. Vielleicht ein bisschen, aber ich meine, man hat bei 12 MP-Einstellung aus der A77 sicher noch deutlich mehr Details als bei den 16 MP einer A57. Dabei ist die Dateigröße jedoch kleiner als bei der A57.

Runterrechnen auf halbe nominelle Auflösung verringert das Rauschen auf Pixelgröße (100%-Betrachtung) um eine Blendenstufe. Auf Ausgabegröße bleibt es jedoch gleich.

RAW kann bei Sony jedoch nur in der nativen Auflösung gespeichert werden. Bei Canon geht das mit sRAW auch in kleineren Auflösungen. Auch bei denen ist das 100%-Rauschen geringer, aber die Dateigröße ist nicht soo viel kleiner wie das Original, d.h. ein 10 MP-sRAW aus der 22 MP 5D Mk2 ist größer als ein normales Raw einer 10 MP-Kamera. sRAW gibt es, soweit ich weiß, bisher nur bei Canon. Dürfte nicht ganz unkompliziert sein.
j.

Moritzplatz
03.04.2012, 00:44
Also soweit ich das weiß, und das kommt nicht von mir alleine, wird der Eingang an Pixeln reduziert, wenn ich auf z.B. 12 MP runtergehe. Heißt, dass die Hälfte aller Pixel auf dem Sensor ausgeschaltet werden und wirklich nur mit 12 MP aufgenommen wird und nicht hinterher auf 12 MP "runtergerechnet" wird. Macht auch sonst wenig Sinn... Oder?

Tira
03.04.2012, 07:35
...man hat bei 12 MP-Einstellung aus der A77 sicher noch deutlich mehr Details als bei den 16 MP einer A57. Dabei ist die Dateigröße jedoch kleiner als bei der A57.

Runterrechnen auf halbe nominelle Auflösung verringert das Rauschen auf Pixelgröße (100%-Betrachtung) um eine Blendenstufe. Auf Ausgabegröße bleibt es jedoch gleich.

Ich meine, der Signal/Rauschabstand verändert sich nur geringfügig durch die Skalierung, und zwar nur durch Ungenauigkeiten bedingt durch die Interpolation. Dabei muss er sich nicht zwangsläufig verringern.;)

Und für die Behauptung, ein 12-MP-Bild der A77/900 enthielte "sicher" mehr Details als ein 16-MP-Bild aus einer bspw. A57 hätte ich gern mal einen belastbaren Beleg. Ich halte es nicht für ausgeschlossen, aber doch unwahrscheinlich.


Heißt, dass die Hälfte aller Pixel auf dem Sensor ausgeschaltet werden und wirklich nur mit 12 MP aufgenommen wird und nicht hinterher auf 12 MP "runtergerechnet" wird. Macht auch sonst wenig Sinn... Oder?

Das kann so nicht funktionieren, bedingt durch die Bayer-Matrix benötigt die Signalverarbeitung zunächst alle Pixel des Sensors, um ein halbwegs glaubwürdiges Bild zu berechnen.

André 69
03.04.2012, 15:48
Wer kann mir die möglichen Vor- oder Nachteile eines Runterskalierens von 24 auf 12 Mio Pixel näher erläutern?

Hi qezal,

ich persönlich sehe den größten Vorteil in hoher Auflösung darin, das entstandene Bild -
sei es ein Einzelnes oder ein Panorama - nach dem fertigen bearbeiten etwas kleiner skalieren zu können, und damit mehr Pixelschärfe in das Bild zu bekommen.
Wenn Du Originalbilder aus den Sigma Kameras kennst (Foveon Sensor) weißt Du was ohne Tiefpassfilter und Bayer-Pattern möglich ist, höhere Schärfe bei geringerer Auflösung.

Gruß André

GBayer
08.04.2012, 13:03
Ja aber ... Aus dem Gulasch kannst Du keine Kuh mehr machen! :-)
Knapp und exakt getroffen! :top:

Neonsquare
08.04.2012, 14:56
Knapp und exakt getroffen! :top:

Eigentlich komplett daneben. Kühe und Information sind noch weiter voneinander entfernt als Äpfel und Birnen.

subjektiv
08.04.2012, 15:55
Das kann so nicht funktionieren, bedingt durch die Bayer-Matrix benötigt die Signalverarbeitung zunächst alle Pixel des Sensors, um ein halbwegs glaubwürdiges Bild zu berechnen.

Für ein möglichst gutes Bild mit sechs Megapixeln dürfte es trotzdem kein Vorteil sein, erst die fehlenden Infos für ein 24 MP-Bild komplett zu interpolieren.
Man hat doch schon echte 6 MP rot, echte 6 MP blau und 2 x 6 MP grün.
Klar, dass die Werte nicht unbearbeitet bleiben. Aber da gibt es schon wichtigere Korrekturen als das Aufblasen durch die Infos der Nachbarn auf volle 24 MP, um das Ergebnis dann doch wieder runterzurechnen...

Und das sind ja alle vorhandenen Pixel.

Dewus
08.04.2012, 18:04
Für ein möglichst gutes Bild mit sechs Megapixeln dürfte es trotzdem kein Vorteil sein, erst die fehlenden Infos für ein 24 MP-Bild komplett zu interpolieren.
Man hat doch schon echte 6 MP rot, echte 6 MP blau und 2 x 6 MP grün.
Klar, dass die Werte nicht unbearbeitet bleiben. Aber da gibt es schon wichtigere Korrekturen als das Aufblasen durch die Infos der Nachbarn auf volle 24 MP, um das Ergebnis dann doch wieder runterzurechnen...

Und das sind ja alle vorhandenen Pixel.

Man hat zwar echte Rot, Grün und Blauwerte, aber nicht an den gleichen Stellen. Die Bilder der einzelnen Farben sind um einen Pixel in Höhe und/oder Breite gegeneinander verschoben. Eine scharfe schwarz-weiß Kante bekäme damit zwangsläufig einen Farbsaum. Eine gute Iterpolation kann das vermindern und mittelt etwas das Rauschen heraus. Was am Ende das bessere Resultat gibt - wer weiß.

Fredda
08.04.2012, 18:11
Man hat zwar echte Rot, Grün und Blauwerte, aber nicht an den gleichen Stellen. Die Bilder der einzelnen Farben sind um einen Pixel in Höhe und/oder Breite gegeneinander verschoben. Eine scharfe schwarz-weiß Kante bekäme damit zwangsläufig einen Farbsaum. Eine gute Iterpolation kann das vermindern und mittelt etwas das Rauschen heraus. Was am Ende das bessere Resultat gibt - wer weiß.

Das stimmt zwar bei der "vollen" Auflösung von 24 Megapixeln, aber wenn man auf 6 MP geht, hat man für jeden einzelnen Pixel exakt einmal rot,blau und zweimal grün und dass die leicht versetzt sind ist egal da die Gesamtauflösung dermaßen ist dass alle 4 Subpixel dem gleichen Pixel angerechnet werden. Also sollte es auch zu keinen Farbsäumen kommen.

subjektiv
08.04.2012, 18:32
Man hat zwar echte Rot, Grün und Blauwerte, aber nicht an den gleichen Stellen. Die Bilder der einzelnen Farben sind um einen Pixel in Höhe und/oder Breite gegeneinander verschoben. Eine scharfe schwarz-weiß Kante bekäme damit zwangsläufig einen Farbsaum...

Wenn man diese Verschiebung wirklich merken würde, dürftest Du Dich vor dem Monitor auch ständig rot grün und blau ärgern oder mit Grausen abwenden...

mrieglhofer
08.04.2012, 19:21
Abenteuerliche Theorien sind hier zu lesen ;-)

Fakt ist,
1) dass 6 MPix (3024*2016) immer gleich groß sind, ob sie jetzt von 24 MPix runtergerechnet oder native sind. Und damit ist es von der Auflösung weitgehend egal, weil die 4 Pixel normal einfach gemittelt werden.
2) Das Rauschen wird deswegen verringert, weil jedes Pixel statistisch rauscht und wenn man mehrere Pixel miteinder verrechnet, hebt sich das Rauschen tlw. auf. Genauso wie man am Scanner Mehrfachscans hat.
3) Die Theorie mit dem Farbsaum kommt wohl noch vom PAL Fernsehen. Es wird doch bitte nicht aus allen roten Punkten ein Bild, aus allen blauen Punkten ein blaues Bild gerechnet, die dann versetzt sind. Es gibt soundso nur einen Punkt. Die Interpolation bewirkt, dass die Farbe immer für mehrere Punkte gilt und bei Änderungen interpoliert wird, die Luminanz je Punkt. Das ist auch beim Fernsehen gut sichtbar, wenn man sich Fussballer mit roten Hosen anschaut ;-)

M.E. wird das Runterskalieren vom falschen Ende aufgezäunt. Sinnvoll wäre, vom geplanten Ergebnis auszugehen und dann auf die notwendige Auflösung zurückrechnen. Wenn also eine Beamerausgabe oder übliche Albumfotos bis A4 erzeugt werden sollten, sind 6 MPix mehr als ausreichend. Ganz im Gegenteil, die werden soundso beim Druck runterskaliert. Nur dort vom Fotografen unkontrolliert.

Meine Vorgangsweise ist folgend:
Für Web, Reportagen, Passbilder, Porträts in üblichen Formaten 6 MPix. native mit der D7D oder runtergerechnet mit der A850.
Bis A3, wenn solche Plakate geplant sind oder bei Gruppenaufnahmen, bei denen viele Personen drauf sind und erkannt werden sollen, scheidet die D7D aus und mit der A850 wird auf 12 MPix runterskaliert. Hat auch den Vorteile, dass es dann zur D3s passt und ich die Bilder mit dem Profi mischen kann.
Studioaufnahmen, die >A3 werden sollen, werden nicht mehr runterskaliert.

Dewus
08.04.2012, 19:35
Au weh, da sprechen echte Experten ;-)

Stuessi
08.04.2012, 22:23
...Und für die Behauptung, ein 12-MP-Bild der A77/900 enthielte "sicher" mehr Details als ein 16-MP-Bild aus einer bspw. A57 hätte ich gern mal einen belastbaren Beleg. Ich halte es nicht für ausgeschlossen, aber doch unwahrscheinlich....

Hallo,

ich habe dies mal als Anregung genommen, einen Vergleich A900-NEX-5N zu machen. Dazu habe ich meine Testtafel http://www.sonyuserforum.de/galerie/data/thumbnails/6/g10-Testbild-A900-DSC05492-Blende_8.jpg (http://www.sonyuserforum.de/galerie/details.php?image_id=136318)
jeweils formatfüllend aufgenommen.
An der A900 ein 24-105 Minolta bei Blende 11, an der NEX das 1855 bei Blende 9.
Alle Bilder 100% Crops in der Reihenfolge

1. A900, 13 MP-jpeg-Bild, wie es aus der Kamera kommt
2. NEX 5N jpeg-Bild aus der Kamera in normal-Stellung
3. A900 aus RAW-Datei (24 MP, gleichzeitig mit 1 aufgenommen) entwickelt

6/a1-A900-10.jpg
-> Bild in der Galerie (http://www.sonyuserforum.de/galerie/details.php?image_id=144495)
6/a1-NEX-5N-5.jpg
-> Bild in der Galerie (http://www.sonyuserforum.de/galerie/details.php?image_id=144501)
6/a1-A900-10-raw.jpg
-> Bild in der Galerie (http://www.sonyuserforum.de/galerie/details.php?image_id=144497)
6/a2-A900-10.jpg
-> Bild in der Galerie (http://www.sonyuserforum.de/galerie/details.php?image_id=144498)
6/a2-NEX-5N-5.jpg
-> Bild in der Galerie (http://www.sonyuserforum.de/galerie/details.php?image_id=144502)
6/a2-A900-10-raw.jpg
-> Bild in der Galerie (http://www.sonyuserforum.de/galerie/details.php?image_id=144500)

Gruß,
Stuessi

Tira
13.04.2012, 10:35
Hallo Stuessi,

vielen Dank für Deine Beispiele. Ich denke, es ist ein sichtbarer Vorteil für die unskalierte Aufnahme der Nex-5n gegenüber der skalierten A900-Aufnahme auszumachen. Wirklich groß scheint er zwar nicht zu sein, aber immerhin.