![]() |
|
|
![]() |
|||||||||||||
![]() |
||||||||||||||||
|
![]() |
#61 |
Registriert seit: 07.01.2008
Ort: HU
Beiträge: 4.818
|
Okay vielleicht nicht 'voll' ausnutzen, aber es ist sicher so, dass ein höher auflösender Sensor zu einem weiteren Detailgehalt führt, auch am Rand, wenn auch nicht immer bei Offenblende. Bedeutet für mich der Sensor ist der maßgeblich limitierende Faktor in diesen Fällen. Wenn du mit 'voll' ausnutzen meinst, dass das Objektiv gar keinen negativen Einfluss mehr hat, sondern NUR noch der Sensor, dann gebe ich dir Recht. In der Regel haben beide Faktoren, Objektiv und Sensor, Einfluss auf den Detailgehalt eines Bildes. Wenn gewünscht, machen also mehr MP auch am Rand noch Sinn.
Wenn du aber meinst, dass ein höher auflösender Sensor am Rand gar keinen Unterschied macht, weil das Bild eh schon zu vermatscht ist würde ich dir widersprechen. Wie gesagt, ich bin der Meinung es gibt etliche Objektive, bei denen ist der Sensor der maßgeblich limitierende Faktor. Geändert von *thomasD* (28.06.2014 um 21:42 Uhr) |
![]() |
![]() |
Sponsored Links | |
|
![]() |
#62 | ||||
Registriert seit: 02.08.2009
Ort: München
Beiträge: 8.182
|
Zitat:
Zitat:
Zitat:
Zitat:
Canon hat ein Problem, sie sind mit ihren Sensoren im Vergleich mit Sony und Nikon ganz schon zurückgefallen. Deswegen erwarte ich vor allem im Hinblick auf die Dynamik was neues. Vielleicht versuchen sie ja mit ausgetüftelten Pixelanordnungen ähnlich wie Fuji das macht(e) den Dynamikumfang zu steigern. (Die S5 Pro bot damit schon 2006 einen Dynamikumfang der von gewöhnlichen Bayer-Sensoren erst in jüngster Vergangenheit erreicht wurde, bei allerdings nur 6 MP.) Je nach Muster und Zählweise kommt da vielleicht eine Gesamtpixelzahl von 54 MP raus (wenn die Gerüchte stimmen), ob das allerdings dann auch mit einer Auflösung einhergeht die mit 54 MP auf Basis eines gewöhnlichen Bayer-Sensors einher geht muss sich erst zeigen. |
||||
![]() |
![]() |
![]() |
#63 | |
Registriert seit: 20.10.2008
Beiträge: 649
|
Zitat:
Laut Fototest lag bei den Sigmas die Nyquistfrequenz durch den Foveon immer extrem hoch. Sigma hatte es vorgemacht mit kristallklaren Bildern wie ich sie von meiner A 900 nie gesehen hatte . Ich habe jedoch keine Erfahrung mit der A7 R die scheinbar auch durch den fehlenden AA Filter klarere Bilder erzeugt. Das Rauschen ist leider ein Problem beim Foveon . Aber bei ISO 100 ist er unschlagbar in Sachen Bildqualität. mfg |
|
![]() |
![]() |
![]() |
#64 | ||
Registriert seit: 13.10.2007
Beiträge: 22.918
|
![]() Zitat:
Zitat:
Gruß Wolfgang Gruß Wolfgang
__________________
Diskutiere nie mit einem Idioten. Er zieht dich auf sein Niveau herunter und schlägt dich dort aufgrund seiner Erfahrung Flickr Geändert von About Schmidt (29.06.2014 um 07:21 Uhr) |
||
![]() |
![]() |
![]() |
#65 |
Registriert seit: 07.01.2008
Ort: HU
Beiträge: 4.818
|
Etwas OT, aber was soll's:
Wenn man mal von der praktischen Umsetzung des Foveon absieht hat der Bayer-Sensor einen prinzipiellen Nachteil: Es wird Licht durch die Farbfilter herausgefiltert und bleibt ungenutzt. Auf den Sensor trifft (von mir geschätzt) etwa nur ein Drittel des Lichtes, 2/3 bleiben ungenutzt. Wenn es möglich wird - wie auch immer - alles Licht des sichtbaren Spektrums zu nutzen, sind wir nochmal ein bis zwei Empfindlichkeitsstufen besser. Wie das technisch umsetzbar ist ist noch unklar. Ein teurer und umständlicher Weg wäre eine Mehrchiplösung mit dichroitischen Spiegeln. Vielleicht finden ja die Hersteller auch bessere Lösungen. Der theoretische bzw. physikalische Ansatz, noch mehr herauszuhohlen, ist zumindest da. Mich würde das Ergebnis einer SW-A7s ohne Farbfilter interessieren. Die müsste noch pixelpeeperreine HIGHEST-ISO schaffen. Geändert von *thomasD* (29.06.2014 um 07:43 Uhr) |
![]() |
![]() |
Sponsored Links | |
|
![]() |
#66 | |
Registriert seit: 20.10.2008
Beiträge: 649
|
Zitat:
Sieht man schön bei der A7R wo die Objektive plötzlich eine deutlich höhere Auflösung haben auch am Rand . Also her mit dem 54Mp Sensor . |
|
![]() |
![]() |
![]() |
#67 | |||
Registriert seit: 02.08.2009
Ort: München
Beiträge: 8.182
|
Zitat:
Das gleiche passiert aber auch mit Dichro-Filtern. Drei dahinter angeordnete Sensoren einer Mehrchiplösung können das hinter den Dichro-Filtern bereits fehlende Licht auch nicht mehr herzaubern. Vorteil dieser Lösung wäre nur dass die Pixel auf den drei Sensoren jeweils 4-mal so groß sein könnten wie auf einen Bayer Sensor, mit entsprechend niedrigerem Rauschen. Dafür bräuchte man dann aber eben auch 3 komplette Sensoren, was bei Sensorgrößen wie Kleinbild (und allen Sensoren die größer sind als was in Kompaktkameras so zum Einsatz kommt) schon mechanisch - von den dann benötigten Abmessungen her - nicht in Frage kommt, und eine derart aufgebaute Kamera auch extrem teuer machen würde. Der Foveon-Ansatz war ja genau diese Problematik zu vermeiden (u.a.). Wenn es Canon oder einem anderen (Sensor-)Hersteller gelingt eine bessere Umsetzung des Prinzips zu realisieren die die von den Sigma-Produkten bekannten Probleme vermeidet dann wäre da theoretisch schon ein neuer Quantensprung in der Sensortechnologie möglich. Evtl. können hier modernere Bildverarbeitunsprozessoren und Algorithmen - wie Canon sie zweifellos beherrscht - auch einen wesentlichen Beitrag dazu leisten. Da es das Foveon-Prinzip aber nun schon so lange gibt halte ich ich das für ziemlich ausgeschlossen, sonst wäre es längst realisiert worden wenn es möglich wäre. Zitat:
Zitat:
Geändert von wus (29.06.2014 um 11:43 Uhr) |
|||
![]() |
![]() |
![]() |
#68 |
Registriert seit: 03.09.2009
Ort: Ilvese boi Mannem
Beiträge: 15.272
|
Ist es sicher, dass es 1/3 des Lichtes ist? Dazu müßten die Filter bei den Wellenlängen exakt aneinander sitzen.
Die Farberkennung wird immer einen hohen Lichtverlust bedeuten, wenn es nicht gelingt den anderen Farbanteil in einer Sensorzelle auszunutzen. Erst wenn eine einzelne Zelle in der Lage wäre, das Spektrum in x Informationen zu zerlegen würde das komplette Licht genutzt. Angesichts der vorhandenen Leistungsfähigkeit der aktuellen Kameras bis 2.000€ halte ich den Aufwand kaum für gerechtfertigt. bydey
__________________
Meinungsvielfalt -1! Keine Meinung -> kein Profil!
|
![]() |
![]() |
![]() |
#69 |
Registriert seit: 07.01.2008
Ort: HU
Beiträge: 4.818
|
@ wus: Meinen Gedankenfehler sehe ich nicht. Dichroitische Spiegel filtern ja kein Licht heraus, sondern leiten es nur unterschiedlich um. Mit zwei Filtern könnte man das Licht theoretisch ohne Verluste in seine RGB-Anteile zerlegen und jeweils dahinter einen Sensor setzen. Das das unpraktikabel ist ist mir klar, es sollte ja nur ein Gedankenspiel sein. Zumindest kann ich eine Lösung aus physikalischen Gründen nicht ausschließen. Nur weil der Foveon-Sensor hier noch Macken hat muss es ja nicht heißen dass es nicht besser geht.
edit: Ich spreche von dichroitischen Spiegeln, nicht Filtern! @ dey: DieTransmissionskurven müssen nicht direkt aneinanderliegen, sie überschneiden sich und müssen das auch wie du ja sagst. Aber sie sind ja nicht rechteckförmig, sondern fallen in der Regel zum Rand hin schon deutlich ab. Das dürfte die Überlagerung in etwa ausgleichen - aber wie gesagt nur grob von mir aus dem Gedächnis abgeschätzt. Ich habe gerade kein Transmissionsspektrum vorliegen, ich bin die Tage unterwegs und nur mobil online. Geändert von *thomasD* (29.06.2014 um 15:48 Uhr) |
![]() |
![]() |
![]() |
#70 | |
Registriert seit: 02.08.2009
Ort: München
Beiträge: 8.182
|
Zitat:
Man könnte auch andersherum formulieren der "Fehler" des Bayer-Sensors* ist dass er 2/3 des Lichts verschenkt weil ja vor jedem Subpixel ein Farbfilter sitzt der 2 der 3 Grundfarben wegfiltert. Nur bräuchte man bei dem 3-Sensor-Aufbau mit Dichro-Spiegeln eben auch 3 Sensoren um diesen Nachteil wettzumachen. Und mit einer dreifach größeren Sensorfläche könnte man auch auf einem Bayer-Sensor deutlich mehr erreichen, bei wesentlich unkomplizierterem Aufbau (entsprechende Mittelformat-Objektive vorausgesetzt ![]() @ dey: ob das dann genau 1/3 ist oder etwas mehr oder weniger hängt natürlich von den Filtern ab. Mir geht es hier nur um die grundsätzliche Betrachtung. * Der "wirkliche" Fehler des Bayer-Sensors ist natürlich dass jeder Subpixel für die beiden anderen Farben blind ist, das heißt das Bild was der Sensor aufzeichnet ist lückenhaft. Das führt zu Moiree und Fehlern wie man sie u.a. von Video kennt, das durch Runterrechnen des höher aufgelösten Sensorbildes auf Video-Auflösung mit Line-Skipping entstehen. Erst durch eine anschließende Interpolation - oder durch den AA-Filter vor dem Sensor - entsteht ein "sauberes" aber (leicht unscharfes) Bild (das aber durch anschließende Schärfung wieder "höher gerechnet" wird). Streng genommen müsste man immer 4 Subpixel zu einem Gesamtpixel zusammenrechnen, was dann aber die Zahl der Pixel viertelt. Genau das macht Nikon bei der D810 wohl mit dem RAW Size S 9MP Raw mode. |
|
![]() |
![]() |
Sponsored Links | |
|
![]()
|
|
|