![]() |
Warum kommt kein 16Bit?
Jetzt ist die A1 vorgstellt worden mit einer immensen Rechenpower, aber weiterhin mit 14Bit (teilweise 12Bit?). OK, vielleicht liegt es am Stacked Sensor aber ich frage mich gibt es konkrete Gründe 16 Bit Farbtiefe in einem Modell umzusetzen? Wenn ich mich recht erinnere aus so mancher Sensorankündigung aus der Vergangenheit könnten die ja 16Bit, gibt es denn technische Gründe es nicht zu tun, ist der Effekt in der Praxis kleiner als man denkt oder will Sony sich das einfach nur für die Zukunft aufheben falls andere Innovationen rar werden?
|
Braucht man wirklich 16Bit?
mMn liegen die untersten 2-4Bit ohnehin immer im Rauschen. |
Ich kann nach 6Bit schon nicht mehr die Farben richtig zuordnen.:shock:
Upps, :beer: |
:top:
|
Farbtiefe sind die neuen Megapixel am Stammtisch. ;)
@ Peter::top::) |
Kommt doch: die neue Fujifilm GFX 100S soll 16 Bit Farbtiefe bieten.
Brauchst also nur noch zu bestellen:D Lieben Gruß Ralf |
Zitat:
Und was nutzen dir 16 Bit in der Datei, wenn die letzten 2-3, bei hohen ISO auch mehr Bit nur noch Zufallszahlen = Rauschen enthalten? Deswegen Verwendet man zum einen für Astrokameras gern gekühlte Sensoren und zum Anderen nimmt bei vielen Kameras mit zunehmender Erwärmung des Sensors auch das Rauschen sichtbar zu. |
Man kann sich aber schon fragen,
:zuck: |
Hat mal jemand direkte Vergleichsbilder im Grenzbereich von der GFX100 zwischen 14 und 16Bit RAW gesehen (ich hatte bisher nicht danach gesucht)?
|
Moin, moin,
Zitat:
Solche überhängenden Speicherformen hat es schon in frühen Zeiten gegeben, als Speicherplatz richtig teuer war. So gab es z.B. den RADIX50-Code als Alternative zum ASCII-Code, mit dem man drei Zeichen in zwei Bytes abspeichern konnte. Solche Exoten haben sich aber nie wirklich durchgesetzt, weil der Kompromiss selbst in diesen Zeiten ein fauler war. Dat Ei |
Zitat:
Mehr B/s und mehrfaches Abspeichern in verschiedenen Dateiformaten helfen ebenfalls sehr. Ausserdem Bearbeitung in TIFF. |
Zitat:
Das kann also nur Performance bringen, wenn z.B. der ADC seriell ausgelesen wird und man dann von vornherein nur 12 oder 14 Bit abruft. Deswegen ja auch die Reduzierung ger Bittiefe im schnellen Serienmodus und beim elektronischen Verschluss. Aber bei Einzelaufnahmen mit dem mechanischen Verschluss hätte man doch jede Menge Zeit, da käme es auf die 15% mehr nicht an. :zuck: |
Zitat:
So viel zum Rausch(en).:crazy::crazy::crazy: |
Zitat:
Gruß Ralf |
Zitat:
Nein, ich meine nicht A-Mount, das ist wirklich.........:lol: |
Zitat:
|
Zitat:
Wenn da eh nur zufälliges Rauschen ist, kann ich das definiert per pull down gleich auf null legen. |
Dem widerspricht die Werbeaussage mit der 16-Bit-Verarbeitung im BIONZ.
|
Na ja, auch Nullen sind Bits :crazy:
|
Zitat:
|
Moin, moin,
Zitat:
Dat Ei |
Zitat:
|
Lese ich neben den Scherzantworten heraus, der Aufwand lohnt den Nutzen nicht bzw. ist der Nutzen sehr gering. Vor ein paar Jahren war ja der Sprung von 12 auf 14 Bit ein netter Fortschritt, bei dem Sprung auf 16 Bit scheint es nicht so einfach zu sein.
|
GFX100: 16 Bit vs. 14 Bit bei Jim Kasson: click
Zumindest bei der GFX bringt es wohl nichts (eher im Gegenteil). |
Upps, bei diesen Beispielen von der Fuji gibt es ja deutliche Striche bei den 16Bit Aufnahmen. Ist das ev. FPN (Fixed Pattern Noise)?
|
Jim schreibt ja, das wären die 'on-sensor-phasen-AF-detektoren'. Aber so ganz überzeugt bin ich davon nicht.
|
| Alle Zeitangaben in WEZ +2. Es ist jetzt 14:49 Uhr. |