![]() |
Warum kommt kein 16Bit?
Jetzt ist die A1 vorgstellt worden mit einer immensen Rechenpower, aber weiterhin mit 14Bit (teilweise 12Bit?). OK, vielleicht liegt es am Stacked Sensor aber ich frage mich gibt es konkrete Gründe 16 Bit Farbtiefe in einem Modell umzusetzen? Wenn ich mich recht erinnere aus so mancher Sensorankündigung aus der Vergangenheit könnten die ja 16Bit, gibt es denn technische Gründe es nicht zu tun, ist der Effekt in der Praxis kleiner als man denkt oder will Sony sich das einfach nur für die Zukunft aufheben falls andere Innovationen rar werden?
|
Braucht man wirklich 16Bit?
mMn liegen die untersten 2-4Bit ohnehin immer im Rauschen. |
Ich kann nach 6Bit schon nicht mehr die Farben richtig zuordnen.:shock:
Upps, :beer: |
:top:
|
Farbtiefe sind die neuen Megapixel am Stammtisch. ;)
@ Peter::top::) |
Kommt doch: die neue Fujifilm GFX 100S soll 16 Bit Farbtiefe bieten.
Brauchst also nur noch zu bestellen:D Lieben Gruß Ralf |
Zitat:
Und was nutzen dir 16 Bit in der Datei, wenn die letzten 2-3, bei hohen ISO auch mehr Bit nur noch Zufallszahlen = Rauschen enthalten? Deswegen Verwendet man zum einen für Astrokameras gern gekühlte Sensoren und zum Anderen nimmt bei vielen Kameras mit zunehmender Erwärmung des Sensors auch das Rauschen sichtbar zu. |
Man kann sich aber schon fragen,
:zuck: |
Hat mal jemand direkte Vergleichsbilder im Grenzbereich von der GFX100 zwischen 14 und 16Bit RAW gesehen (ich hatte bisher nicht danach gesucht)?
|
Moin, moin,
Zitat:
Solche überhängenden Speicherformen hat es schon in frühen Zeiten gegeben, als Speicherplatz richtig teuer war. So gab es z.B. den RADIX50-Code als Alternative zum ASCII-Code, mit dem man drei Zeichen in zwei Bytes abspeichern konnte. Solche Exoten haben sich aber nie wirklich durchgesetzt, weil der Kompromiss selbst in diesen Zeiten ein fauler war. Dat Ei |
Alle Zeitangaben in WEZ +2. Es ist jetzt 20:55 Uhr. |