![]() |
|
|
![]() |
|||||||||||||
![]() |
||||||||||||||||
|
![]() |
#21 |
Registriert seit: 14.01.2012
Ort: Landshut
Beiträge: 247
|
Hier mal einige Gedanken von mir zum Thema, wie das Videobild von Sony berechnet wird.
Dazu gibt es einen interessanten Artikel hier. Wenn man dem Artikel Glauben schenken kann, dann verwendet Sony je nach Sensor und BIONZ Prozessor 4 Methoden: 1. Full Pixel Readout ohne Binning, falls Full Pixel Readout = 4K+Oversampling 2. Full Pixel Readout und Software Binning (heisst nicht auslassen sondern verrechnen) 3. Full Pixel Readout und Hardware Binning im Sensor 4. Pixel Skipping Bei 1. sollte man also die allerbeste Qualität haben, bei 2 und 3 dürfte also die Qualität nicht viel dahinterstehen, wenn das Hard/Software Verrechnen gut ist. Bei 4. werden Pixel ausgelassen, sollte eigentlich die schlechteste Qualität sein, glaube ich aber auch nicht, denn mehr wie 4K auslesen brauche ich ja für ein 4K Bild nicht. Es geht aber Information verloren, die auf dem Sensor da wäre. Warum geht aber 4K noch nicht in 50p oder 100p? Bei 1. nicht ganz verständlich, aber offensichtlich ist der Sensor da noch nicht schnell genug beim Auslesen, bei 2. und 3. sehr wohl, da ist der BIONZ noch nicht schnell genug und bei 4?. Je nach Sensor also: - A7S 4K: Methode 1, da Full-Pixel Readout = 4K+ Oversampling entspricht, wird das so an den HDMI Ausgang geschickt - A7S FHD: Methode 2, das 4K Bild wird auf 1080 heruntergerechnet - A7RII 4K+FHD: Methode 4, also skipping, ich nehme an zu 4K und dann binning zu FHD. Grund ist offensichtlich, dass der Sensor noch in so schnell ist dass er das volle Sensor Readout der in 1/25sec schaffen würde. Da ich die RX10II zum Filmen habe, für mich neu und interessant in dem Artikel: - RX10II 4K: Methode 2 oder 3, ich glaube 2, da der BIONZ inzwischen schnell genug ist - RX10II FHD: entsprechend 4K nur Binning zu FHD - A6500 4K: Beim Filmen wird auf Super35 geschaltet, also 4K+Oversampling Full-pixel readout - A6500 FHD: wie 4K und dann Software Binning auf FHD Hat jemand noch ausführlichere Infos dazu? Sony lässt uns da mit Infos ziemlich im Regen stehen. Ich mache anhand des Artikels auch nur Annahmen, die so nicht stimmen müssen. Zusätzlich ist natürlich die Qualität des Videobildes abhängig von den verwendeten Objektiven, das ist klar und natürlich ist der Kameramann, der entsprechend die Bilder adäquat umsetzt, sehr wichtig und zuletzt auch das Schnittprogramm, dessen Exporter auch noch gute Arbeit leisten muss. Für mich persönlich ist meine RX10II zum Filmen ideal geeignet und meiner Meinung nach stehen die Video Ergebnisse in nichts einer A7S nach, ausser vielleicht bei hohen ISO Zahlen. Ich filme oft in 4K, dann kann ich später die Aufnahmen auch noch croppen, d.h. z.B. Horizont mal richtig stellen. Ausserdem bilde ich mir ein, dass ein in 4K aufgenommenes Video auf FHD runterskaliert, eine bessere Qualität hat, als in FHD aufgenommen. |
![]() |
![]() |
Sponsored Links | |
|
![]() |
#22 |
Registriert seit: 17.12.2007
Ort: Rhein-Main
Beiträge: 22.016
|
Bei f8 sollten das 55er und das 85er nahezu identisch abbilden (wenn sie gesund sind). Beide sind da schon beugungsbegrenzt. Beim 85mm GM, das ich mal kurz hatte, hat man im direkten Vergleich bei Bl. 5.6 schon erste Beugungserscheinungen sehen können. Bl. 4 war hier das max. - das ist schon überragend - Das 55er hat bei ca. Bl. 4.5 sein max. - das ist nur minimal dahinter.
sorry für OT.
__________________
- Video/Timelapse: Harz im März - Nachthimmel Wasserkuppe - Sächsische Schweiz im November - Polarlicht Wasserkuppe - Tromsø im Winter - Schottische Highlands im Herbst Reiseberichte: La Palma - Grönland im Herbst - Polarlichttour Norwegen im November - Vietnam - Nord-Norwegen im Winter Geändert von aidualk (08.02.2017 um 13:39 Uhr) |
![]() |
![]() |
![]() |
#23 |
Registriert seit: 05.02.2014
Beiträge: 158
|
@cookiemovies
Toller Beitrag zum schwierigen Thema! Versuch zum Systematisieren und Ergänzen: Um die unterschiedliche Pixelauflösung (-zahl) irgend eines Sensors mit den fixierten Videoformaten HD 1080x1920 oder UHD/4k 2160x3840 oder "echte"4k 2160x4096 hinüberzubringen, gibt es verschiedene Möglichkeiten: Upscaling: wenn die Pixelzahl des Sensors niedriger ist als das Filmformat, heute praktisch nicht mehr aktuell. Downscaling bei den heutigen höherauflösenden Sensoren: a: Pixel Binning: mehrere Pixel (zb.4) zusammenfassen entweder schon auf dem Sensor oder im Bildprozessor. b: Pixel Skipping: nur die Anzahl benötiger Pixel auslesen und die anderen weglassen. Meist als Line-Skipping verwendet, dh. ganze Pixelzeilen werden übersprungen (dann kombiniert mit Binning für die ausgelesenen Zeilen). c: Downsampling: Eine Überzahl vollständig einzeln ausgelesener Sensorpixel wird heruntergerechnet auf das Filmformat. d: 1x1Reading: Der Sensor hat die gleiche Pixelzahl (bzw. 4xMuliplikator: 4,16, usw) wie das Filmformat. Die Vor- und Nachteile der einzelnen sind oben von Cookiemovies (und anderwo) ausführlich beschrieben. Von mir nur eine Ergänzung: Das 1x1Reading scheint die perfekte Lösung zu sein. Kein Hoch- und Runter-, Hin- und Her-Rechnen. Direkt von Sensorpixel zum Filmpixel... Stimmt leider nicht! Durch das notwendige Ent-Bayern des Sensors entstehen selbst beim 1x1 Readout typische Aliasing-Fehler. Ich möchte hier aus einem kürzlichen Test der Canon 5D4 der Videoseite slashcam zitieren: "Unser slashCAM 4K-Schärfetestchart der 5D Mark IV weist die üblichen Fehler eines 1:1 Sensor-Readouts auf.So sind in den Kreisen deutliche Falschmuster erkennbar und sowohl die feinen Chroma- als auch Luma-Sweepabschnitte sind von Zippern und leichten Chroma-Störungen überlagert. Bis vor ca. zwei Jahren arbeiteten die meisten 4K-Kameras nach diesem Prinzip. Moderne Kameras lesen jedoch mehr Sensel als die 4K-Zielauflösung aus und skalieren das Bild dann rechenaufwendig, aber sauber auf 4K herunter.Als erste Consumer-Kamera konnte die Samsung NX1 vor ca. 2 Jahren in unserem Testlabor mit folgendem, praktisch fehlerfreien 4K-Testbild glänzen.Ein ähnliches 4K-Downskaling bietet seitdem unter anderem die A7RII sowie die Alpha 6300/6500 von Sony." https://www.slashcam.de/artikel/Test...K-fuer-4K.html Auch die 4k-Superprofi-Videokameras von RED und ARRI gehen deshalb nativ auf 5k-Sensoren. Das zweite mE. viel schwerwiegendere Problem ist die auch bei Profikameras gängige Auslesung mit 25p, also 25 Vollbildern pro Sekunde. Wer nicht nur Testberichte liest und Testclips macht, sondern wie ich seit über 2 Jahren ganze 4k-Filme erstellt, wird mir zustimmen, dass wir viel dringender als alles andere eine 4k/50p Sensor-Auslesung als nächstes brauchen. Um es mal direkt zu sagen: Bei grossen Monitoren (und wozu sonst 4k?) ist das Bildgeruckele auch bei langsamer Bewegung und Schwenks der 25p/4k Filme grauenhaft! Bei 4k-TVs mit Bildraten-Oversampling geht es besser, aber das Oversampling geht dann doch etwas auf Kosten der Schärfe. Ich habe 2 4k-fähige Kameras, aber ich kaufe mir keine mehr, die nicht echte 50p-Auslesung (ohne Binning/Skipping) bietet. |
![]() |
![]() |
![]() |
#24 |
Registriert seit: 14.01.2012
Ort: Landshut
Beiträge: 247
|
Gute Ergänzung von Dir an das Debayering habe ich gar nicht gedacht.
Und ja, ich mache Filme, keine Testaufnahmen. Bei der Entscheidung für die RX10II spielten bei mir diese Betrachtungen keine Rolle, mich interessieren nur die Ergebnisse. Anscheinend beherrscht die RX10II aber das Downscaling sehr gut, wie vermutlich auch die A7RII. Profikameras gehen nicht unbedingt auf 5K. Viel mehr bringt, dass sie RAW aufnehmen. Diese Kamera können in 4K auch 120p machen. Deshalb sind es auch Profikameras, die viele $$$ kosten. Interessant ist, dass 4K/24p bei Profikameras nicht ruckelt aber bei Deinen Kameras offensichtlich ja. Was ist da der Unterschied? Ich höre das hier im Forum sehr oft, dass alle mindestens 50p wollen. Ich kann mir vorstellen, dass das auch viel mit dem Ausgabemedium/format zu tun hat. Wie gibst Du Deine Filme auf dem 4K Fernseher aus? |
![]() |
![]() |
![]() |
#25 | |||
Registriert seit: 16.08.2010
Beiträge: 19.097
|
Zitat:
Zitat:
Bei 25fps bin ich mir auch noch nicht sicher, ob die Kamera da sauber herunterskaliert oder Software-Binning macht. Wenn ich die Schärfe eines AVCHD-Frames mit einem OOC-Standbild vergleiche (die eingebetteten Vorschaubilder in den ARW-Rateien haben ja ebenfalls 1920×1080 Pixel), ist da doch noch ein gewaltiger Unterschied. Das kann natürlich auch am Video-Codec liegen; um das zu untersuchen, müsste man die unkomprimierten Daten am HDMI-Ausgang abgreifen, dazu fehlt mir leider die passende Video-Hardware. Zitat:
![]()
__________________
Any feature is a bug unless it can be turned off. (Heuer's Law, 1990) |
|||
![]() |
![]() |
Sponsored Links | |
|
![]() |
#26 | ||
Registriert seit: 03.09.2012
Ort: Leipzig
Beiträge: 266
|
Zitat:
![]() Und wenn ich doch mal in so einer extremen Dunkelheit filmen will, hab ich die 24/25fps und 1/50 noch in der Hinterhand. Zu den 1/125. Wenn ich (gerade bei Kamerbewegung) eine 50%ige Zeitlupe machen will, ist die Aufnahme flüssiger wenn ich mit 1/100 oder 1/125 Filme. (ich sehe es auch ohne Zeitlupe) Einfach weil ja bei der Bewegung dann die Abtastrate höher ist, kommt es zu weniger Ruckelbildung. Ob man diese wirklich wahrnimmt ist wohl von Mensch zu Mensch verschieden. Ich nehme sie wahr und sie stören mich. Schlussendlich kann ich mich also zwischen einem rauschfreieren und schärferen Bild oder flüssigeren Ablauf entscheiden. Ich werde das auf jeden Fall in der Zukunft berücksichtigen. Von daher nochmal vielen Dank an all die Erklärenden. Zitat:
|
||
![]() |
![]() |
![]() |
#27 | |
Registriert seit: 14.01.2012
Ort: Landshut
Beiträge: 247
|
Zitat:
![]() |
|
![]() |
![]() |
![]() |
#28 |
Registriert seit: 03.09.2012
Ort: Leipzig
Beiträge: 266
|
![]() Da stell ich dann doch lieber auf 24p und bin mit 50mbit zufrieden ![]() Aber ich staune das die Simulator-ARRI intern 'nur' 2k kann. |
![]() |
![]() |
![]() |
#29 | |
Registriert seit: 05.02.2014
Beiträge: 158
|
Zitat:
Und alle professionellen Kameras, die immerhin 4k/50p auslesen, fallen dabei wieder auf Binning/Skipping zurück. Alle Firmen schweigen sich eisern über Ihre Auslesemethoden aus, aber es gibt kluge Leute in der Szene, die das rausfinden. Siehe oben! Als ich vor 2 Jahren mit einem USB-Stick mit 4k-Testclips in H.264 und H.265 in meinem Technikmarkt gekommen bin, war das Entsetzen gross. Nur der Samsung 4k-TV konnte alle Videoformate und Codecs auslesen und sauber dekodieren, die Motion-plus-Technik stellt tatsächlich auch Bewegungen im 4k so dar, dass das Zuschauen gefällt. Ich kann da auch noch manuell die Korrektur von Blur (Bewegungsunschärfe) und Judder (Bewegungslücken) einstellen. Mittlerweile sollten auch andere 4k-TVs mit ähnlicher Technik das können. Aber am PC gibt es keine Motion-plus Technik. Im Gegenteil: Software-Decoding, Videofenster-Overlays, und 60Hertz-Monitore verschlimmern alles noch.(OK, 30p-Video macht einiges besser, das ist leichter auf 60Hertz umzusetzen, was da 24p Filmlook helfen soll, ist mir aber garnicht klar?. Erst die neuen Kaby-Lake i-7000 Prozessoren mit Hardware H.264 und H.265 En-Dekoding sind top und stellen aber die Grenzen des nativen 25p/30p klar ohne sonstige Beschönigungsfehler dar. Oder kurz: 4k-TV TOPP, 4k-PC FLOPP. Jenseits aller Technik hier mal ein Experiment: Wenn dir ein Objekt mit 4k/25p innerhalb einer Sekunde quer durchs Bild läuft (zb. Person im Vordergrund oder Auto im Hintergrund), ergibt sich bei einem 55"Monitor mit ca. 125cm Breite ein Bildsprung von je 5cm von links nach recht!!! Das sieht man ohne Bewegungskorrektur im TV mehr als heftig? Dazu kommt bei einer Belichtungszeit von angenommen 1/125 sek oder besser 1/250 immer noch eine Bewegungsunschärfe von 1cm bzw. 0,5cm. 4k-TV macht süchtig, gerne sitzt man 1,5m und näher vor dem grossen Schirm,damit man wirklich alle Details sieht. An meinem PC und Schnittmonitor24" sitze ich 0,5m entfernt, umgerechnet sind so die Bewegungsfehler am PC-Monitor und TV-Grossmonitor gleich (!). Irgendwann werden demnächst auch Kameras mit 4k und 50p/60p kommen, ob dann nativ ausgelesen wird oder wieder getrickst (siehe oben) wird man sehen. Vielleicht schon bei der sagenhaften Sony A9xxx. |
|
![]() |
![]() |
![]() |
#30 |
Registriert seit: 14.01.2012
Ort: Landshut
Beiträge: 247
|
Ich habe mal einen interessanten Artikel dazu gefunden: HIER
Mein Fazit dazu: Es sind eigentlich weniger die Kameras schuld, sondern mehr die Wiedergabegeräte. In dem Artikel ist auch gut erklärt warum 24p bei einem 60Hz Monitor durchaus Sinn machen können (3:2 Pulldown), dagegen auf einem 50/100/200/400 Hz Fernseher aber nicht, ausser 24p läuft mit 25p, also 4% schneller. Wenn man also oft Kinofilme in 24p anschaut, dann sollte das der Fernseher können. Wenn ein in 4K/25p aufgenommenes Video auf einem Fernseher mit 200Hz läuft, schaut es nur dann gut aus, wenn der Fernseher Bilder gut interpolieren kann oder das MotionBlur gut ist. Wenn nicht, sehen manche Menschen Ruckler, da ein Bild dann 8mal gezeigt wird. Am besten müsste das Bild aber sein, wenn auch der Fernseher mit 25p läuft, dann wird nichts berechnet, es wird nativ ausgegeben. 4K/25p sollte man auch mit 1/25 belichten, dann werden schnelle Bewegungen unscharf und man nimmt sie nicht mehr als Ruckeln wahr. MotionBlur macht ja das Gleiche. Nehme ich dagegen mit 1/250 oder noch weniger auf, dann kommt es zu (fast) keiner Bewegungsunschärfe mehr und das erzeugt das Ruckeln bei der Ausgabe, wenn das Ausgabegerät kein Motionblur hat und auch noch evtl. umrechnen muss. (25p Bild auf 60Hz PC Monitor sieht dann grauenhaft aus). Nun gilt diese Aussage aber erstmal für mich, da jedes menschliche Gehirn anders ist. Im Schnitt kann ein menschliches Gehirn ab 20fps nicht mehr einzelne Bilder wahrnehmen, aber bis 60fps Einzelbilder verarbeiten. Es könnte also auch passieren, dass 4K/50p für jemand ruckelt, wenn dabei 1/1000 Sec (also keine Bewegungsunschärfe) verwendet wurde und das auch noch auf 60Hz Monitor umgerechnet wird, dagegen ein 25p Bild mit 1/25 belichtet auf einem Fernseher mit 25p nativ ausgegeben dagegen nicht. Alles irgendwie viel zu kompliziert, ich gehe lieber gscheite Filme machen... ![]() |
![]() |
![]() |
Sponsored Links | |
|
![]()
|
|
|