Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : a500/550 HDR Modus


nuki
18.09.2009, 11:47
Hallo alle zusammen!

Ich hab vor kurzem von der sony :a:500/550 gehört, die mir besonders durch ihre HDR-Funktion aufgefallen ist. Nachdem ich im 3d Bereich recht häufig sphärische 360° HDRs zum ausleuchten von Szenen verwende würde es mir einiges an Daten und Bearbeitungszeit sparen wenn ich statt 125 Bildern nur 25 HDR's verarbeiten müsste.

Ich frage mich allerdings ob 1.) die 500/550er HDRs mit vollem Tonwertumfang erstellt, oder beim aufnehmen des Bildes bereits einen Tonemapper anwendet. Für den beschreibenen Anwendungsbereich ist es unbedingt nötig ein ungemapptes HDR bild zu haben. Außerdem interessiert mich 2.) wie genau die Kamera die HDR's macht. Laut Beschreibung nimmt die :a:500/550 nur 2 Bilder auf um daraus das HDR zu berechnen. Meines Wissens nach benötigt man doch min. 3 Bilder um ein ok-es HDR zu bekommen? Sind die Bilder qualitativ vergleichbar mit HRD's aus 3, 5 oder gar 9 interpolierten Bildern?

Ich wäre sehr froh wenn mir jemand von euch weiterhelfen könnte!

lg
nuki

Anaxaboras
18.09.2009, 11:51
Hallo nuki,

und ein herzliches Willkommen bei uns im SonyUserforum :top:.

Ich denke nicht, dass dir die HDR-Funktion der 500er-Klasse bei deinen Bildern helfen kann. Die Kamera gibt ein fertig gemapptes JPEG aus und kein 32-Bit-HDR-RAW.

Martin

nuki
18.09.2009, 11:56
danke für die schnelle Antwort! schade dass das Bild schon gemappt ist, hätte mir sehr viel Zeit sparen können ;) . Gibt es denn überhaupt Kameras die ein 32 bit HDR aufnehmen können? (abgesehen mal von der Seitz D3)

lg

Tira
18.09.2009, 13:34
Mir ist leider keine solche Kamera bekannt.

Das klingt aber sehr interessant:
Nachdem ich im 3d Bereich recht häufig sphärische 360° HDRs zum ausleuchten von Szenen verwende würde es mir einiges an Daten und Bearbeitungszeit sparen wenn ich statt 125 Bildern nur 25 HDR's verarbeiten müsste.


Kannst du das näher erläutern?

nuki
19.09.2009, 23:42
gerne!

die Technik heißt image based lighting (kurz IBL) und is im Prinzip nichts neues im VFX bereich. Nachdem ein HDR Bild (solang es nicht gemappt ist) ja prinzipiell den gesamten dynamikumfang eines Szene einfängt kann man demnach in einer 3d-Szene von jedem Pixel des Bildes einen Lichtstrahl mit der entsprechenden Helligkeit und Farbe aussenden. Am populärsten dafür sind sphärische 360° HDR Panoramas, weil man die einfach auf eine 3d-Kugel legen kann in deren Zentrum dann das zu beleuchtende Objekt liegt.

Prinzipiell gibt es 2 möglichkeiten solche sphärisch verzerrten Bilder zu erstellen - die "Budget Version" wäre das abfotografieren einer Chromkugel mit 2 Bildern die jeweils im 90° Winkel zueinander aufgenommen werden. Dadurch fängt man theoretisch die gesamte Szene ein und kann die Bilder in der entsprechenden Software (HDR Shop, etc..) zusammenfügen. Das gute daran ist dass man das auch mit einer Kugel aus dem Baumarkt machen kann, ich hab z.b. eine Rosenkugel für 13€ in Verwendung. Natürlich kann man sich auch für um die 300€ "perfekte" chromkugeln ordern...
Der Nachteil davon ist allerdings dass das bild teilweise stark verzerrt ist. Als Hintergrund in einer 3d Szene oder für Reflektionen auf Objekten beim Bearbeiten von HD Material sind sie also eher nicht so optimal. Mit einem Panoramakopf (z.b. Seitz VR Drive, Nodan Ninja, ..) kann die Kamera selbst im Nodalpunkt montiert werden und somit ohne Verschiebung des Chips rotiert werden. Dadurch bekommt man (mit etwas mehr aufwand) im Idealfall gestochen scharfe Panoramas in ca.11k auflösung (je nach kamera, objektiv, ...) Dabei braucht man aber halt ab 25 Fotos um ein ganzes 360° Panorama zu erstellen. Dann noch bei jedem Foto min 5 Blendenstufen für ordentliche HDR's und man ist bei 125 Bildern pro sphärischem 360° HDR die verarbeitet werden müssen. Jetzt sollte auch klar sein warum eine Kamera die direkt 32bit HDR's erstellen würde extrem klasse wäre ;)

natürlich gibt es sowas auch schon - die bereits erwähnte Seitz Roundshot D3 schafft das alles...in 3 Sekunden wohlgemerkt!!!!! Ab 30.000€ is man dabei...als Student is mir das aber ein wenig zu teuer ;)

der_knipser
20.09.2009, 11:31
Hallo nuki,

ich bilde mir ein, eine gute Portion technisches Verständnis zu haben. Dennoch bekomme ich aus Deinem Text keine konkrete Vorstellung dessen, was Du da machst. Da sind zu viele unbekannte Begriffe drin. Kannst Du uns ein paar Ergebnisse zeigen, und vielleicht auch den Aufbau, so dass das Zusammenspiel von Kamera, Kugel usw. deutlich wird?

nuki
20.09.2009, 19:07
hallo!

vllt. hilft dir der Link weiter. Unter "Image Based Lighting" is das Ganze nochmal kurz erklärt. LINK (http://de.wikipedia.org/wiki/High_Dynamic_Range_Rendering#Image-based_Lighting)

Anwendungsbeispiel gäbe es hier: LINK (http://www.daionet.gr.jp/~masa/rthdribl/index.html)

Ich kann damit eben 3d Objekte in Foto/Film-Footage einbinden, ohne die ganze Szene nachbauen zu müssen (weil die Objekte ja im Bild eingefangen werden), wie z.B. HIER (http://www.m4studios.at/nuki/ca/src-img/b/3d_7.jpg)

lg nuki

Tira
20.09.2009, 21:47
Ich kann damit eben 3d Objekte in Foto/Film-Footage einbinden, ohne die ganze Szene nachbauen zu müssen (weil die Objekte ja im Bild eingefangen werden), wie z.B. HIER (http://www.m4studios.at/nuki/ca/src-img/b/3d_7.jpg)
lg nuki

Vielen Dank für die Erklärung! Wenn ich es richtig verstehe, setzt du im Programm nicht selbst die Lichter, sondern arbeitest nur über Oberflächenreflexionen der Bildobjekte, richtig?

der_knipser
20.09.2009, 23:35
.... Ich kann damit eben 3d Objekte in Foto/Film-Footage einbinden, ohne die ganze Szene nachbauen zu müssen ....Hallo nuki,
ich weiß nicht einmal was eine Foto/Film-Footage ist. Den Begriff habe ich noch nie gehört.

Geht es bei Deinen Aufnahmen nur darum, ein vollständiges sphärisches Panorama zu erstellen? Dafür braucht man mit Nodalpunktadapter keine 25 Bilder! Mit der A700 und dem 8mm-Peleng (Fisheye) braucht man 4(+1) Aufnahmen, und bekommt ein equirectangulares Bild von fast 9000x4500 Pixeln. Wenn Du mehr Auflösung (11k) brauchst, müsstest Du eine etwas längere Brennweite nehmen, oder eine Kamera mit 15MP APS-C-Sensor verwenden. Ob man dafür 30.000 Euro anlegt, hängt sicher nicht zuletzt davon ab, wieviele Panoramen man braucht. Für meine Zwecke reichte die Investion von ein paar Hundert Euro.

Lord of Steel
20.09.2009, 23:53
Vielen Dank für die Erklärung! Wenn ich es richtig verstehe, setzt du im Programm nicht selbst die Lichter, sondern arbeitest nur über Oberflächenreflexionen der Bildobjekte, richtig?

Und jeder Pixel des HDR's dient so zu sagen als kleine Lichtquelle mit definierter Leuchtkraft und Farbe.

Tira
21.09.2009, 08:55
Und jeder Pixel des HDR's dient so zu sagen als kleine Lichtquelle mit definierter Leuchtkraft und Farbe.

Soweit komme ich mit. Was ich noch nicht verstehe: Warum muss es ein HDR sein?

Waldstein
21.09.2009, 09:45
Liege ich richtig, dass in einer virtuellen Darstellung, z. B. einem Computerspiel oder FX-Film,
mit dieser Technik, die von einem Raum ausgehende Umgebungshelligkeit auf die Oberfläche eines virtuelles Objektes abgebildet werden soll, im Idealfall als Reflexion auf einer spiegelnden Oberfläche?
zu diesem Zwecke ein Kugelpano quasi eine spärische Vorlage für die dafür erforderliche "Ausleuchtung" geben soll, so eine Art spärisches Diagramm für Licht und Farbe?
die HDR-Technik verwendet wird, um auf der Oberfläche des Gegenstandes Abrisse in den Lichtern/Tiefen zu vermeiden?

Lord of Steel
21.09.2009, 21:23
Soweit komme ich mit. Was ich noch nicht verstehe: Warum muss es ein HDR sein?

Gute Frage - hab ich mich noch nie gefragt :-D. Als ich eine Zeit lang mit Cinema4D gespielt habe hab ich die spährischen HDR's einfach immer genutzt.

Thomas F.
22.09.2009, 00:39
Hallo nuki,
ich weiß nicht einmal was eine Foto/Film-Footage ist. Den Begriff habe ich noch nie gehört.

Geht es bei Deinen Aufnahmen nur darum, ein vollständiges sphärisches Panorama zu erstellen? Dafür braucht man mit Nodalpunktadapter keine 25 Bilder! Mit der A700 und dem 8mm-Peleng (Fisheye) braucht man 4(+1) Aufnahmen, und bekommt ein equirectangulares Bild von fast 9000x4500 Pixeln. Wenn Du mehr Auflösung (11k) brauchst, müsstest Du eine etwas längere Brennweite nehmen, oder eine Kamera mit 15MP APS-C-Sensor verwenden. Ob man dafür 30.000 Euro anlegt, hängt sicher nicht zuletzt davon ab, wieviele Panoramen man braucht. Für meine Zwecke reichte die Investion von ein paar Hundert Euro.

Ja und das ist so unscharf da könnte man es sich auch gleich selber malen:lol:


Auf der anderen Seite fällt mir auf Anhieb kein Drucker oder Plotter ein der ein 32-Bit RAW ausdrucken könnte ohne an seine Grenzen zu stossen:roll:


Gruß
Thomas

P.S. als Alternative für nuki ginge vielleicht noch eine Oly E-620/E-30 diese DSLR`s können Mehrfachbelichtung auch im RAW Format - auch im 3:2 Format, falls das 4:3 Format stören sollte;)

nuki
22.09.2009, 15:15
whoa, hier gehts ja richtig rund! werd mich bemühen eure fragen alle mit Beispielen zu beantworten, bin nur momentan bei der Arbeit und hab nicht die Zeit dazu ;)

Danke für den Kameravorschlag, ich würde aber sehr gerne beim Hersteller Sony bleiben. Der Grund dafür ist dass mein Vater schon sehr Lange im Bereich der Naturfotografie arbeitet und einen Haufen Minolta Objektive zuhause hat. Er selbst benutzt eine :a:700 die ich mir allerdings nicht immer ausborgen will.

Da hätte ich auch gleich noch eine Frage bezüglich der Sony-Kameras: Das AE Bracketing ist ja bei Sony mit 3 bis 5 Fotos in 0,3ev oder 0,7ev Stufen üblich. Gibt es eine Möglichkeit/ein Modell das mehr Fotos mit größeren EV Stufen machen kann? Erstrebenswert wären Werte wie z.b. bei der Nikon D200 die bis zu 9 Fotos im Abstand von je 1ev machen kann. Könnte man die Werte nicht über die Firmware beliebig ändern oder gibt es da auch physikalische Faktoren die die erreichbaren Werte einschränken?

lg
Martin

der_knipser
22.09.2009, 15:31
.... AE Bracketing ist ja bei Sony mit 3 bis 5 Fotos in 0,3ev oder 0,7ev Stufen üblich. Gibt es eine Möglichkeit/ein Modell das mehr Fotos mit größeren EV Stufen machen kann?....Die A700 kann mit der Firmware V4 auch 3 Bilder mit 2EV-Stufen.
Weitergehende Möglichkeiten hat sie mit der USB-Ansteuerung über PC, oder mit externen programmierbaren Auslösegeräten. Die kürzesten erreichbaren Belichtungszeiten im Bulb-Modus liegen allerdings bei 1/15 sec. Im Langzeitbereich sind keine wirklichen Grenzen gesetzt.

nuki
22.09.2009, 16:34
ah, super! wurde nur die Firmware der :a:700 angepast oder kann ich davon ausgehen dass die :a:500 ebenfalls dementsprechend einstellbar sein wird?

lg

nuki
24.09.2009, 11:46
Zitat von der_knipser:

hallo nuki,
ich weiß nicht einmal was eine Foto/Film-Footage ist. Den Begriff habe ich noch nie gehört.

Geht es bei Deinen Aufnahmen nur darum, ein vollständiges sphärisches Panorama zu erstellen? Dafür braucht man mit Nodalpunktadapter keine 25 Bilder! Mit der A700 und dem 8mm-Peleng (Fisheye) braucht man 4(+1) Aufnahmen, und bekommt ein equirectangulares Bild von fast 9000x4500 Pixeln. Wenn Du mehr Auflösung (11k) brauchst, müsstest Du eine etwas längere Brennweite nehmen, oder eine Kamera mit 15MP APS-C-Sensor verwenden. Ob man dafür 30.000 Euro anlegt, hängt sicher nicht zuletzt davon ab, wieviele Panoramen man braucht. Für meine Zwecke reichte die Investion von ein paar Hundert Euro.

Zitat von Waldstein:

Liege ich richtig, dass in einer virtuellen Darstellung, z. B. einem Computerspiel oder FX-Film,
mit dieser Technik, die von einem Raum ausgehende Umgebungshelligkeit auf die Oberfläche eines virtuelles Objektes abgebildet werden soll, im Idealfall als Reflexion auf einer spiegelnden Oberfläche?
zu diesem Zwecke ein Kugelpano quasi eine spärische Vorlage für die dafür erforderliche "Ausleuchtung" geben soll, so eine Art spärisches Diagramm für Licht und Farbe?
die HDR-Technik verwendet wird, um auf der Oberfläche des Gegenstandes Abrisse in den Lichtern/Tiefen zu vermeiden?


Also unter Foto/Film footage (footage is wahrsch. nicht das 100%ig passende wort dafür) bzw sogenannten "Plates" ist das Material gemeint, in das die Visual Effects eingebunden werden. Also quasi der Film/das Foto so wie es aus der Kamera kommt.

Die Technik mit der Fisheye-Linse ist mir bekannt und wäre vom Grad der Verzerrung her ein Mittelding zwischen dem abfotografieren der Kugel und einem sehr wenig verzerrten Panorama wie man es z.b. mit einem Panorama-Stativkopf und einer nicht allzu weitwinkeligen Linse bekommt (natürlich braucht man mehr Bilder je weniger weitwinkelig man ist, das kann ab den von dir erwähnten 4+1 Bildern bis oben offen alles sein...je nach auflösung die man braucht). Wenn ich jetzt z.b. ein 3d Auto in einen Film einbauen will (wie z.b. die Transformer-Autos in der neuen ÖBB Evolution Werbung) dann braucht man eben eine gewisse Schärfe und "Unverzerrtheit" im Bild damit die Reflektionen in Auflösungen ab HD und aufwärts noch real wirken.

Das kommt dann eben darauf an wofür ich das 360° HDR brauche. Wenn es nur darum geht ein Objekt das nicht reflektiert zu beleuchten tut es natürlich auch ein verzerrtes pano aus einer Chromkugel mit 4k auflösung. Wenn allerdings Reflektionen im Spiel sind muss man eben etwas mehr Aufwand betreiben.

Waldstein: Du liegst in deinen ersten 2 Punkten richtig. Die HDR Technik wird allerdings nicht verwendet um ein ausreißen/absaufen der tonwerte zu vermeiden (wenn das Footage überbelichtet ist müssen die VFX es eben auch sein, damits ins Bild passt...)

Es geht bei der ganzen sache um folgendes: Ich habe ja in meinem 360° Panorama die ganze Umgebung lückenlos eingefangen, und dank des HDR Verfahrens auch den ganzen (oder zumindest den relevanten) dynamikumfang der Szene gespeichert. Ich kann nun diese Information benützen um die Umgebung in diesen 2 faktoren SCHNELL und GENAU nachzubauen. Ich mache dazu folgendes: nachdem ich ein sphärisches 360° panorama erstellt habe kann ich dieses auch wieder auf eine Kugel legen. Ich als Betrachter bzw. als das 3d Objekt befinde mich dabei im Mittelpunkt der Kugel, also dort wo die Kamera beim aufnehmen des Bildes war. Im Panoramabild ist ja die Umgebung so abgebildet wie das Objekt sie "sehen" würde. Dadurch bekomme ich schonmal eine relativ genaue und realistische Reflektion der Szene im Objekt ohne dass viel Aufwand betrieben werden musste um diese in 3d nachzubauen!
Durch den gespeicherten Dynamikumfang kann ich jetzt auch die Lichtstimmung immitieren. Die Position der "Lichtquellen" relativ zum Objekt ist ja durch das Panorama bereits bekannt. Die Stärke des Licths ist dank der HDR Technik auch in jedem Pixel gespeichert. Dank der Floating-Point Werte wissen wir ja welchen Wert der Pixel zu welcher Belichtungszeit hat. Stellt man sich diesen Wert als Kurve vor sollte klar werden dass die starken Lichtquellen (z.b. Sonne) natürlich auch noch recht hell sind wenn die weniger starken (diffuses Streulicht) bereits nicht mehr zu sehen sind. Dabei kommt es eben sehr auf die enorme Bittiefe von HDR bildern an die es erst möglich macht die wirkliche Intensität einer Lichtquelle festzuhalten. In einem 8 Bit Bild wäre die Sonne ja ab einem gewissen Zeitpunkt nurnoch weiß überstrahlt man könnte ihre wahre Stärke durch diese Beschneidung von Werten über 255 255 255 nicht mehr rückwirkend berechnen.

Das Tolle daran ist eben dass man nicht nur die Farbe und Intensität EINER lichtquelle in der Szene festhält, sondern auch die ganzen diffusen Streulichter der Umgebung. Ich kann dadurch wirklich genau die Lichtverhältnisse am Objekt reproduzieren!

Also Beispiel z.b. Benjamin Button - Brad Pitts Kopf ist in den ersten 45 min. bei dieser ganzen Altersheim Sache in 3d reproduziert!!! Der Körper ist von einem anderne Schauspieler und die Mimik von Brad Pitt würde mit floureszierdenem Makeup in 3d Motion-Gecaptured und auf ein 3d-Modell des Kopfes übertragen. Beleuchtet wurde dieser großteils auch mit HDR Panoramen!

hoffe ich war diesmal weniger verwirrt bei meiner eklärung :)
lg, nuki