PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : α7R III - Pixel Shift


HaPeKa
12.11.2017, 23:46
Dpreview hat einen ersten Test der Pixel Shift Technologie mit der A7R III gemacht.

Die Details sind hier einsehbar: Sony a7R III Pixel Shift lifts a veil off your landscapes (https://www.dpreview.com/news/5645755619/sony-a7r-iii-pixel-shift-lifts-a-veil-off-your-landscapes)

Die Tester sind beeindruckt von der Technologie und den sichtbaren Details.
Es sei, als würde ein Schleier von einem Bild entfernt ...
Are we impressed? How could we not be? Landscape, cityscape and architecture photographers will love this
Sie weisen jedoch auch auf die Limiten hin: Pixel Shift ist nur für Bilder, auf denen sich nichts bewegt ...

Einen Link zu Sony's Imaging Edge Software, die's braucht, um die 4 Bilder zusammenzusetzen, fehlt zur Zeit noch.

aidualk
13.11.2017, 06:55
Die Tester sind beeindruckt von der Technologie und den sichtbaren Details.
Es sei, als würde ein Schleier von einem Bild entfernt ...


Ich bin ehrlich gesagt erschrocken von der Matschigkeit des Einzelschusses in der Vergrößerung. Mich erinnert das sehr an einen dicken AA-Filter (http://www.sonyuserforum.de/galerie/details.php?image_id=227449&mode=search). Ich möchte behaupten, ich erziele mit der A7RII in der 100% Ansicht eine bessere BQ in vergleichbarer Situation (http://www.sonyuserforum.de/galerie/details.php?image_id=246007) als dort gezeigt.
Ist dieser Einzelschuss eigentlich eine gesonderte Aufnahme oder als Teil der Kombination gezeigt? In einem Fenster, Nähe der Mitte, sind 2 Personen zu sehen, die in beiden Bildern absolut identisch aussehen.

Abwarten, wenn andere das System austesten.

HaPeKa
13.11.2017, 08:32
Spannend, wie die Wahrnehmung unterschiedlich ist. Ich hab das Einzelbild nicht als matschig empfunden. Klar, dass bei Vergrösserung die Details nicht mehr so rauskommen. Aber das Pixel Shift Bild zeichnet aus meiner Sicht deutlich mehr Details heraus ...

Da zwischen den vier Aufnahmen, die für ein Pixel Shift Foto geschossen werden, bis zu 30s liegen können, sind Menschen auf dem Bild sicher keine Referenz. Sehr wahrscheinlich, dass sie sich zwischen den Aufnahmen bewegt haben. Also die dürfen zur Beurteilung der Bildqualität nicht herangezogen werden.

Und ich bin mit dir völlig einverstanden, auch die A7R II macht gute Bilder :D

aidualk
13.11.2017, 08:39
Bitte nicht falsch verstehen. Der Unterschied ist sehr deutlich. Mich irritiert nur etwas, dass das Einzelbild doch so relativ schwach ist. Ich habe ja oben gezeigt, dass die 100% Ansicht der A7RII bei mir besser aussieht.

Und die Personen auf dem Stack sind gleich dem Einzelbild. Mich wundert eben dass sie sich nicht bewegt haben.

mrrondi
13.11.2017, 09:05
Krass find ich auch wie sehr man auch die Schwächen der Linse zu sehen bekommt.
Wie läuft des dann eigentlich mit der unteren Korrektur bei SONY Linsen.
Kann man die auch weiter nützen ?

meshua
13.11.2017, 09:06
Guten Morgen,

Die noch interessantere Frage ist: Sieht man die "Vorteile" auch auf dem Zielmedium, also als 70x100cm, auf einem iPad Pro oder im Web? Und bekommt man das auch mit gezieltem Schärfen normaler Bilder hin?;) :P

Grße, meshua

laurel
13.11.2017, 09:09
Wenn man das Einzelbild noch hoch und tiefpass nachschärft, so wie es der DXO elite 11 macht , wird das Ergebnis noch deutlich besser werden .
Habe die Vermutung, dass das Bild mit dem Pixel-Shift auch noch gezielt nachgeschärft wurde und das Einzelbild nicht .

P_Saltz
13.11.2017, 09:20
Bitte nicht falsch verstehen. Der Unterschied ist sehr deutlich. Mich irritiert nur etwas, dass das Einzelbild doch so relativ schwach ist. Ich habe ja oben gezeigt, dass die 100% Ansicht der A7RII bei mir besser aussieht.


Ich finde, dass das Motiv selbst eine extrem schlechte Auswahl ist um die Leistungsfähigkeit des Pixel-Shifts zu zeigen.

D.

Alison
13.11.2017, 09:42
Mich irritiert nur etwas, dass das Einzelbild doch so relativ schwach ist. Ich habe ja oben gezeigt, dass die 100% Ansicht der A7RII bei mir besser aussieht.


In dem Vergleich ist das Einzelbild wahrscheinlich zum Vergleich bei mehr als 100% gezeigt. Außerdem erscheinen mir 7.6 MByte für ein 42 MPixel Bild recht stark kompromoiert - oder?

aidualk
13.11.2017, 09:50
Stimmt, das scheint mehr als 100% zu sein. Dann ist aber die Ansichtsauswahl 'full' mehr als irritierend. :roll:

Bodo90
13.11.2017, 10:08
Guten Morgen,

Die noch interessantere Frage ist: Sieht man die "Vorteile" auch auf dem Zielmedium, also als 70x100cm, auf einem iPad Pro oder im Web?

Grße, meshua

Auch wenn sich technisch gesehen viele Hobbyisten overdressed einkleiden, ist diese Funktion und auch die Kamera per sé, wohl eher nicht für dieses Klientel gedacht. Wie Max Muench (u.a.) einwandfrei demonstrieren, kann man auf Instagram auch super Qualität mit einem handy-raw herausholen - so, das es kaum einer merkt

walt_I
13.11.2017, 23:30
Auch wenn sich technisch gesehen viele Hobbyisten overdressed einkleiden, ist diese Funktion und auch die Kamera per sé, wohl eher nicht für dieses Klientel gedacht. Wie Max Muench (u.a.) einwandfrei demonstrieren, kann man auf Instagram auch super Qualität mit einem handy-raw herausholen - so, das es kaum einer merkt

Was willst Du uns mit Deinem Beitrag sagen?
Was hat er mit A7RIII und Pixelshift zu tun?
Ich habe noch kein Handyfoto gesehen, das technisch mit einer A7RII oder III auch nur annähernd mithalten könnte, bei schlechten Lichtverhältnissen schon gar nicht.

P_Saltz
13.11.2017, 23:39
Ganz einfach, er will uns sagen, dass wir, die wir 3,5k€ für ein Gehäuse ausgeben, doof sind, weil man das alles mit einem Smartphone machen kann.

Man kommt auch mit einem Duster gut ums Eck, mit einem Audi RS6 macht es aber mehr Laune, thats it. ...und es geht vor allem viel mehr...

D.

HaPeKa
13.11.2017, 23:44
Also meiner Meinung nach ist die Unterscheidung 'für Profis' oder 'für Hobbyisten' völlig überholt.

Hersteller wie Sony bauen Kameras mit unterschiedlichen Möglichkeiten. Naturgemäss bekommen die Top of the Line Produkte die technischen Innovationen als erste und sind entsprechend teurer als einfacher ausgestattete Kameras. Typischer- und vorzugsweise werden die teuren Produkte von Profis gekauft, weil die damit Geld verdienen und die Anschaffung damit rechnen oder zumindest rechtfertigen können. Das heisst aber nicht, dass diese Geräte per sé nicht für Hobbyisten taugen. Auch Hobbyisten schätzen einen schnellen Autofokus, eine schönes Bokeh, eindrückliche Milchstrassenfotos, TimeLapse Filme u.s.w. Und da wir in einer Wohlstandsgesellschaft leben, gibt es einige Hobbyisten, die sich das leisten wollen und auch können. So what?

Als Hobbyist werde ich mir erlauben, mit Pixel Shift zu experimentieren und damit hoffentlich Fotos schiessen, die sich im Büro oder zu Hause aufhängen lassen ...

MaTiHH
13.11.2017, 23:59
Ich denke, wir dürfen beruhigt davon ausgehen, dass Sony die Kamera für jeden gedacht hat, der sie kauft und man sie niemandem vorenthalten wird.

Zum PixelShift: Wenn man in die Gebäude hineinzoomt tauchen in den Fenstern an mehreren Stellen Menschen auf, die sich im Aufnahmezeitraum sicher auch bewegt haben. Ich bemerke wenige Artefakte. Leider ist die Auflösung nicht so toll.

usch
14.11.2017, 02:59
Ich bin ehrlich gesagt erschrocken von der Matschigkeit des Einzelschusses in der Vergrößerung.
Die Gegenüberstellung ist natürlich Humbug, wenn nicht für beide Bilder dieselbe Software mit denselben Einstellungen verwendet wird. Wir vergleichen hier eine ungeschärfte Adobe-Ausgabe mit einer moderat geschärften Version aus einer proprietären Sony-Software. Mit Capture One in der Standardeinstellung sieht das schon wieder anders aus (bitte nicht auf den Weißabgleich achten):

6/DSC00290x3.jpg
→ Bild in der Galerie (http:../galerie/details.php?image_id=283932)

Das zur Verfügung gestellte RAW dürfte übrigens tatsächlich eins der vier Pixelshift-Teilbilder sein.

Mich erinnert das sehr an einen dicken AA-Filter (http://www.sonyuserforum.de/galerie/details.php?image_id=227449&mode=search).

Nicht geschärft ist halb geglättet. ;) Wenn man schräge Linien ohne erkennbare pixelige Treppenstufen ausgibt, muss das auf jeden Fall sehr stark tiefpassgefiltert sein.

Das Bild kann ja auch eigentlich gar nicht schärfer werden, denn 42MP bleiben 42MP. Ausgenommen Bildteile mit sehr hoher Farbsättigung, wo die Auflösung eines Bayer-Sensors ja bis auf ein Viertel zurückgeht. (Offtopic: Ich könnte die Lichttechiker bei Konzerten immer ohrfeigen, wenn sie die Bühne komplett in monochromes Blau tauchen, da bleiben dann von den 12 MP meiner α7S nur noch 3 MP übrig :twisted: ...)

Der eigentliche Vorteil ist, daß man auch bei feinen Strukturen kein farbiges Aliasing bekommt. Die Verstrebungen im Kranausleger schillern bei dem Einzel-RAW in allen Farben, auch Adobe bekommt das trotz Glättung nicht ausgebügelt. Dieser Effekt ist bei der Pixelshift-Aufnahme völlig weg.

Alison
14.11.2017, 08:54
. Mit Capture One in der Standardeinstellung sieht das schon wieder anders aus ...


Danke für den Vergleich!

.
Der eigentliche Vorteil ist, daß man auch bei feinen Strukturen kein farbiges Aliasing bekommt.

Ganz meine Meinung :) (http://sonyuserforum.de/forum/showpost.php?p=1955756&postcount=52)

Wobei man noch anmerken kann, dass Panasonic und Olympus die Auflösung tatsächlich erhöhen indem sie auch noch Verschiebungen um einen halben Pixel einbauen. Ob das bei einem 42 MPixel Sensor noch sinnvoll ist, sei aber mal dahingestellt.

meshua
14.11.2017, 09:01
Also meiner Meinung nach ist die Unterscheidung 'für Profis' oder 'für Hobbyisten' völlig überholt.

Hersteller wie Sony bauen Kameras mit unterschiedlichen Möglichkeiten.

Und genau so ist es: "Kameras mit unterschiedlichen Möglichkeiten". Und der Preis (als Funktion) skaliert eben mit den technischen Features einer Kamera. Alles gut - denn auch der "Berufsfotograf" war auch früher durchaus mit einfachem Equipment anzutreffen, was ihn jedoch nicht daran hinderte, großartige Bilder mit nach Hause zu bringen. Profi muss man im Kontext "verdient damit Geld" sehen - nicht zwangsläufig "kann super Bilder machen".:crazy:

In DE schwingt auch häufig noch unterschwellig Neid auf den Anderen mit, welcher sich das "teurere" geleistet hat. Stattdessen soll man mit seinen gegebenen Mitteln und Grenzen versuchen, ein vergleichbares oder besseres Ergebnis abzuliefern - das sollte doch ein Anspruch sein - und nicht das ewige "Gejammer": "Der Kollege mit der teureren Kamera MUSS einfach bessere Bilder als ich können, das schaffe ich NICHT!" Blödsinn! :crazy::top:

Grüße, meshua

meshua
14.11.2017, 09:05
Die Gegenüberstellung ist natürlich Humbug, wenn nicht für beide Bilder dieselbe Software mit denselben Einstellungen verwendet wird. Wir vergleichen hier eine ungeschärfte Adobe-Ausgabe mit einer moderat geschärften Version aus einer proprietären Sony-Software.

Haaahh: doch alles Marketing!? Und "Schaumi" wäscht jetzt noch weißer als Weiß...oder so ähnlich. :P

"kein farbiges Aliasing" - ist natürlich ein Argument, weil insbesondere bei Architekturfotografie ein potentielles Problem. Danke für diese Erkenntnis! :top:

Grüße, meshua

dinadan
14.11.2017, 10:06
Mit Capture One in der Standardeinstellung sieht das schon wieder anders aus

Den Kran hat Capture One gut hinbekommen, aber die feinen Strukturen an der Fassade und in den Fenstern ist bei der Pixelshift-Variante sichtbar besser. Ich denke, der neue Aufnahmemodus wird seine Anhänger finden.

usch
14.11.2017, 11:30
Ich bemerke wenige Artefakte.
Da:
http://www.sonyuserforum.de/galerie/data/media/6/DSC00290_PSMS_cr.jpg

So etwas müsste sich aber relativ leicht automatisch erkennen und ausmaskieren lassen. Man hat ja jetzt für jedes Subpixel vier Werte zur Auswahl (einen echten und drei interpolierte bei Rot und Blau bzw. zwei echte und zwei interpolierte für Grün). Wenn da einer zu sehr aus der Reihe tanzt, könnte man ihn sozusagen durch die anderen "überstimmen".

Leider ist die Auflösung nicht so toll.
Mehr als 42 MP werden es halt auch dadurch nicht nicht. ;)

Haaahh: doch alles Marketing!? Und "Schaumi" wäscht jetzt noch weißer als Weiß...oder so ähnlich. :P
Nö ... die Verbesserungen sind ja tatsächlich vorhanden. Nur eben nicht da, wo es dieser Hype-Artikel suggeriert.

matti62
14.11.2017, 12:04
Und genau so ist es: "Kameras mit unterschiedlichen Möglichkeiten". Und der Preis (als Funktion) skaliert eben mit den technischen Features einer Kamera. Alles gut - denn auch der "Berufsfotograf" war auch früher durchaus mit einfachem Equipment anzutreffen, was ihn jedoch nicht daran hinderte, großartige Bilder mit nach Hause zu bringen. Profi muss man im Kontext "verdient damit Geld" sehen - nicht zwangsläufig "kann super Bilder machen".:crazy:

In DE schwingt auch häufig noch unterschwellig Neid auf den Anderen mit, welcher sich das "teurere" geleistet hat. Stattdessen soll man mit seinen gegebenen Mitteln und Grenzen versuchen, ein vergleichbares oder besseres Ergebnis abzuliefern - das sollte doch ein Anspruch sein - und nicht das ewige "Gejammer": "Der Kollege mit der teureren Kamera MUSS einfach bessere Bilder als ich können, das schaffe ich NICHT!" Blödsinn! :crazy::top:

Grüße, meshua

natürlich ist die Unterscheidung schon längst überholt, da es Konsumerprodukte sind. Und jeder konsumiert in seinem Rahmen. Ähnlich wie bei den Autos, wenn das Geld für einen Porsche da ist, heißt das noch lange nicht, dass der Käufer das Fahrzeug beherrscht. Was aber auch nicht von Interesse ist ob er 5% 10% oder 80% des Umfangs abruft und nicht die Umgebung schädigt, was ja mit Kameras nicht der Fall ist.

Sollte man es Investgut betrachten, ist der Unternehmer natürlich darauf bedacht, das Zeug so schnell wie möglich abzuschreiben.... Manche, wie Jason, haben aber durch die Beziehung zu Sony ein gutes Geschäftsmodell daraus gemacht. Er hat ja geniale Photoshopper im Team :D.

Andere lassen sich von Ihren Kunden leiten, wie Anatol Kotte, der setzt neben Nikon für Portraits vermehrt auf Mittelformat, weil gefordert. Die Bilder sind mit seinen beschränkten Mitteln (Nikon) :D aber doch sehr gut geworden....

Letztendlich ist das eigene Portfolio das Maß aller Dinge, welchen Typ von Kamera und vor Allem Objektive man einsetzt. Andersherum geht natürlich auch.

Natürlich ist eine neue Kamera immer besser wie die "Alte". Man erwartet von den Großunternehmen, dass sie von Jahr zu Jahr im Umsatz wachsen. Ein Rückschritt wird als Verfall der Firma verstanden. Daher steht in erster Linie der "Value" des Produktes im Vordergrund als Verkaufsargument. Ob der Value auch danach in Anwendung kommt, bleibt Dir überlassen. Die Qualität oder Genialität des Bildes hängt davon sicherlich nicht ab, auch nicht mit Pixelshift.

Das ist wie mit dem Auto. Wie gut man mit der jetztigen oder vorherigen E-Klasse an das Ziel kommt, hängt von dem ab, der dahinter sitzt. Die vielen kleiner Helferlein machen das für den Fahrer nicht einfacher..... Auch wenn die Autoindustrie das gerne verkauft.

MaTiHH
14.11.2017, 12:36
Dann würde Hamilton die Formel 1 auch mit einem Golf gewinnen?

matti62
14.11.2017, 12:37
warum, sind die Kosumer alle kleine Hamiltons, die gegen Vettels antreten?

HaPeKa
14.11.2017, 15:58
Zum Glück gibt's beim Fotografieren nicht nur 1. und 2. Plätze.

Tatsächlich ist es in meinem Fall so, dass die meisten Fotos, die mich persönlich ansprechen, mich bewegen und mich zum Denken anregen wohl selten mit HighTech Equippement geschossen wurden.

Es gibt aber auch die Bilder mit WOW Effekt, die überraschend und beeindruckend sind und bei denen ich mich frage, wie die wohl zustande gekommen sind ... Und solche Bilder wurden typischerweise nicht mit Handies geschossen.

Es gibt also Platz für beides ... Schön ist einfach, wenn jemand Kreatives hinter der Linse stand, dann sind die Resultate wirklich sehenswert.

Giovanni
14.11.2017, 22:00
Wenn ihr dann eure Auto-Diskussion fertig habt, hätte ich noch eine Frage:

Die Bewegungen des Sensorstabis zwschen den 4 Belichtungen sollen so sein, dass sich das Bild jeweils um einen Sensorpunkt horizontal und/oder vertikal verschiebt. Richtig?

So genau kann das aber gar nicht funktionieren, weil bereits die thermische Ausdehnung des Stativs, Windeinflüsse etc. locker zwischen zwei Bildern im Abstand von einigen Sekunden für einen Versatz in dieser Größenordnung sorgen können. Was vorher auf Bildpunkt x,y war ist nicht anschließend zwangsläufig an der genau selben Stelle, wo es z.B. von Bildpunkt x+1,y-1 erfasst werden kann. Sondern irgendwo dazwischen, oder irgendwo darüber hinaus. Schließlich beträgt der Versatz zwischen den Bildern in jeder Richtung nur 1 Pixel, also ca. 1/8000 der Bildbreite. Also gehe ich davon aus, dass das Verfahren nur funktioniert, indem die Bilder per Software ausgerichtet werden, und dass es eben nicht so pixelgenau arbeiten kann, wie es die schönen Präsentationen suggerieren. Oder anders ausgedrückt: Wenn die Kamera nicht gerade festbetoniert ist und es keine thermischen Luftströmungen gibt, dürfte das Verfahren selbst dann einigermaßen funktionieren, wenn der Sensor gar nicht zwischen den Aufnahmen um jeweils ein Pixel verfahren wird. Die ganz normalen, dem Zufall unterliegenden Einflüsse dürften genügen, um mit einem solchen Algorithmus sogar bei einer Kamera, die keinen verschiebbaren Sensor hat, eine ähnliche Verbesserung durch Verrechnen einer Bildserie zu erzielen, denn der zufällige Versatz dürfte kaum geringer sein.

Oder?

*thomasD*
14.11.2017, 22:27
Sehe ich anders. Das Verfahren sauert 30sec. Wenn deine Annahme stimmen würde könnte man niemals pixelscharfe Langzeitaufnahmen in dem Bereich und darüber machen. Die Erfahrung sagt da aber was anderes.

Giovanni
14.11.2017, 23:12
Sehe ich anders. Das Verfahren sauert 30sec. Wenn deine Annahme stimmen würde könnte man niemals pixelscharfe Langzeitaufnahmen in dem Bereich und darüber machen. Die Erfahrung sagt da aber was anderes.

Ok, stimme dir zu ... das lässt sich nicht verleugnen.

Abgesehen davon finde ich übrigens, dass ein solches Feature mehr oder weniger nur eine Übergangslösung ist, bis es leistungsfähige Sensoren gibt, die auf jedem Pixel alle Farben erfassen. Sigma zeigte ja mit dem Foveon schon, was prinzipiell mindestens möglich ist.

usch
14.11.2017, 23:39
Ich hab mich auch schon gefragt, ob und wie es möglich ist, den Sensor auf ±0,002mm exakt zu verschieben. Kann ich mir eigentlich nur vorstellen, wenn auf dem Sensorträger Markierungen angebracht sind, die dabei abgetastet werden, um die tatsächliche aktuelle Position zu bestimmen. 8000 Pixel auf 36mm sind ziemlich genau 5600 DPI; das ist eine Abtastgenauigkeit, die man z.B. mit optischen Mäusen durchaus erreichen kann.

Und die Aufnahmeserie dauert ja gerade deshalb so lange, weil die Kamera vor dem Auslösen wartet, bis wirklich nichts mehr nachschwingt. Das ist also kein Hinderungsgrund, sondern im Gegenteil die Voraussetzung dafür, daß das Verfahren ohne rechnerische Ausrichtung funktioniert. Ausrichtung würde auch wieder Interpolation bedeuten, aber die will man ja gerade loswerden.

TONI_B
15.11.2017, 00:13
Piezo-Antriebe können noch viel höhere Auflösungen erreichen! Bis in den nm-Bereich. Wenn es nicht auf die absolute Wegmessung ankommt, braucht man nur die Spannung am Piezo ändern. Die Wegänderung ist in weiten Bereich linear.

usch
15.11.2017, 01:47
Piezos haben wir ja nicht mehr, das war der Stabi beim A-Mount. Weißt du zufällig, wie genau man magnetische Aktuatoren ansteuern kann?

TONI_B
15.11.2017, 06:31
Die Auflösung solcher analoger Systeme (meist Tauchspulenprinzip) wird eigentlich durch das thermische Rauschen beschränkt und ist damit extrem hoch. Da käme man sicher auch in den nm-Bereich. Wahrscheinlich begrenzt der DAC (DigitalAnalogKonverter) die Auflösung bzw. mit wie viel Bit die firmware intern rechnet.

*thomasD*
15.11.2017, 06:32
Bei der Genauigkeit sehe ich keine Probleme. 1/100 mm sind schon im Maschinenbau machbar, und das sind ganz andere Dimensionen. Die Encoder arbeiten da meist im nm-Bereich.

Alison
15.11.2017, 10:55
Ich denke schon, dass der Shift so genau ist, der Stabilisator muss ja auch sonst idealerweise das Bild auf Pixelebene stabilisieren. Ich vermute, dass er auch nicht abgeschaltet wird und dann nur den Shift um eine Pixel macht, sondern dass er zusätzlich auch Schwankungen ausgleicht. Olympus arbeitet ja schon länger daran, und man hörte, dass sie am liebsten das Feature für die EM-1 Mark II soweit entwickelt hätten, dass man es aus der Hand benutzen kann - sie haben es aber nicht ganz geschafft, so dass man doch ein Stativ braucht. Dennoch denke ich dass es so funktioniert, dass das System vielleicht erkennt, dass eine Korrektur um 51 Pixel nötig ist, dann aber nur 50 macht um den Versatz zu erzeugen.

*thomasD*
15.11.2017, 18:52
Tja, ich finde es eigentlich nicht so interessant, aber ich werde mich erstmal weiterhin eh mit der A7II begnügen. Interessant fände ich aber, wenn man den IBIS zum Nachführen des Nachthimmels nutzen könnte - das wurde ja schon geschrieben. Das könnte dann auch für die A7III interessant sein.

TONI_B
15.11.2017, 20:44
Darauf würde ich nicht setzen, das ist eine sehr schlechte Krücke! Die Möglichkeiten hinsichtlich der Brennweiten und der Belichtungszeiten sind sicher sehr begrenzt. Da würde ich eher zu den kleinen, leichten Nachführungen greifen. Damit kann man bis 200mm 1-2min nachführen. Mit WW und NO 5-10min. Das bringt wesentlich mehr.

Ich habe zB. heute sehr früh am Morgen Mond, Mars, Jupiter und Venus fotografiert. Mond und Mars mit bis zu 300mm und bis zu 5s. Das geht nur mit Nachführung. Solch eine kleine Montierung ist bei mir fix auf einem Fotostativ montiert. Das Aufstellen dauert genau so lang wie das Aufstellen eines normalen Statives, weil der Montierungskopf für so kurze Zeiten nur grob nach Norden orientiert sein muss.

Ich glaube nicht, dass das der verschiebbar Sensor könnte bei 300mm.

*thomasD*
15.11.2017, 21:02
Irgenwer hat das ja schon, Pentax glaube ich. Ich denke mit GPS-Daten, Kompass, Neigungssensor und der Information der Brennweite könnte die Kamera alles vollautomatisch steuern. Reine Softwaregeschichte.

Mir ginge es ja nur darum die Belichtungszeit bei halber Nachführgeschwindigkeit zu verdoppelt um eine Belichtungsstufe zu gewinnen da ich im Weitwinkelbereich auch Landschaft auf dem Bild haben würde. Allerdings habe ich mir auch schon eine kleine Nachführung wie du sie beschrieben hast herausgesucht.

HaPeKa
16.11.2017, 14:40
Mit dem Release der Image Edge Software hat Sony auch eine Hilfeseite zu der Pixel Shift Technologie aufgeschaltet:

Pixel Shift Multi Aufnahme (https://support.d-imaging.sony.co.jp/support/ilc/psms/de/index.html?id=dl)

usch
16.11.2017, 15:00
Pixel-Shift-Multi-Aufnahme
Die Blitzsynchronzeit beträgt 1/13 Sekunde.

:shock:

Das dürfte also die Auslesezeit des Sensors beim elektronischen Verschluss sein, oder?

MaTiHH
18.11.2017, 19:21
Ein erstes schnelles Beispiel (die Dynamic Range war heute Outdoor ziemlich eingeschränkt in Norddeutschland).

https://farm5.staticflickr.com/4547/26726886879_44764d5828_z.jpg (https://flic.kr/p/GHLhjt)

7R300025_PSMS.jpg (https://flic.kr/p/GHLhjt) by Sport & Spiel Martin (https://www.flickr.com/photos/147706411@N07/), auf Flickr

Wer selbst spielen möchte, bitte sehr:

https://www.dropbox.com/sh/0qxx7s0nk4gcfwq/AADvjHblOu6k8maq5fkHFTzPa?dl=0


Achtung: Ich sehe gerade, die ARQ-Dateien sind 350MB groß!:shock:

usch
18.11.2017, 19:42
Ein erstes schnelles Beispiel
Hm ... ich finde da nicht eine einzige Stelle ohne Artefakte, selbst die Parkbank(?) am gegenüberliegenden Ufer hat ausgefranste Ränder. Anscheinend hat sich die Kamera zwischen den Aufnahmen doch ein bißchen bewegt (weicher Boden, Wind, ...).

Achtung: Ich sehe gerade, die ARQ-Dateien sind 350MB groß!:shock:
4×84MB uncompressed RAW aneinandergehängt. Kommt hin. ;)

aidualk
18.11.2017, 20:10
Hm ... ich finde da nicht eine einzige Stelle ohne Artefakte, selbst die Parkbank(?) am gegenüberliegenden Ufer hat ausgefranste Ränder...

Du hast nicht das Original (jpg) herunter geladen. :shock:
Martin: Da ist aber was massiv daneben gegangen.

MaTiHH
18.11.2017, 20:17
Schauen wir auf die gleiche Datei? Ich sehe hier und da Artefakte und insgesamt entdecke ich zwischen einem entwickelten RAW und dem PSMS nicht wirklich einen Unterschied?

Eigentlich hat die Kamera direkt auf dem "Strand" gestanden.

Im Zweifel war das dann als Beispiel dafür gedacht, dass man die optimalen Bedingungen haben muss. :oops:

aidualk
18.11.2017, 20:20
Wenn ich mir dein verlinktes jpg in voller Größe runter lade (53519 KB Bild) und in original Größe anschaue sieht das Motiv-versetzt und extrem überschärft aus.
Kam das so aus dem stacking Programm heraus?

HaPeKa
18.11.2017, 20:23
Ich bin davon ausgegangen, dass sich nichts aber auch gar nichts bewegen sollte, damit Pixel Shift eine bessere Bildqualität erreichen kann. Kann das draussen am Wasser mit Pflanzen überhaupt was bringen? Oder habe ich was falsch verstanden?

MaTiHH
18.11.2017, 20:27
Kann ich nicht sagen...

Schaut doch mal auf die Dateien in der Dropbox, das sind genau die, die aus der Kamera gekommen sind.

HaPeKa
18.11.2017, 20:55
Hallo Martin, danke für die Dateien.
Habe sie mal im Image Edge Viewer angeschaut und die Details im ARQ File sind schlechter als bei den einzelnen ARW Files. Also da scheint sich wirklich was bewegt zu haben, so dass die Bildpunkte der 4 Einzelbilder nicht genau übereinstimmen ...

Hier noch ein Beispiel (https://www.sonyalpharumors.com/weird-moving-objects-look-sony-a7riii-pixel-shift-mode/), wie's aussieht, wenn sich was bewegt, hier was Grosses.

Wie ist dein erster Eindruck der A7R III mal abgesehen von der Pixel Shift Funktion?

MaTiHH
18.11.2017, 21:19
Geisterbilder...

Mein Eindruck ist fantastisch. Ich war ja mit der R2 sehr zufrieeden von der BQ her. Mit der a7R3 hat sich jetzt von der Bedienung her alles so gefügt, wie ich es gern wollte, nämlich genau gleich mit der a9 (außer dem fehlenden Rädchen). Ich habe die Kamera jetzt quasi gleich konfiguriert wie die a9 und damit ist das Leben für mich einfacher.

Ob jetzt die BQ besser geworden ist war heute nicht erkennbar, das Wetter in Hamburg hatte deutliche weniger als 15 Blendenstufen Dynamikumfang.

Ansonsten sind eine Menge Kleinigkeit jetzt wirklich sehr zufriedenstellend. Ich glaube, das könnte meine Kamera für die nächsten 5 Jahre sein. Im Tandem mit der a9 für Sport und ähnliches macht mir das Freude!

Hasst du deine schon bekommen? Wie fühlt es sich für dich an?

HaPeKa
18.11.2017, 23:03
Danke, die Vorfreude steigt ... Hier in der Schweiz ist der 24.11. Launch Datum, muss mich also noch eine Woche gedulden *grrrr

nex69
19.11.2017, 02:48
24.11.? Nö. Bei meinem Händler ist die R3 diese Woche eingetroffen. Und bei einigen anderen auch.

MaTiHH
19.11.2017, 14:35
Ich war heute nochmal kurz im Wald und das Verhalten ist für mich nicht konsistent. Bei der folgenden Aufnahme war ich mir eigentlich sicher, alles richtig gemacht zu haben:

6/7R300065_PSMS.jpg
→ Bild in der Galerie (http:../galerie/details.php?image_id=284305)

Hier das Original dazu, normal entwickelt:

6/7R300065.jpg
→ Bild in der Galerie (http:../galerie/details.php?image_id=284306)

Hier wiederum ist es eigentlich ganz gut geworden (Fokus auf den Ästen):

6/7R300061_PSMS.jpg
→ Bild in der Galerie (http:../galerie/details.php?image_id=284307)

Die Originale findet ihr in dem o.g. Dropbox-Link, alternativ auf den oben anklickbaren Flickr-Seiten.

aidualk
19.11.2017, 14:59
Hmm, für mich besteht das ganze Bild nur aus (stitching-?) Fehlern.
Sinn und Zweck des ganzen ist ja, eine höhere Detailschärfe zu erzielen. Damit sollte das Bild auch einer 100% Ansicht standhalten.
Ich habe mal in einem Bildausschnitt ein paar markiert.

6/7R300061_PSMS_Fehler.jpg
→ Bild in der Galerie (http:../galerie/details.php?image_id=284311)


Ich denke, das ganze ist noch nicht ausgereift oder wirklich nur im Studio verwendbar. :zuck:

MaTiHH
19.11.2017, 16:18
Ja, da stimme ich dir zu, das ist eher noch Beta-Stadium. Ich denke, ich warte mit weiteren Versuchen auf SW-Updates.

usch
19.11.2017, 22:34
Hmm, für mich besteht das ganze Bild nur aus (stitching-?) Fehlern.

Ich habe mal in einem Bildausschnitt ein paar markiert.
Halt überall, wo sich etwas bewegt. Zweige und Blätter wackeln im Wind, ein Vogel oder Insekt fliegt durchs Bild, und wenn sich bei wechselnder Bewölkung die Lichtverhältnisse zwischen den Einzelaufnahmen ändern, kannst du das ganze Bild in die Tonne kloppen. Oder zumindest das gestackte, die Einzelaufnahmen lassen sich ja immer noch normal verwenden.

Ich denke, das ganze ist noch nicht ausgereift oder wirklich nur im Studio verwendbar. :zuck:
Nur dafür wird es ja auch beworben:

Still images of art and architecture take on a new dimension of reality with unprecedented subjective resolution.

Von "Landscape" steht da nix. Die Sache mit Wunschvorstellung und tatsächlicher Ankündigung. ;)

Solange es sich nur um einzelne Artefakte handelt, kann man die ja immer noch mithilfe einer der vier Originalaufnahmen rausmaskieren. Wäre halt schön, wenn die Software dafür direkt eine entsprechende Funktion anbieten würde.

meshua
19.11.2017, 23:16
Nur dafür wird es ja auch beworben:

Still images of art and architecture take on a new dimension of reality with unprecedented subjective resolution.

Von "Landscape" steht da nix. Die Sache mit Wunschvorstellung und tatsächlicher Ankündigung. ;)


Jaaaah, so wird's wohl sein. Auch schon mal darüber nachgedacht, weshalb SONY gerade jene Bilder ("Still images of art and architecture") als Beispiel für den PixelShift gewählt hat - die wußten natürlich auch, welche Szenen nicht funktionieren...:P :crazy: :cool:

Grüße, meshua

Giovanni
20.11.2017, 00:03
Bilder-Mikado: Was sich bewegt, ist verloren.

Fata Morgana
20.11.2017, 00:19
Hmm, für mich besteht das ganze Bild nur aus (stitching-?) Fehlern.
Sinn und Zweck des ganzen ist ja, eine höhere Detailschärfe zu erzielen. Damit sollte das Bild auch einer 100% Ansicht standhalten.
Ich habe mal in einem Bildausschnitt ein paar markiert.

6/7R300061_PSMS_Fehler.jpg
→ Bild in der Galerie (http:../galerie/details.php?image_id=284311)


Ich denke, das ganze ist noch nicht ausgereift oder wirklich nur im Studio verwendbar. :zuck:
Diese Artefakte sehen furchtbar aus. Ist das nur bei der a7RIII so? Ich erinnere mich nicht ähnliche Artefakte bei Oly gesehen zu haben. Es ist aber schon eine Weile her, seitdem ich mich darüber informiert habe.

usch
20.11.2017, 00:57
Der Unterschied ist, daß Olympus die kompletten Einzelbilder erst normal demosaikt, anschließend hochskaliert und dann als Ganzes stackt, um die Auflösung zu erhöhen. Die Artefakte sind auch da, aber eher in Form leicht gerasterter Doppelbilder.

http://www.guillermoluijk.com/misc/pajaro2.jpg

Sony dagegen nimmt explizit aus der einen Aufnahme nur die roten, aus der anderen Aufnahme nur die blauen und aus den beiden restlichen die grünen Pixel, ohne irgendwo zu interpolieren oder auszurichten. Wenn da etwas nicht übereinander passt, reißt es das Bild halt völlig auseinander.

aidualk
20.11.2017, 09:50
Von "Landscape" steht da nix.

Ist ja auch unlogisch dass es bei 'landscape' auf die Art funktionieren kann.
Auf der anderen Seite hatte ich keine ruinierten Bilder bemerkt, als ich (vor langer Zeit allerdings) die 'Multi-Shot-High-Iso-Rauschunterdrückung' ausprobiert hatte, die ja auch mehrere Bilder ineinander kopiert. Das ging sogar aus der Hand. Ich weiß, das Verfahren ist ein ganz anderes. ;) - es war mir aber nur zu weich im Ergebnis.

HaPeKa
20.11.2017, 09:58
Es handelt sich bei Pixel Shift um einen neue Funktion, die bestimmt ausbaufähig ist.
Würde mich nicht erstaunen, wenn es bald einmal Software gibt, die die Artefakte von bewegten Objekten korrigieren kann.

Wie Usch schon angedeutet hat, kann überall dort, wo sich etwas bewegt hat, eines der 4 Quellbilder favorisiert werden. Und alles, was sich wirklich nicht bewegt, profitiert dann von der Pixel Shift Technologie ...

usch
20.11.2017, 12:38
Ich könnte mir sogar vorstellen, daß das in der Software eigentlich schon drin sein sollte, aber nicht rechtzeitig zum Release fertig geworden ist.

Alison
20.11.2017, 12:45
Ich erinnere mich nicht ähnliche Artefakte bei Oly gesehen zu haben. Es ist aber schon eine Weile her, seitdem ich mich darüber informiert habe.
Doch, die gibt es auch. Die EM1.2 versucht Bewegung zur erkennen und dann statt Artefakten an den Stellen die Information aus nur einem Bild zu benutzen. Funktioniert aber auch nicht perfekt.

walt_I
20.11.2017, 14:12
Wenn man sich vorstellt, dass der Sensor nur um jeweils rund 4,5 Mikrometer! geshiftet wird, kann man die Anforderungen z.B. an das Stativ erahnen. Jede noch so kleine Bewegung bzw. Erschütterung durch Fahrzeuge verhunzt das Bild, von bewegten Motiven einmal ganz abgesehen.

NetrunnerAT
20.11.2017, 17:58
https://scontent-vie1-1.xx.fbcdn.net/v/t1.0-9/23722622_10212799162270360_1747485031740999805_n.j pg?oh=1624ef9fa371216ba6fce869c411f426&oe=5A8BC1E2

So schaut Pixelshift aus, wenn man Musik dabei hört und Stativ schwingt. X-D (Bild verlinkt aus FB heraus)

MaTiHH
20.11.2017, 18:40
Na, das eröffnet doch ganz neues kreatives Potential. Da kann mit verschiedenen Musikrichtungen spielt... :crazy:

HaPeKa
20.11.2017, 18:43
Ich könnte mir sogar vorstellen, daß das in der Software eigentlich schon drin sein sollte, aber nicht rechtzeitig zum Release fertig geworden ist.
Das wär natürlich der Idealfall. Dann könnte man mit Imaging Edge ein artefaktefreies RAW File erstellen, das dann mit der Software der Wahl weiter bearbeiten könnte.

Würde man die Artefakte z.B. mit Photoshop entfernen, hat man ja kein RAW File mehr ... Ist aber eh so, sobald man noch weitere Bearbeitungsschritte vornimmt, bis man mit dem Bild restlos zufrieden ist :D

NetrunnerAT
20.11.2017, 18:47
uhm ... ok ... ich kaufe eine 4500k€ Kamera ... mach Pixelshift wo einfach die Technik zur Motiv Art passt ... mach Photoshop um Artefakte weg zu bekommen ... mach die Bildqualität mieser als das Ergebnis von ein Einzel Bild. :crazy:

For the Glory!!!

Klingt nach Win Win :cool:

HaPeKa
20.11.2017, 19:47
Also ich bin kein Photoshop Profi ... Aber ich würde eines der 4 ARW Files auf Ebene 1 nehmen, das ARQ auf Ebene 2 und dann einfach mal aus Ebene 2 die Bereiche mit Artefakten ausradieren ... Also da wird nicht das ganze Bild schlechter ...

Aber es ist klar, Pixel Shift ist für primär für Bilder, auf denen sich nichts bewegt, da bringt die Technik was ...

Giovanni
20.11.2017, 22:48
Aber es ist klar, Pixel Shift ist für primär für Bilder, auf denen sich nichts bewegt, da bringt die Technik was ...
Mal ehrlich, das ist Stand heute größtenteils eine Technik für Pixelfrickler, denen vor dem Computer langweilig ist.

Eine der wenigen praktischen Anwendungen, bei denen der Aufwand relativ gering ist und der Nutzen groß sein kann, wären drapierte Textilien á la GPO, bei denen man so offenbar Moiré verhindern kann und dabei im Gegensatz zu einem AA-Filter keine Details verliert, sondern diese sogar noch verbessert.

usch
20.11.2017, 22:53
So schaut Pixelshift aus, wenn man Musik dabei hört und Stativ schwingt. X-D (Bild verlinkt aus FB heraus)
Das ist aber die Olympus-Variante, oder? Ich sehe keine Bayer-Artefakte, nur gerasterte Geisterbilder.

Aber mit Verlaub gesagt ist durch die Schwingung der ganze Ausschnitt dermaßen verwackelt, daß das auch als Einzelbild ohne Pixelshift schon für die Tonne gewesen wäre.

Also ich bin kein Photoshop Profi ... Aber ich würde eines der 4 ARW Files auf Ebene 1 nehmen, das ARQ auf Ebene 2 und dann einfach mal aus Ebene 2 die Bereiche mit Artefakten ausradieren ...
Ja, genau so. Es müssen halt nur beide exakt gleich entwickelt werden. Meine Hoffnung ist ja, daß Capture One irgendwann den Umgang mit Multishot-Aufnahmen lernt und man die Maske dann gleich innerhalb des Raw-Konverters als lokale Korrekturebene malen kann.

HaPeKa
20.11.2017, 23:11
Mal schauen, wer schneller ist, Adobe oder Capture One :D

Frage mich nämlich, warum Adobe so lange braucht, um die A7R III zu unterstützen.
Sony hat die Infos zu den RAW Specs der A7R III sicher schon lange geliefert ...
Könnte es da eine Überraschung geben?

lampenschirm
20.11.2017, 23:56
Ev verschwindet das ganze auch wieder wie die 3D Foto Aufnahmen. Oder war da einfach das Problem, dass die Leute keine entspr. Monitore hatten ?

Oder ja
Hat denn eine aktuelle Cam diese Funktion etwa noch drinn ?

NetrunnerAT
21.11.2017, 00:41
Hat denn eine aktuelle Cam diese Funktion etwa noch drinn ?

Diese Frage liest man selten ... sehr selten sogar!

MaTiHH
21.11.2017, 09:01
Mal schauen, wer schneller ist, Adobe oder Capture One :D

Frage mich nämlich, warum Adobe so lange braucht, um die A7R III zu unterstützen.
Sony hat die Infos zu den RAW Specs der A7R III sicher schon lange geliefert ...
Könnte es da eine Überraschung geben?

Die grundsätzliche Technologie zur Beseitigung von Bewegungsartefakten sollten eigentlich viele haben - außer Sony vielleicht. Schließlich kann das so anders nicht sein als die Geisterbildbeseitigung bei HDR-Aufnahmen und das kann DXO und LR gleichermaßen.

meshua
21.11.2017, 09:41
Ev verschwindet das ganze auch wieder wie die 3D Foto Aufnahmen. Oder war da einfach das Problem, dass die Leute keine entspr. Monitore hatten ?


Ich vermute, das einerseits kein vernünftiges Bildmaterial dauerhaft zur Verfügung steht. Aber es könnte auch was mit dem "Uncanny Valley" zu tun hat, weshalb man solche "surrealistischen" Darstellungen nicht dauerhaft annimmt. Mein Fernseher "kann auch 3D" - hab's nach dem auspacken einmal getestet und die Brillen wieder eingepackt. :P

Pixelshift sehe ich wie Canon's Dual-Pixel eher als Nieschenfunktion an - hat die Kamera, aber spricht heute keiner mehr darüber. Die Erwartungen sind sehr hoch. Die praktischen Vorteile fallen hingegen einfach viel zu gering aus, kommen nur in ganz speziellen Situationen zum tragen...:P ;)

Grüße, meshua

HaPeKa
21.11.2017, 09:49
Die grundsätzliche Technologie zur Beseitigung von Bewegungsartefakten sollten eigentlich viele haben - außer Sony vielleicht. Schließlich kann das so anders nicht sein als die Geisterbildbeseitigung bei HDR-Aufnahmen und das kann DXO und LR gleichermaßen.
Da bin ich mir nicht sicher, ob das bei Pixel Shift Bildern der richtige Weg ist.

Ich könnte mir gut vorstellen, dass die gängigen Methoden die Vorteile der Pixel Shift Technologie schmälern. Die Software sollte berücksichtigen, dass es sich um ein Pixel Shift Bild handelt und nur 'Fehler' korrigieren, die durch das Zusammensetzen von Bildern, die nicht pixelgenau übereinstimmen, entstanden sind. Aus meiner Sicht wäre das ein völlig anderer Ansatz, als Artefakte aus einem einzelnen Bild zu entfernen.

Stelle mir das so vor, dass die Software Pixel für Pixel der 4 Bilder analysiert und jeden Bildpunkt, der nicht bei allen 4 Bildern identisch ist, durch den Bildpunkt eines einzelnen Bildes ersetzt. Das könnte ein Bild nach Wahl sein oder automatisch eines, auf dem der Bildpunkt auf 2 von 4 oder 3 von 4 Bildern identisch ist ...

Pixelshift sehe ich wie Canon's Dual-Pixel eher als Nieschenfunktion an - hat die Kamera, aber spricht heute keiner mehr darüber. Die Erwartungen sind sehr hoch. Die praktischen Vorteile fallen hingegen einfach viel zu gering aus, kommen nur in ganz speziellen Situationen zum tragen...:P ;)

Grüße, meshua
Da gebe ich dir völlig recht. Bei Architektur Bildern und Stilleben, die grossformatig ausgedruckt werden, macht das Sinn, ansonsten ist's was, um uns Hobbyisten zu beschäftigen :D

MaTiHH
21.11.2017, 11:14
Pixelshift sehe ich wie Canon's Dual-Pixel eher als Nieschenfunktion an - hat die Kamera, aber spricht heute keiner mehr darüber. Die Erwartungen sind sehr hoch. Die praktischen Vorteile fallen hingegen einfach viel zu gering aus, kommen nur in ganz speziellen Situationen zum tragen...:P ;)

Grüße, meshua

Doch, die Canon Fans sprechen immer noch darüber, weil es ja die bisher letzte Innovation ist, die Canon gebracht hat. Da fallen Sätze wie "Der geniale DP-AF...."



Da gebe ich dir völlig recht. Bei Architektur Bildern und Stilleben, die grossformatig ausgedruckt werden, macht das Sinn, ansonsten ist's was, um uns Hobbyisten zu beschäftigen :D

Naja, auch für kleiner Ausgaben finde ich die Verbesserung an den Stellen, wo es funktioniert hat, schon ausgesprochen attraktiv.

HaPeKa
21.11.2017, 16:30
Hier noch ein ausführlicher Bericht:

luminous-landscape.com (https://luminous-landscape.com/sony-a7r-iii-pixel-shift/)

Auch hier bestätigt sich, dass alles, was sich bewegt, negativ sichtbar wird.

Beispiel auf dem Pixel Shift .jpg des Pontiac Bel Air:
Der Grashalm vor der Carrosserie hinter dem Vorderrad.

Dafür sieht man auf der Stossstange, dass relativ viel los war, auf dem Set ...

walt_I
21.11.2017, 19:29
Hier noch ein ausführlicher Bericht:

luminous-landscape.com (https://luminous-landscape.com/sony-a7r-iii-pixel-shift/)

Auch hier bestätigt sich, dass alles, was sich bewegt, negativ sichtbar wird.
................
Auch was sich (vermeintlich) nicht bewegt wird negativ sichtbar:

6/Screenshot_2017-11-21_18.16.41.png
→ Bild in der Galerie (http:../galerie/details.php?image_id=284403)

Das Gittermuster im rechten, geshifteten Bild kommt mir irgendwie bekannt vor ;)
Bei Shiftbewegungen im Mikrometerbereich langt wohl schon ein leichter Windhauch um Objekt bzw. Stativ+Kamera negativ zu beeinflussen.
Vielleicht kann mal ein RIII- Besitzer eine geshiftete Studioaufnahme zeigen, falls er ein wirklich stabiles Stativ hat......

HaPeKa
21.11.2017, 22:49
Aber eine Erkenntnis kann man aus den Bildern trotzdem gewinnen:

Die A7R III mit dem FE 24-70GM ist eine geile Combo, auch ohne Pixel Shift :D

walt_I
21.11.2017, 22:51
Aber eine Erkenntnis kann man aus den Bildern trotzdem gewinnen:

Die A7R III mit dem FE 24-70GM ist eine geile Combo, auch ohne Pixel Shift :D
:top: :top:

nex69
21.11.2017, 22:54
Die A7R III mit dem FE 24-70GM ist eine geile Combo, auch ohne Pixel Shift :D

Ja das glaube ich dir sehr gerne :crazy::top:

Fata Morgana
26.11.2017, 18:21
Der Unterschied ist, daß Olympus die kompletten Einzelbilder erst normal demosaikt, anschließend hochskaliert und dann als Ganzes stackt, um die Auflösung zu erhöhen. Die Artefakte sind auch da, aber eher in Form leicht gerasterter Doppelbilder.

http://www.guillermoluijk.com/misc/pajaro2.jpg

Sony dagegen nimmt explizit aus der einen Aufnahme nur die roten, aus der anderen Aufnahme nur die blauen und aus den beiden restlichen die grünen Pixel, ohne irgendwo zu interpolieren oder auszurichten. Wenn da etwas nicht übereinander passt, reißt es das Bild halt völlig auseinander.
Wieso hat sich Sony für diesen Weg entschieden? Bringt das irgendwelche Vorteile mit sich? So wie ich das sehe, fallen Artefakte bei dieser Art der Verrechnung von Bildern viel deutlicher auf.

usch
26.11.2017, 18:40
Wieso hat sich Sony für diesen Weg entschieden? Bringt das irgendwelche Vorteile mit sich?
Wenn es passt, kommst du völlig ohne jede Interpolation aus. Damit bekommst du das Maximum an Bildschärfe.

Bei allen anderen Verfahren muss erst "entbayert" werden, bevor man die Bilder ausrichten kann (erste Interpolation), und wenn der Versatz dann nicht genau um ganze Pixel ist, wird beim Ausrichten die zweite Interpolation fällig.

HaPeKa
29.11.2017, 16:42
Und hier noch ein Messwertvergleich des Dynamic Range mit/ohne Pixel Shift.
Mit Pixel Shift ist er signifikant höher ...

Dynamic Range vs ISO (A7R III) (http://www.photonstophotos.net/Charts/PDR_PixelShiftMultiShooting.htm#Sony%20ILCE-7RM3,Sony%20ILCE-7RM3(PSMS))

walt_I
30.11.2017, 13:51
Pixelshift wird nur in sehr wenigen Fällen sinnvoll sein.
Architektur, wenn nix Bewegtes im Bild ist, bzw bei Innenaufnahmen.
Ein schweres Stativ vorausgesetzt und keine Schwingungen, keine Vibrationen. Wie in #79 gezeigt, schwingen selbst PKWS so stark, dass PS obsolet wird.
Aber es ist ja nur eine schöne Option.

Mikosch
30.11.2017, 14:24
... schwingen selbst PKWS so stark, dass PS obsolet wird.

Was bitte sind PKWS?

usch
30.11.2017, 14:51
https://de.wikipedia.org/wiki/Personenkraftwagen

Mikosch
30.11.2017, 16:20
https://de.wikipedia.org/wiki/Personenkraftwagen

Ach, dass bezog sich auf das Foto da unten das offensichtlich irgendein Karrosserie-Teil zeigt. Ich dachte PKWS ... das wären irgendwelche neuartigen technischen Vorrichtungen die mir nicht bekannt sind. Im Zusammenhang mit PS .. hätte ich auch an Autos denken können, allerdings stand das PS dort ja für Pixel Shift. :crazy:
Sorry, ich halte mich dann lieber raus und wende mich, peinlich berührt, ab.

usch
30.11.2017, 16:28
allerdings stand das PS dort ja für Pixel Shift. :crazy:
Oh. Da dachte ich wiederum, es wäre Photoshop gemeint. :crazy:

Pixelshift wird ja bei bewegten Objekten eher sinnlos als obsolet.

www_zeeshan_de
04.12.2017, 23:12
1. Wenn es passt, kommst du völlig ohne jede Interpolation aus. Damit bekommst du das Maximum an Bildschärfe.

2. Bei allen anderen Verfahren muss erst "entbayert" werden...

1. Das Maximum an Bildschärfe (reine optische Schärfe ohne Softwarealgorithmen) bekommt man in der nativen RGB-Auflösung (Superpixel-Verfahren, dcraw zeromod mit originalraw). Diese Schärfe bekommt man im Pixel-Shift-Verfahren nur im zu 100 % "bewegungsfreien" Studiobedingungen.

2. Ausgenommen Superpixel-Verfahren, dcraw zeromod mit originalraw. Nur weil viele Verfahren Demosaicing/Interpolieren/Upscaling/Hochskalieren Durchführen, bedeutet das nicht, dass alle Verfahren das tun müssen. Die Kamerahersteller und auch Bildbearbeitungssoftware-Hersteller haben natürlich hohes Interesse daran die Kunden von Ihrem (proprietären, sinnfreiem) Verfahren abhängig zu machen. Frei nach dem Motto: Alles was berechnet werden kann, muss auch berechnet werden. Doch Fotografie bedarf keinerlei "Upscaling" Berechnung. Nach dem Fotografieren hat man das Bild im digitalisiertem RAW Format und kann es mit originalraw zügig konvertieren, und es bedarf keinerlei (sinnloser) x-fach rechenaufwändiger Verfahren um das Bild zusammen zu setzen, denn die Daten dafür sind für das fertige Bild in nativer RGB-Auflösung bereits in der RAW Datei vorhanden (und können ohne massivem Rechenaufwand zum Fertigbild verwendet werden).

DiKo
04.12.2017, 23:32
*plonk*

MaTiHH
07.12.2017, 02:18
Ich hatte heute endlich mal Zeit, ein etwas realistischeres Szenario abzulichten:

https://farm5.staticflickr.com/4581/24017226907_2bc6568be5.jpg (https://flic.kr/p/CAjyP6)

DSC00494_PSMS.jpg (https://flic.kr/p/CAjyP6) by Sport & Spiel Martin (https://www.flickr.com/photos/147706411@N07/), auf Flickr

Die volle Auflösung ist auf Flickr, einfach draufklicken. Bis auf die Raucher rechts finde ich es eigentlich ganz gelungen und die Jungs sehen auch in der normalen Langzeitbelichtung merkwürdig aus.

EDIT: Ich habe das Bild nochmal ohne Ausgabeschärfen exportiert, ich hoffe, so ist das tatsächliche Ergebnis besser nachvollziehbar.

usch
07.12.2017, 02:39
Ja, die Artefakte halten sich diesmal in Grenzen, außer an den zu erwartenden Stellen (bewegtes Wasser, Autoverkehr auf den Brücken).

Ich finde das ganze Bild aber fürchterlich überschärft. Da läuft ja eine regelrechte weiße Umrisslinie die gesamte Dachkontur entlang, sogar um die Antennen und Blitzableiter an der einen Seite rauf und an der anderen Seite wieder runter. Wenn man das noch ein Stück zurücknehmen könnte, würden auch die Artefakte weniger deutlich ins Auge springen.

MaTiHH
07.12.2017, 09:14
Ja, ist mir in Flickr dann auch aufgefallen. Ich sollte vielleicht die Ausgabeschärfe in LR nicht aktivieren, da habe ich für den Export "Schärfen für Bildschirm" angekreuzt.

Ich habe jetzt den Vergleich nicht gezeigt zu dem Bild ohne PSMS aber der Eindruck ist eine generell höhere Detailliertheit der Aufnahme und differenziertere Farbverläufe.

P_Saltz
07.12.2017, 15:03
Unabhängig vom Überschärfen, sieht man deutlich die Grenzen des Pixel Shift.
Bewegtes Wasser, Personen und Autos, das geht alles gar nicht.
Für mich reduziert sich der Vorteil auf reine Architektur, nicht bewegliche Strukturen, Reproarbeiten (Bilder und andere Kunstwerke).

D.

HaPeKa
07.12.2017, 15:09
trotzdem eins der eindrücklichsten und stimmigsten Bilder, die ich vom Wasserschloss bisher gesehen habe :top:

MaTiHH
07.12.2017, 17:07
trotzdem eins der eindrücklichsten und stimmigsten Bilder, die ich vom Wasserschloss bisher gesehen habe :top:

Danke.

Es ging auch ein wenig um das Zeigen der Möglichkeiten und Grenzen. Wenn man das ganze in Photoshop ein wenig bearbeitet mit Ebenen wird - glaube ich - eine ganz gute Aufnahme daraus, insofern würde ich die Brauchbarkeit nicht ganz so kritisch sehen.

Porty
07.12.2017, 20:29
Ja, gerade die Wasserflächen sehen mit ihrer Würfelstruktur schon sehr eigenartig aus. ist eben eine Technik mit sehr begrenzten Anwendungsgebiet- oder doch mehr ein Marketing- Gag......

sonst ein sehr schönes Bild :top:

*thomasD*
07.12.2017, 20:36
Ich denke da steckt noch mehr Potential drin. Eine Software die gezielt Bewegungen erkennt und dadurch bspw Personen mit drei der vier Bilder herausrechnet wie usch schon geschrieben hat oder sie mit einem Bild drinnen behält, bei statischen Bildbereichen dagegen Moire entfernt und Farbtiefe oder Dynamik erhöht könnte ja auch noch kommen. Wenn nicht von Sony, dann von Drittanbietern. Adobe und co. können jetzt zeigen was sie drauf haben.

droehnwood
07.12.2017, 22:56
Hallo Martin,

schönes und stimmungsvolles Bild. Aber ich glaube, du hast den Fokus etwas versemmelt...

Man sieht z. Bsp. am linken Rand sehr schöne Details im Backstein. Aber das Schloss selbst, so wie die Brücken auch, erscheinen mir deutlich weniger scharf / detailliert.

Jetzt könnte dies der Fokus oder der Wind / das Stativ gewesen sein. Was sagst du selbst?

Gruß, Heiko

MaTiHH
08.12.2017, 07:29
Schau auf die Elphi im Hintergrund, die ist wieder scharf. Insofern würde ich nicht auf Fehlfokus tippen, sondern das Schloss an sich ist tatsächlich einfach weniger scharf, weil es wenige Kontrastkanten hat.

MaTiHH
16.12.2017, 14:38
Jim Kasson hat hier http://blog.kasson.com/a7riii/sony-a7riii-pixel-shift-real-world-false-colors-and-dynamic-range/ das bisher beste geschrieben, was ich zu den Möglichkeiten von PixelShift gelesen habe.

HaPeKa
23.01.2018, 19:01
Mittlerweile gibt es ein weiteres Tool zur Bearbeitung von Pixel Shift Bildern.

LibRaw LLC bietet das Tool SonyPixelShift2DNG an, das es erlaubt, 4 ARW Files oder ein ARQ File in ein DNG File zu konvertieren, das sich dann in verschiedenen Programmen weiterverarbeiten lässt.

Details auf der HomePage von FastRawViewer (https://www.fastrawviewer.com/SonyPixelShift2DNG?19118)

Es handelt sich zur Zeit um eine Standalone Version, es braucht den FastRawViewer nicht, um das Tool zu nutzen.

HaPeKa
09.03.2018, 23:24
dpreview hat SonyPixelShift2DNG getestet und ist voll des Lobes:
The software is still in Beta, but we gave it a test drive and found it fast, easy and nearly effortless. We threw an entire directory of Pixel Shift and non-Pixel Shift files at it and it worked flawlessly. This essentially eliminates any worries we had about compatibility or convenience when it comes to capturing and editing Sony a7R III Pixel Shift files. As far as we're concerned, until and unless Sony releases something similar itself (and we wouldn't hold our breath) this is a must have for Sony a7R III users who use the Pixel Shift function.
Mehr Details hier (https://www.dpreview.com/news/9951454293/sonypixelshift2dng-combines-a7r-iii-pixel-shift-shots-into-dng-files)

HaPeKa
15.04.2018, 13:43
Mittlerweile kann man .ARQ Files auch in Lightroom Classic CC 7.3 direkt bearbeiten und braucht sie in der Sony Imaging Software nicht mehr in DNG zu konvertieren ...

Next step wäre, die 4 Bilder auch in LR zusammensetzen zu können, mal sehen, ob Adobe in Zukunft da was macht ...