Zitat:
http://www.sonyuserforum.de/galerie/...90_PSMS_cr.jpg So etwas müsste sich aber relativ leicht automatisch erkennen und ausmaskieren lassen. Man hat ja jetzt für jedes Subpixel vier Werte zur Auswahl (einen echten und drei interpolierte bei Rot und Blau bzw. zwei echte und zwei interpolierte für Grün). Wenn da einer zu sehr aus der Reihe tanzt, könnte man ihn sozusagen durch die anderen "überstimmen". Zitat:
Zitat:
|
Zitat:
Sollte man es Investgut betrachten, ist der Unternehmer natürlich darauf bedacht, das Zeug so schnell wie möglich abzuschreiben.... Manche, wie Jason, haben aber durch die Beziehung zu Sony ein gutes Geschäftsmodell daraus gemacht. Er hat ja geniale Photoshopper im Team :D. Andere lassen sich von Ihren Kunden leiten, wie Anatol Kotte, der setzt neben Nikon für Portraits vermehrt auf Mittelformat, weil gefordert. Die Bilder sind mit seinen beschränkten Mitteln (Nikon) :D aber doch sehr gut geworden.... Letztendlich ist das eigene Portfolio das Maß aller Dinge, welchen Typ von Kamera und vor Allem Objektive man einsetzt. Andersherum geht natürlich auch. Natürlich ist eine neue Kamera immer besser wie die "Alte". Man erwartet von den Großunternehmen, dass sie von Jahr zu Jahr im Umsatz wachsen. Ein Rückschritt wird als Verfall der Firma verstanden. Daher steht in erster Linie der "Value" des Produktes im Vordergrund als Verkaufsargument. Ob der Value auch danach in Anwendung kommt, bleibt Dir überlassen. Die Qualität oder Genialität des Bildes hängt davon sicherlich nicht ab, auch nicht mit Pixelshift. Das ist wie mit dem Auto. Wie gut man mit der jetztigen oder vorherigen E-Klasse an das Ziel kommt, hängt von dem ab, der dahinter sitzt. Die vielen kleiner Helferlein machen das für den Fahrer nicht einfacher..... Auch wenn die Autoindustrie das gerne verkauft. |
Dann würde Hamilton die Formel 1 auch mit einem Golf gewinnen?
|
warum, sind die Kosumer alle kleine Hamiltons, die gegen Vettels antreten?
|
Zum Glück gibt's beim Fotografieren nicht nur 1. und 2. Plätze.
Tatsächlich ist es in meinem Fall so, dass die meisten Fotos, die mich persönlich ansprechen, mich bewegen und mich zum Denken anregen wohl selten mit HighTech Equippement geschossen wurden. Es gibt aber auch die Bilder mit WOW Effekt, die überraschend und beeindruckend sind und bei denen ich mich frage, wie die wohl zustande gekommen sind ... Und solche Bilder wurden typischerweise nicht mit Handies geschossen. Es gibt also Platz für beides ... Schön ist einfach, wenn jemand Kreatives hinter der Linse stand, dann sind die Resultate wirklich sehenswert. |
Wenn ihr dann eure Auto-Diskussion fertig habt, hätte ich noch eine Frage:
Die Bewegungen des Sensorstabis zwschen den 4 Belichtungen sollen so sein, dass sich das Bild jeweils um einen Sensorpunkt horizontal und/oder vertikal verschiebt. Richtig? So genau kann das aber gar nicht funktionieren, weil bereits die thermische Ausdehnung des Stativs, Windeinflüsse etc. locker zwischen zwei Bildern im Abstand von einigen Sekunden für einen Versatz in dieser Größenordnung sorgen können. Was vorher auf Bildpunkt x,y war ist nicht anschließend zwangsläufig an der genau selben Stelle, wo es z.B. von Bildpunkt x+1,y-1 erfasst werden kann. Sondern irgendwo dazwischen, oder irgendwo darüber hinaus. Schließlich beträgt der Versatz zwischen den Bildern in jeder Richtung nur 1 Pixel, also ca. 1/8000 der Bildbreite. Also gehe ich davon aus, dass das Verfahren nur funktioniert, indem die Bilder per Software ausgerichtet werden, und dass es eben nicht so pixelgenau arbeiten kann, wie es die schönen Präsentationen suggerieren. Oder anders ausgedrückt: Wenn die Kamera nicht gerade festbetoniert ist und es keine thermischen Luftströmungen gibt, dürfte das Verfahren selbst dann einigermaßen funktionieren, wenn der Sensor gar nicht zwischen den Aufnahmen um jeweils ein Pixel verfahren wird. Die ganz normalen, dem Zufall unterliegenden Einflüsse dürften genügen, um mit einem solchen Algorithmus sogar bei einer Kamera, die keinen verschiebbaren Sensor hat, eine ähnliche Verbesserung durch Verrechnen einer Bildserie zu erzielen, denn der zufällige Versatz dürfte kaum geringer sein. Oder? |
Sehe ich anders. Das Verfahren sauert 30sec. Wenn deine Annahme stimmen würde könnte man niemals pixelscharfe Langzeitaufnahmen in dem Bereich und darüber machen. Die Erfahrung sagt da aber was anderes.
|
Zitat:
Abgesehen davon finde ich übrigens, dass ein solches Feature mehr oder weniger nur eine Übergangslösung ist, bis es leistungsfähige Sensoren gibt, die auf jedem Pixel alle Farben erfassen. Sigma zeigte ja mit dem Foveon schon, was prinzipiell mindestens möglich ist. |
Ich hab mich auch schon gefragt, ob und wie es möglich ist, den Sensor auf ±0,002mm exakt zu verschieben. Kann ich mir eigentlich nur vorstellen, wenn auf dem Sensorträger Markierungen angebracht sind, die dabei abgetastet werden, um die tatsächliche aktuelle Position zu bestimmen. 8000 Pixel auf 36mm sind ziemlich genau 5600 DPI; das ist eine Abtastgenauigkeit, die man z.B. mit optischen Mäusen durchaus erreichen kann.
Und die Aufnahmeserie dauert ja gerade deshalb so lange, weil die Kamera vor dem Auslösen wartet, bis wirklich nichts mehr nachschwingt. Das ist also kein Hinderungsgrund, sondern im Gegenteil die Voraussetzung dafür, daß das Verfahren ohne rechnerische Ausrichtung funktioniert. Ausrichtung würde auch wieder Interpolation bedeuten, aber die will man ja gerade loswerden. |
Piezo-Antriebe können noch viel höhere Auflösungen erreichen! Bis in den nm-Bereich. Wenn es nicht auf die absolute Wegmessung ankommt, braucht man nur die Spannung am Piezo ändern. Die Wegänderung ist in weiten Bereich linear.
|
Alle Zeitangaben in WEZ +1. Es ist jetzt 18:30 Uhr. |