|
|
|||||||||||||||
|
14.11.2017, 10:30 | #21 | |
Registriert seit: 16.08.2010
Beiträge: 18.850
|
Da:
So etwas müsste sich aber relativ leicht automatisch erkennen und ausmaskieren lassen. Man hat ja jetzt für jedes Subpixel vier Werte zur Auswahl (einen echten und drei interpolierte bei Rot und Blau bzw. zwei echte und zwei interpolierte für Grün). Wenn da einer zu sehr aus der Reihe tanzt, könnte man ihn sozusagen durch die anderen "überstimmen". Zitat:
Nö ... die Verbesserungen sind ja tatsächlich vorhanden. Nur eben nicht da, wo es dieser Hype-Artikel suggeriert.
__________________
Any feature is a bug unless it can be turned off. (Heuer's Law, 1990) |
|
Sponsored Links | |
|
14.11.2017, 11:04 | #22 | |
Registriert seit: 24.10.2012
Ort: D
Beiträge: 5.614
|
Zitat:
Sollte man es Investgut betrachten, ist der Unternehmer natürlich darauf bedacht, das Zeug so schnell wie möglich abzuschreiben.... Manche, wie Jason, haben aber durch die Beziehung zu Sony ein gutes Geschäftsmodell daraus gemacht. Er hat ja geniale Photoshopper im Team . Andere lassen sich von Ihren Kunden leiten, wie Anatol Kotte, der setzt neben Nikon für Portraits vermehrt auf Mittelformat, weil gefordert. Die Bilder sind mit seinen beschränkten Mitteln (Nikon) aber doch sehr gut geworden.... Letztendlich ist das eigene Portfolio das Maß aller Dinge, welchen Typ von Kamera und vor Allem Objektive man einsetzt. Andersherum geht natürlich auch. Natürlich ist eine neue Kamera immer besser wie die "Alte". Man erwartet von den Großunternehmen, dass sie von Jahr zu Jahr im Umsatz wachsen. Ein Rückschritt wird als Verfall der Firma verstanden. Daher steht in erster Linie der "Value" des Produktes im Vordergrund als Verkaufsargument. Ob der Value auch danach in Anwendung kommt, bleibt Dir überlassen. Die Qualität oder Genialität des Bildes hängt davon sicherlich nicht ab, auch nicht mit Pixelshift. Das ist wie mit dem Auto. Wie gut man mit der jetztigen oder vorherigen E-Klasse an das Ziel kommt, hängt von dem ab, der dahinter sitzt. Die vielen kleiner Helferlein machen das für den Fahrer nicht einfacher..... Auch wenn die Autoindustrie das gerne verkauft. Geändert von matti62 (14.11.2017 um 11:22 Uhr) |
|
14.11.2017, 11:36 | #23 |
Registriert seit: 20.12.2015
Ort: Bei Hamburg
Beiträge: 4.127
|
Dann würde Hamilton die Formel 1 auch mit einem Golf gewinnen?
__________________
https://martintimmann.myportfolio.com |
14.11.2017, 11:37 | #24 |
Registriert seit: 24.10.2012
Ort: D
Beiträge: 5.614
|
warum, sind die Kosumer alle kleine Hamiltons, die gegen Vettels antreten?
Geändert von matti62 (14.11.2017 um 11:43 Uhr) |
14.11.2017, 14:58 | #25 |
Themenersteller
Registriert seit: 17.02.2016
Ort: Bern
Beiträge: 4.965
|
Zum Glück gibt's beim Fotografieren nicht nur 1. und 2. Plätze.
Tatsächlich ist es in meinem Fall so, dass die meisten Fotos, die mich persönlich ansprechen, mich bewegen und mich zum Denken anregen wohl selten mit HighTech Equippement geschossen wurden. Es gibt aber auch die Bilder mit WOW Effekt, die überraschend und beeindruckend sind und bei denen ich mich frage, wie die wohl zustande gekommen sind ... Und solche Bilder wurden typischerweise nicht mit Handies geschossen. Es gibt also Platz für beides ... Schön ist einfach, wenn jemand Kreatives hinter der Linse stand, dann sind die Resultate wirklich sehenswert. |
Sponsored Links | |
|
14.11.2017, 21:00 | #26 |
Registriert seit: 20.10.2006
Ort: Nordwürttemberg
Beiträge: 4.508
|
Wenn ihr dann eure Auto-Diskussion fertig habt, hätte ich noch eine Frage:
Die Bewegungen des Sensorstabis zwschen den 4 Belichtungen sollen so sein, dass sich das Bild jeweils um einen Sensorpunkt horizontal und/oder vertikal verschiebt. Richtig? So genau kann das aber gar nicht funktionieren, weil bereits die thermische Ausdehnung des Stativs, Windeinflüsse etc. locker zwischen zwei Bildern im Abstand von einigen Sekunden für einen Versatz in dieser Größenordnung sorgen können. Was vorher auf Bildpunkt x,y war ist nicht anschließend zwangsläufig an der genau selben Stelle, wo es z.B. von Bildpunkt x+1,y-1 erfasst werden kann. Sondern irgendwo dazwischen, oder irgendwo darüber hinaus. Schließlich beträgt der Versatz zwischen den Bildern in jeder Richtung nur 1 Pixel, also ca. 1/8000 der Bildbreite. Also gehe ich davon aus, dass das Verfahren nur funktioniert, indem die Bilder per Software ausgerichtet werden, und dass es eben nicht so pixelgenau arbeiten kann, wie es die schönen Präsentationen suggerieren. Oder anders ausgedrückt: Wenn die Kamera nicht gerade festbetoniert ist und es keine thermischen Luftströmungen gibt, dürfte das Verfahren selbst dann einigermaßen funktionieren, wenn der Sensor gar nicht zwischen den Aufnahmen um jeweils ein Pixel verfahren wird. Die ganz normalen, dem Zufall unterliegenden Einflüsse dürften genügen, um mit einem solchen Algorithmus sogar bei einer Kamera, die keinen verschiebbaren Sensor hat, eine ähnliche Verbesserung durch Verrechnen einer Bildserie zu erzielen, denn der zufällige Versatz dürfte kaum geringer sein. Oder? |
14.11.2017, 21:27 | #27 |
Registriert seit: 07.01.2008
Ort: HU
Beiträge: 4.725
|
Sehe ich anders. Das Verfahren sauert 30sec. Wenn deine Annahme stimmen würde könnte man niemals pixelscharfe Langzeitaufnahmen in dem Bereich und darüber machen. Die Erfahrung sagt da aber was anderes.
|
14.11.2017, 22:12 | #28 | |
Registriert seit: 20.10.2006
Ort: Nordwürttemberg
Beiträge: 4.508
|
Zitat:
Abgesehen davon finde ich übrigens, dass ein solches Feature mehr oder weniger nur eine Übergangslösung ist, bis es leistungsfähige Sensoren gibt, die auf jedem Pixel alle Farben erfassen. Sigma zeigte ja mit dem Foveon schon, was prinzipiell mindestens möglich ist. |
|
14.11.2017, 22:39 | #29 |
Registriert seit: 16.08.2010
Beiträge: 18.850
|
Ich hab mich auch schon gefragt, ob und wie es möglich ist, den Sensor auf ±0,002mm exakt zu verschieben. Kann ich mir eigentlich nur vorstellen, wenn auf dem Sensorträger Markierungen angebracht sind, die dabei abgetastet werden, um die tatsächliche aktuelle Position zu bestimmen. 8000 Pixel auf 36mm sind ziemlich genau 5600 DPI; das ist eine Abtastgenauigkeit, die man z.B. mit optischen Mäusen durchaus erreichen kann.
Und die Aufnahmeserie dauert ja gerade deshalb so lange, weil die Kamera vor dem Auslösen wartet, bis wirklich nichts mehr nachschwingt. Das ist also kein Hinderungsgrund, sondern im Gegenteil die Voraussetzung dafür, daß das Verfahren ohne rechnerische Ausrichtung funktioniert. Ausrichtung würde auch wieder Interpolation bedeuten, aber die will man ja gerade loswerden.
__________________
Any feature is a bug unless it can be turned off. (Heuer's Law, 1990) |
14.11.2017, 23:13 | #30 |
Registriert seit: 13.12.2007
Ort: Ö; Deutsch-Wagram
Beiträge: 12.281
|
Piezo-Antriebe können noch viel höhere Auflösungen erreichen! Bis in den nm-Bereich. Wenn es nicht auf die absolute Wegmessung ankommt, braucht man nur die Spannung am Piezo ändern. Die Wegänderung ist in weiten Bereich linear.
__________________
|
Sponsored Links | |
|
|
|
|