Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Vorteil APS-C?


juergendiener
16.09.2015, 11:38
Falls das Thema schon behandelt wurde, wäre ich für einen Link sehr froh, ich habe es leider so nicht gefunden.

Es geht mir um den anscheinenden Belichtungsvorteil bei APS-C.

Folgender Zusammenhang stellt sich für mich dar.
Wenn ich mit APS-C fotografiere und dabei einen ähnlichen Freistellungseffekt erzielen möchte, wie bei FF, so muss ich die Blende weiter öffnen.

Als Beispiel: 24mm Blende 5 bei FF entspricht in etwa 16mm bei Blende 3,5 an APS-C.

Dabei ergibt sich rechnerisch auch in etwa derselbe Durchmesser für die Blende.

Wenn ich nun mit 16mm Blende 3,5 per Spotmessung eine Belichtung von 1/500 Sekunden erhalte, so errechnet die Spotmessung bei Heranzoomen auf 24mm Blende 5 eine Belichtungszeit von 1/200 Sekunden.

Also verdoppelt sich die Belichtungsdauer, obwohl die Blendenöffnung gleich groß bleibt.

Bedeutet das nun nicht, dass ich mit APS-C – Sensor eine komplette Blendenstufe einspare und somit ein Teil des Vorteils des in der Regel rauschärmeren FF – Sensors verloren geht?

matteo
16.09.2015, 11:51
Wenn ich nun mit 16mm Blende 3,5 per Spotmessung eine Belichtung von 1/200 Sekunden erhalte, so errechnet die Spotmessung bei Heranzoomen auf 24mm Blende 5 eine Belichtungszeit von 1/200 Sekunden.


Wieso bleibt die Belichtungszeit gleich? (Nehme mal an die ISO hast du Fix zBsp. auf 100 eingestellt)
Hast du den Versuch an derselben Kamera (APS-C?) gemacht?

dey
16.09.2015, 12:04
Falls das Thema schon behandelt wurde, wäre ich für einen Link sehr froh, ich habe es leider so nicht gefunden.
Sehr erstaunlich, da es schon >1.000 diskutiert ist.

Es geht mir um den anscheinenden Belichtungsvorteil bei APS-C.
Den es nicht gibt

Bedeutet das nun nicht, dass ich mit APS-C – Sensor eine komplette Blendenstufe einspare und somit ein Teil des Vorteils des in der Regel rauschärmeren FF – Sensors verloren geht?
Exakt. Wenn der Rauschvorteil exakt eine Blende war stimmt das.
Ich habe für mich selbst vergleichen (A7 vs A65) und komme auf etwas mehr als eine Blende. Hängt aber sicherlich auch davon ab, welche Sensoren man vergleicht und welche Bereiche im Bild.

Aber es gibt eben auch andere Parameter. Wenn ich KB mit dem 50/1.7 bei f/2.8 aufnehme habe ich schon einmal in den optimaleren Bereich des Objektivs abgeblendet. APS-C +35/1.8 muss ich dagegen offen nutzen. Umgekehrt sieht es an den Bildränder aus, da bei APS-C die Ränder eines KB-Objektivs ausblendet.

Ein anderer Kritikpunkt wäre, dass die A65 schon bei ISO 100 im Himmel rauscht. Damit kann entweder die 24mp nicht nutzen oder ich muss das Rauschen bearbeiten oder akzeptieren. Die A99 ist hier frei von Rauschen.

Mein Vergleich A7 vs A65
http://www.sonyuserforum.de/forum/showpost.php?p=1673736&postcount=18

juergendiener
16.09.2015, 12:49
Wieso bleibt die Belichtungszeit gleich? (Nehme mal an die ISO hast du Fix zBsp. auf 100 eingestellt)
Hast du den Versuch an derselben Kamera (APS-C?) gemacht?

Bitte um Entschuldigung. War ein Tippfehler. Hab das geändert.

Bei 16mm habe ich 1/500, bei 24mm 1/200

fbe
16.09.2015, 20:30
Bedeutet das nun nicht, dass ich mit APS-C – Sensor eine komplette Blendenstufe einspare und somit ein Teil des Vorteils des in der Regel rauschärmeren FF – Sensors verloren geht?

Ja, das bedeutet es. Die Pixel bekommen bei äquivalenter Brennweite und äquivalenter Blende gleichviel Licht.

Aber es ist eine Frage der Sichtweise, ob man es für eine gewonnene oder eine verlorene Blende hält, wie man auch von gewonnener Brennweite und verlorenem Bildwinkel sprechen könnte.

Es bleibt dabei, dass kleinere Sensoren Objektivfehler stärker vergrößern (dafür schneiden sie Bereiche ab, wo die Objektivfehler größer werden). Offene Blenden sind da aber eher nicht so vorteilhaft.

Wenn Du mit Offenblende arbeiten möchtest, dann geht die Sache nur auf, wenn Du äquivalente Objektive hast - also z.B. statt des 90/2.8 für Kleinbild ein 60/2 für APS-C. Die gibt es sogar. Bei kürzeren Brennweiten wird es für APS-C dünn.

Wenn Du ohnehin stark abblendest, ist APS-C kein Nachteil.

About Schmidt
17.09.2015, 06:11
Warum wohl erzeugt ein großes Solarpanel in der gleichen Zeit mehr Storm, als ein kleines? Weil auf eine große Fläche mehr Licht (Sonne) fällt als auf eine kleine. Also, so meine Theorie, braucht ein Vollvormatsensor weniger Zeit um die gleiche Menge Licht aufzufangen als ein APS-C Sensor, womit der theoretische Vorteil der Blende wieder weg wäre.

Gruß Wolfgang

guenter_w
17.09.2015, 07:47
Warum wohl erzeugt ein großes Solarpanel in der gleichen Zeit mehr Storm, als ein kleines? Weil auf eine große Fläche mehr Licht (Sonne) fällt als auf eine kleine. Also, so meine Theorie, braucht ein Vollvormatsensor weniger Zeit um die gleiche Menge Licht aufzufangen als ein APS-C Sensor, womit der theoretische Vorteil der Blende wieder weg wäre.

Gruß Wolfgang

Klar - auf 100 qm fällt pro qm mehr Regen als auf 25 qm!

Nicht umzubringen, der Mist...

Saitenschuft
17.09.2015, 09:11
Also, so meine Theorie, braucht ein Vollvormatsensor weniger Zeit um die gleiche Menge Licht aufzufangen als ein APS-C Sensor...

Neiiiiin! :roll:
Du kannst mit dem elektrischen Output eines VF-Sensors - Watt oder Volt oder watt ihr volt - deine Wohnung schneller heizen als mit mit einem APS-C-Sensor :crazy: aber die Bilder werden nicht heller :roll:

Mario190
17.09.2015, 09:39
:crazy: aber die Bilder werden nicht heller :roll:
Aber auch nur, weil ISO 100 von APS-C und VF nicht die selbe Signalverstärkung aufweist. Daher auch das höhere Rauschen.
Hintergrund ist die Definition von ISO: Bei gegenem Licht/Blende/Brennweite muss das (Grau-)Bild eine gewisse Helligkeit aufweisen.
Was macht man nun bei etwa halber Fläche? Man verstärkt das Signal um den Faktor 2 mehr.

Saitenschuft
17.09.2015, 09:54
Naja, was macht so ein Halbleiter in einer Sensorfläche? Gemäß dem Lichteinfall liegt am Ausgang ein bestimmter Betrag an Spannung (oder Strom) an im AD-Wandler wird diese Spannung in einen Wert gewandelt.
Wenn ihr schon mit Flächen herumspielt, dann bitte mit der Fläche die die Werte liefert und das ist eben das kleinste Pixel, der Halbleiter oder wie das Ding dann auch immer in der Fachsprache heißt.
Und das alles hat überhaupt nichts mit Vollformat oder APS-C zu tun.

Mario190
17.09.2015, 10:30
Jain.
Die Sensorfläche ist insofern auch für den einzelnen Pixel ausschlaggebend, als dass Sony sowohl in der A77, als auch in der A99 24MPixel "verbaut" hat. Dadurch ergibt sich bei der A99 ein größerer Pixel der Licht auffangen kann, als bei der A77. Entsprechend niedriger ist das Auflösungsvermögen der A99.
Haben aber VF und APS-C die selbe Pixelgröße (das wären hier 54MPix für die A99), ja dann würde die 100% Ansicht beider Kameras gleich aussehen (rauschen, Bildausschnitt). Der Unterschied wäre aber, dass VF aufgrund der größeren Fläche mehr drumherum belichtet hätte.

ingoKober
17.09.2015, 10:44
Jain.
Die Sensorfläche ist insofern auch für den einzelnen Pixel ausschlaggebend, als dass Sony sowohl in der A77, als auch in der A99 24MPixel "verbaut" hat. Dadurch ergibt sich bei der A99 ein größerer Pixel der Licht auffangen kann, als bei der A77. Entsprechend niedriger ist das Auflösungsvermögen der A99.
Haben aber VF und APS-C die selbe Pixelgröße (das wären hier 54MPix für die A99), ja dann würde die 100% Ansicht beider Kameras gleich aussehen (rauschen, Bildausschnitt). Der Unterschied wäre aber, dass VF aufgrund der größeren Fläche mehr drumherum belichtet hätte.

Mit Verlaub: Nein.
Ich glaube, manche vergessen, dass die Größe der - ich sage mal lichtempfindlichen Einheiten- bei APS-C und Vollformat grundsätzlich identisch ist.
Es ist ja mitnichten so, dass die 24 Megapixel einer Vollformatkamera größere Detektoren haben oder pro Pixel mehr Licht aufnehmen als bei APS-C.
Bei gleicher Pixelzahl sitzen sie bei Vollformat halt weiter auseinander als bei APS-C.
Da sie eine unterschiedliche Gesamtfläche einnehmen, kommt der bekannte Unterschied im Verhalten bezüglich Tiefenschärfe zustande.
Da die Pixel gleich groß sind, ist aber zB. das Auflösungsvermögen von Vollformat vs APS-C bei gleicher Pixelzahl grundsätzlich gleich groß (sofern nicht rauschbegrenzt).
Da der Abstand größer ist und sich die Pixel weniger gegenseitig beeinflussen, ist bei Vollformat das Rauschverhalten besser.

Viele Grüße

Ingo

dinadan
17.09.2015, 10:55
Ich glaube, manche vergessen, dass die Größe der - ich sage mal lichtempfindlichen Einheiten- bei APS-C und Vollformat grundsätzlich identisch ist.
Es ist ja mitnichten so, dass die 24 Megapixel einer Vollformatkamera größere Detektoren haben oder pro Pixel mehr Licht aufnehmen als bei APS-C.

Kannnst du das belegen? Es widerspricht eigentlich allem, was ich bislang zu dem Thema gelesen habe.

juergendiener
17.09.2015, 11:11
Der von mir geschilderte Sachverhalt hat sich mir nicht direkt erschlossen. Ich habe schlicht meine Zeit gebraucht, um das zu kapieren.
Mir geht es nicht darum, welches System welche vor- oder Nachteile hat, aber dennoch sind die dargelegten Zusammenhänge hochinteressant.

Warum verlängert sich die Belichtungsdauer bei gleichgroßer Blendenöffnung an unterschiedlichen Brennweiten eigentlich?

Liegt es daran, dass kurze Brennweiten mehr Licht "einfangen"? Dieses Stück fehlt mir noch, um das ganze physikalisch zu verstehen.

Was die Pixelzahl angeht würde ich dennoch vermuten, dass sich vor jedem Pixel ja eine Sammellinse befindet. Sind die einzelnen Pixel nun weiter voneinander entfernt, kann diese Sammellinse auch größer dimensioniert werden. Somit liefert der Pixel mit der größeren Linse eine höhere Ausgangsspannung, also rauscht weniger.

Das erklärt für mich auch, das APS-C Sensoren durch die höhere Pixeldichte von vornherein höher verstärkt werden müssen, um die ISO - Normen zu erreichen.

grayscale
17.09.2015, 12:09
Zu Blende und Belichtungszeit bei unterschiedlichen Brennweiten:

Der absolute Durchmesser der Blende hängt von der Brennweite der Optik ab. Eine um 12,5 mm geöffnete Blende bei einer Optik mit 50mm Brennweite hat den gleichen Effekt wie eine 25mm geöffnete Blende bei einer Optik mit 100mm Brennweite. Teilt man den Durchmesser der Blende durch die Brennweite, so erhält man in beiden Fällen dieses Beispiels unabhängig von der Brennweite den Wert 1/4.

Die Angabe der Blende wird daher gerne als Bruchzahl der Brennweite und nicht als absoluter Wert in Millimetern angegeben, diese werden als Blenden-Werte (f-numbers, f-stops) bezeichnet. 1/4 wird auch bei den Objektivangaben als f/4, F4 oder 1:4 geschrieben.

Blende 4 ist also bei allen Brennweiten Blende 4, ein WW ist damit recht klein, ein Tele recht groß was die Gläser angeht.

Der Unterschied ist wahrscheinlich in dem Belichtungsfleck (Spotmessung) der Kamera zu suchen, der ändert seine Größe ja auch mit der Brennweite und damit die mittlere Helligkeit dort.

Soweit die Theorie....
Wie verhält sich das wenn man eine Neutral-Graukarte anvisiert und dabei die Brennweite verändert? das wäre mal ein interessanter Test!
(Hab ich noch nie gemacht...)

ingoKober
17.09.2015, 12:36
Kannnst du das belegen? Es widerspricht eigentlich allem, was ich bislang zu dem Thema gelesen habe.

Guter Punkt, ich habe gerade gesucht und keine Quelle gefunden.
Die Größe der einzelnen Fotodioden ist natürlich der limitierende Aspekt bei der Pixeldichte und deshalb wird hier die Miniaturisierung immer weiter getrieben und es gibt unterschiedliche Größen.
Meines Wissens nach werden aber bei APS-C und Vollformat üblicherweise gleich große Photodioden verwendet, u.a. weil sich eine Anpassung schlicht nicht lohnt (lassen wir mal Foveon Technologie aussen vor, das verwirrt nur).
Allerdings hast du mich jetzt irritiert, weil ich nicht mehr weiss, woher ich diese Info habe und sie jetzt beim kurzen Suchen auch mit wissenschaftlichen Suchmaschinen nicht reproduzieren konnte.
Die Suchstrategie ist aber auch knifflig, da man leicht nur bei Pixeldichteausführungen landet. Photodiodengröße wird offenbar ungern als Begriff verwendet...egal in welcher Sprache.

Mal sehen, wenn ich Zeit finde, suche ich nochmal.

Viele Grüße

Ingo

fritzenm
17.09.2015, 14:03
Wichtig ist, dass man nicht zwei Dinge miteinander verquirlt:

1) Die Belichtungsparameter, wie sie für eine korrekte Belichtung benötigt werden. Denn da gilt, dass eine bestimmte Blenden-Belichtungszeit-ISO-Kombination die gleiche Belichtung liefert.

2) Den Themenkomplex der "äquivalenten" Blende, wenn es um die Abbildungscharakteristik / Motivfreistellung geht.

Beim Sprung von FF auf APS-C lässt sich in einigen Situationen evtl. noch eine äquivalente Freistellung erreichen, sofern für FF eine mittlere Blende gewählt würde und für APS-C eine entsprechend grössere Blendenöffnung. Bei etwas kleineren Sensoren, wie dem 1"-Typ wird das dann irgendwann unmöglich, weil es so schnelle Objektive einfach nicht gibt.

Edit: Wobei, auch nur teilweise, denn wenn für den kleineren Sensor deswegen eine grössere Blendenöffnung gewählt werden muss, mit der Konsequenz einer kürzeren Belichtungszeit (ohne jetzt auch noch die ISO Einstellung zu verändern), dann ändern sich andere Charakteristiken der Aufnahme, also beispielsweise ein Mitzieheffekt wird durch dir kürzere Belichtungszeit unmöglich.

Mit "Vorteilen" und "Nachteilen" hat das ganze übrigens recht wenig zu tun, bzw. wenn, dann höchstens unter rein subjektiven Massstäben.

Saitenschuft
17.09.2015, 14:35
Sei mir net bös' Ingo, aber ich meine - und kann es gerade auch nicht mit einer Quelle belegen - gelesen zu haben:
Die Fotodioden sind bei Vollformat, bei etwa gleicher Pixeldichte größer als die des APS-C Sensors. Daher ist ihr Output definierter, weil sie auf der größeren Fläche mehr Licht aufnehmen können und daher auch die bessere Lichtempfindlichkeit bieten.
Die Dioden von APS-C sind kleiner, liefert bei gleicher Lichtmenge weniger Output und müssen daher verstärkt werden. Hinzu kommt noch der Effekt des Zertreuungskreises und der Wahrnehmung. Hier wird beim Vollformat durch die Sensor-/Pixelgröße eine größer Schärfe wahrgenommen, was zu einer geringeren Schärfentiefe und bessere Freistellungseigenschaften für die Porträtfotografie führt.

wus
17.09.2015, 15:12
Wenn ich nun mit 16mm Blende 3,5 per Spotmessung eine Belichtung von 1/500 Sekunden erhalte, so errechnet die Spotmessung bei Heranzoomen auf 24mm Blende 5 eine Belichtungszeit von 1/200 Sekunden.
Stimmt im Prinzip - bei gleicher ISO in beiden Kameras, nur vergiss nicht dass der APS-C Sensor stärker rauscht. Um auf gleich niedriges Rauschen zu kömmen müsstest Du bei APS-C mit der ISO um eine Stufe runtergehen - und schon hast Du bei beiden Kameras wieder die gleichen Belichtungszeiten.

ingoKober
17.09.2015, 15:53
Also zumindest die Photodioden der Canon 1 D Mark III und der Canon 5D waren von identischer Größe - wenigstens dessen bin ich mir zu 99%% auch ohne akuten Beleg noch sicher..
Man darf Photodiodengröße nicht mit Pixelgröße verwechseln.
Zu Pixelgröße findet man viel im frei zugänglichen Teil des Webs....aber nicht zu Photodiodengrößen.
Komisch eigentlich.

Viele Grüße

Ingo

Saitenschuft
17.09.2015, 16:58
Man darf Photodiodengröße nicht mit Pixelgröße verwechseln.


Du hast Recht, da könnte durchaus eine Verwechslung meinerseits vorliegen.
Ich bin halt auch nur Laie mir angelesenem Halbwissen. Aber besser Halbwissen als nix wissen :)

Kundakinde
17.09.2015, 17:11
Klar - auf 100 qm fällt pro qm mehr Regen als auf 25 qm!

Nicht umzubringen, der Mist...

Absolut gesehen schon, denn auf 100m²-Fläche fallt ein größers Regenvolumen als auf 25m².

lüni
17.09.2015, 17:32
http://www.digicamdb.com/compare/sony_slt-a99-vs-sony_slt-a77/

Recht interessant.....

meshua
17.09.2015, 18:00
Hallo,

Panasonic (http://av.jpn.support.panasonic.com/support/global/cs/dsc/knowhow/knowhow26.html) meint:

"CCD performance, however, is determined by more than just the total number of pixels. Larger pixels allow more light to be captured. If two CCDs have the same resolution (same number of pixels), the larger CCD will have a clearer image."

http://av.jpn.support.panasonic.com/support/global/cs/dsc/knowhow/knowhow26.html

http://av.jpn.support.panasonic.com/support/global/cs/dsc/knowhow/common/img/l26/26_3_01.jpg

Ist doch eigentlich logisch. :P Hingegen sollten der 16MP APS-C Sensor und ein 24MP KB-Sensor die gleiche Pixelgröße aufweisen - rein mathematisch betrachtet...;)

Viele Grüße, meshua



Edit by DonFredo: Das Bild ist aus urheberrechtlichen Gründen nicht in den Beitrag einzubinden, sondern nur verlinken.

guenter_w
17.09.2015, 18:02
Absolut gesehen schon, denn auf 100m²-Fläche fallt ein größers Regenvolumen als auf 25m².
Selten einen überflüssigeren Beitrag gelesen...:roll:

...und das, obgleich in den letzten Tagen so etliche Forenteilnehmer an Schreibdiarrhöe zu leiden scheinen.

DiKo
17.09.2015, 18:03
Also zumindest die Photodioden der Canon 1 D Mark III und der Canon 5D waren von identischer Größe

Der photoaktive Bereich der Photodiode eines Pixels muss ja theoretisch auch nicht unbedingt unterschiedlich sein.
Über der Diode sitzt doch noch eine Mikrolinse zum Sammeln, so dass der Pixelpitch entscheidender ist.
Über den Pixelpitch wird ja die Größe der Fläche definiert, welche Mikrolinse abdecken kann, und damit auch die Lichtmenge, die "eingefangen" werden kann.

Interessant fand ich diese Zusammenfassung über Sensoren (https://courses.cs.washington.edu/courses/cse467/08au/pdfs/lectures/07-cmos-ccd-imagers.pdf).

Edit:
Hier wird auch ganz viel zu SNR vs Pixelsize (http://www.pco.de/fileadmin/user_upload/db/download/kb_pixel_size_sensitivity_20100721.pdf) beschrieben, das hab ich aber noch nicht komplett gelesen


Gruß, Dirk

ingoKober
17.09.2015, 18:35
Bitte nicht Pixel und Fotodiode durcheinanderbringen. Der Pixel ist eine Einheit aus Fotodiode und Platz drumherum. Der Platz drumherum schützt vor Beeinflussung durch Nachbarfotodioden, sammelt aber kein Licht für die Elektronik.
Bei gleicher Pixelzahl ist der Pixel bei Vollformat größer als bei APS-C aber nicht automatisch die Fotodiode, die ja den eigentlichen Lichtsensor darstellt.

WENN die Fotodioden bei Vollformat größer sind als bei APS-C kann man bei gleicher Pixelzahl mehr Licht sammeln.

Aber das ist nicht automatisch oder gar zwangsweise der Fall. Bei canon 5d und 1D Mark III sind die Dioden zB gleich groß - und bisher dachte ich, dass das bei den APS-C/ Vollformat Paaren aller Hersteller so sei.....aber da bin ich mir jetzt nicht mehr sicher.

Uns um die Verwirrung noch zu Vergrößern...zur Diode zähle ich die Mikrolinse dazu...aber das kann man auch anders sehen.

Viele Grüße

Ingo

walt_I
17.09.2015, 19:03
Mit Verlaub: Nein.
Ich glaube, manche vergessen, dass die Größe der - ich sage mal lichtempfindlichen Einheiten- bei APS-C und Vollformat grundsätzlich identisch ist.
Es ist ja mitnichten so, dass die 24 Megapixel einer Vollformatkamera größere Detektoren haben oder pro Pixel mehr Licht aufnehmen als bei APS-C.
Bei gleicher Pixelzahl sitzen sie bei Vollformat halt weiter auseinander als bei APS-C.
.......................

Viele Grüße

Ingo

Sorry, aber das ist blanker Unfug!
Die lichtempfindliche Fläche eines 24MP KB-Sensors ist etwa doppelt so groß wie die eines 24MP APS-C- Sensors. Die Hersteller versuchen die lichtempfindliche Fläche jeder einzelnen Fotodiode so groß wie irgend möglich zu machen. Stichwort "Gapless".
Des Weiteren wird durch BSI- Technik versucht die lichtempfindliche Fläche weiter zu vergrößern, indem man die Verdrahtung der einzelnen Fotodioden auf die nicht belichtete Seite des Sensors legt um noch ein wenig mehr Licht pro Diode einzufangen, bzw. die lichtempfindliche Fläche pro Sensor zu vergrössern.

Gruß
Walt

Mario190
17.09.2015, 20:16
Ist doch eigentlich logisch. :P Hingegen sollten der 16MP APS-C Sensor und ein 24MP KB-Sensor die gleiche Pixelgröße aufweisen - rein mathematisch betrachtet...;)
Meine Mathematik weist eine zweite Dimension auf, weshalb der Cropfaktor auch quadriert werden muss -> ein 10,666MP APS-C Sensor sollte die selbe Pixelgröße wie ein 24MP KB Sensor haben. Wer eine A850/900/99 auf Cropfläche umschaltet, wird auch diese Zahl angezeigt bekommen.

benmao
17.09.2015, 23:06
Warum wohl erzeugt ein großes Solarpanel in der gleichen Zeit mehr Storm, als ein kleines? Weil auf eine große Fläche mehr Licht (Sonne) fällt als auf eine kleine. Also, so meine Theorie, braucht ein Vollvormatsensor weniger Zeit um die gleiche Menge Licht aufzufangen als ein APS-C Sensor, womit der theoretische Vorteil der Blende wieder weg wäre.

Gruß Wolfgang

Ja, wenn das Bild nicht äquivalent sein muss, dann hast Du recht. Du hast aber bei Vollformat weniger Schärfentiefe. Ob das besser oder schlechter ist, hängt vom Motiv ab.

Bei gleicher Schärfentiefe (Blendenzahl bei APS-C um Faktor 1,5 kleiner) wäre Dein Vergleich aber so, dass Dein Solarpanel (der Sensor) hinter einer Glashaube (der Linse) sitzt, die die Lichtmenge von Beispielsweise 1 Quadratmeter einmal auf ein größeres (Vollformat) und einmal auf ein kleineres (APS-C) Solarpanel bündelt. Beide sollten die gleiche elektrische Leistung liefern.


Jain.
Die Sensorfläche ist insofern auch für den einzelnen Pixel ausschlaggebend, als dass Sony sowohl in der A77, als auch in der A99 24MPixel "verbaut" hat. Dadurch ergibt sich bei der A99 ein größerer Pixel der Licht auffangen kann, als bei der A77. Entsprechend niedriger ist das Auflösungsvermögen der A99.
Haben aber VF und APS-C die selbe Pixelgröße (das wären hier 54MPix für die A99), ja dann würde die 100% Ansicht beider Kameras gleich aussehen (rauschen, Bildausschnitt). Der Unterschied wäre aber, dass VF aufgrund der größeren Fläche mehr drumherum belichtet hätte.

In einem anderen Thread hatten wir Streit, ob das Auflösungsvermögen von der Sensorgröße abhängt. Wenn man das Auflösungsvermögen so definiert wie Du, dann wohl ja. Aber das ist doch nicht das Auflösungsvermögen? Ich würde das eher als Dynamik bezeichnen. Wenn ein grosser und ein kleiner Sensor jeweils bereits ein Photon einfangen und registrieren könnten, der größere Sensor kann aber sicher mehr Licht einfangen als der kleine.

Mario190
18.09.2015, 08:31
In einem anderen Thread hatten wir Streit, ob das Auflösungsvermögen von der Sensorgröße abhängt. Wenn man das Auflösungsvermögen so definiert wie Du, dann wohl ja. Aber das ist doch nicht das Auflösungsvermögen
Im Nebenthread hatte ich mich nicht eingemischt. Aber im Grunde ist es so:
Jeder redet hier von 24MPix Auflösung. Das stimmt auch, die "aktuellen" Sony SLT Sensoren liefern eine Auflösung von 24MP. Das Auflösungsvermögen hingegen beschreibt, wie genau ein am Sensor projiziertes Objekt erfasst werden kann. Größere Pixel können nunmal nicht so feine Details aufnehmen wie kleine. (Es ist möglich, dass ein Detail zwischen den großen Pixeln wäre, das damit verloren geht. Die kleineren Pixel können aber differenzieren.) Damit ist das Auflösungsvermögen von APS-C heute generell größer.
Zumindest, solange wir Beugungseffekte außer Acht lassen bzw. die Blende entsprechend wählen.

amateur
18.09.2015, 08:42
Damit ist das Auflösungsvermögen von APS-C heute generell größer.

Dafür wird das Bild bei VF aber auf eine größere Fläche projeziert. Ist doch alles völlig wuppe.

Stephan

dey
18.09.2015, 08:46
Das ist unlogisch.
Das Bild wird, wenn der Ausschnitt gleich in exakt gleich viele Teile zerlegt. Die Teile sind 1,5x unterschiedlich groß.
Um diese Teile exakt zu bemalen brauchen wir dann einen feinen oder sehr feinen Pinsel (=Objektiv). Also warum sollte aps-c ein höherers Auflösungsvermögen haben.
Einzig das notwendige Auflösungsvermögen des Objektivs ist höher.
Einzig die Lücken zwischen den Pixeln können einen Unterschied ausmachen. Es wäre jedoch unlogisch, da die Fertigung der kleinen Abständen des aps-c eher komplizierter als einfacher sein sollte.

TONI_B
18.09.2015, 16:41
Bitte nicht schon wieder so eine Diskussion um die "Auflösung". Die Auflösung hat mit dem Format nichts zu tun! Die Auflösung wird nur durch die Größe der Pixel bestimmt!

benmao
18.09.2015, 21:36
Dafür wird das Bild bei VF aber auf eine größere Fläche projeziert. Ist doch alles völlig wuppe.


Genau. Ich kann nicht verstehen, dass man hier anderer Meinung sein kann.

Mario190
18.09.2015, 22:18
Das Bild wird, wenn der Ausschnitt gleich in exakt gleich viele Teile zerlegt. Die Teile sind 1,5x unterschiedlich groß.
Die Definition von Auflösungsvermögen befasst sich lediglich damit, welchen Abstand zwei Lichtquellen haben müssen, damit sie gerade noch als zwei Lichtquellen identifiziert werden können. Natürlich kann dann nicht einfach die Brennweite wahllos (35mm an APS-C, 50mm an KB) variiert werden, denn damit würde ja auch die relative Position dieser beiden Lichtquellen zueinander wieder verändert werden.
Aber anders ausgedrückt: Das Auflösungsvermögen des APS-C Sensors muss höher sein, wenn bei 35mm und 100% Ansicht etwa die selben Details zu sehen sind, wie bei 50mm und 100%. Denn die 35mm Brennweite verschiebt die Lichtquellen relativ zueinander, was erst einmal wieder aufeglöst werden muss.

Bitte nicht schon wieder so eine Diskussion um die "Auflösung".
Finde ich auch sinnvoll, meine Anmerkung musste aber kurz sein.

benmao
18.09.2015, 23:14
Aber anders ausgedrückt: Das Auflösungsvermögen des APS-C Sensors muss höher sein, wenn bei 35mm und 100% Ansicht etwa die selben Details zu sehen sind, wie bei 50mm und 100%. Denn die 35mm Brennweite verschiebt die Lichtquellen relativ zueinander, was erst einmal wieder aufeglöst werden muss.


Das ist richtig. Du sprichst ja auch von Auflösungsvernögen des Sensors und meinst, dass das projizierte Bild kleiner sein kann. Du meinst die Auflösung pro Fläche direkt am Sensor.

Wenn ich von Auflösungsvermögen spreche, dann meine ich die Auflösung des fertigen Bildes. Und zwar auf die gesamte Bildhöhe gerechnet.

Für Dich hat also der Sensor einer Handykamera mit 3 MPixel ein höheres Auflösungsvermögen als der Vollformat-Sensor mit 16 MPixel.

Für mich hat jedoch eine 16 MPixel-Kamera eine höhere Auflösung als eine 3 MPixel-Kamera, unabhängig von der Sensorgrösse.

Wie ist Auflösungsvermögen definiert?

Lexikon der Physik - optisches Auflösungsvermögen: Das ist Deine Definition. Hier werden die Lichtstrahlen betrachtet, die vom Objektiv auf den Sensor treffen. Jetzt wird mir einiges klar, da sind wohl ein paar Physiker unter uns.

Meine Definition ist die Bildauflösung.

Interessanterweise steht im Wikipedia bei Bildauflösung, dass es durch mehrdeutige Verwendung oft zu Missverständnissen kommen kann.

TONI_B
19.09.2015, 07:05
Geh bitte, du kannst dir doch nicht ganz einfach eigene Definitionen zurecht legen!

Für Fernrohre wird die Auflösung prinzipiell in Bogensekunden (das ist ein Winkel) angegeben, die nur durch die Beugung begrenzt wird. Da wird nie von irgendeinem Filmformat oder Brennweite gesprochen. Mein Fernrohr löst maximal 0,3" auf - egal, ob ich eine Kamera mit 1280x960 Pixel verwende oder eine mit 24MP. Und das sind die tatsächlichen Werte meiner Kameras. Welche Brennweite man dann dafür verwenden muss um eine optimale Anbindung zu erhalten, ist wiederum eine Frage der Pixelgröße der Kameras. Das Format ist egal, denn das bestimmt nur die Größe des Bildfeldes am Himmel, das aufgenommen werden kann.

Bei Mikroskopen wird die Auflösung in nm oder µm angegeben. Auch da ist es dann eine Frage der Pixelgröße, ob die jeweilige Kamera diese Auflösung auch tatsächlich abspeichern kann. Früher hatte man 9x6-Planfilm-Ansätze, heute DigiCams mit 1,2 bis 16MP - alles klar? Da spielt das Format keine Rolle

Und jetzt darfst du überlegen, wie das bei einer "normalen" Kamera der Fall ist...

Zu Missverständnissen kommt es dann, wenn sich Leute nicht die Definitionen durchlesen, sondern eigene schaffen.

benmao
19.09.2015, 08:22
Geh bitte, du kannst dir doch nicht ganz einfach eigene Definitionen zurecht legen!



Ein Bauer, ein Bauingenieur und ein Mathematiker sollen die Kühe auf einer Alm in den Bergen einfangen. Der Bauer nimmt 50m Zaun, baut ein Gatter mit einem Tor und pfärcht die Herde in das Gatter. Der Bauingenieur löst das Problem, indem er mit 5 km Zaun die ganze Alm umzäunt. Der Mathematiker kommt mit lediglich 5m Zaun aus, baut ihn um sich selbst und definiert : "Ich bin aussen!"

BadMan
19.09.2015, 08:29
Und was hat das jetzt mit dem Threadthema zu tun?

TONI_B
19.09.2015, 10:54
Der Mathematiker kommt mit lediglich 5m Zaun aus, baut ihn um sich selbst und definiert : "Ich bin aussen!"In diesem Fall bist aber du der Mathematiker, weil du für dich definierst, was Auflösung zu sein hat. Das kannst du gerne machen - es ist aber schlichtweg falsch und damit bist du derjenige, der draußen ist!

dey
19.09.2015, 14:57
Na zumindest mein Verständnis für Auflösungsvermögen ist jetzt korrigiert.
Nutzbar wäre der Auflösungsvorteil dann bis ca. Iso 800. dann schlägt das Rauschen oder Entrauschen derart zu, dass man die 24mp sktueller aps-c-Sensoren nicht mehr nutzen kann und kb hier crop-Vorteile zum Ausgleich nutzen kann.
Allerdings nur, wenn man mit der geringeren Schärfentiefe bei kb leben kann. Ansonsten springt der iso bei kb um die Blende hoch.

benmao
20.09.2015, 08:39
Der Witz war etwas off topic aber sollte zeigen wie wichtig die gleiche Definition ist.

In diesem Fall bist aber du der Mathematiker, weil du für dich definierst, was Auflösung zu sein hat. Das kannst du gerne machen - es ist aber schlichtweg falsch und damit bist du derjenige, der draußen ist!

Ich gebe ja zu, dass ich unter "Auflösungsvermögen" nicht die gängige Definition verstanden habe. Beim Wort "Auflösung" ist das ganze aber nicht so eindeutig. Mario90 verwendet beispielsweise eine Definition wie sie auch im Wikipedia unter Fotografie/digitale Auflösung zu finden ist:

Im Nebenthread hatte ich mich nicht eingemischt. Aber im Grunde ist es so:
Jeder redet hier von 24MPix Auflösung. Das stimmt auch, die "aktuellen" Sony SLT Sensoren liefern eine Auflösung von 24MP. Das Auflösungsvermögen hingegen beschreibt, wie genau ein am Sensor projiziertes Objekt erfasst werden kann. Größere Pixel können nunmal nicht so feine Details aufnehmen wie kleine.



Du setzt stets Auflösung mit dem optischen Auflösungsvermögen gleich.
Du kannst Dir aussuchen, ob Du der Bauer oder der Ingenieur sein willst. [emoji4]

Kurt Weinmeister
20.09.2015, 14:34
Zu Pixelgröße findet man viel im frei zugänglichen Teil des Webs....aber nicht zu Photodiodengrößen.


Vielleicht liegt das daran, dass Pixel mit Photodiode gleichgesetzt wird?

Das nachfolgende PDF weist zumindest verschiedene "Unit cells" Größen der verschiedenen Sensoren aus.
Ich gehe davon aus, dass mit "Unit cell" letztendlich ein Pixel gemeint ist.
Was Deine Vermutung möglicherweise widerlegt, dass die Einheiten gleich groß sind und nur die Lücken zwischen den Einheiten größer sind.

https://pro.sony.com/bbsccms/assets/files/cat/camsec/solutions/E_CMOS_Sensor_WP_110427.pdf

lampenschirm
20.09.2015, 16:53
seit Anbeginn wird nur von Pixel geredet und jeder kann sich auch ein Raster vorstellen welches über ein "Bild" gelegt wird, jeder versteht was die Auswirkung ist, wenn die Rasterung feiner wird (Auflösung)

dass in den letzten Jahren Dinge irgendwie kleiner wurden kann man auch glaubhaft nachvollziehen aber was in welchem Verhältnis in Bezug auf die absoluten Seitenlängen eines Sensors ...

Vergleiche über die Entwicklung in den letzten Jahren des dimensionalen Aufbaus eines "Pixels" wie Verdrahtungen /Microlinse / Fotodiode ect findet man direkt herzlich wenig und darum wohl dauernd diese Verwirrung ? Wie auch über mögliche Eigenschaften die sich dadurch verändern



und für mich selbst wirds immer dann bereits etwas wirr ,wenns darum geht ob nun grosse "Pixel" gesamthaft mehr Lichteinfangen wie kleine auf einer gleich grossen Sensorfläche und dann kommt noch dazu wie sich die Pixelmasse gegenseitig stört (nur wärme ?)

kann sein , dass ihr hier bereits auf einer höheren Ebene am diskutieren seid bzw. mein Hirnschmalz schlicht nicht soweit reicht....:cry: