Geissler Service
Amazon
Forum für die Fotosysteme von Sony und KonicaMinolta
  SonyUserforum - Forum für die Fotosysteme
von Sony und KonicaMinolta
 
Registrieren Rund ums Bild Galerie Objektiv-Datenbank Kalender Forenregeln Nützliches

Startseite » Forenübersicht » Kreativbereich » Vor der Aufnahme » Erklärungshilfe gesucht: Schärfentiefe bei Vollformat und APS-C
Antwort
 
Themen-Optionen Ansicht
Alt 01.11.2023, 11:52   #1
DerGoettinger
 
 
Registriert seit: 02.04.2019
Ort: Lübeck
Beiträge: 1.005
Erklärungshilfe gesucht: Schärfentiefe bei Vollformat und APS-C

Hallo zusammen,

ich versuch gerade mal wieder, mir Dinge zu erschließen, die ich nicht verstehe

Und vorweg: ich habe keine Erklärung und stehe allen Erklärungsansätzen offen gegenüber - selbst wenn mir einer sagt, der (Verständnis-)Fehler liegt bei mir.

Es gibt ja diesen DOF Simulator, bei dem man verschiedenste Sensor-Objrektivbrennweiten-Blenden-Konfigurationen ausprobieren kann, um die entsprechenden Wirkungen auf die Schärfentiefe zu simulieren. Jetzt ist es ja bekanntlich so, dass bei gleichen Einstellungen bei APS-C-Sensoren die Schärfentiefe größer bzw. das Freistellungspotential bei Vollformat ist größer.

Hier ein typisches Beispiel mit einem 50mm-Objektiv an einer a6600 und 75mm an einer a7R IV, aloso eine ganz typische Crop-Rechnung:

 VollformatAPS-C
Objektiv75 mm50 mm
Blendef1.4f1.4
Fokus-Entfernung150 cm150 cm
Schärfentiefe *)1,5 cm & 1,6 cm2,3 cm & 2,4 cm
*) gemessen jeweils vor und hinter dem Schärfepunkt

Das Ergebnis ist das, was ich auch erwartet hätte:
  • Der Bildausschnitt ist identisch (kann man auf DOF sehen).
  • Die Schärfentiefe des Vollformatsensors ist geringer, die Freistellung also höher.

Dann hab ich quasi den "Gegenversuch" gemacht, indem ich an Vollformat das Objektiv auf f2 abgeblendet habe:

 VollformatAPS-C
Objektiv75 mm50 mm
Blendef2f1.4
Fokus-Entfernung150 cm150 cm
Schärfentiefe *)2,2 cm & 2,2 cm2,3 cm & 2,4 cm
*) gemessen jeweils vor und hinter dem Schärfepunkt

Auch jetzt kam genau das erwartete Ergebnis heraus:
  • Bildausschnitt und Schärfentiefe sind jetzt quasi identisch, denn ich habe an der Vollformat-Kamera jetzt den Crop-Faktor auch auf die Blendenöffnung angewendet.
Damit habe ich eine größere Schärfentiefe, die jetzt der der APS-C-Kamera entspricht. Oder anders: Das ist der Beweis, dass Vollformatkameras besser freistellen können (qed).


Aber jetzt kommt das, was ich nicht verstehe

Angenommen, ich habe an einer a7R IV ein 50mm-Objektiv mit f1.4, dann ergibt sich laut DOF bei einer Fokusentfernung von 150cm eine Schärfentiefe von 3,4 cm & 3,6 cm (vor und hinter dem Schärfepunkt, siehe hier). Wie wir oben aber gesehen haben ist die Schärfentiefe an einer a6600 mit einem 50mm-Objektiv bei f1.4 und einer Fokusentfernung von 150cm nur 2,3 cm & 2,3 cm (vor und hinter dem Schärfepunkt, siehe hier). Bitte? Ja, ich habe einen kleineren Bildausschnitt (weil APS-C), aber das dürfte sich doch eigentlich nicht auf die Schärfentiefe auswirken.

Ich hab mal gelernt, dass ein 50mm-Objektiv immer 50mm-Objektiv und ein f1.4-Objektiv immer ein f1.4-Objektiv ist, egal an welchem Sensor. Die mm- und Blenden-Angaben beziehen sich immer auf ein entsprechendes Objektiv am Vollformatsensor. Zumindest hat man mir das so immer wieder gesagt.

Ein kleinerer Sensor wirkt sich - zumindest nach dem, wie ich es bisher verstanden habe - nur auf den tatsächlich aufgenommenen Bildwinkel aus. Ich nehme im übertragenen Sinne bei einem kleineren Sensor eine Schere und schneide rundherum einen Rand ab. Bei dem Bild aus der Vollformatkamera sieht man einfach "mehr vom drumrum", hat also mehr "links, rechts, oben und unten" mit auf dem Bild. Ansonsten ändert sich rein physikalisch nichts. Es ist ja auch immer noch das gleiche Objektiv mit der gleichen Blendenöffnung. Also dürfte sich doch an der Schärfentiefe, also dem "vor und hinter dem Fokuspunkt" nichts verändern.

Weil ich dachte, dass es vielleicht ein Fehler auf der DOF-Homepage ist, hab ich mal eine andere Seite gesucht, bei der der man die Schärfentiefe berechnen kann. Dort komme ich aber zum gleichen Ergebnis.

Heißt das jetzt Folgendes?
Angenommen, ich hab an einer a7R IV ein 50mm/f1.4-Vollformat-Objektiv und gehe manuell in den APS-C-Modus, vergrößert sich dann die Schärfentiefe, obwohl ich ansonsten überhaupt keine Änderungen an den Einstellungen vornehme?????? Aber warum?????????
__________________
"Die ersten 10.000 Bilder sind die schlechtesten" - wahlweise Henri-Cartier Bresson, Jackson Pollock oder Helmut Newton zugeschrieben

Geändert von DerGoettinger (01.11.2023 um 11:56 Uhr)
DerGoettinger ist offline   Mit Zitat antworten
Sponsored Links
Alt 01.11.2023, 12:34   #2
hlenz
 
 
Registriert seit: 24.08.2008
Beiträge: 7.212
Ich denke, der Knackpunkt liegt hier daran, dass das Bild auf gleiche Ausgabegröße vergrößert wird.

Die absolute Schärfe gibt es ja nur exakt auf der Fokusebene. Der Schärfebereich resultiert daraus, dass für das Auge auch Bildpunkte bis zu einer gewissen Größe noch scharf erscheinen. Der Wert dazu ist der maximale Zerstreuungskreisdurchmesser Z.


Wenn du mal den Wikipedia-Artikel zum Zerstreuungskreis liest, dann gilt für jede Sensorgröße ein anderer Z-Wert. Das heißt also die Größe eines Bildpunkts, wenn er noch als scharf empfunden wird.

In der von dir beschriebenen Situation - du druckst ein KB-Foto aus und schneidest dann drumherum den Bereich weg, der nicht zu APS-C gehört - müsste der Z-Wert exakt gleich sein.
Der DOF-Rechner zeigt jedoch für APS-C einen kleineren "circle of confusion" an. Das ergibt sich daraus, dass du dein ausgeschnittenes APS-C-Foto nun auf die gleiche Ausgabegröße vergrößerst. Damit vergrößerst du auch die schon leicht unscharfen Bildpunkte.
Du schaust quasi mit einer Lupe auf dein KB-Foto und vergrößerst damit das Auflösevermögen des Auges. Somit werden Bildpunkte, die dir noch scharf erschienen, plötzlich schon leicht unscharf. Der scharfe Bereich verkleinert sich also scheinbar.
hlenz ist offline   Mit Zitat antworten
Alt 01.11.2023, 12:36   #3
aidualk
 
 
Registriert seit: 17.12.2007
Ort: Rhein-Main
Beiträge: 21.328
Genau: In dem link wird der 'Circle of confusion' unterschiedlich angenommen, was natürlich zu nicht direkt vergleichbaren theoretischen Ergebnissen führt.

Edit: Ich habe eben mal im 'advanced Modus' den 'Circle of confusion' auf den gleichen Wert eingestellt. Dann gibt es auch das identische Ergebnis in der Schärfentiefe für APS-C und KB (A6600 und A7RV).

Geändert von aidualk (01.11.2023 um 12:41 Uhr)
aidualk ist offline   Mit Zitat antworten
Alt 01.11.2023, 12:59   #4
DerGoettinger

Themenersteller
 
 
Registriert seit: 02.04.2019
Ort: Lübeck
Beiträge: 1.005
Also ist es eine Einstellungssache auf DOF? Mein Verständnis an sich ("50mm/f1.4 bleiben 50mm/f1.4") ist also richtig? O.k., ich hab es noch nicht ganz durchdrungen, aber ich werd mir das noch mal im Detail ansehen.

Danke für die Rückmeldung
__________________
"Die ersten 10.000 Bilder sind die schlechtesten" - wahlweise Henri-Cartier Bresson, Jackson Pollock oder Helmut Newton zugeschrieben
DerGoettinger ist offline   Mit Zitat antworten
Alt 03.11.2023, 11:30   #5
DerGoettinger

Themenersteller
 
 
Registriert seit: 02.04.2019
Ort: Lübeck
Beiträge: 1.005
Also, ich hab mir jetzt einige Videos angesehen sowie Artikel und Erklärungen durchgesehen. Also:
  • Ich glaube verstanden zu haben, was mit Zerstreuungskreis gemeint ist (ich geb es gleich noch mal mit eigenen Worten wieder)
  • Ich glaube, dass das in diesem Fall nicht die richtige Antwort ist, weil nach der Definition des Zerstreuungskreises von einem "üblichen Betrachtungsabstand" ausgegangen wird, der jedoch abhängig ist von der Sensorgröße, während in der Praxis das Auflagemaße (und damit "der Strahlengang im System") immer gleich ist, und zwar unabhängig vom Sensor.
Ich hab noch nicht ganz durchblickt, warum DOF auf die bezeichneten Ergebnisse kommt, vermute aber, dass das letztendlich ein "Programmierfehler" ist.

Jetzt mal zu dem, wie es ich für mich darstellt - und ich bitte ausdrücklich darum, mich zu korrigieren, wenn ich etwas falsch verstanden habe! Ich bin mir meiner Fehlöbarkeit bewusst.

Die Theorie des Zerstreuungskreises

Grundsätzlich hab ich verstanden, dass es beim Begriff des Zerstreuungskreises - auch - um die Auflösefähigkeiten des Auges geht und um die Frage, wann ein "auf dem Sensor abgebildeter Punkt", der eigentlich nicht mehr auf der Schärfeebene liegt (also eigentlich schon "unscharf" ist), dennoch vom menschlichen Auge als scharf wahrgenommen wird. Da dies auch vom (gedachten) Abstand des Auges vom Sensor abhängig ist (je weiter man weg ist, desto eher wird ein eigentlich unscharfer Punkt als scharf wahrgenommen), hat man sich dafür auf einen "standartisierten, aber dennoch variablen Abstand" geeinigt, indem man sagt, dass die Diagonale des Sensors gleich des Betrachtungsabstandes ist. Damit ergibt sich nämlich unabhängig von der Sensorgröße immer ein Betrachtungswinkel von grob 53°. Die Auflösefähigkeit des Auges wiederum beträgt 2 "Bogenminuten" bzw. "Winkelminuten" (so das, was ich gelesen habe), also etwa (1/30)°. Wenn man die 53° durch die (1/30)° teile, komme ich grob auf die Zahl von 1.500. Teile ich nun die tatsächliche Diagonale des Sensors durch besagte 1.500, komme ich auf den jeweiligen Zerstreuungskreis. Bei einer a6600 (also APS-C) ist dies etwa 0,0189 mm, bei einer a7RIV (also Vollformat) ist das 0,0289 mm.

Oder mal mit Zahlen:
  • Die Diagonale eines Vollformatsensors beträgt etwa 43,3 mm (Satz des Pythagoras: Wurzel aus 36 mm² + 24 mm²)
  • Schaue ich aus einer Entfernung von 43,3 mm auf den Sensor, wird ein Punkt mit einem Durchmesser von 0,0289 mm vom Auge immer noch als scharf wahrgenommen, auch wenn er tatsächlich nicht auf der Schärfeebene liegt und insofern eigentlich physiaklisch gesehen schon unscharf ist.
  • Die Diagonale des APS-C-Sensor beträgt nur 28,4 mm, so dass sich für die Berechnungh des Zerstreuungskreises auch der Betrachtungsabstand auf 28,4 mm reduziert. Ich bin also (gedanklich) näher am Sensor und kann insofern auch kleinere Punkte erkennen - genauer gesagt Punkte bis zu einer Größe von nur 0,0189 mm. Der Zerstreuungskreis von APS-C ist also kleiner.
Ich hoffe, ich hab das mit meinen laienhaften Worten dennoch richtig wiedergegeben.

Bei Wikipedia liest sich das so:
Zitat:
Der für die Akzeptanz von Schärfe maximal tolerierbare Zerstreuungskreisdurchmesser für einen Fotoapparat wird mit Z bezeichnet, wobei sich die Größe von Z aus dem mittleren Auflösungsvermögen unseres Auges ergibt, welches in der Auflösungsgrenze im Idealfall bei ca. einer Winkelminute liegt und es uns ermöglicht, zwei Punkte als getrennt zu erkennen, wenn diese mindestens 2 Winkelminuten voneinander entfernt liegen. Betrachten wir ein Bild bei einem üblichen Betrachtungsabstand, so erscheint uns die Bilddiagonale unter einem Sehwinkel von ca. 50° bzw. 3000 Winkelminuten. Bei einer Unschärfe, die 2 Winkelminuten, also 1/1500 der Bilddiagonalen übersteigt, werden wir eine Unschärfe also gerade zu erkennen beginnen. Da ein fertiges Bild in der Regel eine Vergrößerung des im Moment der Aufnahme am Sensor bzw. in der Filmebene entstandenen Bildes ist, wird der zulässige Zerstreuungskreisdurchmesser Z mit 1/1500 der Film- oder Sensordiagonalen des Fotoapparates beziffert [...]
Die Praxis(?)

Genau mit der Formulierung "bei einem üblichen Betrachtungsabstand" fangen jetzt meine Verständnisprobleme an, denn das ist letztendlich ein variabler Wert, der sich abhängig von der Sensorgröße verändert. Nach dieser Definition wird für die Berechnung des Zerstreuungskreises bei APS-C und Vollformat ein unterschiedlicher Betrachtungsabstand genommen. Das Auflagemaß der Kameras aber ist immer gleichbleibend, egal welcher Sensor verbaut ist (bei Sony beträgt der Abstand immer 18 mm). Und damit dürfte sich auch nicht der Strahlengang verändern, der letztendlich ja für die Schärfe und Unschärfe der Abbildung verantwortlich ist.

Wenn ich an einer a7R IV und einer a6600 ein identisches Objektiv verwende, ist folglich auch der Strahlengang identisch und es wird "in der Kamera" (also unabhängig vom Sensor) theoretisch die gleiche Fläche "ausgeleuchtet" (Fläche, nicht Sensor) - und das auf identische Art und Weise. Das, was hinten aus dem Objektiv aus der Austrittspupille herauskommt, ist immer gleich, und da unabhängig von der Größe des Sensors auch der Abstand zwischen Austrittspupille und Sensor gleich ist, kann sich ja nicht plötzlich der Strahlengang ändern. Der einzige Unterschied ist genau genommen doch nur, dass bei APS-C die Fläche, die "elektronsich gemessen wird", kleiner ist. Die Strahlen, die aus dem Vollformatobjektiv herauskommen und links, rechts bzw. ober- und unterhalb des Sensors auftreffen, verpuffen irgendwo ungenutzt. Insgesamt leuchtet das Objektiv immer die gleiche Fläche aus, der Sensor entscheidet nur, welcher Bereich davon "elektronisch gemessen" wird.

Das würde dann aber nach meinem (vielleicht falschen?) Verständnis bedeuten, dass vollkommen identische Bilder entstehen müssten, wenn ich mit der a6600 und der a7R IV im APS-C-Modus fotografiere, denn bei der a7R IV und der a6600 ist ja auch die Größe der Pixel ja quasi identisch:
  • Der Strahlengang im Obektiv ist identisch
  • Der Strahlengang zwischen Objektiv und Sensor ist identisch
  • Die Strahlen treffen auf eine (etwa) identische Zahl von Pixeln.
  • Alles, was links, rechts bzw. ober- und unterhalb dieser Fläche auftrifft, verpufft ungenutzt, weil sich dort entweder gar kein Sensor befindet oder die entsprechenden Pixel "deaktiviert" sind.
Nach meiner Logik (bitte korrigieren, wenn ich einen Logikfehler hab) müsste ich also an einer a7R IV im APS-C-Modus und einer a6600 eine identische Schärfentiefe haben. "Konstellation A" (a6600) und "Konstellation B" (a7R IV im APS-C-Modus) sind also hinsichtlich der Schärfentiefe identisch.

Schalte ich jetzt die a7R IV wieder in den Vollformat-Modus, dürfte sich nun eigentlich nichts ändern - mit der Ausnahme, dass ich jetzt auch "den Rand" zusätzlich noch mit aufnehme. Der Strahlengang selbst ist nach wie vor unverändert, denn
  • ein Punkt wird nur deshalb als "unscharf" wahrgenommen, weil er auf der Sensorebene unscharf abgebildet wird.
  • Hinsichtlich des Strahlenganges wird er "irgendwo" sehr wohl scharf abgebildet, aber eben nicht auf der Sensorebene, sondern irgendwo davor oder dahinter.
  • Das bleibt auch unverändert, wenn ich einen anderen Sensor verwende, da sich der Strahlengang bei Änderung des Sensors eben nicht ändert.
Nehme ich also bei ansonsten identischen Einstellungen jetzt ein Bild im Vollformat-Modus auf (Konstellation C), müsste es mit Blick auf die Schärfentiefe immer noch unversändert sein. "Konstellation B" (a7R IV im APS-C-Modus) und "Konstellation C" (a7R IV im Vollformat-Modus) sind also hinsichtlich der Schärfentiefe identisch.

Wenn aber sowohl A und B als auch B und C identisch sind, dann müssen nach den Regeln der Logik auch A und C identisch sein. Heißt: mit einem identischen Objektiv haben Vollformat- und APS-C-Kameras bei gleicher Blendenöffnung und gleicher Fokusentfernung auch die gleiche Schärfentiefe.

Ein Fehler auf DOFSimulator.net?

Ich glaube, dass es ist ein Darstellungsproblem beim DOF-Simulator. Hier noch mal die Zahlen von dort zum Vergleich:

Kamera *)a7R IVa7R IV im APS-C-Modusa6600
Linkhierhierhier
Zerstreuungskreis0,0289 mm0,0289 mm0,0189 mm
Objektiv50 mm50 mm50 mm
Blendef1.4f1.4f1.4
Fokus-Entfernung150 cm150 cm150 cm
Schärfentiefe **)3,4 cm & 3,6 cm3,4 cm & 3,6 cm2,3 cm & 2,3 cm
*) jeweils mit dem Sensor entsprechenden Zerstreuungskreis
**) gemessen jeweils vor und hinter dem Schärfepunkt

Wie gesagt, dass sind die rechnerischen Zahlen des DOF-Simulators auf Basis des Zerstreuungskreises. Wir sehen, dass danach eine APS-C-Kamera bei gleicher Blendenöffnung und gleicher Fokusentfernung rechnerisch eine geringere Schärfentiefe liefert als eine Vollformatkamera. Das bekomm ich so jedoch nicht mit meiner Logik überein - was entweder an DOF oder an meiner Logik liegt.

Ergebnis für mich

Ich verstehe dank Eures Hinweises auf den Zerstreuungskreis, wie DOF zu den Zahlen kommt. Ihr habt mir damit wirklich SEHR geholfen!!! Ich bekomme die Zahlen noch nicht mit meiner eigenen Logik zusammen und würde das aktuell eher als "Berechnungsproblem auf DOF" sehen, will aber nicht ausschließen, dass ich logisch mal wieder falsch gedacht hab

Aber ich hab dank Euch wieder etwas gelernt!!!!!
__________________
"Die ersten 10.000 Bilder sind die schlechtesten" - wahlweise Henri-Cartier Bresson, Jackson Pollock oder Helmut Newton zugeschrieben

Geändert von DerGoettinger (03.11.2023 um 12:18 Uhr)
DerGoettinger ist offline   Mit Zitat antworten
Sponsored Links
Alt 03.11.2023, 11:37   #6
DerGoettinger

Themenersteller
 
 
Registriert seit: 02.04.2019
Ort: Lübeck
Beiträge: 1.005
[Abwegige Idee gelöscht]
__________________
"Die ersten 10.000 Bilder sind die schlechtesten" - wahlweise Henri-Cartier Bresson, Jackson Pollock oder Helmut Newton zugeschrieben

Geändert von DerGoettinger (03.11.2023 um 12:53 Uhr)
DerGoettinger ist offline   Mit Zitat antworten
Alt 03.11.2023, 12:16   #7
ha_ru
 
 
Registriert seit: 10.12.2010
Ort: In Sichtweite der Burg Teck
Beiträge: 2.748
Hallo,

der "übliche Betrachtungsabstand" bezieht sich nach meine Verständnis auf das wiedergegebene Bild bei Betrachtung des gesamten Bildes bei einem Abstand, bei dem ich das gesamte Bild überblicken kann und nicht beim Pixelpeepen.

Ich hänge mal eine Screenshot von cBlur, dem von mir in der Regel verwendten Schärfentieferechners an. Da habe ich als Kamera 1 einen KB Sensor mit 50mpx und als Kamera 2 eine APS-C Kamera mit 21mpx eingestellt, also in etwa dieselbe Pixelgröße. Sonst ist alles unverädnert, also Motivabstand 1,5m Abstand, Blende 1.4. Dann bildet die ASP-C Kamera einen Auschnitt des KB-Bildes ab.

Es decken sich die Kurven nahezu, d.h. für mich wenn ich das Bild der KB-Kamera auf den Auschnitt der APS-C Kamera croppe ist der Unschärfeverlauf beider Bilder nahezu identisch bei beiden bei gleichem Betrachtungsabstand. Drucke ich aber das gesamte KB-Bild in gleicher Druckauflösung aus, werde ich bei der Bildbetrachtung einen größeren Betrachtungsabstand einnehmen und Bildteile, die ich vorher schon als unscharf wahrgenommen habe wirken jetzt auf mich scharf, weil mein Auge das nicht mehr auflöst.


Bild in der Galerie
ha_ru ist offline   Mit Zitat antworten
Alt 03.11.2023, 12:49   #8
DerGoettinger

Themenersteller
 
 
Registriert seit: 02.04.2019
Ort: Lübeck
Beiträge: 1.005
O.k., danke, das war das, was mir "gefehlt" hat. Jetzt hab ich es verstanden.

Grundsätzlich kommt es auf dem Sensor identisch an, aber wenn ich das VF-Bild und das APS-C-Bild z.B. auf DIN A4 ausdrucke und ich mir beide Bilder dann aus gleicher Entfernung ansehe, wirkt es so, als hätte das VF-Bild eine größere Schärfentiefe. Gemessen an der Größe der Darstellung (DIN A4) sind die "Punkte" (Pixel auf dem Sensor) kleiner, weil es einfach mehr sind (in Deinem Beispiel 50 MP im Vergleich zu 21 MP) und damit kommt man eher an die Auflösungsgrenze der menschlichen Augen heran (ich hoffe, man versteht das noch... ). Auf jeden Fall erklärt sich so der größere Wert beim DOFSimulator.

Drucke ich hingegen das VF-Bild auf DIN A3 (also doppelt so groß) und berachte beide Bilder wieder aus gleicher Entfernung, dann ist der Eindruck eher, dass die Schärfentiefe identisch ist. Ganz passt es nicht, da VF ist etwas mehr als doppelt so groß wie APS-C, aber näherungsweise kommt es glaub ich hin. Wenn ich jetzt mit der Schere aus dem DIN A3-Bild aus der Mitte ein Bild in DIN A4-Größe ausschneide und dann diese beiden DIN A4-Bilder betrachte, wirkt die Schärfentiefe der beiden Bilder wieder identisch, obwohl sie mit unterschiedlichen Sensoren aufgenommen wurde.

Boah, man bekommt ja schon einen Knoten im Kopf
__________________
"Die ersten 10.000 Bilder sind die schlechtesten" - wahlweise Henri-Cartier Bresson, Jackson Pollock oder Helmut Newton zugeschrieben
DerGoettinger ist offline   Mit Zitat antworten
Antwort
Startseite » Forenübersicht » Kreativbereich » Vor der Aufnahme » Erklärungshilfe gesucht: Schärfentiefe bei Vollformat und APS-C


Forenregeln
Es ist dir nicht erlaubt, neue Themen zu verfassen.
Es ist dir nicht erlaubt, auf Beiträge zu antworten.
Es ist dir nicht erlaubt, Anhänge hochzuladen.
Es ist dir nicht erlaubt, deine Beiträge zu bearbeiten.

BB-Code ist an.
Smileys sind an.
[IMG] Code ist an.
HTML-Code ist aus.

Gehe zu


Alle Zeitangaben in WEZ +1. Es ist jetzt 18:10 Uhr.