SonyUserforum

SonyUserforum (https://www.sonyuserforum.de/forum/index.php)
-   Zubehör (https://www.sonyuserforum.de/forum/forumdisplay.php?f=11)
-   -   LCD-Monitor 1680x1050 an Standardgrafikkarte? (https://www.sonyuserforum.de/forum/showthread.php?t=36295)

giusi83 23.03.2007 14:35

Bei den meisten Karten, kannst du die Auflösung manuell angeben.. Sollte also funktionieren..

falkII 23.03.2007 15:09

Zitat:

Zitat von Tom (Beitrag 474196)
Ähm... spielt die ganze Überlegung zum Interpolieren oder nicht eigentlich eine Rolle, wenn ich den Analog-VGA-Anschluß verwende?

Die ATI Radeon 9200 hat nämlich noch kein DVI...:roll:

IMHO ja, ich verwende eine EIZO an einer alten Karte ohne DVI und der Unterschied ist sehr deutlich erkennbar. Feine LInien werden deutlich klarer dargestellt und das Bild wirkt insgesamt schärfer. Auch ist der Verfügbare Desktop nun deutlich größer!

Einstellung auf die neue Auflösung (kein Widescreen) lief sowohl unter Windows, als auch Mandrake LInux ohne Probleme. Neuer Glanz in alter Hütte!:D

webwolfs 23.03.2007 16:16

Zitat:

Zitat von falkII (Beitrag 474278)
IMHO ja, ich verwende eine EIZO an einer alten Karte ohne DVI und der Unterschied ist sehr deutlich erkennbar. Feine LInien werden deutlich klarer dargestellt und das Bild wirkt insgesamt schärfer. Auch ist der Verfügbare Desktop nun deutlich größer!

Einstellung auf die neue Auflösung (kein Widescreen) lief sowohl unter Windows, als auch Mandrake LInux ohne Probleme. Neuer Glanz in alter Hütte!:D

Es gibt aber auch 9200er-Karten mit DVI. Bei mir läuft so eine.

Bei Anschluss über VGA sind bei den Grafikkarten oft die analogen Signalspannungen nicht sauber genug. Gerade bei hohen Auflösungen wirkt das Bild dann matschig. Da hilft dann auch kein Einstellen.

Da wirst Du ggf. eine DVI-Karte brauchen.

Tom 23.03.2007 17:20

Vielen Dank für Eure Hilfe. :top:

Habe eben den Monitor bestellt und werde dann ja sehen ob alles so funktioniert, wie ich mir das gedacht habe...

Notfalls gibt es ja noch die Rückgabemöglchkeit.

Gruß
Tom

falkII 23.03.2007 18:59

Zitat:

Zitat von webwolfs (Beitrag 474306)
Es gibt aber auch 9200er-Karten mit DVI. Bei mir läuft so eine.

Bei Anschluss über VGA sind bei den Grafikkarten oft die analogen Signalspannungen nicht sauber genug. Gerade bei hohen Auflösungen wirkt das Bild dann matschig. Da hilft dann auch kein Einstellen.

Da wirst Du ggf. eine DVI-Karte brauchen.

Also bisher sehe ich da keinen Grund für die alte TNT2 rauszuwerfen, von matschig keine Spur. Im Gegensatz zur alten Medion Röhre jedenfalls ein merklicher Fortschritt, gerade was kleine Texte betrifft!

Außerdem dient das gute Stück nur am zweit-Rechner für meine Mum, da brauch es kein DVI...

bianchifan 23.03.2007 20:13

Zitat:

Zitat von Tom (Beitrag 474196)
Ähm... spielt die ganze Überlegung zum Interpolieren oder nicht eigentlich eine Rolle, wenn ich den Analog-VGA-Anschluß verwende?

Natürlich, ein LCD muss Interpolieren, sobald Du eine andere Auflösng als seine "native" verwendest, dass ist von der Schnittstelle unabhängig.
Zu VGA, das ist eine analoge Schnittstelle, für zufriedenstellende Resultate müssen beide Seiten mitspielen, Graka und Monitor Elektronik, das VGA-Kabel dazwischen nicht zu vergessen. Kapazitive Belastungen, Knickstellen e.t.c wirken sich unmittelbar auf die Bildqualität aus. Matrox-Karten haben einen hervorragenden VGA-Ausgang, ATIs sind unterschiedlich. Die Schwachstelle vermute ich beim Monitor, ich unterstelle mal blind, dass die VGA z.Zt. nur aus Kompatibilitätsgründen drin ist, da noch nicht alle Grakas auf DVI setzen.
Nicht dasWischiwaschi einer interpolierten Auflösung ist da das Dilemma, sondern die Farbreinheit und der Kontrast. Mit hoher Wahrscheinlichkeit erhälst Du im VGA-Betrieb nicht die maximal möglichen Kontrastwerte, gesausowenig die maximale Brillanz.
Für Word und Webbrowser ist das wurscht, für Bildbearbeitungsprogramme aber nun überhaupt nicht, von daher ist eine digitale Schnittstelle vorzuziehen.

LensView 24.03.2007 23:57

Ich hab die Erfahrung gemacht daß ich einen 1680x1050 LCD an meiner alten Karte nicht übers DVI in der vollen Auflösung nutzen konnte da die Karte nur max. 1600x1200 unterstützte. Am analogen VGA der selben Karte konnte ich jedoch die volle Auflösung benutzen. Musste die Karte trotzdem wechseln weil ich zwei gleiche Monitore dran hänge, beide 20" mit 1680x1050. Einer am VGA, der andere am DVI.

Hademar2 25.03.2007 14:16

Man mag es kaum glauben, aber selbst die Hersteller geben einem hier falsche Informationen. ich hatte das selbe Problem mit der Auflösung bei einer vorhandenen AGP-GraKa. Nachdem der Monitor angeschlossen war, hatte ich auch die Auswahl für die gewünschte Auflösung. Und das obwohl der Hersteller behauptet hat, die Karte könne das nicht!

Tom 30.03.2007 23:47

Kurze Rückmeldung:

Meine ATI Radeon 9200 kann tatsächlich 1680x1050 Pixel, auch wenn ATI es nicht angibt (allerdings geht das nur mit dem VGA-Kabel des LCD-Monitors).

Das Kabel des alten Monitors ist offenbar nicht DDE-fähig, so daß der Monitor nicht als Plug'n'Play erkannt wird sondern als Standardmonitor, der dann diese Auflösung nicht kann.

Mit der Bildwiedergabe über Analog-VGA bin ich vorerst angenehm überrascht...

Tom :cool:


Alle Zeitangaben in WEZ +2. Es ist jetzt 20:40 Uhr.