Archiv verlassen und diese Seite im Standarddesign anzeigen : LCD-Monitor 1680x1050 an Standardgrafikkarte?
Hallo,
ich habe vor einen 22" Widescreen-LCD-Monitor zu bestellen (16:10 Seitenverhältnis, 1680x1050 Pixel).
Bisher habe ich aber keine Grafikkarten gefunden, die diese Auflösung ausdrücklich unterstützen (auch keine teuren Karten bis 250 Euro), was mich doch sehr verwundert.
Kann es sein, daß diese Auflösung trotzdem funktioniert, ohne daß die in der Spec erwähnt wird?
Ich wollte meine ATI Radeon 9200/9250-Karten (in 2 PCs) eigentlich weiterverwenden, aber selbst ATI konnte meine Anfrage nicht definitiv beantworten.
Stattdessen habe ich den Hinweis auf einen Treiber von http://www.entechtaiwan.com erhalten, mit dem das funktionieren soll.
Ich nehme an, daß das Grafikkarten-Tuning-Tool Powerstrip gemeint ist.
http://www.chip.de/downloads/c1_downloads_12997992.html
Kann mir vielleicht jemand von Euch etwas zum Betrieb von 16:10 Widescreen-Monitoren (1680x1050) sagen?
Gruß Tom
Hallo
habe mal ein bisschen gegoogelt und laut verschiedener Seite müsste die Karte bis max. Auflösung : 2048x1536 schaffen.
Bei eimem Freund schafft es selbst die billigste Nvidia Karte 1680x1050 Pixel.
den aktueller Treiber solltest du eventuell installieren.
Also ich sehe da kein Problem.:top:
Gruß Thomas
Ach so, ich habe vergessen dazuzusagen, daß der LCD-Monitor bei der Auflösung 1680x1050 Pixel keinesfalls interpolieren soll, also die Grafikkarte die original-LCD-Auflösung ansteuern muß.
ich habe vor einen 22" Widescreen-LCD-Monitor zu bestellen (16:10 Seitenverhältnis, 1680x1050 Pixel).
Bisher habe ich aber keine Grafikkarten gefunden, die diese Auflösung ausdrücklich unterstützen (auch keine teuren Karten bis 250 Euro), was mich doch sehr verwundert.
Kann es sein, daß diese Auflösung trotzdem funktioniert, ohne daß die in der Spec erwähnt wird?
Ja, kann sein. :-)
Üblicherweise werden 3x4-Auflösungen angegeben, also etwa 1400x1050. Wenn du nun ein Breitbilddisplay hast, können viele Grafikkarten andere Seitenverhältnisse auch unterstützen, solange die längere Seite unter der maximal möglichen Größe ist.
Tobi
Ähm... spielt die ganze Überlegung zum Interpolieren oder nicht eigentlich eine Rolle, wenn ich den Analog-VGA-Anschluß verwende?
Die ATI Radeon 9200 hat nämlich noch kein DVI...:roll:
Ich hatte vor kurzem ein ähnliches Problem.
Ein 19" Wide TFT mit 1440x900 sollte an einen älteren PC. Die GraKa unterstützte aber leider genau diese Auflösung nicht (auch nicht mit neuen Treibern).
Mit Powerstrip läuft es jetzt wunderbar - 1440x900 und das mit ner alten Geforce 2 MX.:D
Ach so, ich habe vegessen dazuzusagen, daß der LCD-Monitor bei der Auflösung 1680x1050 Pixel keinesfalls interpolieren soll, also die Grafikkarte die original-LCD-Auflösung ansteuern muß.
Ja die karte kann den Monitor direkt mit 1680x1050 Pixel ansteuern.
Du musst Dir nur im Treiber-Menü nach dem anstöpsel des neuen Display die Richtige Auflösung raussuchen. Meist ist es die letzte der Liste.
Gruß Thomas
Also ich habe eben eine Exel Tabelle von Sapphire gefunden das steht das der Chip der Radeon 9200 (RV280) eine Maximale Auflösung von 2048x1536 schafft.
da sollten mit aktuellen Treiber der auch 16:10 unterstüzt , 1680x1050. kein Problem darstellen.
Gruß Thomas
bianchifan
23.03.2007, 13:46
daß der LCD-Monitor bei der Auflösung 1680x1050 Pixel keinesfalls interpolieren soll
Bei der Auflösung wird 1680x1050 wird der Monitor nie interplolieren, er interpoliert bei Ansteuerung in einer anderen Auflösung, z.B. 1400x1024 oder 640x480.
Der 9200 ist bereits was älter.., mit dem neuesten Catalyst sollte der die Auflösung trotzdem schaffen, schau Dich trotzdem bei Gelegenheit mal nach ner DVi-Karte um..
:roll: Bei der Auflösung wird 1680x1050 wird der Monitor nie interplolieren, er interpoliert bei Ansteuerung in einer anderen Auflösung, z.B. 1400x1024 oder 640x480...
Mir ist das schon klar, daß ein LCD bei jeder von der physikalische LCD-Auflösung abweichenden Auflösungen interpolieren muß.
Ich habe das nur noch mal gezielt nachgefragt, weil das ja nicht jedem, der meine Frage gelesen hat auf Anhieb klar sein mußte...
Ein Kollege von mir sagte:
Schließ an - geht!
Daß der Monitor "was" anzeigt ("geht") ist klar, nur wie gut, das ist die Frage...
Der 9200 ist bereits was älter.., mit dem neuesten Catalyst sollte der die Auflösung trotzdem schaffen, schau Dich trotzdem bei Gelegenheit mal nach ner DVi-Karte um..
OK, die 9200er hat keinen DVI, werde mich gelegentlich nach Ersatz umsehen.
Die 9250er in meinem 2. PC scheint DVI zu haben, zumindest nach dem, was ich eben im Net gefunden habe.
So kann ich ja einen direkten Qualitäts-Vergleich machen...;)
Was meinst Du denn hierzu:
Spielt die ganze Überlegung zum Interpolieren oder nicht eigentlich eine Rolle, wenn ich den Analog-VGA-Anschluß verwende?
Tom
Bei den meisten Karten, kannst du die Auflösung manuell angeben.. Sollte also funktionieren..
Ähm... spielt die ganze Überlegung zum Interpolieren oder nicht eigentlich eine Rolle, wenn ich den Analog-VGA-Anschluß verwende?
Die ATI Radeon 9200 hat nämlich noch kein DVI...:roll:
IMHO ja, ich verwende eine EIZO an einer alten Karte ohne DVI und der Unterschied ist sehr deutlich erkennbar. Feine LInien werden deutlich klarer dargestellt und das Bild wirkt insgesamt schärfer. Auch ist der Verfügbare Desktop nun deutlich größer!
Einstellung auf die neue Auflösung (kein Widescreen) lief sowohl unter Windows, als auch Mandrake LInux ohne Probleme. Neuer Glanz in alter Hütte!:D
webwolfs
23.03.2007, 16:16
IMHO ja, ich verwende eine EIZO an einer alten Karte ohne DVI und der Unterschied ist sehr deutlich erkennbar. Feine LInien werden deutlich klarer dargestellt und das Bild wirkt insgesamt schärfer. Auch ist der Verfügbare Desktop nun deutlich größer!
Einstellung auf die neue Auflösung (kein Widescreen) lief sowohl unter Windows, als auch Mandrake LInux ohne Probleme. Neuer Glanz in alter Hütte!:D
Es gibt aber auch 9200er-Karten mit DVI. Bei mir läuft so eine.
Bei Anschluss über VGA sind bei den Grafikkarten oft die analogen Signalspannungen nicht sauber genug. Gerade bei hohen Auflösungen wirkt das Bild dann matschig. Da hilft dann auch kein Einstellen.
Da wirst Du ggf. eine DVI-Karte brauchen.
Vielen Dank für Eure Hilfe. :top:
Habe eben den Monitor bestellt und werde dann ja sehen ob alles so funktioniert, wie ich mir das gedacht habe...
Notfalls gibt es ja noch die Rückgabemöglchkeit.
Gruß
Tom
Es gibt aber auch 9200er-Karten mit DVI. Bei mir läuft so eine.
Bei Anschluss über VGA sind bei den Grafikkarten oft die analogen Signalspannungen nicht sauber genug. Gerade bei hohen Auflösungen wirkt das Bild dann matschig. Da hilft dann auch kein Einstellen.
Da wirst Du ggf. eine DVI-Karte brauchen.
Also bisher sehe ich da keinen Grund für die alte TNT2 rauszuwerfen, von matschig keine Spur. Im Gegensatz zur alten Medion Röhre jedenfalls ein merklicher Fortschritt, gerade was kleine Texte betrifft!
Außerdem dient das gute Stück nur am zweit-Rechner für meine Mum, da brauch es kein DVI...
bianchifan
23.03.2007, 20:13
Ähm... spielt die ganze Überlegung zum Interpolieren oder nicht eigentlich eine Rolle, wenn ich den Analog-VGA-Anschluß verwende?
Natürlich, ein LCD muss Interpolieren, sobald Du eine andere Auflösng als seine "native" verwendest, dass ist von der Schnittstelle unabhängig.
Zu VGA, das ist eine analoge Schnittstelle, für zufriedenstellende Resultate müssen beide Seiten mitspielen, Graka und Monitor Elektronik, das VGA-Kabel dazwischen nicht zu vergessen. Kapazitive Belastungen, Knickstellen e.t.c wirken sich unmittelbar auf die Bildqualität aus. Matrox-Karten haben einen hervorragenden VGA-Ausgang, ATIs sind unterschiedlich. Die Schwachstelle vermute ich beim Monitor, ich unterstelle mal blind, dass die VGA z.Zt. nur aus Kompatibilitätsgründen drin ist, da noch nicht alle Grakas auf DVI setzen.
Nicht dasWischiwaschi einer interpolierten Auflösung ist da das Dilemma, sondern die Farbreinheit und der Kontrast. Mit hoher Wahrscheinlichkeit erhälst Du im VGA-Betrieb nicht die maximal möglichen Kontrastwerte, gesausowenig die maximale Brillanz.
Für Word und Webbrowser ist das wurscht, für Bildbearbeitungsprogramme aber nun überhaupt nicht, von daher ist eine digitale Schnittstelle vorzuziehen.
LensView
24.03.2007, 23:57
Ich hab die Erfahrung gemacht daß ich einen 1680x1050 LCD an meiner alten Karte nicht übers DVI in der vollen Auflösung nutzen konnte da die Karte nur max. 1600x1200 unterstützte. Am analogen VGA der selben Karte konnte ich jedoch die volle Auflösung benutzen. Musste die Karte trotzdem wechseln weil ich zwei gleiche Monitore dran hänge, beide 20" mit 1680x1050. Einer am VGA, der andere am DVI.
Hademar2
25.03.2007, 14:16
Man mag es kaum glauben, aber selbst die Hersteller geben einem hier falsche Informationen. ich hatte das selbe Problem mit der Auflösung bei einer vorhandenen AGP-GraKa. Nachdem der Monitor angeschlossen war, hatte ich auch die Auswahl für die gewünschte Auflösung. Und das obwohl der Hersteller behauptet hat, die Karte könne das nicht!
Kurze Rückmeldung:
Meine ATI Radeon 9200 kann tatsächlich 1680x1050 Pixel, auch wenn ATI es nicht angibt (allerdings geht das nur mit dem VGA-Kabel des LCD-Monitors).
Das Kabel des alten Monitors ist offenbar nicht DDE-fähig, so daß der Monitor nicht als Plug'n'Play erkannt wird sondern als Standardmonitor, der dann diese Auflösung nicht kann.
Mit der Bildwiedergabe über Analog-VGA bin ich vorerst angenehm überrascht...
Tom :cool: