SonyUserforum
Amazon
Forum für die Fotosysteme von Sony und KonicaMinolta
  SonyUserforum - Forum für die Fotosysteme
von Sony und KonicaMinolta
 
Registrieren Rund ums Bild Galerie Objektiv-Datenbank Kalender Forenregeln Nützliches

Startseite » Forenübersicht » Kamera und Technik » Zubehör » LCD-Monitor 1680x1050 an Standardgrafikkarte?
Antwort
 
Themen-Optionen Ansicht
Alt 23.03.2007, 14:35   #11
giusi83
 
 
Registriert seit: 21.10.2005
Ort: Zürich
Beiträge: 845
Bei den meisten Karten, kannst du die Auflösung manuell angeben.. Sollte also funktionieren..
__________________
Grüsse aus Zürich
Giusi
giusi83 ist offline   Mit Zitat antworten
Sponsored Links
Alt 23.03.2007, 15:09   #12
falkII
 
 
Registriert seit: 11.08.2006
Ort: Oberhausen
Beiträge: 230
Zitat:
Zitat von Tom Beitrag anzeigen
Ähm... spielt die ganze Überlegung zum Interpolieren oder nicht eigentlich eine Rolle, wenn ich den Analog-VGA-Anschluß verwende?

Die ATI Radeon 9200 hat nämlich noch kein DVI...
IMHO ja, ich verwende eine EIZO an einer alten Karte ohne DVI und der Unterschied ist sehr deutlich erkennbar. Feine LInien werden deutlich klarer dargestellt und das Bild wirkt insgesamt schärfer. Auch ist der Verfügbare Desktop nun deutlich größer!

Einstellung auf die neue Auflösung (kein Widescreen) lief sowohl unter Windows, als auch Mandrake LInux ohne Probleme. Neuer Glanz in alter Hütte!
falkII ist offline   Mit Zitat antworten
Alt 23.03.2007, 16:16   #13
webwolfs
 
 
Registriert seit: 21.05.2004
Beiträge: 1.573
Zitat:
Zitat von falkII Beitrag anzeigen
IMHO ja, ich verwende eine EIZO an einer alten Karte ohne DVI und der Unterschied ist sehr deutlich erkennbar. Feine LInien werden deutlich klarer dargestellt und das Bild wirkt insgesamt schärfer. Auch ist der Verfügbare Desktop nun deutlich größer!

Einstellung auf die neue Auflösung (kein Widescreen) lief sowohl unter Windows, als auch Mandrake LInux ohne Probleme. Neuer Glanz in alter Hütte!
Es gibt aber auch 9200er-Karten mit DVI. Bei mir läuft so eine.

Bei Anschluss über VGA sind bei den Grafikkarten oft die analogen Signalspannungen nicht sauber genug. Gerade bei hohen Auflösungen wirkt das Bild dann matschig. Da hilft dann auch kein Einstellen.

Da wirst Du ggf. eine DVI-Karte brauchen.
__________________
mfp - mit freundlichen Pfoten

Webwolfs
webwolfs ist offline   Mit Zitat antworten
Alt 23.03.2007, 17:20   #14
Tom

Themenersteller
 
 
Registriert seit: 08.09.2003
Beiträge: 4.424
Vielen Dank für Eure Hilfe.

Habe eben den Monitor bestellt und werde dann ja sehen ob alles so funktioniert, wie ich mir das gedacht habe...

Notfalls gibt es ja noch die Rückgabemöglchkeit.

Gruß
Tom
Tom ist offline   Mit Zitat antworten
Alt 23.03.2007, 18:59   #15
falkII
 
 
Registriert seit: 11.08.2006
Ort: Oberhausen
Beiträge: 230
Zitat:
Zitat von webwolfs Beitrag anzeigen
Es gibt aber auch 9200er-Karten mit DVI. Bei mir läuft so eine.

Bei Anschluss über VGA sind bei den Grafikkarten oft die analogen Signalspannungen nicht sauber genug. Gerade bei hohen Auflösungen wirkt das Bild dann matschig. Da hilft dann auch kein Einstellen.

Da wirst Du ggf. eine DVI-Karte brauchen.
Also bisher sehe ich da keinen Grund für die alte TNT2 rauszuwerfen, von matschig keine Spur. Im Gegensatz zur alten Medion Röhre jedenfalls ein merklicher Fortschritt, gerade was kleine Texte betrifft!

Außerdem dient das gute Stück nur am zweit-Rechner für meine Mum, da brauch es kein DVI...
falkII ist offline   Mit Zitat antworten
Sponsored Links
Alt 23.03.2007, 20:13   #16
bianchifan
 
 
Registriert seit: 13.11.2006
Ort: Wuppertal
Beiträge: 426
Zitat:
Zitat von Tom Beitrag anzeigen
Ähm... spielt die ganze Überlegung zum Interpolieren oder nicht eigentlich eine Rolle, wenn ich den Analog-VGA-Anschluß verwende?
Natürlich, ein LCD muss Interpolieren, sobald Du eine andere Auflösng als seine "native" verwendest, dass ist von der Schnittstelle unabhängig.
Zu VGA, das ist eine analoge Schnittstelle, für zufriedenstellende Resultate müssen beide Seiten mitspielen, Graka und Monitor Elektronik, das VGA-Kabel dazwischen nicht zu vergessen. Kapazitive Belastungen, Knickstellen e.t.c wirken sich unmittelbar auf die Bildqualität aus. Matrox-Karten haben einen hervorragenden VGA-Ausgang, ATIs sind unterschiedlich. Die Schwachstelle vermute ich beim Monitor, ich unterstelle mal blind, dass die VGA z.Zt. nur aus Kompatibilitätsgründen drin ist, da noch nicht alle Grakas auf DVI setzen.
Nicht dasWischiwaschi einer interpolierten Auflösung ist da das Dilemma, sondern die Farbreinheit und der Kontrast. Mit hoher Wahrscheinlichkeit erhälst Du im VGA-Betrieb nicht die maximal möglichen Kontrastwerte, gesausowenig die maximale Brillanz.
Für Word und Webbrowser ist das wurscht, für Bildbearbeitungsprogramme aber nun überhaupt nicht, von daher ist eine digitale Schnittstelle vorzuziehen.
bianchifan ist offline   Mit Zitat antworten
Alt 24.03.2007, 23:57   #17
LensView
 
 
Registriert seit: 08.05.2006
Ort: Luxemburg
Beiträge: 486
Ich hab die Erfahrung gemacht daß ich einen 1680x1050 LCD an meiner alten Karte nicht übers DVI in der vollen Auflösung nutzen konnte da die Karte nur max. 1600x1200 unterstützte. Am analogen VGA der selben Karte konnte ich jedoch die volle Auflösung benutzen. Musste die Karte trotzdem wechseln weil ich zwei gleiche Monitore dran hänge, beide 20" mit 1680x1050. Einer am VGA, der andere am DVI.
__________________
Carlo
LensView ist offline   Mit Zitat antworten
Alt 25.03.2007, 14:16   #18
Hademar2
 
 
Registriert seit: 30.04.2006
Beiträge: 3.716
Man mag es kaum glauben, aber selbst die Hersteller geben einem hier falsche Informationen. ich hatte das selbe Problem mit der Auflösung bei einer vorhandenen AGP-GraKa. Nachdem der Monitor angeschlossen war, hatte ich auch die Auswahl für die gewünschte Auflösung. Und das obwohl der Hersteller behauptet hat, die Karte könne das nicht!
__________________
H.-D. M., der sicher das ganze Jahr 2008 brav gewesen ist und deshalb vom Weihnachtsmann die Alpha 900 bekommen hat!
Hademar2 ist offline   Mit Zitat antworten
Alt 30.03.2007, 23:47   #19
Tom

Themenersteller
 
 
Registriert seit: 08.09.2003
Beiträge: 4.424
Kurze Rückmeldung:

Meine ATI Radeon 9200 kann tatsächlich 1680x1050 Pixel, auch wenn ATI es nicht angibt (allerdings geht das nur mit dem VGA-Kabel des LCD-Monitors).

Das Kabel des alten Monitors ist offenbar nicht DDE-fähig, so daß der Monitor nicht als Plug'n'Play erkannt wird sondern als Standardmonitor, der dann diese Auflösung nicht kann.

Mit der Bildwiedergabe über Analog-VGA bin ich vorerst angenehm überrascht...

Tom

Geändert von Tom (01.04.2007 um 11:22 Uhr)
Tom ist offline   Mit Zitat antworten
Antwort
Startseite » Forenübersicht » Kamera und Technik » Zubehör » LCD-Monitor 1680x1050 an Standardgrafikkarte?


Forenregeln
Es ist dir nicht erlaubt, neue Themen zu verfassen.
Es ist dir nicht erlaubt, auf Beiträge zu antworten.
Es ist dir nicht erlaubt, Anhänge hochzuladen.
Es ist dir nicht erlaubt, deine Beiträge zu bearbeiten.

BB-Code ist an.
Smileys sind an.
[IMG] Code ist an.
HTML-Code ist aus.

Gehe zu


Alle Zeitangaben in WEZ +2. Es ist jetzt 15:11 Uhr.