Forum: PC Hard- und Software nvidia Geforce FX 5700 DVI-Ausgang blinkt/schaltet immer aus und ein


Announcement: there is an English version of this forum on EmbDev.net. Posts you create there will be displayed on Mikrocontroller.net and EmbDev.net.
von Thomas S. (Firma: Chipwerkstatt) (tom_63)


Lesenswert?

Hallo Mitwirkende,

Problem mit dem Remote ist ja gelöst. PC mit einer Asus Geforce FX 5700 
läuft VGA-Port.

Habe nun den 2. 27-Zöller mit 1920x ... am DVI-Port angeschlossen. Der 
macht mir nun Probleme. Dieser Port schaltet das Bild, bzw. die 
Ansteuerung zum Monitor je nach Belastung aus und wieder ein. Lasse ich 
ein Video über den VLC auf diesem Ausgang laufen blinkt er, und schaltet 
erst wieder wenn ich VLC zum anderen Monitor auf den VGA-Port schiebe.
Der VGA-Port funktioniert tadelos.

Habe natürlich die Elkos im Verdacht. Aber weil da Oscon's mit 1200uF 
und diverse weitere Elkos da sind wollte ich hier mal nachfragen, bevor 
ich wild Huckepack löte, ob jemand dies schon mal hatte, und welche 
Elkos für den DVI-Ausgang am Sterben sein könnten. Es sind halt ca. 20 
Elkos und ich wollte da nicht sinnlos die Platine vermurksen.

: Bearbeitet durch User
von Rene K. (xdraconix)


Lesenswert?

Das ist eine 22 Jahre alte Grafikkarte! Kauf dir was aktuelleres! Jeder 
Cent und jede Sekunde Zeit die du da rein investiert ist reinste 
vergeutung.

von Thomas S. (Firma: Chipwerkstatt) (tom_63)


Lesenswert?

Rene K. schrieb:
> Jeder
> Cent und jede Sekunde Zeit die du da rein investiert ist reinste
> vergeutung.

Das lass mal meine Sorge sein.

Produktive Beiträge sind gerne willkomen.

Rene K. schrieb:
> Kauf dir was aktuelleres!

Arbeitest Du bei MediaMarkt oder vergleichbar ? Wäre ein Ansatz.

von Rene K. (xdraconix)


Lesenswert?

Dann rechne mal ganz einfach aus wie viel VRAM du für 1080p brauchst. 
Ich weiß nicht wie hoch die Auflösung des VGA Monitors ist... Dann 
rechne das da dazu... Und dann entscheide selbst ob es sinnvoll ist eine 
Graka mit 128MB VRAM noch betreiben zu wollen, wenn eigentlich jedes DX 
auch noch die Frames dahinpuffern will.

Unglaublich, den Mars bewohnbar machen wollen - aber mit ner 
Pferdekutsche hinfliegen wollen.

P.s.: wer sich im Mediamarkt ne Grafikkarte kauft hat die gesamte 
Kontrolle über sein Leben verloren!

: Bearbeitet durch User
von Thomas S. (Firma: Chipwerkstatt) (tom_63)


Lesenswert?

Rene K. schrieb:
> Dann rechne mal ganz einfach aus wie viel VRAM du für 1080p brauchst.
> Ich weiß nicht wie hoch die Auflösung des VGA Monitors ist... Dann
> rechne das da dazu...

2 x 1920x1024 TrueColor. Die Karte macht es. Ich spiele nicht damit.
Auch beim Anschluss NUR an den DVI-Port geht der Monitor nicht richtig 
an, bzw. blinkt. Und egal welcher Monitor. Es liegt an der GraKa.

Zum Spielen kommt evtl. dann ein AMD Ryzen Threadripper mit 256 GB Ram 
zum Einsatz. Und einer entsprechenden GraKa. Genügt das?

Meine Variante hat im Übrigen 256 MB Speicher.

: Bearbeitet durch User
von Rbx (rcx)


Lesenswert?

Thomas S. schrieb:
> Es sind halt ca. 20
> Elkos und ich wollte da nicht sinnlos die Platine vermurksen.

Vorsichtiger Backofenrefresh?

von Thomas S. (Firma: Chipwerkstatt) (tom_63)


Lesenswert?

Rbx schrieb:
> Vorsichtiger Backofenrefresh?

Denkst Du da an den Grafik-Chip selbst? - VGA geht problemlos, Stunden, 
Tage, endlos.

von Lotta  . (mercedes)


Lesenswert?

Thomas S. schrieb:
> Zum Spielen kommt evtl. dann ein AMD Ryzen Threadripper mit 256 GB Ram
> zum Einsatz. Und einer entsprechenden GraKa. Genügt das?
>
Zum Spielen ist der zu schade, aber zum Prorammieren (pair programming)
kannst Du ihn wunderbar benutzen, mittels Ollama, wenn Du als Graka ne
4090 einsetzt.
>
Wenn Du Heißluft hast, kannst Du den DVI - Bereich vorsichtig nachlöten,
alles andere macht die Sache nur schlimmer und lohnt sich nicht.

mfg

von Thomas S. (Firma: Chipwerkstatt) (tom_63)


Lesenswert?

Lotta  . schrieb:
> wenn Du als Graka ne
> 4090 einsetzt.

Sind da nicht 24GB 'etwas' unterdimensioniert? - Wenn schon der 
Arbeitsspeicher 256 GB hat?

Ollama klingt interessant.

von Lotta  . (mercedes)


Lesenswert?

Thomas S. schrieb:
> Lotta  . schrieb:
>> wenn Du als Graka ne
>> 4090 einsetzt.
>
> Sind da nicht 24GB 'etwas' unterdimensioniert? - Wenn schon der
> Arbeitsspeicher 256 GB hat?
>
Wenn Dein Motherboard "resize bar" unterstützt, benutzt die Grafikkarte
auch Arbeitsspeicher.
Leider ist Ollama noch nicht soweit und lädt das entsprechende
Modell in den VRAM und swappt dann. Dann fängt die Sache an zu ruckeln.

> Ollama klingt interessant.
Genau. Mit dem Modellen Mistral3.1 oder Deepcoder.

mfg

von Ben B. (Firma: Funkenflug Industries) (stromkraft)


Lesenswert?

Immer diese Computerschrott-Probleme.

Ich habe vor zwei Tagen 'nen Xeon Gold 6132 im Schrott gefunden. Leider 
ohne das dazugehörige Mainboard oder den passendenden Server -> das Ding 
wird nie wieder Strom sehen.

Ich finde es nur interessant, wie sehr sich manche Leute um so alte 
Hardware kümmern, die selbst in meinen Augen wirklich Schrott ist. Oder 
was inzwischen für ein lauffähiges 486er Board bezahlt wird. Wozu 
braucht man sowas?

von Lotta  . (mercedes)


Lesenswert?

Ben B. schrieb:
> Immer diese Computerschrott-Probleme.
>
> Ich habe vor zwei Tagen 'nen Xeon Gold 6132 im Schrott gefunden. Leider
> ohne das dazugehörige Mainboard oder den passendenden Server -> das Ding
> wird nie wieder Strom sehen.
>
> Ich finde es nur interessant, wie sehr sich manche Leute um so alte
> Hardware kümmern, die selbst in meinen Augen wirklich Schrott ist. Oder
> was inzwischen für ein lauffähiges 486er Board bezahlt wird. Wozu
> braucht man sowas?

ich hab sogar ne Netzanode gebaut.
Die betreibt gerad ein magisches Auge, das in meiner
Meßbrücke als Nullindikator dient.

Röhrentechnik riecht einfach besser!  ;-P

mfg

von Rene K. (xdraconix)


Lesenswert?

Ben B. schrieb:
> Ich finde es nur interessant, wie sehr sich manche Leute um so alte
> Hardware kümmern, die selbst in meinen Augen wirklich Schrott ist.

Ja, denn selbst der VideoCore VII des Raspberry ist schon das 5-fache 
schneller als die FX 5700. Da mag ich mir garnicht vorstellen wie das 
unterliegende System da dann ausschaut.


Zum eigentlich Thema bleibt nur eines zu sagen: der DVI Anschluss seiner 
FX 5700 beherrscht nicht einmal seine 1920x1024 - der kann eine maximale 
Auflösung von 1600 x 1200 via DVI. Das deckt sich auch mit seiner 
Aussage über VGA... dort kann der NV36 (Die GPU einer FX 5700) maximal 
2048 x 1536.

Wenn man da natürlich ein Gerät weit außerhalb seiner Spezifikation 
betreibt, da braucht man sich nicht über "komisches" Verhalten wundern.


BTW: Thema Gaming - ein Threadripper ist ein Arbeitsmonster! Geiles 
Teil! Habe ich selber in meiner VFX Worktsation. Aber zum Spielen eher 
ungeeignet, ebenso die 256GB Ram. Spiele heutzutage sind noch immer auf 
Rohe Leistung ausgelegt und weniger auf MultiCore. Die 256GB RAM ebenso 
- da dort wegen des Banking eine zu hohe Latenz herscht.

Zum Spielen und testen (bin im 3D Bereich tätig) nutze ich daher ein 
Ryzen 9 9800X3D mit 64GB Ram im Dual Channel - sowie (seit zwei Wochen) 
eine RTX 5080.

Das Ding kostet nichtmal die Hälfte meines Threadrippers, schlägt diesen 
um weiten. Jede Maschine hat halt ihren Zweck und ihre 
Daseinsberechtigung - allerdings erschließt sich mir dies nicht bei 
einer FX 5700!)

: Bearbeitet durch User
von Thomas S. (Firma: Chipwerkstatt) (tom_63)


Lesenswert?

Rene K. schrieb:
> der kann eine maximale
> Auflösung von 1600 x 1200 via DVI.

Und warum bietet dann der nvidia Treiber auf BEIDEN Ausgängen dann 
1920x1080 an? - mit 60 Hz.

Rene K. schrieb:
> Wenn man da natürlich ein Gerät weit außerhalb seiner Spezifikation
> betreibt, da braucht man sich nicht über "komisches" Verhalten wundern.

Wie soll das gehen? - Das Flyout bietet mir genau das an.

: Bearbeitet durch User
von Rbx (rcx)


Lesenswert?

Steam hatte vor einiger Zeit Statistiken erstellt, man konnte sehen, 
dass die Mehrheit der Spieler Intel-Cpus und Nvidia-Karten einsetzen. 
Wundert mich übrigens auch nicht.

von Rene K. (xdraconix)


Lesenswert?

Thomas S. schrieb:
> Rene K. schrieb:
>> der kann eine maximale
>> Auflösung von 1600 x 1200 via DVI.
>
> Und warum bietet dann der nvidia Treiber auf BEIDEN Ausgängen dann
> 1920x1080 an? - mit 60 Hz.
>
> Rene K. schrieb:
>> Wenn man da natürlich ein Gerät weit außerhalb seiner Spezifikation
>> betreibt, da braucht man sich nicht über "komisches" Verhalten wundern.
>
> Wie soll das gehen? - Das Flyout bietet mir genau das an.

Der Bäcker bietet dir auch 100 Semmeln an, du kannst sie aber nicht alle 
essen!

Egal was dein Treiber (welcher Treiber und welchem BS) dir da anbietet: 
Es ist außerhalb der Spezifikation!

von Rene K. (xdraconix)


Lesenswert?

Rbx schrieb:
> Intel-Cpus und Nvidia-Karten

Ja die Kombi Intel/nVidia war lange Zeit ungeschlagen. Seit Zen 4 
allerdings biegt sich da das Blatt. Nun mit Zen 5 sieht Intel in diesem 
Bereich kein Licht mehr. Die einzigste CPU die nun noch "oben" mitspielt 
ist der Core Ultra i9 285K. Aber auch der liegt weit abgeschlagen hinter 
den Zen 5 9xxxX3D.

Von der P/L dann auch nochmal ganz abgesehen - die brettert da auch noch 
dazu.

von Rbx (rcx)


Lesenswert?

Rene K. schrieb:
> Ja die Kombi Intel/nVidia war lange Zeit ungeschlagen.

Mir war noch etwas anderes aufgefallen. Die Statistiken zeigten auch, 
dass die Intel-Cpus im Einsatz gar nicht so sehr hoch takteten, was mich 
zur Vermutung verleitete, dass viele PC-Gamer schon auf NBs umgestiegen 
sind.

von Frank K. (fchk)


Lesenswert?

Rene K. schrieb:

> Zum eigentlich Thema bleibt nur eines zu sagen: der DVI Anschluss seiner
> FX 5700 beherrscht nicht einmal seine 1920x1024 - der kann eine maximale
> Auflösung von 1600 x 1200 via DVI. Das deckt sich auch mit seiner
> Aussage über VGA... dort kann der NV36 (Die GPU einer FX 5700) maximal
> 2048 x 1536.

Möglicherweise geht da doch noch was. Stichwort Reduced Blanking. Die 
Austatstlücken müssen bei LCD-Bildschirmen nicht so groß sein wie bei 
Röhren, wo der Strahl ja tatsächlich Zeit zum Rücklauf auf die linke 
Seite braucht. Wenn man die Austatslücken vertikal und horizontal 
verringert, kann man bei gleichem Pixeltakt mehr Bild übertragen. Das 
gab es bei DVI nicht von Anfang an, sondern kam erst später. Vielleicht 
ist da nur ein Bug im Grafiktreiber.

von Harald K. (kirnbichler)


Lesenswert?

Frank K. schrieb:
> Möglicherweise geht da doch noch was.

Derartig kastrierte DVI-Ausgänge gab es auch bei Matrox; die G550 hatte 
zwar einen ganz tollen DVI-Ausgang, aber die verbauten TMDS-Transceiver 
bekamen die nötige Bandbreite für UXGA (1600x1200) nicht auf die Reihe, 
sondern konnten maximal 1280x1024 ansteuern.

Aber das ist ... ein Vierteljahrhundert her. Die als Ersatz angeschaffte 
Radeon 7500 konnte das dann, hatte allerdings einen idiotischen 
Propeller.

Warum man heute noch eine Geforce FX 5700 verwenden will (die immerhin 
auch schon über 20 Jahre alt ist), entzieht sich meinem Verständnis.

Gut, vielleicht hat der Threadstarter ja noch einen PC mit dem guten 
AGP-Slot ... für den gabs die 5700 nämlich auch, nicht nur PCI oder 
dieses neumodische PCIe-Zeugs ...

von Thomas S. (Firma: Chipwerkstatt) (tom_63)


Lesenswert?

Harald K. schrieb:
> Gut, vielleicht hat der Threadstarter ja noch einen PC mit dem guten
> AGP-Slot ... für den gabs die 5700 nämlich auch, nicht nur PCI oder
> dieses neumodische PCIe-Zeugs ...

Meine Asus Geforce FX5700 (mit 256 MB) steckt in der Tat in einem Asus 
P4P800e deluxe. Und da im AGP-Slot.

Ich bin kein Spieler. Nur Office, Corel, Datenbanken, Programmieren. Da 
reicht mir das Teil. Nur grad bin ich in Platzängste am Desktop 
gekommen, und da dachte ich mir, ... steck ich halt den 2. Monitor mit 
dran. Okay, .. 1600x900 würden mir dazu auch reichen.

Ich denke aber dass die GraKa eben diesen Hardware-Defekt hat, weil auch 
beim Starten fängt der Moniter mit 'aus-ein-aus-ein an. Und da laufen 
nur 640x480 mit 50Hz?

von Harald K. (kirnbichler)


Lesenswert?

Manchmal ist die Zeit gekommen, wo man sich von Dingen trennen kann, 
einfach, weil es so weit ist.

Das würde ich mit diesem PC hier machen; gebraucht bekommt man ganz 
sicher für sehr wenig Geld oder sogar geschenkt etwas, was in jeder 
beliebigen Hinsicht besser ist - leiser, schneller etc.pp.

Klar, man kann natürlich auch noch versuchen, irgendwo eine 
neuere/andere AGP-Karte auszugraben, um damit das versteinerte Fossil zu 
füttern, aber das hat ... einfach irgendwie keinen Sinn mehr.

von Thomas S. (Firma: Chipwerkstatt) (tom_63)


Lesenswert?

Harald K. schrieb:
> Das würde ich mit diesem PC hier machen; gebraucht bekommt man ganz
> sicher für sehr wenig Geld oder sogar geschenkt etwas, was in jeder
> beliebigen Hinsicht besser ist

Da bin ich gerüstet.
Habe hier noch 2 x Asus H170 pro mit jeweils 16 GB. Um das geht es 
nicht.
Auch habe ich hier eben ein AMD Ryzen Board. Dazu bräuchte ich aber 
erstmal noch den Prozi. Das Board hat laut Vorbesitzer ein Problem. Was 
ich dazu unter der Lupe gefunden habe waren verbogenen Pins vom Sockel. 
CPU zu dem Teil kostet dann mal so 600,- +.

Warum soll ich, nur der Graka wegen nen PC neu machen? - nö

Wir sind doch hier im Microcontroller-Forum. Geht's hier nicht um die 
Technik zu erhalten? - Wenn es für den einen oder anderen keinen Sinn 
macht, fü r mich schon. Ich bin nicht NEU-geil. Was läuft, läuft. Zur 
not steige ich auf den MegaST 2 um. Mit HDD, und tralala.

von Klaus (feelfree)


Lesenswert?

Thomas S. schrieb:
> Was läuft, läuft.

Und was nicht läuft, kann weg.

von Thomas S. (Firma: Chipwerkstatt) (tom_63)


Lesenswert?

Klaus schrieb:
> Und was nicht läuft, kann weg.

Wird wieder zum laufen gebracht.

von Harald K. (kirnbichler)


Lesenswert?

Thomas S. schrieb:
> Geht's hier nicht um die Technik zu erhalten?

Technik, die erhaltenswert ist, ja, aber nicht jeden Müll.

von Thomas S. (Firma: Chipwerkstatt) (tom_63)


Lesenswert?

Harald K. schrieb:
> Technik, die erhaltenswert ist, ja, aber nicht jeden Müll

Naja ... wenn Du Müll daheim stehen hast ? - Jeder wie er mag.

Nochmal. - Mir ist es wurscht wie alt was ist, Wenn die Technik läuft, 
dann läuft sie. und wegen 2 Kondis (oder was auch immer) im Centbereich 
reparier ich das wieder. Ob ich vor der Glotze mit Chips un Cola hocke, 
oder mal was repariere, kostet mich die paar cent - die eh im Schrank 
rumgammeln.

Chips und Cola ist teurer wie die Kondis. Und der Ranzen dankt es Dir 
auch, wenn du dich mal bewegst und den Lötkolben drangsalierst.

Sorry, wenn ich unter die Gürtellinie nun gegangen bin.

Manche Tips, wie das mit der Auflösung sind ja wirklich produktiv. Wo 
ich ehrlich nicht angedacht hatte. Dachte einfach DVI macht 'locker' die 
1920 x 1080. Diese Tips schätze ich, und habs dann auch noch 
recherchiert. Dafür danke.

Aber bei anderen könnte man meinen, die wollen Umsatz bei MediaMarkt und 
Co generieren, und sind daran beteiligt.

von Harald K. (kirnbichler)


Lesenswert?

Thomas S. schrieb:
> Aber bei anderen könnte man meinen, die wollen Umsatz bei MediaMarkt und
> Co generieren, und sind daran beteiligt.

Ich habe nix von Neugerät geschrieben.

Thomas S. schrieb:
> Wenn die Technik läuft,
> dann läuft sie. und wegen 2 Kondis (oder was auch immer) im Centbereich
> reparier ich das wieder.

Dieser komische Glaube, alle Defekte hätten irgendwas mit Kondensatoren 
zu tun, erstaunlich.

Vielleicht erbarmt sich ja eines der Forenmitglieder und stellt Dir eine 
andere AGP-Graphikkarte zur Verfügung. Ich hab' meine letzte vor ein 
paar Jahren entsorgt, zusammen mit dem dazugehörenden SGI-Monitor, der 
vor einem Vierteljahrhundert mal irrwitzig teuer war (nein, ich habe 
den nicht neu angeschafft, bin ja nicht jeck), aber in Sachen 
Bildqualität auch vom 120-Euro-Monitor oder dem auf der Straße stehenden 
Monitor ("Zu verschenken, funktioniert noch") locker in die Tasche 
gesteckt wird.

Mir sind meine Augen zu kostbar, um sie mit schlechten Monitoren zu 
traktieren.

von Thomas S. (Firma: Chipwerkstatt) (tom_63)


Lesenswert?

Thomas S. schrieb:
> Wenn die Technik läuft,
> dann läuft sie. und wegen 2 Kondis (oder was auch immer) im Centbereich
> reparier ich das wieder.

Du has geschrieben:
Harald K. schrieb:
> Dieser komische Glaube, alle Defekte hätten irgendwas mit Kondensatoren
> zu tun, erstaunlich.

Vergleiche mal! - Hinweis, die Ergänzung :(oder was auch immer)
sagt aus, es kann auch was anderes sein.

von Rene K. (xdraconix)


Lesenswert?

Thomas S. schrieb:
> Naja ... wenn Du Müll daheim stehen hast ? - Jeder wie er mag.

Nein, wir haben eben nicht Müll in Form einer defekten F5700 zu Hause 
liegen. (welche eigentlich garnicht defekt ist, sondern einfach nur 
nicht tauglich)

Wir entsorgen solche Sachen! Das älteste was ich hier noch zu Hause 
habe, was ich dir wirklich schenken würde ist eine Quadro FX1800 - die 
schafft über DVI auch weit mehr als deine geforderte Auflösung - Die hat 
sogar solch modernen Schnick-Schnack wie DisplayPort! Aber halt... 
PCIe... tja...

von Thomas S. (Firma: Chipwerkstatt) (tom_63)


Lesenswert?

Rene K. schrieb:
> Nein, wir haben eben nicht Müll in Form einer defekten F5700

F5700 .... sagt mir nix.

Rene K. schrieb:
> was ich dir wirklich schenken würde ist eine Quadro FX1800

Danke fürs Angebot. ich habe hier noch einen PC mit einer Quadro4000

Ich denke eine Quadro 4000 reicht mir dann bis zum ...

Rene K. schrieb:
> Wir entsorgen solche Sachen!
Würde ich mit einer F5700 (ohne X) auch machen.

Rene K. schrieb:
> (welche eigentlich garnicht defekt ist, sondern einfach nur
> nicht tauglich)
das sagts Du. Sie geht auch nicht konstant mit 640x480, oder im BIOS.
Die hat nen Fehler. Ist auch mit Kältespray reproduzierbar.

Nochmal.
Es ist mir egal wie alt meine Hardware ist. Solange sie tut, und ich 
meinen Part damit schaffe, kann sie 100 Jahre werden. Und wenn Microsoft 
meint, immer stärkere Hardware zu fordern, dann soll es so sein. Dann 
bleib ich bei XP komplett stehen.

Und wenn sie defekt ist, versuche ich diese zu reparieren. Beim 
Graka-Chip hörts natürlich auf.

Und dann könnte ich noch auf einen Atari MegaST mit rieeesen Speicher, 
und SCSI-Festplatte zurückgreifen.

Ich denke dass die ein Controller/Elektronik/Bastel -Forum ist, wo man 
sich austauscht. Anscheinend sind hier irgendwelche Hasen, die bei Media 
und Co arbeiten, und hierüber Kunden ziehen wollen.

Also nochmal: Wenn hier welche sind, die mit mir ergründen wollen, warum 
dies so ist gern. Ansonsten, nur um nichtsbringende Antworten - Bleibt 
bitte vor der Tür.

von Rene K. (xdraconix)


Lesenswert?

Oha, jetzt wird sich an nem fehlenden X aufgegeilt... Leute gibts. 
Nunja, unverbesserlich würde meine bessere Hälfte da sagen.

von Thomas S. (Firma: Chipwerkstatt) (tom_63)


Lesenswert?

Rene K. schrieb:
> ha, jetzt wird sich an nem fehlenden X aufgegeilt... Leute gibts.

Du verstehst wohl auch keinen Spaß ? - Aber Müll ist se trotzdem nicht. 
Sie tut seit Jahren ihren Dienst, ohne zu knurren.

Mann, ich hab bislang den DVI von der Karte nie gebraucht, und deshalb 
nicht bemerkt, dass da evtl. was defekt ist.

: Bearbeitet durch User
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.