Forum: PC Hard- und Software nvidia Geforce FX 5700 DVI-Ausgang blinkt/schaltet immer aus und ein


von Thomas S. (Firma: Chipwerkstatt) (tom_63)


Lesenswert?

Hallo Mitwirkende,

Problem mit dem Remote ist ja gelöst. PC mit einer Asus Geforce FX 5700 
läuft VGA-Port.

Habe nun den 2. 27-Zöller mit 1920x ... am DVI-Port angeschlossen. Der 
macht mir nun Probleme. Dieser Port schaltet das Bild, bzw. die 
Ansteuerung zum Monitor je nach Belastung aus und wieder ein. Lasse ich 
ein Video über den VLC auf diesem Ausgang laufen blinkt er, und schaltet 
erst wieder wenn ich VLC zum anderen Monitor auf den VGA-Port schiebe.
Der VGA-Port funktioniert tadelos.

Habe natürlich die Elkos im Verdacht. Aber weil da Oscon's mit 1200uF 
und diverse weitere Elkos da sind wollte ich hier mal nachfragen, bevor 
ich wild Huckepack löte, ob jemand dies schon mal hatte, und welche 
Elkos für den DVI-Ausgang am Sterben sein könnten. Es sind halt ca. 20 
Elkos und ich wollte da nicht sinnlos die Platine vermurksen.

: Bearbeitet durch User
von Rene K. (xdraconix)


Lesenswert?

Das ist eine 22 Jahre alte Grafikkarte! Kauf dir was aktuelleres! Jeder 
Cent und jede Sekunde Zeit die du da rein investiert ist reinste 
vergeutung.

von Thomas S. (Firma: Chipwerkstatt) (tom_63)


Lesenswert?

Rene K. schrieb:
> Jeder
> Cent und jede Sekunde Zeit die du da rein investiert ist reinste
> vergeutung.

Das lass mal meine Sorge sein.

Produktive Beiträge sind gerne willkomen.

Rene K. schrieb:
> Kauf dir was aktuelleres!

Arbeitest Du bei MediaMarkt oder vergleichbar ? Wäre ein Ansatz.

von Rene K. (xdraconix)


Lesenswert?

Dann rechne mal ganz einfach aus wie viel VRAM du für 1080p brauchst. 
Ich weiß nicht wie hoch die Auflösung des VGA Monitors ist... Dann 
rechne das da dazu... Und dann entscheide selbst ob es sinnvoll ist eine 
Graka mit 128MB VRAM noch betreiben zu wollen, wenn eigentlich jedes DX 
auch noch die Frames dahinpuffern will.

Unglaublich, den Mars bewohnbar machen wollen - aber mit ner 
Pferdekutsche hinfliegen wollen.

P.s.: wer sich im Mediamarkt ne Grafikkarte kauft hat die gesamte 
Kontrolle über sein Leben verloren!

: Bearbeitet durch User
von Thomas S. (Firma: Chipwerkstatt) (tom_63)


Lesenswert?

Rene K. schrieb:
> Dann rechne mal ganz einfach aus wie viel VRAM du für 1080p brauchst.
> Ich weiß nicht wie hoch die Auflösung des VGA Monitors ist... Dann
> rechne das da dazu...

2 x 1920x1024 TrueColor. Die Karte macht es. Ich spiele nicht damit.
Auch beim Anschluss NUR an den DVI-Port geht der Monitor nicht richtig 
an, bzw. blinkt. Und egal welcher Monitor. Es liegt an der GraKa.

Zum Spielen kommt evtl. dann ein AMD Ryzen Threadripper mit 256 GB Ram 
zum Einsatz. Und einer entsprechenden GraKa. Genügt das?

Meine Variante hat im Übrigen 256 MB Speicher.

: Bearbeitet durch User
von Rbx (rcx)


Lesenswert?

Thomas S. schrieb:
> Es sind halt ca. 20
> Elkos und ich wollte da nicht sinnlos die Platine vermurksen.

Vorsichtiger Backofenrefresh?

von Thomas S. (Firma: Chipwerkstatt) (tom_63)


Lesenswert?

Rbx schrieb:
> Vorsichtiger Backofenrefresh?

Denkst Du da an den Grafik-Chip selbst? - VGA geht problemlos, Stunden, 
Tage, endlos.

von Lotta  . (mercedes)


Lesenswert?

Thomas S. schrieb:
> Zum Spielen kommt evtl. dann ein AMD Ryzen Threadripper mit 256 GB Ram
> zum Einsatz. Und einer entsprechenden GraKa. Genügt das?
>
Zum Spielen ist der zu schade, aber zum Prorammieren (pair programming)
kannst Du ihn wunderbar benutzen, mittels Ollama, wenn Du als Graka ne
4090 einsetzt.
>
Wenn Du Heißluft hast, kannst Du den DVI - Bereich vorsichtig nachlöten,
alles andere macht die Sache nur schlimmer und lohnt sich nicht.

mfg

von Thomas S. (Firma: Chipwerkstatt) (tom_63)


Lesenswert?

Lotta  . schrieb:
> wenn Du als Graka ne
> 4090 einsetzt.

Sind da nicht 24GB 'etwas' unterdimensioniert? - Wenn schon der 
Arbeitsspeicher 256 GB hat?

Ollama klingt interessant.

von Lotta  . (mercedes)


Lesenswert?

Thomas S. schrieb:
> Lotta  . schrieb:
>> wenn Du als Graka ne
>> 4090 einsetzt.
>
> Sind da nicht 24GB 'etwas' unterdimensioniert? - Wenn schon der
> Arbeitsspeicher 256 GB hat?
>
Wenn Dein Motherboard "resize bar" unterstützt, benutzt die Grafikkarte
auch Arbeitsspeicher.
Leider ist Ollama noch nicht soweit und lädt das entsprechende
Modell in den VRAM und swappt dann. Dann fängt die Sache an zu ruckeln.

> Ollama klingt interessant.
Genau. Mit dem Modellen Mistral3.1 oder Deepcoder.

mfg

von Ben B. (Firma: Funkenflug Industries) (stromkraft)


Lesenswert?

Immer diese Computerschrott-Probleme.

Ich habe vor zwei Tagen 'nen Xeon Gold 6132 im Schrott gefunden. Leider 
ohne das dazugehörige Mainboard oder den passendenden Server -> das Ding 
wird nie wieder Strom sehen.

Ich finde es nur interessant, wie sehr sich manche Leute um so alte 
Hardware kümmern, die selbst in meinen Augen wirklich Schrott ist. Oder 
was inzwischen für ein lauffähiges 486er Board bezahlt wird. Wozu 
braucht man sowas?

von Lotta  . (mercedes)


Lesenswert?

Ben B. schrieb:
> Immer diese Computerschrott-Probleme.
>
> Ich habe vor zwei Tagen 'nen Xeon Gold 6132 im Schrott gefunden. Leider
> ohne das dazugehörige Mainboard oder den passendenden Server -> das Ding
> wird nie wieder Strom sehen.
>
> Ich finde es nur interessant, wie sehr sich manche Leute um so alte
> Hardware kümmern, die selbst in meinen Augen wirklich Schrott ist. Oder
> was inzwischen für ein lauffähiges 486er Board bezahlt wird. Wozu
> braucht man sowas?

ich hab sogar ne Netzanode gebaut.
Die betreibt gerad ein magisches Auge, das in meiner
Meßbrücke als Nullindikator dient.

Röhrentechnik riecht einfach besser!  ;-P

mfg

von Rene K. (xdraconix)


Lesenswert?

Ben B. schrieb:
> Ich finde es nur interessant, wie sehr sich manche Leute um so alte
> Hardware kümmern, die selbst in meinen Augen wirklich Schrott ist.

Ja, denn selbst der VideoCore VII des Raspberry ist schon das 5-fache 
schneller als die FX 5700. Da mag ich mir garnicht vorstellen wie das 
unterliegende System da dann ausschaut.


Zum eigentlich Thema bleibt nur eines zu sagen: der DVI Anschluss seiner 
FX 5700 beherrscht nicht einmal seine 1920x1024 - der kann eine maximale 
Auflösung von 1600 x 1200 via DVI. Das deckt sich auch mit seiner 
Aussage über VGA... dort kann der NV36 (Die GPU einer FX 5700) maximal 
2048 x 1536.

Wenn man da natürlich ein Gerät weit außerhalb seiner Spezifikation 
betreibt, da braucht man sich nicht über "komisches" Verhalten wundern.


BTW: Thema Gaming - ein Threadripper ist ein Arbeitsmonster! Geiles 
Teil! Habe ich selber in meiner VFX Worktsation. Aber zum Spielen eher 
ungeeignet, ebenso die 256GB Ram. Spiele heutzutage sind noch immer auf 
Rohe Leistung ausgelegt und weniger auf MultiCore. Die 256GB RAM ebenso 
- da dort wegen des Banking eine zu hohe Latenz herscht.

Zum Spielen und testen (bin im 3D Bereich tätig) nutze ich daher ein 
Ryzen 9 9800X3D mit 64GB Ram im Dual Channel - sowie (seit zwei Wochen) 
eine RTX 5080.

Das Ding kostet nichtmal die Hälfte meines Threadrippers, schlägt diesen 
um weiten. Jede Maschine hat halt ihren Zweck und ihre 
Daseinsberechtigung - allerdings erschließt sich mir dies nicht bei 
einer FX 5700!)

: Bearbeitet durch User
von Thomas S. (Firma: Chipwerkstatt) (tom_63)


Lesenswert?

Rene K. schrieb:
> der kann eine maximale
> Auflösung von 1600 x 1200 via DVI.

Und warum bietet dann der nvidia Treiber auf BEIDEN Ausgängen dann 
1920x1080 an? - mit 60 Hz.

Rene K. schrieb:
> Wenn man da natürlich ein Gerät weit außerhalb seiner Spezifikation
> betreibt, da braucht man sich nicht über "komisches" Verhalten wundern.

Wie soll das gehen? - Das Flyout bietet mir genau das an.

: Bearbeitet durch User
von Rbx (rcx)


Lesenswert?

Steam hatte vor einiger Zeit Statistiken erstellt, man konnte sehen, 
dass die Mehrheit der Spieler Intel-Cpus und Nvidia-Karten einsetzen. 
Wundert mich übrigens auch nicht.

von Rene K. (xdraconix)


Lesenswert?

Thomas S. schrieb:
> Rene K. schrieb:
>> der kann eine maximale
>> Auflösung von 1600 x 1200 via DVI.
>
> Und warum bietet dann der nvidia Treiber auf BEIDEN Ausgängen dann
> 1920x1080 an? - mit 60 Hz.
>
> Rene K. schrieb:
>> Wenn man da natürlich ein Gerät weit außerhalb seiner Spezifikation
>> betreibt, da braucht man sich nicht über "komisches" Verhalten wundern.
>
> Wie soll das gehen? - Das Flyout bietet mir genau das an.

Der Bäcker bietet dir auch 100 Semmeln an, du kannst sie aber nicht alle 
essen!

Egal was dein Treiber (welcher Treiber und welchem BS) dir da anbietet: 
Es ist außerhalb der Spezifikation!

von Rene K. (xdraconix)


Lesenswert?

Rbx schrieb:
> Intel-Cpus und Nvidia-Karten

Ja die Kombi Intel/nVidia war lange Zeit ungeschlagen. Seit Zen 4 
allerdings biegt sich da das Blatt. Nun mit Zen 5 sieht Intel in diesem 
Bereich kein Licht mehr. Die einzigste CPU die nun noch "oben" mitspielt 
ist der Core Ultra i9 285K. Aber auch der liegt weit abgeschlagen hinter 
den Zen 5 9xxxX3D.

Von der P/L dann auch nochmal ganz abgesehen - die brettert da auch noch 
dazu.

von Rbx (rcx)


Lesenswert?

Rene K. schrieb:
> Ja die Kombi Intel/nVidia war lange Zeit ungeschlagen.

Mir war noch etwas anderes aufgefallen. Die Statistiken zeigten auch, 
dass die Intel-Cpus im Einsatz gar nicht so sehr hoch takteten, was mich 
zur Vermutung verleitete, dass viele PC-Gamer schon auf NBs umgestiegen 
sind.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.