Hallo Mitwirkende, Problem mit dem Remote ist ja gelöst. PC mit einer Asus Geforce FX 5700 läuft VGA-Port. Habe nun den 2. 27-Zöller mit 1920x ... am DVI-Port angeschlossen. Der macht mir nun Probleme. Dieser Port schaltet das Bild, bzw. die Ansteuerung zum Monitor je nach Belastung aus und wieder ein. Lasse ich ein Video über den VLC auf diesem Ausgang laufen blinkt er, und schaltet erst wieder wenn ich VLC zum anderen Monitor auf den VGA-Port schiebe. Der VGA-Port funktioniert tadelos. Habe natürlich die Elkos im Verdacht. Aber weil da Oscon's mit 1200uF und diverse weitere Elkos da sind wollte ich hier mal nachfragen, bevor ich wild Huckepack löte, ob jemand dies schon mal hatte, und welche Elkos für den DVI-Ausgang am Sterben sein könnten. Es sind halt ca. 20 Elkos und ich wollte da nicht sinnlos die Platine vermurksen.
:
Bearbeitet durch User
Das ist eine 22 Jahre alte Grafikkarte! Kauf dir was aktuelleres! Jeder Cent und jede Sekunde Zeit die du da rein investiert ist reinste vergeutung.
Rene K. schrieb: > Jeder > Cent und jede Sekunde Zeit die du da rein investiert ist reinste > vergeutung. Das lass mal meine Sorge sein. Produktive Beiträge sind gerne willkomen. Rene K. schrieb: > Kauf dir was aktuelleres! Arbeitest Du bei MediaMarkt oder vergleichbar ? Wäre ein Ansatz.
Dann rechne mal ganz einfach aus wie viel VRAM du für 1080p brauchst. Ich weiß nicht wie hoch die Auflösung des VGA Monitors ist... Dann rechne das da dazu... Und dann entscheide selbst ob es sinnvoll ist eine Graka mit 128MB VRAM noch betreiben zu wollen, wenn eigentlich jedes DX auch noch die Frames dahinpuffern will. Unglaublich, den Mars bewohnbar machen wollen - aber mit ner Pferdekutsche hinfliegen wollen. P.s.: wer sich im Mediamarkt ne Grafikkarte kauft hat die gesamte Kontrolle über sein Leben verloren!
:
Bearbeitet durch User
Rene K. schrieb: > Dann rechne mal ganz einfach aus wie viel VRAM du für 1080p brauchst. > Ich weiß nicht wie hoch die Auflösung des VGA Monitors ist... Dann > rechne das da dazu... 2 x 1920x1024 TrueColor. Die Karte macht es. Ich spiele nicht damit. Auch beim Anschluss NUR an den DVI-Port geht der Monitor nicht richtig an, bzw. blinkt. Und egal welcher Monitor. Es liegt an der GraKa. Zum Spielen kommt evtl. dann ein AMD Ryzen Threadripper mit 256 GB Ram zum Einsatz. Und einer entsprechenden GraKa. Genügt das? Meine Variante hat im Übrigen 256 MB Speicher.
:
Bearbeitet durch User
Thomas S. schrieb: > Es sind halt ca. 20 > Elkos und ich wollte da nicht sinnlos die Platine vermurksen. Vorsichtiger Backofenrefresh?
Rbx schrieb: > Vorsichtiger Backofenrefresh? Denkst Du da an den Grafik-Chip selbst? - VGA geht problemlos, Stunden, Tage, endlos.
Thomas S. schrieb: > Zum Spielen kommt evtl. dann ein AMD Ryzen Threadripper mit 256 GB Ram > zum Einsatz. Und einer entsprechenden GraKa. Genügt das? > Zum Spielen ist der zu schade, aber zum Prorammieren (pair programming) kannst Du ihn wunderbar benutzen, mittels Ollama, wenn Du als Graka ne 4090 einsetzt. > Wenn Du Heißluft hast, kannst Du den DVI - Bereich vorsichtig nachlöten, alles andere macht die Sache nur schlimmer und lohnt sich nicht. mfg
Lotta . schrieb: > wenn Du als Graka ne > 4090 einsetzt. Sind da nicht 24GB 'etwas' unterdimensioniert? - Wenn schon der Arbeitsspeicher 256 GB hat? Ollama klingt interessant.
Thomas S. schrieb: > Lotta . schrieb: >> wenn Du als Graka ne >> 4090 einsetzt. > > Sind da nicht 24GB 'etwas' unterdimensioniert? - Wenn schon der > Arbeitsspeicher 256 GB hat? > Wenn Dein Motherboard "resize bar" unterstützt, benutzt die Grafikkarte auch Arbeitsspeicher. Leider ist Ollama noch nicht soweit und lädt das entsprechende Modell in den VRAM und swappt dann. Dann fängt die Sache an zu ruckeln. > Ollama klingt interessant. Genau. Mit dem Modellen Mistral3.1 oder Deepcoder. mfg
Immer diese Computerschrott-Probleme. Ich habe vor zwei Tagen 'nen Xeon Gold 6132 im Schrott gefunden. Leider ohne das dazugehörige Mainboard oder den passendenden Server -> das Ding wird nie wieder Strom sehen. Ich finde es nur interessant, wie sehr sich manche Leute um so alte Hardware kümmern, die selbst in meinen Augen wirklich Schrott ist. Oder was inzwischen für ein lauffähiges 486er Board bezahlt wird. Wozu braucht man sowas?
Ben B. schrieb: > Immer diese Computerschrott-Probleme. > > Ich habe vor zwei Tagen 'nen Xeon Gold 6132 im Schrott gefunden. Leider > ohne das dazugehörige Mainboard oder den passendenden Server -> das Ding > wird nie wieder Strom sehen. > > Ich finde es nur interessant, wie sehr sich manche Leute um so alte > Hardware kümmern, die selbst in meinen Augen wirklich Schrott ist. Oder > was inzwischen für ein lauffähiges 486er Board bezahlt wird. Wozu > braucht man sowas? ich hab sogar ne Netzanode gebaut. Die betreibt gerad ein magisches Auge, das in meiner Meßbrücke als Nullindikator dient. Röhrentechnik riecht einfach besser! ;-P mfg
Ben B. schrieb: > Ich finde es nur interessant, wie sehr sich manche Leute um so alte > Hardware kümmern, die selbst in meinen Augen wirklich Schrott ist. Ja, denn selbst der VideoCore VII des Raspberry ist schon das 5-fache schneller als die FX 5700. Da mag ich mir garnicht vorstellen wie das unterliegende System da dann ausschaut. Zum eigentlich Thema bleibt nur eines zu sagen: der DVI Anschluss seiner FX 5700 beherrscht nicht einmal seine 1920x1024 - der kann eine maximale Auflösung von 1600 x 1200 via DVI. Das deckt sich auch mit seiner Aussage über VGA... dort kann der NV36 (Die GPU einer FX 5700) maximal 2048 x 1536. Wenn man da natürlich ein Gerät weit außerhalb seiner Spezifikation betreibt, da braucht man sich nicht über "komisches" Verhalten wundern. BTW: Thema Gaming - ein Threadripper ist ein Arbeitsmonster! Geiles Teil! Habe ich selber in meiner VFX Worktsation. Aber zum Spielen eher ungeeignet, ebenso die 256GB Ram. Spiele heutzutage sind noch immer auf Rohe Leistung ausgelegt und weniger auf MultiCore. Die 256GB RAM ebenso - da dort wegen des Banking eine zu hohe Latenz herscht. Zum Spielen und testen (bin im 3D Bereich tätig) nutze ich daher ein Ryzen 9 9800X3D mit 64GB Ram im Dual Channel - sowie (seit zwei Wochen) eine RTX 5080. Das Ding kostet nichtmal die Hälfte meines Threadrippers, schlägt diesen um weiten. Jede Maschine hat halt ihren Zweck und ihre Daseinsberechtigung - allerdings erschließt sich mir dies nicht bei einer FX 5700!)
:
Bearbeitet durch User
Rene K. schrieb: > der kann eine maximale > Auflösung von 1600 x 1200 via DVI. Und warum bietet dann der nvidia Treiber auf BEIDEN Ausgängen dann 1920x1080 an? - mit 60 Hz. Rene K. schrieb: > Wenn man da natürlich ein Gerät weit außerhalb seiner Spezifikation > betreibt, da braucht man sich nicht über "komisches" Verhalten wundern. Wie soll das gehen? - Das Flyout bietet mir genau das an.
:
Bearbeitet durch User
Steam hatte vor einiger Zeit Statistiken erstellt, man konnte sehen, dass die Mehrheit der Spieler Intel-Cpus und Nvidia-Karten einsetzen. Wundert mich übrigens auch nicht.
Thomas S. schrieb: > Rene K. schrieb: >> der kann eine maximale >> Auflösung von 1600 x 1200 via DVI. > > Und warum bietet dann der nvidia Treiber auf BEIDEN Ausgängen dann > 1920x1080 an? - mit 60 Hz. > > Rene K. schrieb: >> Wenn man da natürlich ein Gerät weit außerhalb seiner Spezifikation >> betreibt, da braucht man sich nicht über "komisches" Verhalten wundern. > > Wie soll das gehen? - Das Flyout bietet mir genau das an. Der Bäcker bietet dir auch 100 Semmeln an, du kannst sie aber nicht alle essen! Egal was dein Treiber (welcher Treiber und welchem BS) dir da anbietet: Es ist außerhalb der Spezifikation!
Rbx schrieb: > Intel-Cpus und Nvidia-Karten Ja die Kombi Intel/nVidia war lange Zeit ungeschlagen. Seit Zen 4 allerdings biegt sich da das Blatt. Nun mit Zen 5 sieht Intel in diesem Bereich kein Licht mehr. Die einzigste CPU die nun noch "oben" mitspielt ist der Core Ultra i9 285K. Aber auch der liegt weit abgeschlagen hinter den Zen 5 9xxxX3D. Von der P/L dann auch nochmal ganz abgesehen - die brettert da auch noch dazu.
Rene K. schrieb: > Ja die Kombi Intel/nVidia war lange Zeit ungeschlagen. Mir war noch etwas anderes aufgefallen. Die Statistiken zeigten auch, dass die Intel-Cpus im Einsatz gar nicht so sehr hoch takteten, was mich zur Vermutung verleitete, dass viele PC-Gamer schon auf NBs umgestiegen sind.
Rene K. schrieb: > Zum eigentlich Thema bleibt nur eines zu sagen: der DVI Anschluss seiner > FX 5700 beherrscht nicht einmal seine 1920x1024 - der kann eine maximale > Auflösung von 1600 x 1200 via DVI. Das deckt sich auch mit seiner > Aussage über VGA... dort kann der NV36 (Die GPU einer FX 5700) maximal > 2048 x 1536. Möglicherweise geht da doch noch was. Stichwort Reduced Blanking. Die Austatstlücken müssen bei LCD-Bildschirmen nicht so groß sein wie bei Röhren, wo der Strahl ja tatsächlich Zeit zum Rücklauf auf die linke Seite braucht. Wenn man die Austatslücken vertikal und horizontal verringert, kann man bei gleichem Pixeltakt mehr Bild übertragen. Das gab es bei DVI nicht von Anfang an, sondern kam erst später. Vielleicht ist da nur ein Bug im Grafiktreiber.
Frank K. schrieb: > Möglicherweise geht da doch noch was. Derartig kastrierte DVI-Ausgänge gab es auch bei Matrox; die G550 hatte zwar einen ganz tollen DVI-Ausgang, aber die verbauten TMDS-Transceiver bekamen die nötige Bandbreite für UXGA (1600x1200) nicht auf die Reihe, sondern konnten maximal 1280x1024 ansteuern. Aber das ist ... ein Vierteljahrhundert her. Die als Ersatz angeschaffte Radeon 7500 konnte das dann, hatte allerdings einen idiotischen Propeller. Warum man heute noch eine Geforce FX 5700 verwenden will (die immerhin auch schon über 20 Jahre alt ist), entzieht sich meinem Verständnis. Gut, vielleicht hat der Threadstarter ja noch einen PC mit dem guten AGP-Slot ... für den gabs die 5700 nämlich auch, nicht nur PCI oder dieses neumodische PCIe-Zeugs ...
Harald K. schrieb: > Gut, vielleicht hat der Threadstarter ja noch einen PC mit dem guten > AGP-Slot ... für den gabs die 5700 nämlich auch, nicht nur PCI oder > dieses neumodische PCIe-Zeugs ... Meine Asus Geforce FX5700 (mit 256 MB) steckt in der Tat in einem Asus P4P800e deluxe. Und da im AGP-Slot. Ich bin kein Spieler. Nur Office, Corel, Datenbanken, Programmieren. Da reicht mir das Teil. Nur grad bin ich in Platzängste am Desktop gekommen, und da dachte ich mir, ... steck ich halt den 2. Monitor mit dran. Okay, .. 1600x900 würden mir dazu auch reichen. Ich denke aber dass die GraKa eben diesen Hardware-Defekt hat, weil auch beim Starten fängt der Moniter mit 'aus-ein-aus-ein an. Und da laufen nur 640x480 mit 50Hz?
Manchmal ist die Zeit gekommen, wo man sich von Dingen trennen kann, einfach, weil es so weit ist. Das würde ich mit diesem PC hier machen; gebraucht bekommt man ganz sicher für sehr wenig Geld oder sogar geschenkt etwas, was in jeder beliebigen Hinsicht besser ist - leiser, schneller etc.pp. Klar, man kann natürlich auch noch versuchen, irgendwo eine neuere/andere AGP-Karte auszugraben, um damit das versteinerte Fossil zu füttern, aber das hat ... einfach irgendwie keinen Sinn mehr.
Harald K. schrieb: > Das würde ich mit diesem PC hier machen; gebraucht bekommt man ganz > sicher für sehr wenig Geld oder sogar geschenkt etwas, was in jeder > beliebigen Hinsicht besser ist Da bin ich gerüstet. Habe hier noch 2 x Asus H170 pro mit jeweils 16 GB. Um das geht es nicht. Auch habe ich hier eben ein AMD Ryzen Board. Dazu bräuchte ich aber erstmal noch den Prozi. Das Board hat laut Vorbesitzer ein Problem. Was ich dazu unter der Lupe gefunden habe waren verbogenen Pins vom Sockel. CPU zu dem Teil kostet dann mal so 600,- +. Warum soll ich, nur der Graka wegen nen PC neu machen? - nö Wir sind doch hier im Microcontroller-Forum. Geht's hier nicht um die Technik zu erhalten? - Wenn es für den einen oder anderen keinen Sinn macht, fü r mich schon. Ich bin nicht NEU-geil. Was läuft, läuft. Zur not steige ich auf den MegaST 2 um. Mit HDD, und tralala.
Thomas S. schrieb: > Geht's hier nicht um die Technik zu erhalten? Technik, die erhaltenswert ist, ja, aber nicht jeden Müll.
Harald K. schrieb: > Technik, die erhaltenswert ist, ja, aber nicht jeden Müll Naja ... wenn Du Müll daheim stehen hast ? - Jeder wie er mag. Nochmal. - Mir ist es wurscht wie alt was ist, Wenn die Technik läuft, dann läuft sie. und wegen 2 Kondis (oder was auch immer) im Centbereich reparier ich das wieder. Ob ich vor der Glotze mit Chips un Cola hocke, oder mal was repariere, kostet mich die paar cent - die eh im Schrank rumgammeln. Chips und Cola ist teurer wie die Kondis. Und der Ranzen dankt es Dir auch, wenn du dich mal bewegst und den Lötkolben drangsalierst. Sorry, wenn ich unter die Gürtellinie nun gegangen bin. Manche Tips, wie das mit der Auflösung sind ja wirklich produktiv. Wo ich ehrlich nicht angedacht hatte. Dachte einfach DVI macht 'locker' die 1920 x 1080. Diese Tips schätze ich, und habs dann auch noch recherchiert. Dafür danke. Aber bei anderen könnte man meinen, die wollen Umsatz bei MediaMarkt und Co generieren, und sind daran beteiligt.
Thomas S. schrieb: > Aber bei anderen könnte man meinen, die wollen Umsatz bei MediaMarkt und > Co generieren, und sind daran beteiligt. Ich habe nix von Neugerät geschrieben. Thomas S. schrieb: > Wenn die Technik läuft, > dann läuft sie. und wegen 2 Kondis (oder was auch immer) im Centbereich > reparier ich das wieder. Dieser komische Glaube, alle Defekte hätten irgendwas mit Kondensatoren zu tun, erstaunlich. Vielleicht erbarmt sich ja eines der Forenmitglieder und stellt Dir eine andere AGP-Graphikkarte zur Verfügung. Ich hab' meine letzte vor ein paar Jahren entsorgt, zusammen mit dem dazugehörenden SGI-Monitor, der vor einem Vierteljahrhundert mal irrwitzig teuer war (nein, ich habe den nicht neu angeschafft, bin ja nicht jeck), aber in Sachen Bildqualität auch vom 120-Euro-Monitor oder dem auf der Straße stehenden Monitor ("Zu verschenken, funktioniert noch") locker in die Tasche gesteckt wird. Mir sind meine Augen zu kostbar, um sie mit schlechten Monitoren zu traktieren.
Thomas S. schrieb: > Wenn die Technik läuft, > dann läuft sie. und wegen 2 Kondis (oder was auch immer) im Centbereich > reparier ich das wieder. Du has geschrieben: Harald K. schrieb: > Dieser komische Glaube, alle Defekte hätten irgendwas mit Kondensatoren > zu tun, erstaunlich. Vergleiche mal! - Hinweis, die Ergänzung :(oder was auch immer) sagt aus, es kann auch was anderes sein.
Thomas S. schrieb: > Naja ... wenn Du Müll daheim stehen hast ? - Jeder wie er mag. Nein, wir haben eben nicht Müll in Form einer defekten F5700 zu Hause liegen. (welche eigentlich garnicht defekt ist, sondern einfach nur nicht tauglich) Wir entsorgen solche Sachen! Das älteste was ich hier noch zu Hause habe, was ich dir wirklich schenken würde ist eine Quadro FX1800 - die schafft über DVI auch weit mehr als deine geforderte Auflösung - Die hat sogar solch modernen Schnick-Schnack wie DisplayPort! Aber halt... PCIe... tja...
Rene K. schrieb: > Nein, wir haben eben nicht Müll in Form einer defekten F5700 F5700 .... sagt mir nix. Rene K. schrieb: > was ich dir wirklich schenken würde ist eine Quadro FX1800 Danke fürs Angebot. ich habe hier noch einen PC mit einer Quadro4000 Ich denke eine Quadro 4000 reicht mir dann bis zum ... Rene K. schrieb: > Wir entsorgen solche Sachen! Würde ich mit einer F5700 (ohne X) auch machen. Rene K. schrieb: > (welche eigentlich garnicht defekt ist, sondern einfach nur > nicht tauglich) das sagts Du. Sie geht auch nicht konstant mit 640x480, oder im BIOS. Die hat nen Fehler. Ist auch mit Kältespray reproduzierbar. Nochmal. Es ist mir egal wie alt meine Hardware ist. Solange sie tut, und ich meinen Part damit schaffe, kann sie 100 Jahre werden. Und wenn Microsoft meint, immer stärkere Hardware zu fordern, dann soll es so sein. Dann bleib ich bei XP komplett stehen. Und wenn sie defekt ist, versuche ich diese zu reparieren. Beim Graka-Chip hörts natürlich auf. Und dann könnte ich noch auf einen Atari MegaST mit rieeesen Speicher, und SCSI-Festplatte zurückgreifen. Ich denke dass die ein Controller/Elektronik/Bastel -Forum ist, wo man sich austauscht. Anscheinend sind hier irgendwelche Hasen, die bei Media und Co arbeiten, und hierüber Kunden ziehen wollen. Also nochmal: Wenn hier welche sind, die mit mir ergründen wollen, warum dies so ist gern. Ansonsten, nur um nichtsbringende Antworten - Bleibt bitte vor der Tür.
Oha, jetzt wird sich an nem fehlenden X aufgegeilt... Leute gibts. Nunja, unverbesserlich würde meine bessere Hälfte da sagen.
Rene K. schrieb: > ha, jetzt wird sich an nem fehlenden X aufgegeilt... Leute gibts. Du verstehst wohl auch keinen Spaß ? - Aber Müll ist se trotzdem nicht. Sie tut seit Jahren ihren Dienst, ohne zu knurren. Mann, ich hab bislang den DVI von der Karte nie gebraucht, und deshalb nicht bemerkt, dass da evtl. was defekt ist.
:
Bearbeitet durch User
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.