Forum: PC Hard- und Software Gefährlicher Schrott von Nvidia


von Glaser (Gast)


Lesenswert?

Wer konstruiert so was?

https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-schmelzende-stromkabel/

Und der Kram kostet 2000€!!

von Johnny B. (johnnyb)


Lesenswert?

Glaser schrieb:
> Wer konstruiert so was?
>
> 
https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-schmelzende-stromkabel/
>
> Und der Kram kostet 2000€!!

Bei so Grosskonzernen sind oft nicht die Entwickler schuld, sondern die 
Führung, welche fordert, dass jeder Cent eingespart wird, den man kann. 
Dann nehmen sie halt gerne mal einen etwas zu kleinen Leiterqueschnitt 
oder einen etwas zu unterdimensionierten Steckverbinder.
In Summe lohnt sich das Ganze dann wohl finanziell trotzdem, auch wenn 
bei manchen Kunden mal was abfackelt.

von Elias K. (elik)


Lesenswert?

Man sollte auch bedenken, dass sich die GraKa bis 450W genehmigt. Und 
das bei max. 12V - entsprechende Ströme fließen. Ich denke da als 
Vergleich an Staubsauger, die in ähnlicher Leistungsklasse bei 230V auch 
mal eine Steckdose heiß werden lassen.

von Mr Moore (Gast)


Lesenswert?

Wer das konstruiert? Intel und das PCI Express Konsortium, von denen 
Nvidia die Spezifikation übernommen hat.

von Michael M. (do7tla)


Lesenswert?

Johnny B. schrieb:
> Glaser schrieb:
>> Wer konstruiert so was?
>>
>>
> 
https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-schmelzende-stromkabel/
>>
>> Und der Kram kostet 2000€!!
>
> Bei so Grosskonzernen sind oft nicht die Entwickler schuld, sondern die
> Führung, welche fordert, dass jeder Cent eingespart wird, den man kann.
> Dann nehmen sie halt gerne mal einen etwas zu kleinen Leiterqueschnitt
> oder einen etwas zu unterdimensionierten Steckverbinder.
> In Summe lohnt sich das Ganze dann wohl finanziell trotzdem, auch wenn
> bei manchen Kunden mal was abfackelt.

Mal sehen wie Nvidia reagiert, wenn durch solche Fahrlässige 
Einsparungen ganze Häuser abbrennen?
Ich denke, das es so manche Klagen geben wird.

von Bender (Gast)


Lesenswert?

Alleine schon, dass die Leitungen nicht gebogen werden dürfen/sollen, 
ist doch ein Witz!

https://cablemod.com/12vhpwr/

Zitat:
> Unsere umfangreichen Tests haben ergeben, dass sich einige
> der Anschlüsse lösen oder im Stecker selbst falsch ausgerichtet
> werden können, wenn die Drähte zu nah am Stecker gebogen werden.

Was ist das bitte für ein billiger Stecker?

von Villenbesitzer mit geheiztem Pool (Gast)


Lesenswert?

Zitat vom
> Zitat:
>> Unsere umfangreichen Tests haben ergeben, dass sich einige
>> der Anschlüsse lösen oder im Stecker selbst falsch ausgerichtet
>> werden können, wenn die Drähte zu nah am Stecker gebogen werden.

Sowas laesst man sich ja auch von einer zertifizierten Lieferfirma
zsammenschrauben. Auf die paar Euronen kommt es dabei eh nicht an.
Morgen sind sie sowieso nichts mehr wert.

von Bender (Gast)


Lesenswert?

Villenbesitzer mit geheiztem Pool schrieb:
> Sowas laesst man sich ja auch von einer zertifizierten Lieferfirma
> zsammenschrauben.

Und das verbessert die Qualität wie?

Davon abgesehen, das nur wenige (bis keiner) einen solchen Service 
nutzen werden. Erst recht die Gamer, die ihren PC aufrüsten...

von Villenbesitzer mit geheiztem Pool (Gast)


Lesenswert?

> Bender

Drueck mal auf die Turbotaste bei deinem 6502!

Ich hab grad mal im "letzten" Lieferschein nachgesehen:
"Nvidia RTX A5000 24GB PCIe4.0"

Was interessiert mich da ein Anschlusskabel...
Aufruesten tu ich immer ganze Systeme.

von DPA (Gast)


Lesenswert?

Elias K. schrieb:
> Man sollte auch bedenken, dass sich die GraKa bis 450W genehmigt.

450W für eine Grafikkarte!?! Das nenne ich mal Stromverschwendung! Also 
so sieht Energie sparen nicht aus!

von Ben B. (Firma: Funkenflug Industries) (stromkraft)


Lesenswert?

Irgendwie ist es doch nichts neues, daß das PC-Gerümpel oftmals nicht 
das aushält was draufsteht oder wie es aussieht.

Erste Erfahrung hierzu war mein Athlon Thunderbird 1400, der unbedingt 
auf 1533Mhz aufgebohrt werden musste. 5 Minuten prime95 Stabilitätstest 
- Licht aus und Codegen 300W Netzteil tot. Gratulation dazu durch Mutti.

Bei schlechten Verbindungen brennen diese ATX-Stecker immer wieder weg. 
Passiert oft bei Grafikkarten, schafft man aber auch auf dem Mainboard. 
Nur wenige hochpreisige Netzteile liefern wirklich was draufsteht. Die 
meisten sind nur Chinakracher, teilweise leisten sich auch große 
Hersteller wie Gigabyte solche Fails (GP-P750GM/GP-P850GM) und lassen 
ihre Kunden dafür bluten, die den teuren Schrott gekauft haben.

von Nop (Gast)


Lesenswert?

Bender schrieb:
> Alleine schon, dass die Leitungen nicht gebogen werden
> dürfen/sollen, ist doch ein Witz!

Da hat Nvidia klar Murks gebaut. Denn die sind es ja, die die Karten so 
breit bauen, daß man biegen muß, um die Seitenwand zu schließen, und sie 
sind es auch, die den Stecker zur Seite herausführen, und sie sind es 
ebenfalls, die nicht auf die Idee eines Winkelsteckers gekommen sind.

von Es geht uns immer noch zu gut (Gast)


Lesenswert?

Hallo

DPA schrieb:
> 450W für eine Grafikkarte!?! Das nenne ich mal Stromverschwendung! Also
> so sieht Energie sparen nicht aus!


Wer sich so eine Grafikkarte leistet - ein passender Rechner wird auch 
dazugehören und in diesen Umfeld sind auch teure Mäuse, Tastaturen und 
oft auch "Lenkräder" und Sitze mit dabei - den interessieren 3 Euro 
reine Energiekosten (soviel wird es dann doch nicht sein) pro Tag nicht.

Und wenn es dir um das "Große ganze geht" dann kann ich dir nur 
Empfehlen nicht in die Industrie, den Gesundheitswesen, den 
Straßenverkehr und bei der Bahn zu schauen:
Da bestünden sehr sehr große Einsparmöglichkeiten, Gesetze, Vorschriften 
und "German Angst" (die mittlerweile zur European Angst geworden ist) 
verhindern das aber.
Da werden wird in über Nacht abgestellte Stadtbahnen die 
Fahrgastraumbeleuchtung dauerhaft angelassen und durchgehend warm 
gehalten  (Betrieb mäßiges Ausschalten durch den Fahrer ist gar nicht 
möglich bzw. nur via komplettes Abrüsten des Fahrzeuges möglich was aber 
bei Neustart nur Ärger macht), da läuft im Straßenverkehr die 
Fußgängerampel im Dorfzentrum auch nachts durch, die ist es im 
Patientenzimmer egal was kommt immer die verschriebenen 2xC warm, da 
wird der viele ha große Industriepark Regentag hell (und heller) 
beleuchtet - und so ein Regentag ist erstaunlich hell , ganz zu 
schweigen was in allen Bereichen für "Es könnte mal sein" Szenarien 
durchlaufen gelassen wird.
Und anstatt das endlich weniger Straßen und Grundstücksbeleuchtung (jene 
gerade im Privaten Umfeld) stattfindet wird es immer mehr - auch aktuell 
trotz steigenden Energiepreisen.
Von einer ausgeschalteten Werbebeleuchtung (und die fängt auch schon bei 
der Beleuchtung des "Namensschilds" bzw. Logos und des "Schaufensters" 
des Versicherungsvertreters oder der Imbisbude statt - ich rede jetzt 
nicht von Alexanderplatz und der Kö...) habe ich auch nur sehr kurzeitig 
etwas mitbekommen...

von Ich A. (alopecosa)


Lesenswert?

Bender schrieb:
> Alleine schon, dass die Leitungen nicht gebogen werden dürfen/sollen,
> ist doch ein Witz!

Da merkt man das jemand keinerlei Ahnung von Elektrotechnik hat.
JEDES Kabel, jede Leitung, wird sich an der Stelle an der man den 
Biegeradius unterschritten hat, unzulässig erwärmen, bis hin zum "Brand" 
wenn die Leitung hochbelastet wird.

Die Frage ist nur wie klein der minimale Biegeradius eben sein darf. Und 
haben tut den jede Leitung...

von Norbert (Gast)


Lesenswert?

Ich A. schrieb:
> Bender schrieb:
>> Alleine schon, dass die Leitungen nicht gebogen werden dürfen/sollen,
>> ist doch ein Witz!
>
> Da merkt man das jemand keinerlei Ahnung von Elektrotechnik hat.
> JEDES Kabel, jede Leitung, wird sich an der Stelle an der man den
> Biegeradius unterschritten hat, unzulässig erwärmen, bis hin zum "Brand"
> wenn die Leitung hochbelastet wird.
>
> Die Frage ist nur wie klein der minimale Biegeradius eben sein darf. Und
> haben tut den jede Leitung...

Nur das das noch nicht einmal ansatzweise etwas mit dem vorliegenden 
Problem zu tun hat!

Wieder einmal zeigt sich, das es generell eine gute Idee ist sich zuerst 
mit einem Thema auseinander zu setzen, es zu durchdenken, es zu 
verstehen,  bevor man darüber schreibt (oder redet).

von Roland E. (roland0815)


Lesenswert?

Elias K. schrieb:
> Man sollte auch bedenken, dass sich die GraKa bis 450W genehmigt. Und
> das bei max. 12V - entsprechende Ströme fließen. Ich denke da als
> Vergleich an Staubsauger, die in ähnlicher Leistungsklasse bei 230V auch
> mal eine Steckdose heiß werden lassen.

Wenn ich das richtig sehe, sind das Micro-Mate-N-Lok. Die dürfen 5A Ppro 
Kontakt und optimalen Bedingungen. Wenn die Helden jetzt die Kontakte 
einfach parallel schalten, reicht einer, der keinen Kontakt bekommt um 
den ganzen Haufen kernzuschmelzen.

von Helge (Gast)


Lesenswert?

Bekannte hat ihrem Sohn den Wunsch-PC zum Geburtstag geschenkt incl. 
neuem Monitor. Sprung in den Stromkosten um +180€ monatlich. :-)

von Andre (Gast)


Lesenswert?

Roland E. schrieb:
> Micro-Mate-N-Lok

Sieht für mich auch so aus, aber der Stecker hat noch ein paar 
Zusatz-Pins für irgendwelche Steuersignale.

Weiß zufällig jemand, wieso man sich für diesen Stecker entschieden hat?

Ich finde es irgendwie merkwürdig, bei so einer riesigen Karte auf einen 
winzigen Steckverbinder zu setzen. Diesen neuen Stecker hätte ich eher 
bei z.B. Low Profile Karten vermutet. Bei einer drei oder sogar vier 
Slots breiten Karten sollte mehr aus ausreichend Platz vorhanden sein?

von Bender (Gast)


Lesenswert?

Ich A. schrieb:
> Da merkt man das jemand keinerlei Ahnung von Elektrotechnik hat.
> JEDES Kabel, jede Leitung, wird sich an der Stelle an der man den
> Biegeradius unterschritten hat, unzulässig erwärmen, bis hin zum "Brand"
> wenn die Leitung hochbelastet wird.

WAS willst du von mir? Hast du überhaupt gelesen was ich geschrieben 
habe? Oder nur nicht verstanden?

Und zum Thema "Ahnung von Elektrotechnik" kann ich nur laut lachen :D

von michael_ (Gast)


Lesenswert?

Helge schrieb:
> Bekannte hat ihrem Sohn den Wunsch-PC zum Geburtstag geschenkt incl.
> neuem Monitor. Sprung in den Stromkosten um +180€ monatlich. :-)

Dafür kann man aber den Heizkörper runterdrehen :-)

von Helge (Gast)


Lesenswert?

Das mindert den Schreck aber auch nur im Winter :-)

von Peter Pan (Gast)


Lesenswert?

Helge schrieb:
> Bekannte hat ihrem Sohn den Wunsch-PC zum Geburtstag geschenkt
> incl.
> neuem Monitor. Sprung in den Stromkosten um +180€ monatlich. :-)

Die Kiste bläst mit Monitor über 800W durch und der Sohn hat den Rechner 
inklusive Monitor 24/7 auf Volllast laufen? Wenn er nur den halben Tag 
daddelt wären das über 1600W. Da werden selbst die Netzteile teuer, 
zudem kommt man gar nicht in diesen Bereich mit der TDP. SLI gibt es 
inzwischen ja nicht mehr. 450W/600W der RTX3090 + keine 300W für einen 
Ryzen 7950X/13900K. Monitor wird auch groß wenn es über 200W werden...

Und die Stromrechnung wurde auch sofort angepasst?

von Helge (Gast)


Lesenswert?

Keine ahnung was der Bursche damit anstellt. Jedenfalls haufenweise 
Blinkibunti drin, ein gefühlt 1,5m breiter Monitor, allen möglichen 
Gedöns drumrum. Hört sich 24/7 an wie ein Rechenzentrum. Wird natürlich 
nie ausgeschaltet. Krass daß der schlafen kann bei dem Lärm.

von Elektriker (Gast)


Lesenswert?

Es ist doch immer wieder lustig wie leicht sich Leute aufregen ohne auch 
nur eine Ahnung zu haben oder sich ggf ein paar Minuten mit der Materie 
beschäftigt zu haben...

Bisherige Steckverbinder - Der verwendete Stecker für die 6- und 8-Pin 
Kabel ist ein Molex Mini-Fit Jr. - die entsprechenden Bestell-Nummern 
stehen sogar in der Wikipedia. Der dazu gehörende Kontakt ist ein Molex 
MINI-FIT 5556 un derstmal (bei Norm-Bedingungen) für 9A / 600V 
ausgelegt. Die vorgesehene Anzahl an Steckzyklen ist 30.

Der 12VHPWR Stecker hat nur 3mm Raster und eine Strombelastbarkeit von 
9,2A je Pin (jeweils 6) - insgesamt sind es 55A bei 12VDC-8% ~= 607W 
worst case (30K Temperaturerhöhung). Also völlig ausreichend und 
anforderungsgemäß.
(Siehe auch 
https://videocardz.com/newz/pcie-gen5-12vhpwr-power-connector-to-feature-150w-300w-450w-and-600w-settings)
Natürlich hat der auch nur eine begrenze Anzahl an Steckzyklen ... und 
zwar genauso viele wie die 6- und 8-Pin Varianten und so wie jeder 
beliebige andere Stecker (und alle anderen elektromechanischen 
Bauelemente) auch - werden die überschritten verschlechtert sich der 
Kontakt und die Stromtragfähigkeit nummt ab. Ist halt wie mit Autoreifen 
wo das Profil runter ist...

Wer den Stecker nicht bestimmungsgemäß verwendet (Biegeradien / 
Steckzyklen / Temperatur) muss sich nicht wundern wenn die Dinger 
versagen. Und da es sich um ein Bauelement mit sehr hoher 
Leistungsdichte handelt rächen sich die Fehler bei der Benutzung eben 
direkt. Aber das hält ja nicht diejenigen Heulsusen ab sich zu 
beschweren wenn sie nicht wissen was sie tun...

Aber vermutlich müssen noch einige Millenials mit Schippe in der Schnute 
in ihren PC schauen bevor sie lernen, dass Lesen und Einhalten von 
Spezifikationen eben genau der Unterschied ist warum die Boomer wissen 
wo der Hase lang läuft ;)

von Nop (Gast)


Lesenswert?

Andre schrieb:

> Sieht für mich auch so aus, aber der Stecker hat noch ein paar
> Zusatz-Pins für irgendwelche Steuersignale.

Mit diesen Steuersignalen weiß die Graka, wieviel Leistung das andere 
Ende überhaupt liefern kann. Im Falle von Netzteilen, die diesen Stecker 
nativ haben, kommt diese Info direkt vom Netzteil.

Hat man ein bisheriges, dann enthält das von Nvidia gelieferte Kabel 
einen IC, der aktiv guckt, an welchen der 8-Pin-Stecker (die zum 
Netzteil) was angeschlossen ist.

Es ist zu befürchten, daß diese Adapter-Kabel auch in schrottig auf den 
Markt kommen, also ohne so ein IC, und dann einfach immer der Graka 
sagen, sie kann ziehen, was sie will.

von Krittel (Gast)


Lesenswert?

Elektriker schrieb:
> Der 12VHPWR Stecker hat nur 3mm Raster und eine Strombelastbarkeit von
> 9,2A je Pin (jeweils 6) - insgesamt sind es 55A bei 12VDC-8% ~= 607W
> worst case (30K Temperaturerhöhung).

Offensichtlich nur unter Laborbedingungen und geschulten Personal.

von Alex (Gast)


Lesenswert?

Moin,

Mich wundert es eh, dass diese Grafikkarten nicht schon ihren eigenen 
Kaltgeräte-Stecker haben. Ist bei der Leistungsklasse und Preissegment 
doch irgendwie doof sich von einem Netzteil mit zweifelhafter Qualität 
versorgen zu lassen.

MfG Alex

von Nop (Gast)


Lesenswert?

Alex schrieb:

> Mich wundert es eh, dass diese Grafikkarten nicht schon ihren eigenen
> Kaltgeräte-Stecker haben.

Sieh Dir die Größe einer Graka an, außerdem die Größe eines Netzteils, 
und stell Dir vor, so ein Netzteil würde auch noch auf die Graka 
wandern. Dann wunderst Du Dich nicht mehr.

von Martin S. (sirnails)


Lesenswert?

Elektriker schrieb:
> Die vorgesehene Anzahl an Steckzyklen ist 30.
> (...)
> Natürlich hat der auch nur eine begrenze Anzahl an Steckzyklen

Alles richtig. Aber für Laien unbekannt. Grafikkarten sind aber durch 
Laien zu tauschen, und müssen daher auch alle Anforderungen der 
Produktsicherheit erfüllen.

Wenn NVidia hier so an die Grenze dessen geht, was technisch überhaupt 
noch sinnvoll ist (auch, wenn es innerhalb der spec ist), dann muss das 
ins Handbuch mit rein. Dann muss dort stehen, dass die Biegeradien 
unbedingt einzuhalten sind (was bei feinadrigem Kabel ohnehin schwierig 
ist, denn das Zeug biegt sich ständig irgendwohin) und dass der 
Netzteilstecker maximal 30 Steckzyklen gehabt haben darf.

von Roland E. (roland0815)


Lesenswert?

Andre schrieb:
> Roland E. schrieb:
>> Micro-Mate-N-Lok
>
> Sieht für mich auch so aus, aber der Stecker hat noch ein paar
> Zusatz-Pins für irgendwelche Steuersignale.
>
> Weiß zufällig jemand, wieso man sich für diesen Stecker entschieden hat?
>

Mikro-Mate-N-Lok nennt es sich von Amp/TE. Molex hat es auch.
Das System war seit ATX auf dem Mainboard als Spannungsversorgung 
präsent, weil es besser ist als das bei AT verwendete. Aus Rationalen 
Gründen wurden natürlich alle neu dazugekommenen Stromanschlüsse auf das 
System aufgesetzt, lediglich die Pinzahl wg PokaYoke jeweils variiert.

Vor 30 Jahren konnte sich einfach kein Entwickler vorstellen, dass durch 
diese Klingeldrähte tatsächlich mal 5Ampere gepresst werden müssen.

von Roland E. (roland0815)


Lesenswert?

Elektriker schrieb:
> Es ist doch immer wieder lustig wie leicht sich Leute aufregen ohne auch
> nur eine Ahnung zu haben oder sich ggf ein paar Minuten mit der Materie
> beschäftigt zu haben...
>
> Bisherige Steckverbinder - Der verwendete Stecker für die 6- und 8-Pin
> Kabel ist ein Molex Mini-Fit Jr. - die entsprechenden Bestell-Nummern
> stehen sogar in der Wikipedia. Der dazu gehörende Kontakt ist ein Molex
> MINI-FIT 5556 un derstmal (bei Norm-Bedingungen) für 9A / 600V
> ausgelegt. Die vorgesehene Anzahl an Steckzyklen ist 30.
>

Aufpassen! Die 9 Ampere sind nur für MiniFit+.
Normal sind auch da um 5A.

von Martin S. (sirnails)


Lesenswert?


von Cyblord -. (cyblord)


Lesenswert?

Glaser schrieb:
> Wer konstruiert so was?
>
> 
https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-schmelzende-stromkabel/
>
> Und der Kram kostet 2000€!!

Bei den aktuellen Leistungen von Grafikkarten müsste man das ganze 
System langsam mal auf 24, oder besser 48 Volt umstellen. Langsam macht 
das 12V System in PCs keinen Sinn mehr.

von Peter Pan (Gast)


Lesenswert?

Elektriker schrieb:
> Der 12VHPWR Stecker hat nur 3mm Raster und eine Strombelastbarkeit von
> 9,2A je Pin (jeweils 6) - insgesamt sind es 55A bei 12VDC-8% ~= 607W
> worst case (30K Temperaturerhöhung). Also völlig ausreichend und
> anforderungsgemäß.

Wer sich eine Grafikkarte für 1500-2000€ kauft hat in der Regel ein 
Computernetzteil mit Kabelmanagement, etwas anderes gibt es in der 
Preis- und Leistungsklasse 1000W aufwärts eigentlich eh nicht mehr:

https://geizhals.de/?cat=gehps&xf=360_1000%7E818_Corsair%7E818_EVGA%7E818_Enermax%7E818_Seasonic%7E818_be+quiet!

Es gibt von den großen Marken ein (!) einziges Netzteil mit festen 
Kabeln bei über 1000W.

Sprich man muss einfach nur beim Hersteller das passende Kabel 
bestellen:

https://www.corsair.com/eu/de/Kategorien/Produkte/Zubeh%C3%B6r-%7C-Teile/PC-Komponenten/Netzteile/12-pin-GPU-Power-Cable/p/CP-8920274

20€ sind zwar schon fast eine Frechheit für so ein Kabel, aber besser 
als eine derartige Adapterlösung ist es allemal. Und damit ist das 
Problem denke ich aus der Welt, ob man wirklich eine RTX4090 benötigt 
bezweifle ich, derzeit gibt es kaum Spiele die eine RTX3080 auf 4k 
sinnvoll auslasten. Sprich man kauft eine Karte welche aktuell zu viel 
Leistung hat und alsbald die Spiele in 1-2 Jahren nachgezogen sind (UE5 
Titel usw. sollten dann langsam erscheinen) ist die Karte schon lahmer 
Elektroschrott der den Ansprüchen von High End Gaming nicht mehr genügt.

von Peter Pan (Gast)


Lesenswert?

Cyblord -. schrieb:
> Bei den aktuellen Leistungen von Grafikkarten müsste man das ganze
> System langsam mal auf 24, oder besser 48 Volt umstellen. Langsam macht
> das 12V System in PCs keinen Sinn mehr.

https://www.heise.de/newsticker/meldung/PC-Netzteilstandard-ATX12VO-Mainboards-wandeln-12-Volt-kuenftig-selbst-um-4644433.html

Man wollte eigentlich gerade erst zu 12V hin umstellen.

Die Spezifikation könnte man ja problemlos um 48V erweitern.

von Kaj (Gast)


Lesenswert?

https://www.golem.de/news/brandgefahr-der-12vhpwr-stecker-hat-ein-problem-2210-169225.html
1
Brandgefahr: Der 12VHPWR-Stecker hat ein Problem
2
3
Bereits zur Einführung des neuen Stromsteckers gab es Kritik, die von den 
4
Herstellern als unbegründet zurückgewiesen wurde. Nun gibt es Probleme in der Praxis. 
5
6
Auf Reddit kursiert derzeit ein Bild eines verschmorten 12VHPW-Stromsteckers, 
7
der in Kombination mit einer Nvidia Geforce RTX 4090 offenbar so weit überhitzt
8
 ist, dass das Plastik des Steckers teilweise geschmolzen ist. Nun stellt 
9
sich die Frage, ob das Problem weitreichender ist oder ob ein simpler Defekt 
10
die Ursache ist.

von Martin S. (sirnails)


Lesenswert?

Cyblord -. schrieb:
> oder besser 48 Volt umstellen.

Dann wird's mit den Halbleitern problematisch. Und man hätte noch eine 
Rail im Netzteil, die ja jetzt schon vollgepackt sind.

Der Standard ist einfach überholt. Er hat lange gedient und müsste jetzt 
einfach sterben. 24V als einzige Systemspannung - dann könnte man jedes 
Industrienetzteil verwenden.

von Martin S. (sirnails)


Lesenswert?

Peter Pan schrieb:
> Man wollte eigentlich gerade erst zu 12V hin umstellen.

Wir hatten in der Arbeit vor 10 Jahren schon PCs, die 12V only waren. So 
neu ist die Idee wahrlich nicht.

> Die Spezifikation könnte man ja problemlos um 48V erweitern.

Dann finde mal Schaltregler-ICs, die 48V nominal machen. Da wird die 
Auswahl richtig dünn. Aber es müssen keine 48V sein; 24V reichen ja auch 
schon, um die Ströme zu halbieren.

von Helge (Gast)


Lesenswert?

Peter Pan schrieb:
> Die Spezifikation könnte man ja problemlos um 48V erweitern

Das wird ein Rattenschwanz an Änderungen. Die meisten Wandler, die für 
PC und ähnliche optimiert wurden, können max. 15V.

Direkt von 48V auf 1,xV dürfte sportlich werden. Um die paar Drähte 
benutzersicher zu machen eine doppelte Wandlung? Dann geht das 
rumgeweine los, daß die Komponenten noch größer und teurer werden.

von Peter Pan (Gast)


Lesenswert?

Martin S. schrieb:
> Dann finde mal Schaltregler-ICs, die 48V nominal machen. Da wird die
> Auswahl richtig dünn. Aber es müssen keine 48V sein; 24V reichen ja auch
> schon, um die Ströme zu halbieren.

In Servern haben sie doch zur Versorgung auch 48V Schienen. Irgendwelche 
Halbleiter müssen da ja auch drin sein.

Ich geb dir natürlich recht, die Wald und Wiesen Halbleiter sind bis 24V 
spottbillig, aber bei dem gigantischen Bedarf im IT Bereich könnte ich 
mir durchaus vorstellen, dass hier sogar eigens Halbleiter in diesem 
Bereich entwickelt werden sofern es schaltungstechnisch auch Sinn 
ergibt.


https://www.heise.de/newsticker/meldung/Effiziente-OCP-Server-Mit-48-Volt-bis-zum-Prozessor-3647680.html

von 888 (Gast)


Lesenswert?

Roland E. schrieb:

> Wenn ich das richtig sehe, sind das Micro-Mate-N-Lok. Die dürfen 5A Ppro
> Kontakt und optimalen Bedingungen. Wenn die Helden jetzt die Kontakte
> einfach parallel schalten, reicht einer, der keinen Kontakt bekommt um
> den ganzen Haufen kernzuschmelzen.

Die von AMP bzw TE dürfen 5 A. Was die chinesischen Dinger dürfen, die 
der Hersteller des Adapterkabels verbaut hat, steht auf einem anderen 
Blatt. Nur weil Stecker gleich aussehen und ineinander passen, haben sie 
noch lange nicht vergleichbare Daten.

Bei Chinasteckern muss man hin und wieder sogar die Terminals 
nachbiegen, damit die keinen Wackelkontakt produzieren. Dann noch die 
für das Originalprodukt spezifizierte Maximallast abzurufen könnte mutig 
sein.

von (prx) A. K. (prx)


Lesenswert?

Alex schrieb:
> Mich wundert es eh, dass diese Grafikkarten nicht schon ihren eigenen
> Kaltgeräte-Stecker haben. Ist bei der Leistungsklasse und Preissegment
> doch irgendwie doof sich von einem Netzteil mit zweifelhafter Qualität
> versorgen zu lassen.

Vielleicht sollte man so vorgehen, wie es bei besseren 
Grafik-Workstations früher nicht unüblich war: Die GPU kommt als eigene 
exakt darauf optimierte fertige Einheit mit Gehäuse und Netzteil, mit 
Verbindungskabel zu Grundgerät.

Dann ist man nicht auf den für diese Leistungsklasse ungeeignete 
PC-Steckplatz und die umständliche Stromversorgungstechnik angewiesen, 
sondern kann das Gerät so bauen, wie es sein soll, mit Strom und 
Kühlung.

Mit Thunderbird ist man da ja schon auf dem Weg. Da gibts das schon, 
aber vielleicht noch nicht in der Kilowatt-Klasse.

: Bearbeitet durch User
von Nop (Gast)


Lesenswert?

(prx) A. K. schrieb:

> Vielleicht sollte man so vorgehen, wie es bei besseren
> Grafik-Workstations früher nicht unüblich war

Oder man nimmt den werksseitigen Overclock raus und hat nur noch den 
halben Verbrauch bei unwesentlich weniger Leistung. AMD, Intel und 
Nvidia machen diesen Unsinn ja nur, um fürs Marketing in Benchmarks die 
letzten paar Prozent noch rauszukitzeln.

von (prx) A. K. (prx)


Lesenswert?

Nop schrieb:
> AMD, Intel und
> Nvidia machen diesen Unsinn ja nur, um fürs Marketing in Benchmarks die
> letzten paar Prozent noch rauszukitzeln.

Aber nicht doch. Der Hersteller soll dem Kunden vorschreiben, was der 
gefälligst zu wollen hat? In welchem System leben wir denn?

von (prx) A. K. (prx)


Lesenswert?

(prx) A. K. schrieb:
> Mit Thunderbird

... bolt

von Max M. (Gast)


Lesenswert?

Helge schrieb:
> Hört sich 24/7 an wie ein Rechenzentrum. Wird natürlich
> nie ausgeschaltet. Krass daß der schlafen kann bei dem Lärm.

Ich denke der nimmt ein wenig Kompforteinbusse gerne in kauf, dafür das 
Mutti ihm den Etherum Schürfer ins Haus gestellt hat, der sein 
Taschengeld signifikant aufbessert.

von Norbert (Gast)


Lesenswert?

Nop schrieb:
> (prx) A. K. schrieb:
>> Vielleicht sollte man so vorgehen, wie es bei besseren
>> Grafik-Workstations früher nicht unüblich war
>
> Oder man nimmt den werksseitigen Overclock raus und hat nur noch den
> halben Verbrauch bei unwesentlich weniger Leistung.

Oder man überlegt ob es dringend viele hundert Watt und tausende Euros 
braucht um ein paar Pixel etwas hübscher zu machen.
Oder um 380fps zu generieren welche auf einem 60Hz (oder im besten Fall 
einem 144Hz) Monitor abgebildet werden.

Vielleicht läuft ja auch einfach nur seit einiger Zeit etwas gehörig aus 
der Spur. ;-)

von (prx) A. K. (prx)


Lesenswert?

Norbert schrieb:
> Vielleicht läuft ja auch einfach nur seit einiger Zeit etwas gehörig aus
> der Spur. ;-)

Die schrägen Hobbies der Anderen sind kompletter Unsinn und bitteschön 
zu unterlassen, während der eigene Spleen Schutz geniessen muss. ;-)

von Norbert (Gast)


Lesenswert?

(prx) A. K. schrieb:
> Norbert schrieb:
>> Vielleicht läuft ja auch einfach nur seit einiger Zeit etwas gehörig aus
>> der Spur. ;-)
>
> Die schrägen Hobbies der Anderen sind kompletter Unsinn und bitteschön
> zu unterlassen, während der eigene Spleen Schutz geniessen muss. ;-)

Oh, das hast du komplett falsch verstanden.
Oder ich habe mich nicht gut genug ausgedrückt. ;-)

Natürlich darf ein jeder alles, wirklich alles, tun und lassen was 
er/sie/es will. Solange es nicht andere negativ betrifft.

Es wäre jedoch durchaus schön zu sehen wenn etwas mehr über Konsequenzen 
nachgedacht würde. Oder über das mittelbare oder unmittelbare 
›Betreffen‹.

Na ja, zumindest gibt es offensichtlich eine Gruppe PC-Nutzer, welche 
sich besser nicht auf FFF-Demos einfinden sollten.

Irgendwie auch ein netter Gedanke.

von (prx) A. K. (prx)


Lesenswert?

Norbert schrieb:
> Na ja, zumindest gibt es offensichtlich eine Gruppe PC-Nutzer, welche
> sich besser nicht auf FFF-Demos einfinden sollten.

Zumindest sollten sie nicht ausgerechnet auf der FFF-Demo über ihre neue 
NVidia 4090 fachsimpeln. Könnte leicht passieren, denn viele Leute 
schaffen solchen Spagat mühelos. Nicht nur in der FFF-Szene. ;-)

Ich habe gut reden. Mir reicht mittlerweile ein 15W Laptop mit 
Prozessorgrafik prima aus.

: Bearbeitet durch User
von Nano (Gast)


Lesenswert?

Helge schrieb:
> Bekannte hat ihrem Sohn den Wunsch-PC zum Geburtstag geschenkt incl.
> neuem Monitor. Sprung in den Stromkosten um +180€ monatlich. :-)

180 € / 40 Cent/kWh = 450 kWh pro Monat

450 kWh / (30 Tage * 12 h) =  1,25 kWh an Verbrauch in der Stunde bei 12 
h Spielzeit jeden Tag.

Fazit:
Glaube ich nicht. Schon gar nicht, wenn der Sohn in die Schule muss.

von Nano (Gast)


Lesenswert?

michael_ schrieb:
> Helge schrieb:
>> Bekannte hat ihrem Sohn den Wunsch-PC zum Geburtstag geschenkt incl.
>> neuem Monitor. Sprung in den Stromkosten um +180€ monatlich. :-)
>
> Dafür kann man aber den Heizkörper runterdrehen :-)

Siehe mein letztes Kommentar.

Wenn dann dürfte das Kind wohl eher einen Kryptominer rund um die Uhr 
auf dem PC laufen lassen.

von Joachim B. (jar)


Lesenswert?

Norbert schrieb:
> um 380fps zu generieren welche auf einem 60Hz (oder im besten Fall
> einem 144Hz) Monitor abgebildet werden.

das habe ich auch nie verstanden!
Vielleicht klärt mich ein Gamer mal auf.

von Gamer (Gast)


Lesenswert?

Joachim B. schrieb:
> Norbert schrieb:
>> um 380fps zu generieren welche auf einem 60Hz (oder im besten Fall
>> einem 144Hz) Monitor abgebildet werden.
>
> das habe ich auch nie verstanden!
> Vielleicht klärt mich ein Gamer mal auf.

Es geht dabei nicht um die Bilder, sondern um Reduzierung von Input Lag: 
https://www.intel.com/content/www/us/en/gaming/resources/how-to-fix-input-lag.html

von Pfuschmeister (Gast)


Lesenswert?


von Norbert (Gast)


Lesenswert?

Gamer schrieb:
> Joachim B. schrieb:
>> Norbert schrieb:
>>> um 380fps zu generieren welche auf einem 60Hz (oder im besten Fall
>>> einem 144Hz) Monitor abgebildet werden.
>>
>> das habe ich auch nie verstanden!
>> Vielleicht klärt mich ein Gamer mal auf.
>
> Es geht dabei nicht um die Bilder, sondern um Reduzierung von Input Lag:
> 
https://www.intel.com/content/www/us/en/gaming/resources/how-to-fix-input-lag.html

Also Input Lag den der Gamer zwischen zwei dargestellten Bildern gar 
nicht sehen, nicht erkennen und nicht erfühlen, sondern nur erwünschen, 
erhoffen und erraten kann.
Hat schon einige Anzeichen von Religion.

von Blinder mit Krückstock (Gast)


Lesenswert?

Norbert schrieb:
> Also Input Lag den der Gamer zwischen zwei dargestellten Bildern gar
> nicht sehen, nicht erkennen und nicht erfühlen, sondern nur erwünschen,
> erhoffen und erraten kann.
> Hat schon einige Anzeichen von Religion.

Doppelblindtests wären dort das Mittel der Wahl.

von Nop (Gast)


Lesenswert?

Norbert schrieb:

> Also Input Lag den der Gamer zwischen zwei dargestellten Bildern gar
> nicht sehen, nicht erkennen und nicht erfühlen

Doch, natürlich. Die CPU bei t=0 mit ihren Berechnungen und schiebt die 
resultierenden Daten an die GPU, sobald sie fertig ist. Die CPU weiß 
nämlich nicht vorher, wann sie fertig sein wird, weil das Halteproblem 
nicht lösbar ist.

Hat man mehr FPS, selbst wenn diese gar nicht dargestellt werden, sind 
die Daten, die dargestellt werden, etwas aktueller.

Beispiel, 60 Hz Monitor mit 60 FPS, Daten maximal 16.7ms veraltet. 60 Hz 
Monitor mit 120 FPS, Daten maximal 8.3ms veraltet. Man gewinnt also 
8.3ms.

Noch mehr gewinnt man natürlich, wenn man keinen Office-Monitor zum 
Gaming mißbraucht, sondern gleich mindestens 144Hz nimmt, was eben 
deswegen auch üblich ist. Bei 144 FPS sind die Daten also maximal 6.9ms 
veraltet. Treibt man es auf die Spitze mit 288 FPS, gewinnt man wiederum 
3.5ms. Wie man sieht, gilt das Gesetz des abnehmenden Ertrages in Bezug 
auf den zu treibenden Aufwand.

Sehr schnelle Gamer (Wettbewerb, nicht Feierabendzocker) können bis 
runter auf 100-250ms Reaktionszeit sein. Nimmt man mal den Extremfall 
von 100ms für einfache Reaktions-Arten an, dann sind die 8.3ms von ganz 
oben ein Vorteil von 8.3%, und das wird das Ergebnis definitiv 
beeinflussen. Aber auch die 3.5% sind merkbar - nicht in jedem 
Einzelfall, aber in der Summe vieler Reaktionen ist es eine 
entsprechende Verbesserung der Chancen.

3.5% klingt nicht nach viel, aber man bedenke, daß die Bank mit einer 
2.8%-Chance am Roulette-Tisch fährt. ;-)

So, und dann gibt's noch einen anderen Faktor, das menschliche Auge. 
Zwar sehen wir ab 24 FPS eine flüssige Bewegung, aber das gilt bei 
weitem nicht für das Flackern in der Peripherie, wenn man einen großen 
Monitor hat. Etwa LED-PWM ist ja auch erst ab einigen 100 Hz 
flackerfrei, wenn man nicht ruhig draufstarrt, sondern den Kopf bewegt.

[quote]Hat schon einige Anzeichen von Religion.[/quote]

Ja, Du demonstrierst das ganz gut: etwas, was Du nichtmal im Ansatz 
verstehst, mit "Religion" zu erklären.

von Norbert (Gast)


Lesenswert?

Nop schrieb Vieles im Beitrag #7233669, jedoch:

Schön erklärt, größtenteils Unsinn.

Das von dir so schön gezeichnete Szenario muss also mehrere gar nicht 
dargestellte Bildschirme komplett berechnen, nur um Maus oder Joystick 
Inputs zu bewerten?

Es wäre also nicht möglich die Inputs unabhängig von der Refresh-Rate 
mit viel höherer Frequenz (einstellige ms) zu lesen und nur die 
resultierenden neuesten, frischsten Daten für die Darstellung zu nutzen?

So wie zB. ein namhafter Simulator für's fliegende Volk eine unabhängige 
Einstellmöglichkeit für die Anzahl physikalischer Berechnungen pro 
dargestelltem Frame bietet?

Das ist schon interessant…

von Nop (Gast)


Lesenswert?

Norbert schrieb:

> Das von dir so schön gezeichnete Szenario muss also mehrere gar nicht
> dargestellte Bildschirme komplett berechnen, nur um Maus oder Joystick
> Inputs zu bewerten?

Es geht um die ganze Kette des Input Lag. Die Verzögerung, die ich 
beschrieben habe, entsteht nicht auf dem Weg vom Spieler zum Rechner, 
sondern vorher, vom Rechner zum Spieler!

von Rolf M. (rmagnus)


Lesenswert?

(prx) A. K. schrieb:
> Mit Thunderbird ist man da ja schon auf dem Weg. Da gibts das schon,
> aber vielleicht noch nicht in der Kilowatt-Klasse.

Und nicht mit 16 PCIe5-Lanes.

Nop schrieb:
> Beispiel, 60 Hz Monitor mit 60 FPS, Daten maximal 16.7ms veraltet.

Du meinst minimal. Nachdem das Bild gerendert wurde, muss es ja erst mal 
noch zum Monitor übertragen werden, bevor es dann angezeigt werden kann. 
Und dann kommt noch der Lag vom Monitor selbst dazu.

> 60 Hz Monitor mit 120 FPS, Daten maximal 8.3ms veraltet. Man gewinnt also
> 8.3ms.

Dazu müsste man aber nicht das ganze Bild mit 120 FPS rendern, wenn dann 
sowieso jedes zweite weggeworfen wird.
Aber heute hat man in der Regel eh dynamische Wiederholraten, d.h. der 
Monitor passt seine Hertzen an die Geschwindigkeit des Rechners an, 
statt diese hart auf einen fixen Wert zwingen zu wollen.

Nop schrieb:
> So, und dann gibt's noch einen anderen Faktor, das menschliche Auge.
> Zwar sehen wir ab 24 FPS eine flüssige Bewegung, aber das gilt bei
> weitem nicht für das Flackern in der Peripherie, wenn man einen großen
> Monitor hat.

Und es gilt vor allem nur bei entsprechender Bewegungsunschärfe. Ohne 
sieht das ganz anders aus. Ich gehe auf die 50 zu, sehe aber einen 
gewaltigen Unterschied zwischen 60 Hz und 120 Hz.

> Etwa LED-PWM ist ja auch erst ab einigen 100 Hz
> flackerfrei, wenn man nicht ruhig draufstarrt, sondern den Kopf bewegt.

Auch da wirkt sich aus, dass sie keine Trägheit besitzen.

> [quote]Hat schon einige Anzeichen von Religion.[/quote]
>
> Ja, Du demonstrierst das ganz gut: etwas, was Du nichtmal im Ansatz
> verstehst, mit "Religion" zu erklären.

Naja, es gibt zumindest natürlich wie bei allen Hobbys, die mit 
Optimierung von Technik zu tun haben, auch einiges an Schlangenöl.

von Norbert (Gast)


Lesenswert?

Nop schrieb:
> Norbert schrieb:
>
>> Das von dir so schön gezeichnete Szenario muss also mehrere gar nicht
>> dargestellte Bildschirme komplett berechnen, nur um Maus oder Joystick
>> Inputs zu bewerten?
>
> Es geht um die ganze Kette des Input Lag. Die Verzögerung, die ich
> beschrieben habe, entsteht nicht auf dem Weg vom Spieler zum Rechner,
> sondern vorher, vom Rechner zum Spieler!

Mach dir mal ein ›Maling‹, zeichne eine Reihe von Frames nebeneinander 
gerne auch auf einer ›Timeline‹.
Markiere jeden vierten davon zur Anzeige und alle anderen für die Tonne. 
Überlege welche Frames der Spieler sieht und auf welche er somit 
reagieren kann. Überlege welchem Zweck die mit viel Aufwand gerenderten 
aber nicht dargestellten Frames dienen (Tip: Wärmeerzeugung in der 
Tonne)
Überlege ob man all das, was für die jeweils drei weggeworfenen Frames 
gilt, nicht viel einfacher nur berechnen (aber nicht malen) kann. Bei 
einem Bruchteil des Energieaufwandes.

Danke.

von Nop (Gast)


Lesenswert?

Rolf M. schrieb:

> Du meinst minimal.

Nee, die CPU kann ja auch erst spät im 15.7ms-Raster fertig geworden 
sein, bei einem FPS-Einbruch etwa.

> Nachdem das Bild gerendert wurde, muss es ja erst mal
> noch zum Monitor übertragen werden

Das muß es eh.

> Dazu müsste man aber nicht das ganze Bild mit 120 FPS rendern, wenn dann
> sowieso jedes zweite weggeworfen wird.

Halteproblem.

> Aber heute hat man in der Regel eh dynamische Wiederholraten

Richtig, ändert aber an der grundsätzlichen Betrachtung nichts.


Norbert schrieb:

> Überlege ob man all das, was für die jeweils drei weggeworfenen Frames
> gilt, nicht viel einfacher nur berechnen (aber nicht malen) kann.

Ich schrieb schon von "Halteproblem". Wenn Dir das nichts sage, google 
es.

von (prx) A. K. (prx)


Lesenswert?

Norbert schrieb:
> Oder man überlegt ob es dringend viele hundert Watt und tausende Euros
> braucht ...

... um beim Zocken ohne Wohnungheizung nicht zu frieren. ;-)

von Wollvieh W. (wollvieh)


Lesenswert?

Johnny B. schrieb:

> Bei so Grosskonzernen sind oft nicht die Entwickler schuld, sondern die
> Führung, welche fordert, dass jeder Cent eingespart wird (...)
> In Summe lohnt sich das Ganze dann wohl finanziell trotzdem, auch wenn
> bei manchen Kunden mal was abfackelt.

Neue Kunden wachsen alle 9 Monate nach, ein verpaßter Quartalsgewinn 
kommt nie wieder.

von Rolf M. (rmagnus)


Lesenswert?

Nop schrieb:
> Rolf M. schrieb:
>
>> Du meinst minimal.
>
> Nee, die CPU kann ja auch erst spät im 15.7ms-Raster fertig geworden
> sein, bei einem FPS-Einbruch etwa.

Wichtig ist aber nicht, wann sie fertig ist, sondern wann sie anfängt. 
Denn das ist der Stand, auf dem die Berechnung des neuen Frames basiert.

>> Nachdem das Bild gerendert wurde, muss es ja erst mal
>> noch zum Monitor übertragen werden
>
> Das muß es eh.

Ja, und das kostet nochmal die gleiche Zeit, verdoppelt also die Latenz.

>> Aber heute hat man in der Regel eh dynamische Wiederholraten
>
> Richtig, ändert aber an der grundsätzlichen Betrachtung nichts.

Es sorgt zumindest dafür, dass die Frames dann auch alle angezeigt 
werden und die Latenz unabhängig von einer fixen Frequenz wird.

Besonders interessant wird das alles, wenn man auf VR übergeht, wo die 
geringe Latenz von Kopfbewegung bis zum neuen gerenderten Frame 
essenziell ist für eine gute Immersion und weniger Potenzial für 
Übelkeit. Dazu sind die Abhandlungen von John Carmack zur Latenz von VR 
ganz interessant zu lesen:
https://danluu.com/latency-mitigation/

: Bearbeitet durch User
von Nop (Gast)


Lesenswert?

Rolf M. schrieb:

> Wichtig ist aber nicht, wann sie fertig ist, sondern wann sie anfängt.
> Denn das ist der Stand, auf dem die Berechnung des neuen Frames basiert.

Richtig. Sie weiß aber wegen des Halteproblems nicht, wie lange sie 
brauchen wird, weswegen sie man sie nicht einfach in der Mitte dieses 
Rasters anfangen lassen kann - was nämlich, wenn sie im verbleibenden 
halben Raster dann nicht fertig wird?

> Es sorgt zumindest dafür, dass die Frames dann auch alle angezeigt
> werden

Es ändert nichts am Grundsätzlichen. Denn auch wenn der Monitor 144 Hz 
kann, hat man mit 288 FPS exakt dieselbe Betrachtung wie oben. Es ist 
nur anschaulicher zu erklären mit fester Framerate.

Abgesehen davon ist die reale Schnittmenge derer, die sich um irrsinnig 
hohe FPS-Raten kümmern, und denen, die mit 60Hz-Monitoren zocken, eine 
praktisch leere Menge, weil diese Geld-Allokation beim Systembau keinen 
Sinn ergibt.

von Bender (Gast)


Lesenswert?

Norbert schrieb:
> Schön erklärt, größtenteils Unsinn.

Hier kannst du dich informieren:

https://www.youtube.com/watch?v=OX31kZbAXsA

Aber ich denke, du wirst keine 30 Minuten investieren wollen, um zu 
erkennen das du im Unrecht bist...

von Norbert (Gast)


Lesenswert?

Bender schrieb:
> Aber ich denke, du wirst keine 30 Minuten investieren wollen, um zu
> erkennen das du im Unrecht bist...

Dreißig Minuten eines Youtubers würden dafür auch nicht reichen.

Auch für dich ein Gedankenexperiment:
Wenn man vier frames rendert nur um drei wegzuwerfen und das weil man 
Angst hat den letzten nicht rechtzeitig fertig zu bekommen, warum nicht 
nur die letzten zwei rendern und schlimmstenfalls nur einen davon 
wegwerfen?

Aber macht ihr mal alle schön…

von Rolf M. (rmagnus)


Lesenswert?

Nop schrieb:
> Rolf M. schrieb:
>
>> Wichtig ist aber nicht, wann sie fertig ist, sondern wann sie anfängt.
>> Denn das ist der Stand, auf dem die Berechnung des neuen Frames basiert.
>
> Richtig. Sie weiß aber wegen des Halteproblems nicht, wie lange sie
> brauchen wird, weswegen sie man sie nicht einfach in der Mitte dieses
> Rasters anfangen lassen kann - was nämlich, wenn sie im verbleibenden
> halben Raster dann nicht fertig wird?

Dennoch ist diese Zeit Teil der Latenz, genau wie die Übertragung des 
Bildes zum Monitor. Beides zusammengezählt kommt bei 60 Hz in der Regel 
nie unter die 16,x Millisekunden. Deshalb ist das die minimale und nicht 
die maximale Latenz.

> Abgesehen davon ist die reale Schnittmenge derer, die sich um irrsinnig
> hohe FPS-Raten kümmern, und denen, die mit 60Hz-Monitoren zocken, eine
> praktisch leere Menge, weil diese Geld-Allokation beim Systembau keinen
> Sinn ergibt.

Eben, schrieb ich ja.

von Useless (Gast)


Lesenswert?

Rolf M. schrieb:
> Und nicht mit 16 PCIe5-Lanes.

Wieviel Bandbreite braucht es wirklich, ich habe im Hinterkopf das der 
Sprung auf PCIe4 wenig bis nichts bei Spielen bringt.

von Nop (Gast)


Lesenswert?

Norbert schrieb:

> Wenn man vier frames rendert nur um drei wegzuwerfen und das weil man
> Angst hat den letzten nicht rechtzeitig fertig zu bekommen, warum nicht
> nur die letzten zwei rendern und schlimmstenfalls nur einen davon
> wegwerfen?

Halteproblem, immer noch. Im Grundstudium gepennt?

von Nop (Gast)


Lesenswert?

Useless schrieb:

> Wieviel Bandbreite braucht es wirklich, ich habe im Hinterkopf das der
> Sprung auf PCIe4 wenig bis nichts bei Spielen bringt.

Bei PCIe3 x16 spielt PCIe4 keine Rolle - und auch bei Karten, wo der 
Hersteller an Lanes gespart hat mit PCIe3 x8, ist der Zugewinn auf PCIe4 
gerade mal so etwa 5%. Lediglich Karten, wo extrem gespart wurde mit nur 
vier Lanes, wie etwa der RX 6500, brauchen PCIe4 - aber diese Karte ist 
ohnehin Elektroschrott, den man nicht kauft. PCIe5 braucht man auf 
absehbare Zeit nicht.

Auch nicht für Massenspeicher, denn für Office, Web, Gaming ist nichtmal 
von SATA-SSD auf NVMe-SSD ein Unterschied feststellbar, geschweige denn 
von PCIe4 auf PCIe5. Wenn man dauernd mit sehr großen Dateien hantiert, 
etwa Videobearbeitung oder große Photoshop-Projekte, ist das eine 
(relative) Nische.

von Bender (Gast)


Lesenswert?

Norbert schrieb:
> Dreißig Minuten eines Youtubers würden dafür auch nicht reichen.

War mir klar, deswegen schrieb ich das ja schon. Ich kenne deine 
Generation gut genug, der eigene Horizont ist ein Heiligtum, alle 
anderen sind generell im Unrecht und Fehler zugeben? No Way!

Aber dann halte auch in Zukunft bitte deine Fresse(!) wenn es um dieses 
Thema geht, OK? Denn sich jeglicher Information verweigern, um weiter 
auf zusammengesponnen Fakten rumzureiten, ist müßig.

von Bender (Gast)


Lesenswert?

Nop schrieb:
> Im Grundstudium gepennt?

Ne Boomer ;)

von Norbert (Gast)


Lesenswert?

Nop schrieb:
> Halteproblem, immer noch.

Du gehst irrtümlich davon aus, das riesige Bandbreiten von Frameraten 
abgearbeitet werden müssen. Nur dann würde dein Argument halbwegs 
greifen.

Nun ist es aber so das die Fluktuation der Framerate innerhalb eines 
bestimmten (und zu bestimmenden) Intervals liegt.
Kein Spiel springt ständig zwischen 300fps und 30fps hin und her.
Vielmehr ist es so das sich eine mittlere Framerate einstellt die auch 
mal 10%, 20% oder von mir aus auch 30% Prozent einbrechen kann.

Das wiederum erlaubt es mit der niedrigsten zu erwartenden Framerate 
deterministisch zu arbeiten. Bei Szenen/Levelwechseln (welche im Spiel 
natürlich bekannt sind) oder anderen aufwendigen Operationen kann man 
die Erwartungshaltung zurückschrauben und kurzzeitig extrem konservativ 
(also viele frames) rechnen.

Wenn es dir nichts ausmacht, dann werde zumindest ich auf dumme 
Kommentare verzichten.

von (prx) A. K. (prx)


Lesenswert?


von Martin S. (sirnails)


Lesenswert?

(prx) A. K. schrieb:
> Details zum Problem:
> 
https://www.computerbase.de/2022-10/defekte-12vhpwr-stecker-analyse-sieht-das-problem-bei-nvidias-rtx-4090-adapter/

Ok, das ist einfach nur dumm! Solche Ströme über eine 2mm Metallfolie 
fließen zu lassen, provoziert das ja regelrecht.

Die Fertigungs- bzw. Entwicklungsqualität ist einfach nur miserabel. Und 
dann auch noch gelötet.

Das Teil ist der Inbegriff einer Sollbruchstelle.

von ●DesIntegrator ●. (Firma: FULL PALATINSK) (desinfector) Benutzerseite


Lesenswert?

auch wenn bei Alt-Zeugs, das ich schlachte,
noch nicht so hohe Ströme fliessen,
schaudern mich die schlechten Crimpverbindungen immer wieder.

Man kann die Kabeladern oft ohne allzuviel Kraft
aus den gecrimpen Pins raus ziehen.
Obwohl man z.B. am ATX-Stecker-GEHÄUSE zieht,
kommt auch gleich ein Pin mit raus oder eben auch nur das Leitungsende.

Wenn solch wackeliges Zeugs auch bei "Super-Duper" Hardware vorkommt,
wundert es mich, dass es nicht zu viel mehr Verschmorungen kommt.

von Christian M. (likeme)


Lesenswert?

Man denkt sich, oh ein Kontakt hält 10A aus, nehme ich halt 5 für 50A... 
und vergisst aber das der Ri der Steckverbinder sehr stark voneinander 
abweichen kann. Dann sind da auf einem Pin 30A und auf den restlichen 4 
20A verteilt.
So viel zu Thema Parallelschaltung von Steckkontakten.

von Martin S. (sirnails)


Lesenswert?

Christian M. schrieb:
> So viel zu Thema Parallelschaltung von Steckkontakten.

Das geht, wenn man es richtig macht. Aber wer will an seiner Graka einen 
Harting-Stecker dran haben?

Es hat schon seinen Grund, warum so ziemlich alle Netzteile dieser Welt, 
die mehr als 10 oder 20A liefern können, keinen Steckkontakt mehr haben, 
sondern eine Power bar, an der die Kabel richtig fest angeschraubt 
werden. Und dann geht da 1! Leitung mit entsprechendem Querschnitt weg, 
mit angecrimptem Kabelschuh (oder Öse).

Hier wurde das Rad neu erfunden, dafür aber eckig.

von Thorsten S. (thosch)


Lesenswert?

Hinreichemd lange Einzeladern an jedem Kontakt (wie bei einem direkt vom 
Netzteil kommenden Kabel) sorgen ja noch für eine gewisse Symmetrierung 
der Stromverteilung auf die Kontakte...

... aber spätestens bei den Brücken direkt im Stecker ist das Problem 
geradezu deterministisch.

Am erschreckendsten finde ich aber, daß schon im Standard ein so 
flimsiger Billigstecker vorgesehen wird, der dann auch noch ohne jede 
Reserve auf Kante designt verwendet wird.

Da hätte man ja z.B. auch einen Stecker mit vernünftigen 
Hochstromkontakten vorsehen können, dann hätten auch 2 oder 4 Kontakte 
gereicht. Und wenn man feinstdrähtige Litze (etwa wie bei 
Lautsprecherkabeln) verwendet, wäre das resultierende Kabel auch bei 4 
oder 2 poligem Stecker (also bei 25A bzw 50A pro Kontakt) trotz des 
großen Querschnitts noch flexibel.

: Bearbeitet durch User
von 888 (Gast)


Lesenswert?

Christian M. schrieb:

> So viel zu Thema Parallelschaltung von Steckkontakten.

Die Parallelschaltung lässt sich entschärfen, wenn man den Kontakten 
jeweils ein paar Milliohm als Symmetrierwiderstand in Reihe schaltet. 
Ähnlich wie man es bei der Parallelschaltung von LEDs oder Transistoren 
macht. Der Symmetrierwiderstand kann auch als Kabel ausgeführt sein, ein 
extra Bauteil braucht man nicht.

Problematisch ist die bus bar. Die Terminals im Steckerkorb müssen sich 
bewegen können. Die Gegenseite auf der Leiterplatte ist fest, und 
irgendwo muss der Toleranzausgleich passieren können. Wenn die Kontakte 
im Stecker nun ebenfalls fest sind, treten mechanische Spannungen auf 
und unter Vibration (Lüfter) bricht das Ganze dann irgendwann. So ein 
Bruch erfolgt nicht schlagartig, wie bei einer Glasscheibe, sondern er 
arbeitet sich langsam durch das Material. Dadurch steigt der Widerstand, 
und das war's.

von Sauron (Gast)


Lesenswert?

>So viel zu Thema Parallelschaltung von Steckkontakten.

Sind die auf der Grafikkarte wirklich parallel geschaltet ?

Die RTX 4090 besitzt 23 Phasen die Müssen sich doch irgendwie auf den 
neuen Stecker aufteilen. Der Bruch eines Drahtes muss doch zwangsläufig 
zum wegfall von mindestens einer der 23 Phasen führen, oder irre ich da 
?

und der Wegfall einer Phase sollte doch dazu führen, dass das Signal 
"Power good" (PCI-bus)  auf null geht , oder irre ich da ?

und ein wegfall des "Power Good" signals sollte doch eine Notabschaltung 
auslösen , und somit ein Schmoren verhindern.

Mach ich da etwa einen Denkfehler ?

von Nop (Gast)


Lesenswert?

Sauron schrieb:

> Sind die auf der Grafikkarte wirklich parallel geschaltet ?

Nein, viel schlimmer, die sind im Stecker parallel gelötet:
https://www.igorslab.de/adapter-des-grauens-analysiert-nvidias-brandheisser-12vhpwr-adapter-mit-eingebauter-sollbruchstelle/

Vollprofis bei Nvidia.

> und der Wegfall einer Phase sollte doch dazu führen, dass das Signal
> "Power good" (PCI-bus)  auf null geht , oder irre ich da ?

Der Bruch läßt die Phase am Stecker nicht wegfallen, alle sind parallel 
gelötet. Das Sense-Signal wiederum ist davon unabhängig.

von Nop (Gast)


Lesenswert?

AMD (Radeon senior vice president Scott Herkelman) hat übrigens schon 
angesagt, daß ihre neuen Karten diesen neuen Stecker nicht verwenden 
werden, sondern die normalen bisherigen:
https://twitter.com/sherkelman/status/1584931430483705859?s=20&t=L2D4Od5sQzD9YY7SY3yVFQ

von Wühlhase (Gast)


Lesenswert?

Christian M. schrieb:
> Man denkt sich, oh ein Kontakt hält 10A aus, nehme ich halt 5 für
> 50A...
> und vergisst aber das der Ri der Steckverbinder sehr stark voneinander
> abweichen kann. Dann sind da auf einem Pin 30A und auf den restlichen 4
> 20A verteilt.
> So viel zu Thema Parallelschaltung von Steckkontakten.

Dann wird der erste Pin deutlich schneller warm, der Widerstand des Pins 
steigt (der spezifische Materialwiderstand von Cu z.B. ist bei 140°C 
doppelt so hoch wie bei Raumtemperatur), und dann sollte sich das 
eigentlich recht gut ausgleichen.

Etwas Reserve sollte natürlich trotzdem noch bleiben, aber prinzipiell 
ist das eigentlich kein Problem.

von (prx) A. K. (prx)


Lesenswert?

Martin S. schrieb:
> Es hat schon seinen Grund, warum so ziemlich alle Netzteile dieser Welt,
> die mehr als 10 oder 20A liefern können, keinen Steckkontakt mehr haben

Netzteile von Servern und Storage sind oft redundant und dann natürlich 
heiss auswechselbar. Aber man nimmt da eben die richtigen Kontakte.

: Bearbeitet durch User
von Rolf M. (rmagnus)


Lesenswert?

(prx) A. K. schrieb:
> Martin S. schrieb:
>> Es hat schon seinen Grund, warum so ziemlich alle Netzteile dieser Welt,
>> die mehr als 10 oder 20A liefern können, keinen Steckkontakt mehr haben
>
> Netzteile von Servern und Storage sind oft redundant und dann natürlich
> heiss auswechselbar. Aber man nimmt da eben die richtigen Kontakte.

Ich hatte mal mit DELL-Blades mit redundantem 1,1kW-Netzteil zu tun. Da 
wurde einfach direkt auf die Platine kontaktiert, sprich: Die 
Netzteilplatine schaute hinten ein Stück heraus und hatte da ein paar 
Kontaktflächen für die fast 100A bei 12V.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?


von Rolf M. (rmagnus)


Lesenswert?

Ja, das erste Beispiel ist exakt das Netzteil, das bei uns im Einsatz 
war.

Beitrag #7236225 wurde von einem Moderator gelöscht.
Beitrag #7236326 wurde von einem Moderator gelöscht.
Beitrag #7236328 wurde von einem Moderator gelöscht.
von X2 (Gast)


Lesenswert?

Sauron schrieb:
> und der Wegfall einer Phase sollte doch dazu führen, dass das Signal
> "Power good" (PCI-bus)  auf null geht , oder irre ich da ?
>
> und ein wegfall des "Power Good" signals sollte doch eine Notabschaltung
> auslösen , und somit ein Schmoren verhindern.
>
> Mach ich da etwa einen Denkfehler ?

Welches Signal auf welchem Pin meinst du? Ich sehe auf dem PCIe Bus kein 
solches Signal. Es gibt 3 Spannungen, 12V, 3,3V und 3,3V Standby. Dazu 
kommen noch Reset und Present Signale.

von Nop (Gast)


Lesenswert?

X2 schrieb:

> Welches Signal auf welchem Pin meinst du?

Gemeint sind natürlich die Signalleitungen auf dem PCIe5.0-Stecker. Also 
dem Teil, was abbrennt, nicht auf dem PCIe-Bus auf dem Mobo.

von X2 (Gast)


Lesenswert?

Nop schrieb:
> Gemeint sind natürlich die Signalleitungen auf dem PCIe5.0-Stecker

CARD_PWR_STABLE (Optional) ist dann wohl gemeint. Solange die Spannung 
nicht unter den spezifizierten Bereich fällt, wird das Signal soweit ich 
das verstehe nicht ausgelöst.

von Sauron (Gast)


Lesenswert?

X2 schrieb:
> Welches Signal auf welchem Pin meinst du? Ich sehe auf dem PCIe Bus kein
> solches Signal. Es gibt 3 Spannungen, 12V, 3,3V und 3,3V Standby. Dazu
> kommen noch Reset und Present Signale.

ich meine dieses Signal:
https://en.wikipedia.org/wiki/Power_good_signal

Nop schrieb:
> Gemeint sind natürlich die Signalleitungen auf dem PCIe5.0-Stecker. Also
> dem Teil, was abbrennt, nicht auf dem PCIe-Bus auf dem Mobo.

Das hat mit dem neuen Stecker nix zu tun, ich meine schon die PCIe 
Steckverbindung auf dem "Mobo"

von Nop (Gast)


Lesenswert?

Sauron schrieb:

> Das hat mit dem neuen Stecker nix zu tun, ich meine schon die PCIe
> Steckverbindung auf dem "Mobo"

Und das Mobo soll das woher wissen, wenn es um die direkte 
Stromversorgung der GPU durch das Netzteil geht? Es ist gerade der Zweck 
des Adaptersteckers, bis zu vier 8-Pin-Verbindungen anzuschließen, um 
Bestands-Netzteile nutzen zu können.

Wenn da eines nicht angeschlossen ist, dann ist das kein Fehler, und das 
Netzteil wird dem Mobo auch kein Problem mitteilen. Die Graka soll dann 
selber merken, daß sie eben nur 3x150W ziehen kann. Das tut sie, indem 
im Adapterstecker ein IC sitzt, das auswertet, ob an den 8-Pin-Steckern 
was hängt, und dann setzt es die Sense-Leitungen im PCIe5.0-Stecker zur 
Graka dementsprechend.

Schlecht ist es aber, wenn man alle vier Eingänge angeschlossen hat, der 
IC der Graka sagt, kannst 600W ziehen - aber im Adapterstecker ("nach" 
dem IC) ein Kontaktproblem ist und man "eigentlich" besser nur 450W 
ziehen sollte. Das Netzteil liefert die Leistung schon, aber dann halt 
600W über nur drei Verbindungen, die für zusammen 450W gedacht sind. 
Noch übler bei zwei solcher Kontaktprobleme, wo man dann 600W über zwei 
Verbindungen schiebt, die für zusammen 300W ausgelegt sind.

von Sauron (Gast)


Lesenswert?

Nop schrieb:
> Und das Mobo soll das woher wissen, wenn es um die direkte
> Stromversorgung der GPU durch das Netzteil geht?

Das geht über das oben genannte "Power_good" signal

Nop schrieb:
> Nein, viel schlimmer, die sind im Stecker parallel gelötet:
> 
https://www.igorslab.de/adapter-des-grauens-analysiert-nvidias-brandheisser-12vhpwr-adapter-mit-eingebauter-sollbruchstelle/
>
> Vollprofis bei Nvidia.


Würde es diese "Drahtbrücke" im stecker NICHT geben, dann würde das 
Power_good signal eine Notabschaltung des Netzteiles durchführen,
und ein Schmoren des steckers wäre unmöglich.

Doch der Nvidia Murks verhindert, dass die Grafikkarte den Drahtbruch 
erkennen kann  => rauchwolken

von Nop (Gast)


Lesenswert?

Sauron schrieb:

> Das geht über das oben genannte "Power_good" signal

Und wieso sollte das auf einen Warnungswert gesetzt sein? Und wieso 
sollte das überhaupt darüber laufen, statt daß das Netzteil hart 
abschaltet? Also, wenn es denn den Fehler detektieren würde.

von Sauron (Gast)


Lesenswert?

Nop schrieb:
> Und wieso sollte das auf einen Warnungswert gesetzt sein? Und wieso
> sollte das überhaupt darüber laufen, statt daß das Netzteil hart
> abschaltet? Also, wenn es denn den Fehler detektieren würde.

Da gibt es keine Warnung. Und es erfolgt erst recht keine Abschaltung, 
da ja alle Messungen normale werte Vorgaukeln. Das ist ja das Problem.

im "Normalen Fehlerfall" würde die Grafikkarte den Fehler erkennen, denn 
von den 23 Phasen der RTX 4090 fallen durch einen Drahtbruch gleich 
mehrere Phasen aus ( Vermissen also mindestens einmal 12 Volt) . Dies 
sollte eigentlich zur sofortigen Abschaltung des Netzteiles führen.

von Sauron (Gast)


Lesenswert?

Wie hat Nvidia das Problem denn nun gelöst ?

von Bernd (Gast)


Lesenswert?

Sauron schrieb:
> Wie hat Nvidia das Problem denn nun gelöst ?

Gar nicht, wozu auch. Wenn der Kunde den Adapter kaputt macht,
dann ist der selbst schuld, und darf ne neue karte für ca 2300 € kaufen.

Da wäre es doch Geschäftsschädigend, wenn die Karten möglichst stabil 
und Haltbar gebaut werden.  Und wer genug Kohle für ne 4090 hat, kauft 
sich doch eh in 2 jahren die 5090

einen Fehler einzugestehen kostet Nvidia doch nur unnötig Geld,
also wird das Problem den Kunden in die Schuhe geschoben

von Ich A. (alopecosa)


Lesenswert?

Nano schrieb:
> 180 € / 40 Cent/kWh = 450 kWh pro Monat

teuren Strom hast du da. Ich zahle 0,279 EUR/kWh.

Sauron schrieb:
> ich meine dieses Signal:
> https://en.wikipedia.org/wiki/Power_good_signal

Es gibt weder bei PCIe noch bei den Zusatzsteckern ein PWR_OK.

Das bekannte "Power Good" Signal ist lediglich am ATX Stecker zum 
Mainboard zu finden... schon immer.
1
3.3.1. PWR_OK
2
PWR_OK is a “power good” signal. It should be asserted high by the power supply to
3
indicate that the +12 VDC, +5VDC, and +3.3VDC outputs are above the under-voltage
4
thresholds listed in Section 3.2.1 and that sufficient mains energy is stored by the converter
5
to guarantee continuous power operation within specification for at least the duration
6
specified in Section 3.2.11, “Voltage Hold-up Time.” Conversely, PWR_OK should be deasserted to a low state when any of the +12 VDC, +5 VDC, or +3.3 VDC output voltages
7
falls below its under-voltage threshold, or when mains power has been removed for a time
8
sufficiently long such that power supply operation cannot be guaranteed beyond the powerdown warning time. The electrical and timing characteristics of the PWR_OK signal are
9
given in Table 13 and in Figure 6.

: Bearbeitet durch User
von 888 (Gast)


Lesenswert?

Power Good löst den Reset des Mikroprozessors aus. Damit wird 
signalisiert, dass alle Spannungen da sind, danach fährt die CPU hoch. 
Oft hast Du an der Frontplatte einen "Reset"-Taster, der ist von der 
Funktion her parallel geschaltet.

von 🕵︎ Joachim L. (Gast)


Lesenswert?

Die Consumerteile haben alle solche miesen Stecker, das gilt leider auch 
für den Mainboard Hauptstecker (ca. 30x). Sind halt "geschickt plazierte 
Sollbruchstellen", über die hauptsächlich die "pösen" Frickler stolpern 
sollen, denn die versuchen manchmal den Wegwerf-Kram zu reparieren statt 
was Neues zu kaufen. Wo kommen wir denn da hin, wenn hier jeder auf 
eigene Faust die Umwelt ein bischen schonen will und damit "die 
Wirtschaft schädigt".

von Holger (Gast)


Lesenswert?

Bernd schrieb:
> einen Fehler einzugestehen kostet Nvidia doch nur unnötig Geld,
> also wird das Problem den Kunden in die Schuhe geschoben

Ja, so wirds gemacht:

Nvidia erklärt schmelzende Stecker durch Anwenderfehler

https://www.golem.de/news/geforce-rtx-4090-nvidia-erklaert-schmelzende-stecker-durch-anwenderfehler-2211-169892.html

von Nop (Gast)


Lesenswert?

Holger schrieb:

> Ja, so wirds gemacht:
>
> Nvidia erklärt schmelzende Stecker durch Anwenderfehler

Nicht nur Nvidia - Gamers Nexus kommt zum selben Schluß. Dennoch ist der 
Stecker ein Fehldesign, eben weil Nutzerfehler relativ leicht möglich 
sind und das Design in diesem Fall nicht mit "fail safe" reagiert.

Man hätte z.B. die Sense-Leitungen zurückziehen können, damit dort der 
Kontakt als letztes hergestellt wird und als erstes abbricht. Das wäre 
möglich, weil dort eh kaum Strom drübergeht. Man hätte auch ein 
deutlicheres Feedback machen können, wenn der Stecker komplett drin ist.

Außerdem baut die Karte sehr breit und führt den Stecker seitlich raus, 
so daß ein Biegen des Kabels praktisch unumgänglich ist, wenn man das 
Seitenteil des Gehäuses schließen will.

von Holger (Gast)


Lesenswert?

Nop schrieb:
> Man hätte z.B. die Sense-Leitungen zurückziehen können, damit dort der
> Kontakt als letztes hergestellt wird und als erstes abbricht.

leider hilft das nicht um überlastung durch Drahtbruch erkennen zu 
können.

Nop schrieb:
> Das wäre
> möglich, weil dort eh kaum Strom drübergeht.

was heisst "kaum" ?  so , wie ich das verstnden habe, dürfen die beiden
sense leitungen genauso belastet werden, wie die übrigen gnd leitungen.

ansonsten hätten sie ja deutlich kleiner ausfallen können,
so wie die 4 neuen kontakte

von Nop (Gast)


Lesenswert?

Holger schrieb:

> leider hilft das nicht um überlastung durch Drahtbruch erkennen zu
> können.

Das ist bei den bisherigen 8-Pin-Steckern auch nicht anders. Ist aber 
auch kein praktisch relevantes Fehlerbild.

> ansonsten hätten sie ja deutlich kleiner ausfallen können,
so wie die 4 neuen kontakte

Diese vier neuen sind die Sense-Kontakte!

Siehe hier: 
https://videocardz.com/newz/pcie-gen5-12vhpwr-power-connector-to-feature-150w-300w-450w-and-600w-settings

von ●DesIntegrator ●. (Firma: FULL PALATINSK) (desinfector) Benutzerseite


Lesenswert?

Johnny B. schrieb:
> Bei so Grosskonzernen sind oft nicht die Entwickler schuld, sondern die
> Führung, welche fordert, dass jeder Cent eingespart wird, den man kann.
> Dann nehmen sie halt gerne mal einen etwas zu kleinen Leiterqueschnitt
> oder einen etwas zu unterdimensionierten Steckverbinder.

jetzt muss nur noch einer auf die Idee kommen, dass vernickeltes Eisen
 statt Messing oder Bronzen
bei Heissgeräten als Kontaktmaterial auch funktioniert.
Und in Netzkabeln der PE-Leiter nur noch Strom
für 30mA ausgelegt sein muss - ha'm ja alle einen FI

Damit wird man zum Mitarbeiter des Jahrzehnts

von vnnn (Gast)


Lesenswert?

Elektriker schrieb:
> Aber vermutlich müssen noch einige Millenials mit Schippe in der Schnute
> in ihren PC schauen bevor sie lernen, dass Lesen und Einhalten von
> Spezifikationen eben genau der Unterschied ist warum die Boomer wissen
> wo der Hase lang läuft ;)

Grafikkarten sind durch Laien tauschbar - schwer vorzustellen, dass 
Boomer-Tante Hilde so viel besser über Steckzyklen bescheid weiß als 
BWL-Student Justus.

Aber so ist das halt, wenn ungebildeten Schwaflern nix anderes einfällt 
als die eigenen Minderwertigkeitskomplexe auf die bösen Millennials zu 
projizieren. Neidisch auf diejenigen die es weiter gebracht haben als 
zum Kabelschlepper?

von Gerald B. (geraldb)


Lesenswert?

So wie es aussieht, trifft hierbei Nvidia überhaupt keine schuld. Es 
gibt wohl zwei Gründe für diesen Ausfall:

1.: Die betroffen User waren zu blöd, den Stecker vollständig bis zum 
Einrasten einzustecken.

2.: Die PCI-SIG hat diesen Stecker (Murx) entworfen und als Standard 
festgelegt, bei dem dieser Stecker nur schlecht einrastet. Nvidia hat 
sich nur an den vorgegebenen Standard gehalten.


Nvidia ist sehr kulant und stuft diesen Schaden trotzdem als 
Garantiefall ein. Es gibt einen kostenlosen Austausch für das defekte 
Kabel.

: Bearbeitet durch User
von 🕵︎ Joachim L. (Gast)


Lesenswert?

Völlig unnötig für Leute die noch einen FHD Monitor haben, oder eine 
Brille tragen. Für FHD unnötig schnell und stromgierig. Brillenträger 
müssen absolut stillsitzen und einen konstanten Abstand einhalten, wenn 
sie einen Schärfeunterschied zwischen FHD und 4K "geniessen" wollen (mit 
steifem Kreuz und Genick!). Das ganze ist doch reine Geldmache und macht 
technisch nur für Profis einen Sinn. Für irgendwelche, immer doofer 
werdenden Spiele, brauchst das kein Ach mein Geld gebe ich lieber 
woanders aus. Bei FHD sind die die Pixel etwa einen viertel Millimeter 
groß. Das reicht mir. Bessere Farben und Freesync (gerne auch mit max. 
75Hz) sind eindeutig wichtiger, auch und gerade für Spiele. Davon mal 
abgesehen hat mir Nvidias Philosophie noch nie gefallen. Meine 
Empfehlung z.B. Radeon RX 580 oder Vega56, die sind gebraucht richtig 
preiswert geworden, seit sie für manche Shitcoins nicht mehr genug Bauer 
haben.

von Wil (Gast)


Lesenswert?

Das nennt man "Intrinsische Obsoleszenz", eine logische Konsequenz der 
"Kosteneffizienz". Willkommen in der Anti-Wirtschaft Kapitalismus, eine 
Religion, die auf Knappheit und Ineffizienz basiert und die eine 
exponentiell unendliche Nachfrage auf einem endlichen Planeten braucht, 
um Arbeitsplätze zu erhalten, um Einkommen zu erhalten, um Nachfrage zu 
erhalten, um Arbeitsplätze zu erhalten usw. bis in die Unendlichkeit und 
noch viel weiter, was die intrinsische Obsoleszenz nicht schafft, 
schafft die geplante Obsoleszenz, "Design to fail", Trends, MHD usw. 
Marktgötter bestimmen über Leben und Tod mit ihrer unsichtbaren Hand 
über magische Preisfindungen, um Wirtschaftswunder herbei zu zaubern, 
anstatt dass unter Anwendung zuverlässigster Technologie nach 
wissenschaftlicher Methode vorgegangen wird, um möglichst effizient 
menschliche Bedürfnisse zu befriedigen.

von MaWin (Gast)


Lesenswert?

Wil schrieb:
> Das nennt man "Intrinsische Obsoleszenz", eine logische Konsequenz
> der "Kosteneffizienz". Willkommen in der Anti-Wirtschaft Kapitalismus,
> eine Religion, die auf Knappheit und Ineffizienz basiert und die eine
> exponentiell unendliche Nachfrage auf einem endlichen Planeten braucht,
> um Arbeitsplätze zu erhalten, um Einkommen zu erhalten, um Nachfrage zu
> erhalten, um Arbeitsplätze zu erhalten usw. bis in die Unendlichkeit und
> noch viel weiter, was die intrinsische Obsoleszenz nicht schafft,
> schafft die geplante Obsoleszenz, "Design to fail", Trends, MHD usw.
> Marktgötter bestimmen über Leben und Tod mit ihrer unsichtbaren Hand
> über magische Preisfindungen, um Wirtschaftswunder herbei zu zaubern,
> anstatt dass unter Anwendung zuverlässigster Technologie nach
> wissenschaftlicher Methode vorgegangen wird, um möglichst effizient
> menschliche Bedürfnisse zu befriedigen.

Echt jetzt, Dumpfbacken, die zu blöd sind, einen Stecker korrekt zu 
stecken
haben jetzt einen eigenen Namen? Was war an Dumpfbacke so falsch?

von Nop (Gast)


Lesenswert?

MaWin schrieb:

> Echt jetzt, Dumpfbacken, die zu blöd sind, einen Stecker korrekt zu
> stecken

Wobei man zum Steckerdesign schon kritisch anmerken muß, daß es erstens 
wesentlich mehr Kraft braucht als beim bisherigen Stecker, bis er sitzt, 
und es außerdem kein richtiges "klick" als Rückmeldung zum Nutzer gibt. 
Das lädt Nutzerfehler schon ein und ist nicht im Sinne von "design for 
safety".

von Nop (Gast)


Lesenswert?

... und eine Karte so breit zu bauen und den Stecker so zu 
positionieren, daß man den zulässigen Biegeradius des Kabels praktisch 
gar nicht einhalten kann, wenn man bei einem handelsüblichen PC-Gehäuse 
das Seitenteil schließen will, ist auch keine Sternstunde von Nvidias 
Engineering.

von Nano (Gast)


Lesenswert?

DPA schrieb:
> Elias K. schrieb:
>> Man sollte auch bedenken, dass sich die GraKa bis 450W genehmigt.
>
> 450W für eine Grafikkarte!?! Das nenne ich mal Stromverschwendung! Also
> so sieht Energie sparen nicht aus!

Wenn der Rechner im Homeoffice benutzt wird ist das kein Problem.
So manches Auto zieht bei der Fahrt > 70000 W.

Und wenn man die Leute in der Freizeit dazu bringt, lieber am PC mit der 
450 W GPU in virtuelle Welten einzutauchen, dann ist das energetisch 
günstiger, als wenn sie mit ihrem > 1 t Auto durch die Gegend fahren.

Insofern 450 W für eine Grafikkarte klingt nach viel, aber es schützt 
das Klima.

von Nano (Gast)


Lesenswert?

Es geht uns immer noch zu gut schrieb:
> Und anstatt das endlich weniger Straßen und Grundstücksbeleuchtung (jene
> gerade im Privaten Umfeld) stattfindet wird es immer mehr - auch aktuell
> trotz steigenden Energiepreisen.

Also bei der Grundstücksbeleuchtung geht es genaugenommen um Aktivismus.

Die Eigentümer dieser von außen beleuchteten Häuser wollen damit 
ausdrücken, dass sie die Wissenschaft und Forschung verachten. Denn die 
Wissenschaft und Forschung braucht in der Astronomie zur Stern- und 
Himmelsbeobachtung Dunkelheit bzw. also möglichst keine 
Lichtverschmutzung.

Das Licht der meist nach oben gerichteten Scheinwerfer, das auf die 
Häuser geworfen werden soll, trifft nämlich auch die Gasmolekühle in der 
Atmosphäre und die reflektieren das Licht dann zurück.
Die Folge davon ist, dass man keine Sterne mehr sehen kann und der 
Himmel, wie in Großstädten zu einer gelblich eingefärbte Dunstglocke 
wird.

Wenn du also mal so ein Haus siehst, dann weißt du gleich, da wohnt ein 
Feind der Wissenschaft und Forschung.

Leider machen auch manche Firmen bei dieser Verachtung mit und 
beleuchten ihr Firmengelände mit Flutlicht.

Um Sicherheit geht es da nicht, denn wenn es um Sicherheit gehen würde, 
würde man das Gelände mit Wärmebild- oder Infrarotkameras überwachen und 
das Licht erst dann dazuschalten, wenn man gute Fotoaufnahmen braucht.

von Nano (Gast)


Lesenswert?

Ich A. schrieb:
> Nano schrieb:
>> 180 € / 40 Cent/kWh = 450 kWh pro Monat
>
> teuren Strom hast du da. Ich zahle 0,279 EUR/kWh.

Den Preis habe ich grob aus dieser Liste entnommen und gerade auf die 40 
gerundet:

https://www.globalpetrolprices.com/electricity_prices/

Tipp:
In der Liste Euro als Währung auswählen.
Falls du den Preis für Industriekunden wissen willst, siehe der Button 
links daneben.

von Nano (Gast)


Lesenswert?

Joachim L. schrieb:
> Für irgendwelche, immer doofer
> werdenden Spiele, brauchst das kein Ach mein Geld gebe ich lieber
> woanders aus.

Wenn Flugsimulationen realistisch sein sollen, insbesondere die 
militärischen, dann brauchst du diese 4k und 8k Auflösungen.
Denn in echt könnte ein guter Kampfjetpilot die Mig ja auch noch in 
vielen Meilen Entfernung als Punkt erkennen.

Natürlich braucht man dafür die richtigen Displays in entsprechender 
Größe, aber völlig sinnlos ist das jetzt nicht wie du behauptest.

von Rolf M. (rmagnus)


Lesenswert?

Nano schrieb:
> Insofern 450 W für eine Grafikkarte klingt nach viel, aber es schützt
> das Klima.

Im Winter kommt noch dazu, dass die Grafikkarte das Zimmer warm hält und 
man somit weniger heizen muss. Man hat also sogar doppelt gespart.

von Ich A. (alopecosa)


Lesenswert?

Joachim L. schrieb:
> Die Consumerteile haben alle solche miesen Stecker, das gilt leider auch
> für den Mainboard Hauptstecker (ca. 30x).

Die Kontakte der MiniFit Jr. sind halt nun mal so spezifiziert.
Schaut man sich die Dinger mal an, weiß man auch warum.

Letztlich halten sie definitiv länger, nur dann eben nicht mehr den 
Nennstrom. Zumindest nicht lange.

von X2 (Gast)


Lesenswert?

Ich A. schrieb:
> Joachim L. schrieb:
>> Die Consumerteile haben alle solche miesen Stecker, das gilt leider auch
>> für den Mainboard Hauptstecker (ca. 30x).
>
> Die Kontakte der MiniFit Jr. sind halt nun mal so spezifiziert.
> Schaut man sich die Dinger mal an, weiß man auch warum.

Ist aber für vermutlich mehr als 99% egal, da die Stecker meist nur 
einen Zyklus bekommen...

von Rolf M. (rmagnus)


Lesenswert?

X2 schrieb:
> Ist aber für vermutlich mehr als 99% egal, da die Stecker meist nur
> einen Zyklus bekommen...

Das denke ich auch. Ich wüsste zumindest nicht, wozu ich mein Board oder 
die Grafikkarte 30 mal aus- und wieder einstecken sollte. Und es kommt 
sicher auch nicht so arg oft vor, dass jemand in seinen Rechner 30 mal 
eine neue Grafikkarte einbaut.

von rbx (Gast)


Lesenswert?

Nano schrieb:
> Denn in echt könnte ein guter Kampfjetpilot die Mig ja auch noch in
> vielen Meilen Entfernung als Punkt erkennen.

Ich fand das in Skyrim so interessant: Da war mal so ein Teller oder 
eine Schale auf dem Weg, die ist direkt vor mir nach oben in den Himmel 
gewandert. Man konnte das Ding noch eine Weile sehen, bevor es ein 
kleiner Punkt wurde und letztendlich verschwand.
Naja, Spiele sollten vor allem Spaß machen, und nicht irgendeiner 
ultragenauen Grafik hinterherrennen.
Skyrim auf Minimaleinstellungen macht allerdings auch keinen Spaß. Und 
wo bleibt der gute Sound?
Man muss eine Balance finden, und das können meist nur gute Leute.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.