Wer konstruiert so was? https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-schmelzende-stromkabel/ Und der Kram kostet 2000€!!
Glaser schrieb: > Wer konstruiert so was? > > https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-schmelzende-stromkabel/ > > Und der Kram kostet 2000€!! Bei so Grosskonzernen sind oft nicht die Entwickler schuld, sondern die Führung, welche fordert, dass jeder Cent eingespart wird, den man kann. Dann nehmen sie halt gerne mal einen etwas zu kleinen Leiterqueschnitt oder einen etwas zu unterdimensionierten Steckverbinder. In Summe lohnt sich das Ganze dann wohl finanziell trotzdem, auch wenn bei manchen Kunden mal was abfackelt.
Man sollte auch bedenken, dass sich die GraKa bis 450W genehmigt. Und das bei max. 12V - entsprechende Ströme fließen. Ich denke da als Vergleich an Staubsauger, die in ähnlicher Leistungsklasse bei 230V auch mal eine Steckdose heiß werden lassen.
Wer das konstruiert? Intel und das PCI Express Konsortium, von denen Nvidia die Spezifikation übernommen hat.
Johnny B. schrieb: > Glaser schrieb: >> Wer konstruiert so was? >> >> > https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-schmelzende-stromkabel/ >> >> Und der Kram kostet 2000€!! > > Bei so Grosskonzernen sind oft nicht die Entwickler schuld, sondern die > Führung, welche fordert, dass jeder Cent eingespart wird, den man kann. > Dann nehmen sie halt gerne mal einen etwas zu kleinen Leiterqueschnitt > oder einen etwas zu unterdimensionierten Steckverbinder. > In Summe lohnt sich das Ganze dann wohl finanziell trotzdem, auch wenn > bei manchen Kunden mal was abfackelt. Mal sehen wie Nvidia reagiert, wenn durch solche Fahrlässige Einsparungen ganze Häuser abbrennen? Ich denke, das es so manche Klagen geben wird.
Alleine schon, dass die Leitungen nicht gebogen werden dürfen/sollen, ist doch ein Witz! https://cablemod.com/12vhpwr/ Zitat: > Unsere umfangreichen Tests haben ergeben, dass sich einige > der Anschlüsse lösen oder im Stecker selbst falsch ausgerichtet > werden können, wenn die Drähte zu nah am Stecker gebogen werden. Was ist das bitte für ein billiger Stecker?
Zitat vom > Zitat: >> Unsere umfangreichen Tests haben ergeben, dass sich einige >> der Anschlüsse lösen oder im Stecker selbst falsch ausgerichtet >> werden können, wenn die Drähte zu nah am Stecker gebogen werden. Sowas laesst man sich ja auch von einer zertifizierten Lieferfirma zsammenschrauben. Auf die paar Euronen kommt es dabei eh nicht an. Morgen sind sie sowieso nichts mehr wert.
Villenbesitzer mit geheiztem Pool schrieb: > Sowas laesst man sich ja auch von einer zertifizierten Lieferfirma > zsammenschrauben. Und das verbessert die Qualität wie? Davon abgesehen, das nur wenige (bis keiner) einen solchen Service nutzen werden. Erst recht die Gamer, die ihren PC aufrüsten...
> Bender
Drueck mal auf die Turbotaste bei deinem 6502!
Ich hab grad mal im "letzten" Lieferschein nachgesehen:
"Nvidia RTX A5000 24GB PCIe4.0"
Was interessiert mich da ein Anschlusskabel...
Aufruesten tu ich immer ganze Systeme.
Elias K. schrieb: > Man sollte auch bedenken, dass sich die GraKa bis 450W genehmigt. 450W für eine Grafikkarte!?! Das nenne ich mal Stromverschwendung! Also so sieht Energie sparen nicht aus!
Irgendwie ist es doch nichts neues, daß das PC-Gerümpel oftmals nicht das aushält was draufsteht oder wie es aussieht. Erste Erfahrung hierzu war mein Athlon Thunderbird 1400, der unbedingt auf 1533Mhz aufgebohrt werden musste. 5 Minuten prime95 Stabilitätstest - Licht aus und Codegen 300W Netzteil tot. Gratulation dazu durch Mutti. Bei schlechten Verbindungen brennen diese ATX-Stecker immer wieder weg. Passiert oft bei Grafikkarten, schafft man aber auch auf dem Mainboard. Nur wenige hochpreisige Netzteile liefern wirklich was draufsteht. Die meisten sind nur Chinakracher, teilweise leisten sich auch große Hersteller wie Gigabyte solche Fails (GP-P750GM/GP-P850GM) und lassen ihre Kunden dafür bluten, die den teuren Schrott gekauft haben.
Bender schrieb: > Alleine schon, dass die Leitungen nicht gebogen werden > dürfen/sollen, ist doch ein Witz! Da hat Nvidia klar Murks gebaut. Denn die sind es ja, die die Karten so breit bauen, daß man biegen muß, um die Seitenwand zu schließen, und sie sind es auch, die den Stecker zur Seite herausführen, und sie sind es ebenfalls, die nicht auf die Idee eines Winkelsteckers gekommen sind.
Hallo DPA schrieb: > 450W für eine Grafikkarte!?! Das nenne ich mal Stromverschwendung! Also > so sieht Energie sparen nicht aus! Wer sich so eine Grafikkarte leistet - ein passender Rechner wird auch dazugehören und in diesen Umfeld sind auch teure Mäuse, Tastaturen und oft auch "Lenkräder" und Sitze mit dabei - den interessieren 3 Euro reine Energiekosten (soviel wird es dann doch nicht sein) pro Tag nicht. Und wenn es dir um das "Große ganze geht" dann kann ich dir nur Empfehlen nicht in die Industrie, den Gesundheitswesen, den Straßenverkehr und bei der Bahn zu schauen: Da bestünden sehr sehr große Einsparmöglichkeiten, Gesetze, Vorschriften und "German Angst" (die mittlerweile zur European Angst geworden ist) verhindern das aber. Da werden wird in über Nacht abgestellte Stadtbahnen die Fahrgastraumbeleuchtung dauerhaft angelassen und durchgehend warm gehalten (Betrieb mäßiges Ausschalten durch den Fahrer ist gar nicht möglich bzw. nur via komplettes Abrüsten des Fahrzeuges möglich was aber bei Neustart nur Ärger macht), da läuft im Straßenverkehr die Fußgängerampel im Dorfzentrum auch nachts durch, die ist es im Patientenzimmer egal was kommt immer die verschriebenen 2xC warm, da wird der viele ha große Industriepark Regentag hell (und heller) beleuchtet - und so ein Regentag ist erstaunlich hell , ganz zu schweigen was in allen Bereichen für "Es könnte mal sein" Szenarien durchlaufen gelassen wird. Und anstatt das endlich weniger Straßen und Grundstücksbeleuchtung (jene gerade im Privaten Umfeld) stattfindet wird es immer mehr - auch aktuell trotz steigenden Energiepreisen. Von einer ausgeschalteten Werbebeleuchtung (und die fängt auch schon bei der Beleuchtung des "Namensschilds" bzw. Logos und des "Schaufensters" des Versicherungsvertreters oder der Imbisbude statt - ich rede jetzt nicht von Alexanderplatz und der Kö...) habe ich auch nur sehr kurzeitig etwas mitbekommen...
Bender schrieb: > Alleine schon, dass die Leitungen nicht gebogen werden dürfen/sollen, > ist doch ein Witz! Da merkt man das jemand keinerlei Ahnung von Elektrotechnik hat. JEDES Kabel, jede Leitung, wird sich an der Stelle an der man den Biegeradius unterschritten hat, unzulässig erwärmen, bis hin zum "Brand" wenn die Leitung hochbelastet wird. Die Frage ist nur wie klein der minimale Biegeradius eben sein darf. Und haben tut den jede Leitung...
Ich A. schrieb: > Bender schrieb: >> Alleine schon, dass die Leitungen nicht gebogen werden dürfen/sollen, >> ist doch ein Witz! > > Da merkt man das jemand keinerlei Ahnung von Elektrotechnik hat. > JEDES Kabel, jede Leitung, wird sich an der Stelle an der man den > Biegeradius unterschritten hat, unzulässig erwärmen, bis hin zum "Brand" > wenn die Leitung hochbelastet wird. > > Die Frage ist nur wie klein der minimale Biegeradius eben sein darf. Und > haben tut den jede Leitung... Nur das das noch nicht einmal ansatzweise etwas mit dem vorliegenden Problem zu tun hat! Wieder einmal zeigt sich, das es generell eine gute Idee ist sich zuerst mit einem Thema auseinander zu setzen, es zu durchdenken, es zu verstehen, bevor man darüber schreibt (oder redet).
Elias K. schrieb: > Man sollte auch bedenken, dass sich die GraKa bis 450W genehmigt. Und > das bei max. 12V - entsprechende Ströme fließen. Ich denke da als > Vergleich an Staubsauger, die in ähnlicher Leistungsklasse bei 230V auch > mal eine Steckdose heiß werden lassen. Wenn ich das richtig sehe, sind das Micro-Mate-N-Lok. Die dürfen 5A Ppro Kontakt und optimalen Bedingungen. Wenn die Helden jetzt die Kontakte einfach parallel schalten, reicht einer, der keinen Kontakt bekommt um den ganzen Haufen kernzuschmelzen.
Bekannte hat ihrem Sohn den Wunsch-PC zum Geburtstag geschenkt incl. neuem Monitor. Sprung in den Stromkosten um +180€ monatlich. :-)
Roland E. schrieb: > Micro-Mate-N-Lok Sieht für mich auch so aus, aber der Stecker hat noch ein paar Zusatz-Pins für irgendwelche Steuersignale. Weiß zufällig jemand, wieso man sich für diesen Stecker entschieden hat? Ich finde es irgendwie merkwürdig, bei so einer riesigen Karte auf einen winzigen Steckverbinder zu setzen. Diesen neuen Stecker hätte ich eher bei z.B. Low Profile Karten vermutet. Bei einer drei oder sogar vier Slots breiten Karten sollte mehr aus ausreichend Platz vorhanden sein?
Ich A. schrieb: > Da merkt man das jemand keinerlei Ahnung von Elektrotechnik hat. > JEDES Kabel, jede Leitung, wird sich an der Stelle an der man den > Biegeradius unterschritten hat, unzulässig erwärmen, bis hin zum "Brand" > wenn die Leitung hochbelastet wird. WAS willst du von mir? Hast du überhaupt gelesen was ich geschrieben habe? Oder nur nicht verstanden? Und zum Thema "Ahnung von Elektrotechnik" kann ich nur laut lachen :D
Helge schrieb: > Bekannte hat ihrem Sohn den Wunsch-PC zum Geburtstag geschenkt incl. > neuem Monitor. Sprung in den Stromkosten um +180€ monatlich. :-) Dafür kann man aber den Heizkörper runterdrehen :-)
Helge schrieb: > Bekannte hat ihrem Sohn den Wunsch-PC zum Geburtstag geschenkt > incl. > neuem Monitor. Sprung in den Stromkosten um +180€ monatlich. :-) Die Kiste bläst mit Monitor über 800W durch und der Sohn hat den Rechner inklusive Monitor 24/7 auf Volllast laufen? Wenn er nur den halben Tag daddelt wären das über 1600W. Da werden selbst die Netzteile teuer, zudem kommt man gar nicht in diesen Bereich mit der TDP. SLI gibt es inzwischen ja nicht mehr. 450W/600W der RTX3090 + keine 300W für einen Ryzen 7950X/13900K. Monitor wird auch groß wenn es über 200W werden... Und die Stromrechnung wurde auch sofort angepasst?
Keine ahnung was der Bursche damit anstellt. Jedenfalls haufenweise Blinkibunti drin, ein gefühlt 1,5m breiter Monitor, allen möglichen Gedöns drumrum. Hört sich 24/7 an wie ein Rechenzentrum. Wird natürlich nie ausgeschaltet. Krass daß der schlafen kann bei dem Lärm.
Es ist doch immer wieder lustig wie leicht sich Leute aufregen ohne auch nur eine Ahnung zu haben oder sich ggf ein paar Minuten mit der Materie beschäftigt zu haben... Bisherige Steckverbinder - Der verwendete Stecker für die 6- und 8-Pin Kabel ist ein Molex Mini-Fit Jr. - die entsprechenden Bestell-Nummern stehen sogar in der Wikipedia. Der dazu gehörende Kontakt ist ein Molex MINI-FIT 5556 un derstmal (bei Norm-Bedingungen) für 9A / 600V ausgelegt. Die vorgesehene Anzahl an Steckzyklen ist 30. Der 12VHPWR Stecker hat nur 3mm Raster und eine Strombelastbarkeit von 9,2A je Pin (jeweils 6) - insgesamt sind es 55A bei 12VDC-8% ~= 607W worst case (30K Temperaturerhöhung). Also völlig ausreichend und anforderungsgemäß. (Siehe auch https://videocardz.com/newz/pcie-gen5-12vhpwr-power-connector-to-feature-150w-300w-450w-and-600w-settings) Natürlich hat der auch nur eine begrenze Anzahl an Steckzyklen ... und zwar genauso viele wie die 6- und 8-Pin Varianten und so wie jeder beliebige andere Stecker (und alle anderen elektromechanischen Bauelemente) auch - werden die überschritten verschlechtert sich der Kontakt und die Stromtragfähigkeit nummt ab. Ist halt wie mit Autoreifen wo das Profil runter ist... Wer den Stecker nicht bestimmungsgemäß verwendet (Biegeradien / Steckzyklen / Temperatur) muss sich nicht wundern wenn die Dinger versagen. Und da es sich um ein Bauelement mit sehr hoher Leistungsdichte handelt rächen sich die Fehler bei der Benutzung eben direkt. Aber das hält ja nicht diejenigen Heulsusen ab sich zu beschweren wenn sie nicht wissen was sie tun... Aber vermutlich müssen noch einige Millenials mit Schippe in der Schnute in ihren PC schauen bevor sie lernen, dass Lesen und Einhalten von Spezifikationen eben genau der Unterschied ist warum die Boomer wissen wo der Hase lang läuft ;)
Andre schrieb: > Sieht für mich auch so aus, aber der Stecker hat noch ein paar > Zusatz-Pins für irgendwelche Steuersignale. Mit diesen Steuersignalen weiß die Graka, wieviel Leistung das andere Ende überhaupt liefern kann. Im Falle von Netzteilen, die diesen Stecker nativ haben, kommt diese Info direkt vom Netzteil. Hat man ein bisheriges, dann enthält das von Nvidia gelieferte Kabel einen IC, der aktiv guckt, an welchen der 8-Pin-Stecker (die zum Netzteil) was angeschlossen ist. Es ist zu befürchten, daß diese Adapter-Kabel auch in schrottig auf den Markt kommen, also ohne so ein IC, und dann einfach immer der Graka sagen, sie kann ziehen, was sie will.
Elektriker schrieb: > Der 12VHPWR Stecker hat nur 3mm Raster und eine Strombelastbarkeit von > 9,2A je Pin (jeweils 6) - insgesamt sind es 55A bei 12VDC-8% ~= 607W > worst case (30K Temperaturerhöhung). Offensichtlich nur unter Laborbedingungen und geschulten Personal.
Moin, Mich wundert es eh, dass diese Grafikkarten nicht schon ihren eigenen Kaltgeräte-Stecker haben. Ist bei der Leistungsklasse und Preissegment doch irgendwie doof sich von einem Netzteil mit zweifelhafter Qualität versorgen zu lassen. MfG Alex
Alex schrieb: > Mich wundert es eh, dass diese Grafikkarten nicht schon ihren eigenen > Kaltgeräte-Stecker haben. Sieh Dir die Größe einer Graka an, außerdem die Größe eines Netzteils, und stell Dir vor, so ein Netzteil würde auch noch auf die Graka wandern. Dann wunderst Du Dich nicht mehr.
Elektriker schrieb: > Die vorgesehene Anzahl an Steckzyklen ist 30. > (...) > Natürlich hat der auch nur eine begrenze Anzahl an Steckzyklen Alles richtig. Aber für Laien unbekannt. Grafikkarten sind aber durch Laien zu tauschen, und müssen daher auch alle Anforderungen der Produktsicherheit erfüllen. Wenn NVidia hier so an die Grenze dessen geht, was technisch überhaupt noch sinnvoll ist (auch, wenn es innerhalb der spec ist), dann muss das ins Handbuch mit rein. Dann muss dort stehen, dass die Biegeradien unbedingt einzuhalten sind (was bei feinadrigem Kabel ohnehin schwierig ist, denn das Zeug biegt sich ständig irgendwohin) und dass der Netzteilstecker maximal 30 Steckzyklen gehabt haben darf.
Andre schrieb: > Roland E. schrieb: >> Micro-Mate-N-Lok > > Sieht für mich auch so aus, aber der Stecker hat noch ein paar > Zusatz-Pins für irgendwelche Steuersignale. > > Weiß zufällig jemand, wieso man sich für diesen Stecker entschieden hat? > Mikro-Mate-N-Lok nennt es sich von Amp/TE. Molex hat es auch. Das System war seit ATX auf dem Mainboard als Spannungsversorgung präsent, weil es besser ist als das bei AT verwendete. Aus Rationalen Gründen wurden natürlich alle neu dazugekommenen Stromanschlüsse auf das System aufgesetzt, lediglich die Pinzahl wg PokaYoke jeweils variiert. Vor 30 Jahren konnte sich einfach kein Entwickler vorstellen, dass durch diese Klingeldrähte tatsächlich mal 5Ampere gepresst werden müssen.
Elektriker schrieb: > Es ist doch immer wieder lustig wie leicht sich Leute aufregen ohne auch > nur eine Ahnung zu haben oder sich ggf ein paar Minuten mit der Materie > beschäftigt zu haben... > > Bisherige Steckverbinder - Der verwendete Stecker für die 6- und 8-Pin > Kabel ist ein Molex Mini-Fit Jr. - die entsprechenden Bestell-Nummern > stehen sogar in der Wikipedia. Der dazu gehörende Kontakt ist ein Molex > MINI-FIT 5556 un derstmal (bei Norm-Bedingungen) für 9A / 600V > ausgelegt. Die vorgesehene Anzahl an Steckzyklen ist 30. > Aufpassen! Die 9 Ampere sind nur für MiniFit+. Normal sind auch da um 5A.
Glaser schrieb: > Wer konstruiert so was? > > https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-schmelzende-stromkabel/ > > Und der Kram kostet 2000€!! Bei den aktuellen Leistungen von Grafikkarten müsste man das ganze System langsam mal auf 24, oder besser 48 Volt umstellen. Langsam macht das 12V System in PCs keinen Sinn mehr.
Elektriker schrieb: > Der 12VHPWR Stecker hat nur 3mm Raster und eine Strombelastbarkeit von > 9,2A je Pin (jeweils 6) - insgesamt sind es 55A bei 12VDC-8% ~= 607W > worst case (30K Temperaturerhöhung). Also völlig ausreichend und > anforderungsgemäß. Wer sich eine Grafikkarte für 1500-2000€ kauft hat in der Regel ein Computernetzteil mit Kabelmanagement, etwas anderes gibt es in der Preis- und Leistungsklasse 1000W aufwärts eigentlich eh nicht mehr: https://geizhals.de/?cat=gehps&xf=360_1000%7E818_Corsair%7E818_EVGA%7E818_Enermax%7E818_Seasonic%7E818_be+quiet! Es gibt von den großen Marken ein (!) einziges Netzteil mit festen Kabeln bei über 1000W. Sprich man muss einfach nur beim Hersteller das passende Kabel bestellen: https://www.corsair.com/eu/de/Kategorien/Produkte/Zubeh%C3%B6r-%7C-Teile/PC-Komponenten/Netzteile/12-pin-GPU-Power-Cable/p/CP-8920274 20€ sind zwar schon fast eine Frechheit für so ein Kabel, aber besser als eine derartige Adapterlösung ist es allemal. Und damit ist das Problem denke ich aus der Welt, ob man wirklich eine RTX4090 benötigt bezweifle ich, derzeit gibt es kaum Spiele die eine RTX3080 auf 4k sinnvoll auslasten. Sprich man kauft eine Karte welche aktuell zu viel Leistung hat und alsbald die Spiele in 1-2 Jahren nachgezogen sind (UE5 Titel usw. sollten dann langsam erscheinen) ist die Karte schon lahmer Elektroschrott der den Ansprüchen von High End Gaming nicht mehr genügt.
Cyblord -. schrieb: > Bei den aktuellen Leistungen von Grafikkarten müsste man das ganze > System langsam mal auf 24, oder besser 48 Volt umstellen. Langsam macht > das 12V System in PCs keinen Sinn mehr. https://www.heise.de/newsticker/meldung/PC-Netzteilstandard-ATX12VO-Mainboards-wandeln-12-Volt-kuenftig-selbst-um-4644433.html Man wollte eigentlich gerade erst zu 12V hin umstellen. Die Spezifikation könnte man ja problemlos um 48V erweitern.
https://www.golem.de/news/brandgefahr-der-12vhpwr-stecker-hat-ein-problem-2210-169225.html
1 | Brandgefahr: Der 12VHPWR-Stecker hat ein Problem |
2 | |
3 | Bereits zur Einführung des neuen Stromsteckers gab es Kritik, die von den |
4 | Herstellern als unbegründet zurückgewiesen wurde. Nun gibt es Probleme in der Praxis. |
5 | |
6 | Auf Reddit kursiert derzeit ein Bild eines verschmorten 12VHPW-Stromsteckers, |
7 | der in Kombination mit einer Nvidia Geforce RTX 4090 offenbar so weit überhitzt |
8 | ist, dass das Plastik des Steckers teilweise geschmolzen ist. Nun stellt |
9 | sich die Frage, ob das Problem weitreichender ist oder ob ein simpler Defekt |
10 | die Ursache ist. |
Cyblord -. schrieb: > oder besser 48 Volt umstellen. Dann wird's mit den Halbleitern problematisch. Und man hätte noch eine Rail im Netzteil, die ja jetzt schon vollgepackt sind. Der Standard ist einfach überholt. Er hat lange gedient und müsste jetzt einfach sterben. 24V als einzige Systemspannung - dann könnte man jedes Industrienetzteil verwenden.
Peter Pan schrieb: > Man wollte eigentlich gerade erst zu 12V hin umstellen. Wir hatten in der Arbeit vor 10 Jahren schon PCs, die 12V only waren. So neu ist die Idee wahrlich nicht. > Die Spezifikation könnte man ja problemlos um 48V erweitern. Dann finde mal Schaltregler-ICs, die 48V nominal machen. Da wird die Auswahl richtig dünn. Aber es müssen keine 48V sein; 24V reichen ja auch schon, um die Ströme zu halbieren.
Peter Pan schrieb: > Die Spezifikation könnte man ja problemlos um 48V erweitern Das wird ein Rattenschwanz an Änderungen. Die meisten Wandler, die für PC und ähnliche optimiert wurden, können max. 15V. Direkt von 48V auf 1,xV dürfte sportlich werden. Um die paar Drähte benutzersicher zu machen eine doppelte Wandlung? Dann geht das rumgeweine los, daß die Komponenten noch größer und teurer werden.
Martin S. schrieb: > Dann finde mal Schaltregler-ICs, die 48V nominal machen. Da wird die > Auswahl richtig dünn. Aber es müssen keine 48V sein; 24V reichen ja auch > schon, um die Ströme zu halbieren. In Servern haben sie doch zur Versorgung auch 48V Schienen. Irgendwelche Halbleiter müssen da ja auch drin sein. Ich geb dir natürlich recht, die Wald und Wiesen Halbleiter sind bis 24V spottbillig, aber bei dem gigantischen Bedarf im IT Bereich könnte ich mir durchaus vorstellen, dass hier sogar eigens Halbleiter in diesem Bereich entwickelt werden sofern es schaltungstechnisch auch Sinn ergibt. https://www.heise.de/newsticker/meldung/Effiziente-OCP-Server-Mit-48-Volt-bis-zum-Prozessor-3647680.html
Roland E. schrieb: > Wenn ich das richtig sehe, sind das Micro-Mate-N-Lok. Die dürfen 5A Ppro > Kontakt und optimalen Bedingungen. Wenn die Helden jetzt die Kontakte > einfach parallel schalten, reicht einer, der keinen Kontakt bekommt um > den ganzen Haufen kernzuschmelzen. Die von AMP bzw TE dürfen 5 A. Was die chinesischen Dinger dürfen, die der Hersteller des Adapterkabels verbaut hat, steht auf einem anderen Blatt. Nur weil Stecker gleich aussehen und ineinander passen, haben sie noch lange nicht vergleichbare Daten. Bei Chinasteckern muss man hin und wieder sogar die Terminals nachbiegen, damit die keinen Wackelkontakt produzieren. Dann noch die für das Originalprodukt spezifizierte Maximallast abzurufen könnte mutig sein.
Alex schrieb: > Mich wundert es eh, dass diese Grafikkarten nicht schon ihren eigenen > Kaltgeräte-Stecker haben. Ist bei der Leistungsklasse und Preissegment > doch irgendwie doof sich von einem Netzteil mit zweifelhafter Qualität > versorgen zu lassen. Vielleicht sollte man so vorgehen, wie es bei besseren Grafik-Workstations früher nicht unüblich war: Die GPU kommt als eigene exakt darauf optimierte fertige Einheit mit Gehäuse und Netzteil, mit Verbindungskabel zu Grundgerät. Dann ist man nicht auf den für diese Leistungsklasse ungeeignete PC-Steckplatz und die umständliche Stromversorgungstechnik angewiesen, sondern kann das Gerät so bauen, wie es sein soll, mit Strom und Kühlung. Mit Thunderbird ist man da ja schon auf dem Weg. Da gibts das schon, aber vielleicht noch nicht in der Kilowatt-Klasse.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Vielleicht sollte man so vorgehen, wie es bei besseren > Grafik-Workstations früher nicht unüblich war Oder man nimmt den werksseitigen Overclock raus und hat nur noch den halben Verbrauch bei unwesentlich weniger Leistung. AMD, Intel und Nvidia machen diesen Unsinn ja nur, um fürs Marketing in Benchmarks die letzten paar Prozent noch rauszukitzeln.
Nop schrieb: > AMD, Intel und > Nvidia machen diesen Unsinn ja nur, um fürs Marketing in Benchmarks die > letzten paar Prozent noch rauszukitzeln. Aber nicht doch. Der Hersteller soll dem Kunden vorschreiben, was der gefälligst zu wollen hat? In welchem System leben wir denn?
Helge schrieb: > Hört sich 24/7 an wie ein Rechenzentrum. Wird natürlich > nie ausgeschaltet. Krass daß der schlafen kann bei dem Lärm. Ich denke der nimmt ein wenig Kompforteinbusse gerne in kauf, dafür das Mutti ihm den Etherum Schürfer ins Haus gestellt hat, der sein Taschengeld signifikant aufbessert.
Nop schrieb: > (prx) A. K. schrieb: >> Vielleicht sollte man so vorgehen, wie es bei besseren >> Grafik-Workstations früher nicht unüblich war > > Oder man nimmt den werksseitigen Overclock raus und hat nur noch den > halben Verbrauch bei unwesentlich weniger Leistung. Oder man überlegt ob es dringend viele hundert Watt und tausende Euros braucht um ein paar Pixel etwas hübscher zu machen. Oder um 380fps zu generieren welche auf einem 60Hz (oder im besten Fall einem 144Hz) Monitor abgebildet werden. Vielleicht läuft ja auch einfach nur seit einiger Zeit etwas gehörig aus der Spur. ;-)
Norbert schrieb: > Vielleicht läuft ja auch einfach nur seit einiger Zeit etwas gehörig aus > der Spur. ;-) Die schrägen Hobbies der Anderen sind kompletter Unsinn und bitteschön zu unterlassen, während der eigene Spleen Schutz geniessen muss. ;-)
(prx) A. K. schrieb: > Norbert schrieb: >> Vielleicht läuft ja auch einfach nur seit einiger Zeit etwas gehörig aus >> der Spur. ;-) > > Die schrägen Hobbies der Anderen sind kompletter Unsinn und bitteschön > zu unterlassen, während der eigene Spleen Schutz geniessen muss. ;-) Oh, das hast du komplett falsch verstanden. Oder ich habe mich nicht gut genug ausgedrückt. ;-) Natürlich darf ein jeder alles, wirklich alles, tun und lassen was er/sie/es will. Solange es nicht andere negativ betrifft. Es wäre jedoch durchaus schön zu sehen wenn etwas mehr über Konsequenzen nachgedacht würde. Oder über das mittelbare oder unmittelbare ›Betreffen‹. Na ja, zumindest gibt es offensichtlich eine Gruppe PC-Nutzer, welche sich besser nicht auf FFF-Demos einfinden sollten. Irgendwie auch ein netter Gedanke.
Norbert schrieb: > Na ja, zumindest gibt es offensichtlich eine Gruppe PC-Nutzer, welche > sich besser nicht auf FFF-Demos einfinden sollten. Zumindest sollten sie nicht ausgerechnet auf der FFF-Demo über ihre neue NVidia 4090 fachsimpeln. Könnte leicht passieren, denn viele Leute schaffen solchen Spagat mühelos. Nicht nur in der FFF-Szene. ;-) Ich habe gut reden. Mir reicht mittlerweile ein 15W Laptop mit Prozessorgrafik prima aus.
:
Bearbeitet durch User
Helge schrieb: > Bekannte hat ihrem Sohn den Wunsch-PC zum Geburtstag geschenkt incl. > neuem Monitor. Sprung in den Stromkosten um +180€ monatlich. :-) 180 € / 40 Cent/kWh = 450 kWh pro Monat 450 kWh / (30 Tage * 12 h) = 1,25 kWh an Verbrauch in der Stunde bei 12 h Spielzeit jeden Tag. Fazit: Glaube ich nicht. Schon gar nicht, wenn der Sohn in die Schule muss.
michael_ schrieb: > Helge schrieb: >> Bekannte hat ihrem Sohn den Wunsch-PC zum Geburtstag geschenkt incl. >> neuem Monitor. Sprung in den Stromkosten um +180€ monatlich. :-) > > Dafür kann man aber den Heizkörper runterdrehen :-) Siehe mein letztes Kommentar. Wenn dann dürfte das Kind wohl eher einen Kryptominer rund um die Uhr auf dem PC laufen lassen.
Norbert schrieb: > um 380fps zu generieren welche auf einem 60Hz (oder im besten Fall > einem 144Hz) Monitor abgebildet werden. das habe ich auch nie verstanden! Vielleicht klärt mich ein Gamer mal auf.
Joachim B. schrieb: > Norbert schrieb: >> um 380fps zu generieren welche auf einem 60Hz (oder im besten Fall >> einem 144Hz) Monitor abgebildet werden. > > das habe ich auch nie verstanden! > Vielleicht klärt mich ein Gamer mal auf. Es geht dabei nicht um die Bilder, sondern um Reduzierung von Input Lag: https://www.intel.com/content/www/us/en/gaming/resources/how-to-fix-input-lag.html
Gamer schrieb: > Joachim B. schrieb: >> Norbert schrieb: >>> um 380fps zu generieren welche auf einem 60Hz (oder im besten Fall >>> einem 144Hz) Monitor abgebildet werden. >> >> das habe ich auch nie verstanden! >> Vielleicht klärt mich ein Gamer mal auf. > > Es geht dabei nicht um die Bilder, sondern um Reduzierung von Input Lag: > https://www.intel.com/content/www/us/en/gaming/resources/how-to-fix-input-lag.html Also Input Lag den der Gamer zwischen zwei dargestellten Bildern gar nicht sehen, nicht erkennen und nicht erfühlen, sondern nur erwünschen, erhoffen und erraten kann. Hat schon einige Anzeichen von Religion.
Norbert schrieb: > Also Input Lag den der Gamer zwischen zwei dargestellten Bildern gar > nicht sehen, nicht erkennen und nicht erfühlen, sondern nur erwünschen, > erhoffen und erraten kann. > Hat schon einige Anzeichen von Religion. Doppelblindtests wären dort das Mittel der Wahl.
Norbert schrieb: > Also Input Lag den der Gamer zwischen zwei dargestellten Bildern gar > nicht sehen, nicht erkennen und nicht erfühlen Doch, natürlich. Die CPU bei t=0 mit ihren Berechnungen und schiebt die resultierenden Daten an die GPU, sobald sie fertig ist. Die CPU weiß nämlich nicht vorher, wann sie fertig sein wird, weil das Halteproblem nicht lösbar ist. Hat man mehr FPS, selbst wenn diese gar nicht dargestellt werden, sind die Daten, die dargestellt werden, etwas aktueller. Beispiel, 60 Hz Monitor mit 60 FPS, Daten maximal 16.7ms veraltet. 60 Hz Monitor mit 120 FPS, Daten maximal 8.3ms veraltet. Man gewinnt also 8.3ms. Noch mehr gewinnt man natürlich, wenn man keinen Office-Monitor zum Gaming mißbraucht, sondern gleich mindestens 144Hz nimmt, was eben deswegen auch üblich ist. Bei 144 FPS sind die Daten also maximal 6.9ms veraltet. Treibt man es auf die Spitze mit 288 FPS, gewinnt man wiederum 3.5ms. Wie man sieht, gilt das Gesetz des abnehmenden Ertrages in Bezug auf den zu treibenden Aufwand. Sehr schnelle Gamer (Wettbewerb, nicht Feierabendzocker) können bis runter auf 100-250ms Reaktionszeit sein. Nimmt man mal den Extremfall von 100ms für einfache Reaktions-Arten an, dann sind die 8.3ms von ganz oben ein Vorteil von 8.3%, und das wird das Ergebnis definitiv beeinflussen. Aber auch die 3.5% sind merkbar - nicht in jedem Einzelfall, aber in der Summe vieler Reaktionen ist es eine entsprechende Verbesserung der Chancen. 3.5% klingt nicht nach viel, aber man bedenke, daß die Bank mit einer 2.8%-Chance am Roulette-Tisch fährt. ;-) So, und dann gibt's noch einen anderen Faktor, das menschliche Auge. Zwar sehen wir ab 24 FPS eine flüssige Bewegung, aber das gilt bei weitem nicht für das Flackern in der Peripherie, wenn man einen großen Monitor hat. Etwa LED-PWM ist ja auch erst ab einigen 100 Hz flackerfrei, wenn man nicht ruhig draufstarrt, sondern den Kopf bewegt. [quote]Hat schon einige Anzeichen von Religion.[/quote] Ja, Du demonstrierst das ganz gut: etwas, was Du nichtmal im Ansatz verstehst, mit "Religion" zu erklären.
Nop schrieb Vieles im Beitrag #7233669, jedoch: Schön erklärt, größtenteils Unsinn. Das von dir so schön gezeichnete Szenario muss also mehrere gar nicht dargestellte Bildschirme komplett berechnen, nur um Maus oder Joystick Inputs zu bewerten? Es wäre also nicht möglich die Inputs unabhängig von der Refresh-Rate mit viel höherer Frequenz (einstellige ms) zu lesen und nur die resultierenden neuesten, frischsten Daten für die Darstellung zu nutzen? So wie zB. ein namhafter Simulator für's fliegende Volk eine unabhängige Einstellmöglichkeit für die Anzahl physikalischer Berechnungen pro dargestelltem Frame bietet? Das ist schon interessant…
Norbert schrieb: > Das von dir so schön gezeichnete Szenario muss also mehrere gar nicht > dargestellte Bildschirme komplett berechnen, nur um Maus oder Joystick > Inputs zu bewerten? Es geht um die ganze Kette des Input Lag. Die Verzögerung, die ich beschrieben habe, entsteht nicht auf dem Weg vom Spieler zum Rechner, sondern vorher, vom Rechner zum Spieler!
(prx) A. K. schrieb: > Mit Thunderbird ist man da ja schon auf dem Weg. Da gibts das schon, > aber vielleicht noch nicht in der Kilowatt-Klasse. Und nicht mit 16 PCIe5-Lanes. Nop schrieb: > Beispiel, 60 Hz Monitor mit 60 FPS, Daten maximal 16.7ms veraltet. Du meinst minimal. Nachdem das Bild gerendert wurde, muss es ja erst mal noch zum Monitor übertragen werden, bevor es dann angezeigt werden kann. Und dann kommt noch der Lag vom Monitor selbst dazu. > 60 Hz Monitor mit 120 FPS, Daten maximal 8.3ms veraltet. Man gewinnt also > 8.3ms. Dazu müsste man aber nicht das ganze Bild mit 120 FPS rendern, wenn dann sowieso jedes zweite weggeworfen wird. Aber heute hat man in der Regel eh dynamische Wiederholraten, d.h. der Monitor passt seine Hertzen an die Geschwindigkeit des Rechners an, statt diese hart auf einen fixen Wert zwingen zu wollen. Nop schrieb: > So, und dann gibt's noch einen anderen Faktor, das menschliche Auge. > Zwar sehen wir ab 24 FPS eine flüssige Bewegung, aber das gilt bei > weitem nicht für das Flackern in der Peripherie, wenn man einen großen > Monitor hat. Und es gilt vor allem nur bei entsprechender Bewegungsunschärfe. Ohne sieht das ganz anders aus. Ich gehe auf die 50 zu, sehe aber einen gewaltigen Unterschied zwischen 60 Hz und 120 Hz. > Etwa LED-PWM ist ja auch erst ab einigen 100 Hz > flackerfrei, wenn man nicht ruhig draufstarrt, sondern den Kopf bewegt. Auch da wirkt sich aus, dass sie keine Trägheit besitzen. > [quote]Hat schon einige Anzeichen von Religion.[/quote] > > Ja, Du demonstrierst das ganz gut: etwas, was Du nichtmal im Ansatz > verstehst, mit "Religion" zu erklären. Naja, es gibt zumindest natürlich wie bei allen Hobbys, die mit Optimierung von Technik zu tun haben, auch einiges an Schlangenöl.
Nop schrieb: > Norbert schrieb: > >> Das von dir so schön gezeichnete Szenario muss also mehrere gar nicht >> dargestellte Bildschirme komplett berechnen, nur um Maus oder Joystick >> Inputs zu bewerten? > > Es geht um die ganze Kette des Input Lag. Die Verzögerung, die ich > beschrieben habe, entsteht nicht auf dem Weg vom Spieler zum Rechner, > sondern vorher, vom Rechner zum Spieler! Mach dir mal ein ›Maling‹, zeichne eine Reihe von Frames nebeneinander gerne auch auf einer ›Timeline‹. Markiere jeden vierten davon zur Anzeige und alle anderen für die Tonne. Überlege welche Frames der Spieler sieht und auf welche er somit reagieren kann. Überlege welchem Zweck die mit viel Aufwand gerenderten aber nicht dargestellten Frames dienen (Tip: Wärmeerzeugung in der Tonne) Überlege ob man all das, was für die jeweils drei weggeworfenen Frames gilt, nicht viel einfacher nur berechnen (aber nicht malen) kann. Bei einem Bruchteil des Energieaufwandes. Danke.
Rolf M. schrieb: > Du meinst minimal. Nee, die CPU kann ja auch erst spät im 15.7ms-Raster fertig geworden sein, bei einem FPS-Einbruch etwa. > Nachdem das Bild gerendert wurde, muss es ja erst mal > noch zum Monitor übertragen werden Das muß es eh. > Dazu müsste man aber nicht das ganze Bild mit 120 FPS rendern, wenn dann > sowieso jedes zweite weggeworfen wird. Halteproblem. > Aber heute hat man in der Regel eh dynamische Wiederholraten Richtig, ändert aber an der grundsätzlichen Betrachtung nichts. Norbert schrieb: > Überlege ob man all das, was für die jeweils drei weggeworfenen Frames > gilt, nicht viel einfacher nur berechnen (aber nicht malen) kann. Ich schrieb schon von "Halteproblem". Wenn Dir das nichts sage, google es.
Norbert schrieb: > Oder man überlegt ob es dringend viele hundert Watt und tausende Euros > braucht ... ... um beim Zocken ohne Wohnungheizung nicht zu frieren. ;-)
Johnny B. schrieb: > Bei so Grosskonzernen sind oft nicht die Entwickler schuld, sondern die > Führung, welche fordert, dass jeder Cent eingespart wird (...) > In Summe lohnt sich das Ganze dann wohl finanziell trotzdem, auch wenn > bei manchen Kunden mal was abfackelt. Neue Kunden wachsen alle 9 Monate nach, ein verpaßter Quartalsgewinn kommt nie wieder.
Nop schrieb: > Rolf M. schrieb: > >> Du meinst minimal. > > Nee, die CPU kann ja auch erst spät im 15.7ms-Raster fertig geworden > sein, bei einem FPS-Einbruch etwa. Wichtig ist aber nicht, wann sie fertig ist, sondern wann sie anfängt. Denn das ist der Stand, auf dem die Berechnung des neuen Frames basiert. >> Nachdem das Bild gerendert wurde, muss es ja erst mal >> noch zum Monitor übertragen werden > > Das muß es eh. Ja, und das kostet nochmal die gleiche Zeit, verdoppelt also die Latenz. >> Aber heute hat man in der Regel eh dynamische Wiederholraten > > Richtig, ändert aber an der grundsätzlichen Betrachtung nichts. Es sorgt zumindest dafür, dass die Frames dann auch alle angezeigt werden und die Latenz unabhängig von einer fixen Frequenz wird. Besonders interessant wird das alles, wenn man auf VR übergeht, wo die geringe Latenz von Kopfbewegung bis zum neuen gerenderten Frame essenziell ist für eine gute Immersion und weniger Potenzial für Übelkeit. Dazu sind die Abhandlungen von John Carmack zur Latenz von VR ganz interessant zu lesen: https://danluu.com/latency-mitigation/
:
Bearbeitet durch User
Rolf M. schrieb: > Wichtig ist aber nicht, wann sie fertig ist, sondern wann sie anfängt. > Denn das ist der Stand, auf dem die Berechnung des neuen Frames basiert. Richtig. Sie weiß aber wegen des Halteproblems nicht, wie lange sie brauchen wird, weswegen sie man sie nicht einfach in der Mitte dieses Rasters anfangen lassen kann - was nämlich, wenn sie im verbleibenden halben Raster dann nicht fertig wird? > Es sorgt zumindest dafür, dass die Frames dann auch alle angezeigt > werden Es ändert nichts am Grundsätzlichen. Denn auch wenn der Monitor 144 Hz kann, hat man mit 288 FPS exakt dieselbe Betrachtung wie oben. Es ist nur anschaulicher zu erklären mit fester Framerate. Abgesehen davon ist die reale Schnittmenge derer, die sich um irrsinnig hohe FPS-Raten kümmern, und denen, die mit 60Hz-Monitoren zocken, eine praktisch leere Menge, weil diese Geld-Allokation beim Systembau keinen Sinn ergibt.
Norbert schrieb: > Schön erklärt, größtenteils Unsinn. Hier kannst du dich informieren: https://www.youtube.com/watch?v=OX31kZbAXsA Aber ich denke, du wirst keine 30 Minuten investieren wollen, um zu erkennen das du im Unrecht bist...
Bender schrieb: > Aber ich denke, du wirst keine 30 Minuten investieren wollen, um zu > erkennen das du im Unrecht bist... Dreißig Minuten eines Youtubers würden dafür auch nicht reichen. Auch für dich ein Gedankenexperiment: Wenn man vier frames rendert nur um drei wegzuwerfen und das weil man Angst hat den letzten nicht rechtzeitig fertig zu bekommen, warum nicht nur die letzten zwei rendern und schlimmstenfalls nur einen davon wegwerfen? Aber macht ihr mal alle schön…
Nop schrieb: > Rolf M. schrieb: > >> Wichtig ist aber nicht, wann sie fertig ist, sondern wann sie anfängt. >> Denn das ist der Stand, auf dem die Berechnung des neuen Frames basiert. > > Richtig. Sie weiß aber wegen des Halteproblems nicht, wie lange sie > brauchen wird, weswegen sie man sie nicht einfach in der Mitte dieses > Rasters anfangen lassen kann - was nämlich, wenn sie im verbleibenden > halben Raster dann nicht fertig wird? Dennoch ist diese Zeit Teil der Latenz, genau wie die Übertragung des Bildes zum Monitor. Beides zusammengezählt kommt bei 60 Hz in der Regel nie unter die 16,x Millisekunden. Deshalb ist das die minimale und nicht die maximale Latenz. > Abgesehen davon ist die reale Schnittmenge derer, die sich um irrsinnig > hohe FPS-Raten kümmern, und denen, die mit 60Hz-Monitoren zocken, eine > praktisch leere Menge, weil diese Geld-Allokation beim Systembau keinen > Sinn ergibt. Eben, schrieb ich ja.
Rolf M. schrieb: > Und nicht mit 16 PCIe5-Lanes. Wieviel Bandbreite braucht es wirklich, ich habe im Hinterkopf das der Sprung auf PCIe4 wenig bis nichts bei Spielen bringt.
Norbert schrieb: > Wenn man vier frames rendert nur um drei wegzuwerfen und das weil man > Angst hat den letzten nicht rechtzeitig fertig zu bekommen, warum nicht > nur die letzten zwei rendern und schlimmstenfalls nur einen davon > wegwerfen? Halteproblem, immer noch. Im Grundstudium gepennt?
Useless schrieb: > Wieviel Bandbreite braucht es wirklich, ich habe im Hinterkopf das der > Sprung auf PCIe4 wenig bis nichts bei Spielen bringt. Bei PCIe3 x16 spielt PCIe4 keine Rolle - und auch bei Karten, wo der Hersteller an Lanes gespart hat mit PCIe3 x8, ist der Zugewinn auf PCIe4 gerade mal so etwa 5%. Lediglich Karten, wo extrem gespart wurde mit nur vier Lanes, wie etwa der RX 6500, brauchen PCIe4 - aber diese Karte ist ohnehin Elektroschrott, den man nicht kauft. PCIe5 braucht man auf absehbare Zeit nicht. Auch nicht für Massenspeicher, denn für Office, Web, Gaming ist nichtmal von SATA-SSD auf NVMe-SSD ein Unterschied feststellbar, geschweige denn von PCIe4 auf PCIe5. Wenn man dauernd mit sehr großen Dateien hantiert, etwa Videobearbeitung oder große Photoshop-Projekte, ist das eine (relative) Nische.
Norbert schrieb: > Dreißig Minuten eines Youtubers würden dafür auch nicht reichen. War mir klar, deswegen schrieb ich das ja schon. Ich kenne deine Generation gut genug, der eigene Horizont ist ein Heiligtum, alle anderen sind generell im Unrecht und Fehler zugeben? No Way! Aber dann halte auch in Zukunft bitte deine Fresse(!) wenn es um dieses Thema geht, OK? Denn sich jeglicher Information verweigern, um weiter auf zusammengesponnen Fakten rumzureiten, ist müßig.
Nop schrieb: > Halteproblem, immer noch. Du gehst irrtümlich davon aus, das riesige Bandbreiten von Frameraten abgearbeitet werden müssen. Nur dann würde dein Argument halbwegs greifen. Nun ist es aber so das die Fluktuation der Framerate innerhalb eines bestimmten (und zu bestimmenden) Intervals liegt. Kein Spiel springt ständig zwischen 300fps und 30fps hin und her. Vielmehr ist es so das sich eine mittlere Framerate einstellt die auch mal 10%, 20% oder von mir aus auch 30% Prozent einbrechen kann. Das wiederum erlaubt es mit der niedrigsten zu erwartenden Framerate deterministisch zu arbeiten. Bei Szenen/Levelwechseln (welche im Spiel natürlich bekannt sind) oder anderen aufwendigen Operationen kann man die Erwartungshaltung zurückschrauben und kurzzeitig extrem konservativ (also viele frames) rechnen. Wenn es dir nichts ausmacht, dann werde zumindest ich auf dumme Kommentare verzichten.
Details zum Problem: https://www.computerbase.de/2022-10/defekte-12vhpwr-stecker-analyse-sieht-das-problem-bei-nvidias-rtx-4090-adapter/
(prx) A. K. schrieb: > Details zum Problem: > https://www.computerbase.de/2022-10/defekte-12vhpwr-stecker-analyse-sieht-das-problem-bei-nvidias-rtx-4090-adapter/ Ok, das ist einfach nur dumm! Solche Ströme über eine 2mm Metallfolie fließen zu lassen, provoziert das ja regelrecht. Die Fertigungs- bzw. Entwicklungsqualität ist einfach nur miserabel. Und dann auch noch gelötet. Das Teil ist der Inbegriff einer Sollbruchstelle.
auch wenn bei Alt-Zeugs, das ich schlachte, noch nicht so hohe Ströme fliessen, schaudern mich die schlechten Crimpverbindungen immer wieder. Man kann die Kabeladern oft ohne allzuviel Kraft aus den gecrimpen Pins raus ziehen. Obwohl man z.B. am ATX-Stecker-GEHÄUSE zieht, kommt auch gleich ein Pin mit raus oder eben auch nur das Leitungsende. Wenn solch wackeliges Zeugs auch bei "Super-Duper" Hardware vorkommt, wundert es mich, dass es nicht zu viel mehr Verschmorungen kommt.
Man denkt sich, oh ein Kontakt hält 10A aus, nehme ich halt 5 für 50A... und vergisst aber das der Ri der Steckverbinder sehr stark voneinander abweichen kann. Dann sind da auf einem Pin 30A und auf den restlichen 4 20A verteilt. So viel zu Thema Parallelschaltung von Steckkontakten.
Christian M. schrieb: > So viel zu Thema Parallelschaltung von Steckkontakten. Das geht, wenn man es richtig macht. Aber wer will an seiner Graka einen Harting-Stecker dran haben? Es hat schon seinen Grund, warum so ziemlich alle Netzteile dieser Welt, die mehr als 10 oder 20A liefern können, keinen Steckkontakt mehr haben, sondern eine Power bar, an der die Kabel richtig fest angeschraubt werden. Und dann geht da 1! Leitung mit entsprechendem Querschnitt weg, mit angecrimptem Kabelschuh (oder Öse). Hier wurde das Rad neu erfunden, dafür aber eckig.
Hinreichemd lange Einzeladern an jedem Kontakt (wie bei einem direkt vom Netzteil kommenden Kabel) sorgen ja noch für eine gewisse Symmetrierung der Stromverteilung auf die Kontakte... ... aber spätestens bei den Brücken direkt im Stecker ist das Problem geradezu deterministisch. Am erschreckendsten finde ich aber, daß schon im Standard ein so flimsiger Billigstecker vorgesehen wird, der dann auch noch ohne jede Reserve auf Kante designt verwendet wird. Da hätte man ja z.B. auch einen Stecker mit vernünftigen Hochstromkontakten vorsehen können, dann hätten auch 2 oder 4 Kontakte gereicht. Und wenn man feinstdrähtige Litze (etwa wie bei Lautsprecherkabeln) verwendet, wäre das resultierende Kabel auch bei 4 oder 2 poligem Stecker (also bei 25A bzw 50A pro Kontakt) trotz des großen Querschnitts noch flexibel.
:
Bearbeitet durch User
Christian M. schrieb: > So viel zu Thema Parallelschaltung von Steckkontakten. Die Parallelschaltung lässt sich entschärfen, wenn man den Kontakten jeweils ein paar Milliohm als Symmetrierwiderstand in Reihe schaltet. Ähnlich wie man es bei der Parallelschaltung von LEDs oder Transistoren macht. Der Symmetrierwiderstand kann auch als Kabel ausgeführt sein, ein extra Bauteil braucht man nicht. Problematisch ist die bus bar. Die Terminals im Steckerkorb müssen sich bewegen können. Die Gegenseite auf der Leiterplatte ist fest, und irgendwo muss der Toleranzausgleich passieren können. Wenn die Kontakte im Stecker nun ebenfalls fest sind, treten mechanische Spannungen auf und unter Vibration (Lüfter) bricht das Ganze dann irgendwann. So ein Bruch erfolgt nicht schlagartig, wie bei einer Glasscheibe, sondern er arbeitet sich langsam durch das Material. Dadurch steigt der Widerstand, und das war's.
>So viel zu Thema Parallelschaltung von Steckkontakten.
Sind die auf der Grafikkarte wirklich parallel geschaltet ?
Die RTX 4090 besitzt 23 Phasen die Müssen sich doch irgendwie auf den
neuen Stecker aufteilen. Der Bruch eines Drahtes muss doch zwangsläufig
zum wegfall von mindestens einer der 23 Phasen führen, oder irre ich da
?
und der Wegfall einer Phase sollte doch dazu führen, dass das Signal
"Power good" (PCI-bus) auf null geht , oder irre ich da ?
und ein wegfall des "Power Good" signals sollte doch eine Notabschaltung
auslösen , und somit ein Schmoren verhindern.
Mach ich da etwa einen Denkfehler ?
Sauron schrieb: > Sind die auf der Grafikkarte wirklich parallel geschaltet ? Nein, viel schlimmer, die sind im Stecker parallel gelötet: https://www.igorslab.de/adapter-des-grauens-analysiert-nvidias-brandheisser-12vhpwr-adapter-mit-eingebauter-sollbruchstelle/ Vollprofis bei Nvidia. > und der Wegfall einer Phase sollte doch dazu führen, dass das Signal > "Power good" (PCI-bus) auf null geht , oder irre ich da ? Der Bruch läßt die Phase am Stecker nicht wegfallen, alle sind parallel gelötet. Das Sense-Signal wiederum ist davon unabhängig.
AMD (Radeon senior vice president Scott Herkelman) hat übrigens schon angesagt, daß ihre neuen Karten diesen neuen Stecker nicht verwenden werden, sondern die normalen bisherigen: https://twitter.com/sherkelman/status/1584931430483705859?s=20&t=L2D4Od5sQzD9YY7SY3yVFQ
Christian M. schrieb: > Man denkt sich, oh ein Kontakt hält 10A aus, nehme ich halt 5 für > 50A... > und vergisst aber das der Ri der Steckverbinder sehr stark voneinander > abweichen kann. Dann sind da auf einem Pin 30A und auf den restlichen 4 > 20A verteilt. > So viel zu Thema Parallelschaltung von Steckkontakten. Dann wird der erste Pin deutlich schneller warm, der Widerstand des Pins steigt (der spezifische Materialwiderstand von Cu z.B. ist bei 140°C doppelt so hoch wie bei Raumtemperatur), und dann sollte sich das eigentlich recht gut ausgleichen. Etwas Reserve sollte natürlich trotzdem noch bleiben, aber prinzipiell ist das eigentlich kein Problem.
Martin S. schrieb: > Es hat schon seinen Grund, warum so ziemlich alle Netzteile dieser Welt, > die mehr als 10 oder 20A liefern können, keinen Steckkontakt mehr haben Netzteile von Servern und Storage sind oft redundant und dann natürlich heiss auswechselbar. Aber man nimmt da eben die richtigen Kontakte.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Martin S. schrieb: >> Es hat schon seinen Grund, warum so ziemlich alle Netzteile dieser Welt, >> die mehr als 10 oder 20A liefern können, keinen Steckkontakt mehr haben > > Netzteile von Servern und Storage sind oft redundant und dann natürlich > heiss auswechselbar. Aber man nimmt da eben die richtigen Kontakte. Ich hatte mal mit DELL-Blades mit redundantem 1,1kW-Netzteil zu tun. Da wurde einfach direkt auf die Platine kontaktiert, sprich: Die Netzteilplatine schaute hinten ein Stück heraus und hatte da ein paar Kontaktflächen für die fast 100A bei 12V.
:
Bearbeitet durch User
Beispiele für beides: https://i.ebayimg.com/images/g/bkYAAOSwnJ9iHzJz/s-l400.jpg https://i.ebayimg.com/images/g/h7kAAOSwW0JgZdfI/s-l400.jpg
Ja, das erste Beispiel ist exakt das Netzteil, das bei uns im Einsatz war.
Beitrag #7236225 wurde von einem Moderator gelöscht.
Beitrag #7236326 wurde von einem Moderator gelöscht.
Beitrag #7236328 wurde von einem Moderator gelöscht.
Sauron schrieb: > und der Wegfall einer Phase sollte doch dazu führen, dass das Signal > "Power good" (PCI-bus) auf null geht , oder irre ich da ? > > und ein wegfall des "Power Good" signals sollte doch eine Notabschaltung > auslösen , und somit ein Schmoren verhindern. > > Mach ich da etwa einen Denkfehler ? Welches Signal auf welchem Pin meinst du? Ich sehe auf dem PCIe Bus kein solches Signal. Es gibt 3 Spannungen, 12V, 3,3V und 3,3V Standby. Dazu kommen noch Reset und Present Signale.
X2 schrieb: > Welches Signal auf welchem Pin meinst du? Gemeint sind natürlich die Signalleitungen auf dem PCIe5.0-Stecker. Also dem Teil, was abbrennt, nicht auf dem PCIe-Bus auf dem Mobo.
Nop schrieb: > Gemeint sind natürlich die Signalleitungen auf dem PCIe5.0-Stecker CARD_PWR_STABLE (Optional) ist dann wohl gemeint. Solange die Spannung nicht unter den spezifizierten Bereich fällt, wird das Signal soweit ich das verstehe nicht ausgelöst.
X2 schrieb: > Welches Signal auf welchem Pin meinst du? Ich sehe auf dem PCIe Bus kein > solches Signal. Es gibt 3 Spannungen, 12V, 3,3V und 3,3V Standby. Dazu > kommen noch Reset und Present Signale. ich meine dieses Signal: https://en.wikipedia.org/wiki/Power_good_signal Nop schrieb: > Gemeint sind natürlich die Signalleitungen auf dem PCIe5.0-Stecker. Also > dem Teil, was abbrennt, nicht auf dem PCIe-Bus auf dem Mobo. Das hat mit dem neuen Stecker nix zu tun, ich meine schon die PCIe Steckverbindung auf dem "Mobo"
Sauron schrieb: > Das hat mit dem neuen Stecker nix zu tun, ich meine schon die PCIe > Steckverbindung auf dem "Mobo" Und das Mobo soll das woher wissen, wenn es um die direkte Stromversorgung der GPU durch das Netzteil geht? Es ist gerade der Zweck des Adaptersteckers, bis zu vier 8-Pin-Verbindungen anzuschließen, um Bestands-Netzteile nutzen zu können. Wenn da eines nicht angeschlossen ist, dann ist das kein Fehler, und das Netzteil wird dem Mobo auch kein Problem mitteilen. Die Graka soll dann selber merken, daß sie eben nur 3x150W ziehen kann. Das tut sie, indem im Adapterstecker ein IC sitzt, das auswertet, ob an den 8-Pin-Steckern was hängt, und dann setzt es die Sense-Leitungen im PCIe5.0-Stecker zur Graka dementsprechend. Schlecht ist es aber, wenn man alle vier Eingänge angeschlossen hat, der IC der Graka sagt, kannst 600W ziehen - aber im Adapterstecker ("nach" dem IC) ein Kontaktproblem ist und man "eigentlich" besser nur 450W ziehen sollte. Das Netzteil liefert die Leistung schon, aber dann halt 600W über nur drei Verbindungen, die für zusammen 450W gedacht sind. Noch übler bei zwei solcher Kontaktprobleme, wo man dann 600W über zwei Verbindungen schiebt, die für zusammen 300W ausgelegt sind.
Nop schrieb: > Und das Mobo soll das woher wissen, wenn es um die direkte > Stromversorgung der GPU durch das Netzteil geht? Das geht über das oben genannte "Power_good" signal Nop schrieb: > Nein, viel schlimmer, die sind im Stecker parallel gelötet: > https://www.igorslab.de/adapter-des-grauens-analysiert-nvidias-brandheisser-12vhpwr-adapter-mit-eingebauter-sollbruchstelle/ > > Vollprofis bei Nvidia. Würde es diese "Drahtbrücke" im stecker NICHT geben, dann würde das Power_good signal eine Notabschaltung des Netzteiles durchführen, und ein Schmoren des steckers wäre unmöglich. Doch der Nvidia Murks verhindert, dass die Grafikkarte den Drahtbruch erkennen kann => rauchwolken
Sauron schrieb: > Das geht über das oben genannte "Power_good" signal Und wieso sollte das auf einen Warnungswert gesetzt sein? Und wieso sollte das überhaupt darüber laufen, statt daß das Netzteil hart abschaltet? Also, wenn es denn den Fehler detektieren würde.
Nop schrieb: > Und wieso sollte das auf einen Warnungswert gesetzt sein? Und wieso > sollte das überhaupt darüber laufen, statt daß das Netzteil hart > abschaltet? Also, wenn es denn den Fehler detektieren würde. Da gibt es keine Warnung. Und es erfolgt erst recht keine Abschaltung, da ja alle Messungen normale werte Vorgaukeln. Das ist ja das Problem. im "Normalen Fehlerfall" würde die Grafikkarte den Fehler erkennen, denn von den 23 Phasen der RTX 4090 fallen durch einen Drahtbruch gleich mehrere Phasen aus ( Vermissen also mindestens einmal 12 Volt) . Dies sollte eigentlich zur sofortigen Abschaltung des Netzteiles führen.
Sauron schrieb: > Wie hat Nvidia das Problem denn nun gelöst ? Gar nicht, wozu auch. Wenn der Kunde den Adapter kaputt macht, dann ist der selbst schuld, und darf ne neue karte für ca 2300 € kaufen. Da wäre es doch Geschäftsschädigend, wenn die Karten möglichst stabil und Haltbar gebaut werden. Und wer genug Kohle für ne 4090 hat, kauft sich doch eh in 2 jahren die 5090 einen Fehler einzugestehen kostet Nvidia doch nur unnötig Geld, also wird das Problem den Kunden in die Schuhe geschoben
Nano schrieb: > 180 € / 40 Cent/kWh = 450 kWh pro Monat teuren Strom hast du da. Ich zahle 0,279 EUR/kWh. Sauron schrieb: > ich meine dieses Signal: > https://en.wikipedia.org/wiki/Power_good_signal Es gibt weder bei PCIe noch bei den Zusatzsteckern ein PWR_OK. Das bekannte "Power Good" Signal ist lediglich am ATX Stecker zum Mainboard zu finden... schon immer.
1 | 3.3.1. PWR_OK |
2 | PWR_OK is a “power good” signal. It should be asserted high by the power supply to |
3 | indicate that the +12 VDC, +5VDC, and +3.3VDC outputs are above the under-voltage |
4 | thresholds listed in Section 3.2.1 and that sufficient mains energy is stored by the converter |
5 | to guarantee continuous power operation within specification for at least the duration |
6 | specified in Section 3.2.11, “Voltage Hold-up Time.” Conversely, PWR_OK should be deasserted to a low state when any of the +12 VDC, +5 VDC, or +3.3 VDC output voltages |
7 | falls below its under-voltage threshold, or when mains power has been removed for a time |
8 | sufficiently long such that power supply operation cannot be guaranteed beyond the powerdown warning time. The electrical and timing characteristics of the PWR_OK signal are |
9 | given in Table 13 and in Figure 6. |
Power Good löst den Reset des Mikroprozessors aus. Damit wird signalisiert, dass alle Spannungen da sind, danach fährt die CPU hoch. Oft hast Du an der Frontplatte einen "Reset"-Taster, der ist von der Funktion her parallel geschaltet.
Die Consumerteile haben alle solche miesen Stecker, das gilt leider auch für den Mainboard Hauptstecker (ca. 30x). Sind halt "geschickt plazierte Sollbruchstellen", über die hauptsächlich die "pösen" Frickler stolpern sollen, denn die versuchen manchmal den Wegwerf-Kram zu reparieren statt was Neues zu kaufen. Wo kommen wir denn da hin, wenn hier jeder auf eigene Faust die Umwelt ein bischen schonen will und damit "die Wirtschaft schädigt".
Bernd schrieb: > einen Fehler einzugestehen kostet Nvidia doch nur unnötig Geld, > also wird das Problem den Kunden in die Schuhe geschoben Ja, so wirds gemacht: Nvidia erklärt schmelzende Stecker durch Anwenderfehler https://www.golem.de/news/geforce-rtx-4090-nvidia-erklaert-schmelzende-stecker-durch-anwenderfehler-2211-169892.html
Holger schrieb: > Ja, so wirds gemacht: > > Nvidia erklärt schmelzende Stecker durch Anwenderfehler Nicht nur Nvidia - Gamers Nexus kommt zum selben Schluß. Dennoch ist der Stecker ein Fehldesign, eben weil Nutzerfehler relativ leicht möglich sind und das Design in diesem Fall nicht mit "fail safe" reagiert. Man hätte z.B. die Sense-Leitungen zurückziehen können, damit dort der Kontakt als letztes hergestellt wird und als erstes abbricht. Das wäre möglich, weil dort eh kaum Strom drübergeht. Man hätte auch ein deutlicheres Feedback machen können, wenn der Stecker komplett drin ist. Außerdem baut die Karte sehr breit und führt den Stecker seitlich raus, so daß ein Biegen des Kabels praktisch unumgänglich ist, wenn man das Seitenteil des Gehäuses schließen will.
Nop schrieb: > Man hätte z.B. die Sense-Leitungen zurückziehen können, damit dort der > Kontakt als letztes hergestellt wird und als erstes abbricht. leider hilft das nicht um überlastung durch Drahtbruch erkennen zu können. Nop schrieb: > Das wäre > möglich, weil dort eh kaum Strom drübergeht. was heisst "kaum" ? so , wie ich das verstnden habe, dürfen die beiden sense leitungen genauso belastet werden, wie die übrigen gnd leitungen. ansonsten hätten sie ja deutlich kleiner ausfallen können, so wie die 4 neuen kontakte
Holger schrieb: > leider hilft das nicht um überlastung durch Drahtbruch erkennen zu > können. Das ist bei den bisherigen 8-Pin-Steckern auch nicht anders. Ist aber auch kein praktisch relevantes Fehlerbild. > ansonsten hätten sie ja deutlich kleiner ausfallen können, so wie die 4 neuen kontakte Diese vier neuen sind die Sense-Kontakte! Siehe hier: https://videocardz.com/newz/pcie-gen5-12vhpwr-power-connector-to-feature-150w-300w-450w-and-600w-settings
Johnny B. schrieb: > Bei so Grosskonzernen sind oft nicht die Entwickler schuld, sondern die > Führung, welche fordert, dass jeder Cent eingespart wird, den man kann. > Dann nehmen sie halt gerne mal einen etwas zu kleinen Leiterqueschnitt > oder einen etwas zu unterdimensionierten Steckverbinder. jetzt muss nur noch einer auf die Idee kommen, dass vernickeltes Eisen statt Messing oder Bronzen bei Heissgeräten als Kontaktmaterial auch funktioniert. Und in Netzkabeln der PE-Leiter nur noch Strom für 30mA ausgelegt sein muss - ha'm ja alle einen FI Damit wird man zum Mitarbeiter des Jahrzehnts
Elektriker schrieb: > Aber vermutlich müssen noch einige Millenials mit Schippe in der Schnute > in ihren PC schauen bevor sie lernen, dass Lesen und Einhalten von > Spezifikationen eben genau der Unterschied ist warum die Boomer wissen > wo der Hase lang läuft ;) Grafikkarten sind durch Laien tauschbar - schwer vorzustellen, dass Boomer-Tante Hilde so viel besser über Steckzyklen bescheid weiß als BWL-Student Justus. Aber so ist das halt, wenn ungebildeten Schwaflern nix anderes einfällt als die eigenen Minderwertigkeitskomplexe auf die bösen Millennials zu projizieren. Neidisch auf diejenigen die es weiter gebracht haben als zum Kabelschlepper?
So wie es aussieht, trifft hierbei Nvidia überhaupt keine schuld. Es gibt wohl zwei Gründe für diesen Ausfall: 1.: Die betroffen User waren zu blöd, den Stecker vollständig bis zum Einrasten einzustecken. 2.: Die PCI-SIG hat diesen Stecker (Murx) entworfen und als Standard festgelegt, bei dem dieser Stecker nur schlecht einrastet. Nvidia hat sich nur an den vorgegebenen Standard gehalten. Nvidia ist sehr kulant und stuft diesen Schaden trotzdem als Garantiefall ein. Es gibt einen kostenlosen Austausch für das defekte Kabel.
:
Bearbeitet durch User
Völlig unnötig für Leute die noch einen FHD Monitor haben, oder eine Brille tragen. Für FHD unnötig schnell und stromgierig. Brillenträger müssen absolut stillsitzen und einen konstanten Abstand einhalten, wenn sie einen Schärfeunterschied zwischen FHD und 4K "geniessen" wollen (mit steifem Kreuz und Genick!). Das ganze ist doch reine Geldmache und macht technisch nur für Profis einen Sinn. Für irgendwelche, immer doofer werdenden Spiele, brauchst das kein Ach mein Geld gebe ich lieber woanders aus. Bei FHD sind die die Pixel etwa einen viertel Millimeter groß. Das reicht mir. Bessere Farben und Freesync (gerne auch mit max. 75Hz) sind eindeutig wichtiger, auch und gerade für Spiele. Davon mal abgesehen hat mir Nvidias Philosophie noch nie gefallen. Meine Empfehlung z.B. Radeon RX 580 oder Vega56, die sind gebraucht richtig preiswert geworden, seit sie für manche Shitcoins nicht mehr genug Bauer haben.
Das nennt man "Intrinsische Obsoleszenz", eine logische Konsequenz der "Kosteneffizienz". Willkommen in der Anti-Wirtschaft Kapitalismus, eine Religion, die auf Knappheit und Ineffizienz basiert und die eine exponentiell unendliche Nachfrage auf einem endlichen Planeten braucht, um Arbeitsplätze zu erhalten, um Einkommen zu erhalten, um Nachfrage zu erhalten, um Arbeitsplätze zu erhalten usw. bis in die Unendlichkeit und noch viel weiter, was die intrinsische Obsoleszenz nicht schafft, schafft die geplante Obsoleszenz, "Design to fail", Trends, MHD usw. Marktgötter bestimmen über Leben und Tod mit ihrer unsichtbaren Hand über magische Preisfindungen, um Wirtschaftswunder herbei zu zaubern, anstatt dass unter Anwendung zuverlässigster Technologie nach wissenschaftlicher Methode vorgegangen wird, um möglichst effizient menschliche Bedürfnisse zu befriedigen.
Wil schrieb: > Das nennt man "Intrinsische Obsoleszenz", eine logische Konsequenz > der "Kosteneffizienz". Willkommen in der Anti-Wirtschaft Kapitalismus, > eine Religion, die auf Knappheit und Ineffizienz basiert und die eine > exponentiell unendliche Nachfrage auf einem endlichen Planeten braucht, > um Arbeitsplätze zu erhalten, um Einkommen zu erhalten, um Nachfrage zu > erhalten, um Arbeitsplätze zu erhalten usw. bis in die Unendlichkeit und > noch viel weiter, was die intrinsische Obsoleszenz nicht schafft, > schafft die geplante Obsoleszenz, "Design to fail", Trends, MHD usw. > Marktgötter bestimmen über Leben und Tod mit ihrer unsichtbaren Hand > über magische Preisfindungen, um Wirtschaftswunder herbei zu zaubern, > anstatt dass unter Anwendung zuverlässigster Technologie nach > wissenschaftlicher Methode vorgegangen wird, um möglichst effizient > menschliche Bedürfnisse zu befriedigen. Echt jetzt, Dumpfbacken, die zu blöd sind, einen Stecker korrekt zu stecken haben jetzt einen eigenen Namen? Was war an Dumpfbacke so falsch?
MaWin schrieb: > Echt jetzt, Dumpfbacken, die zu blöd sind, einen Stecker korrekt zu > stecken Wobei man zum Steckerdesign schon kritisch anmerken muß, daß es erstens wesentlich mehr Kraft braucht als beim bisherigen Stecker, bis er sitzt, und es außerdem kein richtiges "klick" als Rückmeldung zum Nutzer gibt. Das lädt Nutzerfehler schon ein und ist nicht im Sinne von "design for safety".
... und eine Karte so breit zu bauen und den Stecker so zu positionieren, daß man den zulässigen Biegeradius des Kabels praktisch gar nicht einhalten kann, wenn man bei einem handelsüblichen PC-Gehäuse das Seitenteil schließen will, ist auch keine Sternstunde von Nvidias Engineering.
DPA schrieb: > Elias K. schrieb: >> Man sollte auch bedenken, dass sich die GraKa bis 450W genehmigt. > > 450W für eine Grafikkarte!?! Das nenne ich mal Stromverschwendung! Also > so sieht Energie sparen nicht aus! Wenn der Rechner im Homeoffice benutzt wird ist das kein Problem. So manches Auto zieht bei der Fahrt > 70000 W. Und wenn man die Leute in der Freizeit dazu bringt, lieber am PC mit der 450 W GPU in virtuelle Welten einzutauchen, dann ist das energetisch günstiger, als wenn sie mit ihrem > 1 t Auto durch die Gegend fahren. Insofern 450 W für eine Grafikkarte klingt nach viel, aber es schützt das Klima.
Es geht uns immer noch zu gut schrieb: > Und anstatt das endlich weniger Straßen und Grundstücksbeleuchtung (jene > gerade im Privaten Umfeld) stattfindet wird es immer mehr - auch aktuell > trotz steigenden Energiepreisen. Also bei der Grundstücksbeleuchtung geht es genaugenommen um Aktivismus. Die Eigentümer dieser von außen beleuchteten Häuser wollen damit ausdrücken, dass sie die Wissenschaft und Forschung verachten. Denn die Wissenschaft und Forschung braucht in der Astronomie zur Stern- und Himmelsbeobachtung Dunkelheit bzw. also möglichst keine Lichtverschmutzung. Das Licht der meist nach oben gerichteten Scheinwerfer, das auf die Häuser geworfen werden soll, trifft nämlich auch die Gasmolekühle in der Atmosphäre und die reflektieren das Licht dann zurück. Die Folge davon ist, dass man keine Sterne mehr sehen kann und der Himmel, wie in Großstädten zu einer gelblich eingefärbte Dunstglocke wird. Wenn du also mal so ein Haus siehst, dann weißt du gleich, da wohnt ein Feind der Wissenschaft und Forschung. Leider machen auch manche Firmen bei dieser Verachtung mit und beleuchten ihr Firmengelände mit Flutlicht. Um Sicherheit geht es da nicht, denn wenn es um Sicherheit gehen würde, würde man das Gelände mit Wärmebild- oder Infrarotkameras überwachen und das Licht erst dann dazuschalten, wenn man gute Fotoaufnahmen braucht.
Ich A. schrieb: > Nano schrieb: >> 180 € / 40 Cent/kWh = 450 kWh pro Monat > > teuren Strom hast du da. Ich zahle 0,279 EUR/kWh. Den Preis habe ich grob aus dieser Liste entnommen und gerade auf die 40 gerundet: https://www.globalpetrolprices.com/electricity_prices/ Tipp: In der Liste Euro als Währung auswählen. Falls du den Preis für Industriekunden wissen willst, siehe der Button links daneben.
Joachim L. schrieb: > Für irgendwelche, immer doofer > werdenden Spiele, brauchst das kein Ach mein Geld gebe ich lieber > woanders aus. Wenn Flugsimulationen realistisch sein sollen, insbesondere die militärischen, dann brauchst du diese 4k und 8k Auflösungen. Denn in echt könnte ein guter Kampfjetpilot die Mig ja auch noch in vielen Meilen Entfernung als Punkt erkennen. Natürlich braucht man dafür die richtigen Displays in entsprechender Größe, aber völlig sinnlos ist das jetzt nicht wie du behauptest.
Nano schrieb: > Insofern 450 W für eine Grafikkarte klingt nach viel, aber es schützt > das Klima. Im Winter kommt noch dazu, dass die Grafikkarte das Zimmer warm hält und man somit weniger heizen muss. Man hat also sogar doppelt gespart.
Joachim L. schrieb: > Die Consumerteile haben alle solche miesen Stecker, das gilt leider auch > für den Mainboard Hauptstecker (ca. 30x). Die Kontakte der MiniFit Jr. sind halt nun mal so spezifiziert. Schaut man sich die Dinger mal an, weiß man auch warum. Letztlich halten sie definitiv länger, nur dann eben nicht mehr den Nennstrom. Zumindest nicht lange.
Ich A. schrieb: > Joachim L. schrieb: >> Die Consumerteile haben alle solche miesen Stecker, das gilt leider auch >> für den Mainboard Hauptstecker (ca. 30x). > > Die Kontakte der MiniFit Jr. sind halt nun mal so spezifiziert. > Schaut man sich die Dinger mal an, weiß man auch warum. Ist aber für vermutlich mehr als 99% egal, da die Stecker meist nur einen Zyklus bekommen...
X2 schrieb: > Ist aber für vermutlich mehr als 99% egal, da die Stecker meist nur > einen Zyklus bekommen... Das denke ich auch. Ich wüsste zumindest nicht, wozu ich mein Board oder die Grafikkarte 30 mal aus- und wieder einstecken sollte. Und es kommt sicher auch nicht so arg oft vor, dass jemand in seinen Rechner 30 mal eine neue Grafikkarte einbaut.
Nano schrieb: > Denn in echt könnte ein guter Kampfjetpilot die Mig ja auch noch in > vielen Meilen Entfernung als Punkt erkennen. Ich fand das in Skyrim so interessant: Da war mal so ein Teller oder eine Schale auf dem Weg, die ist direkt vor mir nach oben in den Himmel gewandert. Man konnte das Ding noch eine Weile sehen, bevor es ein kleiner Punkt wurde und letztendlich verschwand. Naja, Spiele sollten vor allem Spaß machen, und nicht irgendeiner ultragenauen Grafik hinterherrennen. Skyrim auf Minimaleinstellungen macht allerdings auch keinen Spaß. Und wo bleibt der gute Sound? Man muss eine Balance finden, und das können meist nur gute Leute.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.