Hallo, in vielen Büros sind Computer aktiv, die kaum ausgelastet sind. Es gibt Programme mit dem man diese übrige Rechenleistung spenden kann, z. B. BOINC-Manager. Nur leider weiß das kaum jemand und viele sind zu faul so etwas zu installieren, andere denken es könnte ja den Computer kaputt machen und weil man halt selbst nichts davon hat, macht man es halt nicht. Deshalb habe ich mir überlegt, man könnte so eine Funktion doch im Betriebssystem fest einbinden oder in anderen Programmen. Der Internet-/Telefonanbieter könnte doch einen Zuschlag für die verlangen die nicht eine bestimmte Rechenleistung spenden oder es gibt dafür bei software Vergünstigungen, Zugang zu bestimmten Internetseiten/Leistung, z. B. ein besseres eMail-Konto... Warum wird das so sehr selten angeboten/gemacht?
Stefan Helmert wrote:
> Warum wird das so sehr selten angeboten/gemacht?
Weil der PC mehr Suppe aus dem Stromnetz saugt, wenn er ständig auf
'Vollgas' läuft und ich das zahlen muss. Des weiteren würde sich mein
Notebook temperaturtechnisch nicht freuen, wenn es 24/7 am Limit läuft.
Solche Programme sind die reinsten Klimakiller und deren Anwender gehören genauso geächtet wie SUV-Fahrer.
Ja, das macht >100kWh pro Jahr, pro PC aus... Jetzt rechne das mal auf >1 Million PCs alleine in Deutschland hoch, was da in einem Jahr an Energie verheizt werden würde.
Volle Ablehnung! Vergleich: Ein externer Gutachter bemerkt, dass du ein Zimmer in deinem Haus nicht brauchst und bringt einfach fremde Leute ohne deine Zustimmung dort unter! Schonmal daran gedacht, dass man dadurch weitere Sicherheitslücken in die EDV reinbringt, die u.U. für Sabotage oder Spionage verwendet werden können?
Und abgesehen davon stehen viele Systemadministratoren der Installation von Software, die mit der Arbeit nichts zu tun haben, sehr skeptisch gegenüber.
Ich habs von irgendeiner Spielkonsole gehört, dass diese Rechenpower via Internet an Firmen zur Verfügung stellt... Wenn verteiltes Rechnen, dann aber bitte sinvolleres Zeug als SETI. Da gibts zum Beispiel Folding@home, was Proteinfaltungen duchrechnet und damit vielleicht mal Heilungen für Krankheiten ermöglicht.
Ich lasse den seti auch ab und zu mal laufen, allerdings nur auf hardware bei der ich weiss sie ist 100%ig io. bei büro-pcs wir dell rechner etc sind die netzteile so knapp dimensioniert dass der dauerhafte rechenleistungs-stromverbrauch ein bisschen welligkeit auf die ausgänge bringt. das hat mich schon 2 boards gekostet (musste sie re-cappen) ausserdem gehen dann die lüfter an, und dann wirds lauter, weil die cpu natürlich viel heißer wird. alles in allem ein blödsinnige idee. außerdem wäre das gleich mit dem "zwangswerbung" aufm fernseher oder "zwangs-scheiss-musik" ausm radio, wo du nicht umschalten kannst. oder ein "zwangs-windows" auf dem rechner schüttel
ProEinwand: Der Vorschlag ist gut, der er spart tatsächlich insgesamt REchenpower und damit Strom, weil die Leitsung, die ein PC bringt nur ein Bruchteil dessen ist, was er an Herstellung gekostet hat. Damit würde eingesparte Hardware in Rechenzentren sicher zur Stromsenkung beitragen. CintraEinwand: Wer soll denn das bitte bezahlen ? Bei vielen Konzernen gibt es extra Beschränkungen. Erst kürzlich gingen z.B. bei Roche wieder die Ticker los, und die Mitarbeiter wurden informiert, ja keine solchen Bandbreitenverschwender zu installieren! Zuhause kannst Du machen was Du willst,aber die Idde, es zwanghaft in den REchner zu integrieren, ist Unsinn.
Auf jeden Fall Sinn macht Distributed Computing wenn man dadurch andere Rechner einsparen kann, also z.B. in einer Uni wo die CIP-Rechner nebenbei irgend welche Matlab-Simulationen oder sowas rechnen. Bei "@home"-Projekten sollte man aber niemanden zwingen, da muss jeder für sich abwägen ob der Nutzen (Forschung) den Energieverbrauch und die Wärmeentwicklung aufwiegt. Projekte zur Primzahlenberechnung halte ich z.B. für reine Energieverschwendung. Seti@home ist ein Hobby für Star Trek-Fans, für die Forschung sinnlos. Das sinnvollste Projekt scheint Folding@home zu sein, und deshalb rechnet da der mikrocontroller.net-Server mit (im Sommer nur nachts zwischen 0 und 6 Uhr, wenn der Strom billig und die Luft kühl ist).
Ich habe das gerade mel getestet. Wenn ich meinen PC so zum Webradio hören an habe verbraucht er 100 Watt. (Mit Monitor) Wenn ich dann F@H anmache, sprigt der Stromverbrauch auf 195 Watt hoch. Das mach bei 17 ct/Kwh bei 5h eingeschaltetem PC schon 8Cent pro tag und 95 Watt mehr. Das sind ca. 30 € im Jahr. Von den Klimakosten (CO2) einmal abgesehen.
Deine CPU Temperatur sieht aber nicht gerade gesund aus. Die Mainboardtemperatur ist auch etwas warm, bei solch einem Rechner würde ich mich solche Dauerbelastungstests nicht lange trauen, das wirkt sich bestimmt nicht positiv auf die Lebendsdauer aus.
Ja deshalb ist das fenster auch auf damit ich einen blick drauf habe. Ich habe den PC im Dachgeschoss und die Sonne knallt in mein Zimmer... Zu späteren Uhrzeiten und im Winter/Herbst habe ich keine Temp. Probleme Jonny
be!quiet Netzteil 420 Watt (Regelt alle Lüfter bis auf CPU) 3,2 GHZ Intel CPU 2048 MB DDR1 Ram ASUS P5GD1 Mainboard kühler bis auf cpu ausgetauscht und temp. gesteuert. Monitor Samsung Syncmaster 730BF
100W inklusive Monitor ist nichts besonderes: TFT: etwa 30W, bleiben noch 70W für den PC. Mein Athlon64 braucht ähnlich wenig im Leerlauf. Die meisten heutigen PCs die nicht gerade total übertaktet sind, sollten dank der Stromsparmodi die die meisten CPUs mittlerweile können ähnlich wenig brauchen. Notebooks brauchen inklusive eingebautem TFT gerade mal etwa 20-30W wenn sie nicht viel zu tun haben...
Ähm...schluck... Mein Athlon XP 2800+ braucht mit Monitor 170W, es sind nur die minimal notwendigen Komponenten drin, nicht mal ne besonders schnelle GraKa. Was mache ich falsch? Zugegeben, 70W entfallen auf den Monitor, aber er ist auch schon alt. Aber wenn man euch so hört, dann sind selbst 100W für den PC viel.
Meine Kiste hat, nur mit Onboard Grafik, unter Volllast nur 95W gebraucht. Hab aber kürzlich noch eine GF7900GS eingebaut die laut Hersteller 45W unter Volllast brauchen soll. Hab aber seitdem nicht mehr gemessen was der Rechner insgesamt braucht
Tom wrote:
> Was mache ich falsch?
Das Problem dürfte der Athlon XP sein, der ohne Zusatztools immer auf
voller Leistung läuft.
@Tom: Benedikt hat das richtig geschrieben, lade Dir für Deinen Athlon XP ein CPU-cooler-Proggi runter. Das setzt das Flag im Prozessor und schon gehts runter mit der Temperatur als auch mit dem Stromverbrauch! ich habe seiner Zeit gerne vcool eingesetzt. Gruß
Oder gleich Linux verwenden ;) Aber ernsthaft, der Stromverbrauch und die CPU Temp ist bei Windows messbar höher als unter Linux. Erklären kann ich das aber nicht Ich würde aber nicht einsehen den Strom für ungewollte Hintergrundtasks zu zahlen. Is so schon teuer genug. Grundsätzlich ist distributed Computing haber keine schlechte Idee
> Grundsätzlich ist distributed Computing haber keine schlechte Idee
Aber bitte nicht für solchen Schrott, wie SETI@home und schon garnicht
per Zwang von außen.
keine Sorge, ab 2008 wird Schäuble@Home gesetzlich Pflicht - vernetzte Festplattenanalyse und verschlüsselungs Brute-Force ;-)
Die Boinc programme verbrauchen auch etwas viel Speicher. Bei nur 500 MByte sind 50 MByte etwas viel. Das sollte man auch einstellen koennen.
Mario G. wrote: > keine Sorge, ab 2008 wird Schäuble@Home gesetzlich Pflicht - vernetzte > Festplattenanalyse und verschlüsselungs Brute-Force ;-) Hehehe, der war gut! Schäuble@Home. made my day
>Aber bitte nicht für solchen Schrott, wie SETI@home und schon garnicht >per Zwang von außen. Warum bitte ist das Schrott?
Schäuble@Home ^^ haha YMMD! nasja, seti hat eben den verwerflichen ruf, dass auf kurz oder lang nichts dabei raus kommen wird und das projekt eingestllt wird. So richtig daran glauben dass man E.T. beim nach hause telefonieren erwischt tut glaub niemand mehr!? Da machen dann andere Projekte bei dennen man der Medizinforschung helfen kann einen effizienteren Eindruck! Seit wann läuft Seti eigentlich schon? - bis heute gabs ja noch nichtmal "kleine" Erfolge, oder?
>Seit wann läuft Seti eigentlich schon?
17.Mai 1999 - wow...schon acht Jahre
Ich hab sowas früher auch mal gemacht aber irgendwie brauch ich meine
Rechenleistung jetzt entweder selber oder mir ist es einfach zu doof,
meinen Rechner Tag und Nacht FFTs machen zu lassen. Da wird er ja dumm
bei. :-P
Ja nur deshalb muß man das Projekt ja nicht einstellen. Schließlich kann sich ein Erfolg quasi jederzeit einstellen und mitlerweile hat sich das auch bei den Wissenschaftlern herumgesprochen, dass die Wahrscheinlichkeit der Existenz außerirdischer Lebensformen als sehr groß ist.
Also ich hatte eine zeitlang Einstein@Home am laufen. Aber gerade bei einem Notebook wird der Lüfter doch merklich lauter, bz. fängt überhaupt erst an zu drehen, so das ich damit wieder aufgehört hab. Bezüglich sparsamer Rechner fand ich http://www.forumdeluxx.de/forum/archive/index.php/t-299797.html ganz interessant.
Man sollte aber auch vielleicht bedenken dass die Effizienz eines PCs der einfach nur im idle läuft gleich 0 ist. Er verbraucht nämlich Strom und macht nichts dafür. Wenn er aber mit Vollast zB folding@home macht, geht halt alles in das Endprodukt, nämlich die Forschung. Und vielleicht würde sich ja sonst das Institut/Uni das das Projekt laufen lässt einen netten Supercomputer kaufen, dessen Leistung so eingespart wird. Dass der eventuell etwas effizienter wäre will ich ja nicht abstreiten. Aber alles böse ist das bestimmt nicht. Ich weiss zB auch dass IBM, die ja ein grosser Unterstützer davon sind, wenn sie PCs an öffentliche/gemeinnützige Einrichtungen billiger abgeben, zur Bedingung machen, dass da dann folding@home läuft. Ist doch ne gute Sache.
Ich habe Einstein@home, SETI@home und Riesel Sieve laufen. Da das auf einem "Samsung X20 Calia II" - Notebook ist, denke ich, dass man damit viel Energie einspart, da es wirklich sparsam arbeitet, im Gegensatz zu einigen Rechenzentren/Servern (außer BlueGene) - Leerlauf (volle Bildschirmhelligkeit): 20 W; Volllast: 40 W; 1,73 GHz Pentium M, 1 GB RAM Außerdem denke ich nicht, dass SETI sinnlos ist (sonst würden die das Projekt nicht starten). Es ist nur sinnlos, wenn niemand sich dafür interessiert und dadurch nichts rauskommt. Nicht zu vergessen ist, dass es auch ein Ergebnis ist, wenn damit ermittelt wird, dass es keine Außerirdischen gibt. Allerdings könnte man beim Entschlüsseln der Signale auch deren Ursache in neuen Himmelskörpern usw. finden, was dann doch wieder wissenschaftlich sinnvoll ist. Ich denke auch nicht, dass es schlimm ist wenn die Lebensdauer des Computers dadurch reduziert wird, denn ob er nun 40 Jahre oder 42 Jahre hält interessiert nicht, da man mit so einem alten PC keine neue Software verwenden kann. Aber was mich mehr interessieren würde ist, ob dadurch überhaupt die Zuverlässigkeit/Lebensdauer beeinträchtigt wird, denn bei Volllast ist die Temperatur konstant hoch, bei Lastschwankungen, dann schwankt auch sie und verursacht durch Ausdehnen/Zusammenziehen vielleicht Risse/Verschleiß?
ich denke er meint dass das Notebook sparsammer als ein server ist - soweit ja auch richtig - wenn man aber die Effizient begutachtet (Verlustleistung, Abwärme und "benützbare Rechnerleistung"), wird der Großrechner besser davon kommen als Dein Notebook. Das Notebook ist stromsparender als der Großrechner weil es nicht so viel Leistung hat / nicht soviel kann. Ein Fiat500 braucht auch nicht soviel Benzin wie ein Ferrari - trotzdem sind beide rot und kommen aus Italien! Mit der Lebensdauer mag ich Dir mal recht geben - ich denke eine CPU die immer gleich warm ich, wird länger heben als eine die ständigen Lastwechseln ausgesetzt ist - VORAUSGESETZT es werden keine kritischen Werte im Volllast überschritten!
@Malte hast Du das hier schon gelesen: http://www.tomshardware.com/de/foren/237180-56-stromspar-eigenbau-euro-watt-verbrauch Stromspar-PC mit 45Watt verbrauch und nahezu keine Abwärme - Ein sehr interessanter und aufschlußreicher Artikel. Auch für alle anderen hier interessant, die meisten von Euch würden mit diesem Rechner sicherlich auskommen (Office und internet)
ups, das ist der falsche link (zugehörige Diskusion im Forum!) hier der richtige: http://www.tomshardware.com/de/stromspar-pc-eigenbau-energieeffizienz-amd,testberichte-1581.html
> wenn man aber die Effizient begutachtet > (Verlustleistung, Abwärme und "benützbare Rechnerleistung"), wird der > Großrechner besser davon kommen als Dein Notebook Wenn diese weniger effizienten Rechner aber sowieso schon laufen, dann ist es sehr viel effizienter diese Rechner voll auszulasten als einen neuen, für sich gesehen effizienteren, Großrechner hinzustellen. Allein schon wegen der Energie die in die Produktion fließt. > ich denke eine CPU die immer gleich warm ich, wird länger heben als eine > die ständigen Lastwechseln ausgesetzt ist Dass eine CPU einfach so kaputt geht kommt doch sowieso praktisch nie vor.
Hm, trotz allem verursacht sowohl xxx@home als auch ein Stromspar PC zusätzliche Kosten. Wenn ich irgend einen Number Cruncher nebenher laufen lasse kostet das im Jahr, je nach Rechner, 30-50€ mehr. Außerdem läuft der CPU Lüfter dauernd auf Vollast und nervt Ich habe kürzlich einen neuen Rechner zusammengestellt und überlegt eine Stromsparkiste zu basteln. Nachdem ich die Preise dafür aufsummiert hatte und dann ausgerechnet hab was ich dabei an Strom spare hab ich es gelassen. Hab jetzt einen E4300 Rechner. Für mich genug Leistung und immer noch deutlich sparsamer als mein alter P4 2,8GHz. Ein Stromspar PC hätte vielleicht 20-30W weniger gebraucht, wäre aber spürbar langsamer gewesen und hätte ca 250-300€ mehr gekostet
> Wenn ich irgend einen Number Cruncher nebenher laufen lasse kostet das > im Jahr, je nach Rechner, 30-50€ mehr. Außerdem läuft der CPU Lüfter > dauernd auf Vollast und nervt ... deshalb sollten eben dafür zusätzliche Vorteile eingeräumt werden oder denen, die das nicht machen eben Nachteile, dass es eben ausgeglichen wird
> Wenn diese weniger effizienten Rechner aber sowieso schon laufen, dann > ist es mit Sicherheit effizienter diese Rechner voll auszulasten als > einen neuen, für sich gesehen effizienteren, Großrechner hinzustellen. Wer stellt sich denn extra einen Großrechner für seti hin? > ... deshalb sollten eben dafür zusätzliche Vorteile eingeräumt werden > oder denen, die das nicht machen eben Nachteile, dass es eben > ausgeglichen wird Wie soll denn das funktionieren? Es werden doch schon diejenigen belohnt, die Energie sinnvoll und sparsam einsetzen und jetzt willst du die belohnen, die Energie einfach so verprassen? es muss für derartige Projekte eine andere Lösung geben.
>... deshalb sollten eben dafür zusätzliche Vorteile eingeräumt werden >oder denen, die das nicht machen eben Nachteile, dass es eben >ausgeglichen wird So ein Schmarrn. Was ich mit meinem Rechner mache ist erstmal Privatsache. Es geht keinen was an was ich damit mache, wie ich es mache und womit. Gewisse Softwarehersteller bemühen sich auch so schon zu sehr um die Aktivitäten auf fremden Rechnern (PC User == Krimineller, das Gegenteil muß bewiesen werden. Im Zweifel gegen den User grrr). Wofür sollen wir denn noch alles den Kopf hinhalten? Der Klimawandel rechtfertigt bald echt jeden Scheiß. Demnächst muss jeder mit nem Methanfilter im Arsch rumlaufen damit die Fürze dem Klima nicht schaden?
Steven Wetzel wrote: >> Wenn diese weniger effizienten Rechner aber sowieso schon laufen, dann >> ist es mit Sicherheit effizienter diese Rechner voll auszulasten als >> einen neuen, für sich gesehen effizienteren, Großrechner hinzustellen. > > Wer stellt sich denn extra einen Großrechner für seti hin? Es ging doch gar nicht speziell um SETI, es gibt genug andere Anwendungen für Distributed Computing. > Wie soll denn das funktionieren? Es werden doch schon diejenigen > belohnt, die Energie sinnvoll und sparsam einsetzen und jetzt willst du > die belohnen, die Energie einfach so verprassen? Die Verlagerung von SINNVOLLEN Rechenaufgaben auf Privatrechner ist sinnvoller und sparsamer Energieeinsatz. > es muss für derartige Projekte eine andere Lösung geben. Und die wäre?
>>> Wenn diese weniger effizienten Rechner aber sowieso schon laufen, dann >>> ist es mit Sicherheit effizienter diese Rechner voll auszulasten als >>> einen neuen, für sich gesehen effizienteren, Großrechner hinzustellen. >> >> Wer stellt sich denn extra einen Großrechner für seti hin? > > Es ging doch gar nicht speziell um SETI, es gibt genug andere > Anwendungen für Distributed Computing. Eigentlich ging es um Privatrechner. > Die Verlagerung von SINNVOLLEN Rechenaufgaben auf Privatrechner ist > sinnvoller und sparsamer Energieeinsatz. Das ist viel zu kurz gedacht. Die Rechenaufgaben kommen nicht einfach so auf den Rechner. Da sind noch diverse Modem, Router, Switches dazwischen, da ist das Rechenzentrum des Providers dazwischen. Das lässt sich nur sehr schwer abschätzen. Weiterhin werden sehr viele Aufgaben viele male gerechnet, da nicht sichergestellt werden kann, ob dieser eine Rechner diese Aufgabe jemals fertigrechnet. Sehr effizient ist das nicht. >> es muss für derartige Projekte eine andere Lösung geben. > > Und die wäre? Das war eine Forderung, keine Behauptung.
Es mag schon sinnvolle Rechenaufgaben geben, aber das muss jeder für sich selbst entscheiden, ob man den Aufwand und die Kosten tragen möchte, ohne auch ein Nutzen davon zu haben, mal von dem guten Gewissen etwas für die Wissenschaft getan zu haben abgesehen.
Steven Wetzel wrote: >>>> Wenn diese weniger effizienten Rechner aber sowieso schon laufen, dann >>>> ist es mit Sicherheit effizienter diese Rechner voll auszulasten als >>>> einen neuen, für sich gesehen effizienteren, Großrechner hinzustellen. >>> >>> Wer stellt sich denn extra einen Großrechner für seti hin? >> >> Es ging doch gar nicht speziell um SETI, es gibt genug andere >> Anwendungen für Distributed Computing. > > Eigentlich ging es um Privatrechner. Und auch da gibt es sinnvolle Anwendungen. >> Die Verlagerung von SINNVOLLEN Rechenaufgaben auf Privatrechner ist >> sinnvoller und sparsamer Energieeinsatz. > > Das ist viel zu kurz gedacht. Die Rechenaufgaben kommen nicht einfach so > auf den Rechner. Da sind noch diverse Modem, Router, Switches > dazwischen, da ist das Rechenzentrum des Providers dazwischen. > > Das lässt sich nur sehr schwer abschätzen. Das lässt sich sogar sehr gut abschätzen, wenn man nicht nur redet sondern sich auch mal informiert. Der Folding@home-Client z.B. überträgt alle paar Wochen bis Monate ein neues Aufgabenpaket, das einige kB groß ist. >>> es muss für derartige Projekte eine andere Lösung geben. >> >> Und die wäre? > > Das war eine Forderung, keine Behauptung. Na wunderbar.
> Das lässt sich sogar sehr gut abschätzen, wenn man nicht nur redet > sondern sich auch mal informiert. Der Folding@home-Client z.B. überträgt > alle paar Wochen bis Monate ein neues Aufgabenpaket, das einige kB groß > ist. Zeige mir bitte die Quelle, wo man sich informieren kann, die mir die gesamte Kette des Verbrauchs von meinem Wohnzimmerechner bis zum Projektrechner, wo die Daten verarbeitet werden, darstellt. Daneben sollte zum Vergleich ein Großrechner stehen, der nur für diese Projekt rechnet.
> Der Folding@home-Client z.B. überträgt > alle paar Wochen bis Monate ein neues Aufgabenpaket, das einige kB groß > ist. Bei der PS3 soll das laut einem Heise Artikel alle paar Stunden der Fall sein
Tom wrote: >>Aber bitte nicht für solchen Schrott, wie SETI@home und schon garnicht >>per Zwang von außen. > > Warum bitte ist das Schrott? Weil die Menscheit wirklich dringendere Probleme hat, als Resourcen für eine Sache zu verplempern, die absehbar nie zu einem Erfolg führen wird.
Steven Wetzel wrote: >> Das lässt sich sogar sehr gut abschätzen, wenn man nicht nur redet >> sondern sich auch mal informiert. Der Folding@home-Client z.B. überträgt >> alle paar Wochen bis Monate ein neues Aufgabenpaket, das einige kB groß >> ist. > > Zeige mir bitte die Quelle, wo man sich informieren kann, http://folding.stanford.edu/faq.html#project.supercomputer > die mir die > gesamte Kette des Verbrauchs von meinem Wohnzimmerechner bis zum > Projektrechner Was soll denn eine "Kette des Verbrauchs" sein? Meinst du wirklich dass der Stromverbrauch der Infrastruktur gegenüber dem Stromverbrauch für das Rechnen ins Gewicht fällt, wenn alle paar Tage bis Wochen (oder meinetwegen auch Stunden) Rechenzeit ein paar kB übertragen werden?
> Was soll denn eine "Kette des Verbrauchs" sein? Meinst du wirklich dass > der Stromverbrauch der Infrastruktur gegenüber dem Stromverbrauch für > das Rechnen ins Gewicht fällt, wenn alle paar Tage bis Wochen (oder > meinetwegen auch Stunden) Rechenzeit ein paar kB übertragen werden? Nun ja, es ist halt zusätzliche Energie, die dafür aufgewendet werden muss. Ein zusätzlicher Energieverbrauch, der bei Großrechnern nicht anfällt. Zu deinem Link: Wenn also ein Großrechner, wie beschrieben, sich aus hunderten von CPUs zusammensetzt, die oftmals genauso schnell oder auch langsamer wie in Heimrechnern sind, so macht es erst recht keinen Sinn, diese (Heimrechner-CPUs) zu nutzen, sondern man stellt sich besser einen Großrechner hin, denn der zusätzliche Energieaufwand für Monitor und Zwischenstationen entfällt, voraussgesetzt, der Verbrauch ist vergleichsweise hoch. Leider wird ja nichts über den Energieverbrauch dieser Großrechner-CPUs gesagt.
>> Rechenzeit ein paar kB übertragen werden? >Nun ja, es ist halt zusätzliche Energie, die dafür aufgewendet werden >muss. Lächerliche Peanuts. Da entsteht mehr Traffic bei drei Posts auf µc.net > zusätzliche Energieaufwand für Monitor und Zwischenstationen entfällt, > voraussgesetzt, der Verbrauch ist vergleichsweise hoch. Der Monitor ist am Desktop-PC nunmal eh dran, wenn einer arbeitet und der verbraucht wahrlich nicht mehr Energie, wenn du nur dran sitzt und mit 1% Rechnerlast Einträge für µc.net verfasst oder wenn der Rechner gleichzeitig noch Proteine ausrechnet. Also mal ganz geschmeidig bleiben. Das OP hinsichtlich "Zwang" kann ich allerdings auch nicht begrüßen. Und außerdem muss man sich überlegen, ob es sinnvoll ist, Rechenzeit nach Amerika verschenken ;-/
>>Nun ja, es ist halt zusätzliche Energie, die dafür aufgewendet werden >>muss. > > Lächerliche Peanuts. Da entsteht mehr Traffic bei drei Posts auf µc.net Wer weiß. Da niemand das abschätzen kann, wird es wohl eine unbekannte Größe bleiben. > Der Monitor ist am Desktop-PC nunmal eh dran, wenn einer arbeitet und > der verbraucht wahrlich nicht mehr Energie, wenn du nur dran sitzt und > mit 1% Rechnerlast Einträge für µc.net verfasst oder wenn der Rechner > gleichzeitig noch Proteine ausrechnet. Also mal ganz geschmeidig > bleiben. Sicherlich nicht. Aber es werden hier immer nur die Rechner vergleichen, nicht die Komplettsysteme. Und da fehlt ganz klar eine ordentliche Aufstellung. Sonst sind das alles nur Meinungen. Man meint eben, dass verteiltes rechnen auf Heimrechnern weniger Energie verbraucht, als ein Großrechner mit vergleichbarer Leistung. Und das Folding-Team redet ja auch nicht von Energieverbrauch, sondern begrüß0t nur die Möglichkeit, die große Rechenleistung der einzelnen Rechner zu nutzen, ganz unabhängig vom Verbrauch. Dieser Einwand kam erst hier später und wurde sofort abgeschmettert, dass der Energieverbrauch eines Großrechners größer ist, als der vielen kleinen Rechner bei gleicher Leistung. Nun: Ich behaupte jetzt einfach, dass ein Großrechner 100x weniger Energie verbraucht, als die Heim-PC mit vergleichbarer Leistung.
Steven Wetzel wrote: > Wenn also ein Großrechner, wie beschrieben, sich aus hunderten von CPUs > zusammensetzt, die oftmals genauso schnell oder auch langsamer wie in > Heimrechnern sind, so macht es erst recht keinen Sinn, diese > (Heimrechner-CPUs) zu nutzen, sondern man stellt sich besser einen > Großrechner hin Na dann stell dir mal einen 700-TFLOPS (= ungefähre Leistung des FAH-Grids) Großrechner hin. Und vergiß nicht die Klimaanlage mit 4 MW Kühlleistung.
Rechnen wir mal: Ein durchschnittlicher PC hat 3GFLOPs und braucht 200W. Man braucht also 233333PCs für 700 TFLOPS, macht also 46MW. Was ist jetzt also besser, der Großrechner mit 4MW, oder die vielen Einzel PCs mit 46MW... Und um den Einwand, dass die Einzel PCs sowiso den ganzen Tag laufen gleich zu entkräften: Wie andere schon schrieben (und ich auch selbst gemessen habe): Unter Belastung verdoppelt sich in etwa die Stromaufnahme von 100W auf 200W, d.h. es macht immerhin die Hälfte also 23MW Unterschied ob die Einzel PCs sinlos vor sich hin laufen, oder unter Volllast rechnen.
>Nun: Ich behaupte jetzt einfach, dass ein Großrechner 100x weniger >Energie verbraucht, als die Heim-PC mit vergleichbarer Leistung. So ein Käse. Mal abgesehen davon das sich die Institute weder die Rechenleistung noch die dafür anfallenden Stromkosten leisten könnte ist es schon richtig das der Mehrverbrauch eines Heimrechners im Vergleich zur Vollast nur unwesentlich über dem Leerlauf bewegt. Und wenn 10% aller Internetnutzer ihre Rechner zur Verfügung stellen würden käme eine Rechenleitung zusammen die kein Großrechner zustande brächte Den Stromverbrauch für Monitor, Lautsprecher, Drucker... darf man dabei nicht berücksichtigen weil die mit der Berechnung nix zu tun haben. Ich könnte jetzt auch im Hintergrund einen Task starten. Das würde am Gesamtverbrauch etwa 20-30% mehr ausmachen. Ich mache es nur deshalb nicht weil ich die zusätzlichen Stromkosten tragen muß und weil der Prozessorlüfter von kaum hörbar auf total nervend schalten würde. Die Idee des verteilten Rechnens ist schon gut und lohnt sich, aber halt in erster Linie für die Institute, bei Folding@Home profitiert vielleicht irgendwann jeder mal
>Nun: Ich behaupte jetzt einfach, dass ein Großrechner 100x weniger >Energie verbraucht, als die Heim-PC mit vergleichbarer Leistung. Das ist realitaetsfernes Geschwafel. Du kannst ja mal einen Antrag fuer einen Grossrechner schreiben. Und dann noch ein paar Begruendungen nachreichen. Nur falls du "Jemand" bist wird das Projekt in 2 Jahren mal angeschaut. Sonst ist es eh im Kuebel, weil duzende Besserwisser auch noch dreinschwatzen und dein Projekt runtermachen damit ihre Chance auf das Geld hoeher wird. Am Schluss wird das Projekt redimensioniert und du kriegst eine veraltete Muehle. Richtig, wir haben bisher noch nicht ueber Leistung und Energieverbrauch geredet. Das interessiert ausser einem Heimanwender niemanden. Ein altes Rechenzentrum hat eine riesige Klimaanlage benoetigt, die Energie ging in die Luft, heute heizt man die Uni damit.
Ich denke das ist von Rechner zur Rechner unterschiedlich. Ich hab mal Messungen gemacht. Meine Kiste braucht im Leerlauf 70W, unter Vollast inkl Grafik 110W (mit Onboard Grafikchip). Ich schätze mal das meine CPU etwa 30-35W mehr braucht wenn sie zu 90-95% ausgelastet ist. Der Rest hat keine Bedeutung für einen xxx@Home Task der im Hintergrund läuft. Lass es mal bei einem älteren Prozessor 50-80W mehr sein. Dafür nutzt man aber für xxx@Home 95% der möglichen Prozessorleistung. Der Mehrverbrauch an Energie ist prozentual gesehen nur ein Bruchteil dessen was man an Rechenleistung erhält. Das gilt aber nur wenn der xxx@Home Task wärend der normalen Arbeit im Hintergrund läuft. Wenn der Rechner extra deswegen zb nachts durchläuft sieht die Sache wieder anders aus weil dann 100% der Energie für den Task draufgehen
>Weil die Menscheit wirklich dringendere Probleme hat, als Resourcen für >eine Sache zu verplempern, die absehbar nie zu einem Erfolg führen wird. >die absehbar nie zu einem Erfolg führen wird. Woher nimmst du deine Weisheit?
Steven Wetzel wrote: > Nun: Ich behaupte jetzt einfach, dass ein Großrechner 100x weniger > Energie verbraucht, als die Heim-PC mit vergleichbarer Leistung. Hat jemand eigentlich konkrete Werte wieviel Leistung ein Großrechner braucht (gemessen an W/GFLOP oder sowas in der Art) ? Bei einem PC sind es etwa um die 10-30W pro GFLOP. Die Aussage, dass ein PC unter Volllast nur geringfügig mehr braucht, also im Leerlauf, ist Vergangenheit. Wie ich weiter oben schon schrieb: Mit geeigneter Software bekommt man nahezu jede CPU auf 30-40°C mit Orginallüfter und ohne sonstigen extra Kühlmaßnahmen ! Dementsprechend sinkt auch der Stromverbrauch im Leerlauf.
Die annahme, dass bei 3GHz 3Gflops rausschauen ist nicht ganz richtig. Die Pentiums, als mich noch genauer damit beschaeftigte waren div2 getaktet. Ein XT war div4, dh 1 MegaInstruktion pro 4MHz., wobei in dem Falle einer CISK maschine 1 Instruktion nur ein inc(16bit) bedeutet. Das wuerde heissen bei 3GHz gibt's 1.5Giga Integer instruktionen. Die FPU war nie besonders schnell. Da hab ich leider nur das 8087 manual zur Hand. Eine FADD ist um die 110 Clocks, eine FDIV um die 200 clocks. So wie ich das sehe ist da nix mit 1 GFlop, wenn's gut kommt, sind's 100 Megaflops, eher 1/10.
Tom wrote: >>Weil die Menscheit wirklich dringendere Probleme hat, als Resourcen für >>eine Sache zu verplempern, die absehbar nie zu einem Erfolg führen wird. > > >>die absehbar nie zu einem Erfolg führen wird. > > Woher nimmst du deine Weisheit? Sind wir mal optimistisch, daß irgendwelche Signale aufgefangen werden, die von außerirdischen Zivilisationen stammen könnten und Rechnen einfach mal: Angenommen, die Signalquelle läge nur 30 Lichtjahre entfernt, was schon sehr optimistisch ist. (Die nächsten Sterne sind ca. 10 Lichtjahre von uns entfernt. Die Wahrscheinlichkeit, daß in 30 LJ Entfernung eine Zivilisation existiert, die mindestens unseren technischen Stand erreicht hat, ist gering.) Dann ist das Signal also 30 Jahre unterwegs gewesen, bis es bei uns ankam. Um zu verifizieren, ob das Signal tatsächlich von einer außerirdischen Zivilisation stammt, müßte man mit dieser Zivilisation in Kontakt treten, also das Signal beantworten - die grünen Männchen müßten zufällig 60 Erdenjahre nach dem Absenden ihres Signals auf Empfang sein, um unsere Antwort überhaupt mitzubekommen. (Genau genommen, müßten sie sogar 20-30 Jahre lang lauschen, ob was kommt, denn sie wissen ja auch nicht, wo wir sind.) Die Antwort der Grünen käme bestenfalls nach 60 Jahren bei uns an... Die Kommunikation wäre also ausgesprochen zäh. Nun zum Inhalt der Kommunikation: Wie soll man ein Signal einer fremden Zivilistation entschlüsseln? Die Bedeutung von Radiosignalen ist nicht entschlüsselbar, wenn man den Kontext nicht kennt, in dem sie irgendwas codieren. Um dieses Problem zu umgehen, müßten unsere grünen Freunde in spe irgendwelche mathematischen, physikalischen oder chemischen Beziehungen codieren, die auch uns bekannt sind. Kurzum: Es würde etliche (Menschen-) Generationen lang dauern, bis wir - unter optimistischsten Bedingungen - uns überhaupt sicher sind, daß wir es mit einer außerirdischen Zivilisation zu tun haben, die gewisse Gesetzmäßigkeiten in Form von Radiosignalen codieren, senden und empfangen kann. Und dann? Mal eben hinfliegen ist nicht. Mit ihnen irgendwelches eh schon bekanntes Wissen austauschen? - das hieße leeres Stroh dreschen... Haben wir nicht wirklich größere Probleme, als für solchen Unsinn unsere Atmosphäre noch weiter aufzuheizen? Und das auch noch gezwungener maßen? Dann doch lieber tibetische Gebetsmühlen... die sind zwar genauso nutzlos, aber absolut umweltfreundlich. Nebenbei: 30 Lichtjahre sind im Universum nichts. Der Durchmesser des Milchstraßensystems beträgt 100.000 Lichtjahre. Die elektromagnetischen Wellen wurden Ende des 19. Jahrhunderts überhaupt erst entdeckt.
@Nealpotter: Für einen AMD64 X2 oder Core 2 Duo das 8087 Manual zu zitieren grenzt schon an eine Beleidigung. @Benedikt K: siehe http://www.top500.org/.
Was ist nun eigendlich dran, dass eine PS3 satte 2 TFlops bringt? und das bei nur höchstens 300 W?
Na vielleicht haben die grünen Männchen auf dem 30Lichtjahre entfernten Planeten auch ein SETI-Projekt, was nach 59Jahren wegen Erfolglosigkeit eingestellt wurde....
Die PS3 ist für manche Arten von Berechnungen schon sehr schnell, kann aber nur mit einfacher Genauigkeit rechnen (32 Bit Float). Siehe auch http://folding.stanford.edu/FAQ-PS3.html.
Wobei: vielleicht haben die ja Subraumkommunikation. Dumm nur, dass wir das (noch) nicht haben. Vielleicht öffnet sich ja auch bald mal ein Wurmloch und die sind plötzlich da! Hoffensichtlich kommen die in friedlicher Absicht LOL
Ihr schaut alle zuviel Star-Wars! ^^ :D In wirklichkeit sind "DIE" schon lange unter uns und manipulieren uns ohne dass wir es merken! "DIE" können das nämlich und in wirklichkeit züchten "DIE" uns nur ein wenig weiter bevor "DIE" uns dann als lebende Batterie benützen - Ihr wisst schon, Kampf der Maschinen und so, ne! Da stecken übrigens auch die Regierungen und die Illuminaten mit drin, die haben uns wiederum an "DIE" verkauft damit sie deren Technologie bekommen und auf deren Planeten weiter leben dürfen ^^ Verschwörerische Grüße! und immer dran denken - ohne Alufolienhelm nie vor die Türe gehen ;)
> und die Illuminaten mit drin..
Ja, siehe heutiges Datum: 06.08.2007:
Quersumme 23 !!!!
Wo ist das allwissende Auge...
Oh Oh
also ich hab jetzt mal Folding@Home ne halbe Stunde laufen lassen. Inakzeptabel, es sei denn das Institut da finanziert mir ne bessere Kühlung die auch unter Last nicht zu hören ist und etwa 50€ Stromkosten im Jahr. Hab schon extra einen 20€ Gehäuselüfter und eine passiv gekühlte Grafikkarte eingebaut damit die Kiste leiser wird. Mit sowas mach ich mir die Investition doch nicht kaputt
Richte den Client doch als Bildschirmschoner ein, dann läuft er nur wenn du nicht am Rechner bist. Bei meinem AMD64 X2 4800 macht es keinen hörbaren Unterschied wenn ich den Client auf einem Core laufen lasse. Beide Cores zusammen verbrauchen max. 65 W, also kann die Auslastung von einem allein nicht sehr viel mehr als 30 W verbrauchen; das finde ich akzeptabel für 10 GFLOPS (ganz grob). Hab mal ein mikrocontroller.net Team gegründet (Team Nr. 78029 im Client eintragen): http://fah-web.stanford.edu/cgi-bin/main.py?qtype=teampage&teamnum=78029
> also ich hab jetzt mal Folding@Home ne halbe Stunde laufen lassen. > Inakzeptabel, es sei denn das Institut da finanziert mir ne bessere > Kühlung die auch unter Last nicht zu hören ist und etwa 50€ Stromkosten > im Jahr Schade ist, dass diese Programme den Rechner gleich ans Limit fahren, anstatt sehr dezent im Hintergrund zu laufen. Einerseits entsteht so enormer Lärm, andererseits kann man nebenbei nichts mehr tun. Aber wie schauts eigentlich mit dem Stromverbrauch aus? Leerlauf gegenüber @Home auf 20 Prozent CPU-Auslastung gegenüber 100 Prozent CPU-Auslastung?
Am effizientesten ist es natürlich wenn der Rechner voll ausgelastet ist. Aber es stimmt, ich fände es auch sinnvoll wenn man das einschränken könnte um die Wärmeentwicklung zu minimieren. Vielleicht könnte man ein kleines Tool basteln das den Prozess sekundenweise schlafen legt. EDIT: im Windows-Kommandozeilen-Client kann man die gewünschte CPU-Auslastung einstellen. Das "nebenbei nichts mehr tun" stimmt aber nicht. Wenn der Prozess mit niedrigster Priorität läuft wirkt sich das nicht auf den Rest des Systems aus. Ich habe mal einen Benchmark von verschiedenen Spielen, Anwendungen und Serverprogrammen mit und ohne FAH gesehen, die Unterschiede waren < 2% bzw. kaum messbar.
Folder@home kenne ich nicht, aber ich habe mal vor einiger Zeit seti auf der platte gehabt, dort konnte man ganz bequem einstellen wieviel % der cpu-Last seti zur verfügung steht, man konnte dann z.B. einstellen dass wenn der Bildschirmschoner läuft, seti 80& cpu-last bekommt, wenn er nicht läuft nur noch 10-20% so konnte man seti eignetlich unentweg laufen lassen ohne dass es stört. seit ihr sicher dass es sowas bei folder@home nicht gibt!? - wenn es nicht gleich den ganzen Arm von mir nimmt, würde ich es mir vielleicht auch installieren!
> Hat jemand eigentlich konkrete Werte wieviel Leistung ein Großrechner > braucht (gemessen an W/GFLOP oder sowas in der Art) ? > Bei einem PC sind es etwa um die 10-30W pro GFLOP. http://www.top500.org/system/7747 BlueGene/L boasts a peak speed of over 360 teraFLOPS, a total memory of 32 tebibytes, total power of 1.5 megawatts, and machine floor space of 2,500 square feet. Ein PC dürfte dann vergleichbar um die 12.5W unter Vollast verbrauchen. Nun ja, das verbrauchen ja schon die meisten Lüfter.
mr.chip wrote: > Schade ist, dass diese Programme den Rechner gleich ans Limit fahren, > anstatt sehr dezent im Hintergrund zu laufen. Einerseits entsteht so > enormer Lärm, andererseits kann man nebenbei nichts mehr tun. Aber wie > schauts eigentlich mit dem Stromverbrauch aus? Leerlauf gegenüber @Home > auf 20 Prozent CPU-Auslastung gegenüber 100 Prozent CPU-Auslastung? Also soweit ich weiß, sieht das Powermanagement unter Linux keinen Grund die CPU hochzutakten, sofern die Last nur durch einen Thread mit NICE Priorität (bei Einstein@Home der Fall) erzeugt wird. Und bei meinem Mobile Sempron ist für die niedrigen 800MHZ Stufe ein TDP von 9W angegeben. Getestet habe ich das aber nicht.
Dass ein Supercomputer effizienter ist, ist meiner Meinung nach unbestreitbar. Es sei denn man vergleicht mit Laptops (meiner verbraucht 15W, vielleicht 12W mit LCD aus). Aber den dürften die wenigsten Leute Tag und Nacht dafür laufen lassen wollen. Mein Argument war mehr, dass es effizienter in Bezug auf Rechenleistung/Watt ist, folding@home laufen zu lassen als den PC im idle laufen zu lassen. Dass das Mehrkosten verursacht ist auch klar, aber das muss halt jeder selber wissen...
@jonny: der linux client hat keine GUI für Einstellungen. Kommandozeile pur. Mal auf der Seite nach Hinweisen für Kommandozeilenparametern suchen
Steven Wetzel wrote: > BlueGene/L boasts a peak speed of over 360 teraFLOPS, a total memory of > 32 tebibytes, total power of 1.5 megawatts, and machine floor space of > 2,500 square feet. > > Ein PC dürfte dann vergleichbar um die 12.5W unter Vollast verbrauchen. > Nun ja, das verbrauchen ja schon die meisten Lüfter. Folding@home (mein Rechner): 8 W pro GFLOPS zusätzlich zu Idle-Betrieb BlueGene/L: 5 W pro GFLOPS (und wahrscheinlich nochmal so viel für die Klimaanlage) Red Storm: 25 W pro GFLOPS Dafür dass das Folding@home-Grid 0 Mio. und der BlueGene/L 200 Mio. USD gekostet haben ist ersteres doch ganz gut dabei, oder?
Für Linux scheint es keine Möglichkeit zu geben die CPU usage einzustellen. Läuft also immer mit 100%, wenn auch in niedrigster Priorität. Ist leider etwas unbefriedigend, sonst hätte ich mir das vielleicht echt überlegt das im hintergrund laufen zu lassen
>Für Linux scheint es keine Möglichkeit zu geben die CPU usage >einzustellen. http://folding.stanford.edu/console-userguide.html "-config Allows users to change their configuration information. This includes user & team names (reflected in the stats), whether or not to ask before a network connection is made to fetch/send work, set up proxy servers, preferred work unit type (Folding/Genome), process priority, CPU usage requested (5-100%), whether or not to use assembly loops, whether or not to use deadline information, and Machine ID changes."
In der OS X-Version kann man die CPU-Auslastung nicht einstellen, in der Linux-Version dann vermutlich auch nicht. Mit dem Zusatztool fahlimit geht's: http://calxalot.homeip.net/downloads/
@ Folding@Home Schlauberger. So weit war ich auch. Aber probier es mal aus http://forum.folding-community.org/viewtopic.php?t=19879&highlight=cpu+usage+linux
@Clifford: ja, sorry. ich habs ausprobiert und muss zugeben, dass es von haus aus nicht geht. mit dem fahlimit-programm aus andreas post kann man allerdings die auslastung im mittel auf den gewünschen wert einstellen. ein brutaler hack, aber solang man es nur der temperatur wegen begrenzen möchte, funktionierts "einwandfrei". probier es mal aus.
Ich würde viel lieber die Daten auf ne SD karte packen, und in ein standardisiertes fpga-board packen, und dort rechnenlassen. so ne art seti-hardware. gäbe es bestimmt viele, die für 50€ son ding kaufen würden. Man kann sicher die fft in fpga besser machen als auf ner cpu
@Sebastian Ich gehöre mit Sicherheit nicht zu den vielen. Sinn von Seti ist es ja die sowieso ungenutze Rechenpower zu nutzen und nicht extra Aufwand zu treiben um number zu crunshen. Ich rechne übrigens auch Folding@home. Der Mehrgewinn an Wissen ist mir das Wert. Statt 180W braucht mein Rechner dann 195W (AthlonXP 2500+). CoolnQuiet kennt die CPU nicht und läuft eh immer mit vollem Takt. Insofern kann das Ding dann auch mal bisschen die Gatter flattern lassen. :D
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.