Hi. Was meint ihr, ist im PC Bereich das Ende der Fahnenstange erreicht? Ich bin grade einen PC für meine Schwester am zusammenstellen, und da fiel mir auf, dass es die CPU's von vor 2-3 Jahren immer noch neu gibt. (Teilweise mit technischen Überarbeitungen, aber nach außen hin gleich) Beispiel Intel: Core2 Quad AMD: Phenom Etwa Anfang 2008 hatte ich einen PC mit Core2 Quad (Q6600) zusammengebaut zusammengebaut, Ende 2009 einen mit einem Phenom X4 955 Deneb. Den Deneb bekommt man immer noch so wie früher, beim Core2Quad immerhin noch vollständig kompatible Modelle. Gleiches Bild bei anderen Komponenten. Ich habe vor ca 5 Jahren SATA Festplatten mit 320GB gekauft. Solche Festplatten gibts heute noch neu. Eine von mir 2008 gekaufte 750 GB Festplatte ist heute noch als sehr ähnliches Modell in Produktion (ST3750525AS) Beim Ram hat sich auch nicht allzuviel getan. 4 GB Ram war vor 4 Jahren auch schon für deutlich unter 200 Euro zu haben und im High End PC Bereich schon standard. Heute hat man üblicherweise auch nicht viel mehr Ram in neuen Standard-PC's. Und ähnliche RAM Riegel, die ich 2008 gekauft habe, gibts heute immer noch als Neuware (DDR2) Und all das nach ca 3-5 Jahren! Und zwar als Neuware, die noch gutes Geld kostet, und nicht als Restposten bei irgendwelchen Ramschhändlern. Ich kann mich nicht dran erinnern, dass es jemals in der PC Geschichte so lange Produktlaufzeiten gab. Im PC Bereich ist das Ende der Fahrenstange wohl erreicht, habe ich das Gefühl. Da kommen zwar trotzdem immer wieder neue CPU Formen und Sockel raus, im Endeffekt ändert sich aber nicht allzu viel. Selbst mit AM2 bzw Sockel 775 kann man noch neu PC's bauen, die immer noch sehr gut als "Standard-PC" durchgehen. Meine 2 "alten" PC's (Core2Quad, Phenom) können es mit einem neuen Sockel F1 System der 500 Euro Klasse mit integrierter GPU noch locker aufnehmen. Sogar Benchmarktechnisch geben die sich nicht viel. Vor 10 Jahren waren PC Komponenten nach 2-3 Jahren schon Schrottreif, weil die neuen Sachen mindestens 3 mal besser waren. Das einzigste, wo sich wirklich noch was tut, ist der Grafikkarten Bereich und die Miniaturisierung / Energieverbauch Ich fnde das übrigens gar nicht schlecht, dass es im PC Bereich nicht mehr so schnell vorran geht: Spart nen haufen Geld, da die Gebrauchsdauer der PC's deutlich länger ist. Wie seht ihr das? Ist im PC Bereich das Ende der Fahnenstange erreicht und PC's können endlich bis zum Ableben der Hardware sinnvoll verwendet werden?
:
Verschoben durch User
Bastler schrieb: > Im PC Bereich ist das Ende der Fahrenstange wohl erreicht, habe ich das > Gefühl. Jedenfalls wurde bei der single threaded performance schon vor ein paar Jahren das Ende praktisch erreicht, also bei der Leistungsfähigkeit von nicht parallel arbeitenden Programmen. Auch bei moderater Parallelisierung ist man mit 4-8 Cores ziemlich gesättigt. Nur Anwendungen, die eine passive Parallelisierung in hunderte von Threads zulassen können weiterhin mit Leistungssteigerung rechnen, und dazu gehört der Bereich 3D-Grafik. Aber dazu gehören keine Office-Anwendungen, und abgesehen von Gimmiks in der Benutzeroberfläche auch keine Betriebssysteme. > Da kommen zwar trotzdem immer wieder neue CPU Formen und Sockel raus, im > Endeffekt ändert sich aber nicht allzu viel. Doch, aber in anderer Form, nämlich bei der Wärmeleistung. Die Rechenleistung pro Thread ist am Anschlag, die in PCs ohne teure Kühnmassnahmen möglich Wärmeleistung auch, aber die für die gleiche Aufgabe erforderliche Energie sinkt. > Selbst mit AM2 bzw Sockel 775 kann man noch neu PC's bauen, die immer > noch sehr gut als "Standard-PC" durchgehen. Yep, und mein 3 Jahre alter eeePC unterscheidet sich technisch nur geringfügig von den aktuellen Netbooks.
Im großen und ganzen stimme ich dir zu, allerdings hast du vergessen den Quantensprung in der PC-Technik zu erwähnen: die SSD. Den Geschwindigkeitssprung, den eine SSD gegenüber einer Magnetplatte bringt, habe ich bei keiner anderen Komponente in den letzen 25 Jahre erlebt.
Es ist sogar so, dass die mittlere Leistungsfähigkeit der CPUs von Endgeräten in den letzten Jahren eher gesunken ist. Vor knapp 4 Jahren schüttelte die Novität "Netbook" Microsoft ziemlich durch, seither gibt es viele Leute, die sich nicht am oberen Leistungsspektrum orientieren, sondern mit einem Bruchteil dessen arbeiten, was möglich wäre. Die aufkommenden Tablets gehen in die gleiche Richtung. Auch hier sinkt die für die gleiche zu lösende Aufgabe zur Verfügung stehende Rechenleistung deutlich. Die Leute wollen auch auf vergleichsweise langsamer Hardware die Flashvideos ohne stop-and-go sehen und auf 16-32GB Flashdisk macht sich eine 30GB grosse Betriebssyteminstallation auch nicht wirklich gut. Das bleibt nicht ohne Folgen für Software und Betriebssysteme: Früher konnte Microsoft eine neue Version von Windows oder Office auf einen Bereich von ca. 50-100% der bei Erscheinen zur Verfügung stehenden Leistung konzipieren und Platz war weder auf Disk noch im RAM wirklich ein Thema. Wer drunter lag blieb entweder beim Alten oder durfte upgraden. Das kann Microsoft heute nicht mehr. Mit Windows 8 müssen sie mit dem gleichen Grundsystem ein viel grösseres Leistungsspektrum an Endgeräten abdecken als jemals zuvor. Mal sehen wie das gelingt.
Daß es antiquarische Prozessoren noch zu kaufen gibt, ist eine normale Erscheinung und kein Zeichen für irgendwelche "Fahnenstangen". Zwar bekommst Du noch Core2 Duo/Quadro, aber seitdem gab es zwei dazu hardwaremäßig inkompatible neuere Prozessorvarianten, nämlich die Core i3..7-Varianten mit drei- und neuerdings vierstelligen Typenbezeichnungen (die drei- und vierstelligen Varianten sind bereit mechanisch inkompatibel zueinander). Und der Performanceunterschied zwischen gleichkernigen Core2 und Core i3..7 ist deutlich wahrnehmbar, so ist ein Core2 Duo "Penryn" mit 2.66 GHz etwa halb so schnell* wie ein Core i5 "Sandy Bridge" mit 2.3 GHz, und das, obwohl der Core2 Duo einen um 50% größeren Cache aufweist (6 statt 4 MiB). Ansonsten können PCs schon immer bis zum Ableben der Hardware sinnvoll verwendet werden - man darf nur nicht den Fehler machen, deutlich neuere Software auf ihnen einzusetzen. *) Benchmarkvergleich MacBook Pro 17" von Anfang 2009 mit Mac mini von Mitte 2011, MacBook Pro mit Nvidia-Graphik, 2.66 GHz Core2 P8800 Duo "Penryn", Mac Mini mit Core i5-2415M, integrierter Graphik und 2.3 GHz Taktfrequenz
Rufus Τ. Firefly schrieb: > Ansonsten können PCs schon immer bis zum Ableben der Hardware sinnvoll > verwendet werden - man darf nur nicht den Fehler machen, deutlich neuere > Software auf ihnen einzusetzen. Och, eine aktuelle Arch Linux Installation läuft auch noch auf einer ca. 10 Jahren alten Maschine noch ganz gut, man darf nur nicht auf die Idee kommen GNOME, KDE oder ähnlich fettes einzusetzen.
Rufus Τ. Firefly schrieb: > Und der Performanceunterschied zwischen gleichkernigen Core2 und Core > i3..7 ist deutlich wahrnehmbar Ist er, aber ich rechne nicht damit, dass es in dem Umfang weitergeht. Das "law of diminishing return" greift da allmählich. Es wird immer wieder Optimierungen geben, aber die Hauptentwicklung geht eindeutig in die Breite, in die Anzahl Cores. Wo freilich die Software gewisse Schwierigkeiten hat, dem zu folgen. Was jetzt schon nicht selten zu Quadcores führt, in denen drei fast arbeitslose Cores genüsslich dabei zusehen, wie sich der vierte im Turbo-Mode abstrampelt. Etwas bringt auch die Orientierung auf power budgets und voll- oder semiautomatische dynamische Verteilung von Leistung einzelner Cores über den gesamten Prozessor noch, wie es das eingebaute Übertakten bei Intel seit den Core i ansatzweise bereits darstellt (ebendieser Turbo-Mode). Da geht noch mehr und davon profitiert auch die single threaded performance.
Die neusten Prozessoren bieten viel Rechenpower bei wenig Stromverbrauch. Ich habe mir eben einen Shuttle-PC mit einem i3-2310M (AsRock Core HT) zugeklegt und bin begeistert wie flott der ist, mit nur 15 - 30 Watt Energiebedarf. Ich brauche einfach einen PC den ich ständig laufen lassen kann und daher nicht zuviel Strom braucht. Wollte erst was mit einer alten Atom-CPU, anschaffen, aber der neusten i3 Mobile CPUs sind da bei vergleichbarem Stomverbrauch (inkl. Grafik) um Faktoren schneller.
Immerhin gibt es sogar bei den Taktfrequenzen noch Steigerungen in Dimensionen die vor 15 Jahren sich niemand hätte vorstellen können ".. das Übertakter-"Team AMD FX" hat ein Vorserienmuster schon ins Guinness-Buch der Rekorde getrieben: Bei Kühlung mit flüssigem Helium erreichte der Prozessor am 31. August 8,429 GHz." http://www.heise.de/newsticker/meldung/AMD-Uebertaktungs-Weltrekord-mit-CPU-Vorserienmuster-1341809.html "Schon mit leistungsfähigen Luftkühlern oder einfachen Wasserkühlern sollen Taktfrequenzen von "deutlich über 5 GHz" erreichbar sein .." Ob man das braucht, haben möchte oder für Energieverschwendung hält steht dabei auf einem anderen Blatt.
agp schrieb: > ".. das Übertakter-"Team AMD FX" hat ein Vorserienmuster schon ins > Guinness-Buch der Rekorde getrieben: Bei Kühlung mit flüssigem Helium > erreichte der Prozessor am 31. August 8,429 GHz." Intels Pentium 4 war davon auch nicht weit entfernt, insbesondere wenn man bedenkt, dass in dessen erster Inkarnation Teile des Kerns mit doppelter Rate arbeiteten. Nur sind solche spektakulären Werte mit Extremkühlung für die Praxis völlig irrelevant. > "Schon mit leistungsfähigen Luftkühlern oder einfachen Wasserkühlern > sollen Taktfrequenzen von "deutlich über 5 GHz" erreichbar sein .." IBMs Power Prozessoren sind da längst angekommen. Allerdings in Heavy Metal Systemen mit entsprechendem Aufwand. Man sollte dabei auch einrechnen, dass bei AMDs neuer Generation mit einer eher leicht geringeren Rechenleistung pro (Integer-) Core pro MHz gerechnet wird als bei der bisherigen. Als Intel vom Pentium III auf Pentium wechselte was das der Schritt von viel Leistung pro GHz" zu "viel GHz pro Leistung". AMD war andersrum gewickelt, erreichte nicht die gleiche Taktfrequenz, aber unter dem Strich höhere Leistung. Intel scheiterte hauptsächlich thermisch, danach wechselten sie wieder zurück. AMDs FX/Bulldozer läuft nun moderat in die umgekehrte Richtung, mehr GHz und mehr Cores bei etwas geringerer Leistung pro Core und GHz.
Ohne alles gelesen zu haben: nein. Das Ende der Fahnenstange ist noch nicht erreicht. Ich mhabe gerade einen uATX-Rechner mit nem UEFI-Board (Z68 Chipsatz), ner "billig"-SSD (Crucial M4) und einem "Sandige Brücke" i5 zusammengebastelt und mich geärgert, dass ich meinen "Großen" schon vor nem Jahr zusammengestellt hab' (i7, damals aktuelles Board, Intel Postville SSD). Der Unterschied beim Booten ist ... traurig für mein "altes" System und der Stromverbrauch des Kleinen ist geringer als der von meinem Lötkolben. Da hat sich einiges getan. Da wird sich noch einiges tun. (Man kann auch noch Glühbirnen neu kaufen, wird aber langsam weniger - was auf Lager ist, kann ja nicht einfach so weg sein.)
A. K. schrieb: > seither gibt > es viele Leute, die sich nicht am oberen Leistungsspektrum orientieren, > sondern mit einem Bruchteil dessen arbeiten, was möglich wäre. Ich mache das schon seit 15 Jahren. Jeder Geschwindigkeitsschub führte doch in erster Linie nur dazu, daß Millionen PCs schneller warteten. Die Lücke wurde dann aber immer mit etwas Verzug von Microsofts nächstem OS-Monster gestopft, das die ansonsten unnötige Performance der Maschinen brauchte, um überhaupt einigermaßen flüssig zu laufen. > Mit Windows 8 müssen sie > mit dem gleichen Grundsystem ein viel grösseres Leistungsspektrum an > Endgeräten abdecken als jemals zuvor. Es wird ja auch Zeit, daß dieser Schwachsinn endlich aufhört...
Testfall schrieb: > Ohne alles gelesen zu haben: nein. Das Ende der Fahnenstange ist noch > nicht erreicht. Bei den Disks sicherlich nicht. Da geht es rasant weiter, in beiden Richtungen - mit der Leistung hoch und der Zuverlässigkeit runter (Intels Firmware Updates, massive Problem beim aktuellen Sandforce). Ich bezog mich bisher hauptsächlich auf die CPU-Leistung. > der Stromverbrauch des Kleinen ist geringer als der von meinem Yep, bei vergleichbarer Leistung geht der Stromverbrauch deutlich runter. Wobei Intels Pentium 4 Linie grad an dieser Stelle unrühmlich ausfiel, hatten die Dinger doch mörderisch hohe Leckströme und damit eine entsprechend hohe Ruheleistung.
Nanana, nicht so hart, werter Uhu. Windows 7 ist recht schlank geraten. Das geht auch auf fast allem, was XP konnte. Und das besser. Windows 8 dagegen ist Murks - aber auch nur meiner Meinung nach. Ich will einen Computer und kein Riesenhandy, das nichtmal anständig Telefonieren kann. Entweder tun die da noch RICHTIG viel dran, oder ich bleibe noch sehr lange bei Win7.
Uhu Uhuhu schrieb: > Ich mache das schon seit 15 Jahren. Kenne ich. Meine in letzter Zeit eher gelegentlich genutze Workstation ist 7 Jahre alt und eher zu laut als zu langsam - ok, vor 7 Jahren war sie mal top. Die meiste Arbeit hat der eeePC, und das auch noch untertaktet.
A. K. (prx) schrieb: agp schrieb: >> ".. das Übertakter-"Team AMD FX" hat ein Vorserienmuster schon ins >> Guinness-Buch der Rekorde getrieben: Bei Kühlung mit flüssigem Helium >> erreichte der Prozessor am 31. August 8,429 GHz." > Intels Pentium 4 war davon auch nicht weit entfernt, insbesondere wenn > man bedenkt, dass in dessen erster Inkarnation Teile des Kerns mit > doppelter Rate arbeiteten. Nur haben diese alten Prozessoren wie ein P4 nicht annähernd die Performance der neuen Prozessorgeneration(en). Dazu gehört schließlich auch das entsprechende Umfeld, die (jeweils aktuellen) Chipsätze und die laufen selbst mit einem hochgetakteten P4 nun mal prinzip bedingt nicht mehr. Also bitte nicht Äpfel von gestern mit heutigen Birnen vergleichen. ;-) > Nur sind solche spektakulären Werte mit > Extremkühlung für die Praxis völlig irrelevant. Es gibt auch Hochleistungsrechner die ihre Leistung mit Hilfe extremer Kühlung erst erreichen. Außerdem reden wir hier schließlich über Forschung und nicht Olly's Zockersystem für die Lanparty oder?!
agp schrieb: > mehr. Also bitte nicht Äpfel von gestern mit heutigen Birnen > vergleichen. ;-) Nur waren die serienmässig verfügbaren P4er ebensoweit von den Rekordwerten entfernt, wie das bei AMDs FX der Fall sein wird. Und die FX werden deutlich mehr GHz für die gleiche Leistung benötigen als Intel. Man sollte hier lso nicht den gleichen Fehler machen wie damals und GHz als Mass für Leistung sehen. Mit Architekturwechsel ändert sich der Massstab.
agp schrieb: > Kühlung erst erreichen. Außerdem reden wir hier schließlich über > Forschung Tun wir das? Ich beziehe mich hauptsächlich auf Mainstream-Rechner, die noch mit einem 300-400W Netzteil auskommen und die man nicht am Boden festschrauben muss, damit sie sich nicht per Rückstoss fortbewegen.
A. K. (prx) schrieb: > Nur waren die serienmässig verfügbaren P4er ebensoweit von den > Rekordwerten entfernt, wie das bei AMDs FX der Fall sein wird. Und die > FX werden deutlich mehr GHz für die gleiche Leistung benötigen als > Intel. Nur wenn sie mit einfachen Luftkühlern bereits 5 Ghz erreichen ist das schon einiges mehr als bisher dagewesen. > Man sollte hier lso nicht den gleichen Fehler machen wie damals und GHz > als Mass für Leistung sehen. Mit Architekturwechsel ändert sich der > Massstab. Das ist ja auch nur mal eine aufgegriffene News und mehr nicht. Mir persönlich geht es nicht um Ghz bis zum geht nicht mehr, sondern eher um Energieeffizienz. Aber es ist trotzdem erstaunlich wie einfach und sicher man breits viele heutige Prozessoren übertakten kann. Das war bezogen auf AMD in der Vergangenheit bei meinen bisherigen Prozessoren so nie der Fall. >> Kühlung erst erreichen. Außerdem reden wir hier schließlich über >> Forschung > Tun wir das? Ich glaub hier in diesem Fall kann man das so einordnen. Solche Versuche gab es immer, wurden früher gerne auf der CeBit gezeigt und haben für entsprechendes Staunen der Besucher gesorgt. Damals noch viel mehr als heute bei viel geringeren Taktraten weit unter einem Gigahertz. ;) > Ich beziehe mich hauptsächlich auf Mainstream-Rechner, die > noch mit einem 300-400W Netzteil auskommen und die man nicht am Boden > festschrauben muss, damit sie sich nicht per Rückstoss fortbewegen. Die anderen haben halt gleichzeitig eine schöne Heizung für die Stube. Soll ja bald Winter werden. :) Mein 300 Watt NT reicht zum Glück gerade noch und die Elkos darin sehen hoffentlich noch gut aus (klopf auf Holz). ;) Die Entwicklung geht doch auch zum Glück verstärkt in Richtung sparsame Rechenknechte, siehe http://www.heise.de/newsticker/meldung/AMD-verspricht-sparsame-Mobil-Bulldozer-fuer-Anfang-2012-1344765.html
agp schrieb: > sicher man breits viele heutige Prozessoren übertakten kann. Das war > bezogen auf AMD in der Vergangenheit bei meinen bisherigen Prozessoren > so nie der Fall. Deshalb hatte ich ja den P4 erwähnt. Damals optimierte Intel auf hohe GHz, AMD hingegen auf hohe Leistung pro GHz - das drückt die GHz deutlich. Heute ist es andersrum, wenn auch moderater. Es ist daher nicht überraschend, dass FX weit höher taktbar ist als bei AMD bisher üblich, exakt das war ein Designziel. Nur muss man für hohe Taktraten anderswo Federn lassen. Wie sich das in der Praxis auswirkt bleibt abzuwarten. Damals jedenfalls konnte sich Intel von den GHz effektiv nichts kaufen, AMD hatte die Nase vorn. Ich hoffe es läuft diesmal anders, d.h. AMD gewinnt wieder Marktanteil und schreibt mal ein Weilchen schwarze Zahlen, denn dieser Markt funktioniert nur solange als Markt, wie beide mitspielen. Wenn Intel gewinnt, dann verlieren die Kunden.
A. K. schrieb: > Tun wir das? Ich beziehe mich hauptsächlich auf Mainstream-Rechner, die > noch mit einem 300-400W Netzteil auskommen und die man nicht am Boden > festschrauben muss, damit sie sich nicht per Rückstoss fortbewegen. Hmm, ehrlich gesagt hab ich hier einen kleinen Gamer-HTPC, der trotz flotter Grafikkarte (N460GTX), maximal 210W zieht. Ich verstehe nicht, wie man so viel mehr Strom verbrauchen kann (SLI mal ausgeschlossen). Ich glaube, dass irgendwann die kleinen ARM-CPUs die großen überholen werden. Sie sind einfach viel sparsamer und trotzdem steigt die Leistung stetig - damit haben sie viel bessere Vorraussetzungen.
Samuel K. schrieb: > Ich glaube, dass irgendwann die kleinen ARM-CPUs die großen überholen > werden. Sie sind einfach viel sparsamer und trotzdem steigt die Leistung > stetig - damit haben sie viel bessere Vorraussetzungen. Der vergleich hinkt aber gewaltig... Sie sind deshalb so sparsam weil sie kacke langsam und ne ganz andere Architektur haben im vergleich zu einem Intel i3.. what ever. Und auch im Ansatz nicht dafür konzipiert wurden, wofür moderne Desktop/Server CPU's ausgelegt worden sind.
Immerhin sind sie schon über der 1Ghz Marke. Und der Stromverbrauch selbst ist 100mal kleiner.
Samuel K. schrieb: > Ich glaube, dass irgendwann die kleinen ARM-CPUs die großen überholen > werden. Sie sind einfach viel sparsamer und trotzdem steigt die Leistung > stetig - damit haben sie viel bessere Vorraussetzungen. Sie sind sparsamer, weil (a) viel leistungsschwächer und (b) einfacher aufgebaut. Aber in grosser Höhe wird die Luft dünner und der Vorteil des einfacheren Aufbaus schwindet. ARMs der Leistungsfähigkeit eines Sandy Bridge werden sich im Energieverbrauch nicht viel von denen unterscheiden. Dazu kommt, dass Intel sehr viel mehr Entwicklungsressourcen zur Verfügung stehen als ARM, und auch eine weiter entwickelte Fertigungstechnik. Die Entwicklung von Highend-Prozessoren ist schweineteuer, der Hersteller geht mit riesigen Beträgen in Vorleistung. Viele Konkurrenten sind deshalb auf der Strecke geblieben, haben aufgegeben. Wer kennt noch SGI/MIPS? Alpha? HP-PA? Auch auf SPARC würde ich nicht mehr viel wetten. Und die waren alle grösser als die trotz allen Erfolgs vergleichsweise kleine Schmiede ARM. Die zudem aufgrund ihres Zielmarktes auf moderate Fertigungstechnik achten muss, die bei verschiedenen Herstellern nutzbar ist, während Intel kompromisslos vorgehen kann. Was auch noch fehlt: Eine 64-Bit ARM Architektur. Gerüchte gibts schon, aber mehr auch nicht. Mehr als eine erweiterte Adressierfähigkeit entfernt vergleichbar zu PAE ist bisher nicht drin. Mit 32-Bit kommt man da heute nicht mehr weit, damit kann man günstige Farmen für bestimmte Aufgaben produzieren, aber das wars dann.
Meine Glaskugel: Ob ARM oder x86 / x64 wird zum Schluss auf das Selbe rauslaufen, x86 / x64 integriert immer mehr Peripherie, ARM wird immer leistungsstärker. Das Resultat: Ein FETTER SOC (System-on-chip), der - einen/mehrere Cores enthält, nach belieben zu und abschaltbar - Grafikchip und Hardwaredecoding für mpg/flash beinhaltet - alle benötigten Anschlüsse bietet. Schnittstellenmäßig wird USB 3.0 SATA (da Intel dahinter ist :-)) kicken. DVI liefert sich mit dem Displayport als Grafikschnittstelle einen Kampf, persönlich wär ich für DVI :-) Sonst bleibt noch Gigabit-LAN und WLAN. Flashspeicher wird irgenwann einfach direkt eingebaut wie RAM-Riegel, direkte Anschlussmöglichkeit an den SOC. :-)
Und der Verpackung liegt eine Lupe bei, damit man das Ding auch sehen kann...
Samuel K. schrieb: > Immerhin sind sie schon über der 1Ghz Marke. Und der Stromverbrauch > selbst ist 100mal kleiner. Bleib auf dem Teppich. Vergleichswerte sind zwar schwierig, weil die meisten Chips dieser Klasse Grafik drauf haben und die sich drastisch unterscheiden kann, aber mehr als Faktor 2-3 ist m.E. bei vergleichbarer Leistung nicht drin. Man sollte auch nicht vergessen, dass Systeme mit der I/O-Konfiguration der Intel-Atoms oder AMD-Brazos aber ARMs vergleichbarer Leistungsfähigkeit drin m.W. bisher nicht existieren. PCIe-Lanes, SATA-Ports, Gb-Ethernet, USB-Ports etc. sind bei den ARMs Mangelware, weil bisher nicht gebraucht. Das macht Systemvergleiche schwierig, weil all das Zeug auch Strom braucht.
Samuel K. schrieb: > Immerhin sind sie schon über der 1Ghz Marke. Und der Stromverbrauch > selbst ist 100mal kleiner. Damit hast du dich soeben selbst disqualifiziert. Das eine hat mit dem anderen nichts zu tun. Du vergleichst einen Fiat 500 mit einem Mercedes Sprinter...
Ja ich weiß, die Taktzahl sagt nichts über die Geschwindigkeit aus. Ich glaube aber, dass die ARMs im Rechenleistung/Stromverbrauch effizienter sind.
Samuel K. schrieb: > Ja ich weiß, die Taktzahl sagt nichts über die Geschwindigkeit aus. Ich > glaube aber, dass die ARMs im Rechenleistung/Stromverbrauch effizienter > sind. Yep, sind sie. Aber ein paar Grössenordnungen geringer als dein Faktor 100. Und diese Zahl "Rechenleistung/Stromverbrauch" ist nur sinnvoll, wenn die Rechenleistung in ähnlicher Grössenordnung liegt, denn ob ein MSP430 dabei besser oder schlechter als ein Core i3 abschneidet interessiert kein Schwein.
A. K. (prx) schrieb: >Samuel K. schrieb: >> Immerhin sind sie schon über der 1Ghz Marke. Und der Stromverbrauch >> selbst ist 100mal kleiner. > Bleib auf dem Teppich. Vergleichswerte sind zwar schwierig, weil die > meisten Chips dieser Klasse Grafik drauf haben und die sich drastisch > unterscheiden kann, aber mehr als Faktor 2-3 ist m.E. bei vergleichbarer > Leistung nicht drin. Dann einfach den Samuel mal provokativ fragen, wieviel "Execution Units" und welches Shader-Modell die ARM CPU bei dem Stromverbrauch so mit sich bringt?! :) Achso und Zitat "Eine Fix-Function-Tessellation-Einheit darf entsprechend den DirectX-11-Anforderungen auch nicht fehlen, die Hull- und Domain-Shader kommen als programmierbare Stages hinzu." Siehe Auszug-Zitat "Die neue Ivy-Bridge-Grafikeinheit hat bis zu 16 Execution Units (Sandy Bridge: 6 oder 12), die zum Shader-Model 5.0 und folglich auch zu DirectX 11 kompatibel sind. Sie eignen sich also auch für universelle Berechnungen via DirectCompute 11.0 oder OpenCL 1.1. Ausgestattet sind sie mit Shared Local Memory, das einen effizienteren Datenaustausch zwischen den Shader-Kernen ermöglicht, und Scatter Gather, um Daten aus verschiedenen Speicherbereichen zusammenzuführen. Auch neue Formate für komprimierte Texturen (BC6H/7) beherrscht die GPU." Quelle: http://www.heise.de/newsticker/meldung/IDF-Intel-stellt-naechste-Prozessorgeneration-Ivy-Bridge-vor-1342459.html Wenn das alles mal in die "arme ARM-CPU" hineinimplantiert wurde, reden wir nochmal neu über den Stromverbrauch. ;-)
Vergiss es die Sandy Bridge kommt bei mir nicht ins Haus, die ist mir zu schwach. Was die Arms angeht. Ich bin kein Hellseher und ich wollte ehrlich gesagt, die ARMs nur ins Rennen werfen. Dennoch bin ich gespannt wie sie sich entwickeln. Und damit ihr auch etwas anderes habt außer mich zum rumhacken, werfe ich zudem noch die GPUs ins Rennen, welche ihre Leistung jedes Jahr steigern (mehr als die CPUs).
agp schrieb: > Dann einfach den Samuel mal provokativ fragen, wieviel "Execution Units" > und welches Shader-Modell die ARM CPU bei dem Stromverbrauch so mit sich > bringt?! :) Im Grunde kann man nur versuchen, Systeme mit ähnlichem Designziel zu vergleichen. Lowend-x86 wie Highend-ARMs orientieren sich bei der Grafik an der Fähigkeit zur Videodekodierung, sei es DVD oder BlueRay. Viel mehr macht man mit denen nicht. Die Lowend-x86 allerdings müssen dazu noch gewisse 3D-Fähigkeiten mitbringen - eine Forderung, die an die derzeit eingesetzten ARMs kaum gestellt wird. Über Highend-x86 brauchen wir hier garnicht reden, denn die rangieren weiterhin dermassen weit über den bisherigen ARMs, dass es sich um völlig getrennte Marktsegmente handelt. Kein ARM kann die auch nur annähernd ersetzen. Einzig in speziellen massiv parallelisierbaren Situationen bei Bladeservern für spezielle Zwecke haben ARMs eine gewisse Chance.
Samuel K. schrieb: > Vergiss es die Sandy Bridge kommt bei mir nicht ins Haus, die ist mir zu > schwach. Huh? Schwach in was? Stärker gehts im Desktop/Notebook derzeit nicht.
Samuel K. schrieb: > Vergiss es die Sandy Bridge kommt bei mir nicht ins Haus, die ist mir zu > schwach. Lol berechnest du zuhause etwa die Teilung von Proteinzellen? ;)
Basti Benassi schrieb: > Lol berechnest du zuhause etwa die Teilung von Proteinzellen? ;) Was ist das denn?
Uhu Uhuhu (uhu) Basti Benassi schrieb: >> Lol berechnest du zuhause etwa die Teilung von Proteinzellen? ;) > Was ist das denn? Kraftfutter für die Muckibude? :) A. K. (prx) schrieb: > Samuel K. schrieb: >> Vergiss es die Sandy Bridge kommt bei mir nicht ins Haus, die ist mir zu >> schwach. > Huh? Schwach in was? Stärker gehts im Desktop/Notebook derzeit nicht. Er setzt halt wohl schon auf Intels neue Ivy Bridge. ;)
Er nun wieder.... Dann denk dir das Wort "Protein" einfach mal weg...
Basti Benassi schrieb: > Dann denk dir das Wort "Protein" einfach mal weg... Was gibts denn da so furchtbar aufwendiges zu berechnen, wenn ich mir das Protein wegdenke?
Uhu Uhuhu schrieb: > Basti Benassi schrieb: >> Dann denk dir das Wort "Protein" einfach mal weg... > > Was gibts denn da so furchtbar aufwendiges zu berechnen, wenn ich mir > das Protein wegdenke? Dann nimm von mir aus Faltprozesse bei Proteinen... alike PS3... Da gibs genug zu rechnen oder n! bis in die unendlichkeit...
Das rauszufinden hast du aber lange gebraucht ;-)
ich hänge ja auch nicht den ganzen Tag vor Onkel Google ;)
Aber stattdessen kostenlos und unverbindlich irgendwelches Halbwissen nach papageien?
Uhu Uhuhu schrieb: > Aber stattdessen kostenlos und unverbindlich irgendwelches Halbwissen > nach papageien? und was machst du den ganzen Tag anderes hier?!
ihr seid ja witzig ;) Die ist mir für die Grafikleistung zu schwach. Wenn schon interne Grafik, dann richtig. Außerdem ist sie zu teuer. Wie alles von Intel.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.