Hallo Leute, hat vielleicht jemand einen PC mit Haswell-CPU ohne Grafikkarte am laufen. Mich würde interessieren, ob die On-Chip-Grafik wirklich brauchbar ist. Anwendungen wären Word, große Excel Tabellen und erstellen von Plakaten und Flyern mit CorelDraw (Corel X5). Keine Spiele. Daß es funktioniert kann ich mir natürlich denken, aber kann man damit wirklich vernünftig arbeiten oder sollte man doch besser eine Grafikkarte einbauen? Ziel ist geringer Stromverbrauch und vor allem Geräuscharmut (nicht noch ein kleiner, giftiger Lüfter auf der Grafikkarte). Gruß Christian.
Soll das ein Witz sein? Ob du eine "richtige" Grafikkarte für Word & Excel brauchst?! Was bietet eine solche denn - richtig, Streamingprozessoren für Shader und 3D-Rechnung. Benutzt Word & Excel davon irgendwas? Nein. Daher hat die Grafikkarte da 0 Einfluss drauf. Habe einen Haswell i3 und da laufen sogar ein paar Spiele drauf. Viel sinnvoller wäre die Investition in eine SSD und einen großen Monitor...
Christian schrieb: > Mich würde interessieren, ob die On-Chip-Grafik wirklich > brauchbar ist. Anwendungen wären Word, große Excel Tabellen und > erstellen von Plakaten und Flyern mit CorelDraw (Corel X5). Keine > Spiele. Völlig ausreichend. Mit separater Grafik gewinnst du dafür nichts.
Ich habe ein Notebook mit i7-3630QM (integrierte Grafik) und Nvidia 740M. Die Nvidia schalte ich nur für aufwändige Spiele ein, den Rest lasse ich von der in der CPU integrierten erledigen.
:
Bearbeitet durch User
Christian schrieb: > Hallo Leute, > hat vielleicht jemand einen PC mit Haswell-CPU ohne Grafikkarte am > laufen. Mich würde interessieren, ob die On-Chip-Grafik wirklich > brauchbar ist. Anwendungen wären Word, große Excel Tabellen und > erstellen von Plakaten und Flyern mit CorelDraw (Corel X5). Keine > Spiele. Daß es funktioniert kann ich mir natürlich denken, aber kann man > damit wirklich vernünftig arbeiten oder sollte man doch besser eine > Grafikkarte einbauen? Ziel ist geringer Stromverbrauch und vor allem > Geräuscharmut (nicht noch ein kleiner, giftiger Lüfter auf der > Grafikkarte). Kein Problem. Für 2D ist das immer schnell genug. Und das gilt für eine HD3000 in einer Sandy Bridge CPU und erst recht für eine HD4000 oder HD5000. fchk
Dr. Sommer schrieb: > Soll das ein Witz sein? Ob du eine "richtige" Grafikkarte für Word & > Excel brauchst?! Was bietet eine solche denn - richtig, > Streamingprozessoren für Shader und 3D-Rechnung. Ich habe halt keine große Ahnung davon, aber Grafikkarten auf dem Mainboard gibt es ja schon ewig und trotzdem ist in jedem PC eine extra Grafikkarte drin. Da denkt sich der durchschnittlich Begabte halt, daß man mit den On-Board-Lösungen nicht viel anfangen kann. Jetzt ist die Grafik noch in der CPU drin. Ich kann nicht einschätzen, ob das was taugt, deshalb frage ich.
Christian schrieb: > Ich habe halt keine große Ahnung davon, aber Grafikkarten auf dem > Mainboard gibt es ja schon ewig Und sie waren schon ewig 100% geeignet für Word&Excel, erst recht die dicken neuen HD4000... > und trotzdem ist in jedem PC eine extra > Grafikkarte drin. Stimmt doch überhaupt nicht, nur in den "Gamer-PC's". In den ganzen normalen Office-Rechnern ist typischerweise nur sowas ala Intel GMA drin... > Da denkt sich der durchschnittlich Begabte halt, daß > man mit den On-Board-Lösungen nicht viel anfangen kann. Jetzt ist die > Grafik noch in der CPU drin. Ich kann nicht einschätzen, ob das was > taugt, deshalb frage ich. Das taugt sehr gut, die HD4000 kann auch HD-Filme und 3D-Spiele. Das ganze Office-Zeug nutzt deren Fähigkeiten überhaupt gar nicht.
Und sollte der integrierte Grafikchip irgendwann nicht ausreichen kannst du immer noch einen GraKa nachrüsten.
In meinem Entwicklungsrechner ist so eine CPU-Grafik im Einsatz. Funktioniert wunderbar mit voller Treiberunterstützung im aktuellen Linux-Kernel, auch mit mehreren Bildschirmen.
Max H. schrieb: > Und sollte der integrierte Grafikchip irgendwann nicht ausreichen kannst > du immer noch einen GraKa nachrüsten. Das stimmt natürlich ;-) @Alle: Vielen Dank für die schnellen Antworten/Einschätzungen. Hat mir wirklich weiter geholfen. Gruß Christian
Christian schrieb: > Anwendungen wären Word, große Excel Tabellen und > erstellen von Plakaten und Flyern mit CorelDraw (Corel X5). Dafür willst du eine extra Grafikkarte? Oh mann. Der Computeranalphabetismus in diesem Forum ist erschreckend.
Paul M. schrieb: > Christian schrieb: >> Anwendungen wären Word, große Excel Tabellen und >> erstellen von Plakaten und Flyern mit CorelDraw (Corel X5). > > Dafür willst du eine extra Grafikkarte? Oh mann. Der > Computeranalphabetismus in diesem Forum ist erschreckend. Hättest du das Ausgangsposting gelesen, war eben genau die Frage, ob man dafür eine extra GK braucht, oder ob die Onboard Grafik der Haswell CPU ausreicht. Wer ist also hier der Analphabet? Und qualifizierte Meinungen über die Haswell Grafik konnte hier bis auf Frank und René niemand bieten, aber jede Menge Sprüche.
Hallo, ich habe ein MS Surface Pro 2 (i5-4200U HD4400, 2GB RAM) und habe aus spaß einmal das Battlefield 4 eines Kollegen Installiert. Es lief im Einzelspieler bei 720p und verringerten Details spielbar. HD Material ist auch kein Problem. Bedenkt man nun das dies ein Aktuelles PC Spiel ist und du fragt ob die eingebaute GPU für den Alltag reich so kann ich dies nur bestätigen. Bisher ist das Surface noch mit allem fertig geworden. Gruß deathfun PS: Die Leistung einer "normalen" HD4400 in den Prozessoren außerhalb eines Surface noch einmal etwas höher da MS bei den Surface Pro Modellen einen speziellen Treiber für die Grafikeinheit zur Verfügung stellt - vermutlich zur Akkuschonung - der nicht mit den Aktuellen Intel Treibern verglichen werden kann (Intel Treiber = höhere Leistung).
Es handelt sich ja oft nicht mehr um eine "Onboard-Grafik"sondern um eine "CPU-Grafik" welche man in der Leistungsfähigkeit nicht mit einer Onboard Lösung von früher vergleichen kann. Mit einigen CPU Grafik Lösungen kann man auch zocken...wenn sicher nicht alles...
Paul M. schrieb: > Dafür willst du eine extra Grafikkarte? Oh mann. Der > Computeranalphabetismus in diesem Forum ist erschreckend. Darum fragt er ja in diesem Forum. Im Fachgeschäft würden sie ihm 'ne 3D Karte für sein Word verkaufen ;)
Kann mich den Vorrednern nur anschließen, die aktuellen Intel HD Onboard Grafikkarten sind wirklich spitze! Die meisten Mainboards haben sogar die Möglichkeit über DisplayPort ein zweites Display zu treiben. Wir setzen das in der Arbeit mit 2x24" (1920x1200) Displays ein, bisher keine Probleme. Ausreichend Ram sollte man halt haben.
Borsty Bürste schrieb: > Die meisten Mainboards haben sogar > die Möglichkeit über DisplayPort ein zweites Display zu treiben. Bereits die Vorgängerversion der Haswells, "ivy bridge" (i3/i5/i7-3xxx) ist prinzipiell in der Lage, drei Displays anzusteuern, je nach Ausführung des Motherboards auch in Form dreier digital angesteuerter Displays. Die Graphik der Haswells (i3/i5/i7-4xxx) kann via Displayport auch "4k"-Displays mit 60 Hz Bildwiederholfrequenz ansteuern, sofern das Motherboard mitspielt.
Hallo Leute, ich habe inzwischen "gekauft". Core-I5 4570, das günstigste MSI-Mainboard bei ARLT und 8GB Speicher. Fazit: Kein Vergleich zum vorherigen Rechner (Athlon X2 6000+ mit ATI Radeon HD4600). Die On-Chip-Grafik auf dem Haswell schlägt die alte ATI Radeon (die allerdings natürlich auch keine Gamer-Karte war) in jedem Belang um Längen! Ausserdem flüsterleise und wesentlich weniger Stromverbrauch. Alles in Allem eine lohnende Aktion für gerade mal 300 und ein paar Euro. Gruß Christian
Christian (Gast) schrieb: > .. Core-I5 4570, das günstigste > MSI-Mainboard bei ARLT und 8GB Speicher. Fazit: Kein Vergleich zum > vorherigen Rechner (Athlon X2 6000+ mit ATI Radeon HD4600). Die > On-Chip-Grafik auf dem Haswell schlägt die alte ATI Radeon Deine Radeon HD4600 ist auch von 2008 und damit überholt. Modernere APUs von AMD leisten deutlich mehr und brauchen sich vor der Haswell APU nicht fürchten, siehe http://www.computerbase.de/2013-06/intel-haswell-grafik-fuer-desktop-pcs-test/6/ " Im Resultat fällt das Endergebnis bei unseren Spieletests enttäuschend aus: Der schnellste Desktop-Prozessor, der Intel Core i7-4770K, muss sich dem AMD 10-5800K um 25 Prozent geschlagen geben, was nicht gerade einer knappen Niederlage entspricht. Aus zwei Gründen wird das Dilemma gar noch größer. Der Intel-Prozessor ist a) rund 200 Euro teurer als das AMD-Pendant und b) wird AMD in Kürze die „Richland“-Generation für das Desktop-Segment vorstellen – und damit den bereits vorhandenen Vorsprung weiter ausbauen. " sowie http://www.pcgameshardware.de/Trinity-Codename-255654/Tests/AMD-A10-5800K-und-A8-5500-Trinity-im-Test-1024192/
prg schrieb: > Modernere APUs > von AMD leisten deutlich mehr und brauchen sich vor der Haswell APU > nicht fürchten, siehe Das stimmt nur für den Grafikteil. Bei CPU-lastigen Anwendungen sehen die Teile von AMD ganz alt aus. Auch die Versuche von AMD mit 8 Kernen und exorbitanter Taktfrequenz die Leistung ihrer CPUs zu steigern, sind nur hinsichtlich der Wärmeleistung als erfolgreich zu betrachten. Hinsichtlich der Rechenleistung sind sie den Intel-CPUs hoffnungslos unterlegen.
> Bei CPU-lastigen Anwendungen sehen > die Teile von AMD ganz alt aus. Nur wenn man ungleiches miteinander vergleicht. Einen Prozessor der das x-fache kostet gegen eine preiswerte AMD-CPU antreten und gewinnen zu lassen ist reichlich unfair. Vergleiche mal einen Intel core i3 der 100 Euro kostet mit einer AMD-CPU die 100 Euro kostet! Da musst du schon genau hinschauen, wer da jeweils besser abschneidet. Der kleinste Intel 4-Kern Prozessor kostet 150 Euro am Markt. Vergleich den mit einer Kaveri APU. Da gewinnt mal der eine und mal der andere ja nach Disziplin.
Schreiber schrieb: > Das stimmt nur für den Grafikteil. Bei CPU-lastigen Anwendungen sehen > die Teile von AMD ganz alt aus. Allerdings. Wollte vor Kurzem meinen Rechner upgraden, da er mittlerweile vier Jahre alt ist und ich bisher immer im Zyklus von ~3 Jahren die Komponenten getauscht habe. Nachdem ich dann aber die Leistungsdaten aktueller AMD-CPUs (bis 100W TDP) mit denen meiner CPU (AMD Phenom II X4 955) verglichen habe kam ich zu dem Schluss, dass ein Upgrade auf eine AMD-CPU schon fast ein Rückschritt wäre. Bei Intel sah es hingegen komplett anders aus, dort bekommt man, je nach CPU, schon bei bis zu 65W TDP fast die doppelte Rechenleistung (natürlich auch abhängig vom Benchmark), dafür zahlt man aber auch bis zu 250% mehr als bei AMD. Am Ende habe ich mir dann doch nur mehr RAM und eine neue Grafikkarte gegönnt, der Rest ist, verglichen mit aktuellen Komponenten, quasi up-to-date. Viele Grüße Daniel
prg schrieb: >> Bei CPU-lastigen Anwendungen sehen >> die Teile von AMD ganz alt aus. > > Nur wenn man ungleiches miteinander vergleicht. Einen Prozessor der das > x-fache kostet gegen eine preiswerte AMD-CPU antreten und gewinnen zu > lassen ist reichlich unfair. Vergleiche mal einen Intel core i3 der 100 > Euro kostet mit einer AMD-CPU die 100 Euro kostet! Da musst du schon > genau hinschauen, wer da jeweils besser abschneidet. Wenn man zusätzlich zur Rechenleistung noch den Stromverbrauch betrachtet, fällt AMD (leider) wieder ab. Weit. An sich bin ich ja ein Fan von AMD. Oder anders ausgedrückt: mir stinkt die Arroganz von Intel. Und AMD hatte mit dem Opteron und den davon abgeleiteten CPUs bis hin zu ca. Phenom x4 auch sehr ordentliche CPUs. Mein neuer PC ist trotzdem ein i7 geworden. Aus vielen Gründen: 1. potentiell höhere Rechenleistung 2. deutliche niedrigere Leistungsaufnahme, sowohl idle als auch unter Last 3. exzellente Linux-Unterstützung der Grafik Daß CPU und Board jeweils etwas teurer sind - wen juckts. Das gleicht die Stromrechnung innerhalb von maximal 2 Jahren locker wieder aus. Ein Upgrade der Hardware steht jedenfalls auf Jahre nicht mehr an. Der Vorgänger des i7 ist am Ende 6½ Jahre alt geworden (ein Athlon64 X2 5000+, Hardware bestellt am 24.07.2007). Ich gehe davon aus, daß der i7 wenigstens genauso lange hält. Die Anschaffungskosten sind auf so lange Zeit ziemlich irrelevant. XL
Von AMD gibt es Kaveri, mit guter CPU- und sehr guter Grafik-Leistung, und mit HSA. AMD-AM1-CPUs kosten inclus. Board gerade mal ca 50eu(!), und dürften für einfache Büro-Anwendungen allemal reichen.
Hallo, der Unterschied offenbart sich, wenn man die Leistungsaufnahme vergleicht. Moderne stromsparende Intel-CPUs wie z.B. ein i5-4570S stecken bzgl. Performance in fast allen Belangen ihre AMD-Brüder mit vergleichbarer Leistungsaufnahme in die Tasche. Und das sage ich nicht, weil ich ein Intel-Jubelperser bin, ich hatte bisher genau einmal eine Intel-CPU, und das war vor knapp 18 Jahren ein Intel Pentium in meinem ersten (Fertig-)PC. Ich habe vor ein paar Wochen (eben wegen geplantem und verworfenem Upgrade) mal für mich ein Ranking erstellt, und das Ergebnis war, dass sich mit meiner jetzigen AMD-CPU ein Upgrade auf eine aktuelle AMD-CPU mit geringerer TDP leistungsmäßig nicht lohnt (Leistungszuwachs gemittelt zwischen -10 und +15 Prozent). Die integrierte GPU ist bei AMD zwar ein interessantes Schmankerl, für mich aber wegen der Nutzung einer dedizierten Grafikkarte irrelevant. Leider sieht es im Grafikkartenmarkt ähnlich aus, dort hat bzgl. Stromaufnahme/Leistung NVidia die Nase vorne. Viele Grüße Daniel
Daniel H. schrieb: > Leider sieht es im Grafikkartenmarkt ähnlich aus, dort hat bzgl. > Stromaufnahme/Leistung NVidia die Nase vorne. War NVidia nicht der Laden, der vor wenigen Wochen das neueste Spitzenprodukt kurz vor der Vorstellung wieder zurückzog, weil es langsamer war als das AMD Spitzenprodukt? ;-)
Hallo, ich meinte nicht die absolute Performance sondern die Performance in Relation zur Leistungsaufnahme. Im Bereich bis 100W TDP hat hier NVidia als Spitzenmodell die GeForce 750 Ti mit 60W TDP, AMD die R7 250X mit 80W TDP. Leistungsmäßig steht die GF 750 Ti aber besser da als die R7 250X. http://gpuboss.com/gpus/Radeon-R7-250X-vs-GeForce-GTX-750-Ti Wie gesagt, ich bin kein Jubelperser, ich habe nur den Anspruch, dass ich die beste Performance bei möglichst geringem Stromverbrauch haben möchte. Und diesbezüglich steht AMD momentan nicht wirklich gut da, was ich sehr schade finde. Viele Grüße Daniel Edit sagt: Mir ist klar, dass Leistungsvergleiche wie die verlinkten mit Vorsicht zu genießen sind, man sollte also idealerweise immer verschiedene Quallen anzapfen.
:
Bearbeitet durch User
Daniel H. schrieb: > man sollte also idealerweise immer verschiedene Quallen anzapfen Na iihh, das Glibberzeugs...
Daniel H. (Firma: keine) (commander) schrieb: > Leistungsmäßig steht die GF 750 Ti aber besser da als die R7 250X. > http://gpuboss.com/gpus/Radeon-R7-250X-vs-GeForce-GTX-750-Ti > Wie gesagt, ich bin kein Jubelperser, ich habe nur den Anspruch, dass > ich die beste Performance bei möglichst geringem Stromverbrauch haben > möchte. Und diesbezüglich steht AMD momentan nicht wirklich gut da, was > ich sehr schade finde. > Viele Grüße > Daniel > Edit sagt: Mir ist klar, dass Leistungsvergleiche wie die verlinkten mit > Vorsicht zu genießen sind, man sollte also idealerweise immer > verschiedene Quallen anzapfen. Nicht böse sein, aber das ist auch so ein Äpfel mit Birnen Vergleich. GeForce GTX 750 Ti um 130 Euro (z.B. Reichelt) Radeon R7 250X um 80 Euro (z.B. Mindfactory oder 70 Euro Alternate) Vergleiche ich leistungsmäßig, dann rücken für 130 Euro bereits 256 Bit Graka der Modellreihe R7 265 oder HD 7850 von AMD ins Visier und die Bilanz schaut schon wieder ganz anders aus.
Moderne MS-Software benutzt wohl die 3D-Funktionen auch für die ein oder andere 2D-Geschichte... aber bestimmt nicht so intensiv dass eine CPU-integrierte GPU die mit Mittelklasse-Spielen klarkommt überlastet würde. Alte Onboard-Grafikchips bzw deren Treiber hatten oft Probleme exotische/nicht-4:3 Monitorauflösungen anzusteuern, und bei den damaligen RAM-Technologien verbrauchte man einen nicht geringen Teil seiner Arbeitsspeicherbandbreite für Framebuffer-Zugriffe wenn man grosse Monitore (sagen wir mal 22" 1600x1200@90Hz) mit Shared-Memory ordentlich ansteuern wollte. Daher hat man damals Office-PCs gerne mit Mainstream-Gamer-Grafikkarten ausgestattet einfach weil diese das beste Preisleistungsverhältnis boten und die Energieffizienz noch niemanden interessierte. Diese Tradition hat sich hier und da gehalten...
prg schrieb: > GeForce GTX 750 Ti um 130 Euro (z.B. Reichelt) > Radeon R7 250X um 80 Euro (z.B. Mindfactory oder 70 Euro Alternate) Reichelt lasse ich mir noch eingehen...bei den anderen Anbietern gibt es auch mal schwangerne Jungfrauen.Obwohl bei Reichelt habe ich bis dto nur Bauteile bestellt...schon mal eingelötet war noch keines.;-)
prg schrieb: > Nicht böse sein, aber das ist auch so ein Äpfel mit Birnen Vergleich. Ich habe rein die TDP verglichen und dazu angemerkt, dass die GeForce einfach die bessere Performance bezogen auf die Energieeffizienz bringt. Mit geht es wie gesagt rein darum ein energieeffizientes System mit hoher Performance zu haben, der Preis ist sekundär. Wenn ich die GF 750 Ti mit einer Radeon R7 265 oder 7850 vergleiche dann fällt nunmal auf, dass diese eine deutlich höhere TDP haben, nämlich 130 bis 150 Watt, während die 750 Ti bei etwa 60 Watt liegt, d.h. die Radeons genehmigen sich mal eben 215 bis 250 Prozent mehr bei etwa gleicher Performance. Viele Grüße Daniel
Daniel H. (Firma: keine) (commander) schrieb: > Moderne stromsparende Intel-CPUs wie z.B. ein i5-4570S stecken bzgl. > Performance in fast allen Belangen ihre AMD-Brüder mit vergleichbarer > Leistungsaufnahme in die Tasche. Nicht wenn man den Vergleich über den Kaufpreis zieht. Was bekomme ich bei Intel für 150 Euro? Ein unteres Modell der Baureihe Core i5. Für das Geld reicht es bei AMD z.B. für ein Gespann aus leistungsfähiger CPU + externe R7 Graka, die über OpenCL zusätzliche CPU-Leistung parallel liefert oder für eine stromsparende integrierte Kaveri CPU, mit einer sehr leistungsfähigen GPU, an die die Intel Haswell-Grafik nicht heranreicht. > Ich habe vor ein paar Wochen (eben wegen geplantem und verworfenem > Upgrade) mal für mich ein Ranking erstellt, und das Ergebnis war, dass > sich mit meiner jetzigen AMD-CPU ein Upgrade auf eine aktuelle AMD-CPU > mit geringerer TDP leistungsmäßig nicht lohnt (Leistungszuwachs > gemittelt zwischen -10 und +15 Prozent). Die integrierte GPU ist bei AMD > zwar ein interessantes Schmankerl, für mich aber wegen der Nutzung einer > dedizierten Grafikkarte irrelevant. OnBoard GPU und externe Graka können sich leistungsmäßig auch ergänzen. > Leider sieht es im Grafikkartenmarkt ähnlich aus, dort hat bzgl. > Stromaufnahme/Leistung NVidia die Nase vorne. Wenn man sein Augenmerk nur auf die Stromaufnahme richtet, sollte man sich vor allem den Idle Prozess genau betrachten und nicht die max. Stromaufnahme und schon gar nicht die nominellen geschönten Werte vom Marketing, sondern selber messen. Es nützt auch nichts, wenn man zwar Strom spart, aber das gesparte Geld dafür dem CPU-Hersteller in den Rachen schmeißen darf. Und irgendwelche Überschlagsrechnungen mit permanenter Volllast sind sowieso für den Ar... Ich stehe vor einer ganz ähnlichen Entscheidung wie du, Daniel. Auch ich habe schon nach einem core I3 oder I5 geschielt, um meinen 2-Kerner zu ersetzen. Aber meine alte Vorgehensweise sich einen (eher knappen) Betrag X zu nehmen und zu schauen, was man dafür an Leistung geboten bekommt (CPU + Board) will mir einfach die Intel core-Reihe nicht schmackhaft erscheinen lassen, je genauer ich hinschaue. Da ich kein "Ökofuzzi" bin und noch ein paar Glühlampen betreibe (einen alten Kühlschrank ebenfalls)ist mir die Stromaufnahme eher sekundär wichtig. Ich würde mir auch nie eine "Green Line" Festplatte zulegen, die alle paar Augenblicke sich abschaltet, dafür aber nach 24 Monaten kaputt ist. Ich schalte auch meine Daylight ESLs nicht zigmal am Tag aus und ein. Dafür hält das Zeug bei mir auch länger.
Daniel H. (Firma: keine) (commander) schrieb: prg schrieb: >> Nicht böse sein, aber das ist auch so ein Äpfel mit Birnen Vergleich. > Ich habe rein die TDP verglichen und dazu angemerkt, dass die GeForce > einfach die bessere Performance bezogen auf die Energieeffizienz bringt. > Mit geht es wie gesagt rein darum ein energieeffizientes System mit > hoher Performance zu haben, der Preis ist sekundär. Das ist für mich aber ein Widerspruch in sich. Wozu ist es gut Strom zu sparen, außer damit auch Kosten zu sparen? Was man auf der einen Seite spart, haut man auf der anderen Seite für teure Anschaffungskosten wieder raus. Das mag die Öko-Heinis befriedigen (oder das Marketing des Anbieters) aber mich nicht. > Wenn ich die GF 750 Ti mit einer Radeon R7 265 oder 7850 vergleiche dann > fällt nunmal auf, dass diese eine deutlich höhere TDP haben, nämlich 130 > bis 150 Watt, während die 750 Ti bei etwa 60 Watt liegt, d.h. die > Radeons genehmigen sich mal eben 215 bis 250 Prozent mehr bei etwa > gleicher Performance. Nur das die Performance eben nicht gleich ist und die Wattwerte auch nur Volllastwerte sind. Die meiste Zeit sind die Karten im idle oder verbrauchen nur einen Teil der Leistung, aber nicht 100 Prozent.
prg schrieb: > Das ist für mich aber ein Widerspruch in sich. Wozu ist es gut Strom zu > sparen, außer damit auch Kosten zu sparen? Was man auf der einen Seite > spart, haut man auf der anderen Seite für teure Anschaffungskosten > wieder raus. Das mag die Öko-Heinis befriedigen (oder das Marketing des > Anbieters) aber mich nicht. Richtig, und genau deswegen habe ich am Ende auch nur etwas mehr RAM (nun 4 statt 8 GB) und eine neue Grafikkarte (GeForce 750 Ti statt GeForce GTX 260) verbaut. Bei der CPU & Mainboard sehe ich keinen Handelsbedarf, da die CPU leistungsmäßig noch ausreichend ist und (rein auf dem Papier -> Benchmarks) mit den meisten aktuellen AMD-CPUs weiter mithalten kann, während Intel-CPUs zwar viel mehr Leistung bieten, die ich aber (noch) nicht benötige, so dass es mir den Aufpreis nur für die niedrigere TDP nicht wert ist.
prg schrieb: > Da ich kein > "Ökofuzzi" bin ... ist mir die Stromaufnahme eher sekundär wichtig. Das kann man auch anderst sehen: Man kauft den PC, welcher die an ihn gestellten Anforderungen bei minimalen TCOS (=total cost of ownership) erfüllt. Hier kann es durchaus lohnen heute etwas mehr Geld auszugeben, um dann bei der Stromrechnung viel mehr einzusparen. Die etwas teureren Intel CPUs können sich daher schon lohnen, insbesondere in Deutschland, wo der Strom leider extrem teuer ist... Bei 2000 Betriebsstunden im Jahr (für einen Büro-PC ist das realistisch) kostet jedes Watt Durchschnittsleistung 0,5€ im Jahr. Bei einer Nutzungsdauer von 4 Jahren kommt man somit auf Stromkosten von 2€/W Wer im Sommer eine Klimaanlage einsetzen muss, der darf sich auf noch höhere Kosten freuen, wer pingelig ist, darf die (meist minimale) Ersparniss bei den Heizkosten gegenrechnen.
prg schrieb: > Was bekomme ich > bei Intel für 150 Euro? Ein unteres Modell der Baureihe Core i5. Für das > Geld reicht es bei AMD z.B. für ein Gespann aus leistungsfähiger CPU + > externe R7 Graka Verlinke uns doch bitte deine diesbezügliche Zusammmenstellung, also die exakten Modelle von CPU und Grafikkarte, auf die du sich beziehst.
Hallo, ich halte die Kalkulation auch für etwas gewagt. Intel i5-4430 = 160€ NVidia GF GTX 750 Ti = 140€ AMD FX-8350 = 160€ AMD Radeon R7 265 = 140€ Zugegeben, der FX-8350 ist sicherlich eines der Spitzenmodelle von AMD, leistungsmäßig liegt er aber gemittelt (mit Abweichungen bei bestimmten Schwerpunkten wie Single-threaded, Multi-threaded usw.) fast gleichauf mit dem i5-4430. http://www.cpu-world.com/Compare/365/AMD_FX-Series_FX-8350_vs_Intel_Core_i5_i5-4430.html Viele Grüße Daniel Edit sagt: Nicht zu vergessen, der FX-8350 ist zudem auch noch ein Achtkerner, so dass es nicht verwundert, dass er bei multi-threaded leistungsfähiger ist.
:
Bearbeitet durch User
Daniel H. schrieb: > Zugegeben, der FX-8350 ist sicherlich eines der Spitzenmodelle von AMD, > leistungsmäßig Ist es zumindest hinsichtlich der Wärmeleistung allen Intel Prozessoren weit überlegen. Auch hinsichtlich des Sounds setzt der mitgelieferte Boxed-Kühler neue Maßstäbe... 120W TDP sind bei der Rechenleistung bemerkenswert viel, der Boxed-Kühler mit seinem 80mm Lüfter sorgt für echtes Düsenjägerfeeling... Wem das nicht reicht: AMD verkauft auch Desktop-CPUs mit 220W TDP. Bei der Rechenleistung sind allerdings die Intel-CPUs führend.
Icke ®. (49636b65) schrieb: prg schrieb: >> Was bekomme ich >> bei Intel für 150 Euro? Ein unteres Modell der Baureihe Core i5. Für das >> Geld reicht es bei AMD z.B. für ein Gespann aus leistungsfähiger CPU + >> externe R7 Graka > Verlinke uns doch bitte deine diesbezügliche Zusammmenstellung, also die > exakten Modelle von CPU und Grafikkarte, auf die du sich beziehst. Das ganze Thema ist nicht so einfach. Ich zermartere mir schon die ganze Zeit den Verstand darüber, wie es sich nun verhält mit der Rechenleistung, die man für ein eher begrenztes Euronenbudget erreichen kann, unter Umgehung des weit verbreiteten "Intel-Mainstream", der in den meisten Köpfen sich fest eingepfanzt hat. Da viele Tests den Intel Core-i CPUs des öfteren eine leistungsstarke Nvidia GTX Graka beigesteuert haben, sind die Tests für mich nicht mehr aussagefähig in Vergleichstabellen, wo es um eine Gegenüberstellung der reinen CPU geht mit ihrer OnChip-Grafik geht. Also muss man sich diejenigen Tabellen raussuchen, wo das nicht das Fall ist, beispielsweise hier http://www.gamestar.de/hardware/prozessoren/amd-a10-5800k/test/amd_a10_5800k,565,3005620,4.html Für den AMD A10 5800K (aktuell rund 93 Euro bei Reichelt) ist der direkte Konkurrent der Core i3 3220 Intel HD 2500 für rund 97 Euro ebenfalls Reichelt). Der Unterschied liegt hauptsächlich in der Grafikeinheit, den beide CPUs mitbringen. Der Core i3 3220 kommt mit einer HD-2500-Grafik daher und der A10 5800K mit einer internen HD 7660D Grafikeinheit. Dazu das Zitat aus der Gamestar " Performance-Rating HD 7660D Insgesamt kann AMD seinen Vorsprung in Sachen integrierter Grafik mit dem neuen A10 5800K auf Intel nochmals deutlich ausbauen. Im Vergleich zum rund 300 Euro teuren Core i7 3770K mit der dort eingebauten HD-4000-Grafik ist der A10 je nach Speicher zwischen 180 und 200 Prozent schneller. Gegenüber dem gleich teuren Core i3 3220 mit der langsameren HD-2500-Grafik wächst der Vorsprung auf gewaltige 250 bis 320 Prozent – 3D-Spiele sind mit dem i3 3220 in halbwegs ansehnlichen Einstellungen unspielbar. Zwar arbeitet immerhin der Intel-Treiber mittlerweile zufriedenstellend, aber in mehreren Spielen sind wir immer noch über Grafikfehler gestolpert. Die Grafikeinheit des A10 5800K wird vom normalen Radeon-Treiber angetrieben und funktioniert deshalb absolut zuverlässig. Unverständlich finden wir auch, warum Intel ausgerechnet seiner High-End-CPU die schnellere Grafik spendiert, wo doch in damit ausgerüsteten PCs praktisch immer eine ausgewachsene Grafikkarte stecken dürfte. So ist der Core i3 3220 ohne extra Grafikkarte nur für Schreibmaschinen und Surfstationen zu gebrauchen, der A10 5800K trotz des langsameren CPU-Teils aber auch für weniger anspruchsvolle Spieler eine echte Alternative, .." Die reine CPU-Leistung liegt z.T. gleichauf und vereinzelt ist auch mal der core i3 flotter. Berücksichtigt man aber die Möglichkeit die deutlich stärkere Grafikeinheit des A10 5800K mit als GPU-Rechenknecht einzubinden (natürlich nur bei bestimmten Anwendungen), dann liegt für mich der AMD hier deutlich vorne. Im Stromverbrauch sind die Core's natürlich immer erheblich sparsamer - zumindest bei Volllast. Wem das wichtiger ist, der wird sein Urteil womöglich anders fällen. Das das Fazit des Artikelschreibers dennoch eher mies ausfällt wundert mich angesichts der gezogenen Vergleiche (mit dem älteren Phenom II X4) nicht und interessiert mich ehrlich gesagt auch relativ wenig, schon allein weils den Phenom so heute eh nicht mehr gibt. Intel hat für mich bei den CPUs seine Domäne im Spitzensegment, aber nicht im unteren Preissegment. Ohne AMD würden wir noch immer die unverschämten Preise zahlen, die Intel damals für seine CPUs beanspruchte, als sie versuchten dem lästigen Konkurrent AMD das Lebenslicht auszupusten (das Gebaren der Firma Intel lässt sich in alten c't Ausgaben nachlesen). Für die Milliardengewinne die Intel einfährt sollen andere sorgen.
prg schrieb: > Ohne AMD würden wir noch immer die > unverschämten Preise zahlen, die Intel damals für seine CPUs > beanspruchte Das ist leider AMDs einziger Verdienst. Technologisch haben sie Intel wenig entgegenzusetzen und hätten sie nicht ATI aufgekauft, um im GPU-Segment mitzuspielen, wären sie längst weg vom Fenster. Wie leistungsfähig CPU-Grafik daherkommt, spielt praktisch kaum eine Rolle, da sie im 2D-Bereich längst weit mehr als ausreichend ist und für anspruchsvolle 3D-Anwendungen immer noch viel zu wenig Power mitbringt. Entscheidend sind die nackte CPU-Leistung und die Leistungsaufnahme. Desweiteren ist die Kombination aus Intel-CPU und Intel-Chipset die stabilste Basis, die man bekommen kann, während AMD dort lange Zeit auf 3rd-Party Hersteller setzte (ich sag nur Alptraum VIA). Bezeichnenderweise war es ausgerechnet der jetzige Konkurrent nVidia, der als erster einigermaßen brauchbare Chipsets für AMD-Boards produzierte.
Icke ®. schrieb: > prg schrieb: >> Ohne AMD würden wir noch immer die >> unverschämten Preise zahlen, die Intel damals für seine CPUs >> beanspruchte > > Das ist leider AMDs einziger Verdienst. Technologisch haben sie Intel > wenig entgegenzusetzen und hätten sie nicht ATI aufgekauft, um im > GPU-Segment mitzuspielen, wären sie längst weg vom Fenster. Das war zu Pentium4-Zeiten ähnlich, bis dann ein Athlon kam, der plötzlich besser war als Intel. > Wie leistungsfähig CPU-Grafik daherkommt, spielt praktisch kaum eine > Rolle, da sie im 2D-Bereich längst weit mehr als ausreichend ist und für > anspruchsvolle 3D-Anwendungen immer noch viel zu wenig Power mitbringt. Nein, nur die Ansprüche sind gestiegen ;)
:
Bearbeitet durch User
Reinhard S. schrieb: > Das war zu Pentium4-Zeiten ähnlich, bis dann ein Athlon kam, der > plötzlich besser war als Intel. Der K7/Athlon kam bereits mitten rein in die Phase des Pentium III und war besser. Beim P4 war es dann der K8/Athlon64/Opteron, der sich neben 64 Bits auch durch direkte Speicheranbindung und moderneres Systemdesign abhob.
Reinhard S. schrieb: > Nein, nur die Ansprüche sind gestiegen Natürlich sind sie das und natürlich kann man 10 Jahre alte Games mit aktueller CPU-Grafik spielen. Aktuelle Spiele jedoch nicht bzw. nicht in guter Qualität. Deswegen baut sich jeder Gamer eine Grafikkarte ein. > Das war zu Pentium4-Zeiten ähnlich, bis dann ein Athlon kam, der > plötzlich besser war als Intel. AMDs gute alte Zeiten, die mit dem Pentium-M/Intel Core zu Ende gingen.
prg schrieb: > Ich zermartere mir schon die ganze > Zeit den Verstand darüber, wie es sich nun verhält mit der > Rechenleistung, die man für ein eher begrenztes Euronenbudget erreichen > kann, unter Umgehung des weit verbreiteten "Intel-Mainstream", der in > den meisten Köpfen sich fest eingepfanzt hat. Naja, da hilft kein martern... Es gibt nur genau zwei Hesteller. Keine gute Konstellation, ums sich durch den Kauf Nerd-mäßiger Exoten zu profilieren. Leider hat AMD vor einiger Zeit gründlich den Anschluß verloren, und Intel kann die Preise wieder diktieren. Die guten alten Zeiten, in denen AMD außer im Low-cost-Bereich mithalten konnte, sind im Moment vorbei, und richtig besser waren die das erste und letzte Mal zu Zeiten des seligen 386/87. Schade eigentlich. Überleg dir, was du wirklich benötigst, und kauf, was du willst. Einen i5 oder i7 brauchen tatsächlich die wenigsten, da drunter gibt's von beiden Hestellern brauchbares, aber Intel ist halt eine guten Schritt weiter vorne. Oliver
:
Bearbeitet durch User
Icke ®. (49636b65) schrieb: > Technologisch haben sie Intel > wenig entgegenzusetzen Das sehe ich anders bzw. stimmt so nicht. Im unteren Marktsegment hat Intel für mich AMD nichts entgegenzusetzen (siehe mein letztes Posting). Die Marktteilnehmer haben ihre Stärken auf unterschiedlichen Feldern. > Wie leistungsfähig CPU-Grafik daherkommt, spielt praktisch kaum eine > Rolle, da sie im 2D-Bereich längst weit mehr als ausreichend ist und für > anspruchsvolle 3D-Anwendungen immer noch viel zu wenig Power mitbringt. Stimmt auch so nicht. Du gehst davon aus, dass es nur den Power-Gamer gibt und den Exceltabellen Office-User. Es stimmt, für den Power-Gamer reicht die GPU-Leistung im AMD-Prozessor nicht aus. Der denkt nur in Frameraten (fps) und braucht gerne eine Graka mit Doppellüftern und eigenem Stromstecker. Es gibt aber auch noch was dazwischen, nämlich den Gelegenheitsspieler, der mehr als die luschige Grafikleistung der core i3 CPU haben möchte. Auch verwenden immer mehr normale Anwendungen 3D-Grafik. Alles was heutzutage irgendwie mit CAD zu tun hat, nutzt OpenGL oder Direct-3D Schnittstellen und damit auch die interne 3D-Engine. Die Zeiten des nur 2D Pixelschiebens sind längst vorbei. Wenn ich mein Diptrace nutze, kann ich entscheiden, ob im GDI, in OpenGL oder in Direct-3D gerendert wird. Je besser die entsprechende Schnittstelle in HW abgebildet ist, desto flotter ist der Verlauf. Die Leistung der AMD-CPUs ist für den Officebereich und auch fürs Videoschauen vollkommen ausreichend. In Kombination mit einer leistungsstarken GPU, die es quasi noch obendrauf gibt, ist das ein deutlich runderes Paket, als ein core i3 mit einer eher schwächlichen internen Grafikleistung und da dieser Vorgang eben nicht permanent zu 100 Prozent ausgelastet wird, wie beim Powergaming, spielt auch die Stromersparnis der Intel-Prozzis nicht so eine bedeutende Rolle wie das immer dargestellt wird.
Oliver S. (oliverso) schrieb: > Überleg dir, was du wirklich benötigst, und kauf, was du willst. Einen > i5 oder i7 brauchen tatsächlich die wenigsten, da drunter gibt's von > beiden Hestellern brauchbares, aber Intel ist halt eine guten Schritt > weiter vorne. Ich habe eigentlich bisher auch mit meinem alten 2-Kern Athlon (rund 3,3 GHz) leistungsmäßig eigentlich nichts vermisst. Nur beim rendern von ein paar hübschen raytracing Bildchen könnte es wirklich schneller zugehen. Da kann die interne HD4200 Grafik leider nichts zum OpenCL beitragen. Eine externe 128-bit Graka oder eine stärkere interne Prozessorgrafik ist da im Augenmerk. In meinem anvisierten Preissegment hat Intel da aber nichts zu bieten. ;-)
prg schrieb: > Nur beim rendern von ein > paar hübschen raytracing Bildchen könnte es wirklich schneller zugehen. Dann ist eine zusätzliche Grafikkarte die wirtschaftlichste Lösung.
Schreiber schrieb: > prg schrieb: >> Nur beim rendern von ein >> paar hübschen raytracing Bildchen könnte es wirklich schneller zugehen. > > Dann ist eine zusätzliche Grafikkarte die wirtschaftlichste Lösung. Ist rendern nicht eigentlich CPU-lastig? Oder ist das eine der Sachen, die man auf Grafikkarten auslagern kann?
Reinhard S. (rezz) schrieb: Schreiber schrieb: > prg schrieb: >>> Nur beim rendern von ein >>> paar hübschen raytracing Bildchen könnte es wirklich schneller zugehen. > >> Dann ist eine zusätzliche Grafikkarte die wirtschaftlichste Lösung. > Ist rendern nicht eigentlich CPU-lastig? Oder ist das eine der Sachen, > die man auf Grafikkarten auslagern kann? Es ist CPU-lastig, aber wenn die Software es unterstützt lässt sich die Grafikkarte über die OpenCL-Schnittstelle als Rechenknecht mitnutzen. Ein schönes Beispiel dafür bietet der Luxmark Benchmark hier http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/29726-sapphire-radeon-r7-250-ultimate-im-test.html?start=7
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.