Forum: PC Hard- und Software Wie "brauchbar" ist die On-Chip-Grafik der Haswell CPUs


von Christian (Gast)


Lesenswert?

Hallo Leute,
hat vielleicht jemand einen PC mit Haswell-CPU ohne Grafikkarte am 
laufen. Mich würde interessieren, ob die On-Chip-Grafik wirklich 
brauchbar ist. Anwendungen wären Word, große Excel Tabellen und 
erstellen von Plakaten und Flyern mit CorelDraw (Corel X5). Keine 
Spiele. Daß es funktioniert kann ich mir natürlich denken, aber kann man 
damit wirklich vernünftig arbeiten oder sollte man doch besser eine 
Grafikkarte einbauen? Ziel ist geringer Stromverbrauch und vor allem 
Geräuscharmut (nicht noch ein kleiner, giftiger Lüfter auf der 
Grafikkarte).

Gruß Christian.

von Dr. Sommer (Gast)


Lesenswert?

Soll das ein Witz sein? Ob du eine "richtige" Grafikkarte für Word & 
Excel brauchst?! Was bietet eine solche denn - richtig, 
Streamingprozessoren für Shader und 3D-Rechnung. Benutzt Word & Excel 
davon irgendwas? Nein. Daher hat die Grafikkarte da 0 Einfluss drauf. 
Habe einen Haswell i3 und da laufen sogar ein paar Spiele drauf. Viel 
sinnvoller wäre die Investition in eine SSD und einen großen Monitor...

von (prx) A. K. (prx)


Lesenswert?

Christian schrieb:
> Mich würde interessieren, ob die On-Chip-Grafik wirklich
> brauchbar ist. Anwendungen wären Word, große Excel Tabellen und
> erstellen von Plakaten und Flyern mit CorelDraw (Corel X5). Keine
> Spiele.

Völlig ausreichend. Mit separater Grafik gewinnst du dafür nichts.

von Max H. (hartl192)


Lesenswert?

Ich habe ein Notebook mit i7-3630QM (integrierte Grafik) und Nvidia 
740M. Die Nvidia schalte ich nur für aufwändige Spiele ein, den Rest 
lasse ich von der in der CPU integrierten erledigen.

: Bearbeitet durch User
von Frank K. (fchk)


Lesenswert?

Christian schrieb:
> Hallo Leute,
> hat vielleicht jemand einen PC mit Haswell-CPU ohne Grafikkarte am
> laufen. Mich würde interessieren, ob die On-Chip-Grafik wirklich
> brauchbar ist. Anwendungen wären Word, große Excel Tabellen und
> erstellen von Plakaten und Flyern mit CorelDraw (Corel X5). Keine
> Spiele. Daß es funktioniert kann ich mir natürlich denken, aber kann man
> damit wirklich vernünftig arbeiten oder sollte man doch besser eine
> Grafikkarte einbauen? Ziel ist geringer Stromverbrauch und vor allem
> Geräuscharmut (nicht noch ein kleiner, giftiger Lüfter auf der
> Grafikkarte).

Kein Problem. Für 2D ist das immer schnell genug. Und das gilt für eine 
HD3000 in einer Sandy Bridge CPU und erst recht für eine HD4000 oder 
HD5000.

fchk

von Christian (Gast)


Lesenswert?

Dr. Sommer schrieb:
> Soll das ein Witz sein? Ob du eine "richtige" Grafikkarte für Word &
> Excel brauchst?! Was bietet eine solche denn - richtig,
> Streamingprozessoren für Shader und 3D-Rechnung.

Ich habe halt keine große Ahnung davon, aber Grafikkarten auf dem 
Mainboard gibt es ja schon ewig und trotzdem ist in jedem PC eine extra 
Grafikkarte drin. Da denkt sich der durchschnittlich Begabte halt, daß 
man mit den On-Board-Lösungen nicht viel anfangen kann. Jetzt ist die 
Grafik noch in der CPU drin. Ich kann nicht einschätzen, ob das was 
taugt, deshalb frage ich.

von Dr. Sommer (Gast)


Lesenswert?

Christian schrieb:
> Ich habe halt keine große Ahnung davon, aber Grafikkarten auf dem
> Mainboard gibt es ja schon ewig
Und sie waren schon ewig 100% geeignet für Word&Excel, erst recht die 
dicken neuen HD4000...
> und trotzdem ist in jedem PC eine extra
> Grafikkarte drin.
Stimmt doch überhaupt nicht, nur in den "Gamer-PC's". In den ganzen 
normalen Office-Rechnern ist typischerweise nur sowas ala Intel GMA 
drin...
> Da denkt sich der durchschnittlich Begabte halt, daß
> man mit den On-Board-Lösungen nicht viel anfangen kann. Jetzt ist die
> Grafik noch in der CPU drin. Ich kann nicht einschätzen, ob das was
> taugt, deshalb frage ich.
Das taugt sehr gut, die HD4000 kann auch HD-Filme und 3D-Spiele. Das 
ganze Office-Zeug nutzt deren Fähigkeiten überhaupt gar nicht.

von Max H. (hartl192)


Lesenswert?

Und sollte der integrierte Grafikchip irgendwann nicht ausreichen kannst 
du immer noch einen GraKa nachrüsten.

von René K. (cyprius)


Lesenswert?

In meinem Entwicklungsrechner ist so eine CPU-Grafik im Einsatz. 
Funktioniert wunderbar mit voller Treiberunterstützung im aktuellen 
Linux-Kernel, auch mit mehreren Bildschirmen.

von Christian (Gast)


Lesenswert?

Max H. schrieb:
> Und sollte der integrierte Grafikchip irgendwann nicht ausreichen kannst
> du immer noch einen GraKa nachrüsten.

Das stimmt natürlich ;-)

@Alle: Vielen Dank für die schnellen Antworten/Einschätzungen. Hat mir 
wirklich weiter geholfen.

Gruß Christian

von Paul M. (paul_m65)


Lesenswert?

Christian schrieb:
> Anwendungen wären Word, große Excel Tabellen und
> erstellen von Plakaten und Flyern mit CorelDraw (Corel X5).

Dafür willst du eine extra Grafikkarte? Oh mann. Der 
Computeranalphabetismus in diesem Forum ist erschreckend.

von Matthias S. (Firma: matzetronics) (mschoeldgen)


Lesenswert?

Paul M. schrieb:
> Christian schrieb:
>> Anwendungen wären Word, große Excel Tabellen und
>> erstellen von Plakaten und Flyern mit CorelDraw (Corel X5).
>
> Dafür willst du eine extra Grafikkarte? Oh mann. Der
> Computeranalphabetismus in diesem Forum ist erschreckend.

Hättest du das Ausgangsposting gelesen, war eben genau die Frage, ob 
man dafür eine extra GK braucht, oder ob die Onboard Grafik der Haswell 
CPU ausreicht. Wer ist also hier der Analphabet?
Und qualifizierte Meinungen über die Haswell Grafik konnte hier bis auf 
Frank und René niemand bieten, aber jede Menge Sprüche.

von deathfun (Gast)


Lesenswert?

Hallo,

ich habe ein MS Surface Pro 2 (i5-4200U HD4400, 2GB RAM) und habe aus 
spaß einmal das Battlefield 4 eines Kollegen Installiert. Es lief im 
Einzelspieler bei 720p und verringerten Details spielbar. HD Material 
ist auch kein Problem.

Bedenkt man nun das dies ein Aktuelles PC Spiel ist und du fragt ob die 
eingebaute GPU für den Alltag reich so kann ich dies nur bestätigen. 
Bisher ist das Surface noch mit allem fertig geworden.





Gruß
deathfun

PS: Die Leistung einer "normalen" HD4400 in den Prozessoren außerhalb 
eines Surface noch einmal etwas höher da MS bei den Surface Pro Modellen 
einen speziellen Treiber für die Grafikeinheit zur Verfügung stellt - 
vermutlich zur Akkuschonung - der nicht mit den Aktuellen Intel Treibern 
verglichen werden kann (Intel Treiber = höhere Leistung).

von herbert (Gast)


Lesenswert?

Es handelt sich ja oft nicht mehr um eine "Onboard-Grafik"sondern um 
eine "CPU-Grafik" welche man in der Leistungsfähigkeit nicht mit einer 
Onboard Lösung von früher vergleichen kann. Mit einigen CPU Grafik 
Lösungen kann man auch zocken...wenn sicher nicht alles...

von Dirk J. (dirk-cebu)


Lesenswert?

Paul M. schrieb:
 > Dafür willst du eine extra Grafikkarte? Oh mann. Der
> Computeranalphabetismus in diesem Forum ist erschreckend.
Darum fragt er ja in diesem Forum. Im Fachgeschäft würden sie ihm 'ne 3D 
Karte für sein Word verkaufen ;)

von Borsty B. (mantabernd)


Lesenswert?

Kann mich den Vorrednern nur anschließen, die aktuellen Intel HD Onboard 
Grafikkarten sind wirklich spitze! Die meisten Mainboards haben sogar 
die Möglichkeit über DisplayPort ein zweites Display zu treiben. Wir 
setzen das in der Arbeit mit 2x24" (1920x1200) Displays ein, bisher 
keine Probleme. Ausreichend Ram sollte man halt haben.

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Borsty Bürste schrieb:
> Die meisten Mainboards haben sogar
> die Möglichkeit über DisplayPort ein zweites Display zu treiben.

Bereits die Vorgängerversion der Haswells, "ivy bridge" (i3/i5/i7-3xxx) 
ist prinzipiell in der Lage, drei Displays anzusteuern, je nach 
Ausführung des Motherboards auch in Form dreier digital angesteuerter 
Displays.
Die Graphik der Haswells (i3/i5/i7-4xxx) kann via Displayport auch 
"4k"-Displays mit 60 Hz Bildwiederholfrequenz ansteuern, sofern das 
Motherboard mitspielt.

von Christian (Gast)


Lesenswert?

Hallo Leute,
ich habe inzwischen "gekauft". Core-I5 4570, das günstigste 
MSI-Mainboard bei ARLT und 8GB Speicher. Fazit: Kein Vergleich zum 
vorherigen Rechner (Athlon X2 6000+ mit ATI Radeon HD4600). Die 
On-Chip-Grafik auf dem Haswell schlägt die alte ATI Radeon (die 
allerdings natürlich auch keine Gamer-Karte war) in jedem Belang um 
Längen! Ausserdem flüsterleise und wesentlich weniger Stromverbrauch. 
Alles in Allem eine lohnende Aktion für gerade mal 300 und ein paar 
Euro.

Gruß Christian

von prg (Gast)


Lesenswert?

Christian (Gast) schrieb:

> .. Core-I5 4570, das günstigste
> MSI-Mainboard bei ARLT und 8GB Speicher. Fazit: Kein Vergleich zum
> vorherigen Rechner (Athlon X2 6000+ mit ATI Radeon HD4600). Die
> On-Chip-Grafik auf dem Haswell schlägt die alte ATI Radeon

Deine Radeon HD4600 ist auch von 2008 und damit überholt. Modernere APUs 
von AMD leisten deutlich mehr und brauchen sich vor der Haswell APU 
nicht fürchten, siehe

http://www.computerbase.de/2013-06/intel-haswell-grafik-fuer-desktop-pcs-test/6/

" Im Resultat fällt das Endergebnis bei unseren Spieletests enttäuschend 
aus: Der schnellste Desktop-Prozessor, der Intel Core i7-4770K, muss 
sich dem AMD 10-5800K um 25 Prozent geschlagen geben, was nicht gerade 
einer knappen Niederlage entspricht. Aus zwei Gründen wird das Dilemma 
gar noch größer. Der Intel-Prozessor ist a) rund 200 Euro teurer als das 
AMD-Pendant und b) wird AMD in Kürze die „Richland“-Generation für das 
Desktop-Segment vorstellen – und damit den bereits vorhandenen Vorsprung 
weiter ausbauen. "

sowie

http://www.pcgameshardware.de/Trinity-Codename-255654/Tests/AMD-A10-5800K-und-A8-5500-Trinity-im-Test-1024192/

von Schreiber (Gast)


Lesenswert?

prg schrieb:
> Modernere APUs
> von AMD leisten deutlich mehr und brauchen sich vor der Haswell APU
> nicht fürchten, siehe

Das stimmt nur für den Grafikteil. Bei CPU-lastigen Anwendungen sehen 
die Teile von AMD ganz alt aus.

Auch die Versuche von AMD mit 8 Kernen und exorbitanter Taktfrequenz die 
Leistung ihrer CPUs zu steigern, sind nur hinsichtlich der Wärmeleistung 
als erfolgreich zu betrachten. Hinsichtlich der Rechenleistung sind sie 
den Intel-CPUs hoffnungslos unterlegen.

von prg (Gast)


Lesenswert?

> Bei CPU-lastigen Anwendungen sehen
> die Teile von AMD ganz alt aus.

Nur wenn man ungleiches miteinander vergleicht. Einen Prozessor der das 
x-fache kostet gegen eine preiswerte AMD-CPU antreten und gewinnen zu 
lassen ist reichlich unfair. Vergleiche mal einen Intel core i3 der 100 
Euro kostet mit einer AMD-CPU die 100 Euro kostet! Da musst du schon 
genau hinschauen, wer da jeweils besser abschneidet.

Der kleinste Intel 4-Kern Prozessor kostet 150 Euro am Markt. Vergleich 
den mit einer Kaveri APU. Da gewinnt mal der eine und mal der andere ja 
nach Disziplin.

von Daniel H. (Firma: keine) (commander)


Lesenswert?

Schreiber schrieb:
> Das stimmt nur für den Grafikteil. Bei CPU-lastigen Anwendungen sehen
> die Teile von AMD ganz alt aus.

Allerdings. Wollte vor Kurzem meinen Rechner upgraden, da er 
mittlerweile vier Jahre alt ist und ich bisher immer im Zyklus von ~3 
Jahren die Komponenten getauscht habe. Nachdem ich dann aber die 
Leistungsdaten aktueller AMD-CPUs (bis 100W TDP) mit denen meiner CPU 
(AMD Phenom II X4 955) verglichen habe kam ich zu dem Schluss, dass ein 
Upgrade auf eine AMD-CPU schon fast ein Rückschritt wäre.

Bei Intel sah es hingegen komplett anders aus, dort bekommt man, je nach 
CPU, schon bei bis zu 65W TDP fast die doppelte Rechenleistung 
(natürlich auch abhängig vom Benchmark), dafür zahlt man aber auch bis 
zu 250% mehr als bei AMD.

Am Ende habe ich mir dann doch nur mehr RAM und eine neue Grafikkarte 
gegönnt, der Rest ist, verglichen mit aktuellen Komponenten, quasi 
up-to-date.

Viele Grüße
Daniel

von Axel S. (a-za-z0-9)


Lesenswert?

prg schrieb:
>> Bei CPU-lastigen Anwendungen sehen
>> die Teile von AMD ganz alt aus.
>
> Nur wenn man ungleiches miteinander vergleicht. Einen Prozessor der das
> x-fache kostet gegen eine preiswerte AMD-CPU antreten und gewinnen zu
> lassen ist reichlich unfair. Vergleiche mal einen Intel core i3 der 100
> Euro kostet mit einer AMD-CPU die 100 Euro kostet! Da musst du schon
> genau hinschauen, wer da jeweils besser abschneidet.

Wenn man zusätzlich zur Rechenleistung noch den Stromverbrauch 
betrachtet, fällt AMD (leider) wieder ab. Weit.

An sich bin ich ja ein Fan von AMD. Oder anders ausgedrückt: mir stinkt 
die Arroganz von Intel. Und AMD hatte mit dem Opteron und den davon 
abgeleiteten CPUs bis hin zu ca. Phenom x4 auch sehr ordentliche CPUs.

Mein neuer PC ist trotzdem ein i7 geworden. Aus vielen Gründen:

1. potentiell höhere Rechenleistung
2. deutliche niedrigere Leistungsaufnahme, sowohl idle als auch unter 
Last
3. exzellente Linux-Unterstützung der Grafik

Daß CPU und Board jeweils etwas teurer sind - wen juckts. Das gleicht 
die Stromrechnung innerhalb von maximal 2 Jahren locker wieder aus. Ein 
Upgrade der Hardware steht jedenfalls auf Jahre nicht mehr an. Der 
Vorgänger des i7 ist am Ende 6½ Jahre alt geworden (ein Athlon64 X2 
5000+, Hardware bestellt am 24.07.2007). Ich gehe davon aus, daß der i7 
wenigstens genauso lange hält. Die Anschaffungskosten sind auf so lange 
Zeit ziemlich irrelevant.


XL

von MCUA (Gast)


Lesenswert?

Von AMD gibt es Kaveri, mit guter CPU- und sehr guter Grafik-Leistung, 
und mit HSA.
AMD-AM1-CPUs kosten inclus. Board gerade mal ca 50eu(!),
und dürften für einfache Büro-Anwendungen allemal reichen.

von Daniel H. (Firma: keine) (commander)


Lesenswert?

Hallo,

der Unterschied offenbart sich, wenn man die Leistungsaufnahme 
vergleicht.

Moderne stromsparende Intel-CPUs wie z.B. ein i5-4570S stecken bzgl. 
Performance in fast allen Belangen ihre AMD-Brüder mit vergleichbarer 
Leistungsaufnahme in die Tasche.

Und das sage ich nicht, weil ich ein Intel-Jubelperser bin, ich hatte 
bisher genau einmal eine Intel-CPU, und das war vor knapp 18 Jahren ein 
Intel Pentium in meinem ersten (Fertig-)PC.

Ich habe vor ein paar Wochen (eben wegen geplantem und verworfenem 
Upgrade) mal für mich ein Ranking erstellt, und das Ergebnis war, dass 
sich mit meiner jetzigen AMD-CPU ein Upgrade auf eine aktuelle AMD-CPU 
mit geringerer TDP leistungsmäßig nicht lohnt (Leistungszuwachs 
gemittelt zwischen -10 und +15 Prozent). Die integrierte GPU ist bei AMD 
zwar ein interessantes Schmankerl, für mich aber wegen der Nutzung einer 
dedizierten Grafikkarte irrelevant.

Leider sieht es im Grafikkartenmarkt ähnlich aus, dort hat bzgl. 
Stromaufnahme/Leistung NVidia die Nase vorne.

Viele Grüße
Daniel

von (prx) A. K. (prx)


Lesenswert?

Daniel H. schrieb:
> Leider sieht es im Grafikkartenmarkt ähnlich aus, dort hat bzgl.
> Stromaufnahme/Leistung NVidia die Nase vorne.

War NVidia nicht der Laden, der vor wenigen Wochen das neueste 
Spitzenprodukt kurz vor der Vorstellung wieder zurückzog, weil es 
langsamer war als das AMD Spitzenprodukt? ;-)

von Daniel H. (Firma: keine) (commander)


Lesenswert?

Hallo,

ich meinte nicht die absolute Performance sondern die Performance in 
Relation zur Leistungsaufnahme.

Im Bereich bis 100W TDP hat hier NVidia als Spitzenmodell die GeForce 
750 Ti mit 60W TDP, AMD die R7 250X mit 80W TDP.

Leistungsmäßig steht die GF 750 Ti aber besser da als die R7 250X.

http://gpuboss.com/gpus/Radeon-R7-250X-vs-GeForce-GTX-750-Ti

Wie gesagt, ich bin kein Jubelperser, ich habe nur den Anspruch, dass 
ich die beste Performance bei möglichst geringem Stromverbrauch haben 
möchte. Und diesbezüglich steht AMD momentan nicht wirklich gut da, was 
ich sehr schade finde.

Viele Grüße
Daniel

Edit sagt: Mir ist klar, dass Leistungsvergleiche wie die verlinkten mit 
Vorsicht zu genießen sind, man sollte also idealerweise immer 
verschiedene Quallen anzapfen.

: Bearbeitet durch User
von Icke ®. (49636b65)


Lesenswert?

Daniel H. schrieb:
> man sollte also idealerweise immer verschiedene Quallen anzapfen

Na iihh, das Glibberzeugs...

von prg (Gast)


Lesenswert?

Daniel H. (Firma: keine) (commander) schrieb:

> Leistungsmäßig steht die GF 750 Ti aber besser da als die R7 250X.

> http://gpuboss.com/gpus/Radeon-R7-250X-vs-GeForce-GTX-750-Ti

> Wie gesagt, ich bin kein Jubelperser, ich habe nur den Anspruch, dass
> ich die beste Performance bei möglichst geringem Stromverbrauch haben
> möchte. Und diesbezüglich steht AMD momentan nicht wirklich gut da, was
> ich sehr schade finde.

> Viele Grüße
> Daniel

> Edit sagt: Mir ist klar, dass Leistungsvergleiche wie die verlinkten mit
> Vorsicht zu genießen sind, man sollte also idealerweise immer
> verschiedene Quallen anzapfen.

Nicht böse sein, aber das ist auch so ein Äpfel mit Birnen Vergleich.

GeForce GTX 750 Ti um 130 Euro (z.B. Reichelt)
Radeon R7 250X um 80 Euro (z.B. Mindfactory oder 70 Euro Alternate)
Vergleiche ich leistungsmäßig, dann rücken für 130 Euro bereits 256 Bit 
Graka der Modellreihe R7 265 oder  HD 7850 von AMD ins Visier und die 
Bilanz schaut schon wieder ganz anders aus.

von Andreas D. (rackandboneman)


Lesenswert?

Moderne MS-Software benutzt wohl die 3D-Funktionen auch für die ein oder 
andere 2D-Geschichte... aber bestimmt nicht so intensiv dass eine 
CPU-integrierte GPU die mit Mittelklasse-Spielen klarkommt überlastet 
würde.

Alte Onboard-Grafikchips bzw deren Treiber hatten oft Probleme 
exotische/nicht-4:3 Monitorauflösungen anzusteuern, und bei den 
damaligen RAM-Technologien verbrauchte man einen nicht geringen Teil 
seiner Arbeitsspeicherbandbreite für Framebuffer-Zugriffe wenn man 
grosse Monitore (sagen wir mal 22" 1600x1200@90Hz) mit Shared-Memory 
ordentlich ansteuern wollte. Daher hat man damals Office-PCs gerne mit 
Mainstream-Gamer-Grafikkarten ausgestattet einfach weil diese das beste 
Preisleistungsverhältnis boten und die Energieffizienz noch niemanden 
interessierte. Diese Tradition hat sich hier und da gehalten...

von herbert (Gast)


Lesenswert?

prg schrieb:
> GeForce GTX 750 Ti um 130 Euro (z.B. Reichelt)
> Radeon R7 250X um 80 Euro (z.B. Mindfactory oder 70 Euro Alternate)

Reichelt lasse ich mir noch eingehen...bei den anderen Anbietern gibt es 
auch mal schwangerne Jungfrauen.Obwohl bei Reichelt habe ich bis dto nur 
Bauteile bestellt...schon mal eingelötet war noch keines.;-)

von Daniel H. (Firma: keine) (commander)


Lesenswert?

prg schrieb:
> Nicht böse sein, aber das ist auch so ein Äpfel mit Birnen Vergleich.

Ich habe rein die TDP verglichen und dazu angemerkt, dass die GeForce 
einfach die bessere Performance bezogen auf die Energieeffizienz bringt.

Mit geht es wie gesagt rein darum ein energieeffizientes System mit 
hoher Performance zu haben, der Preis ist sekundär.

Wenn ich die GF 750 Ti mit einer Radeon R7 265 oder 7850 vergleiche dann 
fällt nunmal auf, dass diese eine deutlich höhere TDP haben, nämlich 130 
bis 150 Watt, während die 750 Ti bei etwa 60 Watt liegt, d.h. die 
Radeons genehmigen sich mal eben 215 bis 250 Prozent mehr bei etwa 
gleicher Performance.

Viele Grüße
Daniel

von prg (Gast)


Lesenswert?

Daniel H. (Firma: keine) (commander) schrieb:

> Moderne stromsparende Intel-CPUs wie z.B. ein i5-4570S stecken bzgl.
> Performance in fast allen Belangen ihre AMD-Brüder mit vergleichbarer
> Leistungsaufnahme in die Tasche.

Nicht wenn man den Vergleich über den Kaufpreis zieht. Was bekomme ich 
bei Intel für 150 Euro? Ein unteres Modell der Baureihe Core i5. Für das 
Geld reicht es bei AMD z.B. für ein Gespann aus leistungsfähiger CPU + 
externe R7 Graka, die über OpenCL zusätzliche CPU-Leistung parallel 
liefert oder für eine stromsparende integrierte Kaveri CPU, mit einer 
sehr leistungsfähigen GPU, an die die Intel Haswell-Grafik nicht 
heranreicht.

> Ich habe vor ein paar Wochen (eben wegen geplantem und verworfenem
> Upgrade) mal für mich ein Ranking erstellt, und das Ergebnis war, dass
> sich mit meiner jetzigen AMD-CPU ein Upgrade auf eine aktuelle AMD-CPU
> mit geringerer TDP leistungsmäßig nicht lohnt (Leistungszuwachs
> gemittelt zwischen -10 und +15 Prozent). Die integrierte GPU ist bei AMD
> zwar ein interessantes Schmankerl, für mich aber wegen der Nutzung einer
> dedizierten Grafikkarte irrelevant.

OnBoard GPU und externe Graka können sich leistungsmäßig auch ergänzen.

> Leider sieht es im Grafikkartenmarkt ähnlich aus, dort hat bzgl.
> Stromaufnahme/Leistung NVidia die Nase vorne.

Wenn man sein Augenmerk nur auf die Stromaufnahme richtet, sollte man 
sich vor allem den Idle Prozess genau betrachten und nicht die max. 
Stromaufnahme und schon gar nicht die nominellen geschönten Werte vom 
Marketing, sondern selber messen. Es nützt auch nichts, wenn man zwar 
Strom spart, aber das gesparte Geld dafür dem CPU-Hersteller in den 
Rachen schmeißen darf. Und irgendwelche Überschlagsrechnungen mit 
permanenter Volllast sind sowieso für den Ar...

Ich stehe vor einer ganz ähnlichen Entscheidung wie du, Daniel. Auch ich 
habe schon nach einem core I3 oder I5 geschielt, um meinen 2-Kerner zu 
ersetzen. Aber meine alte Vorgehensweise sich einen (eher knappen) 
Betrag X zu nehmen und zu schauen, was man dafür an Leistung geboten 
bekommt (CPU + Board) will mir einfach die Intel core-Reihe nicht 
schmackhaft erscheinen lassen, je genauer ich hinschaue. Da ich kein 
"Ökofuzzi" bin und noch ein paar Glühlampen betreibe (einen alten 
Kühlschrank ebenfalls)ist mir die Stromaufnahme eher sekundär wichtig. 
Ich würde mir auch nie eine "Green Line" Festplatte zulegen, die alle 
paar Augenblicke sich abschaltet, dafür aber nach 24 Monaten kaputt ist. 
Ich schalte auch meine Daylight ESLs nicht zigmal am Tag aus und ein. 
Dafür hält das Zeug bei mir auch länger.

von prg (Gast)


Lesenswert?

Daniel H. (Firma: keine) (commander) schrieb:

prg schrieb:
>> Nicht böse sein, aber das ist auch so ein Äpfel mit Birnen Vergleich.

> Ich habe rein die TDP verglichen und dazu angemerkt, dass die GeForce
> einfach die bessere Performance bezogen auf die Energieeffizienz bringt.

> Mit geht es wie gesagt rein darum ein energieeffizientes System mit
> hoher Performance zu haben, der Preis ist sekundär.

Das ist für mich aber ein Widerspruch in sich. Wozu ist es gut Strom zu 
sparen, außer damit auch Kosten zu sparen? Was man auf der einen Seite 
spart, haut man auf der anderen Seite für teure Anschaffungskosten 
wieder raus. Das mag die Öko-Heinis befriedigen (oder das Marketing des 
Anbieters) aber mich nicht.

> Wenn ich die GF 750 Ti mit einer Radeon R7 265 oder 7850 vergleiche dann
> fällt nunmal auf, dass diese eine deutlich höhere TDP haben, nämlich 130
> bis 150 Watt, während die 750 Ti bei etwa 60 Watt liegt, d.h. die
> Radeons genehmigen sich mal eben 215 bis 250 Prozent mehr bei etwa
> gleicher Performance.

Nur das die Performance eben nicht gleich ist und die Wattwerte auch nur 
Volllastwerte sind. Die meiste Zeit sind die Karten im idle oder 
verbrauchen nur einen Teil der Leistung, aber nicht 100 Prozent.

von Daniel H. (Firma: keine) (commander)


Lesenswert?

prg schrieb:
> Das ist für mich aber ein Widerspruch in sich. Wozu ist es gut Strom zu
> sparen, außer damit auch Kosten zu sparen? Was man auf der einen Seite
> spart, haut man auf der anderen Seite für teure Anschaffungskosten
> wieder raus. Das mag die Öko-Heinis befriedigen (oder das Marketing des
> Anbieters) aber mich nicht.

Richtig, und genau deswegen habe ich am Ende auch nur etwas mehr RAM 
(nun 4 statt 8 GB) und eine neue Grafikkarte (GeForce 750 Ti statt 
GeForce GTX 260) verbaut.

Bei der CPU & Mainboard sehe ich keinen Handelsbedarf, da die CPU 
leistungsmäßig noch ausreichend ist und (rein auf dem Papier -> 
Benchmarks) mit den meisten aktuellen AMD-CPUs weiter mithalten kann, 
während Intel-CPUs zwar viel mehr Leistung bieten, die ich aber (noch) 
nicht benötige, so dass es mir den Aufpreis nur für die niedrigere TDP 
nicht wert ist.

von Schreiber (Gast)


Lesenswert?

prg schrieb:
> Da ich kein
> "Ökofuzzi" bin ... ist mir die Stromaufnahme eher sekundär wichtig.

Das kann man auch anderst sehen: Man kauft den PC, welcher die an ihn 
gestellten Anforderungen bei minimalen TCOS (=total cost of ownership) 
erfüllt.

Hier kann es durchaus lohnen heute etwas mehr Geld auszugeben, um dann 
bei der Stromrechnung viel mehr einzusparen. Die etwas teureren Intel 
CPUs können sich daher schon lohnen, insbesondere in Deutschland, wo der 
Strom leider extrem teuer ist...

Bei 2000 Betriebsstunden im Jahr (für einen Büro-PC ist das realistisch) 
kostet jedes Watt Durchschnittsleistung 0,5€ im Jahr.
Bei einer Nutzungsdauer von 4 Jahren kommt man somit auf Stromkosten von 
2€/W
Wer im Sommer eine Klimaanlage einsetzen muss, der darf sich auf noch 
höhere Kosten freuen, wer pingelig ist, darf die (meist minimale) 
Ersparniss bei den Heizkosten gegenrechnen.

von Icke ®. (49636b65)


Lesenswert?

prg schrieb:
> Was bekomme ich
> bei Intel für 150 Euro? Ein unteres Modell der Baureihe Core i5. Für das
> Geld reicht es bei AMD z.B. für ein Gespann aus leistungsfähiger CPU +
> externe R7 Graka

Verlinke uns doch bitte deine diesbezügliche Zusammmenstellung, also die 
exakten Modelle von CPU und Grafikkarte, auf die du sich beziehst.

von Daniel H. (Firma: keine) (commander)


Lesenswert?

Hallo,

ich halte die Kalkulation auch für etwas gewagt.

Intel i5-4430 = 160€
NVidia GF GTX 750 Ti = 140€

AMD FX-8350 = 160€
AMD Radeon R7 265 = 140€

Zugegeben, der FX-8350 ist sicherlich eines der Spitzenmodelle von AMD, 
leistungsmäßig liegt er aber gemittelt (mit Abweichungen bei bestimmten 
Schwerpunkten wie Single-threaded, Multi-threaded usw.) fast gleichauf 
mit dem i5-4430.

http://www.cpu-world.com/Compare/365/AMD_FX-Series_FX-8350_vs_Intel_Core_i5_i5-4430.html

Viele Grüße
Daniel

Edit sagt: Nicht zu vergessen, der FX-8350 ist zudem auch noch ein 
Achtkerner, so dass es nicht verwundert, dass er bei multi-threaded 
leistungsfähiger ist.

: Bearbeitet durch User
von Interessierter (Gast)


Lesenswert?

Daniel H. schrieb:
> Zugegeben, der FX-8350 ist sicherlich eines der Spitzenmodelle von AMD,
> leistungsmäßig
Ist es zumindest hinsichtlich der Wärmeleistung allen Intel Prozessoren 
weit überlegen. Auch hinsichtlich des Sounds setzt der mitgelieferte 
Boxed-Kühler neue Maßstäbe...

120W TDP sind bei der Rechenleistung bemerkenswert viel, der 
Boxed-Kühler mit seinem 80mm Lüfter sorgt für echtes 
Düsenjägerfeeling...

Wem das nicht reicht: AMD verkauft auch Desktop-CPUs mit 220W TDP.

Bei der Rechenleistung sind allerdings die Intel-CPUs führend.

von prg (Gast)


Lesenswert?

Icke ®. (49636b65) schrieb:

prg schrieb:
>> Was bekomme ich
>> bei Intel für 150 Euro? Ein unteres Modell der Baureihe Core i5. Für das
>> Geld reicht es bei AMD z.B. für ein Gespann aus leistungsfähiger CPU +
>> externe R7 Graka

> Verlinke uns doch bitte deine diesbezügliche Zusammmenstellung, also die
> exakten Modelle von CPU und Grafikkarte, auf die du sich beziehst.

Das ganze Thema ist nicht so einfach. Ich zermartere mir schon die ganze 
Zeit den Verstand darüber, wie es sich nun verhält mit der 
Rechenleistung, die man für ein eher begrenztes Euronenbudget erreichen 
kann, unter Umgehung des weit verbreiteten "Intel-Mainstream", der in 
den meisten Köpfen sich fest eingepfanzt hat.

Da viele Tests den Intel Core-i CPUs des öfteren eine leistungsstarke 
Nvidia GTX Graka beigesteuert haben, sind die Tests für mich nicht mehr 
aussagefähig in Vergleichstabellen, wo es um eine Gegenüberstellung der 
reinen CPU geht mit ihrer OnChip-Grafik geht. Also muss man sich 
diejenigen Tabellen raussuchen, wo das nicht das Fall ist, 
beispielsweise hier

http://www.gamestar.de/hardware/prozessoren/amd-a10-5800k/test/amd_a10_5800k,565,3005620,4.html

Für den AMD A10 5800K (aktuell rund 93 Euro bei Reichelt) ist der 
direkte Konkurrent der Core i3 3220 Intel HD 2500 für rund 97 Euro 
ebenfalls Reichelt). Der Unterschied liegt hauptsächlich in der 
Grafikeinheit, den beide CPUs mitbringen. Der Core i3 3220 kommt mit 
einer HD-2500-Grafik daher und der A10 5800K mit einer internen HD 7660D 
Grafikeinheit.

Dazu das Zitat aus der Gamestar

" Performance-Rating HD 7660D

Insgesamt kann AMD seinen Vorsprung in Sachen integrierter Grafik mit 
dem neuen A10 5800K auf Intel nochmals deutlich ausbauen. Im Vergleich 
zum rund 300 Euro teuren Core i7 3770K mit der dort eingebauten 
HD-4000-Grafik ist der A10 je nach Speicher zwischen 180 und 200 Prozent 
schneller. Gegenüber dem gleich teuren Core i3 3220 mit der langsameren 
HD-2500-Grafik wächst der Vorsprung auf gewaltige 250 bis 320 Prozent – 
3D-Spiele sind mit dem i3 3220 in halbwegs ansehnlichen Einstellungen 
unspielbar.

Zwar arbeitet immerhin der Intel-Treiber mittlerweile zufriedenstellend, 
aber in mehreren Spielen sind wir immer noch über Grafikfehler 
gestolpert. Die Grafikeinheit des A10 5800K wird vom normalen 
Radeon-Treiber angetrieben und funktioniert deshalb absolut zuverlässig. 
Unverständlich finden wir auch, warum Intel ausgerechnet seiner 
High-End-CPU die schnellere Grafik spendiert, wo doch in damit 
ausgerüsteten PCs praktisch immer eine ausgewachsene Grafikkarte stecken 
dürfte. So ist der Core i3 3220 ohne extra Grafikkarte nur für 
Schreibmaschinen und Surfstationen zu gebrauchen, der A10 5800K trotz 
des langsameren CPU-Teils aber auch für weniger anspruchsvolle Spieler 
eine echte Alternative, .."

Die reine CPU-Leistung liegt z.T. gleichauf und vereinzelt ist auch mal 
der core i3 flotter. Berücksichtigt man aber die Möglichkeit die 
deutlich stärkere Grafikeinheit des A10 5800K mit als GPU-Rechenknecht 
einzubinden (natürlich nur bei bestimmten Anwendungen), dann liegt für 
mich der AMD hier deutlich vorne.

Im Stromverbrauch sind die Core's natürlich immer erheblich sparsamer - 
zumindest bei Volllast. Wem das wichtiger ist, der wird sein Urteil 
womöglich anders fällen.

Das das Fazit des Artikelschreibers dennoch eher mies ausfällt wundert 
mich angesichts der gezogenen Vergleiche (mit dem älteren Phenom II X4) 
nicht und interessiert mich ehrlich gesagt auch relativ wenig, schon 
allein weils den Phenom so heute eh nicht mehr gibt.

Intel hat für mich bei den CPUs seine Domäne im Spitzensegment, aber 
nicht im unteren Preissegment. Ohne AMD würden wir noch immer die 
unverschämten Preise zahlen, die Intel damals für seine CPUs 
beanspruchte, als sie versuchten dem lästigen Konkurrent AMD das 
Lebenslicht auszupusten (das Gebaren der Firma Intel lässt sich in alten 
c't Ausgaben nachlesen). Für die Milliardengewinne die Intel einfährt 
sollen andere sorgen.

von Icke ®. (49636b65)


Lesenswert?

prg schrieb:
> Ohne AMD würden wir noch immer die
> unverschämten Preise zahlen, die Intel damals für seine CPUs
> beanspruchte

Das ist leider AMDs einziger Verdienst. Technologisch haben sie Intel 
wenig entgegenzusetzen und hätten sie nicht ATI aufgekauft, um im 
GPU-Segment mitzuspielen, wären sie längst weg vom Fenster.

Wie leistungsfähig CPU-Grafik daherkommt, spielt praktisch kaum eine 
Rolle, da sie im 2D-Bereich längst weit mehr als ausreichend ist und für 
anspruchsvolle 3D-Anwendungen immer noch viel zu wenig Power mitbringt. 
Entscheidend sind die nackte CPU-Leistung und die Leistungsaufnahme. 
Desweiteren ist die Kombination aus Intel-CPU und Intel-Chipset die 
stabilste Basis, die man bekommen kann, während AMD dort lange Zeit auf 
3rd-Party Hersteller setzte (ich sag nur Alptraum VIA). 
Bezeichnenderweise war es ausgerechnet der jetzige Konkurrent nVidia, 
der als erster einigermaßen brauchbare Chipsets für AMD-Boards 
produzierte.

von Reinhard S. (rezz)


Lesenswert?

Icke ®. schrieb:
> prg schrieb:
>> Ohne AMD würden wir noch immer die
>> unverschämten Preise zahlen, die Intel damals für seine CPUs
>> beanspruchte
>
> Das ist leider AMDs einziger Verdienst. Technologisch haben sie Intel
> wenig entgegenzusetzen und hätten sie nicht ATI aufgekauft, um im
> GPU-Segment mitzuspielen, wären sie längst weg vom Fenster.

Das war zu Pentium4-Zeiten ähnlich, bis dann ein Athlon kam, der 
plötzlich besser war als Intel.

> Wie leistungsfähig CPU-Grafik daherkommt, spielt praktisch kaum eine
> Rolle, da sie im 2D-Bereich längst weit mehr als ausreichend ist und für
> anspruchsvolle 3D-Anwendungen immer noch viel zu wenig Power mitbringt.

Nein, nur die Ansprüche sind gestiegen ;)

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Reinhard S. schrieb:
> Das war zu Pentium4-Zeiten ähnlich, bis dann ein Athlon kam, der
> plötzlich besser war als Intel.

Der K7/Athlon kam bereits mitten rein in die Phase des Pentium III und 
war besser. Beim P4 war es dann der K8/Athlon64/Opteron, der sich neben 
64 Bits auch durch direkte Speicheranbindung und moderneres Systemdesign 
abhob.

von Icke ®. (49636b65)


Lesenswert?

Reinhard S. schrieb:
> Nein, nur die Ansprüche sind gestiegen

Natürlich sind sie das und natürlich kann man 10 Jahre alte Games mit 
aktueller CPU-Grafik spielen. Aktuelle Spiele jedoch nicht bzw. nicht in 
guter Qualität. Deswegen baut sich jeder Gamer eine Grafikkarte ein.

> Das war zu Pentium4-Zeiten ähnlich, bis dann ein Athlon kam, der
> plötzlich besser war als Intel.

AMDs gute alte Zeiten, die mit dem Pentium-M/Intel Core zu Ende gingen.

von Oliver S. (oliverso)


Lesenswert?

prg schrieb:
> Ich zermartere mir schon die ganze
> Zeit den Verstand darüber, wie es sich nun verhält mit der
> Rechenleistung, die man für ein eher begrenztes Euronenbudget erreichen
> kann, unter Umgehung des weit verbreiteten "Intel-Mainstream", der in
> den meisten Köpfen sich fest eingepfanzt hat.

Naja, da hilft kein martern...

Es gibt nur genau zwei Hesteller. Keine gute Konstellation, ums sich 
durch den Kauf Nerd-mäßiger Exoten zu profilieren.

Leider hat AMD vor einiger Zeit gründlich den Anschluß verloren, und 
Intel kann die Preise wieder diktieren. Die guten alten Zeiten, in denen 
AMD außer im Low-cost-Bereich mithalten konnte, sind im Moment vorbei, 
und richtig besser waren die das erste und letzte Mal zu Zeiten des 
seligen 386/87. Schade eigentlich.

Überleg dir, was du wirklich benötigst, und kauf, was du willst. Einen 
i5 oder i7 brauchen tatsächlich die wenigsten, da drunter gibt's von 
beiden Hestellern brauchbares, aber Intel ist halt eine guten Schritt 
weiter vorne.

Oliver

: Bearbeitet durch User
von prg (Gast)


Lesenswert?

Icke ®. (49636b65) schrieb:

> Technologisch haben sie Intel
> wenig entgegenzusetzen

Das sehe ich anders bzw. stimmt so nicht. Im unteren Marktsegment hat 
Intel für mich AMD nichts entgegenzusetzen (siehe mein letztes Posting). 
Die Marktteilnehmer haben ihre Stärken auf unterschiedlichen Feldern.

> Wie leistungsfähig CPU-Grafik daherkommt, spielt praktisch kaum eine
> Rolle, da sie im 2D-Bereich längst weit mehr als ausreichend ist und für
> anspruchsvolle 3D-Anwendungen immer noch viel zu wenig Power mitbringt.

Stimmt auch so nicht. Du gehst davon aus, dass es nur den Power-Gamer 
gibt und den Exceltabellen Office-User. Es stimmt, für den Power-Gamer 
reicht die GPU-Leistung im AMD-Prozessor nicht aus. Der denkt nur in 
Frameraten (fps) und braucht gerne eine Graka mit Doppellüftern und 
eigenem Stromstecker. Es gibt aber auch noch was dazwischen, nämlich den 
Gelegenheitsspieler, der mehr als die luschige Grafikleistung der core 
i3 CPU haben möchte. Auch verwenden immer mehr normale Anwendungen 
3D-Grafik. Alles was heutzutage irgendwie mit CAD zu tun hat, nutzt 
OpenGL oder Direct-3D Schnittstellen und damit auch die interne 
3D-Engine. Die Zeiten des nur 2D Pixelschiebens sind längst vorbei. Wenn 
ich mein Diptrace nutze, kann ich entscheiden, ob im GDI, in OpenGL oder 
in Direct-3D gerendert wird. Je besser die entsprechende Schnittstelle 
in HW abgebildet ist, desto flotter ist der Verlauf.

Die Leistung der AMD-CPUs ist für den Officebereich und auch fürs 
Videoschauen vollkommen ausreichend. In Kombination mit einer 
leistungsstarken GPU, die es quasi noch obendrauf gibt, ist das ein 
deutlich runderes Paket, als ein core i3 mit einer eher schwächlichen 
internen Grafikleistung und da dieser Vorgang eben nicht permanent zu 
100 Prozent ausgelastet wird, wie beim Powergaming, spielt auch die 
Stromersparnis der Intel-Prozzis nicht so eine bedeutende Rolle wie das 
immer dargestellt wird.

von prg (Gast)


Lesenswert?

Oliver S. (oliverso) schrieb:

> Überleg dir, was du wirklich benötigst, und kauf, was du willst. Einen
> i5 oder i7 brauchen tatsächlich die wenigsten, da drunter gibt's von
> beiden Hestellern brauchbares, aber Intel ist halt eine guten Schritt
> weiter vorne.

Ich habe eigentlich bisher auch mit meinem alten 2-Kern Athlon (rund 3,3 
GHz) leistungsmäßig eigentlich nichts vermisst. Nur beim rendern von ein 
paar hübschen raytracing Bildchen könnte es wirklich schneller zugehen. 
Da kann die interne HD4200 Grafik leider nichts zum OpenCL beitragen. 
Eine externe 128-bit Graka oder eine stärkere interne Prozessorgrafik 
ist da im Augenmerk. In meinem anvisierten Preissegment hat Intel da 
aber nichts zu bieten. ;-)

von Schreiber (Gast)


Lesenswert?

prg schrieb:
> Nur beim rendern von ein
> paar hübschen raytracing Bildchen könnte es wirklich schneller zugehen.

Dann ist eine zusätzliche Grafikkarte die wirtschaftlichste Lösung.

von Reinhard S. (rezz)


Lesenswert?

Schreiber schrieb:
> prg schrieb:
>> Nur beim rendern von ein
>> paar hübschen raytracing Bildchen könnte es wirklich schneller zugehen.
>
> Dann ist eine zusätzliche Grafikkarte die wirtschaftlichste Lösung.

Ist rendern nicht eigentlich CPU-lastig? Oder ist das eine der Sachen, 
die man auf Grafikkarten auslagern kann?

von prg (Gast)


Lesenswert?

Reinhard S. (rezz) schrieb:

Schreiber schrieb:
> prg schrieb:
>>> Nur beim rendern von ein
>>> paar hübschen raytracing Bildchen könnte es wirklich schneller zugehen.
>
>> Dann ist eine zusätzliche Grafikkarte die wirtschaftlichste Lösung.

> Ist rendern nicht eigentlich CPU-lastig? Oder ist das eine der Sachen,
> die man auf Grafikkarten auslagern kann?

Es ist CPU-lastig, aber wenn die Software es unterstützt lässt sich die 
Grafikkarte über die OpenCL-Schnittstelle als Rechenknecht mitnutzen.

Ein schönes Beispiel dafür bietet der Luxmark Benchmark hier

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/29726-sapphire-radeon-r7-250-ultimate-im-test.html?start=7

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.