Forum: PC Hard- und Software Wann sind Intel E-Kerne sinnvoll?


von Stefan H. (Firma: dm2sh) (stefan_helmert)


Lesenswert?

Hallo,

Intel baut P- und E-Kerne in CPUs ein. Die P-Kerne erreichen eine höhere 
Rechenleistung (Power) als die sparsameren E-Kerne (Efficiency). Die 
E-Kerne haben jedoch kein Hyperthreading. Hyperthreading bringt in der 
Praxis meist 70% mehr Rechenleistung bei gleicher Leistungsaufnahme.

Würde man, anstatt E-Kerne zu benutzen, die P-Kerne niedriger takten, 
wären sie ebenfalls deutlich effizienter.

In welchen Konstellationen ist es überhaupt sinnvoll, E-Kerne zu 
benutzen?

Mit steigendem Bedarf an Rechenleistung werden zunächst die E-Kerne 
aktiv sein. Bei steigenden Anforderungen muss es einen Punkt geben, wo 
der P-Kern effizienter ist. Das könnte schon bei einem Takt unterhalb 
des Maximaltaktes des E-Kerns der Fall sein, weil die Effizienz an der 
Obergrenze stark abfällt.

Bei welcher Last gewinnen die E-Kerne?

von (prx) A. K. (prx)


Lesenswert?

Wenn man in heutigen Prozessoren alle Cores auf Vollgas fährt, und keine 
überdicke Wakü hat, ist sehr schnell Schicht im Schacht, muss gedrosselt 
werden.

Das Scheduling sollte deshalb idealerweise genau umgekehrt 
funktionieren, als von dir vermutet: Die hohe Leistung der P-Cores sorgt 
für kurze Antwortzeiten bei interaktiven Anwendungen. Etwa dem Rendering 
einer Webseite, auf das man wartet. Mithin sollte das sofort in die 
P-Cores. Danach ist auf dem PC nichts mehr los und die CPU kühlt ab.

Hat man jedoch eine länger auf Last laufende Anwendung, die alle E-Cores 
gut ausnutzen kann, und ein normal gekühltes oder gar mobiles System, 
stehen die E-Cores im Vordergrund. Die benötigen bei gleicher Aufgabe 
weniger Joule als die P-Cores. Sorgt die Anwendung für hohe thermische 
Last, kann es sinnvoll sein, ausschliesslich die E-Cores zu verwenden.

von Oliver S. (oliverso)


Lesenswert?

Sehr vermutlich ist das alles irgendwie ganz anders….

Nur mal so als Anhaltspunkt:
https://www.xmg.gg/news-tipps-und-tricks-rendering-e-cores/

Oliver

von (prx) A. K. (prx)


Lesenswert?

Da das erwähnte Scheduling von Core-Typ und Spannung/Frequenz die 
ehrenvolle Aufgabe hat, die Zukunft vorauszusagen, ist nicht 
gewährleistet, dass es das zufriedenstellend schafft. Und gerade bei 
verschiedenartigen Cores wird es lange Zeit benötigen, bis die 
Betriebssysteme solche Entscheidungen wirklich gut gebacken bekommen. 
Bis dahin kann das auch ziemlich in die Hose gehen und 
Betriebssystemupdates können deutliche Folgen haben.

Bei Smartphones (und Tablets vergleichbarer Technik) sind 
verschiedenartige Cores schon seit langer Zeit üblich. Bei heutigen 
Androids oft mit 3 verschiedenen Typen. Entsprechend hat man da deutlich 
mehr Erfahrung. Auf PCs ist das relativ neu.

: Bearbeitet durch User
von Ich A. (alopecosa)


Lesenswert?

Ist das nicht einfach die Überführung des bei ARM Systemen schon sehr 
lange praktizierten big.little Prinzips?

von (prx) A. K. (prx)


Lesenswert?

Ja. Intel entwickelte schon seit geraumer Zeit zwei völlig getrennte 
Linen. Einerseits die Mainstream-CPUs, die trotz aller Phantasie bei der 
Namensgebung intern gleichartig waren. Andererseits die Atoms. Und dann 
haben sie das einfach zusammengeführt. Die E-Cores sind technisch 
Atom-Cores.

: Bearbeitet durch User
von Ich A. (alopecosa)


Lesenswert?

(prx) A. K. schrieb:
> Ja. Intel entwickelte schon seit geraumer Zeit zwei völlig getrennte
> Linen. Einerseits die Mainstream-CPUs, die trotz aller Phantasie bei der
> Namensgebung intern gleichartig waren. Andererseits die Atoms. Und dann
> haben sie das einfach zusammengeführt. Die E-Cores sind technisch
> Atom-Cores.

Wer´s noch genauer wissen will.

Die "Efficiency" Kerne sind Gracemont:
https://en.wikipedia.org/wiki/Gracemont_(microarchitecture)

Die "Performance" Kerne sind Golden Cove (bzw. Raptor Cove)
https://en.wikipedia.org/wiki/Golden_Cove

Wie sinnvoll das ganze nun ist (zumindest in der aktuellen 
Ausgestaltung), da kann sich glaub jeder seine eigenen Gedanken drüber 
machen.

https://de.wikipedia.org/wiki/Liste_der_Intel-Core-i-Prozessoren#Desktop


Mich hat Intel jedenfall als Kunden verloren. Aber sie werden es wohl 
verschmerzen...

: Bearbeitet durch User
von DSGV-Violator (Gast)


Lesenswert?


von Justin S. (Gast)


Lesenswert?

Ich A. schrieb:
> Mich hat Intel jedenfall als Kunden verloren. Aber sie werden es wohl
> verschmerzen...

Momentan verschmerzen sie es nicht, denn sehr viele denken so wie Du und 
das hat Auswirkungen:

https://www.heise.de/news/Prozessoren-So-viel-Verlust-hat-Intel-noch-nie-gemacht-8981977.html

Intel hat es bis 2010 einfach zu sehr überzogen mit der 
Gewinnoptimierung (völlig überteuerte Ware mit jeweils immer nur 
minimalen Fortschritten, die gerade ausreichend waren, um den Rivalen 
AMD in Schach zu halten), dann plözlich das totale Versagen bei der 
weiteren Miniaturisierung der Chipfertigung. Und eine unglaubliche Menge 
an Fehlentscheidungen am Markt vorbei.

Die Big-Little-Entscheidung kam ja auch nur, weil Intel es auf andere 
Weise nicht schaffte, die Kernzahl weiter zu erhöhen (vor der 
Entscheidung musste Intel ja sogar von maximal 10 Kernen des i9-10900 
wieder zurück zu 8 des i9‑11950, um die Einzelleistung eines Kerns 
konkurrenzfähig zu bekommen.

Nun können sie werbewirksam 16 Kerne und 24 Threads schreiben, aber real 
sind es wieder nur 8 Power-Kerne und 8 E-Kerne.

Ein vernünftiges Scheduling ist ja schon bei nur gleichartigen Kernen 
nicht trivial, aber das Multithreading macht es bereits komplizierter.

Jetzt mit völlig anderen und leider leistungsschwachen E-Kernen ist 
Multithread-Programmierung, die keine Leistungseinbrüche verträgt, noch 
schwieriger geworden. In solchen Fällen ist eine AMD-Plattform einfach 
besser vorhersagbar auszulasten.

von Harald K. (kirnbichler)


Lesenswert?

Justin S. schrieb:
> Intel hat es bis 2010 einfach zu sehr überzogen

Das ist deutlich über zehn Jahre her, also Schnee von gestern.

von Udo K. (udok)


Lesenswert?

Stefan H. schrieb:
> Intel baut P- und E-Kerne in CPUs ein. Die P-Kerne erreichen eine höhere
> Rechenleistung (Power) als die sparsameren E-Kerne (Efficiency). Die
> E-Kerne haben jedoch kein Hyperthreading. Hyperthreading bringt in der
> Praxis meist 70% mehr Rechenleistung bei gleicher Leistungsaufnahme.

Du lässt dich da vom Marketing verwirren.
Der Sinn der E-Kerne ist nicht Energiesparen, sondern massiver 
Performance Gewinn bei parallelen Benchmarks wie Blender.

Die E-Kerne sind laut Intel nur 19% langsamer als die P Kerne. Beim 
Super-PI Benchmark sind E-Kerne 50% langsamer als P-Kerne
(https://www.techpowerup.com/review/intel-core-i9-12900k-e-cores-only-performance/2.html). 
Das dürfte ein worst-case sein, weil der Super-PI keine moderne FPU 
nutzt.

Ein E-Kern, braucht nur ca. 30% der Transistoren eines P-Kerns, und hat 
weniger L1/L2 Cache, und ist damit deutlich kleiner. Siehe hier:
https://www.techpowerup.com/review/intel-core-i7-13700k/2.html

Die E-Kerne können für alle Aufgaben verwendet werden, die in < 0.2 
Sekunden erledigt sind. 0.2 Sekunden werden gerade noch nicht als 
lästige Verzögerung wahrgenommen.  Drüber macht es Sinn, die P-Kerne 
anzuwerfen.

Das sind auf einem modernen Desktop alle Aufgaben, mit Ausnahme von 
AAA-Spielen, Simulationen, Zip-Kompression, Bild- und Video Bearbeitung.

Gruss,
Udo

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Intel hatte über etliche Jahre heftige Probleme mit der 
Fertigungstechnik. Genau in dieser Zeit kam AMD mit der Zen Architektur 
und kratzte damit nicht nur in Desktops, sondern auch im Bereich von 
Servern an Intels Monopol. Intel hat bis heute in einigen Bereichen 
Schwierigkeiten, dagegen zu halten.

Obendrein gibt es beim Cloud-Computing mittlerweile Konkurrenz durch 
günstigere ARM-Prozessoren. Ob Amazon seinen Kram auf x86 betreibt, oder 
auf ARM, ist vielen Anwendungen egal. In der letzten c't war die Anzeige 
eines Hosters, der kleine billige Root-Server auf ARM Basis anbietet.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Udo K. schrieb:
> Der Sinn der E-Kerne ist nicht Energiesparen, sondern massiver
> Performance Gewinn bei parallelen Benchmarks

Das hängt zusammen, da die Rechenleistung solcher Aufgaben von der 
dauerhaft verkraftbaren Wärmeentwicklung begrenzt wird. Energie zu 
sparen führt daher zu höherer Rechenleistung bei hoch parallelen 
Aufgaben. Die elektrische Arbeit (Joule) pro definierter Teilaufgabe 
dominiert.

: Bearbeitet durch User
von Udo K. (udok)


Lesenswert?

Das stimmt sicher auch.  Es ist aber auf dem Silizium-Die auch nicht 
genug Platz für mehr als 10 P-Kerne.  Aber 8 P-Kerne und 8-E-Kerne geht 
sich vom Platz her aus.  Damit erreicht Intel eine super Single-Thread 
Performance UND eine gute Multi-Thread Performance bei gleichbleibender 
Die-Fläche und Kosten.

AMD löst das mit mehreren Chiplets.  Ich traue mich aber zu wetten, das 
Chiplets in der Produktion schweineteuer sind.  Die Gewinnmargen werden 
entsprechend mager ausfallen.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Udo K. schrieb:
> AMD löst das mit mehreren Chiplets.  Ich traue mich aber zu wetten, das
> Chiplets in der Produktion schweineteuer sind.

Ich halte dagegen. Der frühe Intel Atom N330 für den Billigmarkt hatte 
zwei Dies auf dem Sockel. Einer pro Core.

Als AMD die Zen 2 konstruierte, taten sie dies für eine noch nicht 
existierende TSMC-Fertigung mit noch unbekannter Ausbeute. Bei relativ 
kleinen Dies hat man auch bei mässiger Fertigung Chancen, bei grossen 
indes nicht. Hätte AMD grosse Dies konstruiert, und TSMC hätte nicht 
liefern können - Ciao AMD.

Intels Serversparte hat in den grossen Xeons das ausgereizt, was die 
Fertigung flächenmässig hergab. Und damit gerechnet, dass das auch bei 
der 10er Fertigung (heute 7er genannt) so funktioniert. Tat es aber 
nicht, was AMDs EPYCs viel Raum gab.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Es gibt noch weitere Kosten sparenden Effekte bei Chiplet-Technik. So 
kann das IO-Die aus älterer billigerer Fertigung sein. Dafür reicht die 
aus, mindestens wenn keine GPU drauf ist.

Bei den funktionierenden CPU-Dies gibt es wie üblich gute und schlechte 
Exemplare. Die schlechten sind langsamer. Da die maximale Frequenz aus 
thermischen Gründen sowieso nur erreicht wird, wenn nur wenige Cores sie 
fahren, darf bei Ryzens mit 2 CCDs das zweite aus einer schlechteren 
Charge stammen. Das Betriebssytem muss das nur wissen und entsprechend 
handeln. Was bei Windows 11 zeitweilig nicht funktionierte.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Udo K. schrieb:
> weil der Super-PI keine moderne FPU nutzt.

"current versions which also support the lower precision Streaming SIMD 
Extensions vector instructions. "
https://en.wikipedia.org/wiki/Super_PI

von Thorsten S. (thosch)


Lesenswert?

Ich fragte mich beim Lesen des Titels erstaunt, seit wann Intel auch 
Trafokerne produziert, weil ich bei dem Begriff E-Kern zuerst an 
Trafos und Übertrager dachte ... ;-)

Nach dem Öffnen des Beitrags klärte sich das schnell auf, aber die 
Irritation war erstmal da. Ging vermutlich nicht nur mir so.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.