Forum: PC Hard- und Software Apple's M1 Max Schlaftablette


von Nano (Gast)


Lesenswert?

Ich habe mir heute mal ein paar Daten zu Apples neuer M1 Max CPU 
basierend auf einem ARMv8.5-A Instruction Set angesehen und abgesehen 
von dem recht großen L1 Cache pro Core (192 kiB Level-1-Befehlscache, 
128 kiB Daten-Cache) bei den High-Performance-Cores bin ich jetzt nicht 
beeindruckt.

Es gibt bereits jetzt schnellere x86-64 CPUs:

https://www.notebookcheck.com/Benchmark-Leak-Der-Intel-Core-i9-12900HK-uebertrifft-den-Apple-M1-Max-und-den-AMD-Ryzen-9-5980HX.574953.0.html

https://technical.city/de/cpu/Apple-M1-vs-Ryzen-9-5900HX

https://www.pcgameshardware.de/CPU-CPU-154106/News/AppleM1-Pro-und-M1-Max-Bald-ernste-Konkurrenz-vor-AMD-Intel-und-Nvidia-1381901/

Warum tut sich das Apple also an?
Und dann noch mit so einfachen Tricks, dass man einfach nur den L1 Cache 
ziemlich stark aufbläht, anstatt die Recheneinheiten intelligenter und 
schneller zu gestalten?

Sollten AMD und Intel ihren L1 Cache von derzeit
AMD Zen 3 32 KiB Befehlscache, 32 KiB Datencache
Intel Adler Lake Golden Cove 32 KiB Befehlscache, 48 KiB Datenchache
Intel Adler Lake Gracemont 64 KiB Befehlscache und 32 KiB Datencache
erhöhen, dann sieht der M1 richtig alt aus.

Und als Kunde hat man die typischen Apple Nachteile wie hoher Preis und 
wenig Leistung für das Geld, sowie ein geschlossenes System und dazu 
noch festgelötete LPDDR5 Bausteine mit einem somit endlichen RAM Ausbau 
ohne Aufrüstmöglichkeit.

Vorteile sehe ich höchstens beim Stromverbrauch, aber als Desktopuser 
interessiert mich das eigentlich nicht groß, zumal das ohnehin nur unter 
Last relevant ist und da will man dann doch lieber Leistung. Im IDLE 
Betrieb sind die x86-64 CPUs auch sparsam.

Apple User werden ihre gekaufte x86-64 Software unter Rosetta 2 in 
Software emulieren müssen und somit wird's nicht schneller. Oder eben 
die Software neu Kaufen müssen, was wieder höhere Kosten verursacht die 
dann auf die sündhaft teure Hardware noch oben drauf kommen.

Freuen kann sich allerhöchstnes die ARM Fraktion, hat sie jetzt doch mal 
seit langem wieder eine CPU zum Vorzeigen, die gezielt den Desktop Markt 
anvisiert.

von Rainer Z. (netzbeschmutzer)


Lesenswert?

Nano schrieb:
> Und als Kunde hat man die typischen Apple Nachteile wie hoher Preis und
> wenig Leistung für das Geld, sowie ein geschlossenes System und dazu
> noch festgelötete LPDDR5 Bausteine mit einem somit endlichen RAM Ausbau
> ohne Aufrüstmöglichkeit.

Apple wird - wie immer - maßlos überschätzt. Wir müssen Apple allerdings 
zugestehen, dass dieses Unternehmen es durch geschicktes Marketing 
selbst erreicht hat und somit maximalen Profit aus mittelmäßigen 
Produkten rausschlagen kann. Um nix anderes geht es und deren berühmte 
Design- und Markenaffinen, aber technisch ahnungsfreien Jünger laufen 
seit Jahrzehnten brav hinterher. Die Welt will betrogen werden.

Bei den iPhones gilt nix anderes. Auch hier allenfalls durchschnittliche 
Kost zu maximalen Preisen. Ich denke da beispielhaft an die späte 
Einführung von 5G in den iPhones und den schwachbrüstigen Kameras 
gegenüber den chinesischen und koreanischen Herstellern. Deren 
Smartphones haben einen deutlichen Mehrwert gegenüber den Produkten von 
Apple.

Das wäre neidlos anzuerkennen. Aber es muss nicht jeder darauf 
reinfallen und die Produkte kaufen.

von Praktiker (Gast)


Lesenswert?

Hallo

Kurz und ehrlich:

Nicht Apple und Co. sind die Ar...öcher sondern der Großteil deren 
Kunden in "Zusammenarbeit" mit den beauftragten Marketingunternehmen - 
es bleibt ja oft nicht "nur" bei Apple sondern die ganze Lebensführung 
und somit das auftreten nach außen muß "Hip" und Oberflächlich "cool" 
sein.
Wenn es nur solche Sachen wie Technik betreffen würde - wen interessiert 
es, jeder so wie er will...es gibt für die "normalen" ja genug 
Alternativen?!

Aber wenn ganze Stadtteile unbezahlbar werden, alteingesessenes Publikum 
vertrieben wird (München muss da wohl für DL extrem sein, aber immer 
noch kein Vergleich zu London oder Hong Kong) dann ist das eben keine 
private Sache mehr die einfach hingenommen werden kann.

Wobei ganz klar gesagt werden muss:

Es gibt halt Bereiche wo Apple und Co. Standard ist und seine Vorteile 
hat, aber die Leute dort wissen das und sind eben nicht generell nur 
"Hipp" und Markengeil sondern stehen in den anderen Bereichen im 
normalen Leben (Kaufen beim Discounter, brauchen kein Edelmodemarken, 
laufen nicht jeden Trend hinterher, fahren den 10 Jahren alten 
Verbrenner, nutzen das "gammelige" aber funktionierende Fahrrad -und 
nicht das 1500Euro "Bike" usw.) und vor allem zeigen nicht "zufällig" 
bei jeder unpassenden Gelegenheit ihr Applegerät bzw. Entsprechendes  im 
anderen Umfeld vor.

Praktiker

von Jan H. (j_hansen)


Lesenswert?

Nano schrieb:
> Sollten AMD und Intel ihren L1 Cache [...]
> erhöhen, dann sieht der M1 richtig alt aus.

Wenn's so einfach wäre, dann hätten sie das schon getan.

von (prx) A. K. (prx)


Lesenswert?

Daumenregel: Größere Caches = langsamerer Zugriff, gemessen in Sekunden, 
nicht in Takten.

: Bearbeitet durch User
von Nano (Gast)


Lesenswert?

Jan H. schrieb:
> Nano schrieb:
>> Sollten AMD und Intel ihren L1 Cache [...]
>> erhöhen, dann sieht der M1 richtig alt aus.
>
> Wenn's so einfach wäre, dann hätten sie das schon getan.

Schwer wäre es nicht, es ist in der Tat eine Recht einfache Veränderung. 
Der Grund warum man so etwas aber lieber viele Prozessorgenerationen 
nach hinten verschiebt ist folgender:

1. Es kostet Fläche auf dem Die, was die CPU teurer machen und die 
Ausbeute schlechter machen würde.
2. Wegen Punkt 1 macht es mehr Sinn lieber mit Optimierungen in der 
Cacheverwaltung bezüglich Zugriffe auf L2 und L3 zu optimieren. Das 
spart Fläche im Vergleich zu 1 ein und sorgt somit zu einem besseren 
Preis Leistungsverhältnis und einer höheren Ausbeute, da die Chips so 
kleiner sein können, also weniger Fläche brauchen.

Es ist somit eine sehr gute Kompromisslösung durch eine intelligentere 
Cacheverwaltung trotzdem mehr Performance zu erreichen und gleichzeitig 
die Kosten niedrig zu halten.
Apple ist dagegen den einfachen Brute Force Weg gegangen, weil das 
vergrößern des Caches in der Tat sehr einfach und wesentlich weniger 
aufwendig ist, als Cachezugriffe und Co zu optimieren, wo man richtig 
Hirnschmalz, Aufwand und Tests reinstecken müsste.
Die Kunden zahlen den Preis für die nun größere Fläche und schlechtere 
Ausbeute. Bei Apple wird das wohl nicht so wichtig sein, denn 
Appleprodukte waren schon immer hochpreisig, aber bei den kleinen Apple 
Mini Geräten wird das die Gewinnmarge drücken.

Würde man das auf das Auto übertragen, dann würde das Cache Vergrößern 
dem Vergrößern des Hubraums versprechen um ganz einfach und schnell noch 
viel mehr Leistung rauszubekommen, anstatt die Motoren zu optimieren um 
bei kleinerem Hubraum trotzdem durch eine bessere Optimierung noch mehr 
Leistung rauszuholen.

von Nano (Gast)


Lesenswert?

(prx) A. K. schrieb:
> Daumenregel: Größere Caches = langsamerer Zugriff, gemessen in
> Sekunden,
> nicht in Takten.

Ein größerer Cache verlängert vielleicht die Wegstrecke zur 
Recheneinheit, aber ansonsten sorgt das eigentlich zu einem 
Leistungssprung, da der Cache, wenn ich mich nicht irre, als SRAM 
ausgeführt und mit vollem CPU Takt arbeitet und anders als DRAM keine 
langen Refreshzyklen hat, weswegen es wesentlich schneller ist, als 
Zugriffe auf das langsame DRAM (heute also die ganzen Formen von DDR* 
Generationen).

Ein Zugriff auf den L1 ist somit fast so schnell, wie der Zugriff auf 
die CPU Register, wenn da nicht die Wegstrecke wäre die mit größerem L1 
natürlich zwangsläufig länger wird.

Gegenüber Zugriffe auf das normale RAM ist das aber immer noch mehrere 
Größenordnungen schneller.

von Cartman (Gast)


Lesenswert?

> dann würde das Cache Vergrößern
> dem Vergrößern des Hubraums versprechen

Voellig falsch.
Man baut da eher an einen Rasenmaehermoter 2 Turbolader
und noch einen Kompressor an.
Dazu gibt es dann noch Spielereien wie einen Ansaugluftvorwaermer.

Was natuerlich alles aus einem Rasenmaeher noch keinen
6 Liter Zwoelfzylinder macht.

von Nano (Gast)


Lesenswert?

Ach ja, das wichtigste habe ich vergessen.
Ein größerer Cache reduziert natürlich die Anzahl der notwendigen 
Zugriffe auf den langsamen Hauptspeicher und darin liegt der 
Geschwindigkeitsgewinn.

von Reinhard S. (rezz)


Lesenswert?

Praktiker schrieb:
> Es gibt halt Bereiche wo Apple und Co. Standard ist und seine Vorteile
> hat, aber die Leute dort wissen das und sind eben nicht generell nur
> "Hipp" und Markengeil sondern stehen in den anderen Bereichen im
> normalen Leben (Kaufen beim Discounter,

Beim Discounter kaufen ist für dich normal? Mein Beileid.

> brauchen kein Edelmodemarken,
> laufen nicht jeden Trend hinterher, fahren den 10 Jahren alten
> Verbrenner, nutzen das "gammelige" aber funktionierende Fahrrad -und
> nicht das 1500Euro "Bike" usw.) und vor allem zeigen nicht "zufällig"
> bei jeder unpassenden Gelegenheit ihr Applegerät bzw. Entsprechendes  im
> anderen Umfeld vor.

Kann man natürlich machen und natürlich gibt es auch ein Zuviel an 
Selbstdarstellung. Ich selbst würde mir auch nicht ein Apple-Gerät neu 
kaufen wegen dem Preis, mein Firmen-iPad von 2017 läuft aber bis jetzt 
super und sowohl die Kollegen, die ein Android-Tablet nutzen müssen und 
darüber meckern als auch meine privaten Android-Geräte sind von der 
Bedienung her und Qualität nicht so gut.

von Nano (Gast)


Lesenswert?

Cartman schrieb:
>> dann würde das Cache Vergrößern
>> dem Vergrößern des Hubraums versprechen
>
> Voellig falsch.
> Man baut da eher an einen Rasenmaehermoter 2 Turbolader
> und noch einen Kompressor an.
> Dazu gibt es dann noch Spielereien wie einen Ansaugluftvorwaermer.
>
> Was natuerlich alles aus einem Rasenmaeher noch keinen
> 6 Liter Zwoelfzylinder macht.

Warum soll das falsch sein?

Mehr Hubraum bedeutet in der Regel mehr Leistung.
Ein größerer Zylinderdurchmesser erlaubt es dir mehr Kraftstoff zur 
Verbrennung zu bringen und damit kannst du durch einen größeren Zylinder 
mehr Energie umsetzen, was wiederum zwangsläufig zu mehr Motorleistung 
führt.

von Florian S. (vatterger)


Lesenswert?

Bin jetzt kein Apple-Fanboy, aber man muss ihnen schon zugestehen, dass 
der M1 Chipsatz von der "Performance pro Watt"-Seite her AMD und Intel 
abhängt.

20+ Stunden Akkulaufzeit bei leichter Nutzung ist halt eine Ansage, da 
werde ich mit meinem guten alten T420 Thinkpad schon etwas neidisch.

Hier nur auf Cache-Größe und Benchmarks zu schauen wird dem nicht 
gerecht, das Gesamtpaket ist ein mehr als ausreichend leistungsfähiges 
Laptop, das viel länger mobil bleiben kann als die Konkurrenz.

von (prx) A. K. (prx)


Lesenswert?

Es gibt einen lockeren Zusammenhang zwischen der Grösse der L1 Caches, 
deren Assoziativität und dem Umgang damit, und der Pagegrösse der MMU.

Es geht zwar auch anders (*), aber der einfachste und bei Intel bisher 
stets beschrittene Weg rechnet sich im L1(!) als
  Assoziativität = Kapazität / Pagesize
Grund dafür ist die dann bestehende Möglichkeit, Cache- und Tag-Arrays 
mit ausschliesslich jenen Adressleitungen ansprechen zu können, die vom 
Paging nicht beeinflusst werden. Der TLB-Zugriff findet dann parallel 
dazu statt, was deutlich Zeit spart.

Bei diesem Schema steigt die Assoziativität mit der Grösse des L1 
Caches. Höhere Assoziativität wiederum erhöht Aufwand und 
Stromverbrauch, auch wenn man das heute mit auch nicht völlig 
kostenloser Way Prediction begrenzt.

Die x86 CPUs sind seit 386 effektiv auf 4kB Pages festgelegt. Apple hat 
bei den eigenen CPU grössere Freiheit, da sind es 16kB.

*: Beispielsweise AMD ab K5. AMD kehrte aber mit Zen wieder zu diesem 
Schema zurück.

von Reinhard S. (rezz)


Lesenswert?

Florian S. schrieb:
> Hier nur auf Cache-Größe und Benchmarks zu schauen wird dem nicht
> gerecht, das Gesamtpaket ist ein mehr als ausreichend leistungsfähiges
> Laptop, das viel länger mobil bleiben kann als die Konkurrenz.

...und von der Leistung her (laut Benchmarks) mit einem i7-11xxx und den 
erwähnten Ryzen 9 5900 HX doch ganz gut mithalten kann. Beim Ryzen 
teilweise nur 1% Unterschied. Also wie man da auf "Schlaftablette" 
kommt...

von Rolf M. (rmagnus)


Lesenswert?

Nano schrieb:
> Es gibt bereits jetzt schnellere x86-64 CPUs:

Wie schnell doch der Ruhm vergeht. Gerade erst war man überall 
beeindruckt, dass Apple mal kurz nen ARM aus dem Ärmel schüttelt ("pun 
intended"), der in der gleichen Liga wie die Top-Modelle von Intel und 
AMD spielen, und jetzt wird der neue Prozessor schon zum Flop 
deklariert, weil er nicht der schnellste Prozessor der Welt ist.

von (prx) A. K. (prx)


Lesenswert?

Nano schrieb:
> Ein größerer Cache reduziert natürlich die Anzahl der notwendigen
> Zugriffe auf den langsamen Hauptspeicher und darin liegt der
> Geschwindigkeitsgewinn.

Wobei man das durch alle 3 Cache-Levels rechnen muss, mit steigender 
Zugriffszeit höherer Levels. Allein den L1 Cache zu rechnen geht fehl.

Nebeneffekte aufgrund der Struktur der Zusammenschaltung vieler Cores 
können Cache-Kapazitäten zudem schlecht vergleichbar machen, wenn es um 
den Last-Level-Cache geht, heutzutage den L3-Cache. Ein 16-Core Zen 2 
hat zwar 64 MB L3-Cache, aber jede 4-Core-Gruppe sieht davon nur 16 MB 
und der Zugriff auf die L3s anderer Gruppen ist kaum schneller als aufs 
RAM. Das kann die Effektivität des L3-Caches stark von der Arbeitsweise 
eines Programms abhängig machen: Haben sehr viele Threads eines 
Prozesses häufigem Zugriff auf viel gemeinsamem Speicher, funktioniert 
der nicht mehr ganz so gut.

Bei AMDs 64-Kernern gibts aufgrund von deren Struktur einige 
Tuning-Schrauben auf recht tiefer Ebene, deren Folgewirkungen auf 
Speichertransferrate und effektiver Zugriffszeit nicht leicht erfassbar 
sind.

von (prx) A. K. (prx)


Lesenswert?

Rolf M. schrieb:
> jetzt wird der neue Prozessor schon zum Flop
> deklariert, weil er nicht der schnellste Prozessor der Welt ist.

Speziell im Mobilbereich sieht Apple verdammt gut aus. Das war schon vor 
den Mac so, auch Apples Prozessoren in Handys sind recht einsam an der 
Spitze. Samsungs Versuch, das mit selbst entworfenen Mongoose-Cores zu 
kopieren, ging ziemlich in die Hose und wurde mittlerweile eingestellt.

Im Desktop-Bereich geht Intel bei der Verlustleistung in die Vollen. Da 
können bei normalen Desktops um die 250 W Leistung anfallen, so lange 
und so viel wie die Kühlung des Systems das hergibt. Das kann man 
getrost als Overclocking ab Werk betrachten. Was früher die Freaks 
machten, macht Intel nun selbst und und geht an die Grenze des 
Möglichen, um trotz der Malaise der letzten Jahre mitzuhalten zu können.

von udok (Gast)


Lesenswert?

Florian S. schrieb:
> 20+ Stunden Akkulaufzeit bei leichter Nutzung ist halt eine Ansage, da
> werde ich mit meinem guten alten T420 Thinkpad schon etwas neidisch.
>
> Hier nur auf Cache-Größe und Benchmarks zu schauen wird dem nicht
> gerecht, das Gesamtpaket ist ein mehr als ausreichend leistungsfähiges
> Laptop, das viel länger mobil bleiben kann als die Konkurrenz.

Der Dell XPS kommt auf ähnliche Werte, laut Werksangaben ca. 20 Stunden.
Ich komme damit zumindest bei normaler Arbeit locker über einen Tag.

Die Cache Grösse ist ein zweischneidiges Schwert -  grosser Cache kostet
viel Diefläche und VIEL Strom.
Apple kann das nur machen, weil sie im neuesten Prozess fertigen.

AMD hat ja vor kurzem einen neuen Chip rausgeschoben mit 96 MB L3 Cache,
der die Intel Chips abhängt, die halt nur 32 MB L3 Cache haben.
Der Performancezuwachs ist klar da (+10-20%), ist halt die Methode mit 
der Brechstange.
Ob sich das aber finanziell rechnet?

Was aber Apple klar besser macht, ist ein einheitliches Ökosystem zu 
haben.
Die Sachen funktionieren, und sind auch nicht so viel teurer als ein
Microsoft Surface oder ein Dell XPS.
Bei allen drei bekommt man gute Qualität und aktuelles Design.

von (prx) A. K. (prx)


Lesenswert?

Nano schrieb:
> da der Cache, wenn ich mich nicht irre, als SRAM
> ausgeführt und mit vollem CPU Takt arbeitet

Aber er braucht dazu einige Takte. L1 Zugriffszeit:

AMD K5:      1 Takt
Intel P5:    2 Takte
Intel P6:    3 Takte
Intel heute: 5 Takte, Limit ~5 GHz
Apple M1:    3 Takte, Limit 3,2 GHz

Hierin fehlt aber noch der Effekt der Way Prediction. Bei 8-Wege 
Assoziativität hat die zu Folge, dass nur 1/8 des L1-Caches in 
sofortigem Zugriff ist, der Rest kostet deutlich mehr.

Kompensiert wird das teilweise durch ein ständig steigendes Out-Of-Order 
Fenster. Rekordhalter ist derzeit m.W. Apple mit gut 600 Befehlen.

: Bearbeitet durch User
von Cartman (Gast)


Lesenswert?

> Warum soll das falsch sein?

Du selbst hast festgestellt, dass die Performance des ARMs
an sich eher aermlich ist.
Und um das ein wenig aufzupeppen, bekommt er eine Einspritzpumpe.
Die nennt sich Cache...

Mehr Hubraum ist das naemlich eher nicht.

Mehr Hubraum waere: Noch mehr Kerne, ein verbessertes
Instruction-Set, parallele/verbesserte ALUs, parallel
arbeitende Adressierungseinheiten und mehrere Busse
um das ganze zu versorgen.

Das ist bei Apples ARM alles Fehlanzeige.
Daher: Nur ein Rasenmaehermoter mit Einspritzung.
Aber eben kein Sechs Liter Zwoelfzylinder.

von udok (Gast)


Lesenswert?

(prx) A. K. schrieb:
> Im Desktop-Bereich geht Intel bei der Verlustleistung in die Vollen. Da
> können bei normalen Desktops um die 250 W Leistung anfallen

Der Verbrauch beim normalen Arbeiten liegt sehr deutlich unter 40 Watt.

Aktuelle Messungen siehe etwa hier:

https://www.igorslab.de/was-taugt-der-intel-core-i5-12400-review-im-workstation-und-produktiveinsatz-wirklich-teil-2/9/

Klar, wenn du die CPU voll forderst, dann geht der Strom hoch, aber
dafür bekommst du auch satte Rechenleistung.
Der Laptop geht da nach einer halben Minute in die Knie, auch der Apple 
M1.

von (prx) A. K. (prx)


Lesenswert?

Cartman schrieb:
> Und um das ein wenig aufzupeppen, bekommt er eine Einspritzpumpe.
> Die nennt sich Cache...

Das Gesamtpaket zählt.

> Das ist bei Apples ARM alles Fehlanzeige.

Pustekuchen. Der M1 ist breiter aufgelegt als sämtliche x86:
#https://www.anandtech.com/show/16226/apple-silicon-m1-a14-deep-dive/2

von (prx) A. K. (prx)


Lesenswert?

udok schrieb:
> Der Verbrauch beim normalen Arbeiten liegt sehr deutlich unter 40 Watt.

Ja freilich. Aber es geht hier im Thread primär um Leistungsvergleiche 
in Benchmarks. Effektive Leistung bei normaler Nutzung ist davon völlig 
abgekoppelt.

von (prx) A. K. (prx)


Lesenswert?

udok schrieb:
> Der Laptop geht da nach einer halben Minute in die Knie, auch der Apple
> M1.

Yep. Und dann zählt das, was mancher Benchmarker nicht mehr in Watt 
rechnet, sondern in Joule pro Aufgabe, und was branchenweit als 
Performance pro Watt bezeichnet wird. Da sieht Apple ziemlich gut aus.

Genau das ist der Grund für die verschiedenen Cores auf einem Die, die 
seit langem in besseren Handys stecken, und die nun auch Alder Lake 
liefert. Die effizienteren Cores sind zwar kurzzeitig langsamer, aber 
wenn langfristig die Gesamtleistung thermisch begrenzt ist, können sie 
trotzdem die gleiche Aufgabe schneller lösen.

: Bearbeitet durch User
von udok (Gast)


Lesenswert?

(prx) A. K. schrieb:
>> Der Verbrauch beim normalen Arbeiten liegt sehr deutlich unter 40 Watt.
>
> Ja freilich. Aber es geht hier im Thread primär um Leistungsvergleiche
> in Benchmarks. Effektive Leistung bei normaler Nutzung ist davon völlig
> abgekoppelt.

Dann zeige mir mal einen Blender Benchmark mit dem M1 und den 
Stromverbrauch dazu.  Die Vorgaben sind 73 Watt beim i5-12400 und 165 
Watt beim i7-12700K.

Ich behaupte: Der wird ähnlich hoch sein, wenn Leistung gefordert wird.
Nur dass der M1 oder auch ein MS Surface im Gegensatz zum Desktop
die Leistung nur eine halbe Minute bringt, dann taktet er runter.

Was der M1 gut macht, sind spezielle Hardware-IP Blöcke, die etwa
das Dekodieren eines Films erledigen.  Das macht AMD/Intel aber auch.
Ich sehe da nichts revolutionäres, das übliche Hypen durch
die bezahlte Presse halt.
Was aber stimmt ist, dass Arm Architektur jetzt ca. da steht wo auch
Intel/AMD ist.
Und ich freue mich auf die Antwort von Intel, etwas Konkurrenz schade 
nicht.

Beitrag #6944057 wurde von einem Moderator gelöscht.
von (prx) A. K. (prx)


Lesenswert?

Cartman schrieb im Beitrag #6944057:
> Und ich brauche keine Apple Gulag.

Verständlich, ist aber ein komplett anders Thema. Was auch immer Apple 
als Walled Garden den Anwendern baut, deren Cores sind exzellent. Das 
gilt auch für die Handys.

von udok (Gast)


Lesenswert?

(prx) A. K. schrieb:
> Genau das ist der Grund für die verschiedenen Cores auf einem Die, die
> seit langem in besseren Handys stecken, und die nun auch Alder Lake
> liefert. Die effizienteren Cores sind zwar kurzzeitig langsamer, aber
> wenn langfristig die Gesamtleistung thermisch begrenzt ist, können sie
> trotzdem die gleiche Aufgabe schneller lösen.

Lange Zeit habe ich es umgekehrt gehört:  Besser ist es schnelle Cores,
zu haben, die die Aufgabe schnell erledigen und dann schlafen gehen.
Ich gehe mal davon aus, dass das alles Marketinggeschwurbel ist,
und Intel es nicht geschafft hat 16 P Cores auf dem Die unterzubringen.
Besser wäre es doch, stromhungriges AVX oder grossen Cache abzuschalten,
wenn der nicht gebraucht wird (was ja teilweise auch gemacht wird).

Realität ist doch das heute ein i3 für 97% der Aufgaben 
überdimensioniert
und wenn die SW Entwickler ihr Handwerk verstehen würden reicht auch
ein Celeron locker.  Es geht aber um das "haben wollen".

von Walter K. (walter_k488)


Lesenswert?

Hier sind ja doch richtige Experten und Spezialisten unterwegs!
Fassen wir mal die Erkenntnisse zusammen:
...
Nein - es lohnt eigentlich nicht, hier auf das stereotype 
Anti-Apple-Kauderwelsch einzugehen.

Euch kann man nur viel Spass mit Euren Windows-Schrott wünschen!

von Reinhard S. (rezz)


Lesenswert?

udok schrieb:
> Dann zeige mir mal einen Blender Benchmark mit dem M1 und den
> Stromverbrauch dazu.  Die Vorgaben sind 73 Watt beim i5-12400 und 165
> Watt beim i7-12700K.

35W im MacBook Pro 14".

https://www.computerbase.de/2021-11/apple-macbook-pro-14-m1-pro-test/3/#diagramm-blender-benchmark-10-beta-2

von (prx) A. K. (prx)


Lesenswert?

udok schrieb:
> Dann zeige mir mal einen Blender Benchmark mit dem M1 und den
> Stromverbrauch dazu.  Die Vorgaben sind 73 Watt beim i5-12400 und 165
> Watt beim i7-12700K.

Bereits bei gleicher Hardware, ob AMD oder Intel, lässt sich zeigen, 
dass bei Aufgaben mit langer Laufzeit ein geschicktes Scheduling der 
Taktfrequenz zu deutlichen Unterschieden in der Laufzeit führt. Und zwar 
dergestalt, dass bei gleichem Prozessor eine niedrigere maximale 
Taktfrequenz zu einer kürzeren Erledigung der Aufgabe führen kann. 
Denn die Leistung wächst quadratisch mit der Frequenz, die Laufzeit 
sinkt aber nur linear. Ist die Dauerleistung thermisch limitiert, wie 
seit langem allgemein üblich, spielt die Effizienz eine grosse Rolle.

Mit welcher Taktfrequenz und Versorgungsspannung welche Core-Typen wie 
lange betrieben werden, ist aufgrund des begrenzten Budgets an 
Joule(mobil) und Kühlung(immobil) eine der wichtigsten Wissenschaften 
heutiger Prozessoren. Erledigt wird das überwiegend in einer an den 
Prozessor angepassten Komponente des Betriebssystems, assistiert von 
etwas Hardware. Alder Lake hat neuartige spezielle Hardware drin, um 
dieser Software dabei zu helfen.

Verschiedene Cores benötigen für die gleiche Aufgabe unterschiedlich 
viel Joule. Darin geht die Fabrikationstechnik ein, aber auch die 
Mikroarchitektur.

von udok (Gast)


Lesenswert?

Reinhard S. schrieb:
>> Dann zeige mir mal einen Blender Benchmark mit dem M1 und den
>> Stromverbrauch dazu.  Die Vorgaben sind 73 Watt beim i5-12400 und 165
>> Watt beim i7-12700K.
>
> 35W im MacBook Pro 14".
>
> 
https://www.computerbase.de/2021-11/apple-macbook-pro-14-m1-pro-test/3/#diagramm-blender-benchmark-10-beta-2

Das sind ca. 9 Wh Energie beim M1.
Im zuvor verlinkten Blender Benchmark braucht die Intel CPU 12 Wh.
Das sind immerhin 25% weniger Stromverbrauch.

Das ist gut, aber ich hätte mir von einer Mobil-CPU im Verbleich
zu einer Desktop-CPU mehr erwartet.

von (prx) A. K. (prx)


Lesenswert?

udok schrieb:
> Lange Zeit habe ich es umgekehrt gehört:  Besser ist es schnelle Cores,
> zu haben, die die Aufgabe schnell erledigen und dann schlafen gehen.

Das gilt für kurzzeitige Aufgaben wie dem Rendering von Webseiten auch 
heute noch. Aber das Ziel davon ist nicht, möglichst wenig Joule aus dem 
Akku zu ziehen, sondern die Seite möglichst schnell darzustellen. 
Thermisch ist das unproblematisch, weil danach genug Zeit bleibt, wieder 
runter zu kühlen.

Der Akkuverbrauch ist jedoch höher, wenn die Seite mit maximaler 
Leistung der Performance-Cores gerendert wird, als wenn dafür die 
Efficiency-Cores des Alder Lake oder Handyprozessors genutzt werden, 
oder wenn die gleichen Cores diese Aufgabe mit halber Taktfrequenz und 
entsprechend niedrigerer Corespannung rechnen. Nur dauert das dann 
länger, und bei interaktiver Anwendung ist das entscheidend.

Heutige Prozessoren, egal ob für Notebook oder Desktop, können bei 
Vollgas aller Cores weitaus mehr Watt produzieren, als ein normale 
gebautes System auf Dauer wegstecken kann. Kurzzeitig landet das in der 
Wärmekapazität des Kühlsystems. Langfristig wird abgeregelt.

> Ich gehe mal davon aus, dass das alles Marketinggeschwurbel ist,

Nicht alles, was man selbst nicht versteht, ist gelogen.

von Zeno (Gast)


Lesenswert?

Nano schrieb:
> anstatt die Motoren zu optimieren um
> bei kleinerem Hubraum trotzdem durch eine bessere Optimierung noch mehr
> Leistung rauszuholen.

... und damit den Verschleiß zu erhöhen.

von (prx) A. K. (prx)


Lesenswert?

udok schrieb:
> und wenn die SW Entwickler ihr Handwerk verstehen würden reicht auch
> ein Celeron locker.  Es geht aber um das "haben wollen".

Es hängt auch davon ab, was man mit dem Gerät macht. Vollgestopfte 
Webseiten von News-Medien sind eine völlig andere Aufgabe, als 
Videobearbeitung oder FPGA-Simulation.

Für die Webseiten braucht man nur wenig Cores, die sollten aber 
kurzfristig schnell genug sein. Massgeblich ist also die kurzfristige 
single-thread Performance. Dafür ist mehr als Quadcore rausgeworfenes 
Geld.

Aktuelle Videobearbeitung nutzt aber sämtliche Cores parallel, evtl auch 
die GPU. Ist Zeit Geld, ist der Celeron dabei effektiv teurer als als 
der i9 oder ein Highend-Ryzen.

: Bearbeitet durch User
von Rolf M. (rmagnus)


Lesenswert?

(prx) A. K. schrieb:
> udok schrieb:
>> Der Laptop geht da nach einer halben Minute in die Knie, auch der Apple
>> M1.
>
> Yep. Und dann zählt das, was mancher Benchmarker nicht mehr in Watt
> rechnet, sondern in Joule pro Aufgabe, und was branchenweit als
> Performance pro Watt bezeichnet wird. Da sieht Apple ziemlich gut aus.

Das mag beim Laptop wichtig sein, wenn man lange Laufzeit haben will und 
in Rechenzentren, aber im Desktop-Bereich zählt bei rechenaufwändigen 
Aufgaben die reine Performance oft mehr, als dass es dabei noch 
möglichst effizient ist.

> Genau das ist der Grund für die verschiedenen Cores auf einem Die, die
> seit langem in besseren Handys stecken, und die nun auch Alder Lake
> liefert.

Ich hab bis heute nicht verstanden, warum Intel damit ausgerechnet bei 
den dicken Desktop-Prozessoren debütiert.

von Trader (Gast)


Lesenswert?

Nano schrieb:
> Ach ja, das wichtigste habe ich vergessen.
> Ein größerer Cache reduziert natürlich die Anzahl der notwendigen
> Zugriffe auf den langsamen Hauptspeicher und darin liegt der
> Geschwindigkeitsgewinn.

Dem Gegenüber steht das der Zugriff über grössere Caches länger dauert, 
das ist also ein Trade-Off.

von (prx) A. K. (prx)


Lesenswert?

Rolf M. schrieb:
> Ich hab bis heute nicht verstanden, warum Intel damit ausgerechnet bei
> den dicken Desktop-Prozessoren debütiert.

Alder Lake ist kein reiner Desktop-Prozessor. Die Modellpalette deckt 
das gesamte Spektrum ab, vom Gamerboliden bis zum Notebook. Auch beim 
35W-Desktop im kleinen und leisen Bürogehäuse spielt Efficiency eine 
wesentliche Rolle.

Er ist auch nicht der erste. Die Betaversion war der für Tablets und 
Ultramobiles gebaut Lakefield, der obendrein klein genug war, um trotz 
der damals miserablen Ausbeute der 10nm Technik produziert werden zu 
können.

Der hatte 4 Efficiency-Cores und 1 Performance-Core. Allerdings musste 
Windows erst einmal lernen, wie man damit umgeht. Obendrein waren 
entsprechende Systeme (ein Surface und ein Samsung) für das Ergebnis zu 
teuer.

von (prx) A. K. (prx)


Lesenswert?

Rolf M. schrieb:
> Das mag beim Laptop wichtig sein, wenn man lange Laufzeit haben will und
> in Rechenzentren, aber im Desktop-Bereich zählt bei rechenaufwändigen
> Aufgaben die reine Performance oft mehr, als dass es dabei noch
> möglichst effizient ist.

Dachte sich Intel beim Pentium 4 auch, fiel damit aber gründlich auf die 
Nase. Die auf den Pentium 4 folgende Mikroarchitektur leitete sich 
deshalb aus dem Pentium M ab, der parallel zum P4 für Mobilanwendungen 
aus dem alten Pentium Pro/II/III Core weiterentwickelt worden war. Intel 
lernte, dass Effizienz auch im Desktop wichtig geworden war, denn auch 
da begrenzt das thermische Budget längst die Leistungsfähigkeit.

: Bearbeitet durch User
von udok (Gast)


Lesenswert?

(prx) A. K. schrieb:
>> Ich gehe mal davon aus, dass das alles Marketinggeschwurbel ist,
>
> Nicht alles, was man selbst nicht versteht, ist gelogen.

Das wird schon stimmen...

Aber es ist ein leichtes einen schnellen Prozessor
runterzutakten, um nicht ins thermische Limit zu kommen.

Da ist auch nichts mit quadratischer Abhängigkeit der Leistung,
da sich die Core-Spannung bei niedriger Leistung nicht verändert.

Wichtig ist nur die Leckströme klein zu halten, und nicht benötigte
Blöcke komplett abzuschalten.  Dann kann man auch super-performante
Kerne verwenden, und hat hohe Leistung und niedrigen Verbrauch in einem.
Kostet halt mehr.  Und das Intel Budget für den Alder Lake hat nicht für
16 P Kerne gereicht.

Um noch mal den Benchmark von igorslab anzuschauen:
https://www.igorslab.de/was-taugt-der-intel-core-i5-12400-review-im-workstation-und-produktiveinsatz-wirklich-teil-2/9/

Da sieht man die verbrauchten Ws (Joule) für den Blender Job.
Ein i5-12400 liegt bei 12, ein i7-121600k bei 13.8 Ws.

Wenn man davon ausgeht, dass die K Prozessoren (für Overclocker gebaut) 
auf Speed ausgewählt sind, dann sieht man dass die nicht getestete Mobil
Prozessoren sicher noch mal 2-3 Watt weniger brauchen werden,
und die liegen damit gleichauf mit dem Apple M1.

Also die Revolution des M1 liegt nicht im technischen Bereich, sondern
im kommerziellen.  Apple macht sein eigenes Ding mit völliger Kontrolle,
und hat damit ganz höhere Margen, und kann Intel aus dem Bereich 
rausdrängen.

von (prx) A. K. (prx)


Lesenswert?

udok schrieb:
> Da ist auch nichts mit quadratischer Abhängigkeit der Leistung,
> da sich die Core-Spannung bei niedriger Leistung nicht verändert.

Doch, genau das geschieht. Aktuelle Prozessoren von Intel wie von AMD 
können jeden Core individuell takten und versorgen dafür jeden einzelnen 
Core mit dem angepasster Spannung. Einige Intels tut das mit internen 
Schaltreglern, sonst mit internen Linearreglern. Auch linear geregelt 
ist das aufgrund der quadratischen Abhängigkeit der Schaltverluste 
günstiger.

Es ist die Aufgabe von Software, das passend einzustellen. Und das 
geschieht auch. Diese Software-Komponente gehört zu jenen Teilen eines 
Betriebssystem, die bei neuen CPUs und relativ altem Linux-Kernel zum 
Problem werden können. Soll heissen: Neuere Kernels können allein 
dadurch bereits die Performance des eigenen Rechners verbessern.

: Bearbeitet durch User
von udok (Gast)


Lesenswert?

(prx) A. K. schrieb:
> Doch, genau das geschieht. Aktuelle Prozessoren von Intel wie von AMD
> können jeden Core individuell takten und versorgen dafür jeden einzelnen
> Core mit dem angepasster Spannung.

Das stimmt schon, nur in einem Mobilprozessor ist die Spannung sowieso
immer ganz unten um Leistung zu einzusparen.. da ist nicht viel 
Spielraum
zum Regeln.

von (prx) A. K. (prx)


Lesenswert?

udok schrieb:
> Wichtig ist nur die Leckströme klein zu halten, und nicht benötigte
> Blöcke komplett abzuschalten.

Auch, aber nicht "nur". Auch ohne Betrachtung des Leckstroms kostet 
jeder Schaltvorgang Energie in quadratischer Abhängigkeit von der 
Spannung. Diese Energie gering zu halten, ist seit langem ein wichtiges 
Ziel der Prozessorentwicklung und des Prozessorbetriebs.

: Bearbeitet durch User
von udok (Gast)


Lesenswert?

(prx) A. K. schrieb:
> Dachte sich Intel beim Pentium 4 auch, fiel damit aber gründlich auf die
> Nase. Die auf den Pentium 4 folgende Mikroarchitektur leitete sich
> deshalb aus dem Pentium M ab, der parallel zum P4 für Mobilanwendungen
> aus dem alten Pentium Pro/II/III Core weiterentwickelt worden war. Intel
> lernte, dass Effizienz auch im Desktop wichtig geworden war, denn auch
> da begrenzt das thermische Budget längst die Leistungsfähigkeit.

Intel ist damit keineswegs auf die Nase gefallen, sondern hat sich eine 
goldene Nase verdient.
Damals war das auch die einzig richtige Strategie, Multicore wurde ja 
noch
von keiner SW unterstützt.

von (prx) A. K. (prx)


Lesenswert?

udok schrieb:
> Das stimmt schon, nur in einem Mobilprozessor ist die Spannung sowieso
> immer ganz unten um Leistung zu einzusparen.. da ist nicht viel
> Spielraum

Wie wärs, wenn du dich mal informierst, bevor du rätst? Das fällt 
allmählich auf.

Die Cores meines Tiger Lake Mobilprozessors liegen im ad hoc Test bei 
~0,65 V in idle. Ein Core mit Arbeit kann aber auch bei ~1,05 V liegen.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

udok schrieb:
> Intel ist damit keineswegs auf die Nase gefallen, sondern hat sich eine
> goldene Nase verdient.

Intel hat die Netburst Architektur aufgegeben, weil sie effektiv am 
thermischen Problem scheiterten. AMD war in dieser Zeit mit den 
Prozessoren auf K8 Basis klar überlegen.

Das Intel damit trotzdem viel Geld verdiente, lag nicht an der Technik

von udok (Gast)


Lesenswert?

Sagte ich doch. Im Idle kannst du nichts runterregeln, und bei Last wird 
die Spannung dem Takt angepasst, oder was meinst du?

Ein Prozessor mit kleinerer Peak-Performance hat da keinen Vorteil,
ausser dass er weniger kostet.

Vor allem wenn der zwangsläufig mit demselben Prozess gefertigt wird wie
die Performance Kerne beim Alder Lake.  Das bringt dann nichts.

von (prx) A. K. (prx)


Lesenswert?

udok schrieb:
> Damals war das auch die einzig richtige Strategie, Multicore wurde ja
> noch von keiner SW unterstützt.

Der Software ist es egal, ob die Cores im gleichen Sockel stecken, oder 
in mehreren. Mehrsockel-Systeme gab es bereits bei ersten Pentium (P5), 
damit dann auch Betriebssysteme, die das nutzen konnten.

Anwendungssoftware hoppelte je nach Sparte zwar deutlich hinterher. Das 
spielt aber bei Servern keine entscheidende Rolle. Wir setzten damals im 
Unternehmen mit Verfügbarkeit geeigneter Server fast ausschliesslich 
AMDs Dual- und Quad-Opterons ein, keine Intel P4. Damit fuhren wir sehr 
gut.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

udok schrieb:
> Sagte ich doch. Im Idle kannst du nichts runterregeln, und bei Last wird
> die Spannung dem Takt angepasst, oder was meinst du?

Du schriebst, der Spielraum sei gering. Ich würde einen Spielraum von 
0,6-1,1V nicht als gering bezeichnen. Die Situation ist bei Notebooks 
und Desktops übrigens ähnlich. Auch Desktops werden längst so betrieben.

von René H. (mumpel)


Lesenswert?

M.E. sollte man nicht nur den Rechner in die Betrachtung einbeziehen, 
sondern auch die Software die darauf laufen soll. Wenn die Software an 
Apple-Hardware angepasst ist, wird sie schon schnell genug laufen. 
Anders als bei Windows-Software, die auf vielen unterschiedlichen 
Hardware-Konfigurationen laufen muss.

von (prx) A. K. (prx)


Lesenswert?

udok schrieb:
> Vor allem wenn der zwangsläufig mit demselben Prozess gefertigt wird wie
> die Performance Kerne beim Alder Lake.  Das bringt dann nichts.

Gewusst, oder einfach in den Ring geworfen?

Wenn ein Mobilprozessor ein ähnliches oberes Taktlimit wie ein 
Desktopprozessor der gleichen Familie hat, sind keine verschiedenen 
Fabrikationsprozesse im Spiel und der verwendete Prozess eignet sich 
offenbar für Mobil- und Desktopbereich.

: Bearbeitet durch User
von udok (Gast)


Lesenswert?

(prx) A. K. schrieb:
> Gewusst, oder einfach in den Ring geworfen?
> Wenn ein Mobilprozessor ein ähnliches oberes Taktlimit wie ein
> Desktopprozessor der gleichen Familie hat, sind keine verschiedenen
> Fabrikationsprozesse im Spiel und der verwendete Prozess eignet sich
> offenbar für Mobil- und Desktopbereich.

Gut dass du offenbar alles weisst.
Schau mal raus, da scheint die Sonne!

Schönen Tag,
Udo

von udok (Gast)


Lesenswert?

René H. schrieb:
> M.E. sollte man nicht nur den Rechner in die Betrachtung einbeziehen,
> sondern auch die Software die darauf laufen soll.

Da hast du 100% recht.  Wenn die SW schlecht optimiert ist, oder auch
nur die neuen Features nicht ausnützt, macht das schnell mal mehr als 
einen
Faktor 2 aus.

Das sieht man sehr schön am  AMD/Intel Performance Library Streit.

AMD ist zu faul eine ordentliche Performance Lib zu bauen,
mit dem Ergebnis dass wissenschaftliche SW mit bis zu
einem Faktor 2-10 schneller auf Intel CPUs läuft.
Apple hat das längst kapiert und liefert gut optimierte SW mit.

Aber jetzt wirklich davon - draussen wartet die Sonne.

von Rolf M. (rmagnus)


Lesenswert?

(prx) A. K. schrieb:
> Rolf M. schrieb:
>> Ich hab bis heute nicht verstanden, warum Intel damit ausgerechnet bei
>> den dicken Desktop-Prozessoren debütiert.
>
> Alder Lake ist kein reiner Desktop-Prozessor. Die Modellpalette deckt
> das gesamte Spektrum ab, vom Gamerboliden bis zum Notebook.

Allerdings kamen die Desktop-CPUs zuerst raus, wenn auch der zeitliche 
Abstand nicht sonderlich groß war.

> Auch beim 35W-Desktop im kleinen und leisen Bürogehäuse spielt Efficiency
> eine wesentliche Rolle.

Aber dennoch weniger als bei einem Laptop. Außerdem wird man das 
low-power-Bürosystem auch nicht unbedingt mit einem i7 oder i9 
ausstatten.

> Er ist auch nicht der erste. Die Betaversion war der für Tablets und
> Ultramobiles gebaut Lakefield, der obendrein klein genug war, um trotz
> der damals miserablen Ausbeute der 10nm Technik produziert werden zu
> können.

Ok, das wusste ich noch nicht.

(prx) A. K. schrieb:
> Rolf M. schrieb:
>> Das mag beim Laptop wichtig sein, wenn man lange Laufzeit haben will und
>> in Rechenzentren, aber im Desktop-Bereich zählt bei rechenaufwändigen
>> Aufgaben die reine Performance oft mehr, als dass es dabei noch
>> möglichst effizient ist.
>
> Dachte sich Intel beim Pentium 4 auch, fiel damit aber gründlich auf die
> Nase.

Das Problem des P4 war, dass er trotz gewaltiger Leistungsaufnahme nicht 
sonderlich flott war. Mir kam es so vor, als ob sie versucht haben, 
einen Prozessor mit möglichst hohem Takt zu bauen, damit sie größere 
Zahlen auf die Schachtel schreiben können. Denn bei mehr Gigahertzen 
freut sich auch das Marketinghertz. AMD hat glückerweise diesen Blödsinn 
nicht mitgemacht und dann lieber "QuantiSpeed-Rating" eingeführt.

> Die auf den Pentium 4 folgende Mikroarchitektur leitete sich
> deshalb aus dem Pentium M ab, der parallel zum P4 für Mobilanwendungen
> aus dem alten Pentium Pro/II/III Core weiterentwickelt worden war.

Ja, das war dann die Core-Architektur. Der Pentium M war halt richtig 
gut, der Pentium 4 richtig schlecht.

> Intel lernte, dass Effizienz auch im Desktop wichtig geworden war, denn
> auch da begrenzt das thermische Budget längst die Leistungsfähigkeit.

Ich wollte damit ja nicht sagen, dass Effizienz überhaupt keine Rolle 
spielt. Natürlich muss sie immer noch so gut sein, dass das System seine 
Leistung auch nutzen kann. Im Desktop-Bereich gibt's dafür halt deutlich 
mehr Spielraum als bei flachen Notebooks. Außerdem ist es natürlich auch 
noch entscheidend, ob die Konkurrenz ein effizienteres System hat, das 
genau so schnell ist.

von (prx) A. K. (prx)


Lesenswert?

Rolf M. schrieb:
> Das Problem des P4 war, dass er trotz gewaltiger Leistungsaufnahme nicht
> sonderlich flott war.

Kein Widerspruch. Dazwischen gab es aber einen gewissen Zusammenhang. 
Der P4 war in voller Absicht als Speed Daemon für extreme Taktfrequenzen 
konstruiert, die er aber aufgrund der ebenso extremen Wärmeentwicklung 
nur mit Kühlung durch Flüssigstickstoff erreichte. Er war zu langsam, 
weil er zu warm wurde.

Es gab allerdings noch ein paar recht spezifische Probleme, weil Intel 
bei der Implementierung keine Rücksicht auf bestehenden Code nahm. Alter 
Code konnte bei häufiger Nutzung früher völlig normaler Befehle ziemlich 
bös durchfallen. Das hatte bei uns zu ein paar etwas wackligen 
Athlon-PCs vom PC-Händler um die Ecke geführt, weil es von den üblichen 
Server-Herstellern noch keine gab und die alten Pentium III zu langsam 
waren.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Rolf M. schrieb:
> einen Prozessor mit möglichst hohem Takt zu bauen, damit sie größere
> Zahlen auf die Schachtel schreiben können

Nicht der Zahlen wegen, sondern als grundsätzlicher Ansatz. Die 
Konkurrenz zwischen Speed Daemon (hoher Takt, wenig Parallelität) und 
Brainiac (umgekehrt) ist wesentlich älter als der P4. DEC Alpha taktete 
eine Zehnerpotenz früher ungefähr doppelt so schnell wie die dickere 
POWERx Konkurrenz von IBM. Aus dieser Ära stammen die beiden Begriffe.

Intels Netburst-Architektur hatte später die Rolle des Speed Daemons, 
AMDs K8-Architektur die des Brainiacs. AMD gewann. Speed Daemons sind 
aufgrund des thermischen Problems ausgestorben, aber das wurde erst 
dadurch klar.

Zwischendurch hatte IBM sich intern eine ähnliche Konkurrenz gemacht. 
Damals gab es gleichzeitig die Entwicklungslinie der POWER Prozessoren 
und die aus dem AS400 Ersatz stammenden aber auch in AIX verfügbaren 
RS64 Prozessoren mit gleichem Befehlssatz. Die POWERs takteten 
wesentlich schneller und waren es im Workstation-Profil auch, aber die 
RS64er hatten eine extrem kurze Pipeline, weshalb sie bei 
entscheidungsintensivem Datenbank-Code gut dastanden.

: Bearbeitet durch User
von Nano (Gast)


Lesenswert?

Rolf M. schrieb:
> Der Pentium M war halt richtig
> gut, der Pentium 4 richtig schlecht.

Der Pentium M wurde auch vom Intel Team in Israel entwickelt.
Der Pentium 4 stammte dagegen meines Wissens nach vom Team in 
Kalifornien und die haben auch den Itanium entworfen.

Die guten Intel Architekturen kamen meist vom Team aus Israel.

Der Grund warum könnte am unterschiedlichen Bildungssystem liegen.
Das dürfte hier schon was ausmachen.

von Le X. (lex_91)


Lesenswert?

Rainer Z. schrieb:
> Wir müssen Apple allerdings
> zugestehen, dass dieses Unternehmen es durch geschicktes Marketing
> selbst erreicht hat und somit maximalen Profit aus mittelmäßigen
> Produkten rausschlagen kann. Um nix anderes geht es und deren berühmte
> Design- und Markenaffinen, aber technisch ahnungsfreien Jünger laufen
> seit Jahrzehnten brav hinterher. Die Welt will betrogen werden.

Und du siehst überall nur Betrug und das Ende des Abendlandes?
Gehts nicht mal ne Nummer kleiner?

Man kann über Apple sagen was man möchte, aber was ich so mitkriege 
funktionieren deren Produkte ganz gut und die Qualität passt auch. Diese 
Meinung höre ich nicht nur von Apple-Hipstern sondern von durchaus 
technisch versiertem Personal.
Ich selber kann dazu nichts sagen weil ich, außer einem kurzen 
iPhone-Intermezzo um 2009 herum, nie ein Apple-Produkt besaß.

Gut, über den Preis kann man meckern.
Aber einen Preisaufschlag von 50%-100% (frei aus der Hüfte geschätzt) 
gegenüber Mitbewerbern finde ich noch im Rahmen. Das gönnen sich 
Premium-Autoschmieden oder Hersteller von namhaften Werkzeugen, 
Bohrmaschinen und Arbeitskleidung auch.
Und es ist ja nicht so als bekäme man nichts für sein Geld.

Von Wucher oder Betrug sind wir hier noch meilenweit entfernt, lasst 
doch die Kirche mal im Dorf.

: Bearbeitet durch User
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.