Ich habe mir heute mal ein paar Daten zu Apples neuer M1 Max CPU basierend auf einem ARMv8.5-A Instruction Set angesehen und abgesehen von dem recht großen L1 Cache pro Core (192 kiB Level-1-Befehlscache, 128 kiB Daten-Cache) bei den High-Performance-Cores bin ich jetzt nicht beeindruckt. Es gibt bereits jetzt schnellere x86-64 CPUs: https://www.notebookcheck.com/Benchmark-Leak-Der-Intel-Core-i9-12900HK-uebertrifft-den-Apple-M1-Max-und-den-AMD-Ryzen-9-5980HX.574953.0.html https://technical.city/de/cpu/Apple-M1-vs-Ryzen-9-5900HX https://www.pcgameshardware.de/CPU-CPU-154106/News/AppleM1-Pro-und-M1-Max-Bald-ernste-Konkurrenz-vor-AMD-Intel-und-Nvidia-1381901/ Warum tut sich das Apple also an? Und dann noch mit so einfachen Tricks, dass man einfach nur den L1 Cache ziemlich stark aufbläht, anstatt die Recheneinheiten intelligenter und schneller zu gestalten? Sollten AMD und Intel ihren L1 Cache von derzeit AMD Zen 3 32 KiB Befehlscache, 32 KiB Datencache Intel Adler Lake Golden Cove 32 KiB Befehlscache, 48 KiB Datenchache Intel Adler Lake Gracemont 64 KiB Befehlscache und 32 KiB Datencache erhöhen, dann sieht der M1 richtig alt aus. Und als Kunde hat man die typischen Apple Nachteile wie hoher Preis und wenig Leistung für das Geld, sowie ein geschlossenes System und dazu noch festgelötete LPDDR5 Bausteine mit einem somit endlichen RAM Ausbau ohne Aufrüstmöglichkeit. Vorteile sehe ich höchstens beim Stromverbrauch, aber als Desktopuser interessiert mich das eigentlich nicht groß, zumal das ohnehin nur unter Last relevant ist und da will man dann doch lieber Leistung. Im IDLE Betrieb sind die x86-64 CPUs auch sparsam. Apple User werden ihre gekaufte x86-64 Software unter Rosetta 2 in Software emulieren müssen und somit wird's nicht schneller. Oder eben die Software neu Kaufen müssen, was wieder höhere Kosten verursacht die dann auf die sündhaft teure Hardware noch oben drauf kommen. Freuen kann sich allerhöchstnes die ARM Fraktion, hat sie jetzt doch mal seit langem wieder eine CPU zum Vorzeigen, die gezielt den Desktop Markt anvisiert.
Nano schrieb: > Und als Kunde hat man die typischen Apple Nachteile wie hoher Preis und > wenig Leistung für das Geld, sowie ein geschlossenes System und dazu > noch festgelötete LPDDR5 Bausteine mit einem somit endlichen RAM Ausbau > ohne Aufrüstmöglichkeit. Apple wird - wie immer - maßlos überschätzt. Wir müssen Apple allerdings zugestehen, dass dieses Unternehmen es durch geschicktes Marketing selbst erreicht hat und somit maximalen Profit aus mittelmäßigen Produkten rausschlagen kann. Um nix anderes geht es und deren berühmte Design- und Markenaffinen, aber technisch ahnungsfreien Jünger laufen seit Jahrzehnten brav hinterher. Die Welt will betrogen werden. Bei den iPhones gilt nix anderes. Auch hier allenfalls durchschnittliche Kost zu maximalen Preisen. Ich denke da beispielhaft an die späte Einführung von 5G in den iPhones und den schwachbrüstigen Kameras gegenüber den chinesischen und koreanischen Herstellern. Deren Smartphones haben einen deutlichen Mehrwert gegenüber den Produkten von Apple. Das wäre neidlos anzuerkennen. Aber es muss nicht jeder darauf reinfallen und die Produkte kaufen.
Hallo Kurz und ehrlich: Nicht Apple und Co. sind die Ar...öcher sondern der Großteil deren Kunden in "Zusammenarbeit" mit den beauftragten Marketingunternehmen - es bleibt ja oft nicht "nur" bei Apple sondern die ganze Lebensführung und somit das auftreten nach außen muß "Hip" und Oberflächlich "cool" sein. Wenn es nur solche Sachen wie Technik betreffen würde - wen interessiert es, jeder so wie er will...es gibt für die "normalen" ja genug Alternativen?! Aber wenn ganze Stadtteile unbezahlbar werden, alteingesessenes Publikum vertrieben wird (München muss da wohl für DL extrem sein, aber immer noch kein Vergleich zu London oder Hong Kong) dann ist das eben keine private Sache mehr die einfach hingenommen werden kann. Wobei ganz klar gesagt werden muss: Es gibt halt Bereiche wo Apple und Co. Standard ist und seine Vorteile hat, aber die Leute dort wissen das und sind eben nicht generell nur "Hipp" und Markengeil sondern stehen in den anderen Bereichen im normalen Leben (Kaufen beim Discounter, brauchen kein Edelmodemarken, laufen nicht jeden Trend hinterher, fahren den 10 Jahren alten Verbrenner, nutzen das "gammelige" aber funktionierende Fahrrad -und nicht das 1500Euro "Bike" usw.) und vor allem zeigen nicht "zufällig" bei jeder unpassenden Gelegenheit ihr Applegerät bzw. Entsprechendes im anderen Umfeld vor. Praktiker
Nano schrieb: > Sollten AMD und Intel ihren L1 Cache [...] > erhöhen, dann sieht der M1 richtig alt aus. Wenn's so einfach wäre, dann hätten sie das schon getan.
Daumenregel: Größere Caches = langsamerer Zugriff, gemessen in Sekunden, nicht in Takten.
:
Bearbeitet durch User
Jan H. schrieb: > Nano schrieb: >> Sollten AMD und Intel ihren L1 Cache [...] >> erhöhen, dann sieht der M1 richtig alt aus. > > Wenn's so einfach wäre, dann hätten sie das schon getan. Schwer wäre es nicht, es ist in der Tat eine Recht einfache Veränderung. Der Grund warum man so etwas aber lieber viele Prozessorgenerationen nach hinten verschiebt ist folgender: 1. Es kostet Fläche auf dem Die, was die CPU teurer machen und die Ausbeute schlechter machen würde. 2. Wegen Punkt 1 macht es mehr Sinn lieber mit Optimierungen in der Cacheverwaltung bezüglich Zugriffe auf L2 und L3 zu optimieren. Das spart Fläche im Vergleich zu 1 ein und sorgt somit zu einem besseren Preis Leistungsverhältnis und einer höheren Ausbeute, da die Chips so kleiner sein können, also weniger Fläche brauchen. Es ist somit eine sehr gute Kompromisslösung durch eine intelligentere Cacheverwaltung trotzdem mehr Performance zu erreichen und gleichzeitig die Kosten niedrig zu halten. Apple ist dagegen den einfachen Brute Force Weg gegangen, weil das vergrößern des Caches in der Tat sehr einfach und wesentlich weniger aufwendig ist, als Cachezugriffe und Co zu optimieren, wo man richtig Hirnschmalz, Aufwand und Tests reinstecken müsste. Die Kunden zahlen den Preis für die nun größere Fläche und schlechtere Ausbeute. Bei Apple wird das wohl nicht so wichtig sein, denn Appleprodukte waren schon immer hochpreisig, aber bei den kleinen Apple Mini Geräten wird das die Gewinnmarge drücken. Würde man das auf das Auto übertragen, dann würde das Cache Vergrößern dem Vergrößern des Hubraums versprechen um ganz einfach und schnell noch viel mehr Leistung rauszubekommen, anstatt die Motoren zu optimieren um bei kleinerem Hubraum trotzdem durch eine bessere Optimierung noch mehr Leistung rauszuholen.
(prx) A. K. schrieb: > Daumenregel: Größere Caches = langsamerer Zugriff, gemessen in > Sekunden, > nicht in Takten. Ein größerer Cache verlängert vielleicht die Wegstrecke zur Recheneinheit, aber ansonsten sorgt das eigentlich zu einem Leistungssprung, da der Cache, wenn ich mich nicht irre, als SRAM ausgeführt und mit vollem CPU Takt arbeitet und anders als DRAM keine langen Refreshzyklen hat, weswegen es wesentlich schneller ist, als Zugriffe auf das langsame DRAM (heute also die ganzen Formen von DDR* Generationen). Ein Zugriff auf den L1 ist somit fast so schnell, wie der Zugriff auf die CPU Register, wenn da nicht die Wegstrecke wäre die mit größerem L1 natürlich zwangsläufig länger wird. Gegenüber Zugriffe auf das normale RAM ist das aber immer noch mehrere Größenordnungen schneller.
> dann würde das Cache Vergrößern > dem Vergrößern des Hubraums versprechen Voellig falsch. Man baut da eher an einen Rasenmaehermoter 2 Turbolader und noch einen Kompressor an. Dazu gibt es dann noch Spielereien wie einen Ansaugluftvorwaermer. Was natuerlich alles aus einem Rasenmaeher noch keinen 6 Liter Zwoelfzylinder macht.
Ach ja, das wichtigste habe ich vergessen. Ein größerer Cache reduziert natürlich die Anzahl der notwendigen Zugriffe auf den langsamen Hauptspeicher und darin liegt der Geschwindigkeitsgewinn.
Praktiker schrieb: > Es gibt halt Bereiche wo Apple und Co. Standard ist und seine Vorteile > hat, aber die Leute dort wissen das und sind eben nicht generell nur > "Hipp" und Markengeil sondern stehen in den anderen Bereichen im > normalen Leben (Kaufen beim Discounter, Beim Discounter kaufen ist für dich normal? Mein Beileid. > brauchen kein Edelmodemarken, > laufen nicht jeden Trend hinterher, fahren den 10 Jahren alten > Verbrenner, nutzen das "gammelige" aber funktionierende Fahrrad -und > nicht das 1500Euro "Bike" usw.) und vor allem zeigen nicht "zufällig" > bei jeder unpassenden Gelegenheit ihr Applegerät bzw. Entsprechendes im > anderen Umfeld vor. Kann man natürlich machen und natürlich gibt es auch ein Zuviel an Selbstdarstellung. Ich selbst würde mir auch nicht ein Apple-Gerät neu kaufen wegen dem Preis, mein Firmen-iPad von 2017 läuft aber bis jetzt super und sowohl die Kollegen, die ein Android-Tablet nutzen müssen und darüber meckern als auch meine privaten Android-Geräte sind von der Bedienung her und Qualität nicht so gut.
Cartman schrieb: >> dann würde das Cache Vergrößern >> dem Vergrößern des Hubraums versprechen > > Voellig falsch. > Man baut da eher an einen Rasenmaehermoter 2 Turbolader > und noch einen Kompressor an. > Dazu gibt es dann noch Spielereien wie einen Ansaugluftvorwaermer. > > Was natuerlich alles aus einem Rasenmaeher noch keinen > 6 Liter Zwoelfzylinder macht. Warum soll das falsch sein? Mehr Hubraum bedeutet in der Regel mehr Leistung. Ein größerer Zylinderdurchmesser erlaubt es dir mehr Kraftstoff zur Verbrennung zu bringen und damit kannst du durch einen größeren Zylinder mehr Energie umsetzen, was wiederum zwangsläufig zu mehr Motorleistung führt.
Bin jetzt kein Apple-Fanboy, aber man muss ihnen schon zugestehen, dass der M1 Chipsatz von der "Performance pro Watt"-Seite her AMD und Intel abhängt. 20+ Stunden Akkulaufzeit bei leichter Nutzung ist halt eine Ansage, da werde ich mit meinem guten alten T420 Thinkpad schon etwas neidisch. Hier nur auf Cache-Größe und Benchmarks zu schauen wird dem nicht gerecht, das Gesamtpaket ist ein mehr als ausreichend leistungsfähiges Laptop, das viel länger mobil bleiben kann als die Konkurrenz.
Es gibt einen lockeren Zusammenhang zwischen der Grösse der L1 Caches, deren Assoziativität und dem Umgang damit, und der Pagegrösse der MMU. Es geht zwar auch anders (*), aber der einfachste und bei Intel bisher stets beschrittene Weg rechnet sich im L1(!) als Assoziativität = Kapazität / Pagesize Grund dafür ist die dann bestehende Möglichkeit, Cache- und Tag-Arrays mit ausschliesslich jenen Adressleitungen ansprechen zu können, die vom Paging nicht beeinflusst werden. Der TLB-Zugriff findet dann parallel dazu statt, was deutlich Zeit spart. Bei diesem Schema steigt die Assoziativität mit der Grösse des L1 Caches. Höhere Assoziativität wiederum erhöht Aufwand und Stromverbrauch, auch wenn man das heute mit auch nicht völlig kostenloser Way Prediction begrenzt. Die x86 CPUs sind seit 386 effektiv auf 4kB Pages festgelegt. Apple hat bei den eigenen CPU grössere Freiheit, da sind es 16kB. *: Beispielsweise AMD ab K5. AMD kehrte aber mit Zen wieder zu diesem Schema zurück.
Florian S. schrieb: > Hier nur auf Cache-Größe und Benchmarks zu schauen wird dem nicht > gerecht, das Gesamtpaket ist ein mehr als ausreichend leistungsfähiges > Laptop, das viel länger mobil bleiben kann als die Konkurrenz. ...und von der Leistung her (laut Benchmarks) mit einem i7-11xxx und den erwähnten Ryzen 9 5900 HX doch ganz gut mithalten kann. Beim Ryzen teilweise nur 1% Unterschied. Also wie man da auf "Schlaftablette" kommt...
Nano schrieb: > Es gibt bereits jetzt schnellere x86-64 CPUs: Wie schnell doch der Ruhm vergeht. Gerade erst war man überall beeindruckt, dass Apple mal kurz nen ARM aus dem Ärmel schüttelt ("pun intended"), der in der gleichen Liga wie die Top-Modelle von Intel und AMD spielen, und jetzt wird der neue Prozessor schon zum Flop deklariert, weil er nicht der schnellste Prozessor der Welt ist.
Nano schrieb: > Ein größerer Cache reduziert natürlich die Anzahl der notwendigen > Zugriffe auf den langsamen Hauptspeicher und darin liegt der > Geschwindigkeitsgewinn. Wobei man das durch alle 3 Cache-Levels rechnen muss, mit steigender Zugriffszeit höherer Levels. Allein den L1 Cache zu rechnen geht fehl. Nebeneffekte aufgrund der Struktur der Zusammenschaltung vieler Cores können Cache-Kapazitäten zudem schlecht vergleichbar machen, wenn es um den Last-Level-Cache geht, heutzutage den L3-Cache. Ein 16-Core Zen 2 hat zwar 64 MB L3-Cache, aber jede 4-Core-Gruppe sieht davon nur 16 MB und der Zugriff auf die L3s anderer Gruppen ist kaum schneller als aufs RAM. Das kann die Effektivität des L3-Caches stark von der Arbeitsweise eines Programms abhängig machen: Haben sehr viele Threads eines Prozesses häufigem Zugriff auf viel gemeinsamem Speicher, funktioniert der nicht mehr ganz so gut. Bei AMDs 64-Kernern gibts aufgrund von deren Struktur einige Tuning-Schrauben auf recht tiefer Ebene, deren Folgewirkungen auf Speichertransferrate und effektiver Zugriffszeit nicht leicht erfassbar sind.
Rolf M. schrieb: > jetzt wird der neue Prozessor schon zum Flop > deklariert, weil er nicht der schnellste Prozessor der Welt ist. Speziell im Mobilbereich sieht Apple verdammt gut aus. Das war schon vor den Mac so, auch Apples Prozessoren in Handys sind recht einsam an der Spitze. Samsungs Versuch, das mit selbst entworfenen Mongoose-Cores zu kopieren, ging ziemlich in die Hose und wurde mittlerweile eingestellt. Im Desktop-Bereich geht Intel bei der Verlustleistung in die Vollen. Da können bei normalen Desktops um die 250 W Leistung anfallen, so lange und so viel wie die Kühlung des Systems das hergibt. Das kann man getrost als Overclocking ab Werk betrachten. Was früher die Freaks machten, macht Intel nun selbst und und geht an die Grenze des Möglichen, um trotz der Malaise der letzten Jahre mitzuhalten zu können.
Florian S. schrieb: > 20+ Stunden Akkulaufzeit bei leichter Nutzung ist halt eine Ansage, da > werde ich mit meinem guten alten T420 Thinkpad schon etwas neidisch. > > Hier nur auf Cache-Größe und Benchmarks zu schauen wird dem nicht > gerecht, das Gesamtpaket ist ein mehr als ausreichend leistungsfähiges > Laptop, das viel länger mobil bleiben kann als die Konkurrenz. Der Dell XPS kommt auf ähnliche Werte, laut Werksangaben ca. 20 Stunden. Ich komme damit zumindest bei normaler Arbeit locker über einen Tag. Die Cache Grösse ist ein zweischneidiges Schwert - grosser Cache kostet viel Diefläche und VIEL Strom. Apple kann das nur machen, weil sie im neuesten Prozess fertigen. AMD hat ja vor kurzem einen neuen Chip rausgeschoben mit 96 MB L3 Cache, der die Intel Chips abhängt, die halt nur 32 MB L3 Cache haben. Der Performancezuwachs ist klar da (+10-20%), ist halt die Methode mit der Brechstange. Ob sich das aber finanziell rechnet? Was aber Apple klar besser macht, ist ein einheitliches Ökosystem zu haben. Die Sachen funktionieren, und sind auch nicht so viel teurer als ein Microsoft Surface oder ein Dell XPS. Bei allen drei bekommt man gute Qualität und aktuelles Design.
Nano schrieb: > da der Cache, wenn ich mich nicht irre, als SRAM > ausgeführt und mit vollem CPU Takt arbeitet Aber er braucht dazu einige Takte. L1 Zugriffszeit: AMD K5: 1 Takt Intel P5: 2 Takte Intel P6: 3 Takte Intel heute: 5 Takte, Limit ~5 GHz Apple M1: 3 Takte, Limit 3,2 GHz Hierin fehlt aber noch der Effekt der Way Prediction. Bei 8-Wege Assoziativität hat die zu Folge, dass nur 1/8 des L1-Caches in sofortigem Zugriff ist, der Rest kostet deutlich mehr. Kompensiert wird das teilweise durch ein ständig steigendes Out-Of-Order Fenster. Rekordhalter ist derzeit m.W. Apple mit gut 600 Befehlen.
:
Bearbeitet durch User
> Warum soll das falsch sein? Du selbst hast festgestellt, dass die Performance des ARMs an sich eher aermlich ist. Und um das ein wenig aufzupeppen, bekommt er eine Einspritzpumpe. Die nennt sich Cache... Mehr Hubraum ist das naemlich eher nicht. Mehr Hubraum waere: Noch mehr Kerne, ein verbessertes Instruction-Set, parallele/verbesserte ALUs, parallel arbeitende Adressierungseinheiten und mehrere Busse um das ganze zu versorgen. Das ist bei Apples ARM alles Fehlanzeige. Daher: Nur ein Rasenmaehermoter mit Einspritzung. Aber eben kein Sechs Liter Zwoelfzylinder.
(prx) A. K. schrieb: > Im Desktop-Bereich geht Intel bei der Verlustleistung in die Vollen. Da > können bei normalen Desktops um die 250 W Leistung anfallen Der Verbrauch beim normalen Arbeiten liegt sehr deutlich unter 40 Watt. Aktuelle Messungen siehe etwa hier: https://www.igorslab.de/was-taugt-der-intel-core-i5-12400-review-im-workstation-und-produktiveinsatz-wirklich-teil-2/9/ Klar, wenn du die CPU voll forderst, dann geht der Strom hoch, aber dafür bekommst du auch satte Rechenleistung. Der Laptop geht da nach einer halben Minute in die Knie, auch der Apple M1.
Cartman schrieb: > Und um das ein wenig aufzupeppen, bekommt er eine Einspritzpumpe. > Die nennt sich Cache... Das Gesamtpaket zählt. > Das ist bei Apples ARM alles Fehlanzeige. Pustekuchen. Der M1 ist breiter aufgelegt als sämtliche x86: #https://www.anandtech.com/show/16226/apple-silicon-m1-a14-deep-dive/2
udok schrieb: > Der Verbrauch beim normalen Arbeiten liegt sehr deutlich unter 40 Watt. Ja freilich. Aber es geht hier im Thread primär um Leistungsvergleiche in Benchmarks. Effektive Leistung bei normaler Nutzung ist davon völlig abgekoppelt.
udok schrieb: > Der Laptop geht da nach einer halben Minute in die Knie, auch der Apple > M1. Yep. Und dann zählt das, was mancher Benchmarker nicht mehr in Watt rechnet, sondern in Joule pro Aufgabe, und was branchenweit als Performance pro Watt bezeichnet wird. Da sieht Apple ziemlich gut aus. Genau das ist der Grund für die verschiedenen Cores auf einem Die, die seit langem in besseren Handys stecken, und die nun auch Alder Lake liefert. Die effizienteren Cores sind zwar kurzzeitig langsamer, aber wenn langfristig die Gesamtleistung thermisch begrenzt ist, können sie trotzdem die gleiche Aufgabe schneller lösen.
:
Bearbeitet durch User
(prx) A. K. schrieb: >> Der Verbrauch beim normalen Arbeiten liegt sehr deutlich unter 40 Watt. > > Ja freilich. Aber es geht hier im Thread primär um Leistungsvergleiche > in Benchmarks. Effektive Leistung bei normaler Nutzung ist davon völlig > abgekoppelt. Dann zeige mir mal einen Blender Benchmark mit dem M1 und den Stromverbrauch dazu. Die Vorgaben sind 73 Watt beim i5-12400 und 165 Watt beim i7-12700K. Ich behaupte: Der wird ähnlich hoch sein, wenn Leistung gefordert wird. Nur dass der M1 oder auch ein MS Surface im Gegensatz zum Desktop die Leistung nur eine halbe Minute bringt, dann taktet er runter. Was der M1 gut macht, sind spezielle Hardware-IP Blöcke, die etwa das Dekodieren eines Films erledigen. Das macht AMD/Intel aber auch. Ich sehe da nichts revolutionäres, das übliche Hypen durch die bezahlte Presse halt. Was aber stimmt ist, dass Arm Architektur jetzt ca. da steht wo auch Intel/AMD ist. Und ich freue mich auf die Antwort von Intel, etwas Konkurrenz schade nicht.
Beitrag #6944057 wurde von einem Moderator gelöscht.
Cartman schrieb im Beitrag #6944057:
> Und ich brauche keine Apple Gulag.
Verständlich, ist aber ein komplett anders Thema. Was auch immer Apple
als Walled Garden den Anwendern baut, deren Cores sind exzellent. Das
gilt auch für die Handys.
(prx) A. K. schrieb: > Genau das ist der Grund für die verschiedenen Cores auf einem Die, die > seit langem in besseren Handys stecken, und die nun auch Alder Lake > liefert. Die effizienteren Cores sind zwar kurzzeitig langsamer, aber > wenn langfristig die Gesamtleistung thermisch begrenzt ist, können sie > trotzdem die gleiche Aufgabe schneller lösen. Lange Zeit habe ich es umgekehrt gehört: Besser ist es schnelle Cores, zu haben, die die Aufgabe schnell erledigen und dann schlafen gehen. Ich gehe mal davon aus, dass das alles Marketinggeschwurbel ist, und Intel es nicht geschafft hat 16 P Cores auf dem Die unterzubringen. Besser wäre es doch, stromhungriges AVX oder grossen Cache abzuschalten, wenn der nicht gebraucht wird (was ja teilweise auch gemacht wird). Realität ist doch das heute ein i3 für 97% der Aufgaben überdimensioniert und wenn die SW Entwickler ihr Handwerk verstehen würden reicht auch ein Celeron locker. Es geht aber um das "haben wollen".
Hier sind ja doch richtige Experten und Spezialisten unterwegs! Fassen wir mal die Erkenntnisse zusammen: ... Nein - es lohnt eigentlich nicht, hier auf das stereotype Anti-Apple-Kauderwelsch einzugehen. Euch kann man nur viel Spass mit Euren Windows-Schrott wünschen!
udok schrieb: > Dann zeige mir mal einen Blender Benchmark mit dem M1 und den > Stromverbrauch dazu. Die Vorgaben sind 73 Watt beim i5-12400 und 165 > Watt beim i7-12700K. 35W im MacBook Pro 14". https://www.computerbase.de/2021-11/apple-macbook-pro-14-m1-pro-test/3/#diagramm-blender-benchmark-10-beta-2
udok schrieb: > Dann zeige mir mal einen Blender Benchmark mit dem M1 und den > Stromverbrauch dazu. Die Vorgaben sind 73 Watt beim i5-12400 und 165 > Watt beim i7-12700K. Bereits bei gleicher Hardware, ob AMD oder Intel, lässt sich zeigen, dass bei Aufgaben mit langer Laufzeit ein geschicktes Scheduling der Taktfrequenz zu deutlichen Unterschieden in der Laufzeit führt. Und zwar dergestalt, dass bei gleichem Prozessor eine niedrigere maximale Taktfrequenz zu einer kürzeren Erledigung der Aufgabe führen kann. Denn die Leistung wächst quadratisch mit der Frequenz, die Laufzeit sinkt aber nur linear. Ist die Dauerleistung thermisch limitiert, wie seit langem allgemein üblich, spielt die Effizienz eine grosse Rolle. Mit welcher Taktfrequenz und Versorgungsspannung welche Core-Typen wie lange betrieben werden, ist aufgrund des begrenzten Budgets an Joule(mobil) und Kühlung(immobil) eine der wichtigsten Wissenschaften heutiger Prozessoren. Erledigt wird das überwiegend in einer an den Prozessor angepassten Komponente des Betriebssystems, assistiert von etwas Hardware. Alder Lake hat neuartige spezielle Hardware drin, um dieser Software dabei zu helfen. Verschiedene Cores benötigen für die gleiche Aufgabe unterschiedlich viel Joule. Darin geht die Fabrikationstechnik ein, aber auch die Mikroarchitektur.
Reinhard S. schrieb: >> Dann zeige mir mal einen Blender Benchmark mit dem M1 und den >> Stromverbrauch dazu. Die Vorgaben sind 73 Watt beim i5-12400 und 165 >> Watt beim i7-12700K. > > 35W im MacBook Pro 14". > > https://www.computerbase.de/2021-11/apple-macbook-pro-14-m1-pro-test/3/#diagramm-blender-benchmark-10-beta-2 Das sind ca. 9 Wh Energie beim M1. Im zuvor verlinkten Blender Benchmark braucht die Intel CPU 12 Wh. Das sind immerhin 25% weniger Stromverbrauch. Das ist gut, aber ich hätte mir von einer Mobil-CPU im Verbleich zu einer Desktop-CPU mehr erwartet.
udok schrieb: > Lange Zeit habe ich es umgekehrt gehört: Besser ist es schnelle Cores, > zu haben, die die Aufgabe schnell erledigen und dann schlafen gehen. Das gilt für kurzzeitige Aufgaben wie dem Rendering von Webseiten auch heute noch. Aber das Ziel davon ist nicht, möglichst wenig Joule aus dem Akku zu ziehen, sondern die Seite möglichst schnell darzustellen. Thermisch ist das unproblematisch, weil danach genug Zeit bleibt, wieder runter zu kühlen. Der Akkuverbrauch ist jedoch höher, wenn die Seite mit maximaler Leistung der Performance-Cores gerendert wird, als wenn dafür die Efficiency-Cores des Alder Lake oder Handyprozessors genutzt werden, oder wenn die gleichen Cores diese Aufgabe mit halber Taktfrequenz und entsprechend niedrigerer Corespannung rechnen. Nur dauert das dann länger, und bei interaktiver Anwendung ist das entscheidend. Heutige Prozessoren, egal ob für Notebook oder Desktop, können bei Vollgas aller Cores weitaus mehr Watt produzieren, als ein normale gebautes System auf Dauer wegstecken kann. Kurzzeitig landet das in der Wärmekapazität des Kühlsystems. Langfristig wird abgeregelt. > Ich gehe mal davon aus, dass das alles Marketinggeschwurbel ist, Nicht alles, was man selbst nicht versteht, ist gelogen.
Nano schrieb: > anstatt die Motoren zu optimieren um > bei kleinerem Hubraum trotzdem durch eine bessere Optimierung noch mehr > Leistung rauszuholen. ... und damit den Verschleiß zu erhöhen.
udok schrieb: > und wenn die SW Entwickler ihr Handwerk verstehen würden reicht auch > ein Celeron locker. Es geht aber um das "haben wollen". Es hängt auch davon ab, was man mit dem Gerät macht. Vollgestopfte Webseiten von News-Medien sind eine völlig andere Aufgabe, als Videobearbeitung oder FPGA-Simulation. Für die Webseiten braucht man nur wenig Cores, die sollten aber kurzfristig schnell genug sein. Massgeblich ist also die kurzfristige single-thread Performance. Dafür ist mehr als Quadcore rausgeworfenes Geld. Aktuelle Videobearbeitung nutzt aber sämtliche Cores parallel, evtl auch die GPU. Ist Zeit Geld, ist der Celeron dabei effektiv teurer als als der i9 oder ein Highend-Ryzen.
:
Bearbeitet durch User
(prx) A. K. schrieb: > udok schrieb: >> Der Laptop geht da nach einer halben Minute in die Knie, auch der Apple >> M1. > > Yep. Und dann zählt das, was mancher Benchmarker nicht mehr in Watt > rechnet, sondern in Joule pro Aufgabe, und was branchenweit als > Performance pro Watt bezeichnet wird. Da sieht Apple ziemlich gut aus. Das mag beim Laptop wichtig sein, wenn man lange Laufzeit haben will und in Rechenzentren, aber im Desktop-Bereich zählt bei rechenaufwändigen Aufgaben die reine Performance oft mehr, als dass es dabei noch möglichst effizient ist. > Genau das ist der Grund für die verschiedenen Cores auf einem Die, die > seit langem in besseren Handys stecken, und die nun auch Alder Lake > liefert. Ich hab bis heute nicht verstanden, warum Intel damit ausgerechnet bei den dicken Desktop-Prozessoren debütiert.
Nano schrieb: > Ach ja, das wichtigste habe ich vergessen. > Ein größerer Cache reduziert natürlich die Anzahl der notwendigen > Zugriffe auf den langsamen Hauptspeicher und darin liegt der > Geschwindigkeitsgewinn. Dem Gegenüber steht das der Zugriff über grössere Caches länger dauert, das ist also ein Trade-Off.
Rolf M. schrieb: > Ich hab bis heute nicht verstanden, warum Intel damit ausgerechnet bei > den dicken Desktop-Prozessoren debütiert. Alder Lake ist kein reiner Desktop-Prozessor. Die Modellpalette deckt das gesamte Spektrum ab, vom Gamerboliden bis zum Notebook. Auch beim 35W-Desktop im kleinen und leisen Bürogehäuse spielt Efficiency eine wesentliche Rolle. Er ist auch nicht der erste. Die Betaversion war der für Tablets und Ultramobiles gebaut Lakefield, der obendrein klein genug war, um trotz der damals miserablen Ausbeute der 10nm Technik produziert werden zu können. Der hatte 4 Efficiency-Cores und 1 Performance-Core. Allerdings musste Windows erst einmal lernen, wie man damit umgeht. Obendrein waren entsprechende Systeme (ein Surface und ein Samsung) für das Ergebnis zu teuer.
Rolf M. schrieb: > Das mag beim Laptop wichtig sein, wenn man lange Laufzeit haben will und > in Rechenzentren, aber im Desktop-Bereich zählt bei rechenaufwändigen > Aufgaben die reine Performance oft mehr, als dass es dabei noch > möglichst effizient ist. Dachte sich Intel beim Pentium 4 auch, fiel damit aber gründlich auf die Nase. Die auf den Pentium 4 folgende Mikroarchitektur leitete sich deshalb aus dem Pentium M ab, der parallel zum P4 für Mobilanwendungen aus dem alten Pentium Pro/II/III Core weiterentwickelt worden war. Intel lernte, dass Effizienz auch im Desktop wichtig geworden war, denn auch da begrenzt das thermische Budget längst die Leistungsfähigkeit.
:
Bearbeitet durch User
(prx) A. K. schrieb: >> Ich gehe mal davon aus, dass das alles Marketinggeschwurbel ist, > > Nicht alles, was man selbst nicht versteht, ist gelogen. Das wird schon stimmen... Aber es ist ein leichtes einen schnellen Prozessor runterzutakten, um nicht ins thermische Limit zu kommen. Da ist auch nichts mit quadratischer Abhängigkeit der Leistung, da sich die Core-Spannung bei niedriger Leistung nicht verändert. Wichtig ist nur die Leckströme klein zu halten, und nicht benötigte Blöcke komplett abzuschalten. Dann kann man auch super-performante Kerne verwenden, und hat hohe Leistung und niedrigen Verbrauch in einem. Kostet halt mehr. Und das Intel Budget für den Alder Lake hat nicht für 16 P Kerne gereicht. Um noch mal den Benchmark von igorslab anzuschauen: https://www.igorslab.de/was-taugt-der-intel-core-i5-12400-review-im-workstation-und-produktiveinsatz-wirklich-teil-2/9/ Da sieht man die verbrauchten Ws (Joule) für den Blender Job. Ein i5-12400 liegt bei 12, ein i7-121600k bei 13.8 Ws. Wenn man davon ausgeht, dass die K Prozessoren (für Overclocker gebaut) auf Speed ausgewählt sind, dann sieht man dass die nicht getestete Mobil Prozessoren sicher noch mal 2-3 Watt weniger brauchen werden, und die liegen damit gleichauf mit dem Apple M1. Also die Revolution des M1 liegt nicht im technischen Bereich, sondern im kommerziellen. Apple macht sein eigenes Ding mit völliger Kontrolle, und hat damit ganz höhere Margen, und kann Intel aus dem Bereich rausdrängen.
udok schrieb: > Da ist auch nichts mit quadratischer Abhängigkeit der Leistung, > da sich die Core-Spannung bei niedriger Leistung nicht verändert. Doch, genau das geschieht. Aktuelle Prozessoren von Intel wie von AMD können jeden Core individuell takten und versorgen dafür jeden einzelnen Core mit dem angepasster Spannung. Einige Intels tut das mit internen Schaltreglern, sonst mit internen Linearreglern. Auch linear geregelt ist das aufgrund der quadratischen Abhängigkeit der Schaltverluste günstiger. Es ist die Aufgabe von Software, das passend einzustellen. Und das geschieht auch. Diese Software-Komponente gehört zu jenen Teilen eines Betriebssystem, die bei neuen CPUs und relativ altem Linux-Kernel zum Problem werden können. Soll heissen: Neuere Kernels können allein dadurch bereits die Performance des eigenen Rechners verbessern.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Doch, genau das geschieht. Aktuelle Prozessoren von Intel wie von AMD > können jeden Core individuell takten und versorgen dafür jeden einzelnen > Core mit dem angepasster Spannung. Das stimmt schon, nur in einem Mobilprozessor ist die Spannung sowieso immer ganz unten um Leistung zu einzusparen.. da ist nicht viel Spielraum zum Regeln.
udok schrieb: > Wichtig ist nur die Leckströme klein zu halten, und nicht benötigte > Blöcke komplett abzuschalten. Auch, aber nicht "nur". Auch ohne Betrachtung des Leckstroms kostet jeder Schaltvorgang Energie in quadratischer Abhängigkeit von der Spannung. Diese Energie gering zu halten, ist seit langem ein wichtiges Ziel der Prozessorentwicklung und des Prozessorbetriebs.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Dachte sich Intel beim Pentium 4 auch, fiel damit aber gründlich auf die > Nase. Die auf den Pentium 4 folgende Mikroarchitektur leitete sich > deshalb aus dem Pentium M ab, der parallel zum P4 für Mobilanwendungen > aus dem alten Pentium Pro/II/III Core weiterentwickelt worden war. Intel > lernte, dass Effizienz auch im Desktop wichtig geworden war, denn auch > da begrenzt das thermische Budget längst die Leistungsfähigkeit. Intel ist damit keineswegs auf die Nase gefallen, sondern hat sich eine goldene Nase verdient. Damals war das auch die einzig richtige Strategie, Multicore wurde ja noch von keiner SW unterstützt.
udok schrieb: > Das stimmt schon, nur in einem Mobilprozessor ist die Spannung sowieso > immer ganz unten um Leistung zu einzusparen.. da ist nicht viel > Spielraum Wie wärs, wenn du dich mal informierst, bevor du rätst? Das fällt allmählich auf. Die Cores meines Tiger Lake Mobilprozessors liegen im ad hoc Test bei ~0,65 V in idle. Ein Core mit Arbeit kann aber auch bei ~1,05 V liegen.
:
Bearbeitet durch User
udok schrieb: > Intel ist damit keineswegs auf die Nase gefallen, sondern hat sich eine > goldene Nase verdient. Intel hat die Netburst Architektur aufgegeben, weil sie effektiv am thermischen Problem scheiterten. AMD war in dieser Zeit mit den Prozessoren auf K8 Basis klar überlegen. Das Intel damit trotzdem viel Geld verdiente, lag nicht an der Technik
Sagte ich doch. Im Idle kannst du nichts runterregeln, und bei Last wird die Spannung dem Takt angepasst, oder was meinst du? Ein Prozessor mit kleinerer Peak-Performance hat da keinen Vorteil, ausser dass er weniger kostet. Vor allem wenn der zwangsläufig mit demselben Prozess gefertigt wird wie die Performance Kerne beim Alder Lake. Das bringt dann nichts.
udok schrieb: > Damals war das auch die einzig richtige Strategie, Multicore wurde ja > noch von keiner SW unterstützt. Der Software ist es egal, ob die Cores im gleichen Sockel stecken, oder in mehreren. Mehrsockel-Systeme gab es bereits bei ersten Pentium (P5), damit dann auch Betriebssysteme, die das nutzen konnten. Anwendungssoftware hoppelte je nach Sparte zwar deutlich hinterher. Das spielt aber bei Servern keine entscheidende Rolle. Wir setzten damals im Unternehmen mit Verfügbarkeit geeigneter Server fast ausschliesslich AMDs Dual- und Quad-Opterons ein, keine Intel P4. Damit fuhren wir sehr gut.
:
Bearbeitet durch User
udok schrieb: > Sagte ich doch. Im Idle kannst du nichts runterregeln, und bei Last wird > die Spannung dem Takt angepasst, oder was meinst du? Du schriebst, der Spielraum sei gering. Ich würde einen Spielraum von 0,6-1,1V nicht als gering bezeichnen. Die Situation ist bei Notebooks und Desktops übrigens ähnlich. Auch Desktops werden längst so betrieben.
M.E. sollte man nicht nur den Rechner in die Betrachtung einbeziehen, sondern auch die Software die darauf laufen soll. Wenn die Software an Apple-Hardware angepasst ist, wird sie schon schnell genug laufen. Anders als bei Windows-Software, die auf vielen unterschiedlichen Hardware-Konfigurationen laufen muss.
udok schrieb: > Vor allem wenn der zwangsläufig mit demselben Prozess gefertigt wird wie > die Performance Kerne beim Alder Lake. Das bringt dann nichts. Gewusst, oder einfach in den Ring geworfen? Wenn ein Mobilprozessor ein ähnliches oberes Taktlimit wie ein Desktopprozessor der gleichen Familie hat, sind keine verschiedenen Fabrikationsprozesse im Spiel und der verwendete Prozess eignet sich offenbar für Mobil- und Desktopbereich.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Gewusst, oder einfach in den Ring geworfen? > Wenn ein Mobilprozessor ein ähnliches oberes Taktlimit wie ein > Desktopprozessor der gleichen Familie hat, sind keine verschiedenen > Fabrikationsprozesse im Spiel und der verwendete Prozess eignet sich > offenbar für Mobil- und Desktopbereich. Gut dass du offenbar alles weisst. Schau mal raus, da scheint die Sonne! Schönen Tag, Udo
René H. schrieb: > M.E. sollte man nicht nur den Rechner in die Betrachtung einbeziehen, > sondern auch die Software die darauf laufen soll. Da hast du 100% recht. Wenn die SW schlecht optimiert ist, oder auch nur die neuen Features nicht ausnützt, macht das schnell mal mehr als einen Faktor 2 aus. Das sieht man sehr schön am AMD/Intel Performance Library Streit. AMD ist zu faul eine ordentliche Performance Lib zu bauen, mit dem Ergebnis dass wissenschaftliche SW mit bis zu einem Faktor 2-10 schneller auf Intel CPUs läuft. Apple hat das längst kapiert und liefert gut optimierte SW mit. Aber jetzt wirklich davon - draussen wartet die Sonne.
(prx) A. K. schrieb: > Rolf M. schrieb: >> Ich hab bis heute nicht verstanden, warum Intel damit ausgerechnet bei >> den dicken Desktop-Prozessoren debütiert. > > Alder Lake ist kein reiner Desktop-Prozessor. Die Modellpalette deckt > das gesamte Spektrum ab, vom Gamerboliden bis zum Notebook. Allerdings kamen die Desktop-CPUs zuerst raus, wenn auch der zeitliche Abstand nicht sonderlich groß war. > Auch beim 35W-Desktop im kleinen und leisen Bürogehäuse spielt Efficiency > eine wesentliche Rolle. Aber dennoch weniger als bei einem Laptop. Außerdem wird man das low-power-Bürosystem auch nicht unbedingt mit einem i7 oder i9 ausstatten. > Er ist auch nicht der erste. Die Betaversion war der für Tablets und > Ultramobiles gebaut Lakefield, der obendrein klein genug war, um trotz > der damals miserablen Ausbeute der 10nm Technik produziert werden zu > können. Ok, das wusste ich noch nicht. (prx) A. K. schrieb: > Rolf M. schrieb: >> Das mag beim Laptop wichtig sein, wenn man lange Laufzeit haben will und >> in Rechenzentren, aber im Desktop-Bereich zählt bei rechenaufwändigen >> Aufgaben die reine Performance oft mehr, als dass es dabei noch >> möglichst effizient ist. > > Dachte sich Intel beim Pentium 4 auch, fiel damit aber gründlich auf die > Nase. Das Problem des P4 war, dass er trotz gewaltiger Leistungsaufnahme nicht sonderlich flott war. Mir kam es so vor, als ob sie versucht haben, einen Prozessor mit möglichst hohem Takt zu bauen, damit sie größere Zahlen auf die Schachtel schreiben können. Denn bei mehr Gigahertzen freut sich auch das Marketinghertz. AMD hat glückerweise diesen Blödsinn nicht mitgemacht und dann lieber "QuantiSpeed-Rating" eingeführt. > Die auf den Pentium 4 folgende Mikroarchitektur leitete sich > deshalb aus dem Pentium M ab, der parallel zum P4 für Mobilanwendungen > aus dem alten Pentium Pro/II/III Core weiterentwickelt worden war. Ja, das war dann die Core-Architektur. Der Pentium M war halt richtig gut, der Pentium 4 richtig schlecht. > Intel lernte, dass Effizienz auch im Desktop wichtig geworden war, denn > auch da begrenzt das thermische Budget längst die Leistungsfähigkeit. Ich wollte damit ja nicht sagen, dass Effizienz überhaupt keine Rolle spielt. Natürlich muss sie immer noch so gut sein, dass das System seine Leistung auch nutzen kann. Im Desktop-Bereich gibt's dafür halt deutlich mehr Spielraum als bei flachen Notebooks. Außerdem ist es natürlich auch noch entscheidend, ob die Konkurrenz ein effizienteres System hat, das genau so schnell ist.
Rolf M. schrieb: > Das Problem des P4 war, dass er trotz gewaltiger Leistungsaufnahme nicht > sonderlich flott war. Kein Widerspruch. Dazwischen gab es aber einen gewissen Zusammenhang. Der P4 war in voller Absicht als Speed Daemon für extreme Taktfrequenzen konstruiert, die er aber aufgrund der ebenso extremen Wärmeentwicklung nur mit Kühlung durch Flüssigstickstoff erreichte. Er war zu langsam, weil er zu warm wurde. Es gab allerdings noch ein paar recht spezifische Probleme, weil Intel bei der Implementierung keine Rücksicht auf bestehenden Code nahm. Alter Code konnte bei häufiger Nutzung früher völlig normaler Befehle ziemlich bös durchfallen. Das hatte bei uns zu ein paar etwas wackligen Athlon-PCs vom PC-Händler um die Ecke geführt, weil es von den üblichen Server-Herstellern noch keine gab und die alten Pentium III zu langsam waren.
:
Bearbeitet durch User
Rolf M. schrieb: > einen Prozessor mit möglichst hohem Takt zu bauen, damit sie größere > Zahlen auf die Schachtel schreiben können Nicht der Zahlen wegen, sondern als grundsätzlicher Ansatz. Die Konkurrenz zwischen Speed Daemon (hoher Takt, wenig Parallelität) und Brainiac (umgekehrt) ist wesentlich älter als der P4. DEC Alpha taktete eine Zehnerpotenz früher ungefähr doppelt so schnell wie die dickere POWERx Konkurrenz von IBM. Aus dieser Ära stammen die beiden Begriffe. Intels Netburst-Architektur hatte später die Rolle des Speed Daemons, AMDs K8-Architektur die des Brainiacs. AMD gewann. Speed Daemons sind aufgrund des thermischen Problems ausgestorben, aber das wurde erst dadurch klar. Zwischendurch hatte IBM sich intern eine ähnliche Konkurrenz gemacht. Damals gab es gleichzeitig die Entwicklungslinie der POWER Prozessoren und die aus dem AS400 Ersatz stammenden aber auch in AIX verfügbaren RS64 Prozessoren mit gleichem Befehlssatz. Die POWERs takteten wesentlich schneller und waren es im Workstation-Profil auch, aber die RS64er hatten eine extrem kurze Pipeline, weshalb sie bei entscheidungsintensivem Datenbank-Code gut dastanden.
:
Bearbeitet durch User
Rolf M. schrieb: > Der Pentium M war halt richtig > gut, der Pentium 4 richtig schlecht. Der Pentium M wurde auch vom Intel Team in Israel entwickelt. Der Pentium 4 stammte dagegen meines Wissens nach vom Team in Kalifornien und die haben auch den Itanium entworfen. Die guten Intel Architekturen kamen meist vom Team aus Israel. Der Grund warum könnte am unterschiedlichen Bildungssystem liegen. Das dürfte hier schon was ausmachen.
Rainer Z. schrieb: > Wir müssen Apple allerdings > zugestehen, dass dieses Unternehmen es durch geschicktes Marketing > selbst erreicht hat und somit maximalen Profit aus mittelmäßigen > Produkten rausschlagen kann. Um nix anderes geht es und deren berühmte > Design- und Markenaffinen, aber technisch ahnungsfreien Jünger laufen > seit Jahrzehnten brav hinterher. Die Welt will betrogen werden. Und du siehst überall nur Betrug und das Ende des Abendlandes? Gehts nicht mal ne Nummer kleiner? Man kann über Apple sagen was man möchte, aber was ich so mitkriege funktionieren deren Produkte ganz gut und die Qualität passt auch. Diese Meinung höre ich nicht nur von Apple-Hipstern sondern von durchaus technisch versiertem Personal. Ich selber kann dazu nichts sagen weil ich, außer einem kurzen iPhone-Intermezzo um 2009 herum, nie ein Apple-Produkt besaß. Gut, über den Preis kann man meckern. Aber einen Preisaufschlag von 50%-100% (frei aus der Hüfte geschätzt) gegenüber Mitbewerbern finde ich noch im Rahmen. Das gönnen sich Premium-Autoschmieden oder Hersteller von namhaften Werkzeugen, Bohrmaschinen und Arbeitskleidung auch. Und es ist ja nicht so als bekäme man nichts für sein Geld. Von Wucher oder Betrug sind wir hier noch meilenweit entfernt, lasst doch die Kirche mal im Dorf.
:
Bearbeitet durch User
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.