Forum: PC Hard- und Software Apple M1 CPU wirklich so gut?


Announcement: there is an English version of this forum on EmbDev.net. Posts you create there will be displayed on Mikrocontroller.net and EmbDev.net.
von Kalle (Gast)


Bewertung
-4 lesenswert
nicht lesenswert
Ist die Apple M1 CPU wirklich so gut und schneller was es sonst von 
Intel bezahlbar für den Desktop gibt? Oder ist das das übliche 
Marketinggeschwätz von Apple?

von Knösel (Gast)


Bewertung
0 lesenswert
nicht lesenswert
Es scheint so. Erstaunlich, daß Apple die Platzhirsche amd/intel so 
übertrumpfen konnte. Insgesamt ist die CPU allerdings nicht interessant, 
da sie ja wohl nur signierten Code etc. nach Gutdünken des Hauses A 
ausführen wird.

von (prx) A. K. (prx)


Bewertung
3 lesenswert
nicht lesenswert
Knösel schrieb:
> Erstaunlich, daß Apple die Platzhirsche amd/intel so übertrumpfen
> konnte.

Bei Handys konnte man schon früher erkennen, dass Apple gegenüber den 
Cores von ARM selbst und von anderen wie Samsung deutlichen Abstand 
hatte.

Es gibt Gründe, die gegen x86 sprechen, die RISC bevorzugen: hochgradig 
parallele Decodierung gehört dazu. Man nahm an, dass sich das ob des 
Aufwands, den Intel und AMD trieben, einigermaßen erledigt hatte. Und 
sieht sich nun korrigiert.

: Bearbeitet durch User
von Kolja (Gast)


Bewertung
2 lesenswert
nicht lesenswert
Die Tatsache das Software und Hardware aufeinander abgestimmt werden 
können, ist bestimmt nicht von Nachteil für Effizienz und 
Geschwindigkeit.

von Nop (Gast)


Bewertung
0 lesenswert
nicht lesenswert
Ein ganz wesentlicher Faktor ist die Tatsache, daß Apple mit 5nm 
produzieren läßt und deswegen ziemlich große Caches verbauen kann. Ein 
zweiter, daß das RAM verlötet ist und deswegen LPDDR4-4266 zum EInsatz 
kommt.

Bedenkt man dies, dann ist der Abstand gegenüber AMDs 4000er Ryzens 
nicht mehr sonderlich groß - und ganz besonders hat das nichts mit dem 
Mythos zu tun, daß x86 ineffizient sei und ARM effizient.

von (prx) A. K. (prx)


Bewertung
1 lesenswert
nicht lesenswert
Nop schrieb:
> deswegen ziemlich große Caches verbauen kann

Wobei besonders die L1 Caches ungewöhnlich gross sind. Was in der 
bisherigen Geschichte von Prozessoren mit höherer Zugriffszeit oder 
deutlich begrenzter Taktrate einher ging.

Nop schrieb:
> Ein zweiter, daß das RAM verlötet ist und deswegen LPDDR4-4266
> zum EInsatz kommt.

Der Unterschied gegenüber Laptops mit Intel und AMD ist eher, dass es 
direkt auf dem SoC mit drauf ist. So sind auch Renoir Laptops oft mit 
8GB oder 16GB auf dem Board verlötetem DRAM dieses Typs ausgestattet, 
deshalb auch nicht erweiterbar.

Und das ist gleichzeitig auch ein Problem bei allen Geräten dieser 
Bauweise, denn 32GB Varianten (oder mehr) werden damit bisher nur wenige 
angeboten, sind aber angesichts der Leistungsfähigkeit dieser 
Prozessoren sehr wohl interessant.

: Bearbeitet durch User
von Thomas (Gast)


Bewertung
-1 lesenswert
nicht lesenswert
Ich denke auch es hat damit zu tun dass apple direkt auf 5nm gegangen 
ist.
Intel und amd sind ja beide bei 7nm, scheinbar haben da die fabs, vor 
allem tsmc schneller eine neue node eingeführt als den beiden lieb war.
Hab gehört Intel will erst 2023 5nm Produkte rausbringen.

von Rolf M. (rmagnus)


Bewertung
2 lesenswert
nicht lesenswert
(prx) A. K. schrieb:
> Und das ist gleichzeitig auch ein Problem bei allen Geräten dieser
> Bauweise, denn 32GB Varianten (oder mehr) werden damit bisher nur wenige
> angeboten, sind aber angesichts der Leistungsfähigkeit dieser
> Prozessoren sehr wohl interessant.

Der Apple-Prozessor kann anscheinend nicht mal 32 GB. Für ein Macbook 
Pro ist das etwas ärmlich.

von (prx) A. K. (prx)


Bewertung
2 lesenswert
nicht lesenswert
Thomas schrieb:
> Intel und amd sind ja beide bei 7nm

Intel ist bei 10nm, wobei das wohl ungefähr mit TSMCs 7nm Prozess 
vergleichbar ist. Und Intels 10nm Prozess hat eine lange Geschichte von 
Problemen, die dazu führen, dass sie sich zwecks halbwegs nutzbarer 
Ausbeute in der Die-Fläche von unten nach oben hochhangeln, mit kleinen 
Notebook-CPUs anfangen müssen.

: Bearbeitet durch User
von (prx) A. K. (prx)


Bewertung
1 lesenswert
nicht lesenswert
Thomas schrieb:
> Intel und amd sind ja beide bei 7nm, scheinbar haben da die fabs, vor
> allem tsmc schneller eine neue node eingeführt als den beiden lieb war.

AMD produziert die CPU-Dies bei TSMC. Mit dem Zen 2 / Ryzen 3000 waren 
sie volles Risiko gegangen, ihn für eine Fabtechnik zu entwickeln, von 
der zu dem Zeitpunkt völlig unsicher war, wann sie wie gut sein würde. 
Intel tat das anfangs bei der 10nm Technik ebenso, die frühere Tic-Toc 
Strategie ignorierend. AMD hatte damit Glück, Intel nicht.

von Thomas (Gast)


Bewertung
-1 lesenswert
nicht lesenswert
(prx) A. K. schrieb:
> Intel ist bei 10nm, wobei das wohl ungefähr mit TSMCs 7nm Prozess
> vergleichbar ist.

Stimmt, die bezeichnungen werden aber sowieso eher in der 
marketingabteilung geschaffen.

Aber scheinbar gibt es da ein echtes gap das eben apple und evtl in 
zukunft noch ein paar andere erkennen: tsmc will 2023 schon 3nm risk 
production einführen, intel will dort eben erst auf 5nm wechseln, dafür 
dürfte der prozess dann mehr ausgereift sein, oder auch nicht wie man 
bei den 10nm gesehen hat. wenn tsmc bei 3nm einen vernünftigen 
production yield zusammenbringt kann das einiges an marktanteilen 
kosten.

von Kolja (Gast)


Bewertung
0 lesenswert
nicht lesenswert
Rolf M. schrieb:
> Der Apple-Prozessor kann anscheinend nicht mal 32 GB. Für ein Macbook
> Pro ist das etwas ärmlich.

Aus welcher Quelle scheint diese Info zu kommen?
Hoffentlich doch nicht nur aus der Tatsache, dass die erste Generation 
der Prozessoren (in dem MacBook Air und dem Macmini) gerade auf dem 
Markt ist.

von Nop (Gast)


Bewertung
5 lesenswert
nicht lesenswert
Kolja schrieb:

> Hoffentlich doch nicht nur aus der Tatsache, dass die erste Generation
> der Prozessoren (in dem MacBook Air und dem Macmini) gerade auf dem
> Markt ist.

Apple sieht im Moment keinen Markt für mehr RAM, was allerdings auch an 
den völlig absurden Preisen liegen dürfte, die Apple verlangt.

Das setzt sich übrigens nahtlos bei der SSD fort, wo laut der deutschen 
Apple-Webseite je zusätzliche 256 GB satte 224 Euro fällig werden. Auf 
dem freien Markt bekommt man z.B. eine Samsung Evo 970 Plus M.2 NVMe mit 
1 TB schon für 165 Euro!

Die Apple-Abzocke erreicht da echt ein neues Niveau.

von Rolf M. (rmagnus)


Bewertung
1 lesenswert
nicht lesenswert
Kolja schrieb:
> Rolf M. schrieb:
>> Der Apple-Prozessor kann anscheinend nicht mal 32 GB. Für ein Macbook
>> Pro ist das etwas ärmlich.
>
> Aus welcher Quelle scheint diese Info zu kommen?

Das steht eigentlich überall, wo technische Daten des Prozessors stehen.
Auf 
https://www.heise.de/news/ARM-Macs-Mehr-Details-zum-Apple-M1-4958755.html 
steht, dass der Speichercontroller nicht mehr als 16 GB ansprechen kann.

> Hoffentlich doch nicht nur aus der Tatsache, dass die erste Generation
> der Prozessoren (in dem MacBook Air und dem Macmini)

... und eben dem Macbook Pro.

> gerade auf dem Markt ist.


Nop schrieb:
> Apple sieht im Moment keinen Markt für mehr RAM, was allerdings auch an
> den völlig absurden Preisen liegen dürfte, die Apple verlangt.

Und daran, dass es für Apple ja viel besser ist, wenn die Nutzer später, 
wenn 16 GB nicht mehr reichen, nicht upgraden können und dann gleich den 
ganzen Rechner neu kaufen müssen. Würde man jetzt gleich 32 GB anbieten, 
könnten die Nutzer das schon jetzt kaufen und könnten den Rechner so 
länger nutzen.

von (prx) A. K. (prx)


Bewertung
3 lesenswert
nicht lesenswert
Thomas schrieb:
> tsmc will 2023 schon 3nm risk
> production einführen, intel will dort eben erst auf 5nm wechseln,

Bei TSMC vs Intel lief es schon seit langer Zeit so, dass TSMC bei der 
nominellen Strukturgrösse stets vor Intel lag, die aber effektiv 
ungefähr vergleichbar waren. Wenn also TSMC bei 3nm liegt und Intel bei 
5nm, muss das nichts heissen. Neu war nur, wie sehr Intel den 10nm 
Prozess vergeigte.

: Bearbeitet durch User
von Nano (Gast)


Bewertung
0 lesenswert
nicht lesenswert
Nop schrieb:
> Ein
> zweiter, daß das RAM verlötet ist und deswegen LPDDR4-4266 zum EInsatz
> kommt.

Ist die Anbindung auch 64 bittig wie bei normalen DDR4 Modulen oder geht 
man einen breiteren Weg wie bei dedizierten GPUs?

von Nano (Gast)


Bewertung
-1 lesenswert
nicht lesenswert
Knösel schrieb:
> Insgesamt ist die CPU allerdings nicht interessant,
> da sie ja wohl nur signierten Code etc. nach Gutdünken des Hauses A
> ausführen wird.

Und wie sollen die Nutzer auf Applegeräten programmieren lernen können 
wenn nur noch signierter Code ausgeführt wird?

Wie kriegt man seine Open Source Programme zum laufen, von denen viele 
auch unter Windows keine Signatur haben?

von Knösel (Gast)


Bewertung
-1 lesenswert
nicht lesenswert
Nano schrieb:
> Wie kriegt man seine Open Source Programme zum laufen, von denen viele
> auch unter Windows keine Signatur haben?

Gar nicht. Das ist ja das schöne an der Apple Welt. Software bekommst du 
sowieso nur noch durch genehme Apple Distribution.

von Nick M. (muellernick)


Bewertung
-1 lesenswert
nicht lesenswert
Nano schrieb:
> Und wie sollen die Nutzer auf Applegeräten programmieren lernen können
> wenn nur noch signierter Code ausgeführt wird?

Du wirst deinen code signieren können. Ging immer schon wenn es 
erforderlich war.

von (prx) A. K. (prx)


Bewertung
0 lesenswert
nicht lesenswert
Nano schrieb:
> Wie kriegt man seine Open Source Programme zum laufen, von denen viele
> auch unter Windows keine Signatur haben?

Ich schätze, dass Apple nicht alle Programme selbst entwickeln will, 
also ein Entwickler seinen Code nicht für jeden Testlauf zu Apple 
schicken muss. Ich könnte mir aber vorstellen, dass Binärcode aus 
fremder Quelle durch den Filter von Apples Shop muss.

von Gustl B. (-gb-)


Bewertung
0 lesenswert
nicht lesenswert
Nun ...

der M1 ist jetzt am Anfang ein SoC für den unteren Preisbereich und auch 
für den unteren Leistungsbereich. Dafür hat der auch nur eine geringe 
Leistungsaufnahme.
Der ist daher auch in genau den Produkten die bisher auch mit 
schwächeren Intel CPUs ausgestattet wurden:
Air, kleines Macbook Pro, Mini.

Es gab auch immer dickere Modelle vom Macbook Pro und auch vom Mini. 
Dafür ist dieser SoC aber vermutlich nicht gedacht.

Meine Vermutung:
Es kommt noch mindestens eine weitere Variante vom SoC für die stärkeren 
Modelle vom Macbook Pro, für das Highend-Modell vom Mini und eben auch 
für iMac und Mac Pro. Die bieten dann mehr RAM und mehr TB Anschlüsse.

Rolf M. schrieb:
> Das steht eigentlich überall, wo technische Daten des Prozessors stehen.
> Auf
> https://www.heise.de/news/ARM-Macs-Mehr-Details-zum-Apple-M1-4958755.html
> steht, dass der Speichercontroller nicht mehr als 16 GB ansprechen kann.

Nein, das steht da nicht. Da steht:
------------------------
Zudem hat der M1 einen RAM-Controller, der bis zu 16 GByte Speicher 
anbindet, vermutlich mit zwei 64-Bit-Kanälen für LPDDR4 oder LPDDR4X.
------------------------

Der bindet bis zu 16 GByte an, weil Apple nicht mehr Speicher verlötet. 
Ob der Controller mehr ansprechen kann oder nicht bleibt unbeantwortet.

Tja, warum  ist der jetzt so schnell?

Laut Apple liegt es zu einem großen Teil an der unified memory 
architecture. Alle Teile wie CPU, NPU, GPU, ... können auf den gleichen 
Speicher zugreifen. Texturen müssen also z. B. nicht erst in den 
Speicher der GPU kopiert werden.

https://arstechnica.com/gadgets/2020/11/we-are-giddy-interviewing-apple-about-its-mac-silicon-revolution/

Weitere Zahlen und so gab es hier:
https://www.anandtech.com/show/16252/mac-mini-apple-m1-tested

-----------------------------------------------------------------

Generell finde ich das ziemlich krass von Apple. Vor allem aber wie sie 
das zusammen mit Mac OS so gebaut haben, dass es für die meisten Nutzer 
problemlos funktioniert.
Intel-Programme laufen auf dem M1 mit Rosetta2 oft schneller als auf den 
Vorgängermodellen (Air, Mini) von Apple mit Intel-CPU.
iOS-Apps laufen auch ohne Anpassungen auf dem M1.
Auch Homebrew Apps laufen 
https://www.macrumors.com/2020/11/18/apple-m1-mac-tidbits/ .
Finde ich für einen Architekturwechsel erstaunlich reibungslos. Damals 
2006 war das noch recht holperig, ja, es gab damals auch Rosetta, aber 
PPC Programme waren auf den Intel-Macs meistens deutlich langsamer.

von (prx) A. K. (prx)


Bewertung
3 lesenswert
nicht lesenswert
Gustl B. schrieb:
> Laut Apple liegt es zu einem großen Teil an der unified memory
> architecture. Alle Teile wie CPU, NPU, GPU, ... können auf den gleichen
> Speicher zugreifen. Texturen müssen also z. B. nicht erst in den
> Speicher der GPU kopiert werden.

Lehrstück dafür, wie man einen Nachteil positiv ausdrückt. ;-)

Das gilt naturgemäss für alle Prozessoren mit integrierter GPU, also 
auch AMDs Renoir und Intels Tiger Lake. Separate Grafikkarten haben 
nicht etwa deshalb eigenen Speicher, weil sie nicht an den Hauptspeicher 
rankämen, sondern weil deren Bandbreitenanforderungen mit eng 
gekoppelten eigenen Speicher modernsten Typs besser realisierbar sind: 
GDDR6 256 Bit bis 512 GB/s (RX 6800) gegenüber 70 GB/s DDR4 4266 
(Renoir).

von Nick M. (muellernick)


Bewertung
-1 lesenswert
nicht lesenswert
Gustl B. schrieb:
> Damals
> 2006 war das noch recht holperig, ja, es gab damals auch Rosetta, aber
> PPC Programme waren auf den Intel-Macs meistens deutlich langsamer.

Dafür konnte der PPC Kreise um Intel laufen. Und Windows lief ganz 
brauchbar auf dem PPC Mac.

SETI@Home auf dem Mac lief auch schneller. Die Gruppe de.soc.mac war 
immer recht weit vorne.

von Gustl B. (-gb-)


Bewertung
0 lesenswert
nicht lesenswert
(prx) A. K. schrieb:
> Lehrstück dafür, wie man einen Nachteil positiv ausdrückt. ;-)
>
> Das gilt naturgemäss für alle Prozessoren mit integrierter GPU

Hast du dazu Details?
Die Frage ist nämlich:
Was bedeutet dieses shared Memory bei integrierter GPU genau?

Haben CPU und GPU getrennte Adressbereiche die nur im gleichen 
physischen Speicherbaustein liegen oder teilen sie sich den gleichen 
Adressbereich?
Also müssen Texturen für das Rendering in der GPU einmal im Speicher 
kopiert werden oder nicht?

So wie ich das kenne steht der Speicher für die GPU dann nicht der CPU 
zur Verfügung, für mich sieht das also so aus als wären das komplettt 
getrennte Speicherbereiche, also als hätten CPU und GPU eigene Speicher 
nur eben nicht physisch sondern logisch getrennt.

Nick M. schrieb:
> Dafür konnte der PPC Kreise um Intel laufen.

Jap. Zumindest am Anfang. Aber so ein Dual G5 war halt auch teuer.

Nick M. schrieb:
> Und Windows lief ganz
> brauchbar auf dem PPC Mac.

Welche Windowsversion lief da? Ja gut mit VirtualPC ging das, war aber 
auch eher langsam und bei der 3D Leistung eher sehr schlecht.

von (prx) A. K. (prx)


Bewertung
3 lesenswert
nicht lesenswert
Gustl B. schrieb:
> Also müssen Texturen für das Rendering in der GPU einmal im Speicher
> kopiert werden oder nicht?

Tatsächlich ist das irrelevant, denn der Job von GPUs ist es, die 
gleiche Aufgabe bis zum Erbrechen zu wiederholen. Sie greifen also 
extrem häufig lesend auf diese Daten zu, während ein möglicher Upload in 
eigenen Speicher (-Bereich) der GPU nur einmal erfolgt.

: Bearbeitet durch User
von (prx) A. K. (prx)


Bewertung
1 lesenswert
nicht lesenswert
Gustl B. schrieb:
> Was bedeutet dieses shared Memory bei integrierter GPU genau?

"Memory Management on Embedded Graphics Processors"
https://community.arm.com/developer/tools-software/graphics/b/blog/posts/memory-management-on-embedded-graphics-processors

von Rolf M. (rmagnus)


Bewertung
1 lesenswert
nicht lesenswert
Gustl B. schrieb:
> Haben CPU und GPU getrennte Adressbereiche die nur im gleichen
> physischen Speicherbaustein liegen oder teilen sie sich den gleichen
> Adressbereich?
> Also müssen Texturen für das Rendering in der GPU einmal im Speicher
> kopiert werden oder nicht?

Das Kopieren ist nicht das Problem. Die GPU muss die Texturen aber auch 
darstellen, und das in jedem Frame. Dazu muss sie diese dauernd aus dem 
Speicher lesen, und das kostet sehr viel Speicherbrandbreite. Deshalb 
haben dedizierte GPUs ja einen eigenen Speicher mit sehr viel 
Bandbreite.
Wenn die CPU sich den Speicher mit der GPU teilt, muss die eh schon 
geringere Bandbreite noch mit den 8 CPU-Kernen geteilt werden.
Deshalb eignet sich so eine Architektur eher für kleine bis mittlere 
Leistung, aber weniger für die richtig großen Power-Systeme. Deshalb 
wird es spannend zu sehen, was Apple bim Mac Pro machen wird.

> So wie ich das kenne steht der Speicher für die GPU dann nicht der CPU
> zur Verfügung, für mich sieht das also so aus als wären das komplettt
> getrennte Speicherbereiche, also als hätten CPU und GPU eigene Speicher
> nur eben nicht physisch sondern logisch getrennt.

Aber der Zugriff erfolgt trotdem über den selben Kanal, und das ist das 
entscheidende.

> Nick M. schrieb:
>> Dafür konnte der PPC Kreise um Intel laufen.
>
> Jap. Zumindest am Anfang. Aber so ein Dual G5 war halt auch teuer.

Was war bei Apple je nicht teuer?

von (prx) A. K. (prx)


Bewertung
1 lesenswert
nicht lesenswert
Nick M. schrieb:
> Und Windows lief ganz brauchbar auf dem PPC Mac.

Windows läuft auch ganz brauchbar auf Microsofts Surface mit ARM 
Prozessor und Samsungs GalaxyBook (*), die eine sehr ähnliche 
Systemkonstellation haben wie die neuen Apples - allerdings andere 
Leistungsbereiche adressierend.

Native Anwendungen sind zwar schneller als x86-Code, und x86 Programme 
sind auf x86 schneller als auf ARM. Dennoch sind x86 Programme auf der 
ARM Version keineswegs langsam.

* Von dem gibts zwei sonst sehr ähnliche Typen: mit ARM und mit Intels 
Lakefield, der einen High-end Core und vier Atom Cores hat. Nützlich bei 
fairen Vergleichen.

: Bearbeitet durch User
von Gustl B. (-gb-)


Bewertung
1 lesenswert
nicht lesenswert
(prx) A. K. schrieb:
> Tatsächlich ist das irrelevant

Rolf M. schrieb:
> Das Kopieren ist nicht das Problem.

Und das Gegenteil behaupten die bei Apple.

Zitat von Federighi 
https://arstechnica.com/gadgets/2020/11/we-are-giddy-interviewing-apple-about-its-mac-silicon-revolution/ 
:

    We not only got the great advantage of just the raw performance of 
our GPU, but just as important was the fact that with the unified memory 
architecture, we weren't moving data constantly back and forth and 
changing formats that slowed it down. And we got a huge increase in 
performance.

    And so I think workloads in the past where it's like, come up with 
the triangles you want to draw, ship them off to the discrete GPU and 
let it do its thing and never look back—that’s not what a modern 
computer rendering pipeline looks like today. These things are moving 
back and forth between many different execution units to accomplish 
these effects.

Rolf M. schrieb:
> Deshalb wird es spannend zu sehen, was Apple bim Mac Pro machen wird.

So wirklich glaube ich nicht an eine 1-Chip-Lösung, das würde sehr groß 
werden. Und PCIe werden sie weiterhin als Steckplatz anbieten, vermute 
ich, wobei das bei der Tonne auch nicht der Fall war. Vielleicht können 
sie auch mehrere M1 quasi als Chiplets zusammen zu einem größeren SoC 
verheiraten? Apple hat da viele Möglichkeiten weil sie jetzt eben sehr 
viel in der eigenen Hand haben.

: Bearbeitet durch User
von Markus K. (markus-)


Bewertung
0 lesenswert
nicht lesenswert
Rolf M. schrieb:
>> Also müssen Texturen für das Rendering in der GPU einmal im Speicher
>> kopiert werden oder nicht?
>
> Das Kopieren ist nicht das Problem.

Außer wenn sich die Textur ständig ändert, z.B. bei Video.
Zumindest bei manchen SoCs (z.B. i.MX8) ist es so, dass Videodekodierung 
nicht in der GPU geschieht, sondern in unabhängigen Einheiten. Ich 
glaub, das ist auch bei PCs teilweise so, aber da bin ich nicht sicher.

von Nop (Gast)


Bewertung
0 lesenswert
nicht lesenswert
Nano schrieb:

> Ist die Anbindung auch 64 bittig wie bei normalen DDR4 Modulen

Ganz normal mit 64 bit als dual channel. Also das, was man bei 
x86-Laptops auch haben kann.

> oder geht man einen breiteren Weg wie bei dedizierten GPUs?

Die nutzen kein DDR4, eben weil sonst die Bandbreite zum Flaschenhals 
würde. Das ist ja auch der Grund, wieso AMD bei neueren APUs zwar 
bessere Kerne liefert, aber weniger davon, was sich erst mit AM5-Sockel 
und dann DDR5 ändern kann.

von Nop (Gast)


Bewertung
0 lesenswert
nicht lesenswert
Markus K. schrieb:

> Außer wenn sich die Textur ständig ändert, z.B. bei Video.

Bei Video sind die Datenraten aber auch so gering, daß auch eine APU 
ohne eigenes Graka-RAM schnell genug ist. Sogar, wenn sie von Intel ist.

von -gb- (Gast)


Bewertung
0 lesenswert
nicht lesenswert
Nop schrieb:
> schnell genug

Das ist aber nicht das Ziel. Auch die alten Modelle ohne M1 waren für 
Vieles schnell genug. Man wollte es trotzdem schneller bauen und das hat 
man geschafft.
Wenn da einmal weniger hin und her kopiert werden muss, dann bleibt zur 
gleichen Zeit mehr Bandbreite für andere Dinge.

von Nop (Gast)


Bewertung
0 lesenswert
nicht lesenswert
-gb- schrieb:

> Wenn da einmal weniger hin und her kopiert werden muss, dann bleibt zur
> gleichen Zeit mehr Bandbreite für andere Dinge.

Das ist nicht das Argument für APUs (egal ob Apple, AMD oder Intel), 
sondern daß sie für Alltagsaufgaben, Office und Video schnell genug 
sind. Deswegen läßt man die dGPU weg, was vor allem Kosten spart und 
zudem den Akku schont. Beim Spielen wird es dann allerdings eng.

von (prx) A. K. (prx)


Bewertung
1 lesenswert
nicht lesenswert
Nop schrieb:
> Sogar, wenn sie von Intel ist.

Wobei Videodekodierung in Software allerdings erheblich Last erzeugen 
kann, besonders bei 8K-Displays und neuen Codecs wie AV1. Weshalb 
Hardware-Support für AV1 allmählich auch in die integrierten Lösungen 
einzieht, mindestens um Strom zu sparen - Intels Tiger Lake hat ihn, 
Apples M1 vmtl auch, AMDs Renoir nicht.

: Bearbeitet durch User
von Nano (Gast)


Bewertung
-1 lesenswert
nicht lesenswert
Nick M. schrieb:
> Gustl B. schrieb:
>> Damals
>> 2006 war das noch recht holperig, ja, es gab damals auch Rosetta, aber
>> PPC Programme waren auf den Intel-Macs meistens deutlich langsamer.
>
> Dafür konnte der PPC Kreise um Intel laufen. Und Windows lief ganz
> brauchbar auf dem PPC Mac.

Apple ist damals zu Intel gewechselt, weil die PPC zu langsam waren.

Wenn also jemand um irgend jemand herumgekreist ist, dann die 
Intelprozessoren um den PPC.


> SETI@Home auf dem Mac lief auch schneller. Die Gruppe de.soc.mac war
> immer recht weit vorne.

Das muss gar nichts heißen.
Vielleicht hatten die schlichtweg mehr Geld um ihre Macs über Nacht 
laufen zu lassen. Stromkosten egal.
Und ob es überhaupt ein Mac war, geht aus einer Gruppenzugehörigkeit 
auch nicht vor.

von Nick M. (muellernick)


Bewertung
-1 lesenswert
nicht lesenswert
Nano schrieb:
> Apple ist damals zu Intel gewechselt, weil die PPC zu langsam waren.

Nein, weil Motorola / IBM kein Intresse an Low-Power-Versionen für 
Laptops hatte.

Nano schrieb:
> Und ob es überhaupt ein Mac war, geht aus einer Gruppenzugehörigkeit
> auch nicht vor.

War halt eine Mac-Gruppe aus dem usenet. Die hatten das im usenet 
abgesprochen und auf ihren Macs (daher der Gruppenname) laufen lassen. 
U.a. ich auch.

von Nano (Gast)


Bewertung
0 lesenswert
nicht lesenswert
Nick M. schrieb:
> Nano schrieb:
>> Apple ist damals zu Intel gewechselt, weil die PPC zu langsam waren.
>
> Nein, weil Motorola / IBM kein Intresse an Low-Power-Versionen für
> Laptops hatte.

Siehe:
"Für Intel sprächen hingegen zwei Vorteile - die hohe Leistung und der 
geringe Stromverbrauch. Mancher rieb sich verwundert die Augen: Hatte 
Apple bis vor kurzem nicht genau das Gegenteil behauptet? Jobs aber 
versicherte mit Hilfe eines Diagramms, dass der PowerPC nur 15, ein 
Intel-Prozessor jedoch 70 Leistungseinheiten pro Watt erreicht. "
https://www.heise.de/ct/artikel/Apple-faellt-vom-Stamm-289950.html

Und weiter unten geht's dann weiter mit:
" Hier ist Apple auf die G4-Prozessoren der Motorola-Halbleiter-Sparte 
Freescale angewiesen, die zwar sparsame und kompakte, aber trotz 
jahrelanger Entwicklungsarbeit einfach nicht ausreichend schnelle 
Prozessoren liefert - bei 1,67 GHz ist zurzeit Schluss. "


Es war die Leistung, weswegen man zu Intel wechselte. Die PPC waren zu 
dem Zeitpunkt arschlahm verglichen mit den x86 CPUs.
Man darf hier auch nicht vergessen, dass AMD und Intel zu diesem 
Zeitpunkt sich in den letzten 5 Jahren ein Kopf an Kopf Rennen leisteten 
und die GHz Schraube immer weiter noch oben schraubten und auch in 
anderen Bereichen die Leistung immer mehr verbesserten.

IBM und Motorola konnten da allein von den verkauften Stückzahlen und 
Fertigungskosten nicht mehr mithalten.

von Nick M. (muellernick)


Bewertung
-1 lesenswert
nicht lesenswert
Nano schrieb:
>> Nein, weil Motorola / IBM kein Intresse an Low-Power-Versionen für
>> Laptops hatte.
>
> "Für Intel sprächen hingegen zwei Vorteile - die hohe Leistung und der
> geringe Stromverbrauch.

Wo ist jetzt der Widerspruch?

von Maxe (Gast)


Bewertung
0 lesenswert
nicht lesenswert
Man wird sehen, wie sie sich bewähren. Ich rechne ja nicht mit einer 
Revolution.

von (prx) A. K. (prx)


Bewertung
1 lesenswert
nicht lesenswert
Nano schrieb:
> Die PPC waren zu
> dem Zeitpunkt arschlahm verglichen mit den x86 CPUs.

Zumindest jene, die ins Apple-Schema passten. IBMs dickere Kisten waren 
besser drauf, aber dafür nicht geeignet.

von Nano (Gast)


Bewertung
0 lesenswert
nicht lesenswert
Nick M. schrieb:
> Nano schrieb:
>>> Nein, weil Motorola / IBM kein Intresse an Low-Power-Versionen für
>>> Laptops hatte.
>>
>> "Für Intel sprächen hingegen zwei Vorteile - die hohe Leistung und der
>> geringe Stromverbrauch.
>
> Wo ist jetzt der Widerspruch?

Weil da auch hohe Leistung steht und nicht nur ein geringer 
Stromverbrauch.
Also genau wie ich eingangs sagte.

von Andreas (Gast)


Bewertung
2 lesenswert
nicht lesenswert
Ich habe mir privat einen M1 Mac Mini bestellt (16GB) um endlich mal 
mein 2012 Macbook Pro abzuloesen. Die Standardausstattung mit 8GB RAM 
ist allerdings enttaeuschend, auch wenn viel RAM bei schnellen SSDs 
heute weniger wichtig scheint als noch vor 10 Jahren. Leider gibt es die 
16GB nur mit inzwischen recht langer Lieferzeit bis knapp vor 
Weihnachten.

Knösel schrieb:
> Gar nicht. Das ist ja das schöne an der Apple Welt. Software bekommst du
> sowieso nur noch durch genehme Apple Distribution.

Leute, bitte schreibt doch nicht so einen Unsinn. Macs sind bei vielen 
Firmen in US der Standard fuer Entwicklerrechner. Meint ihr das waere 
so, wenn man da keinen eigenen Code ausführen oder OSS installieren 
koennte?

Nop schrieb:
> Das ist nicht das Argument für APUs (egal ob Apple, AMD oder Intel),
> sondern daß sie für Alltagsaufgaben, Office und Video schnell genug
> sind. Deswegen läßt man die dGPU weg, was vor allem Kosten spart und
> zudem den Akku schont. Beim Spielen wird es dann allerdings eng.

Ich bin mir nicht sicher ob diese Ansicht noch zeitgemäß ist. Schau dir 
z.B. mal die Architektur der PS5 an, das ist quasi auch eine APU, und 
die spielt bei der Grafikleistung wohl relativ weit vorne mit. Irgendwie 
ist so eine Vereinheitlichung auch ueberfaellig. Das Konzept, zwei 
Recheneinheiten (CPU und GPU) auf verschiedene Platinen mit getrennten 
Speichern zu setzen und mit einem langen Bus zu verbinden wuerde einem 
heute sehr seltsam vorkommen, wenn es sich nicht durch das Konzept 
"Grafikkarte" historisch so ergeben haette.

Dazu noch ein interessantes Zitat aus dem von Gustl verlinkten Artikel 
(https://arstechnica.com/gadgets/2020/11/we-are-giddy-interviewing-apple-about-its-mac-silicon-revolution/):

> Where old-school GPUs would basically operate on the entire frame at once, we 
operate on tiles that we can move into extremely fast on-chip memory, and then 
perform a huge sequence of operations with all the different execution units on 
that tile. It's incredibly bandwidth-efficient in a way that these discrete GPUs 
are not. And then you just combine that with the massive width of our pipeline to 
RAM and the other efficiencies of the chip, and it’s a better architecture.

von Nop (Gast)


Bewertung
0 lesenswert
nicht lesenswert
Andreas schrieb:

> Ich bin mir nicht sicher ob diese Ansicht noch zeitgemäß ist. Schau dir
> z.B. mal die Architektur der PS5 an, das ist quasi auch eine APU, und
> die spielt bei der Grafikleistung wohl relativ weit vorne mit.

Für Konsolengraphik ja, aber die reißt auf dem PC niemanden vom Hocker. 
Wenn man Auflösung und Details am PC runterdreht, kann man auch da mit 
APUs spielen - was aber eben nicht gleichwertig zu einer dGPU ist.

> Das Konzept, zwei
> Recheneinheiten (CPU und GPU) auf verschiedene Platinen mit getrennten
> Speichern zu setzen und mit einem langen Bus zu verbinden wuerde einem
> heute sehr seltsam vorkommen

Nein, würde es nicht, sobald man versteht, daß der RAM-Zugriff zur 
Laufzeit der Flaschenhals ist und man deswegen auf Graphikkarten GDDR6 
einsetzt. Mit DDR4 ist das nicht gleichwertig zu machen. Das Umkopieren 
in die Graka findet ja z.B. beim Betreten eines neuen Levels statt, wenn 
die Texturen reingeladen werden, und nicht während des Levels.

von Gustl B. (-gb-)


Bewertung
0 lesenswert
nicht lesenswert
Andreas schrieb:
> Ich habe mir privat einen M1 Mac Mini bestellt (16GB) um endlich mal
> mein 2012 Macbook Pro abzuloesen. Die Standardausstattung mit 8GB RAM
> ist allerdings enttaeuschend, auch wenn viel RAM bei schnellen SSDs
> heute weniger wichtig scheint als noch vor 10 Jahren. Leider gibt es die
> 16GB nur mit inzwischen recht langer Lieferzeit bis knapp vor
> Weihnachten.

Bin auch am Überlegen ... habe hier noch einen Mini von Mitte 2011 mit 
dem Quadcore i7 und 16 GByte RAM.
Bei Apple hat man sich vermutlich angeguckt was die Leute so kaufen. Und 
die kaufen sich echt oft Macs mit wenig RAM. Ich sehe das hier immer 
wieder bei meinen Bekannten. Und das reicht denen auch. Würde mir 
vermutlich auch reichen, denn die SSDs sind gerade bei Apple sehr 
schnell.
Im Air wurde die SSD mit dem M1 jetzt grob doppelt so schnell 
https://www.macrumors.com/2020/11/16/apple-silicon-macbook-air-ssd-benchmarks/ 
ob das zusätzliches RAM kompensieren kann? Unklar, aber für die meisten 
Nutzer wird das trotzdem reichen, die nehmen das Gerät zum Sufen, Filme 
gucken, ...
Man bedenke: Das mit dem M1 ist das unterste Preissegment, es werden 
sehr wahrscheinlich noch stärkere Macbook Pros kommen und vermutlich 
auch ein Highend-Mini. Die haben dann wahrscheinlich auch ein dickeres 
SoC und zumindest optional mehr RAM.
Ich werde jetzt erstmal abwarten ob noch Fehler im M1 auftauchen wie 
damals beim 2018 Mini der Probleme mit USB2.0 Audio Hardware hatte.

Andreas schrieb:
> Knösel schrieb:
>> Gar nicht. Das ist ja das schöne an der Apple Welt. Software bekommst du
>> sowieso nur noch durch genehme Apple Distribution.
>
> Leute, bitte schreibt doch nicht so einen Unsinn.

Exakt, auf dem Mac kann man aktuell (noch) Software einfach so bauen und 
installieren. Auch auf den Macs mit M1 läuft Homebrew.
Wird der goldene Käfig auch da irgendwann kommen wie bei dem 
iPhone/iPad? Mal gucken, kann sein, bin mir aber nicht sicher.

von Nick M. (muellernick)


Bewertung
-1 lesenswert
nicht lesenswert
Gustl B. schrieb:
> Bin auch am Überlegen ... habe hier noch einen Mini von Mitte 2011 mit
> dem Quadcore i7 und 16 GByte RAM.

Mein Mini ist mid 2010. Aber mit RAM komplett ausgebaut (8 GB) und einer 
SSD statt der HD.
Leider verlötet Apple die Komponenten (die SSD doch auch, oder?) und da 
fällt es mir schwer den gesalzenen Aufpreis zu zahlen.

von Nop (Gast)


Bewertung
0 lesenswert
nicht lesenswert
Nick M. schrieb:

> Leider verlötet Apple die Komponenten (die SSD doch auch, oder?)

Ja natürlich - sonst würde doch keiner die komplett wahnsinnigen Preise 
dafür zahlen, sondern sich am Markt für einen Bruchteil selber eine 
NVMe-SSD kaufen.

von Gustl B. (-gb-)


Bewertung
1 lesenswert
nicht lesenswert
Nick M. schrieb:
> Leider verlötet Apple die Komponenten

Das ist leider ein allgemeiner Trend. Akku verklebt, RAM, CPU, SSD, WLAN 
verlötet.

Aber warum ist das so?
Die Mehrheit der Leute rüsten ihre Geräte nie auf. Selbst dann wenn sie 
das könnten. Ich betreue hier einige PC und Mac Nutzer in meiner 
Umgebung und sehe nur extrem selten Geräte die aufgerüstet wurden. 
Eigentlich nur, wenn die Leute in ihrer Verwandtschaft computeraffine 
Leute haben. Sonst ertragen die Alles, wirklich Alles. Computer die 
schnarchlangsam sind, bei denen Norton und Kaspersky sich dauernd 
gegenseitig in Quarantäne schieben, ASK Toolbar im Browser die mehrere 
Zeilen umfasst, diverse Popups von Adware, ... das ist vielen Leuten 
egal solange sie damit einmal die Woche Mails lesen oder Onlinebanking 
machen können.
Und dann gibt es noch eine zweite Gruppe die ihre Rechner sehr viel 
nutzt und trotzdem nicht aufrüstet:
Junge Leute (auch Erwachsene) die einfach jedes Jahr neu kaufen. Die 
melden sich wenn was kaputt geht oder nicht mehr funktioniert, aber 
sobald die Reparatur etwas komplizierter oder teurer würde kaufen die 
gleich neu.

Ja, es gibt auch Leute die aufrüsten, aber das sind wenige und die 
kennen sich zumindest etwas aus. Für Hersteller wie Apple deren Nutzer 
lieber schicke dünne Geräte als aufrüstbare Geräte kaufen lohnt sich 
diese Kundengruppe nicht.

von Nick M. (muellernick)


Bewertung
-1 lesenswert
nicht lesenswert
@GustlB:
Mit der Einschätzung hast du wohl Recht wenn ich mich im privaten Umfeld 
umschaue. Da gabs u.a. einen Laptop, der eine halbe Stunde zum Starten 
brauchte.

von (prx) A. K. (prx)


Bewertung
3 lesenswert
nicht lesenswert
Gustl B. schrieb:
> Das ist leider ein allgemeiner Trend.

CPU: Platzproblem, Sockel zu gross und zu hoch. Heatpipe behindert.
RAM: Bis 3200 geht Sockel, 4266er sind nur verlötet möglich.

Bei Schenker/Tuxedo sind SSDs/WLAN/Mobilfunk gesockelt, RAM teilweise. 
Akku ist verschraubt statt geklebt. Alles gut zugänglich durch 
verschraubte Bodenplatte.

: Bearbeitet durch User
von Nop (Gast)


Bewertung
0 lesenswert
nicht lesenswert
(prx) A. K. schrieb:

> Bei Schenker/Tuxedo sind SSDs/WLAN/Mobilfunk gesockelt, RAM teilweise.

Was auch zur Folge hat, daß sie mit den Preisen dafür nicht wesentlich 
über die Marktpreise gehen können. Ein kleiner Bequemlichkeitszuschlag 
für den Kunden geht in Ordnung, aber nicht ein Vielfaches wie bei Apple.

von Kalle (Gast)


Bewertung
0 lesenswert
nicht lesenswert
Gustl B. schrieb:
> Junge Leute (auch Erwachsene) die einfach jedes Jahr neu kaufen. Die
> melden sich wenn was kaputt geht oder nicht mehr funktioniert, aber
> sobald die Reparatur etwas komplizierter oder teurer würde kaufen die
> gleich neu.

Was machen solche Leute mit ihren alten Rechnern? Die Können damit ja 
nicht ihren Keller vollstellen und der Gebrauchtmarkt auf ebay ist durch 
solche Leute ja auch nicht gerade attraktiv, sprich es gibt wenig gute 
Angebote und meist ist alles zu teuer.

von Kalle (Gast)


Bewertung
0 lesenswert
nicht lesenswert
Ich habe hier ein Video zum M1 gefunden. Leider mit sehr viel 
Marketing-Geblubber und Diagrammen ohne Beschriftung der Achsen. Aber 
einiges konnte ich da doch erfahren, auch wenn ich natürlich nicht weiß 
ob alles dort gesagte auch stimmt.
https://www.youtube.com/watch?v=105iYP6wem8
Inhaltlich hätte man das alles auch in unter 10 Minuten bringen können. 
Ich hasse solche aufgeblähten Videos. Er hat am Anfang auch versprochen, 
dass er ins Detail gehen wird. Darauf habe ich dann bis zu Ende 
erfolglos gewartet. Naja vielleicht in seinem nächsten Video.

von Gustl B. (-gb-)


Bewertung
2 lesenswert
nicht lesenswert
Kalle schrieb:
> Was machen solche Leute mit ihren alten Rechnern?

Oft werden die verschenkt an die Verwandtschaft und landen dann 
irgendwann entweder im Keller/Dachboden oder werden von Jemandem mit 
wenig Anspruch so lange genutzt bis sie defekt sind.
Es gibt da eine Gruppe älterer Leute, die haben nur deshalb einen 
Computer weil man den eben für manche Dinge braucht. Nicht weil man den 
haben will oder irgendwie interessiert ist.
Ich denke viele von euch haben solche Verwandte, Bekannte, ...
Die werden irgendwann von Verwandten überredet oder sehen es selber ein, 
dass sie doch auch einen PC/Mac haben sollten, nehmen einen geschenkt, 
und der steht da dann eben rum und wird genutzt bis der defekt ist.
Das sind auch die Leute denen Verwandte irgendwann mal ein Smartphone 
aufgeschwatzt und dann geschenkt haben, die das aber kaum nutzen und 
wenn dann für SMS. Leute die jetzt ein Samsung S2 haben das die meiste 
Zeit ausgeschaltet im Regal liegt.

Ich kann das den Leuten auch nicht übel nehmen, wenn ich mal alt bin, 
dann empfinde ich neue Technik vermutlich auch eher als lästig und sehe 
darin keinen Mehrwert.
Aber diese Personengruppe gibt es, die ist nicht gerade klein, und 
dorthin wandern viele Gebrauchtgeräte der jungen Generationen die immer 
das Allerneuste haben möchten.

Antwort schreiben

Die Angabe einer E-Mail-Adresse ist freiwillig. Wenn Sie automatisch per E-Mail über Antworten auf Ihren Beitrag informiert werden möchten, melden Sie sich bitte an.

Wichtige Regeln - erst lesen, dann posten!

  • Groß- und Kleinschreibung verwenden
  • Längeren Sourcecode nicht im Text einfügen, sondern als Dateianhang

Formatierung (mehr Informationen...)

  • [c]C-Code[/c]
  • [avrasm]AVR-Assembler-Code[/avrasm]
  • [code]Code in anderen Sprachen, ASCII-Zeichnungen[/code]
  • [math]Formel in LaTeX-Syntax[/math]
  • [[Titel]] - Link zu Artikel
  • Verweis auf anderen Beitrag einfügen: Rechtsklick auf Beitragstitel,
    "Adresse kopieren", und in den Text einfügen




Bild automatisch verkleinern, falls nötig
Bitte das JPG-Format nur für Fotos und Scans verwenden!
Zeichnungen und Screenshots im PNG- oder
GIF-Format hochladen. Siehe Bildformate.

Mit dem Abschicken bestätigst du, die Nutzungsbedingungen anzuerkennen.