mikrocontroller.net

Forum: PC Hard- und Software Ist der PC am Ende seiner Entwicklung angelangt?


Announcement: there is an English version of this forum on EmbDev.net. Posts you create there will be displayed on Mikrocontroller.net and EmbDev.net.
von Bert K. (Gast)


Bewertung
1 lesenswert
nicht lesenswert
Hallo,

hardwareseitig begann es mit C64, Amiga, Atari ST, dann kamen die ersten 
kompatiblen PCs auf den Markt. In der Firma dann ein PC mit 33MHz, dann 
200MHz (die Taktraten stiegen rasant) bis irgendwann wegen 
physikalischen Gesetzmäßigkeiten bei 3GHz das Ende der Fahnenstange 
erreicht war.

Softwareseitig begann es mit TOS, DOS, dann folgte Windows (3.11, 95, 
98, 2000, ME, XP, Vista, 7, 8, 10). Laut MS soll Win10 nun das letzte BS 
sein.

Als direkte Folge durfte jedermann alle paar Jahre seinen voll 
funktionsfähigen PC ausmustern. Da kam schnell der Gegenwert eines neuen 
Mittelklassewagens zusammen, den man auf den Müll schmeißen durfte. 
Firmen haben Leasingmodelle entwickelt, so dass die regelmäßige 
Erneuerung und Entsorgung der Altgeräte der Wirtschaft reibungslos über 
die Bühne ging.

Mit 3GHz ist die Leistungsfähigkeit der CPU ausgereizt und die bisherige 
BS-Jagd hat auch eine Ende. Also kann sich ein heute 20-jähriger einen 
hochwertigen PC kaufen und selbigen bis an sein Lebensende nutzen - 
sollte man meinen. MS bliebe dann künftig nur noch das Stopfen von 
Sicherheitslücken und die Hardwarehersteller würden künftig nur noch 
Ersatzteile liefern.

Irgendwie kaum vorstellbar - oder doch?
Wie seht ihr das?

Viele Grüße von Bert

von Sven B. (scummos)


Bewertung
3 lesenswert
nicht lesenswert
Der Takt ist halt nicht das einzige, was sich ändert. Die CPUs sind seit 
2005 mit ungefähr derselben Rate schneller geworden wie von 1990 bis 
2005, nur dass die Taktfrequenz kein sinnvolles Maß mehr dafür ist.

So eine moderne x86-CPU kann in einem Takt machen, wofür die von 2000 
noch zwanzig Takte gebraucht hätte, und das dann auch noch auf 8 Cores 
gleichzeitig.

-> Vergiss die Taktfrequenz als Metrik für CPU-Performance. Das ist das, 
was am Ende angelangt ist, sonst nichts. Das ist übrigens schon ziemlich 
lange so.

: Bearbeitet durch User
von Nop (Gast)


Bewertung
1 lesenswert
nicht lesenswert
Ich nutze hier einen zehn Jahre alten PC ohne Probleme. Es gibt aber 
Anwendungen wie etwa Spiele, die auch heute noch den PC von morgen 
voraussetzen. Bei Sachen wie FEM ähnlich, weil die Modellierung nie fein 
genug sein kann.

Zudem hat ein heutiger PC der Mittelklasse mehr Wums als ein PC von vor 
10 Jahren, braucht dafür aber wesentlich weniger Energie und kann daher 
leiser gekühlt werden, bzw. hat bei Laptops wahlweise längere 
Akkulaufzeit oder ist dank kleinerem Akku leichter.

von Karl (Gast)


Bewertung
3 lesenswert
nicht lesenswert
Die Entwicklung ist noch lange nicht abgeschlossen. Die Entwicklung geht 
nur langsamer. Aber auch vor 15 Jahren hätte man nicht alle 2 Jahre 
einen neuen PC gebraucht. Das haben sich nur Freaks und Gamer geleistet. 
Es ist auch heute unklug einen "hochwertigen PC" für die Zukunft zu 
kaufen, den man heute noch nicht braucht. Da heute vorwiegend 
Komplettsysteme (Notebooks, Mini-PC) verkauft werden, die man nicht 
(oder schlecht) erweitern kann, ist es heute umso unklüger viel Geld 
auszugeben wenn es nicht sein muss. Früher hat man einfach eine neue 
CPU, neues Mainboard, neue Steckkarten für irgendwelche Schnittstellen 
(Garifk/Monitoranschluss, USB X.XX, ...) eingebaut, heute wird der ganze 
PC ersetzt.

von Roland P. (pram)


Bewertung
4 lesenswert
nicht lesenswert
Es ist aber auch so, dass die Programme "schuld" sind, dass man immer 
leistungsfähigere Hardware braucht. Ein PC mit 300MHz, 128MB Speicher 
und 20GB HDD, war damals als Office PC "schnell" genug und man konnte 
auch mal mehrere Excel / Word Dokumente gleichzeitig öffnen. Nebenbei 
lief vielleicht sogar noch ein DivX Video (natürlich in 352x288 und 
nicht 4k)
Heute wird die Hardware nicht mal mehr für s Betriebssystem reichen

von Sven B. (scummos)


Bewertung
0 lesenswert
nicht lesenswert
Karl schrieb:
> Die Entwicklung ist noch lange nicht abgeschlossen. Die Entwicklung geht
> nur langsamer.

Sehe ich nicht.

https://de.wikipedia.org/wiki/Mooresches_Gesetz#/media/Datei:Moore's_Law_Transistor_Count_1971-2018.png

von Marek N. (bruderm)


Angehängte Dateien:

Bewertung
0 lesenswert
nicht lesenswert
Eben, zum Einen wurde die Busbreite von 32 auf 64 Bit gesteigert, zum 
Anderen die Anzahl der Prozessorkerne. 4 Cores mit je 2 Threads sind 
mittlerweile Standard.
Außerdem wurde der Energieverbrauch gesenkt.
Mein 2013 Desktop Core i7 3. Generation erreicht ähnliche Benchmarks, 
wie heutige Laptop Core i7 10. Generation, braucht aber die fünffache 
Leistung dafür.

Anbei ein Screenshot der getätigten Vergleiche, da ich mir demnächst 
wieder ein Laptop holen will und wissen wollte, wo ich "stehe".

/edit: Rechtschreibung

: Bearbeitet durch User
von A. K. (prx)


Bewertung
0 lesenswert
nicht lesenswert
Es stimmt, dass die Einsatzlebensdauer heutiger Anwender-PCs ohne 
besondere Ansprüche gegenüber denen von vor 20 Jahren erheblich 
gewachsen ist. Die vorherige Generation aller Office-PCs in der Firma 
war mit einem dreistelligen i5 von 2010 ausgestattet. Die überwiegende 
Mehrheit war bis letztes Jahr noch im Einsatz. Mit der Zeit kam Speicher 
dazu, manche HDD machte einer SDD Platz, spezielle Arbeitsplätze 
erhielten irgendwann frische Ware.

Die Cores entwickeln sich trotzdem weiter, aber nicht beim Takt, sondern 
anders. Neben wesentlichen internen Optimierungen und wachsenden Caches 
kamen Befehlsgruppen und Ausführungseinheiten hinzu, wie beispielsweise 
parallele Rechnung in erst 128 Bit, dann 256 Bit, dann 512 Bit Breite. 
Und nun auch AI.

Neben den Cores gibt es auch Schnittstellen wie USB, SATA, PCIe, die 
sich weiterentwickeln. Eine SSD ist zwar auch in SATA 3Gb besser als 
eine HDD, aber als langsamer als NVME ist sie schon. USB 2 macht bei 
externen Disks heute keinen Spass mehr.

von Ursel (Gast)


Bewertung
0 lesenswert
nicht lesenswert
Aus einem gewissen Blickwinkel stimmt das schon. Viele Anwender sind auf 
deutlich leistungsschwächere Geräte (Netbook, Smartphone, Tablet) 
gewechselt, weil das für die typischen Anwendungen ausreicht. Wie schon 
erwähnt wurde reicht auch ein 10+ Jahre alter PC für die meisten 
Anwendungen immer noch aus.Der Fokus liegt da eher auf Optimierung des 
Leistungsbedarfs, wurde hier ja schon erwähnt.

Die Entwicklung bleibt aber trotzdem nicht stehen. Es werden nur immer 
weniger Anwendungen, die einen aktuellen Highend-PC erfordern.

von DPA (Gast)


Bewertung
2 lesenswert
nicht lesenswert
Was die Leistung angeht hört es bald auf. Kleiner geht nicht mehr 
wirklich, höherer takt auch nicht. Jetzt macht man noch mehr cores und 
optimiert die noch anderweitig soweit es geht. Einige werden neu auch 
auf geringen Stromverbrauch statt auf Leistung optimiert. Aber wenn die 
Optimierung mal an der grenze des machbaren ist, ist fertig.

Computer werden sich möglicherweise aber auf andere Weise 
weiterentwickeln — zu unserem nachteil und des herstellers Profit. Bei 
den meisten geräten (z.B. Smartphones) ist abgeriegelte hardware, statt 
"mach damit was auch immer du willst", die Regel. Damit ist die 
Lebenszeit der Hardware wieder begrenzt, und es gibt viele neue Wege 
profit zu machen. Die DAUs werden am anfang garnicht merken, was 
passiert ist "Jeder nutzt immernoch Windows oder Android, wie vorher, 
was habt ihr denn".

von AntiFunkheld (Gast)


Bewertung
-4 lesenswert
nicht lesenswert
Bert K. schrieb:

> hardwareseitig begann es mit C64, Amiga, Atari ST, dann kamen die ersten
> kompatiblen PCs auf den Markt.
Nene... die sog. "Taiwan-Clones" gab es schon vorher.

> Laut MS soll Win10 nun das letzte BS sein.
BS = BullShit. Endlich nennt es mal jemand beim Namen.

von Nop (Gast)


Bewertung
0 lesenswert
nicht lesenswert
Daß man auch abgehangene Hardware gut verwenden kann, hat natürlich im 
Hinblick auf Linux auch seine Vorteile, wo neue Hardware oftmals erstmal 
gar nicht nutzbar ist. Siehe das Desaster bei der Einführung von AMDs 
Ryzens mit integrierter Grafik in der "Raven Ridge"-Generation.

von Nun. (Gast)


Bewertung
0 lesenswert
nicht lesenswert
> 3GHz das Ende der Fahnenstange

Es gibt viele Desktop CPUs die bis 4 GHz oder höher takten so lange es 
kühl genug bleibt. Das ist in Desktops mit ordentlicher Kühlung meistens 
der Fall.
Aber wie schon gesagt, die CPUs sind aus anderen Gründen schneller 
geworden.


Seit AMD wieder im Rennen ist, muss auch Intel sich mal wieder bewegen 
und in den letzten 3 Jahren ist mal seit langem sogar richtig viel voran 
gegangen - vor 4 Jahren (ganz grob) waren noch 6 Kerne so das Maximum 
was man als Enthusiast zu gerade noch aktzeptablen Preisen bekommen 
konnte. Die meisten haben da sicher noch mit 4 Kernen gewerkelt.


Heute kannst Du Dir 16 Kerne relativ günstig kaufen... und das mit 
gigantisch großen Caches (64+ MByte)

SSDs sind auch größer/günstiger und schneller geworden (m.2 / NVMe).

von Oliver S. (oliverso)


Bewertung
0 lesenswert
nicht lesenswert
Marek N. schrieb:
> Mein 2013 Desktop Core i7 3. Generation erreicht ähnliche Benchmarks,
> wie heutige Laptop Core i7 10. Generation, braucht aber die fünffache
> Leistung dafür.

Der Leistungsunterschied zwischen Desktop- und Laptopprozessoren war 
schon immer ziemlich deutlich. Da vergleichst du halt Äpfel mit Birnen, 
und die Birnen haben dann noch weniger Kerne.

Oliver

von A. K. (prx)


Bewertung
0 lesenswert
nicht lesenswert
Was kann man mit 16 Kernen anfangen, in der Breite bei Büroanwendungen 
mit Office und Web, nicht Grafik- oder Elektronik-Design? Das war auch 
bei der oben erwähnten Vorgänger-Generation ein Thema: Gut getakteter 
dual core gegenüber einem vom Anbieter des PC präferierten erheblich 
niedriger getakteten quad core. Es wurde der dual core, da single thread 
Performance wichtiger schien.

: Bearbeitet durch User
von Wolfgang (Gast)


Bewertung
0 lesenswert
nicht lesenswert
Bert K. schrieb:
> Softwareseitig begann es mit TOS, DOS, dann folgte Windows (3.11, 95,
> 98, 2000, ME, XP, Vista, 7, 8, 10).

DOS gab es in diversen Versionen und wenn du C64 und Co aufführst, darf 
auch CP/M nicht fehlen.
Windows 2.11 (Windows/286 und /386) und Windows NT hast du vergessen ...

von Genau (Gast)


Bewertung
-4 lesenswert
nicht lesenswert
Bert K. schrieb:
> Irgendwie kaum vorstellbar - oder doch?
> Wie seht ihr das?

Der PC ist am Ende - wie alles andere auch das zwangsweise am Internet 
hängt...

von A. K. (prx)


Bewertung
0 lesenswert
nicht lesenswert
Oliver S. schrieb:
> Der Leistungsunterschied zwischen Desktop- und Laptopprozessoren war
> schon immer ziemlich deutlich.

Wobei man heute häufiger Schrumpf-Desktops mit reduzierter 
Verlustleistung findet als früher, weil die Leistung reicht und andere 
Faktoren wie ein Platz sparendes leises Gehäuse interessant werden. Mit 
35W oder 45W statt der üblichen 65W oder 95W.

von Rolf M. (rmagnus)


Bewertung
1 lesenswert
nicht lesenswert
A. K. schrieb:
> Die Cores entwickeln sich trotzdem weiter, aber nicht beim Takt, sondern
> anders. Neben wesentlichen internen Optimierungen und wachsenden Caches
> kamen Befehlsgruppen und Ausführungseinheiten hinzu, wie beispielsweise
> parallele Rechnung in erst 128 Bit, dann 256 Bit, dann 512 Bit Breite.
> Und nun auch AI.

Klar, sowas gibt es, genauso wie Einheiten für z.B. Verschlüsselung oder 
Video-Dekodierung. Die sind aber alle nicht allgemein nützlich, sondern 
nur für ganz bestimmte spezielle Anwendungsfälle.
Ich denke, für allgemeine Aufgaben ist die Entwicklung langsam am Ende. 
Der Takt steigt nur noch sehr langsam, wenn überhaupt, und die 
Recheneinheiten noch schneller zu bekommen, ist mit exponentiell 
steigendem Aufwand bei gleichzeitig immer geringerer 
Performance-Verbesserung verbunden. Am ehesten kommt man damit weiter, 
die Zahl der Rechenkerne zu erhöhen, was aber nicht von jeder Software 
gewinnbringend genutzt wird. Vor allem Spiele hinken da hinterher, 
werden sich aber daran anpassen müssen.

> Neben den Cores gibt es auch Schnittstellen wie USB, SATA, PCIe, die
> sich weiterentwickeln. Eine SSD ist zwar auch in SATA 3Gb besser als
> eine HDD, aber als langsamer als NVME ist sie schon.

Auch SATA 6Gb ist viel zu langsam inzwischen. Da ist bei ca. 600 MB/s 
Schluss. Die schnellsten M.2-SSDs kommen heute auf bis zu 5 GB/s und 
brauchen dafür bereits mindestens PCIe 4.0 mit 4 Lanes.

Nun. schrieb:
>> 3GHz das Ende der Fahnenstange
>
> Es gibt viele Desktop CPUs die bis 4 GHz oder höher takten so lange es
> kühl genug bleibt. Das ist in Desktops mit ordentlicher Kühlung meistens
> der Fall.

Der Intel i9-9900KS läuft ohne Übertaktung auf allen Kernen mit 5 GHz, 
solange das Leistungsbudget nicht überschritten wird.

> Seit AMD wieder im Rennen ist, muss auch Intel sich mal wieder bewegen
> und in den letzten 3 Jahren ist mal seit langem sogar richtig viel voran
> gegangen

Bei Intel aber eher nicht so.

A. K. schrieb:
> Was kann man mit 16 Kernen anfangen, in der Breite bei Büroanwendungen
> mit Office und Web, nicht Grafik- oder Elektronik-Design?

Das sind aber auch Anwendungen, die nicht unbedingt Systeme am oberen 
Ende der Leistungsskala erfordern.

von A. K. (prx)


Bewertung
0 lesenswert
nicht lesenswert
Rolf M. schrieb:
> Klar, sowas gibt es, genauso wie Einheiten für z.B. Verschlüsselung oder
> Video-Dekodierung. Die sind aber alle nicht allgemein nützlich, sondern
> nur für ganz bestimmte spezielle Anwendungsfälle.

Hardware-Support zur Videodekodierung (i.d.R. eine GPU) verwendet so 
ziemlich jeder, weil das auch vom Browser genutzt wird. Zumindest bei 
Notebooks ist Disk-Verschlüsselung auch häufiger anzutreffen. Der 
Unterschied zwischen Prozessoren mit und ohne entsprechendem Support ist 
dann markant.

von MaWin (Gast)


Bewertung
-2 lesenswert
nicht lesenswert
Bert K. schrieb:
> Also kann sich ein heute 20-jähriger einen
> hochwertigen PC kaufen und selbigen bis an sein Lebensende nutzen

Nein, natürlich nicht.

Zwar ist der Prozessor a la Intel wohl am Ende angekommen, signifikant 
mehr Taktrate geht offenkundig nicht, nur mehr Kerne, und die Software 
kommt monopolistisch von Microsoft, die aber nichts mehr hassen, als den 
Anwender und das Betriebssystem am liebsten einstampfen würden, immerhin 
wird es von Version zu Version schlechter und weniger nützlich, zusammen 
mit Word & Co., und die einzige mögliche Konkurrenz, Linux, trabt jedem 
Stöckchen von Microsoft hinterher an statt innovativ Neues zu 
produzieren (man hat bei denen ja noc nicht mal einen tauglichen 
Fenstermanager mit Gadgets als Standard).

Aber es wird sicher eine Zukunft geben: Der erste war das Smartphone, 
Computer zum mitnehmen, der zweite ist Alexa, Computer mit Sprache als 
User-Interface (demnächst vielleicht auch ohne zentralen Server), und 
wir werden wohl noch den Quantencomputer mit völlig anderer 
Rechenleistung erleben. Ob neuronale Netze mal eine Rolle spielen halte 
ich für ungewiss, niemand braucht einen Computer der so viele Fehler 
macht wie ein Mensch, aber bei autonom fahrenden Autos (oder Lastwagen, 
oder Erntemaschinen) wird es wohl anders nicht gehen.

Schön wäre es, wenn wenigstens ein "bei Aldi" ausgelieferter PC mit 
Betriebssystem und Standard-Anwenderprogrammen anständig benutzbar wäre. 
Leider ist das auf Grund der aktuellen Firmenpolitik nicht möglich, er 
ist derzeit ein Haufen Schrott. Ich schau mir gerade an, wie die 
verschiedenen Menschen mit der Zwangsumstellung auf Win10 zurechtkommen, 
und kann nur sagen: Gar nicht. Es hören einige Leute mit der Benutzung 
des PC auf weil der Schrott sie nur noch nervt. So ein Programm wie 
Office365 funktioniert gar nicht. Es tut nur Dinge die die Welt nicht 
braucht, und kann die einfachsten Sachen nicht mehr. Das erinnert an die 
Zeit, als die meisten Leute ihre privaten Drucker abgeschafft haben, 
weil der 50 EUR Schrott schnellstens kaputt ging, und die Tinte ihnen 
die Haare vom Kopf gefressen hat. So ruinieren Hersteller durch 
grenzenlose Gier ihr eigenes Geschäft.

von A. K. (prx)


Bewertung
0 lesenswert
nicht lesenswert
Rolf M. schrieb:
> Der Intel i9-9900KS läuft ohne Übertaktung auf allen Kernen mit 5 GHz,
> solange das Leistungsbudget nicht überschritten wird.

Wobei man mit CPU-lastigem 08/15-Kram oft genug im Dauer-Turbo laufen 
kann. Um den Prozessor wirklich thermisch zu kitzeln muss man dann die 
GPU stressen, oder alles ausreizen, was AVX hergibt.

Das ist bei Servern nicht viel anders. Ein Epyc 2 7702P mit 64 Kernen 
zeigte bei einem moderaten Last-Test nicht die geringste Lust, auf seine 
nominellen 2,0 GHz zu drosseln und der ganze Rechner blieb weit unter 
dem Leistungslimit des Prozessors.

: Bearbeitet durch User
von Michael M. (Firma: DO7TLA) (do7tla)


Bewertung
0 lesenswert
nicht lesenswert
Die einzige steigerung wäre hier nur noch die verdoppelung der 
Busbreite, neue schnellere Speichertechnologien (SSD und Ram) und die 
vervielfachung der CPU Kerne sowie die erweiterung und optimierungen der 
Befehlssätze.

Meine idee wäre wenn man den Ram Speicher mit in die CPU integriert und 
diesen mit CPU Takt laufen lässt.
Die wege zwischen CPU und Arbeitsspeicher wären deutlich geringer und 
man hätte fast keine Latenzen.

Ok Ramupgrade wären dann nicht mehr so ohne weiteres möglich.
Man müsste in diesen Fall die CPU tauschen.

von Manuel X. (vophatec)


Bewertung
0 lesenswert
nicht lesenswert
Michael M. schrieb:
> und die vervielfachung der CPU Kerne

Reichen dir 64 Kerne noch nicht?

von Nun. (Gast)


Bewertung
0 lesenswert
nicht lesenswert
MaWin schrieb:
> Bert K. schrieb:
>> Also kann sich ein heute 20-jähriger einen
>> hochwertigen PC kaufen und selbigen bis an sein Lebensende nutzen
>
> Nein, natürlich nicht.



Alle Elektronikkomponenten - auch Hableiter - unterliegen 
Alterungsprozessen.
Gerade die hochintegrierten Bauteile wie GPU+GPU und Chipsatz die sehr 
warm werden (Elektromigration, das wird immer relevanter je feiner die 
Strukturen werden).

Die halten nicht ewig wenn die ständig in Verwendung sind...

von A. K. (prx)


Bewertung
0 lesenswert
nicht lesenswert
Michael M. schrieb:
> Meine idee wäre wenn man den Ram Speicher mit in die CPU integriert und
> diesen mit CPU Takt laufen lässt.

Auf dem Die selbst halte ich das für unwahrscheinlich. Die 
Herstellungsweise von Prozessoren und DRAMs ist zu verschieden.

> Die wege zwischen CPU und Arbeitsspeicher wären deutlich geringer und
> man hätte fast keine Latenzen.

Da gibts eine eigentümliche Entwicklung. AMD setzte sich mit dem 
K8/Opteron von Intel ab, indem das RAM nicht mehr an einem separaten 
Bridge-Chip hing, sondern direkt am Prozessor-Chip. AMDs Zen 2 setzt 
sich von Intel ab, indem das RAM nicht mehr direkt am Prozessor-Die 
hängt, sondern an einem separaten Bridge-Die.

Gut, die Gründe dafür liegen wohl nicht darin, was das Optimum bei der 
Performance wäre, sondern in effektiver Nutzung der Fabtechnik und 
Die-Grösse. Die Latenz leidet darunter messbar.

: Bearbeitet durch User
von Gerald K. (geku)


Bewertung
0 lesenswert
nicht lesenswert
Ergänzung mit Neuronale Netzwerke für rasche Mustererkennung?

größere Busbreite z.B. 256 Bit würde bei vielen Berechnungen die FPU 
sparen, denn welche Berechnung braucht Zahlen größer als 10 hoch 77?

geringerer Energieverbrauch

von Ben B. (Firma: Funkenflug Industries) (stromkraft)


Bewertung
-1 lesenswert
nicht lesenswert
Naja irgendwann wird der PC eine Leistungsgrenze erreichen, weil man 
keine Strukturbreiten bauen kann, die kleiner als ein einzelnes Atom 
sind. Wenn man über diese Grenze hinaus will, braucht es eine andere 
Technologie oder eine andere Art Computer, die anderen physikalischen 
Gesetzen folgt.

Der Takt kann auch nicht beliebig hoch ansteigen, irgendwann wird es zum 
Problem, daß sich Strom nicht schneller als Lichtgeschwindigkeit bewegen 
kann, bzw. glaube sogar nur ein gutes Stück langsamer. Dann könnte man 
zwar theoretisch mehrere Bits hintereinander gleichzeitig auf einer 
Leitung übertragen, aber ob das Sinn macht weiß ich nicht. Das 
Taktsignal hat ja die gleichen Probleme und man muß trotzdem alles 
irgendwie synchron halten, daß die Bits auch ankommen wenn sie gebraucht 
werden.

Speicher in aktueller Form hat das gleiche Problem. Eine Speicherzelle 
kleiner als ein Atom (pro Bestandteil) ginge mit aktueller Technik 
nicht. Daten auf subatomarer Ebene speichern mag möglich sein, aber 
aktuell könnte ich z.B. keine Atomkerne umbauen um damit verschiedene 
Zustände zu speichern.

Egal, brauch ich mir keine Gedanken drum zu machen. Bin zwar noch recht 
jung, aber daß man an diese Grenzen tatsächlich anstößt, erlebe ich 
nicht mehr.

Edit:
> Zahlen größer als 10 hoch 77?
Die Größe der Zahlen ist gar nicht so extrem wichtig, sondern die 
Genauigkeit. Es gibt Zahlen, die sich binär einfach nicht darstellen 
lassen bzw. nur mit großem Aufwand genau genug darstellen lassen.

: Bearbeitet durch User
von Karl (Gast)


Bewertung
0 lesenswert
nicht lesenswert
MaWin schrieb:
> Ich schau mir gerade an, wie die
> verschiedenen Menschen mit der Zwangsumstellung auf Win10 zurechtkommen,
> und kann nur sagen: Gar nicht.

So? Welche Probleme gibts da?

MaWin schrieb:
> So ein Programm wie
> Office365 funktioniert gar nicht.

Warum funktioniert das bei dir nicht?

MaWin schrieb:
> Das erinnert an die
> Zeit, als die meisten Leute ihre privaten Drucker abgeschafft haben,
> weil der 50 EUR Schrott schnellstens kaputt ging, und die Tinte ihnen
> die Haare vom Kopf gefressen hat. So ruinieren Hersteller durch
> grenzenlose Gier ihr eigenes Geschäft.

Da kann ich mich nicht daran erinnern. Ja stimmt, die Druckertinte wurde 
zur teuersten Flüssigkeit im Haushalt. Aber drucken muss man ja 
trotzdem. Ich habe mir einen Laserdrucker zugelegt. Ich habe nie viel 
gedruckt und verstopfte Tintendüsen wollte ich nicht.

von A. K. (prx)


Bewertung
0 lesenswert
nicht lesenswert
Michael M. schrieb:
> Meine idee wäre wenn man den Ram Speicher mit in die CPU integriert und
> diesen mit CPU Takt laufen lässt.

Bezogen auf den gesamten CPU-Chip liegst du aber gut:
"AMD to 3D Stack DRAM and SRAM on Processors"
https://www.tomshardware.com/news/amd-3d-memory-stacking-dram,38838.html

von Sven B. (scummos)


Bewertung
0 lesenswert
nicht lesenswert
Ben B. schrieb:
> Dann könnte man
> zwar theoretisch mehrere Bits hintereinander gleichzeitig auf einer
> Leitung übertragen, aber ob das Sinn macht weiß ich nicht.

Das funktioniert schon jetzt oft so und ist der Grund aus dem Leitungen 
impedanzkontrolliert sein müssen ...

Die Lichtgeschwindigkeit setzt erstmal nur Limits für die Latenz.

von A.S. (Gast)


Bewertung
0 lesenswert
nicht lesenswert
Der PC ist am Ende, weil er sich überholt hat.

Bert K. schrieb:
> Also kann sich ein heute 20-jähriger einen hochwertigen PC kaufen und
> selbigen bis an sein Lebensende nutzen

Er will ihn aber gar nicht nutzen. Er will auch keinen Laptop mit sich 
rumschleppen oder sich irgendwo einwählen. Eigentlich will er eine 
Streichholzschachtel mitnehmen, und überall Tastatur, maus und 2qm 
Bildschirm zum dranstecken. Und solange es das nicht gibt, sind Tablet, 
Handy, Cloud und TB-Internet gefragt.

Der PC ist so über wie die Telefonbank und die Fernsehnische im 
Wohnzimmerschrank. Der PC ist aber noch billig. oder high end für Profis

von Rolf M. (rmagnus)


Bewertung
0 lesenswert
nicht lesenswert
Manuel X. schrieb:
> Michael M. schrieb:
>> und die vervielfachung der CPU Kerne
>
> Reichen dir 64 Kerne noch nicht?

Wie viele Leute haben denn in ihrem PC einen Prozessor mit 64 Kernen?
Abgesehen davon: Die Grafikkarten sind bereits jenseits von 4000 Kernen 
unterwegs.

A. K. schrieb:
> Michael M. schrieb:
>> Meine idee wäre wenn man den Ram Speicher mit in die CPU integriert und
>> diesen mit CPU Takt laufen lässt.
>
> Auf dem Die selbst halte ich das für unwahrscheinlich. Die
> Herstellungsweise von Prozessoren und DRAMs ist zu verschieden.

Was es nur gibt, und in Handys und teilweise bei Grafikchips ja Standard 
ist, wäre, den Speicher zwar auf einen separaten Die, aber huckepack auf 
den Prozessor ins selbe Gehäuse mit einzubauen. Siehe HBM.

von Rote T. (tomate)


Bewertung
0 lesenswert
nicht lesenswert
> Meine idee wäre wenn man den Ram Speicher mit in die CPU integriert und
> diesen mit CPU Takt laufen lässt.

So schnell wie der Cache wird DRAM aber kaum sein, ausserdem brachts 
viel Platz.
Dann besser sowas wie 8x HBM2 mit extrem breitem Bus.

Ist dann halt wahrscheinlich nur für grosse lineare Datensätze 
brauchbar, einmal falsche Sprungvorhersage und man müsste alles neu 
laden.

von Gerald K. (geku)


Bewertung
0 lesenswert
nicht lesenswert
Ben B. schrieb:
> Die Größe der Zahlen ist gar nicht so extrem wichtig, sondern die
> Genauigkeit. Es gibt Zahlen, die sich binär einfach nicht darstellen
> lassen bzw. nur mit großem Aufwand genau genug darstellen lassen

Spiegelt sich die Genauigkeit nicht in der Anzahl der Stellen (Bits) 
wieder?

Eine Floating Point Unit (FPU) kann mit sehr großen und kleinen Zahlen 
umgehen, dass sagt aber nichts über die Genauigkeit aus.

Das Universum  ist 45 Milliarden Lichtjahre groß ==>  4e26 m
Planksche Länge (kleinste Länge) ==> 1,6e-35 m

Das Universum lässt sich  2,5e61 mal mit der plankschen Länge auslegen.

Die Zahl ist  wesentlich  kleiner als 2 hoch 256 (1,2e77). Genauer 
geht es nicht!

von Ben B. (Firma: Funkenflug Industries) (stromkraft)


Bewertung
0 lesenswert
nicht lesenswert
Wenn man es mal global betrachtet: Der PC ist in spätestens 50..70 
Jahren weg.

Grund dafür ist nicht nur die Technik, sondern auch der 
Generationenwechsel. Die älteren möchten ihre wichtigen Sachen immer 
noch sehr gerne in Papierform. So gedruckt oder geschrieben auf Papier. 
Ich möchte sie schon gerne auf meinem PC haben, das erspart mir die 
Papierstapelei und ich kann sie einfacher sichern.

Die nachfolgenden Generationen, die mit der Technik von Stand Geburt 
aufwachsen, haben immer weniger Hemmungen, ihre Daten anderen 
anzuvertrauen. Die speichern ihren Kram am liebsten in irgend einer 
Cloud.

Der nächste Schritt sind gestreamte Echtzeit-Spiele. Aktuell frisst das 
noch einen riesen Haufen Traffic, aber ich brauche dafür zuhause im 
Grunde nur einen Fernseher, der Streamingdienste beherrscht und den 
Controller anbinden kann. Irgendwann, wenn die Mobilfunknetze so gut 
geworden sind, daß es evtl. nur noch ein einziges globales Datenfunknetz 
gibt (ähnlich wie das Internet heute anstelle des alten 
Telefon-Kabelsystems) und man echte Flatrates bekommt, bei vielen 
Benutzern auch noch große Datenmengen möglich sind (mehr als heute und 
ja ich weiß, daß das noch dauert), wir das ganz normal sein. Dann zahlt 
man z.B. 30 Euro monatlich pauschal für die Nutzung des kompletten 
Angebots und braucht keine leistungsstarken Geräte mehr zuhause bzw. 
kann es vom Handy aus nutzen.

Nachteil davon, wir machen uns damit zu 120% von diesen Diensten 
abhängig. Brechen die zusammen oder werden planmäßig abgeschaltet, geht 
gar nichts mehr. Ähnlich wie heute das Stromnetz. Diese Dienste werden 
wirklich alles über uns wissen. Irgendein Hacker, der Dich gar nicht 
kennt und den Du auch nicht kennst, kann Dir dann ohne Probleme das 
ganze Leben zerstören. Plötzlich 20 Millionen Schulden weil's einer 
lustig findet. Oops, so ein Unglück aber auch.

Vor 30 Jahren hat man noch geschrieen was die böse Stasi doch alles 
gemacht und an Datenbergen gesammelt hat... heute? Kauft euch 'ne Alexa, 
nutzt damit Amazon und diese Firmen erfahren weit mehr über euch als 
sich die Stasi je zu träumen gewagt hat - in kürzerer Zeit!

von Marek N. (bruderm)


Bewertung
0 lesenswert
nicht lesenswert
Oliver S. schrieb:
> Der Leistungsunterschied zwischen Desktop- und Laptopprozessoren war
> schon immer ziemlich deutlich. Da vergleichst du halt Äpfel mit Birnen,
> und die Birnen haben dann noch weniger Kerne.

Das stimmt, man kann Destop-Prozessoren nicht direkt mit 
Laptop-Prozessoren vergleichen, aber es ist der einzige Strohalm, an dem 
ich mich festhalten kann.
Wenn mein 7 Jahre alter Desktop-PC eine Benchmark von sagen wir 9500 
erreicht, so wäre ich schön blöd, wenn ich mir jetzt einen Laptop hole, 
der schlechter ist.

Noch signifikanter wird es bei GPUS: NVIDIA CUDA gibt es im mobilen 
Segment aktuell nur mit der MX230 und MX250 und da ist die 2D-Benchmark 
identisch, wie bei meiner 7 Jahre alten Desktop GTX 660 Ti und die 
3D-Benchmark ist sogar nur halb so gut.

von Joggel E. (jetztnicht)


Bewertung
-1 lesenswert
nicht lesenswert
Der urspruengliche PC wurde auch zu einem Teil durch Tablets ersetzt. 
Leute, die nur etwas surfen wollen verwenden besser tablets. Ein 
Bisschen Office ist auch nicht der Einsaztbereich der meodernen PCs. Ich 
fuer eminen Teil mache 3D Simulationen, welche noch nicht iteraktiv 
sind. Und da ist geplant diese zu kombinieren.
Also nicht nur Elektrodynamik oder Fluiddynamik, sondern beides 
zusammen.

Mittlerweile rechnet Fluiddynamik nicht nur Einphasensystemes, sondern 
auch Multiphasensysteme. also Regen, Steine & Sand in der Regenrinne, 
usw. Damit kann man zB simulieren wo die Orte am Auto sind, bei welchen 
die Sensoren auch bei Regen noch optimal arbeiten. Wo wird die 
Rueckfahrkamera am Wenigsten verschmutzt.

von Marek N. (bruderm)


Bewertung
0 lesenswert
nicht lesenswert
Joggel E. schrieb:
> Wo wird die
> Rueckfahrkamera am Wenigsten verschmutzt.

Halt dich ran!
Bei dem momentanen Wetter darf ich meine mindestens ein Mal pro Woche 
mit dem nassen Finger reinigen ;-)

von Rolf M. (rmagnus)


Bewertung
0 lesenswert
nicht lesenswert
Marek N. schrieb:
> Noch signifikanter wird es bei GPUS: NVIDIA CUDA gibt es im mobilen
> Segment aktuell nur mit der MX230 und MX250

Huh? Wie kommst du darauf? Laut NVidia kann eigentlich auch im 
Mobilbereich so ziemlich alles CUDA, was nicht extrem alt ist.

von A. N. (bastelmaniac)


Bewertung
0 lesenswert
nicht lesenswert
Das Ende des herkömmlichen PCs wurde schon Mitte/Ende der 90er 
prophezeit. Damals, wie heute, die Vision, dass alles irgendwie im 
"Internet" passiert und die Endgeräte quasi wieder nur dumme Terminals 
seien.

Hat sich nach wie vor nicht so durchgesetzt.

Das einzige was bleibt, ist das Verschwinden des herkömmlichen PCs aus 
vielen privaten Haushalten. Ersetzt durch Tablets, Smart-TVs und 
Smartphones.

Und ehrlich gesagt, finde ich das gut.

Alle "Familien-PCs" die ich kenne und die aus Familien komplett ohne 
IT-Hintergrund stammen, waren Softwareseitig in grauenhaftem Zustand. 
Ewig keine Updates, Scareware installiert, irgendwelche Browserbars, 
defaultmäßiges Arbeiten als Adminuser usw. Meistens wird erst dann Hilfe 
geholt, wenn der letzte Trojaner eine Ransomware war und final den 
PC/die Daten unbrauchbar gemacht hat. Derart schlimm verseucht sind 
Tablets, Smart-TVs und Smartphone dann eher nicht.

Im professionellem Umfeld ist das eine völlig andere Geschichte. Ich 
denke, hier werden herkömmliche PCs nicht so schnell aussterben.

von Sebastian L. (sebastian_l72)


Bewertung
0 lesenswert
nicht lesenswert
Bert K. schrieb:

> ... Also kann sich ein heute 20-jähriger einen
> hochwertigen PC kaufen und selbigen bis an sein Lebensende nutzen ..
> Irgendwie kaum vorstellbar

Kaum vorstellbar.
Die 3 GHz Prozessortakt hatten wir schon vor 16 Jahren. Die Pentium 4 
waren Heizungen mit Abfallprodukt "Rechenleistung". Ein moderner Browser 
der eBay.de anzeigt wird damit ausgelastet. CPU Takt ist kein Massstab.

Es gibt soo viele Rechenaufgaben die noch immer ewig lange dauern.
Farbgraduiere mal einen HD-Film.. von 4k oder 8k ganz zu schweigen.
Im Engineering Bereich gibt es Modelprogramme die jede Full-Spec 
Workstation voll auslasten können, dass du dich langweilst.

>  - oder doch?
andererseits. Mein X200s Notebook von 2008 läuft und läuft... (CPU gerne 
konstant 100%).
Damit mache ich aber keine CFD Berechnungen mehr und für modernes 3D CAD 
ist das auch nix.

Beitrag #6154783 wurde vom Autor gelöscht.
von michael_ (Gast)


Bewertung
-1 lesenswert
nicht lesenswert
A. N. schrieb:
> Das einzige was bleibt, ist das Verschwinden des herkömmlichen PCs aus
> vielen privaten Haushalten. Ersetzt durch Tablets, Smart-TVs und
> Smartphones.
>
> Und ehrlich gesagt, finde ich das gut.

Ich gar nicht.
Bin seit kurzen stolzer Besitzer von so einem Android Tablet.
Eigentlich um meine Bilder einfach zu präsentieren. Das geht gut.
Meist.
Bsp., ich habe vorher paar Bilder auf die zusätzliche Speicherkarte 
kopiert.
Nun kann ich sie aber nicht vom Tablet aus löschen. Find keine Stelle um 
die Berechtigung zu übernehmen.

Das ist eine Gehhilfe, Krücke gegenüber einem PC.
Hat zwar andere Vorteile, kann aber einen PC/Laptop keinesfalls 
ersetzen.

>
> Alle "Familien-PCs" die ich kenne und die aus Familien komplett ohne
> IT-Hintergrund stammen, waren Softwareseitig in grauenhaftem Zustand.
> Ewig keine Updates, Scareware installiert, irgendwelche Browserbars,
> defaultmäßiges Arbeiten als Adminuser usw. Meistens wird erst dann Hilfe
> geholt, wenn der letzte Trojaner eine Ransomware war und final den
> PC/die Daten unbrauchbar gemacht hat. Derart schlimm verseucht sind
> Tablets, Smart-TVs und Smartphone dann eher nicht.

Für 60%(?) der Leute war das die einzige Möglichkeit, am Internet und 
Heimbüro teilzunehmen ohne sich näher damit befassen zu wollen.
Das fällt nun mit Tablet oder Smartphone weg.
Für den Rest, der mehr will, sehe ich gute Chancen bei einem PC zu 
bleiben.

von DesolderedCPU (Gast)


Bewertung
0 lesenswert
nicht lesenswert
A. N. schrieb:
> Das einzige was bleibt, ist das Verschwinden des herkömmlichen PCs aus
> vielen privaten Haushalten. Ersetzt durch Tablets, Smart-TVs und
> Smartphones.
>
> Und ehrlich gesagt, finde ich das gut.
Hmm, also wenn ich mir so die wöchentlichen Sicherheitsmeldungen zu den 
mobilen Geräten ansehe bin ich da ganz anderer Meinung. Zumal die 
Hersteller oft sehr lange für Patches brauchen und nach spätestens 2 
Jahren dann Schluß ist mit Wartungspaketen. Dann ist eben auch Schluß 
mit dem jeweiligen Gerät, ein erzwungener Neukauf erforderlich und die 
Mülltonne um mindestens ein Gerät reicher. Das neue Mobilsystem hat dann 
auch schon wieder ganz andere Sicherheitsbaustellen.
Btw.: Künftig steckt Vergleichbares dann auch in allen Autos.

von A. K. (prx)


Bewertung
0 lesenswert
nicht lesenswert
DesolderedCPU schrieb:
> nach spätestens 2 Jahren dann Schluß ist mit Wartungspaketen.

Google garantiert bei den Pixels 3 Jahre.
Bei iPhones können es auch 5-6 Jahre sein.

> Btw.: Künftig steckt Vergleichbares dann auch in allen Autos.

Steckt jetzt schon drin, nur noch nicht in allen.

: Bearbeitet durch User
von Nun. (Gast)


Bewertung
2 lesenswert
nicht lesenswert
A. N. schrieb:
> Alle "Familien-PCs" die ich kenne und die aus Familien komplett ohne
> IT-Hintergrund stammen, waren Softwareseitig in grauenhaftem Zustand.


Daher installiert heute der Admin solcher Systeme Linux drauf, für so 
eine gewisse Grundsicherheit ;-)
Surfen sieht ja 1:1 genauso aus wenn man schon Firefox oder Chrome 
gewohnt ist, ist daher fast egal welches OS.

von old school (Gast)


Bewertung
1 lesenswert
nicht lesenswert
michael_ schrieb:
> Bin seit kurzen stolzer Besitzer von so einem Android Tablet.
> ...
> Das ist eine Gehhilfe, Krücke gegenüber einem PC.
> Hat zwar andere Vorteile, kann aber einen PC/Laptop keinesfalls
> ersetzen.

Natürlich nicht, aber was ist eigentlich aus den Leuten geworden, dass 
man darüber überhaupt diskutieren muss? Das Arbeiten mit Maus und 
Tastatur bei 32" auf einem schnellen PC soll konkurrieren können mit dem 
herumgefingere auf einem Android Tablet? Mein 7" Samsung Tablet dient 
mittlerweile nur noch als Wecker fürs Aufstehen und als Timer für die 
Pizza im Backofen. Die 1.3 GHz reichen noch nicht mal mehr gescheit für 
einfache Webseiten. Dagegen ist das Huawei Smartphone der reinste 
Renner. Das Einzige für was die Dinger gut sind ist anderen (oder sich 
selbst) mal schnell Bildchen zu zeigen. Weder können sie mir beim 
Konstruieren für meinen 3D-Drucker helfen, geschweige denn den Drucker 
selber ansteuern (und gleichzeitig andere Aufgaben übernehmen). In Word 
oder Excel möchte ich darauf auch nicht arbeiten müssen oder meinen 
Scanner ansteuern oder die externen Festplatten, den TV USB-Stick schon 
gar nicht. Im Grunde sind Tablets doch nur spezialisierte 
Bildchen-Anzeiger, einfache elektronische Lesehilfen, die ein bisschen 
mehr können, mehr nicht. Ich möchte darauf jedenfalls nicht ernsthaft 
arbeiten müssen, keine Platine routen müssen oder LTSpice ausführen und 
PDF anzeigen geht auf einem großen Screen auch reichlich 
augenfreundlicher. Morgens im Bus damit herumjonglieren, dazu sind sie 
auch gegenüber dem Smartphone im Handling viel zu unbequem und auffällig 
- meine Brusttasche am Hemd reicht leider auch nur fürs Smartphone, wenn 
das Teil wieder verschwinden muss.

Das einzige was mir den Desktop-PC ersetzen könnte ist ein gescheites 
Notebook und gescheit heißt gleichzeitig reichlich teuer bei einem 
leistungsfähigen PC. Zudem kommt bei Notebook dann wieder der zu kleine 
Bildschirm negativ rüber und bevor dann doch wieder Tastatur, Maus und 
externer Bildschirm drangestöpselt werden, damit der Umgang erträglich 
wird, kann man auch gleich beim PC bleiben.

von S. R. (svenska)


Bewertung
-2 lesenswert
nicht lesenswert
old school schrieb:
> Im Grunde sind Tablets doch nur spezialisierte
> Bildchen-Anzeiger, einfache elektronische Lesehilfen,
> die ein bisschen mehr können, mehr nicht.

Tablets und Smartphones sind Geräte, mit denen man das Internet 
konsumieren kann. Die sind nicht für Produktivität geschaffen (auch wenn 
man gewisse Dinge damit leidlich gut kann), aber wenn man sich in der 
Gesellschaft umschaut, dann braucht die Mehrheit sowas auch nicht.

Die meisten Computerarbeitsplätze kann man heutzutage ohne echten 
Computer betreiben: Formulare im Browser ausfüllen und an den 
Verwaltungsfachdrucker schicken kann man auch auf einem Tablet. 
Steuererklärung geht auch, ist ja nur online (zum Vergleich: in Schweden 
bekommt man die Zusammenfassung per Post und bestätigt diese online oder 
per SMS; im Normalfall muss man nichts ändern). Die modernen sozialen 
Medien und viele neue Dienste sind ohnehin "mobile first", da ist ein PC 
im Konzept nichtmal vorgesehen.

Word und Excel (-Alternativen, z.B. Google Docs) funktionieren auch gut, 
wenn man Tastatur und Maus (via Bluetooth oder USB) anschließt oder ein 
Kombinationsgerät hat.

Es gibt für 90% der Bevölkerung keinen Grund, einen Computer zuhause zu 
haben.

von Karl (Gast)


Bewertung
4 lesenswert
nicht lesenswert
S. R. schrieb:
> Es gibt für 90% der Bevölkerung keinen Grund, einen Computer zuhause zu
> haben.

Auch Internetsurfen und Shopping ist auf einem Tablet eine Qual. Kein 
Vergleich mit einem 24 Zoll Monitor.

von S. R. (svenska)


Bewertung
0 lesenswert
nicht lesenswert
Karl schrieb:
> Auch Internetsurfen und Shopping ist auf einem Tablet eine Qual.

Das hängt von den Webseiten ab. Aliexpress (die App) funktioniert auf 
dem Tablet wesentlich besser als auf dem PC.

> Kein Vergleich mit einem 24 Zoll Monitor.

Bei "mobile first"-Webseiten, die maximal 6 Kacheln mit jeweils maximal 
10 Wörtern anzeigen, kommt es darauf auch nicht mehr an. ;-)

Auf Mobilgeräten wird Surfen nur dann zur Qual, wenn die Seite keine 
Mobilgeräte im Hinterkopf hatte. Ansonsten hatte ich damit wenige 
Probleme (auf dem Smartphone wegen des zu kleinen Displays schon eher).

von DPA (Gast)


Bewertung
0 lesenswert
nicht lesenswert
S. R. schrieb:
> Tablets und Smartphones sind Geräte, mit denen man das Internet
> konsumieren kann. Die sind nicht für Produktivität geschaffen

Falls sich die ganzen Freie Software und/oder Open Hardware Smartphone 
Projekte durchsetzen sollten, könnte das schon interessant werden.

Ich hab mal zum Spass auf meinem Smartphone EasyTax BL 2019 installiert: 
https://twitter.com/DPA168/status/1232044976986607618

Nicht schön, aber funktioniert. Sobald aber im Kernel mal der USB-C 
Alternate Mode für das Gerät mal drin ist, stell ich mir nen Bildschirm, 
Tastatur & Dockingstation auf das Pult, und ersetzt damit meinen PC.

Dann eventuell noch ein Nextdock dazu, und dann ist es plötzlich auch 
noch ein Laptop.

von Axel S. (a-za-z0-9)


Bewertung
-1 lesenswert
nicht lesenswert
Sven B. schrieb:
> Karl schrieb:
>> Die Entwicklung ist noch lange nicht abgeschlossen. Die Entwicklung geht
>> nur langsamer.
>
> Sehe ich nicht.
>
> 
https://de.wikipedia.org/wiki/Mooresches_Gesetz#/media/Datei:Moore's_Law_Transistor_Count_1971-2018.png

Was wolltest du damit aussagen? Daß Moore auch weiterhin gilt? Das Ende 
von Moores Gesetz (das eigentlich eher "Moores Beobachtung" heißen 
sollte) ist greifbar. Daß Chips größer werden, liegt schon seit langem 
eher an größer werdenden Caches als an größerer Funktionalität.

Sowohl die Taktfrequenz als auch die Single-Thread Performance 
stagnieren weitgehend. Das ist keine neue Erkenntnis. Dieser Herr konnte 
das vor 8 Jahren schon erkennen:

https://preshing.com/20120208/a-look-back-at-single-threaded-cpu-performance/

Die Entwicklung ging seitdem eher in Richtung massiv paralleler 
Hardware. Was auch nett ist, aber nur in Verbindung mit dazu passender 
Software etwas bringt.

Was PCs angeht: ich denke hier zeigt sich weniger der Effekt, daß PC 
nutzlos wären als vielmehr, daß die meisten Leute schlicht nie einen PC 
gebraucht haben. Was die Leute wirklich brauchten, war die 
Funktionalität, die heute von Smartphones und Tablets bereitgestellt 
wird. Und das betrifft nicht nur die vergleichsweise brachiale 
Rechenleistung eines PC, sondern auch die freie Programmierbarkeit 
(nicht mit allen Betriebssystemen natürlich). Die meisten Leute brauchen 
das gar nicht. Die haben eine handvoll Anwendungen die sie brauchen und 
das wars.

Klar reicht dann auch ein Mac oder <spuck> Windows-PC. Und mit 
Smartphones und Tablets und Spielekonsolen und smarten Fernsehern 
wandern einige dieser Anwendungen auf spezialisierte Hardware. Wer 
braucht denn ICQ auf dem PC, wenn er Whatsapp auf dem Smartphone hat? 
Wer braucht eine funktionierende Mediathek im Browser auf dem PC, wenn 
das der Fernseher selber kann?

Die Leute machen sich immer lustig über den IBM-Chef, der in den 
60ern(?) gesagt hat, er sehe einen Weltmarkt für vielleicht 5 Computer. 
Nun, so falsch lag der eigentlich nicht. Die meisten Leute brauchen in 
der Tat keinen Computer, sondern Appliances. Und jetzt wo es die gibt, 
verwenden sie die auch. Und nehmen nicht mehr einen Computer, der mit 
dem geeigneten Programm so tut, als wäre er eine.

von c-hater (Gast)


Bewertung
0 lesenswert
nicht lesenswert
A. K. schrieb:

> Was kann man mit 16 Kernen anfangen, in der Breite bei Büroanwendungen
> mit Office und Web, nicht Grafik- oder Elektronik-Design?

Genau das ist das Problem. Es gibt nicht parallisierbare Probleme. Da 
nützen einem mehr Kerne rein garnix.

Ein besonderer Aspekt dieses Problems ist die Kausalität eines GUI. Das 
ist leider so ein nicht parallelisierbares Problem (was man insbesondere 
daran bemerken kann, dass alle bekannten GUI-Libs single-threaded 
arbeiten). Klar kann man immer mal wieder anfallende Teilprobleme 
parallelisieren und dadurch in Summe doch ein wenig Speed machen, aber 
letztlich bleibt das GUI der zentrale Punkt, mit dem immer wieder auf 
die Fertigstellung von Teilproblemen gewartet werden muss, weil es halt 
logisch konsistent nur weiter gehen kann, wenn das aktuelle durch die 
Benutzereingabe entstandene Problem insgesamt gelöst ist.

Der Witz ist: durch die dramatisch aufgeblähten GUIs entsteht das 
Problem, dass mehr (teilweise sogar sehr viel mehr) Rechenzeit im GUI 
selber nötig ist als für die eigentliche Aufgabe. Sehr schon kann man 
das bei einem einfachen Texteditor sehen (also ohne jeden Schnickschnack 
wie Syntax-Highliting, Rechtschreib- und/oder Grammatikprüfung). Die 
Aufgabe besteht also nur darin, ein vom Benutzer eingegebenes Zeichen an 
irgendeinen Puffer anzuhängen und den neuen Pufferzustand wiederum 
auszugeben. Wenn man hier mal analysiert, wo die Rechenzeit bleibt, 
fällt man um. Werte von 1ppm im Verhältnis Nutzcode-Rechenzeitverbrauch 
zu GUI-Code-Rechenzeitverbrauch sind in diesem Szenario heute absolut 
gängig...

von Maxe (Gast)


Bewertung
0 lesenswert
nicht lesenswert
S. R. schrieb:
> Bei "mobile first"-Webseiten, die maximal 6 Kacheln mit jeweils maximal
> 10 Wörtern anzeigen, kommt es darauf auch nicht mehr an. ;-)
>
> Auf Mobilgeräten wird Surfen nur dann zur Qual, wenn die Seite keine
> Mobilgeräte im Hinterkopf hatte.
Ich hab genau die gegenteilige Erfahrung gemacht. Wenns zwei Versionen 
einer Seite gibt, ist die Desktop-Version in 19 von 20 Faellen, die 
"Benutzbarere" auf dem Handy.

Beispiel Wikipedia: Wie komm ich in der Mobilversion auf die 
Diskussionsseite? Ueberhaupt nicht intuitiv. Das ist Information-Hiding 
vom Feinsten.

von Sven B. (scummos)


Bewertung
0 lesenswert
nicht lesenswert
Axel S. schrieb:
>> Sehe ich nicht.
>>
>>
> 
https://de.wikipedia.org/wiki/Mooresches_Gesetz#/media/Datei:Moore's_Law_Transistor_Count_1971-2018.png
>
> Was wolltest du damit aussagen? Daß Moore auch weiterhin gilt? Das Ende
> von Moores Gesetz (das eigentlich eher "Moores Beobachtung" heißen
> sollte) ist greifbar.

Ist das so? Ich sehe das für die nächsten 20 Jahre nicht.

> Daß Chips größer werden, liegt schon seit langem
> eher an größer werdenden Caches als an größerer Funktionalität.

Also mein Pentium II war größer als die Intel-i5-CPU, die ich im Moment 
habe.

> Sowohl die Taktfrequenz als auch die Single-Thread Performance
> stagnieren weitgehend. Das ist keine neue Erkenntnis. Dieser Herr konnte
> das vor 8 Jahren schon erkennen:
>
> https://preshing.com/20120208/a-look-back-at-single-threaded-cpu-performance/

Ja, aber die Zeiten, in denen rechenintensive Software nur 
single-threaded gerechnet hat, sind lange vorbei. Die Anzahl der 
Anwendungen, wo man prinzipbedingt wirklich nur einen Kern benutzen 
kann, ist auch verschwindend klein. Spielt also in der Praxis keine 
allzu große Rolle, außer dass es eine gewisse Komplexität für die 
Software mit sich bringt.

: Bearbeitet durch User
von A. N. (bastelmaniac)


Bewertung
0 lesenswert
nicht lesenswert
Hier ein Beispiel aus diesem Forum für meine These der gammligen 
Privat-PCs:

Beitrag "ARD und ZDF live stream"

Alter Firefox, Windows XP.

Da ist wohl ein Tablet mit vielleicht älterem Android, aber aktuellen 
Apps, durch die automatischen Updates, immer noch sicherheitstechnisch 
besser. Wenn Android dann final antik ist, werden die Leute wenigstens 
gezwungen was zu tun, weil die Appunterstützung wegfällt. Wenn auch das 
alles immer noch weit entfernt von optimaler Sicherheit ist, ist es 
besser als noch aktiv Windows XP im Internet mit alten Browsern zu 
benutzen, siehe oben.

Wenn ihr euch beschwert, dass ein Tablet zu umständlich zu bedienen sei, 
seid ihr nicht die korrekte Zielgruppe.

Ich kenne viele, die ich lange PC technisch mit Linux betreut habe und 
die dann final auf Tablet umgestiegen sind und hochzufrieden sind. Für 
reine Konsumenten und minimale, echte Arbeitsaufgaben, ist das voll in 
Ordnung.

Jemand hat es weiter oben schon geschrieben, die Leute haben in Wahrheit 
keinen PC gebraucht, sondern die Software darauf. Der Rest, wie die 
freie Programmierbarkeit ist für diese Zielgruppe eine viel zu große 
Freiheit, weil es Sicherheitsprobleme geradezu fördert.

von Och (Gast)


Bewertung
3 lesenswert
nicht lesenswert
1. Win XP dürfte heute nun wirklich die Ausnahme sein.

2. Selbst wenn ich nur mal einen Brief schreiben will, will ich das 
nicht auf einem Tablet machen. Trotz externer Bluetooths-Tastatur (die 
die wenigsten Leute haben) ist das ein Krampf.

von S. R. (svenska)


Bewertung
0 lesenswert
nicht lesenswert
DPA schrieb:
> Falls sich die ganzen Freie Software und/oder
> Open Hardware Smartphone Projekte durchsetzen
> sollten, könnte das schon interessant werden.

Das wird vorerst nicht passieren, zumindest sehe ich davon nichts. Es 
ist m.W. nichtmal gesetzeskonform möglich, ein freies Open 
Hardware-Smartphone auf den Markt zu bringen, weil man damit die 
Funknetze stören könnte.

Ausnahme: Man verdongelt das Modem. Aber das Ergebnis ist in meiner Welt 
dann kein freies Projekt mehr.

DPA schrieb:
> Sobald aber im Kernel mal der USB-C Alternate Mode für
> das Gerät mal drin ist, stell ich mir nen Bildschirm,
> Tastatur & Dockingstation auf das Pult, und ersetzt damit meinen PC.

Was auch nicht überraschend sein sollte, denn aktuelle Smartphones 
nehmen es an Rechenleistung und Speicher locker mit mittelklassigen 
Notebooks auf (werden allerdings durch die begrenzte Kühlung wieder 
beschränkt).

Axel S. schrieb:
> Die Entwicklung ging seitdem eher in Richtung massiv paralleler
> Hardware. Was auch nett ist, aber nur in Verbindung mit dazu passender
> Software etwas bringt.

Die meiste Software ist parallelisierbar oder lässt sich in weiten 
Teilen parallelisieren. Zudem wird das steigende Transistorbudget, was 
nicht für "schnellere Kerne" benutzt werden kann, für Caches oder 
häufige Spezialaufgaben verwendet (Videocodec, Verschlüsselung, 
Bildfilterung, KI in vielen Varianten, ...), so dass ein Großteil der 
insgesamt benötigten Rechenleistung wegfällt.

c-hater schrieb:
> Genau das ist das Problem.
> Es gibt nicht parallisierbare Probleme.
> Da nützen einem mehr Kerne rein garnix.

Du bäckst ziemlich kleine Allgemeinplätzchen.

Kryptographie ist nicht vernünftig parallelisierbar, und auch 
Videocodecs waren es lange nicht (und selbst dann nur mit Einbußen). 
Beides sind aber real keine Probleme mehr.

Wenn man 64 Kerne hat, die zudem energiesparender sind als die 2 Kerne, 
die man vorher hatte, dann nimmt man vielleicht Algorithmen, die 
nachweislich nicht optimal, aber dafür parallelisierbar sind. 
Skalierbarkeit ist wichtiger als Performance, im Serverbereich ist das 
seit vielen Jahren so.

Und dann gibt es noch den Sonderfall, dass man ein Problem garnicht 
parallelisieren können muss, weil man genug davon hat. Darauf basieren 
solche Dinge wie "make".

c-hater schrieb:
> Ein besonderer Aspekt dieses Problems ist die Kausalität eines GUI.

Du bist ein absoluter Witzwuffel manchmal. Eine GUI zeichnet sich in der 
Mehrheit der Fälle dadurch aus, dass sie auf den Nutzer wartet. 
Dummerweise sind die Nutzer auch eher kausal, ebenso wie die 
Eingabegeräte.

Wenn die GUI brav mit 60 Hz gerendert wird, dann ist es erstaunlich 
egal, ob sie das in einem oder fünfzig Threads tut. Relevant ist der 
Teil des Programms, der wirklich Arbeit verrichtet.

von A. K. (prx)


Bewertung
0 lesenswert
nicht lesenswert
c-hater schrieb:
> Genau das ist das Problem. Es gibt nicht parallisierbare Probleme.

Und solche, bei denen die Umstellung eines bestehenden Programms eine 
Scheissarbeit mit völlig neuen üblen Bugs ist. Besonders wenn es nicht 
um 2 oder 3 Threads geht, sondern um 100. Etwas, das Anbieter gerne 
vermeiden.

Oder die Anwendung gibt das her, braucht auch ordentlich Leistung, wird 
aber pro eingesetzter CPU bezahlt. Früher wurde die Hardware schneller, 
alle paar Jahre, heute wird die Software teurer, pro Jahr. Das stört 
dann nicht den Anbieter, aber der Kunde flucht.

: Bearbeitet durch User
von A. K. (prx)


Bewertung
0 lesenswert
nicht lesenswert
Axel S. schrieb:
> daß die meisten Leute schlicht nie einen PC
> gebraucht haben. Was die Leute wirklich brauchten, war die
> Funktionalität, die heute von Smartphones und Tablets bereitgestellt
> wird.

Viele Standardanwendungen sind mit Bildschirmtastatur einfach nur 
Hühnerkacke. Deshalb die Mischformen, Convertibles.

: Bearbeitet durch User
von Genau (Gast)


Bewertung
-2 lesenswert
nicht lesenswert
Sind Gaming-Computer nicht eine Schweinerei ? Nur weil eine Studie mal 
ergeben haben soll dass Gewaltmedien(und -Spiele) das Kaufverhalten 
fördern kaufen die Jungens wie blöde die teuren Kisten nebst Zubehör und 
abonnieren so gleichzeitig eine langjähre Gewalt-Verblödungs-Phase.

von Sven B. (scummos)


Bewertung
0 lesenswert
nicht lesenswert
A. K. schrieb:
> Und solche, bei denen die Umstellung eines bestehenden Programms eine
> Scheissarbeit mit völlig neuen üblen Bugs ist. Besonders wenn es nicht
> um 2 oder 3 Threads geht, sondern um 100. Etwas, das Anbieter gerne
> vermeiden.

Das ist aber die normale Wartung bei Software und genau wie eine 
Maschine kannst du so Software nicht 20 Jahre herumstehen lassen und 
erwarten dass sie danach noch so funktioniert wie vorher.

> Oder die Anwendung gibt das her, braucht auch ordentlich Leistung, wird
> aber pro eingesetzter CPU bezahlt. Früher wurde die Hardware schneller,
> alle paar Jahre, heute wird die Software teurer, pro Jahr. Das stört
> dann nicht den Anbieter, aber der Kunde flucht.

Das hat aber nichts mit der technischen Entwicklung zu tun, sondern mit 
den Lizenzmodellen, die sich der technischen Entwicklung angepasst haben 
...

von S. R. (svenska)


Bewertung
0 lesenswert
nicht lesenswert
Sven B. schrieb:
> Das hat aber nichts mit der technischen Entwicklung zu tun,
> sondern mit den Lizenzmodellen, die sich der technischen
> Entwicklung angepasst haben ...

Eher der Geldbeuteldicke der Kunden, die nicht wechseln können oder 
wollen.

von Sven B. (scummos)


Bewertung
0 lesenswert
nicht lesenswert
S. R. schrieb:
> Sven B. schrieb:
>> Das hat aber nichts mit der technischen Entwicklung zu tun,
>> sondern mit den Lizenzmodellen, die sich der technischen
>> Entwicklung angepasst haben ...
>
> Eher der Geldbeuteldicke der Kunden, die nicht wechseln können oder
> wollen.

Von was denn zu was? Diese Lizenzmodelle versuchen Preise für Software 
daran anzupassen wieviel die Software danach tatsächlich rechnet ... so 
unsinnig erscheint mir das jetzt a priori nicht.

von S. R. (svenska)


Bewertung
0 lesenswert
nicht lesenswert
Nur, weil ich einen Computer mit "vielen langsameren Kernen" kaufe statt 
einem mit "wenigen schnellen Kernen" (absolute Performance spielt keine 
Rolle), muss ich also jetzt auch zwei Lizenzen für einen Computer 
kaufen?

Komische Regel.

von Sven B. (scummos)


Bewertung
0 lesenswert
nicht lesenswert
Jedes Software-Lizenzmodell hat seine Merkwürdigkeiten. Wenn du die 
Gebühren an die Anzahl der Desktop-Rechner bindest, auf denen die 
Software läuft, kann man auch leicht Fälle konstruieren wo das Ergebnis 
komisch ist.

von A. K. (prx)


Bewertung
0 lesenswert
nicht lesenswert
S. R. schrieb:
> muss ich also jetzt auch zwei Lizenzen für einen Computer kaufen?

Beim Windows Server lizenziert man mittlerweile Kerne. Wenn man einen 
aktuellen AMD Server mit 2x64 Kernen einsetzt, sind zigtausend Euro nur 
dafür weg. Das schütteln auch Firmen nicht mal eben aus dem Ärmel.

: Bearbeitet durch User
von Axel S. (a-za-z0-9)


Bewertung
0 lesenswert
nicht lesenswert
A. K. schrieb:
> S. R. schrieb:
>> muss ich also jetzt auch zwei Lizenzen für einen Computer kaufen?
>
> Beim Windows Server lizenziert man mittlerweile Kerne. Wenn man einen
> aktuellen AMD Server mit 2x64 Kernen einsetzt, sind zigtausend Euro nur
> dafür weg. Das schütteln auch Firmen nicht mal eben aus dem Ärmel.

Das war grad letztens Thema bei Fefe: https://blog.fefe.de/?q=Oracle

von A. K. (prx)


Bewertung
0 lesenswert
nicht lesenswert
Hat er recht. Bei Redhat gibts auch Support, aber eine Grössenordnung 
billiger. Produktionsserver tendieren in Richtung Linux.

Mancher Anbieter rudert hektisch von Oracle weg, z.B. zu PgSql, weil 
seine Lösungen sonst unbezahlbar werden.

: Bearbeitet durch User
von M. W. (elektrowagi78) Benutzerseite


Bewertung
-1 lesenswert
nicht lesenswert
Der PC ist niemals an seiner Grenze, weil es keine gibt.

Hatten wir nicht vor Wochen eine Diskussion um Altera, welche 
FPGA-Technik in die Intelprozessoren hineinbringen will und ein 
Echtzeitsystem auf VHDL-Basis ermöglicht?

Ausserdem: Beitrag "HyperBus Ideen"

Antwort schreiben

Die Angabe einer E-Mail-Adresse ist freiwillig. Wenn Sie automatisch per E-Mail über Antworten auf Ihren Beitrag informiert werden möchten, melden Sie sich bitte an.

Wichtige Regeln - erst lesen, dann posten!

  • Groß- und Kleinschreibung verwenden
  • Längeren Sourcecode nicht im Text einfügen, sondern als Dateianhang

Formatierung (mehr Informationen...)

  • [c]C-Code[/c]
  • [avrasm]AVR-Assembler-Code[/avrasm]
  • [code]Code in anderen Sprachen, ASCII-Zeichnungen[/code]
  • [math]Formel in LaTeX-Syntax[/math]
  • [[Titel]] - Link zu Artikel
  • Verweis auf anderen Beitrag einfügen: Rechtsklick auf Beitragstitel,
    "Adresse kopieren", und in den Text einfügen




Bild automatisch verkleinern, falls nötig
Bitte das JPG-Format nur für Fotos und Scans verwenden!
Zeichnungen und Screenshots im PNG- oder
GIF-Format hochladen. Siehe Bildformate.

Mit dem Abschicken bestätigst du, die Nutzungsbedingungen anzuerkennen.