Hallo, hardwareseitig begann es mit C64, Amiga, Atari ST, dann kamen die ersten kompatiblen PCs auf den Markt. In der Firma dann ein PC mit 33MHz, dann 200MHz (die Taktraten stiegen rasant) bis irgendwann wegen physikalischen Gesetzmäßigkeiten bei 3GHz das Ende der Fahnenstange erreicht war. Softwareseitig begann es mit TOS, DOS, dann folgte Windows (3.11, 95, 98, 2000, ME, XP, Vista, 7, 8, 10). Laut MS soll Win10 nun das letzte BS sein. Als direkte Folge durfte jedermann alle paar Jahre seinen voll funktionsfähigen PC ausmustern. Da kam schnell der Gegenwert eines neuen Mittelklassewagens zusammen, den man auf den Müll schmeißen durfte. Firmen haben Leasingmodelle entwickelt, so dass die regelmäßige Erneuerung und Entsorgung der Altgeräte der Wirtschaft reibungslos über die Bühne ging. Mit 3GHz ist die Leistungsfähigkeit der CPU ausgereizt und die bisherige BS-Jagd hat auch eine Ende. Also kann sich ein heute 20-jähriger einen hochwertigen PC kaufen und selbigen bis an sein Lebensende nutzen - sollte man meinen. MS bliebe dann künftig nur noch das Stopfen von Sicherheitslücken und die Hardwarehersteller würden künftig nur noch Ersatzteile liefern. Irgendwie kaum vorstellbar - oder doch? Wie seht ihr das? Viele Grüße von Bert
Der Takt ist halt nicht das einzige, was sich ändert. Die CPUs sind seit 2005 mit ungefähr derselben Rate schneller geworden wie von 1990 bis 2005, nur dass die Taktfrequenz kein sinnvolles Maß mehr dafür ist. So eine moderne x86-CPU kann in einem Takt machen, wofür die von 2000 noch zwanzig Takte gebraucht hätte, und das dann auch noch auf 8 Cores gleichzeitig. -> Vergiss die Taktfrequenz als Metrik für CPU-Performance. Das ist das, was am Ende angelangt ist, sonst nichts. Das ist übrigens schon ziemlich lange so.
:
Bearbeitet durch User
Ich nutze hier einen zehn Jahre alten PC ohne Probleme. Es gibt aber Anwendungen wie etwa Spiele, die auch heute noch den PC von morgen voraussetzen. Bei Sachen wie FEM ähnlich, weil die Modellierung nie fein genug sein kann. Zudem hat ein heutiger PC der Mittelklasse mehr Wums als ein PC von vor 10 Jahren, braucht dafür aber wesentlich weniger Energie und kann daher leiser gekühlt werden, bzw. hat bei Laptops wahlweise längere Akkulaufzeit oder ist dank kleinerem Akku leichter.
Die Entwicklung ist noch lange nicht abgeschlossen. Die Entwicklung geht nur langsamer. Aber auch vor 15 Jahren hätte man nicht alle 2 Jahre einen neuen PC gebraucht. Das haben sich nur Freaks und Gamer geleistet. Es ist auch heute unklug einen "hochwertigen PC" für die Zukunft zu kaufen, den man heute noch nicht braucht. Da heute vorwiegend Komplettsysteme (Notebooks, Mini-PC) verkauft werden, die man nicht (oder schlecht) erweitern kann, ist es heute umso unklüger viel Geld auszugeben wenn es nicht sein muss. Früher hat man einfach eine neue CPU, neues Mainboard, neue Steckkarten für irgendwelche Schnittstellen (Garifk/Monitoranschluss, USB X.XX, ...) eingebaut, heute wird der ganze PC ersetzt.
Es ist aber auch so, dass die Programme "schuld" sind, dass man immer leistungsfähigere Hardware braucht. Ein PC mit 300MHz, 128MB Speicher und 20GB HDD, war damals als Office PC "schnell" genug und man konnte auch mal mehrere Excel / Word Dokumente gleichzeitig öffnen. Nebenbei lief vielleicht sogar noch ein DivX Video (natürlich in 352x288 und nicht 4k) Heute wird die Hardware nicht mal mehr für s Betriebssystem reichen
Karl schrieb: > Die Entwicklung ist noch lange nicht abgeschlossen. Die Entwicklung geht > nur langsamer. Sehe ich nicht. https://de.wikipedia.org/wiki/Mooresches_Gesetz#/media/Datei:Moore's_Law_Transistor_Count_1971-2018.png
Eben, zum Einen wurde die Busbreite von 32 auf 64 Bit gesteigert, zum Anderen die Anzahl der Prozessorkerne. 4 Cores mit je 2 Threads sind mittlerweile Standard. Außerdem wurde der Energieverbrauch gesenkt. Mein 2013 Desktop Core i7 3. Generation erreicht ähnliche Benchmarks, wie heutige Laptop Core i7 10. Generation, braucht aber die fünffache Leistung dafür. Anbei ein Screenshot der getätigten Vergleiche, da ich mir demnächst wieder ein Laptop holen will und wissen wollte, wo ich "stehe". /edit: Rechtschreibung
Es stimmt, dass die Einsatzlebensdauer heutiger Anwender-PCs ohne besondere Ansprüche gegenüber denen von vor 20 Jahren erheblich gewachsen ist. Die vorherige Generation aller Office-PCs in der Firma war mit einem dreistelligen i5 von 2010 ausgestattet. Die überwiegende Mehrheit war bis letztes Jahr noch im Einsatz. Mit der Zeit kam Speicher dazu, manche HDD machte einer SDD Platz, spezielle Arbeitsplätze erhielten irgendwann frische Ware. Die Cores entwickeln sich trotzdem weiter, aber nicht beim Takt, sondern anders. Neben wesentlichen internen Optimierungen und wachsenden Caches kamen Befehlsgruppen und Ausführungseinheiten hinzu, wie beispielsweise parallele Rechnung in erst 128 Bit, dann 256 Bit, dann 512 Bit Breite. Und nun auch AI. Neben den Cores gibt es auch Schnittstellen wie USB, SATA, PCIe, die sich weiterentwickeln. Eine SSD ist zwar auch in SATA 3Gb besser als eine HDD, aber als langsamer als NVME ist sie schon. USB 2 macht bei externen Disks heute keinen Spass mehr.
Aus einem gewissen Blickwinkel stimmt das schon. Viele Anwender sind auf deutlich leistungsschwächere Geräte (Netbook, Smartphone, Tablet) gewechselt, weil das für die typischen Anwendungen ausreicht. Wie schon erwähnt wurde reicht auch ein 10+ Jahre alter PC für die meisten Anwendungen immer noch aus.Der Fokus liegt da eher auf Optimierung des Leistungsbedarfs, wurde hier ja schon erwähnt. Die Entwicklung bleibt aber trotzdem nicht stehen. Es werden nur immer weniger Anwendungen, die einen aktuellen Highend-PC erfordern.
Was die Leistung angeht hört es bald auf. Kleiner geht nicht mehr wirklich, höherer takt auch nicht. Jetzt macht man noch mehr cores und optimiert die noch anderweitig soweit es geht. Einige werden neu auch auf geringen Stromverbrauch statt auf Leistung optimiert. Aber wenn die Optimierung mal an der grenze des machbaren ist, ist fertig. Computer werden sich möglicherweise aber auf andere Weise weiterentwickeln — zu unserem nachteil und des herstellers Profit. Bei den meisten geräten (z.B. Smartphones) ist abgeriegelte hardware, statt "mach damit was auch immer du willst", die Regel. Damit ist die Lebenszeit der Hardware wieder begrenzt, und es gibt viele neue Wege profit zu machen. Die DAUs werden am anfang garnicht merken, was passiert ist "Jeder nutzt immernoch Windows oder Android, wie vorher, was habt ihr denn".
Bert K. schrieb: > hardwareseitig begann es mit C64, Amiga, Atari ST, dann kamen die ersten > kompatiblen PCs auf den Markt. Nene... die sog. "Taiwan-Clones" gab es schon vorher. > Laut MS soll Win10 nun das letzte BS sein. BS = BullShit. Endlich nennt es mal jemand beim Namen.
Daß man auch abgehangene Hardware gut verwenden kann, hat natürlich im Hinblick auf Linux auch seine Vorteile, wo neue Hardware oftmals erstmal gar nicht nutzbar ist. Siehe das Desaster bei der Einführung von AMDs Ryzens mit integrierter Grafik in der "Raven Ridge"-Generation.
> 3GHz das Ende der Fahnenstange
Es gibt viele Desktop CPUs die bis 4 GHz oder höher takten so lange es
kühl genug bleibt. Das ist in Desktops mit ordentlicher Kühlung meistens
der Fall.
Aber wie schon gesagt, die CPUs sind aus anderen Gründen schneller
geworden.
Seit AMD wieder im Rennen ist, muss auch Intel sich mal wieder bewegen
und in den letzten 3 Jahren ist mal seit langem sogar richtig viel voran
gegangen - vor 4 Jahren (ganz grob) waren noch 6 Kerne so das Maximum
was man als Enthusiast zu gerade noch aktzeptablen Preisen bekommen
konnte. Die meisten haben da sicher noch mit 4 Kernen gewerkelt.
Heute kannst Du Dir 16 Kerne relativ günstig kaufen... und das mit
gigantisch großen Caches (64+ MByte)
SSDs sind auch größer/günstiger und schneller geworden (m.2 / NVMe).
Marek N. schrieb: > Mein 2013 Desktop Core i7 3. Generation erreicht ähnliche Benchmarks, > wie heutige Laptop Core i7 10. Generation, braucht aber die fünffache > Leistung dafür. Der Leistungsunterschied zwischen Desktop- und Laptopprozessoren war schon immer ziemlich deutlich. Da vergleichst du halt Äpfel mit Birnen, und die Birnen haben dann noch weniger Kerne. Oliver
Was kann man mit 16 Kernen anfangen, in der Breite bei Büroanwendungen mit Office und Web, nicht Grafik- oder Elektronik-Design? Das war auch bei der oben erwähnten Vorgänger-Generation ein Thema: Gut getakteter dual core gegenüber einem vom Anbieter des PC präferierten erheblich niedriger getakteten quad core. Es wurde der dual core, da single thread Performance wichtiger schien.
:
Bearbeitet durch User
Bert K. schrieb: > Softwareseitig begann es mit TOS, DOS, dann folgte Windows (3.11, 95, > 98, 2000, ME, XP, Vista, 7, 8, 10). DOS gab es in diversen Versionen und wenn du C64 und Co aufführst, darf auch CP/M nicht fehlen. Windows 2.11 (Windows/286 und /386) und Windows NT hast du vergessen ...
Bert K. schrieb: > Irgendwie kaum vorstellbar - oder doch? > Wie seht ihr das? Der PC ist am Ende - wie alles andere auch das zwangsweise am Internet hängt...
Oliver S. schrieb: > Der Leistungsunterschied zwischen Desktop- und Laptopprozessoren war > schon immer ziemlich deutlich. Wobei man heute häufiger Schrumpf-Desktops mit reduzierter Verlustleistung findet als früher, weil die Leistung reicht und andere Faktoren wie ein Platz sparendes leises Gehäuse interessant werden. Mit 35W oder 45W statt der üblichen 65W oder 95W.
A. K. schrieb: > Die Cores entwickeln sich trotzdem weiter, aber nicht beim Takt, sondern > anders. Neben wesentlichen internen Optimierungen und wachsenden Caches > kamen Befehlsgruppen und Ausführungseinheiten hinzu, wie beispielsweise > parallele Rechnung in erst 128 Bit, dann 256 Bit, dann 512 Bit Breite. > Und nun auch AI. Klar, sowas gibt es, genauso wie Einheiten für z.B. Verschlüsselung oder Video-Dekodierung. Die sind aber alle nicht allgemein nützlich, sondern nur für ganz bestimmte spezielle Anwendungsfälle. Ich denke, für allgemeine Aufgaben ist die Entwicklung langsam am Ende. Der Takt steigt nur noch sehr langsam, wenn überhaupt, und die Recheneinheiten noch schneller zu bekommen, ist mit exponentiell steigendem Aufwand bei gleichzeitig immer geringerer Performance-Verbesserung verbunden. Am ehesten kommt man damit weiter, die Zahl der Rechenkerne zu erhöhen, was aber nicht von jeder Software gewinnbringend genutzt wird. Vor allem Spiele hinken da hinterher, werden sich aber daran anpassen müssen. > Neben den Cores gibt es auch Schnittstellen wie USB, SATA, PCIe, die > sich weiterentwickeln. Eine SSD ist zwar auch in SATA 3Gb besser als > eine HDD, aber als langsamer als NVME ist sie schon. Auch SATA 6Gb ist viel zu langsam inzwischen. Da ist bei ca. 600 MB/s Schluss. Die schnellsten M.2-SSDs kommen heute auf bis zu 5 GB/s und brauchen dafür bereits mindestens PCIe 4.0 mit 4 Lanes. Nun. schrieb: >> 3GHz das Ende der Fahnenstange > > Es gibt viele Desktop CPUs die bis 4 GHz oder höher takten so lange es > kühl genug bleibt. Das ist in Desktops mit ordentlicher Kühlung meistens > der Fall. Der Intel i9-9900KS läuft ohne Übertaktung auf allen Kernen mit 5 GHz, solange das Leistungsbudget nicht überschritten wird. > Seit AMD wieder im Rennen ist, muss auch Intel sich mal wieder bewegen > und in den letzten 3 Jahren ist mal seit langem sogar richtig viel voran > gegangen Bei Intel aber eher nicht so. A. K. schrieb: > Was kann man mit 16 Kernen anfangen, in der Breite bei Büroanwendungen > mit Office und Web, nicht Grafik- oder Elektronik-Design? Das sind aber auch Anwendungen, die nicht unbedingt Systeme am oberen Ende der Leistungsskala erfordern.
Rolf M. schrieb: > Klar, sowas gibt es, genauso wie Einheiten für z.B. Verschlüsselung oder > Video-Dekodierung. Die sind aber alle nicht allgemein nützlich, sondern > nur für ganz bestimmte spezielle Anwendungsfälle. Hardware-Support zur Videodekodierung (i.d.R. eine GPU) verwendet so ziemlich jeder, weil das auch vom Browser genutzt wird. Zumindest bei Notebooks ist Disk-Verschlüsselung auch häufiger anzutreffen. Der Unterschied zwischen Prozessoren mit und ohne entsprechendem Support ist dann markant.
Bert K. schrieb: > Also kann sich ein heute 20-jähriger einen > hochwertigen PC kaufen und selbigen bis an sein Lebensende nutzen Nein, natürlich nicht. Zwar ist der Prozessor a la Intel wohl am Ende angekommen, signifikant mehr Taktrate geht offenkundig nicht, nur mehr Kerne, und die Software kommt monopolistisch von Microsoft, die aber nichts mehr hassen, als den Anwender und das Betriebssystem am liebsten einstampfen würden, immerhin wird es von Version zu Version schlechter und weniger nützlich, zusammen mit Word & Co., und die einzige mögliche Konkurrenz, Linux, trabt jedem Stöckchen von Microsoft hinterher an statt innovativ Neues zu produzieren (man hat bei denen ja noc nicht mal einen tauglichen Fenstermanager mit Gadgets als Standard). Aber es wird sicher eine Zukunft geben: Der erste war das Smartphone, Computer zum mitnehmen, der zweite ist Alexa, Computer mit Sprache als User-Interface (demnächst vielleicht auch ohne zentralen Server), und wir werden wohl noch den Quantencomputer mit völlig anderer Rechenleistung erleben. Ob neuronale Netze mal eine Rolle spielen halte ich für ungewiss, niemand braucht einen Computer der so viele Fehler macht wie ein Mensch, aber bei autonom fahrenden Autos (oder Lastwagen, oder Erntemaschinen) wird es wohl anders nicht gehen. Schön wäre es, wenn wenigstens ein "bei Aldi" ausgelieferter PC mit Betriebssystem und Standard-Anwenderprogrammen anständig benutzbar wäre. Leider ist das auf Grund der aktuellen Firmenpolitik nicht möglich, er ist derzeit ein Haufen Schrott. Ich schau mir gerade an, wie die verschiedenen Menschen mit der Zwangsumstellung auf Win10 zurechtkommen, und kann nur sagen: Gar nicht. Es hören einige Leute mit der Benutzung des PC auf weil der Schrott sie nur noch nervt. So ein Programm wie Office365 funktioniert gar nicht. Es tut nur Dinge die die Welt nicht braucht, und kann die einfachsten Sachen nicht mehr. Das erinnert an die Zeit, als die meisten Leute ihre privaten Drucker abgeschafft haben, weil der 50 EUR Schrott schnellstens kaputt ging, und die Tinte ihnen die Haare vom Kopf gefressen hat. So ruinieren Hersteller durch grenzenlose Gier ihr eigenes Geschäft.
Rolf M. schrieb: > Der Intel i9-9900KS läuft ohne Übertaktung auf allen Kernen mit 5 GHz, > solange das Leistungsbudget nicht überschritten wird. Wobei man mit CPU-lastigem 08/15-Kram oft genug im Dauer-Turbo laufen kann. Um den Prozessor wirklich thermisch zu kitzeln muss man dann die GPU stressen, oder alles ausreizen, was AVX hergibt. Das ist bei Servern nicht viel anders. Ein Epyc 2 7702P mit 64 Kernen zeigte bei einem moderaten Last-Test nicht die geringste Lust, auf seine nominellen 2,0 GHz zu drosseln und der ganze Rechner blieb weit unter dem Leistungslimit des Prozessors.
:
Bearbeitet durch User
Die einzige steigerung wäre hier nur noch die verdoppelung der Busbreite, neue schnellere Speichertechnologien (SSD und Ram) und die vervielfachung der CPU Kerne sowie die erweiterung und optimierungen der Befehlssätze. Meine idee wäre wenn man den Ram Speicher mit in die CPU integriert und diesen mit CPU Takt laufen lässt. Die wege zwischen CPU und Arbeitsspeicher wären deutlich geringer und man hätte fast keine Latenzen. Ok Ramupgrade wären dann nicht mehr so ohne weiteres möglich. Man müsste in diesen Fall die CPU tauschen.
MaWin schrieb: > Bert K. schrieb: >> Also kann sich ein heute 20-jähriger einen >> hochwertigen PC kaufen und selbigen bis an sein Lebensende nutzen > > Nein, natürlich nicht. Alle Elektronikkomponenten - auch Hableiter - unterliegen Alterungsprozessen. Gerade die hochintegrierten Bauteile wie GPU+GPU und Chipsatz die sehr warm werden (Elektromigration, das wird immer relevanter je feiner die Strukturen werden). Die halten nicht ewig wenn die ständig in Verwendung sind...
Michael M. schrieb: > Meine idee wäre wenn man den Ram Speicher mit in die CPU integriert und > diesen mit CPU Takt laufen lässt. Auf dem Die selbst halte ich das für unwahrscheinlich. Die Herstellungsweise von Prozessoren und DRAMs ist zu verschieden. > Die wege zwischen CPU und Arbeitsspeicher wären deutlich geringer und > man hätte fast keine Latenzen. Da gibts eine eigentümliche Entwicklung. AMD setzte sich mit dem K8/Opteron von Intel ab, indem das RAM nicht mehr an einem separaten Bridge-Chip hing, sondern direkt am Prozessor-Chip. AMDs Zen 2 setzt sich von Intel ab, indem das RAM nicht mehr direkt am Prozessor-Die hängt, sondern an einem separaten Bridge-Die. Gut, die Gründe dafür liegen wohl nicht darin, was das Optimum bei der Performance wäre, sondern in effektiver Nutzung der Fabtechnik und Die-Grösse. Die Latenz leidet darunter messbar.
:
Bearbeitet durch User
Ergänzung mit Neuronale Netzwerke für rasche Mustererkennung? größere Busbreite z.B. 256 Bit würde bei vielen Berechnungen die FPU sparen, denn welche Berechnung braucht Zahlen größer als 10 hoch 77? geringerer Energieverbrauch
Naja irgendwann wird der PC eine Leistungsgrenze erreichen, weil man
keine Strukturbreiten bauen kann, die kleiner als ein einzelnes Atom
sind. Wenn man über diese Grenze hinaus will, braucht es eine andere
Technologie oder eine andere Art Computer, die anderen physikalischen
Gesetzen folgt.
Der Takt kann auch nicht beliebig hoch ansteigen, irgendwann wird es zum
Problem, daß sich Strom nicht schneller als Lichtgeschwindigkeit bewegen
kann, bzw. glaube sogar nur ein gutes Stück langsamer. Dann könnte man
zwar theoretisch mehrere Bits hintereinander gleichzeitig auf einer
Leitung übertragen, aber ob das Sinn macht weiß ich nicht. Das
Taktsignal hat ja die gleichen Probleme und man muß trotzdem alles
irgendwie synchron halten, daß die Bits auch ankommen wenn sie gebraucht
werden.
Speicher in aktueller Form hat das gleiche Problem. Eine Speicherzelle
kleiner als ein Atom (pro Bestandteil) ginge mit aktueller Technik
nicht. Daten auf subatomarer Ebene speichern mag möglich sein, aber
aktuell könnte ich z.B. keine Atomkerne umbauen um damit verschiedene
Zustände zu speichern.
Egal, brauch ich mir keine Gedanken drum zu machen. Bin zwar noch recht
jung, aber daß man an diese Grenzen tatsächlich anstößt, erlebe ich
nicht mehr.
Edit:
> Zahlen größer als 10 hoch 77?
Die Größe der Zahlen ist gar nicht so extrem wichtig, sondern die
Genauigkeit. Es gibt Zahlen, die sich binär einfach nicht darstellen
lassen bzw. nur mit großem Aufwand genau genug darstellen lassen.
:
Bearbeitet durch User
MaWin schrieb: > Ich schau mir gerade an, wie die > verschiedenen Menschen mit der Zwangsumstellung auf Win10 zurechtkommen, > und kann nur sagen: Gar nicht. So? Welche Probleme gibts da? MaWin schrieb: > So ein Programm wie > Office365 funktioniert gar nicht. Warum funktioniert das bei dir nicht? MaWin schrieb: > Das erinnert an die > Zeit, als die meisten Leute ihre privaten Drucker abgeschafft haben, > weil der 50 EUR Schrott schnellstens kaputt ging, und die Tinte ihnen > die Haare vom Kopf gefressen hat. So ruinieren Hersteller durch > grenzenlose Gier ihr eigenes Geschäft. Da kann ich mich nicht daran erinnern. Ja stimmt, die Druckertinte wurde zur teuersten Flüssigkeit im Haushalt. Aber drucken muss man ja trotzdem. Ich habe mir einen Laserdrucker zugelegt. Ich habe nie viel gedruckt und verstopfte Tintendüsen wollte ich nicht.
Michael M. schrieb: > Meine idee wäre wenn man den Ram Speicher mit in die CPU integriert und > diesen mit CPU Takt laufen lässt. Bezogen auf den gesamten CPU-Chip liegst du aber gut: "AMD to 3D Stack DRAM and SRAM on Processors" https://www.tomshardware.com/news/amd-3d-memory-stacking-dram,38838.html
Ben B. schrieb: > Dann könnte man > zwar theoretisch mehrere Bits hintereinander gleichzeitig auf einer > Leitung übertragen, aber ob das Sinn macht weiß ich nicht. Das funktioniert schon jetzt oft so und ist der Grund aus dem Leitungen impedanzkontrolliert sein müssen ... Die Lichtgeschwindigkeit setzt erstmal nur Limits für die Latenz.
Der PC ist am Ende, weil er sich überholt hat. Bert K. schrieb: > Also kann sich ein heute 20-jähriger einen hochwertigen PC kaufen und > selbigen bis an sein Lebensende nutzen Er will ihn aber gar nicht nutzen. Er will auch keinen Laptop mit sich rumschleppen oder sich irgendwo einwählen. Eigentlich will er eine Streichholzschachtel mitnehmen, und überall Tastatur, maus und 2qm Bildschirm zum dranstecken. Und solange es das nicht gibt, sind Tablet, Handy, Cloud und TB-Internet gefragt. Der PC ist so über wie die Telefonbank und die Fernsehnische im Wohnzimmerschrank. Der PC ist aber noch billig. oder high end für Profis
Manuel X. schrieb: > Michael M. schrieb: >> und die vervielfachung der CPU Kerne > > Reichen dir 64 Kerne noch nicht? Wie viele Leute haben denn in ihrem PC einen Prozessor mit 64 Kernen? Abgesehen davon: Die Grafikkarten sind bereits jenseits von 4000 Kernen unterwegs. A. K. schrieb: > Michael M. schrieb: >> Meine idee wäre wenn man den Ram Speicher mit in die CPU integriert und >> diesen mit CPU Takt laufen lässt. > > Auf dem Die selbst halte ich das für unwahrscheinlich. Die > Herstellungsweise von Prozessoren und DRAMs ist zu verschieden. Was es nur gibt, und in Handys und teilweise bei Grafikchips ja Standard ist, wäre, den Speicher zwar auf einen separaten Die, aber huckepack auf den Prozessor ins selbe Gehäuse mit einzubauen. Siehe HBM.
> Meine idee wäre wenn man den Ram Speicher mit in die CPU integriert und > diesen mit CPU Takt laufen lässt. So schnell wie der Cache wird DRAM aber kaum sein, ausserdem brachts viel Platz. Dann besser sowas wie 8x HBM2 mit extrem breitem Bus. Ist dann halt wahrscheinlich nur für grosse lineare Datensätze brauchbar, einmal falsche Sprungvorhersage und man müsste alles neu laden.
Ben B. schrieb: > Die Größe der Zahlen ist gar nicht so extrem wichtig, sondern die > Genauigkeit. Es gibt Zahlen, die sich binär einfach nicht darstellen > lassen bzw. nur mit großem Aufwand genau genug darstellen lassen Spiegelt sich die Genauigkeit nicht in der Anzahl der Stellen (Bits) wieder? Eine Floating Point Unit (FPU) kann mit sehr großen und kleinen Zahlen umgehen, dass sagt aber nichts über die Genauigkeit aus. Das Universum ist 45 Milliarden Lichtjahre groß ==> 4e26 m Planksche Länge (kleinste Länge) ==> 1,6e-35 m Das Universum lässt sich 2,5e61 mal mit der plankschen Länge auslegen. Die Zahl ist wesentlich kleiner als 2 hoch 256 (1,2e77). Genauer geht es nicht!
Wenn man es mal global betrachtet: Der PC ist in spätestens 50..70 Jahren weg. Grund dafür ist nicht nur die Technik, sondern auch der Generationenwechsel. Die älteren möchten ihre wichtigen Sachen immer noch sehr gerne in Papierform. So gedruckt oder geschrieben auf Papier. Ich möchte sie schon gerne auf meinem PC haben, das erspart mir die Papierstapelei und ich kann sie einfacher sichern. Die nachfolgenden Generationen, die mit der Technik von Stand Geburt aufwachsen, haben immer weniger Hemmungen, ihre Daten anderen anzuvertrauen. Die speichern ihren Kram am liebsten in irgend einer Cloud. Der nächste Schritt sind gestreamte Echtzeit-Spiele. Aktuell frisst das noch einen riesen Haufen Traffic, aber ich brauche dafür zuhause im Grunde nur einen Fernseher, der Streamingdienste beherrscht und den Controller anbinden kann. Irgendwann, wenn die Mobilfunknetze so gut geworden sind, daß es evtl. nur noch ein einziges globales Datenfunknetz gibt (ähnlich wie das Internet heute anstelle des alten Telefon-Kabelsystems) und man echte Flatrates bekommt, bei vielen Benutzern auch noch große Datenmengen möglich sind (mehr als heute und ja ich weiß, daß das noch dauert), wir das ganz normal sein. Dann zahlt man z.B. 30 Euro monatlich pauschal für die Nutzung des kompletten Angebots und braucht keine leistungsstarken Geräte mehr zuhause bzw. kann es vom Handy aus nutzen. Nachteil davon, wir machen uns damit zu 120% von diesen Diensten abhängig. Brechen die zusammen oder werden planmäßig abgeschaltet, geht gar nichts mehr. Ähnlich wie heute das Stromnetz. Diese Dienste werden wirklich alles über uns wissen. Irgendein Hacker, der Dich gar nicht kennt und den Du auch nicht kennst, kann Dir dann ohne Probleme das ganze Leben zerstören. Plötzlich 20 Millionen Schulden weil's einer lustig findet. Oops, so ein Unglück aber auch. Vor 30 Jahren hat man noch geschrieen was die böse Stasi doch alles gemacht und an Datenbergen gesammelt hat... heute? Kauft euch 'ne Alexa, nutzt damit Amazon und diese Firmen erfahren weit mehr über euch als sich die Stasi je zu träumen gewagt hat - in kürzerer Zeit!
Oliver S. schrieb: > Der Leistungsunterschied zwischen Desktop- und Laptopprozessoren war > schon immer ziemlich deutlich. Da vergleichst du halt Äpfel mit Birnen, > und die Birnen haben dann noch weniger Kerne. Das stimmt, man kann Destop-Prozessoren nicht direkt mit Laptop-Prozessoren vergleichen, aber es ist der einzige Strohalm, an dem ich mich festhalten kann. Wenn mein 7 Jahre alter Desktop-PC eine Benchmark von sagen wir 9500 erreicht, so wäre ich schön blöd, wenn ich mir jetzt einen Laptop hole, der schlechter ist. Noch signifikanter wird es bei GPUS: NVIDIA CUDA gibt es im mobilen Segment aktuell nur mit der MX230 und MX250 und da ist die 2D-Benchmark identisch, wie bei meiner 7 Jahre alten Desktop GTX 660 Ti und die 3D-Benchmark ist sogar nur halb so gut.
Der urspruengliche PC wurde auch zu einem Teil durch Tablets ersetzt. Leute, die nur etwas surfen wollen verwenden besser tablets. Ein Bisschen Office ist auch nicht der Einsaztbereich der meodernen PCs. Ich fuer eminen Teil mache 3D Simulationen, welche noch nicht iteraktiv sind. Und da ist geplant diese zu kombinieren. Also nicht nur Elektrodynamik oder Fluiddynamik, sondern beides zusammen. Mittlerweile rechnet Fluiddynamik nicht nur Einphasensystemes, sondern auch Multiphasensysteme. also Regen, Steine & Sand in der Regenrinne, usw. Damit kann man zB simulieren wo die Orte am Auto sind, bei welchen die Sensoren auch bei Regen noch optimal arbeiten. Wo wird die Rueckfahrkamera am Wenigsten verschmutzt.
Joggel E. schrieb: > Wo wird die > Rueckfahrkamera am Wenigsten verschmutzt. Halt dich ran! Bei dem momentanen Wetter darf ich meine mindestens ein Mal pro Woche mit dem nassen Finger reinigen ;-)
Marek N. schrieb: > Noch signifikanter wird es bei GPUS: NVIDIA CUDA gibt es im mobilen > Segment aktuell nur mit der MX230 und MX250 Huh? Wie kommst du darauf? Laut NVidia kann eigentlich auch im Mobilbereich so ziemlich alles CUDA, was nicht extrem alt ist.
Das Ende des herkömmlichen PCs wurde schon Mitte/Ende der 90er prophezeit. Damals, wie heute, die Vision, dass alles irgendwie im "Internet" passiert und die Endgeräte quasi wieder nur dumme Terminals seien. Hat sich nach wie vor nicht so durchgesetzt. Das einzige was bleibt, ist das Verschwinden des herkömmlichen PCs aus vielen privaten Haushalten. Ersetzt durch Tablets, Smart-TVs und Smartphones. Und ehrlich gesagt, finde ich das gut. Alle "Familien-PCs" die ich kenne und die aus Familien komplett ohne IT-Hintergrund stammen, waren Softwareseitig in grauenhaftem Zustand. Ewig keine Updates, Scareware installiert, irgendwelche Browserbars, defaultmäßiges Arbeiten als Adminuser usw. Meistens wird erst dann Hilfe geholt, wenn der letzte Trojaner eine Ransomware war und final den PC/die Daten unbrauchbar gemacht hat. Derart schlimm verseucht sind Tablets, Smart-TVs und Smartphone dann eher nicht. Im professionellem Umfeld ist das eine völlig andere Geschichte. Ich denke, hier werden herkömmliche PCs nicht so schnell aussterben.
Bert K. schrieb: > ... Also kann sich ein heute 20-jähriger einen > hochwertigen PC kaufen und selbigen bis an sein Lebensende nutzen .. > Irgendwie kaum vorstellbar Kaum vorstellbar. Die 3 GHz Prozessortakt hatten wir schon vor 16 Jahren. Die Pentium 4 waren Heizungen mit Abfallprodukt "Rechenleistung". Ein moderner Browser der eBay.de anzeigt wird damit ausgelastet. CPU Takt ist kein Massstab. Es gibt soo viele Rechenaufgaben die noch immer ewig lange dauern. Farbgraduiere mal einen HD-Film.. von 4k oder 8k ganz zu schweigen. Im Engineering Bereich gibt es Modelprogramme die jede Full-Spec Workstation voll auslasten können, dass du dich langweilst. > - oder doch? andererseits. Mein X200s Notebook von 2008 läuft und läuft... (CPU gerne konstant 100%). Damit mache ich aber keine CFD Berechnungen mehr und für modernes 3D CAD ist das auch nix.
Beitrag #6154783 wurde vom Autor gelöscht.
A. N. schrieb: > Das einzige was bleibt, ist das Verschwinden des herkömmlichen PCs aus > vielen privaten Haushalten. Ersetzt durch Tablets, Smart-TVs und > Smartphones. > > Und ehrlich gesagt, finde ich das gut. Ich gar nicht. Bin seit kurzen stolzer Besitzer von so einem Android Tablet. Eigentlich um meine Bilder einfach zu präsentieren. Das geht gut. Meist. Bsp., ich habe vorher paar Bilder auf die zusätzliche Speicherkarte kopiert. Nun kann ich sie aber nicht vom Tablet aus löschen. Find keine Stelle um die Berechtigung zu übernehmen. Das ist eine Gehhilfe, Krücke gegenüber einem PC. Hat zwar andere Vorteile, kann aber einen PC/Laptop keinesfalls ersetzen. > > Alle "Familien-PCs" die ich kenne und die aus Familien komplett ohne > IT-Hintergrund stammen, waren Softwareseitig in grauenhaftem Zustand. > Ewig keine Updates, Scareware installiert, irgendwelche Browserbars, > defaultmäßiges Arbeiten als Adminuser usw. Meistens wird erst dann Hilfe > geholt, wenn der letzte Trojaner eine Ransomware war und final den > PC/die Daten unbrauchbar gemacht hat. Derart schlimm verseucht sind > Tablets, Smart-TVs und Smartphone dann eher nicht. Für 60%(?) der Leute war das die einzige Möglichkeit, am Internet und Heimbüro teilzunehmen ohne sich näher damit befassen zu wollen. Das fällt nun mit Tablet oder Smartphone weg. Für den Rest, der mehr will, sehe ich gute Chancen bei einem PC zu bleiben.
A. N. schrieb: > Das einzige was bleibt, ist das Verschwinden des herkömmlichen PCs aus > vielen privaten Haushalten. Ersetzt durch Tablets, Smart-TVs und > Smartphones. > > Und ehrlich gesagt, finde ich das gut. Hmm, also wenn ich mir so die wöchentlichen Sicherheitsmeldungen zu den mobilen Geräten ansehe bin ich da ganz anderer Meinung. Zumal die Hersteller oft sehr lange für Patches brauchen und nach spätestens 2 Jahren dann Schluß ist mit Wartungspaketen. Dann ist eben auch Schluß mit dem jeweiligen Gerät, ein erzwungener Neukauf erforderlich und die Mülltonne um mindestens ein Gerät reicher. Das neue Mobilsystem hat dann auch schon wieder ganz andere Sicherheitsbaustellen. Btw.: Künftig steckt Vergleichbares dann auch in allen Autos.
DesolderedCPU schrieb: > nach spätestens 2 Jahren dann Schluß ist mit Wartungspaketen. Google garantiert bei den Pixels 3 Jahre. Bei iPhones können es auch 5-6 Jahre sein. > Btw.: Künftig steckt Vergleichbares dann auch in allen Autos. Steckt jetzt schon drin, nur noch nicht in allen.
:
Bearbeitet durch User
A. N. schrieb: > Alle "Familien-PCs" die ich kenne und die aus Familien komplett ohne > IT-Hintergrund stammen, waren Softwareseitig in grauenhaftem Zustand. Daher installiert heute der Admin solcher Systeme Linux drauf, für so eine gewisse Grundsicherheit ;-) Surfen sieht ja 1:1 genauso aus wenn man schon Firefox oder Chrome gewohnt ist, ist daher fast egal welches OS.
michael_ schrieb: > Bin seit kurzen stolzer Besitzer von so einem Android Tablet. > ... > Das ist eine Gehhilfe, Krücke gegenüber einem PC. > Hat zwar andere Vorteile, kann aber einen PC/Laptop keinesfalls > ersetzen. Natürlich nicht, aber was ist eigentlich aus den Leuten geworden, dass man darüber überhaupt diskutieren muss? Das Arbeiten mit Maus und Tastatur bei 32" auf einem schnellen PC soll konkurrieren können mit dem herumgefingere auf einem Android Tablet? Mein 7" Samsung Tablet dient mittlerweile nur noch als Wecker fürs Aufstehen und als Timer für die Pizza im Backofen. Die 1.3 GHz reichen noch nicht mal mehr gescheit für einfache Webseiten. Dagegen ist das Huawei Smartphone der reinste Renner. Das Einzige für was die Dinger gut sind ist anderen (oder sich selbst) mal schnell Bildchen zu zeigen. Weder können sie mir beim Konstruieren für meinen 3D-Drucker helfen, geschweige denn den Drucker selber ansteuern (und gleichzeitig andere Aufgaben übernehmen). In Word oder Excel möchte ich darauf auch nicht arbeiten müssen oder meinen Scanner ansteuern oder die externen Festplatten, den TV USB-Stick schon gar nicht. Im Grunde sind Tablets doch nur spezialisierte Bildchen-Anzeiger, einfache elektronische Lesehilfen, die ein bisschen mehr können, mehr nicht. Ich möchte darauf jedenfalls nicht ernsthaft arbeiten müssen, keine Platine routen müssen oder LTSpice ausführen und PDF anzeigen geht auf einem großen Screen auch reichlich augenfreundlicher. Morgens im Bus damit herumjonglieren, dazu sind sie auch gegenüber dem Smartphone im Handling viel zu unbequem und auffällig - meine Brusttasche am Hemd reicht leider auch nur fürs Smartphone, wenn das Teil wieder verschwinden muss. Das einzige was mir den Desktop-PC ersetzen könnte ist ein gescheites Notebook und gescheit heißt gleichzeitig reichlich teuer bei einem leistungsfähigen PC. Zudem kommt bei Notebook dann wieder der zu kleine Bildschirm negativ rüber und bevor dann doch wieder Tastatur, Maus und externer Bildschirm drangestöpselt werden, damit der Umgang erträglich wird, kann man auch gleich beim PC bleiben.
old school schrieb: > Im Grunde sind Tablets doch nur spezialisierte > Bildchen-Anzeiger, einfache elektronische Lesehilfen, > die ein bisschen mehr können, mehr nicht. Tablets und Smartphones sind Geräte, mit denen man das Internet konsumieren kann. Die sind nicht für Produktivität geschaffen (auch wenn man gewisse Dinge damit leidlich gut kann), aber wenn man sich in der Gesellschaft umschaut, dann braucht die Mehrheit sowas auch nicht. Die meisten Computerarbeitsplätze kann man heutzutage ohne echten Computer betreiben: Formulare im Browser ausfüllen und an den Verwaltungsfachdrucker schicken kann man auch auf einem Tablet. Steuererklärung geht auch, ist ja nur online (zum Vergleich: in Schweden bekommt man die Zusammenfassung per Post und bestätigt diese online oder per SMS; im Normalfall muss man nichts ändern). Die modernen sozialen Medien und viele neue Dienste sind ohnehin "mobile first", da ist ein PC im Konzept nichtmal vorgesehen. Word und Excel (-Alternativen, z.B. Google Docs) funktionieren auch gut, wenn man Tastatur und Maus (via Bluetooth oder USB) anschließt oder ein Kombinationsgerät hat. Es gibt für 90% der Bevölkerung keinen Grund, einen Computer zuhause zu haben.
S. R. schrieb: > Es gibt für 90% der Bevölkerung keinen Grund, einen Computer zuhause zu > haben. Auch Internetsurfen und Shopping ist auf einem Tablet eine Qual. Kein Vergleich mit einem 24 Zoll Monitor.
Karl schrieb: > Auch Internetsurfen und Shopping ist auf einem Tablet eine Qual. Das hängt von den Webseiten ab. Aliexpress (die App) funktioniert auf dem Tablet wesentlich besser als auf dem PC. > Kein Vergleich mit einem 24 Zoll Monitor. Bei "mobile first"-Webseiten, die maximal 6 Kacheln mit jeweils maximal 10 Wörtern anzeigen, kommt es darauf auch nicht mehr an. ;-) Auf Mobilgeräten wird Surfen nur dann zur Qual, wenn die Seite keine Mobilgeräte im Hinterkopf hatte. Ansonsten hatte ich damit wenige Probleme (auf dem Smartphone wegen des zu kleinen Displays schon eher).
S. R. schrieb: > Tablets und Smartphones sind Geräte, mit denen man das Internet > konsumieren kann. Die sind nicht für Produktivität geschaffen Falls sich die ganzen Freie Software und/oder Open Hardware Smartphone Projekte durchsetzen sollten, könnte das schon interessant werden. Ich hab mal zum Spass auf meinem Smartphone EasyTax BL 2019 installiert: https://twitter.com/DPA168/status/1232044976986607618 Nicht schön, aber funktioniert. Sobald aber im Kernel mal der USB-C Alternate Mode für das Gerät mal drin ist, stell ich mir nen Bildschirm, Tastatur & Dockingstation auf das Pult, und ersetzt damit meinen PC. Dann eventuell noch ein Nextdock dazu, und dann ist es plötzlich auch noch ein Laptop.
Sven B. schrieb: > Karl schrieb: >> Die Entwicklung ist noch lange nicht abgeschlossen. Die Entwicklung geht >> nur langsamer. > > Sehe ich nicht. > > https://de.wikipedia.org/wiki/Mooresches_Gesetz#/media/Datei:Moore's_Law_Transistor_Count_1971-2018.png Was wolltest du damit aussagen? Daß Moore auch weiterhin gilt? Das Ende von Moores Gesetz (das eigentlich eher "Moores Beobachtung" heißen sollte) ist greifbar. Daß Chips größer werden, liegt schon seit langem eher an größer werdenden Caches als an größerer Funktionalität. Sowohl die Taktfrequenz als auch die Single-Thread Performance stagnieren weitgehend. Das ist keine neue Erkenntnis. Dieser Herr konnte das vor 8 Jahren schon erkennen: https://preshing.com/20120208/a-look-back-at-single-threaded-cpu-performance/ Die Entwicklung ging seitdem eher in Richtung massiv paralleler Hardware. Was auch nett ist, aber nur in Verbindung mit dazu passender Software etwas bringt. Was PCs angeht: ich denke hier zeigt sich weniger der Effekt, daß PC nutzlos wären als vielmehr, daß die meisten Leute schlicht nie einen PC gebraucht haben. Was die Leute wirklich brauchten, war die Funktionalität, die heute von Smartphones und Tablets bereitgestellt wird. Und das betrifft nicht nur die vergleichsweise brachiale Rechenleistung eines PC, sondern auch die freie Programmierbarkeit (nicht mit allen Betriebssystemen natürlich). Die meisten Leute brauchen das gar nicht. Die haben eine handvoll Anwendungen die sie brauchen und das wars. Klar reicht dann auch ein Mac oder <spuck> Windows-PC. Und mit Smartphones und Tablets und Spielekonsolen und smarten Fernsehern wandern einige dieser Anwendungen auf spezialisierte Hardware. Wer braucht denn ICQ auf dem PC, wenn er Whatsapp auf dem Smartphone hat? Wer braucht eine funktionierende Mediathek im Browser auf dem PC, wenn das der Fernseher selber kann? Die Leute machen sich immer lustig über den IBM-Chef, der in den 60ern(?) gesagt hat, er sehe einen Weltmarkt für vielleicht 5 Computer. Nun, so falsch lag der eigentlich nicht. Die meisten Leute brauchen in der Tat keinen Computer, sondern Appliances. Und jetzt wo es die gibt, verwenden sie die auch. Und nehmen nicht mehr einen Computer, der mit dem geeigneten Programm so tut, als wäre er eine.
A. K. schrieb: > Was kann man mit 16 Kernen anfangen, in der Breite bei Büroanwendungen > mit Office und Web, nicht Grafik- oder Elektronik-Design? Genau das ist das Problem. Es gibt nicht parallisierbare Probleme. Da nützen einem mehr Kerne rein garnix. Ein besonderer Aspekt dieses Problems ist die Kausalität eines GUI. Das ist leider so ein nicht parallelisierbares Problem (was man insbesondere daran bemerken kann, dass alle bekannten GUI-Libs single-threaded arbeiten). Klar kann man immer mal wieder anfallende Teilprobleme parallelisieren und dadurch in Summe doch ein wenig Speed machen, aber letztlich bleibt das GUI der zentrale Punkt, mit dem immer wieder auf die Fertigstellung von Teilproblemen gewartet werden muss, weil es halt logisch konsistent nur weiter gehen kann, wenn das aktuelle durch die Benutzereingabe entstandene Problem insgesamt gelöst ist. Der Witz ist: durch die dramatisch aufgeblähten GUIs entsteht das Problem, dass mehr (teilweise sogar sehr viel mehr) Rechenzeit im GUI selber nötig ist als für die eigentliche Aufgabe. Sehr schon kann man das bei einem einfachen Texteditor sehen (also ohne jeden Schnickschnack wie Syntax-Highliting, Rechtschreib- und/oder Grammatikprüfung). Die Aufgabe besteht also nur darin, ein vom Benutzer eingegebenes Zeichen an irgendeinen Puffer anzuhängen und den neuen Pufferzustand wiederum auszugeben. Wenn man hier mal analysiert, wo die Rechenzeit bleibt, fällt man um. Werte von 1ppm im Verhältnis Nutzcode-Rechenzeitverbrauch zu GUI-Code-Rechenzeitverbrauch sind in diesem Szenario heute absolut gängig...
S. R. schrieb: > Bei "mobile first"-Webseiten, die maximal 6 Kacheln mit jeweils maximal > 10 Wörtern anzeigen, kommt es darauf auch nicht mehr an. ;-) > > Auf Mobilgeräten wird Surfen nur dann zur Qual, wenn die Seite keine > Mobilgeräte im Hinterkopf hatte. Ich hab genau die gegenteilige Erfahrung gemacht. Wenns zwei Versionen einer Seite gibt, ist die Desktop-Version in 19 von 20 Faellen, die "Benutzbarere" auf dem Handy. Beispiel Wikipedia: Wie komm ich in der Mobilversion auf die Diskussionsseite? Ueberhaupt nicht intuitiv. Das ist Information-Hiding vom Feinsten.
Axel S. schrieb: >> Sehe ich nicht. >> >> > https://de.wikipedia.org/wiki/Mooresches_Gesetz#/media/Datei:Moore's_Law_Transistor_Count_1971-2018.png > > Was wolltest du damit aussagen? Daß Moore auch weiterhin gilt? Das Ende > von Moores Gesetz (das eigentlich eher "Moores Beobachtung" heißen > sollte) ist greifbar. Ist das so? Ich sehe das für die nächsten 20 Jahre nicht. > Daß Chips größer werden, liegt schon seit langem > eher an größer werdenden Caches als an größerer Funktionalität. Also mein Pentium II war größer als die Intel-i5-CPU, die ich im Moment habe. > Sowohl die Taktfrequenz als auch die Single-Thread Performance > stagnieren weitgehend. Das ist keine neue Erkenntnis. Dieser Herr konnte > das vor 8 Jahren schon erkennen: > > https://preshing.com/20120208/a-look-back-at-single-threaded-cpu-performance/ Ja, aber die Zeiten, in denen rechenintensive Software nur single-threaded gerechnet hat, sind lange vorbei. Die Anzahl der Anwendungen, wo man prinzipbedingt wirklich nur einen Kern benutzen kann, ist auch verschwindend klein. Spielt also in der Praxis keine allzu große Rolle, außer dass es eine gewisse Komplexität für die Software mit sich bringt.
:
Bearbeitet durch User
Hier ein Beispiel aus diesem Forum für meine These der gammligen Privat-PCs: Beitrag "ARD und ZDF live stream" Alter Firefox, Windows XP. Da ist wohl ein Tablet mit vielleicht älterem Android, aber aktuellen Apps, durch die automatischen Updates, immer noch sicherheitstechnisch besser. Wenn Android dann final antik ist, werden die Leute wenigstens gezwungen was zu tun, weil die Appunterstützung wegfällt. Wenn auch das alles immer noch weit entfernt von optimaler Sicherheit ist, ist es besser als noch aktiv Windows XP im Internet mit alten Browsern zu benutzen, siehe oben. Wenn ihr euch beschwert, dass ein Tablet zu umständlich zu bedienen sei, seid ihr nicht die korrekte Zielgruppe. Ich kenne viele, die ich lange PC technisch mit Linux betreut habe und die dann final auf Tablet umgestiegen sind und hochzufrieden sind. Für reine Konsumenten und minimale, echte Arbeitsaufgaben, ist das voll in Ordnung. Jemand hat es weiter oben schon geschrieben, die Leute haben in Wahrheit keinen PC gebraucht, sondern die Software darauf. Der Rest, wie die freie Programmierbarkeit ist für diese Zielgruppe eine viel zu große Freiheit, weil es Sicherheitsprobleme geradezu fördert.
1. Win XP dürfte heute nun wirklich die Ausnahme sein. 2. Selbst wenn ich nur mal einen Brief schreiben will, will ich das nicht auf einem Tablet machen. Trotz externer Bluetooths-Tastatur (die die wenigsten Leute haben) ist das ein Krampf.
DPA schrieb: > Falls sich die ganzen Freie Software und/oder > Open Hardware Smartphone Projekte durchsetzen > sollten, könnte das schon interessant werden. Das wird vorerst nicht passieren, zumindest sehe ich davon nichts. Es ist m.W. nichtmal gesetzeskonform möglich, ein freies Open Hardware-Smartphone auf den Markt zu bringen, weil man damit die Funknetze stören könnte. Ausnahme: Man verdongelt das Modem. Aber das Ergebnis ist in meiner Welt dann kein freies Projekt mehr. DPA schrieb: > Sobald aber im Kernel mal der USB-C Alternate Mode für > das Gerät mal drin ist, stell ich mir nen Bildschirm, > Tastatur & Dockingstation auf das Pult, und ersetzt damit meinen PC. Was auch nicht überraschend sein sollte, denn aktuelle Smartphones nehmen es an Rechenleistung und Speicher locker mit mittelklassigen Notebooks auf (werden allerdings durch die begrenzte Kühlung wieder beschränkt). Axel S. schrieb: > Die Entwicklung ging seitdem eher in Richtung massiv paralleler > Hardware. Was auch nett ist, aber nur in Verbindung mit dazu passender > Software etwas bringt. Die meiste Software ist parallelisierbar oder lässt sich in weiten Teilen parallelisieren. Zudem wird das steigende Transistorbudget, was nicht für "schnellere Kerne" benutzt werden kann, für Caches oder häufige Spezialaufgaben verwendet (Videocodec, Verschlüsselung, Bildfilterung, KI in vielen Varianten, ...), so dass ein Großteil der insgesamt benötigten Rechenleistung wegfällt. c-hater schrieb: > Genau das ist das Problem. > Es gibt nicht parallisierbare Probleme. > Da nützen einem mehr Kerne rein garnix. Du bäckst ziemlich kleine Allgemeinplätzchen. Kryptographie ist nicht vernünftig parallelisierbar, und auch Videocodecs waren es lange nicht (und selbst dann nur mit Einbußen). Beides sind aber real keine Probleme mehr. Wenn man 64 Kerne hat, die zudem energiesparender sind als die 2 Kerne, die man vorher hatte, dann nimmt man vielleicht Algorithmen, die nachweislich nicht optimal, aber dafür parallelisierbar sind. Skalierbarkeit ist wichtiger als Performance, im Serverbereich ist das seit vielen Jahren so. Und dann gibt es noch den Sonderfall, dass man ein Problem garnicht parallelisieren können muss, weil man genug davon hat. Darauf basieren solche Dinge wie "make". c-hater schrieb: > Ein besonderer Aspekt dieses Problems ist die Kausalität eines GUI. Du bist ein absoluter Witzwuffel manchmal. Eine GUI zeichnet sich in der Mehrheit der Fälle dadurch aus, dass sie auf den Nutzer wartet. Dummerweise sind die Nutzer auch eher kausal, ebenso wie die Eingabegeräte. Wenn die GUI brav mit 60 Hz gerendert wird, dann ist es erstaunlich egal, ob sie das in einem oder fünfzig Threads tut. Relevant ist der Teil des Programms, der wirklich Arbeit verrichtet.
c-hater schrieb: > Genau das ist das Problem. Es gibt nicht parallisierbare Probleme. Und solche, bei denen die Umstellung eines bestehenden Programms eine Scheissarbeit mit völlig neuen üblen Bugs ist. Besonders wenn es nicht um 2 oder 3 Threads geht, sondern um 100. Etwas, das Anbieter gerne vermeiden. Oder die Anwendung gibt das her, braucht auch ordentlich Leistung, wird aber pro eingesetzter CPU bezahlt. Früher wurde die Hardware schneller, alle paar Jahre, heute wird die Software teurer, pro Jahr. Das stört dann nicht den Anbieter, aber der Kunde flucht.
:
Bearbeitet durch User
Axel S. schrieb: > daß die meisten Leute schlicht nie einen PC > gebraucht haben. Was die Leute wirklich brauchten, war die > Funktionalität, die heute von Smartphones und Tablets bereitgestellt > wird. Viele Standardanwendungen sind mit Bildschirmtastatur einfach nur Hühnerkacke. Deshalb die Mischformen, Convertibles.
:
Bearbeitet durch User
Sind Gaming-Computer nicht eine Schweinerei ? Nur weil eine Studie mal ergeben haben soll dass Gewaltmedien(und -Spiele) das Kaufverhalten fördern kaufen die Jungens wie blöde die teuren Kisten nebst Zubehör und abonnieren so gleichzeitig eine langjähre Gewalt-Verblödungs-Phase.
A. K. schrieb: > Und solche, bei denen die Umstellung eines bestehenden Programms eine > Scheissarbeit mit völlig neuen üblen Bugs ist. Besonders wenn es nicht > um 2 oder 3 Threads geht, sondern um 100. Etwas, das Anbieter gerne > vermeiden. Das ist aber die normale Wartung bei Software und genau wie eine Maschine kannst du so Software nicht 20 Jahre herumstehen lassen und erwarten dass sie danach noch so funktioniert wie vorher. > Oder die Anwendung gibt das her, braucht auch ordentlich Leistung, wird > aber pro eingesetzter CPU bezahlt. Früher wurde die Hardware schneller, > alle paar Jahre, heute wird die Software teurer, pro Jahr. Das stört > dann nicht den Anbieter, aber der Kunde flucht. Das hat aber nichts mit der technischen Entwicklung zu tun, sondern mit den Lizenzmodellen, die sich der technischen Entwicklung angepasst haben ...
Sven B. schrieb: > Das hat aber nichts mit der technischen Entwicklung zu tun, > sondern mit den Lizenzmodellen, die sich der technischen > Entwicklung angepasst haben ... Eher der Geldbeuteldicke der Kunden, die nicht wechseln können oder wollen.
S. R. schrieb: > Sven B. schrieb: >> Das hat aber nichts mit der technischen Entwicklung zu tun, >> sondern mit den Lizenzmodellen, die sich der technischen >> Entwicklung angepasst haben ... > > Eher der Geldbeuteldicke der Kunden, die nicht wechseln können oder > wollen. Von was denn zu was? Diese Lizenzmodelle versuchen Preise für Software daran anzupassen wieviel die Software danach tatsächlich rechnet ... so unsinnig erscheint mir das jetzt a priori nicht.
Nur, weil ich einen Computer mit "vielen langsameren Kernen" kaufe statt einem mit "wenigen schnellen Kernen" (absolute Performance spielt keine Rolle), muss ich also jetzt auch zwei Lizenzen für einen Computer kaufen? Komische Regel.
Jedes Software-Lizenzmodell hat seine Merkwürdigkeiten. Wenn du die Gebühren an die Anzahl der Desktop-Rechner bindest, auf denen die Software läuft, kann man auch leicht Fälle konstruieren wo das Ergebnis komisch ist.
S. R. schrieb: > muss ich also jetzt auch zwei Lizenzen für einen Computer kaufen? Beim Windows Server lizenziert man mittlerweile Kerne. Wenn man einen aktuellen AMD Server mit 2x64 Kernen einsetzt, sind zigtausend Euro nur dafür weg. Das schütteln auch Firmen nicht mal eben aus dem Ärmel.
:
Bearbeitet durch User
A. K. schrieb: > S. R. schrieb: >> muss ich also jetzt auch zwei Lizenzen für einen Computer kaufen? > > Beim Windows Server lizenziert man mittlerweile Kerne. Wenn man einen > aktuellen AMD Server mit 2x64 Kernen einsetzt, sind zigtausend Euro nur > dafür weg. Das schütteln auch Firmen nicht mal eben aus dem Ärmel. Das war grad letztens Thema bei Fefe: https://blog.fefe.de/?q=Oracle
Hat er recht. Bei Redhat gibts auch Support, aber eine Grössenordnung billiger. Produktionsserver tendieren in Richtung Linux. Mancher Anbieter rudert hektisch von Oracle weg, z.B. zu PgSql, weil seine Lösungen sonst unbezahlbar werden.
:
Bearbeitet durch User
Der PC ist niemals an seiner Grenze, weil es keine gibt. Hatten wir nicht vor Wochen eine Diskussion um Altera, welche FPGA-Technik in die Intelprozessoren hineinbringen will und ein Echtzeitsystem auf VHDL-Basis ermöglicht? Ausserdem: Beitrag "HyperBus Ideen"
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.