www.mikrocontroller.net

Forum: Offtopic Ende der Entwicklung im PC Bereich absehbar?


Autor: Sven (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Hallo.
Ich bin jetzt seit mehr als 15 Jahren "Computerisiert". (Seit 1995)

Mein erster Rechner war ein 486er DX4 mit 8 MB Ram und ca 500 MB 
Festplatte und dem damals brandneuen Windows 95.

Mein heutiger Rechner hat 1 TB, 8 GB Ram und 4x2,5 GHz. Also ca 2000 mal 
so viel Festplatte, tausend mal so viel Ram und bestimmt mehr als 
tausend mal so viel Rechenleistung.
Und das in 15 Jahren.

Aber nicht nur beim Rechner, auch beim Onlinezugang hat sich die 
Geschwindigkeit mehr als vertausendfacht: Mein erstes "onlineerlebnis" 
war in sogenannten Mailboxen via PAcket Raido. Im Internet war ich 
erstmals mit 28.8er Modem. Heute habe ich 32 Mbit/s und die 100 mit/s 
stehen schon vor der Tür.

Wobei ich sagen muss, dass sich in den letzten 5 Jahren nicht mehr allzu 
viel getan hat. 2006 hatte ich auch schon 600 GB Festplatte, 1 GB Ram 
und 2GHz+ Dual Core CPU. Damals hatte ich auch schon mehr als 10 Mbit/s 
Internet.

Ist also langsam mal das Ende der Fahnenstange erreicht? Das was 
technisch mahbar ist? Kommt man an die physikalischen Grenzen? Oder wie 
weit wird das alles noch gehen? Werden wir Terabytes beim Ram und 
Petabytes Festplatten und 64 Core CPU im Heimbereich noch erleben?

: Verschoben durch Moderator
Autor: Peter (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert

Autor: NurGast (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Ein Ende ist nicht absehbar. Durch die Entdeckung und Erforschung neuer 
Materialien (siehe z.B. http://de.wikipedia.org/wiki/Graphen) wird es 
auch zukünftig heisen: schneller, höher, weiter!

Autor: oszi40 (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Sven schrieb:
> tausend mal so viel Rechenleistung.
> Und das in 15 Jahren.

Wunderbar. Nur ob dies Rechenleistung auch immer sinnvoll ausgenutzt 
oder nur in Wärme umgewandelt wird, wäre noch näher zu erforschen.

Luthers Bibel passt als Textfile auf eine 3,5" Diskette. Der INHALT hat 
sich seither nicht geändert. Wo liegt in diesem Fall der Fortschritt?

Bei Bildverarbeitung z.B. sehe ich ein, daß leistungsfähige Rechner 
nötig sind.

Autor: Sven (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Wenn man bedenkt, dass heute schon in den Chips die Leiterbahnen zum 
Teil nur noch wenige Atomlagen dick sind, stelle ich mir die weitere 
Verkleinerung der Strukturen ehr schwer vor.
Ich habe auch irgendwo gelesen, dass die Obergrenze bei der Taktfrequenz 
von CPU auch erreicht ist (Dafür spricht, dass der Takt seit Jahren nur 
unwesentlich höher wurde) Schneller würde es nur gehen, wenn man die 
Komplexität der einzelnen Kerne reduziert.

Die Zukunft liegt also wohl in immer mehr Kernen und Multi Level 
Speicher / Datenleitungen.

Das mit den neuen Materialien ist auch interessant, vielleicht bekommen 
wir ja noch quantenmechanische oder optische Rechner

Autor: Christian Erker (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
>Es wird weiter voran gehen...
>http://www.elektor.de/elektronik-news/der-1000-ker...

Was ist daran jetzt genau neu?

Gruß,
Christian

Autor: Rainer Unsinn (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Die Taktfrequenz in einem PC-Prozessor ist durch verschiedene Gründe 
begrenzt. Einer der wichtigsten dürfte die mechanische Größe des Dice 
sein. Diese hat direkten Einfluss auf Signallaufzeiten und parasitäre 
Kapazitäten (Umschaltzeiten-> Stromaufnahme-> Wärmeentwicklung). Deshalb 
arbeiten AMD und Co. an der Verkleinerung der STrukturbreiten. Doch auch 
hier ist irgendwann ein Ende absehbar. Bei den aktuellen Strukturbreiten 
sind Transistoren oder "Leiterbahnen" keine 1000 Atome breit und das 
ganze über 1 Milliarde mal je Chip. Stichwort Parallelisierung. Solange 
die Software nicht für den massiven Parallelbetrieb geschrieben ist, 
wird es auch hier noch eine Weile dauern.

Autor: Besserwisser (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Rainer Unsinn schreibt hier wirklich großen Unsinn...
DER GRUND dafür, dass die Taktfrequenz kaum noch angehoben werden kann
ist der bei kurzkanalern auftretende "Hot-Electron-Effekt", nachzulesen
in der Baker, Li, Boyce CMOS Bibel... Das hat nichts mit der 
mechanischen
größe des Die zu tun...
Und auch bei paralleler Abarbeitung ist eine Obergrenze des Speedups
gegenüber einer rein optimalen sequentiellen Abarbeitung gegeben.
Amdahls Law bewies dies bereits in den 60ern...

[Fäkalworte gelöscht - Mod.]

Autor: Axel Laufenberg (axel_5)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Die Anforderungen ändern sich und entsprechend die Technik.

Vor 5 Jahren war Leistung alles, heute sind 100W CPUs mit lauten 
Kühlgebläsen komplett out, man möchte seine HD-Filme aus dem Internet 
auf einem lüfterlosen Rechner sehen.

Gruss
Axel

Autor: A. None (bastelmaniac)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Ende der Entwicklung - nein.

Was allerdings in den letzten 1-3 Jahren passierte, ist eine 
Vergrößerung des Leistungsspektrums. Wenn wir mal bei den klassischen 
x86er basierten Computersystemen bleiben, so haben wir nun Netbooks z.B. 
mit dem Atom am unteren Spektrum und z.B. Core i7 am oberen 
Leistungsspektrum. Das führt unter anderem auch dazu, dass alte Computer 
immer noch vollwertig und effizient eingesetzt werden können.

Selbst hardcore Gamer brauchen nicht mehr unbedingt die gerade 
verfügbare HighEnd Maschine. Ein wenig ist das aber auch den 
Spielekonsolen zu verdanken, welche die technologische Entwicklung etwas 
bremsen.

Das war in den 90er und am Anfang der 2000er Jahre noch völlig anders. 
Alte Computersysteme waren ziemlich schnell wirklich alt und nicht mehr 
produktiv einsetzbar. Von Spielen am Computer ganz zu schweigen.

Autor: Johnny B. (johnnyb)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Rainer Unsinn schrieb:
> Deshalb
> arbeiten AMD und Co. an der Verkleinerung der STrukturbreiten. Doch auch
> hier ist irgendwann ein Ende absehbar.

Diese Meinung teile ich nicht so ganz, denn gewisse Wissenschaftler 
vermuten, genauso wie die Grösse des Universums praktisch unendlich ist, 
kann man auch praktisch unendlich in die Mikroskopische Welt eintauchen.
Daher wird es kaum eine Grenze geben, sofern man entsprechende 
Technologie entwickeln kann um in diese Welten "vorzustossen" und sie zu 
nutzen.

Autor: Silvia A. (silvia)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
>Daher wird es kaum eine Grenze geben
Ja genau, und wenn ein Transistor nur noch ein atom gross ist, kann man 
ihn immer noch halb so groß bauen   :-)

Autor: Johnny B. (johnnyb)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Silvia A. schrieb:
>>Daher wird es kaum eine Grenze geben
> Ja genau, und wenn ein Transistor nur noch ein atom gross ist, kann man
> ihn immer noch halb so groß bauen   :-)

Es ist ja nicht in Stein gemeisselt, dass ein Transistor unbedingt aus 
Atomen gefertigt sein muss. Es ist ja bereits nachgewiesen, dass es 
kleinere Teilchen als Atome gibt. Daher wird es einestages vielleicht 
auch möglich sein, einen Transistor aus diesen herzustellen.

Autor: Gerry E. (micky01)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Johnny B. schrieb:
> Silvia A. schrieb:
>>>Daher wird es kaum eine Grenze geben
>> Ja genau, und wenn ein Transistor nur noch ein atom gross ist, kann man
>> ihn immer noch halb so groß bauen   :-)
>
> Es ist ja nicht in Stein gemeisselt, dass ein Transistor unbedingt aus
> Atomen gefertigt sein muss. Es ist ja bereits nachgewiesen, dass es
> kleinere Teilchen als Atome gibt. Daher wird es einestages vielleicht
> auch möglich sein, einen Transistor aus diesen herzustellen.

Obendrein ist es ja nicht nur so, dass Atome gebastelt werden können, 
nein auch die mehrfach größeren Moleküle sollen angeblich auch so 
herzustellen sein. Sicherlich gib es dazu bald einen Kosmos-Baukasten; 
und wenn das alle Schüler kennen (gut, die Gamer muss man hier wohl 
ausnehmen), dann Gute Nacht BASF.

Autor: Jeffrey Lebowski (the_dude)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
...schwarze Materie im Selbstbau!?


Ansonsten vermisse ich hier noch die SSD, der Trend geht also weniger zu 
"mehr speed" sondern zu "neue Technologien effizient benutzen".

Eine SSD soll, wenn alles funktioniert, deutlich länger halten als eine 
HDD (keine mechanischen Teile!)

Ausserdem wird alles grün!
Netzteile mit 85+ und mehr.

zumindest im Privatberich wird "derzeit" nicht mehr Leistung benötigt, 
hier ist Stromersparnis und Effizienz momentan wichtiger!

Autor: Zwölf Mal Acht (hacky)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Die grosse Masse wird mit einem Zwischending zwischen EBook, 
Mobiltelephon und Zeichenpad zufrieden sein. Dh die Hochleistungsrechner 
werden einen kleineren Markt haben. Ich hingegen warte teilweise immer 
noch einen ganzen Tag auf eine Berechnung, die ich eigentlich lieber 
interaktiv haette. Heisst ich werde in Zukunft einen Rechner kaufen, der 
bei 256 kernen rund 100Gbyte RAM hat.

Autor: Axel Laufenberg (axel_5)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
>Ich hingegen warte teilweise immer
>noch einen ganzen Tag auf eine Berechnung, die ich eigentlich lieber
>interaktiv haette. Heisst ich werde in Zukunft einen Rechner kaufen, der
>bei 256 kernen rund 100Gbyte RAM hat.

Kannst Du doch jetzt schon Rechenleistung für mieten.

Gruss
Axel

Autor: Rufus Τ. Firefly (rufus) (Moderator) Benutzerseite
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Silvia A. schrieb:
>>Daher wird es kaum eine Grenze geben
> Ja genau, und wenn ein Transistor nur noch ein atom gross ist, kann man
> ihn immer noch halb so groß bauen   :-)

Nein, man wird das homöopathische Konzept des Potenzierens anwenden. Die 
Hälfte der Transistoren ist gar nicht da, aber die Materie merkt sich 
ihren Abdruck. Oder so.

Autor: Michael K-punkt (charles_b)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Der Durchbruch dürfte dann mit den homöopathischen Rechnern kommen:

Die CPU ist im Gehäuse nur noch in einer potenziert verdünnten Version 
vorhanden....

Die Prozessoren tragen dann folgende Namen: Calculatio D6, Integralo D12 
und Ludum D30 (für Gamer)

Autor: Michael K-punkt (charles_b)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
oszi40 schrieb:
> Luthers Bibel passt als Textfile auf eine 3,5" Diskette. Der INHALT hat
> sich seither nicht geändert. Wo liegt in diesem Fall der Fortschritt?

Ohne jetzt klerikal zu werden: Du sprichst einen sehr wichtigen Punkt 
an. Es geht nur noch um die Datenraten, nicht mehr um die Daten selber.

Auf 50 Kanälen flimmert und in HD und 3D der größte Schwachsinn ins 
Haus.

Doch wo bleibt der INHALT? Sind die Filme jetzt "besser"?

Wird mehr über die Intentionen der Filme, über Gut und Böse, über die 
literarische Aussagekraft, über Charaktere etc. diskutiert?

Nein, ein "war ganz gut" langt schon, um sich ne Glasfaserstandleitung 
nach Hollywood zu rechtfertigen.

Ich hab ja auch 1000de von Songs auf Festplatte. Höre ich die auch alle 
so sorgfältig an wie ich sie gerippt habe? Wohl kaum.

Autor: Kurt W. (kurt_w)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Der schnellste Rechner wäre ein einfacher PC der durch etwas Software 
sich die extra benötigte Rechenleistung von anderen Rechnern borgt.

Autor: Stefan Helmert (Firma: dm2sh) (stefan_helmert)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Ich denke, es ist noch viel Potential da. Der Prozessor besitzt zwar 
viele Lagen, aber wohl nur auf einer sind Transistoren. Die 
Chip-Anordnung ist 2D. Mit dem ganzen Nano-Zeug werden die Transistoren 
oder wie das dann heißen wird 3D frei ausgerichtet hineingehauen, in den 
großen Topf und sich dann vielleicht selbst organisieren, 
Defektmanagement usw.

Und warum Transistoren kleiner machen, wenn man einfach mehr über einen 
Transistor schicken kann? Warum im Basisband einen Datenstrom? Warum 
eine Polarisation und Ausbreitungsrichtung.

Irgendwann soll der Computer doch mal ein vollwertiger Ersatz für den 
Menschen sein. - Oder für eine ganze Gesellschaft.
Wenn die Funkverbindung abbricht improvisiert halt ein App auf dem Handy 
oder Server das Gespräch auf beiden Seiten, so dass keiner der 
Gesprächspartner merkt, dass 5 min. keine Verbindung bestand...

Autor: A. K. (prx)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Rufus Τ. Firefly schrieb:

> Nein, man wird das homöopathische Konzept des Potenzierens anwenden. Die
> Hälfte der Transistoren ist gar nicht da, aber die Materie merkt sich
> ihren Abdruck. Oder so.

Gibts schon. Nennt sich SMT oder Hyperthreading. Das Betriebssystem 
zeigt 8 CPUs wo nur 4 drin stecken. Das ist aber noch ausbaufähig. 
Spätestens im zweistelligen Bereich (oft schon jetzt) würde es bei 
althergebrachter Softwarebasis kaum jemand merken, wenn tatsächlich nur 
halb so viele CPUs drin sind wie es den Anschein hat. Für den 
"Geil"-Faktor reicht ja der Anschein aus.

Autor: A. K. (prx)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Stefan Helmert schrieb:

> Wenn die Funkverbindung abbricht improvisiert halt ein App auf dem Handy
> oder Server das Gespräch auf beiden Seiten, so dass keiner der
> Gesprächspartner merkt, dass 5 min. keine Verbindung bestand...

Bei Politikerinterviews im TV ginge das heute bereits problemlos. Auf 
beiden Seiten.

Autor: Uhu Uhuhu (uhu)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
A. K. schrieb:
> Bei Politikerinterviews geht das heute bereits problemlos.

Fragt sich nur, ob es nicht billiger wäre, einen Papageien dafür 
einzusetzen, statt einem Computer.

Autor: A. K. (prx)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Uhu Uhuhu schrieb:

> Fragt sich nur, ob es nicht billiger wäre, einen Papageien dafür
> einzusetzen, statt einem Computer.

Weisst du was diese Viecher kosten? In Anschaffung, Training und 
Betrieb. Ausserdem ist das Risko grösser, dass was Intelligentes bei 
rüberkommt.

Autor: Uhu Uhuhu (uhu)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
A. K. schrieb:
> Weisst du was diese Viecher kosten?

Nur am Anfang. Die haben im Gegensatz zu Computern die nette 
Eigenschaft, sich selbst zu reproduzieren.

> Training

Damit könnten die Kasper wenigstens ihre Diäten auf ehrliche Weise 
verdienen.

Autor: Иван S. (ivan)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Stefan Helmert schrieb:
> Mit dem ganzen Nano-Zeug werden die Transistoren
> oder wie das dann heißen wird 3D frei ausgerichtet hineingehauen, in den
> großen Topf und sich dann vielleicht selbst organisieren,

Ich glaube, daß in näherer Zukunft die übliche Technologie beibehalten 
wird. Leider stecken wir seit einigen Jahren ziemlich in einer 
Sackgasse, die Taktfrequenzen steigen einfach nicht mehr. Statt dessen 
wird immer mehr parallelisiert, keine echte Innovation IMO. Manche 
Probleme lassen sich einfach nicht parallelisieren. Wie schön war alles 
zu Zeiten der Mendocino-CPU.

Optotechnik wäre meiner Meinung nach ein wirklicher Fortschritt. Also 
Logik mit Lichtsignalen. Da könnte man dann endlich wieder die 
Taktfrequenzen hochschrauben. Leider geht in diese Richtung auch nicht 
wirklich viel weiter.

Der nächste Schritt könnten aber auch Quantenmodule für konventionelle 
Rechner sein. 256 QBits als Erweiterungskartezum Beispiel.

> Irgendwann soll der Computer doch mal ein vollwertiger Ersatz für den
> Menschen sein. - Oder für eine ganze Gesellschaft.

Sollte? Finde ich persönlich nicht, im Gegenteil! Der Rechner soll des 
Menschen Untertan sein, aber weder einzelne Völker, Religionen, 
Gesellschaften oder gar die gesamte Menschheit an sich ersetzen.

> Wenn die Funkverbindung abbricht improvisiert halt ein App auf dem Handy
> oder Server das Gespräch auf beiden Seiten, so dass keiner der
> Gesprächspartner merkt, dass 5 min. keine Verbindung bestand...

Na Bravo, das möchte ich erst recht nicht.

Iwan, irritiert.

Autor: John Drake (drake)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Иван S. schrieb:
>
> Optotechnik wäre meiner Meinung nach ein wirklicher Fortschritt. Also
> Logik mit Lichtsignalen. Da könnte man dann endlich wieder die
> Taktfrequenzen hochschrauben. Leider geht in diese Richtung auch nicht
> wirklich viel weiter.

Auch nicht wirklich innovativ. Diese Idee gibt es seit Jahrzehnten. 
Technologisches Hindernis: mit Standard-Silizium-Prozessen lassen sich 
keine brauchbaren Lichtemitter fertigen.

>> Wenn die Funkverbindung abbricht improvisiert halt ein App auf dem Handy
>> oder Server das Gespräch auf beiden Seiten, so dass keiner der
>> Gesprächspartner merkt, dass 5 min. keine Verbindung bestand...
>
> Na Bravo, das möchte ich erst recht nicht.

Schlaf' dich aus, dann renkt sich dein Ironiedetektor vielleicht wieder 
ein...

Autor: Klaus Ausderkasse (gustavgans)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
nehmen wir doch einfach mal die pc-spiele als Messlatte im Heimgebrauch. 
Alles andere kommt nur schwer an so eine hohe Hardwareanforderung ran. 
Zumindest was im Heimbereich geschieht.
Nun ist es ja so, dass die neuen Spiele die momentan auf dem Markt sind, 
schon wirklich gut aussehen.
Ich bin jetzt zwar kein Experte, aber soweit ich weiß, ist es nicht 
nötig mehr Rechenleistung pro Kern zu erzielen um ein Spiel gut aussehen 
zu lassen. Man hat gemerkt, auch bei Computerhardware zahlt sich 
Teamwork aus.
Man lässt also lieber 4 Kerne im Team laufen anstatt einen der die 
gleich Leistung bringen müsste wie 4 Kerne zusammen. Dazu stellt man 
auch fest, es ist wesentlich billiger 4 Kerne zu produzieren, dazu kommt 
noch, dass 4 Kerne weniger Strom brauchen und auch weniger gekühlt 
werden müssen, wie einer der die gleiche Leistung bringen würde.
Ich glaube mit der aktuellen Entwicklungstechnik ist es nicht direkt 
möglich einen Kern zu erstellen, der auch ökonomisch mithalten kann, 
dafür aber wesentlich höhere Taktleistungen bringt.
Ich bin mir sicher, die Zukunft liegt im "Teamwork". Es wird Prozessoren 
mit 8 Kernen und mehr geben, aber bei wahrscheinlich nahezu gleicher 
Taktung wie heute.
Warum sollte man auch mit aller Macht die Taktung erhöhen wenn es nicht 
erforderlich ist? Ich bin der Meinung da haben wir auch ein bisschen das 
falsche denken. Höhere Taktung=mehr Leistung. Das war früher so, ist 
heute aber nur noch bedingt so.

Autor: A. K. (prx)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Klaus Ausderkasse schrieb:

> falsche denken. Höhere Taktung=mehr Leistung. Das war früher so, ist
> heute aber nur noch bedingt so.

Völlig korrekt, was die heute produzierte Hardware angeht. Bei den heute 
verbreiteten Programmen sieht das allerdings noch nicht so rosig aus. 
Alte Programme oder neue Programmversionen mit altem Kern werden nicht 
dadurch schneller, dass drei Cores dem vierten beim Arbeiten zusehen. 
Zwar werden Programme zunehmend angepasst, aber bis das grossflächig 
durchgezogen ist wird noch viel Zeit ins Land gehen.

Autor: Klaus Ausderkasse (gustavgans)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
die Software muss daran natürlich angepasst werden, ganz klar. Bei 
Spielen macht sich das ja schon bemerkbar, wie es bei anderen Programmen 
aussieht weiß ich nicht. Die Entwicklung braucht leider seine Zeit, aber 
in Zukunft wäre es natürlich schön, wenn ein Programm selber feststellen 
kann wie viele Kerne vorhanden sind und die Auslastung dann auch 
selbstständig auf die jeweiligen Kerne verteilen kann. Dann würde man 
die vorhandene Hardware schon mal deutlich effizienter nutzen.

Autor: Uhu Uhuhu (uhu)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Klaus Ausderkasse schrieb:
> die Software muss daran natürlich angepasst werden, ganz klar.

Nicht alle Probleme sind parallelisierbar. Bei Spielen ist das machbar.

Autor: A. K. (prx)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Schau dich mal bei Büro-PCs in mittleren bis grossen Firmen um. Viele 
verwenden nach wie vor XP, und mit nicht selten steinalten 
Office-Versionen drauf (weil Upgrade=Neupreis). Rest der Software ist 
oft ebenfalls im Kern oder ganz wörtlich 5-10 Jahre alt - mit viel Glück 
ist immerhin ein IE8 statt des "altbewährten" IE6 im Einsatz. Und ein 
Rechner-Upgrade ist da keineswegs mit Betriebssystem/Software-Upgrade 
verknüpft, d.h. der neue Quadcore kriegt die gleiche alte Software drauf 
wie der abgelöste Singlecore.

Autor: Klaus Ausderkasse (gustavgans)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Na das ist mir schon klar, aber die Büro-PCs bei Firma xyz, welche 
sowieso nur zu Datenerfassung genutzt werden, braucht die heute aktuelle 
Leistung nicht.
Die Hardware Entwicklung treibt sowieso Hauptsächlich der Spieler und 
Designer an.
€: Eigentlich alles mit Multimedia

Autor: A. K. (prx)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Klaus Ausderkasse schrieb:

> Na das ist mir schon klar, aber die Büro-PCs bei Firma xyz, welche
> sowieso nur zu Datenerfassung genutzt werden, braucht die heute aktuelle
> Leistung nicht.

Rechner werden nachweislich mit den Jahren langsamer. Selbst wenn man 
nichts ändert ausser dem Virenscanner. Der war nämlich vor 5 Jahren 
geradezu zwergenhaft gegenüber den Monstern, die heute die Winzlinge 
fernhalten sollen.

Und leider gibt es dann doch einzelne neuere Anwendungen. Besonders 
Java-basierte geniessen eine solide Ruf als Performance- und 
Speicherfresser.

Autor: Uhu Uhuhu (uhu)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
A. K. schrieb:
> d.h. der neue Quadcore kriegt die gleiche alte Software drauf
> wie der abgelöste Singlecore.

Dafür wartet die Kiste dann viermal so schnell...

Autor: A. K. (prx)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
PS: ... Erst Recht in Verbindung mit Virenscannern, die Java
aufgrund seiner Paketierung in Unmengen kleiner Module ganz besonders
auf dem Kieker haben.

Ich habe nur leider nicht den Eindruck gewonnen, dass Quadcores dabei
signifikant helfen.

Autor: A. None (bastelmaniac)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
>A. K.,
>
>Rechner werden nachweislich mit den Jahren langsamer. Selbst wenn man
>nichts ändert ausser dem Virenscanner.

Du sprichst von Windows. Linux wird garantiert nicht langsamer. Also 
rede von Windows und nicht von "Rechnern".

Autor: A. K. (prx)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Ok, das stimmt. Hab ein Linux-Serverlein mit Opteron-CPU und 64MB RAM im 
Einsatz. Und der hat nur deshalb so viel, weil sich weniger nicht lohnt.

Autor: Uhu Uhuhu (uhu)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
A. K. schrieb:
> Ich habe nur leider nicht den Eindruck gewonnen, dass Quadcores dabei
> signifikant helfen.

Da treffen sich wohl zwei Schwächen: Die Platte ist das langsamste Teil 
im Rechner und Windows ist nicht dafür konstruiert, mit Massen kleiner 
Dateifitzelchen zu arbeiten. Linux hat damit kein Problem.

Autor: Michael Buesch (mb_)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
A. K. schrieb:
> PS: ... Erst Recht in Verbindung mit Virenscannern, die Java
> aufgrund seiner Paketierung in Unmengen kleiner Module ganz besonders
> auf dem Kieker haben.
>
> Ich habe nur leider nicht den Eindruck gewonnen, dass Quadcores dabei
> signifikant helfen.

Selbstverständlich helfen Multicores hier, denn nun hat der Virenscanner 
und die genutzten Anwendungen jeweils eine eigene CPU zur Verfügung.

Autor: A. K. (prx)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Michael Buesch schrieb:

> Selbstverständlich helfen Multicores hier, denn nun hat der Virenscanner
> und die genutzten Anwendungen jeweils eine eigene CPU zur Verfügung.

Vorausgesetzt die Kiste wartet nicht grad darauf, dass der Virenscanner 
die diversen JARs zerpflückt und beurteilt hat, bis das Programm den 
Anwender belästigt.

Autor: Silvia A. (silvia)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Иван S. schrieb:
> Optotechnik wäre meiner Meinung nach ein wirklicher Fortschritt. Also
> Logik mit Lichtsignalen. Da könnte man dann endlich wieder die
> Taktfrequenzen hochschrauben.
Vor gut 10 Jahren sah es so aus. Seitdem hat sich die Computertechnik 
aber schneller fortentwickelt als die optronic.
Somit sind optische rechner veraltet :-)


Klaus Ausderkasse schrieb:
> es ist wesentlich billiger 4 Kerne zu produzieren
Es ist gar nicht möglich eine single Core cpu zu bauen, die die gleiche 
Rechenleistung hat. Somit erübrigt sich dein Preisvergleich

Autor: Johnny B. (johnnyb)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
A. F. schrieb:
>>A. K.,
>>Rechner werden nachweislich mit den Jahren langsamer. Selbst wenn man
>>nichts ändert ausser dem Virenscanner.
> Du sprichst von Windows. Linux wird garantiert nicht langsamer. Also
> rede von Windows und nicht von "Rechnern".

Nene, die Verallgemeinerung trifft schon zu. Auch ein Linuxsystem wird 
mit den Jahren langsamen. Einfach nicht so signifikant, aber man hält 
sich dort ja auch mit Updates und Pröbeleien zurück, daher fällt es 
nicht so stark auf wie bei Windows.
Auch umfangreiche Linuxsoftware lässt sich (durch Schlamperei der 
Programmierer) nicht rückstandslos entfernen und hinterlässt dadurch 
Leichen im System die es verlangsamen.
Auch verschleissen mit der Zeit die Hardwarekomponenten, die das System 
auch langsamer machen können (z.B. Laufwerke).

Autor: Uhu Uhuhu (uhu)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Johnny B. schrieb:
> Auch umfangreiche Linuxsoftware lässt sich (durch Schlamperei der
> Programmierer) nicht rückstandslos entfernen und hinterlässt dadurch
> Leichen im System die es verlangsamen.

Da Linux nicht die nächste große microsoftsche Innovation seit 
Einführung des Backslash als Pfadtrenner hat - die Registry - machen 
zurückgebliebene Reste deinstallierter Pakete dank des auf massen 
kleinster Dateien optimierten Dateisystems nicht viel aus.

Autor: Lukas K. (carrotindustries)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Seit es Paketmanager gibt und man nichts an jenen vorbeiinstalliert, 
sollte das rückstandsfreie Entfernen von Programmen kein Problem mehr 
darstellen. (kam mir auch noch nie so vor)

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail, Yahoo oder Facebook? Keine Anmeldung erforderlich!
Mit Google-Account einloggen | Mit Yahoo-Account einloggen | Mit Facebook-Account einloggen
Noch kein Account? Hier anmelden.