Hallo. Ich bin jetzt seit mehr als 15 Jahren "Computerisiert". (Seit 1995) Mein erster Rechner war ein 486er DX4 mit 8 MB Ram und ca 500 MB Festplatte und dem damals brandneuen Windows 95. Mein heutiger Rechner hat 1 TB, 8 GB Ram und 4x2,5 GHz. Also ca 2000 mal so viel Festplatte, tausend mal so viel Ram und bestimmt mehr als tausend mal so viel Rechenleistung. Und das in 15 Jahren. Aber nicht nur beim Rechner, auch beim Onlinezugang hat sich die Geschwindigkeit mehr als vertausendfacht: Mein erstes "onlineerlebnis" war in sogenannten Mailboxen via PAcket Raido. Im Internet war ich erstmals mit 28.8er Modem. Heute habe ich 32 Mbit/s und die 100 mit/s stehen schon vor der Tür. Wobei ich sagen muss, dass sich in den letzten 5 Jahren nicht mehr allzu viel getan hat. 2006 hatte ich auch schon 600 GB Festplatte, 1 GB Ram und 2GHz+ Dual Core CPU. Damals hatte ich auch schon mehr als 10 Mbit/s Internet. Ist also langsam mal das Ende der Fahnenstange erreicht? Das was technisch mahbar ist? Kommt man an die physikalischen Grenzen? Oder wie weit wird das alles noch gehen? Werden wir Terabytes beim Ram und Petabytes Festplatten und 64 Core CPU im Heimbereich noch erleben?
:
Verschoben durch User
Es wird weiter voran gehen... http://www.elektor.de/elektronik-news/der-1000-kerne-chip.1673969.lynkx?utm_source=DE&utm_medium=email&utm_campaign=news
Ein Ende ist nicht absehbar. Durch die Entdeckung und Erforschung neuer Materialien (siehe z.B. http://de.wikipedia.org/wiki/Graphen) wird es auch zukünftig heisen: schneller, höher, weiter!
Sven schrieb: > tausend mal so viel Rechenleistung. > Und das in 15 Jahren. Wunderbar. Nur ob dies Rechenleistung auch immer sinnvoll ausgenutzt oder nur in Wärme umgewandelt wird, wäre noch näher zu erforschen. Luthers Bibel passt als Textfile auf eine 3,5" Diskette. Der INHALT hat sich seither nicht geändert. Wo liegt in diesem Fall der Fortschritt? Bei Bildverarbeitung z.B. sehe ich ein, daß leistungsfähige Rechner nötig sind.
Wenn man bedenkt, dass heute schon in den Chips die Leiterbahnen zum Teil nur noch wenige Atomlagen dick sind, stelle ich mir die weitere Verkleinerung der Strukturen ehr schwer vor. Ich habe auch irgendwo gelesen, dass die Obergrenze bei der Taktfrequenz von CPU auch erreicht ist (Dafür spricht, dass der Takt seit Jahren nur unwesentlich höher wurde) Schneller würde es nur gehen, wenn man die Komplexität der einzelnen Kerne reduziert. Die Zukunft liegt also wohl in immer mehr Kernen und Multi Level Speicher / Datenleitungen. Das mit den neuen Materialien ist auch interessant, vielleicht bekommen wir ja noch quantenmechanische oder optische Rechner
>Es wird weiter voran gehen... >http://www.elektor.de/elektronik-news/der-1000-ker... Was ist daran jetzt genau neu? Gruß, Christian
Die Taktfrequenz in einem PC-Prozessor ist durch verschiedene Gründe begrenzt. Einer der wichtigsten dürfte die mechanische Größe des Dice sein. Diese hat direkten Einfluss auf Signallaufzeiten und parasitäre Kapazitäten (Umschaltzeiten-> Stromaufnahme-> Wärmeentwicklung). Deshalb arbeiten AMD und Co. an der Verkleinerung der STrukturbreiten. Doch auch hier ist irgendwann ein Ende absehbar. Bei den aktuellen Strukturbreiten sind Transistoren oder "Leiterbahnen" keine 1000 Atome breit und das ganze über 1 Milliarde mal je Chip. Stichwort Parallelisierung. Solange die Software nicht für den massiven Parallelbetrieb geschrieben ist, wird es auch hier noch eine Weile dauern.
Rainer Unsinn schreibt hier wirklich großen Unsinn... DER GRUND dafür, dass die Taktfrequenz kaum noch angehoben werden kann ist der bei kurzkanalern auftretende "Hot-Electron-Effekt", nachzulesen in der Baker, Li, Boyce CMOS Bibel... Das hat nichts mit der mechanischen größe des Die zu tun... Und auch bei paralleler Abarbeitung ist eine Obergrenze des Speedups gegenüber einer rein optimalen sequentiellen Abarbeitung gegeben. Amdahls Law bewies dies bereits in den 60ern... [Fäkalworte gelöscht - Mod.]
Die Anforderungen ändern sich und entsprechend die Technik. Vor 5 Jahren war Leistung alles, heute sind 100W CPUs mit lauten Kühlgebläsen komplett out, man möchte seine HD-Filme aus dem Internet auf einem lüfterlosen Rechner sehen. Gruss Axel
Ende der Entwicklung - nein. Was allerdings in den letzten 1-3 Jahren passierte, ist eine Vergrößerung des Leistungsspektrums. Wenn wir mal bei den klassischen x86er basierten Computersystemen bleiben, so haben wir nun Netbooks z.B. mit dem Atom am unteren Spektrum und z.B. Core i7 am oberen Leistungsspektrum. Das führt unter anderem auch dazu, dass alte Computer immer noch vollwertig und effizient eingesetzt werden können. Selbst hardcore Gamer brauchen nicht mehr unbedingt die gerade verfügbare HighEnd Maschine. Ein wenig ist das aber auch den Spielekonsolen zu verdanken, welche die technologische Entwicklung etwas bremsen. Das war in den 90er und am Anfang der 2000er Jahre noch völlig anders. Alte Computersysteme waren ziemlich schnell wirklich alt und nicht mehr produktiv einsetzbar. Von Spielen am Computer ganz zu schweigen.
Rainer Unsinn schrieb: > Deshalb > arbeiten AMD und Co. an der Verkleinerung der STrukturbreiten. Doch auch > hier ist irgendwann ein Ende absehbar. Diese Meinung teile ich nicht so ganz, denn gewisse Wissenschaftler vermuten, genauso wie die Grösse des Universums praktisch unendlich ist, kann man auch praktisch unendlich in die Mikroskopische Welt eintauchen. Daher wird es kaum eine Grenze geben, sofern man entsprechende Technologie entwickeln kann um in diese Welten "vorzustossen" und sie zu nutzen.
>Daher wird es kaum eine Grenze geben
Ja genau, und wenn ein Transistor nur noch ein atom gross ist, kann man
ihn immer noch halb so groß bauen :-)
Silvia A. schrieb: >>Daher wird es kaum eine Grenze geben > Ja genau, und wenn ein Transistor nur noch ein atom gross ist, kann man > ihn immer noch halb so groß bauen :-) Es ist ja nicht in Stein gemeisselt, dass ein Transistor unbedingt aus Atomen gefertigt sein muss. Es ist ja bereits nachgewiesen, dass es kleinere Teilchen als Atome gibt. Daher wird es einestages vielleicht auch möglich sein, einen Transistor aus diesen herzustellen.
Johnny B. schrieb: > Silvia A. schrieb: >>>Daher wird es kaum eine Grenze geben >> Ja genau, und wenn ein Transistor nur noch ein atom gross ist, kann man >> ihn immer noch halb so groß bauen :-) > > Es ist ja nicht in Stein gemeisselt, dass ein Transistor unbedingt aus > Atomen gefertigt sein muss. Es ist ja bereits nachgewiesen, dass es > kleinere Teilchen als Atome gibt. Daher wird es einestages vielleicht > auch möglich sein, einen Transistor aus diesen herzustellen. Obendrein ist es ja nicht nur so, dass Atome gebastelt werden können, nein auch die mehrfach größeren Moleküle sollen angeblich auch so herzustellen sein. Sicherlich gib es dazu bald einen Kosmos-Baukasten; und wenn das alle Schüler kennen (gut, die Gamer muss man hier wohl ausnehmen), dann Gute Nacht BASF.
...schwarze Materie im Selbstbau!? Ansonsten vermisse ich hier noch die SSD, der Trend geht also weniger zu "mehr speed" sondern zu "neue Technologien effizient benutzen". Eine SSD soll, wenn alles funktioniert, deutlich länger halten als eine HDD (keine mechanischen Teile!) Ausserdem wird alles grün! Netzteile mit 85+ und mehr. zumindest im Privatberich wird "derzeit" nicht mehr Leistung benötigt, hier ist Stromersparnis und Effizienz momentan wichtiger!
Die grosse Masse wird mit einem Zwischending zwischen EBook, Mobiltelephon und Zeichenpad zufrieden sein. Dh die Hochleistungsrechner werden einen kleineren Markt haben. Ich hingegen warte teilweise immer noch einen ganzen Tag auf eine Berechnung, die ich eigentlich lieber interaktiv haette. Heisst ich werde in Zukunft einen Rechner kaufen, der bei 256 kernen rund 100Gbyte RAM hat.
>Ich hingegen warte teilweise immer >noch einen ganzen Tag auf eine Berechnung, die ich eigentlich lieber >interaktiv haette. Heisst ich werde in Zukunft einen Rechner kaufen, der >bei 256 kernen rund 100Gbyte RAM hat. Kannst Du doch jetzt schon Rechenleistung für mieten. Gruss Axel
Silvia A. schrieb: >>Daher wird es kaum eine Grenze geben > Ja genau, und wenn ein Transistor nur noch ein atom gross ist, kann man > ihn immer noch halb so groß bauen :-) Nein, man wird das homöopathische Konzept des Potenzierens anwenden. Die Hälfte der Transistoren ist gar nicht da, aber die Materie merkt sich ihren Abdruck. Oder so.
Der Durchbruch dürfte dann mit den homöopathischen Rechnern kommen: Die CPU ist im Gehäuse nur noch in einer potenziert verdünnten Version vorhanden.... Die Prozessoren tragen dann folgende Namen: Calculatio D6, Integralo D12 und Ludum D30 (für Gamer)
oszi40 schrieb: > Luthers Bibel passt als Textfile auf eine 3,5" Diskette. Der INHALT hat > sich seither nicht geändert. Wo liegt in diesem Fall der Fortschritt? Ohne jetzt klerikal zu werden: Du sprichst einen sehr wichtigen Punkt an. Es geht nur noch um die Datenraten, nicht mehr um die Daten selber. Auf 50 Kanälen flimmert und in HD und 3D der größte Schwachsinn ins Haus. Doch wo bleibt der INHALT? Sind die Filme jetzt "besser"? Wird mehr über die Intentionen der Filme, über Gut und Böse, über die literarische Aussagekraft, über Charaktere etc. diskutiert? Nein, ein "war ganz gut" langt schon, um sich ne Glasfaserstandleitung nach Hollywood zu rechtfertigen. Ich hab ja auch 1000de von Songs auf Festplatte. Höre ich die auch alle so sorgfältig an wie ich sie gerippt habe? Wohl kaum.
Der schnellste Rechner wäre ein einfacher PC der durch etwas Software sich die extra benötigte Rechenleistung von anderen Rechnern borgt.
Ich denke, es ist noch viel Potential da. Der Prozessor besitzt zwar viele Lagen, aber wohl nur auf einer sind Transistoren. Die Chip-Anordnung ist 2D. Mit dem ganzen Nano-Zeug werden die Transistoren oder wie das dann heißen wird 3D frei ausgerichtet hineingehauen, in den großen Topf und sich dann vielleicht selbst organisieren, Defektmanagement usw. Und warum Transistoren kleiner machen, wenn man einfach mehr über einen Transistor schicken kann? Warum im Basisband einen Datenstrom? Warum eine Polarisation und Ausbreitungsrichtung. Irgendwann soll der Computer doch mal ein vollwertiger Ersatz für den Menschen sein. - Oder für eine ganze Gesellschaft. Wenn die Funkverbindung abbricht improvisiert halt ein App auf dem Handy oder Server das Gespräch auf beiden Seiten, so dass keiner der Gesprächspartner merkt, dass 5 min. keine Verbindung bestand...
Rufus Τ. Firefly schrieb: > Nein, man wird das homöopathische Konzept des Potenzierens anwenden. Die > Hälfte der Transistoren ist gar nicht da, aber die Materie merkt sich > ihren Abdruck. Oder so. Gibts schon. Nennt sich SMT oder Hyperthreading. Das Betriebssystem zeigt 8 CPUs wo nur 4 drin stecken. Das ist aber noch ausbaufähig. Spätestens im zweistelligen Bereich (oft schon jetzt) würde es bei althergebrachter Softwarebasis kaum jemand merken, wenn tatsächlich nur halb so viele CPUs drin sind wie es den Anschein hat. Für den "Geil"-Faktor reicht ja der Anschein aus.
Stefan Helmert schrieb: > Wenn die Funkverbindung abbricht improvisiert halt ein App auf dem Handy > oder Server das Gespräch auf beiden Seiten, so dass keiner der > Gesprächspartner merkt, dass 5 min. keine Verbindung bestand... Bei Politikerinterviews im TV ginge das heute bereits problemlos. Auf beiden Seiten.
A. K. schrieb: > Bei Politikerinterviews geht das heute bereits problemlos. Fragt sich nur, ob es nicht billiger wäre, einen Papageien dafür einzusetzen, statt einem Computer.
Uhu Uhuhu schrieb: > Fragt sich nur, ob es nicht billiger wäre, einen Papageien dafür > einzusetzen, statt einem Computer. Weisst du was diese Viecher kosten? In Anschaffung, Training und Betrieb. Ausserdem ist das Risko grösser, dass was Intelligentes bei rüberkommt.
A. K. schrieb: > Weisst du was diese Viecher kosten? Nur am Anfang. Die haben im Gegensatz zu Computern die nette Eigenschaft, sich selbst zu reproduzieren. > Training Damit könnten die Kasper wenigstens ihre Diäten auf ehrliche Weise verdienen.
Stefan Helmert schrieb: > Mit dem ganzen Nano-Zeug werden die Transistoren > oder wie das dann heißen wird 3D frei ausgerichtet hineingehauen, in den > großen Topf und sich dann vielleicht selbst organisieren, Ich glaube, daß in näherer Zukunft die übliche Technologie beibehalten wird. Leider stecken wir seit einigen Jahren ziemlich in einer Sackgasse, die Taktfrequenzen steigen einfach nicht mehr. Statt dessen wird immer mehr parallelisiert, keine echte Innovation IMO. Manche Probleme lassen sich einfach nicht parallelisieren. Wie schön war alles zu Zeiten der Mendocino-CPU. Optotechnik wäre meiner Meinung nach ein wirklicher Fortschritt. Also Logik mit Lichtsignalen. Da könnte man dann endlich wieder die Taktfrequenzen hochschrauben. Leider geht in diese Richtung auch nicht wirklich viel weiter. Der nächste Schritt könnten aber auch Quantenmodule für konventionelle Rechner sein. 256 QBits als Erweiterungskartezum Beispiel. > Irgendwann soll der Computer doch mal ein vollwertiger Ersatz für den > Menschen sein. - Oder für eine ganze Gesellschaft. Sollte? Finde ich persönlich nicht, im Gegenteil! Der Rechner soll des Menschen Untertan sein, aber weder einzelne Völker, Religionen, Gesellschaften oder gar die gesamte Menschheit an sich ersetzen. > Wenn die Funkverbindung abbricht improvisiert halt ein App auf dem Handy > oder Server das Gespräch auf beiden Seiten, so dass keiner der > Gesprächspartner merkt, dass 5 min. keine Verbindung bestand... Na Bravo, das möchte ich erst recht nicht. Iwan, irritiert.
Иван S. schrieb: > > Optotechnik wäre meiner Meinung nach ein wirklicher Fortschritt. Also > Logik mit Lichtsignalen. Da könnte man dann endlich wieder die > Taktfrequenzen hochschrauben. Leider geht in diese Richtung auch nicht > wirklich viel weiter. Auch nicht wirklich innovativ. Diese Idee gibt es seit Jahrzehnten. Technologisches Hindernis: mit Standard-Silizium-Prozessen lassen sich keine brauchbaren Lichtemitter fertigen. >> Wenn die Funkverbindung abbricht improvisiert halt ein App auf dem Handy >> oder Server das Gespräch auf beiden Seiten, so dass keiner der >> Gesprächspartner merkt, dass 5 min. keine Verbindung bestand... > > Na Bravo, das möchte ich erst recht nicht. Schlaf' dich aus, dann renkt sich dein Ironiedetektor vielleicht wieder ein...
nehmen wir doch einfach mal die pc-spiele als Messlatte im Heimgebrauch. Alles andere kommt nur schwer an so eine hohe Hardwareanforderung ran. Zumindest was im Heimbereich geschieht. Nun ist es ja so, dass die neuen Spiele die momentan auf dem Markt sind, schon wirklich gut aussehen. Ich bin jetzt zwar kein Experte, aber soweit ich weiß, ist es nicht nötig mehr Rechenleistung pro Kern zu erzielen um ein Spiel gut aussehen zu lassen. Man hat gemerkt, auch bei Computerhardware zahlt sich Teamwork aus. Man lässt also lieber 4 Kerne im Team laufen anstatt einen der die gleich Leistung bringen müsste wie 4 Kerne zusammen. Dazu stellt man auch fest, es ist wesentlich billiger 4 Kerne zu produzieren, dazu kommt noch, dass 4 Kerne weniger Strom brauchen und auch weniger gekühlt werden müssen, wie einer der die gleiche Leistung bringen würde. Ich glaube mit der aktuellen Entwicklungstechnik ist es nicht direkt möglich einen Kern zu erstellen, der auch ökonomisch mithalten kann, dafür aber wesentlich höhere Taktleistungen bringt. Ich bin mir sicher, die Zukunft liegt im "Teamwork". Es wird Prozessoren mit 8 Kernen und mehr geben, aber bei wahrscheinlich nahezu gleicher Taktung wie heute. Warum sollte man auch mit aller Macht die Taktung erhöhen wenn es nicht erforderlich ist? Ich bin der Meinung da haben wir auch ein bisschen das falsche denken. Höhere Taktung=mehr Leistung. Das war früher so, ist heute aber nur noch bedingt so.
Klaus Ausderkasse schrieb: > falsche denken. Höhere Taktung=mehr Leistung. Das war früher so, ist > heute aber nur noch bedingt so. Völlig korrekt, was die heute produzierte Hardware angeht. Bei den heute verbreiteten Programmen sieht das allerdings noch nicht so rosig aus. Alte Programme oder neue Programmversionen mit altem Kern werden nicht dadurch schneller, dass drei Cores dem vierten beim Arbeiten zusehen. Zwar werden Programme zunehmend angepasst, aber bis das grossflächig durchgezogen ist wird noch viel Zeit ins Land gehen.
die Software muss daran natürlich angepasst werden, ganz klar. Bei Spielen macht sich das ja schon bemerkbar, wie es bei anderen Programmen aussieht weiß ich nicht. Die Entwicklung braucht leider seine Zeit, aber in Zukunft wäre es natürlich schön, wenn ein Programm selber feststellen kann wie viele Kerne vorhanden sind und die Auslastung dann auch selbstständig auf die jeweiligen Kerne verteilen kann. Dann würde man die vorhandene Hardware schon mal deutlich effizienter nutzen.
Klaus Ausderkasse schrieb: > die Software muss daran natürlich angepasst werden, ganz klar. Nicht alle Probleme sind parallelisierbar. Bei Spielen ist das machbar.
Schau dich mal bei Büro-PCs in mittleren bis grossen Firmen um. Viele verwenden nach wie vor XP, und mit nicht selten steinalten Office-Versionen drauf (weil Upgrade=Neupreis). Rest der Software ist oft ebenfalls im Kern oder ganz wörtlich 5-10 Jahre alt - mit viel Glück ist immerhin ein IE8 statt des "altbewährten" IE6 im Einsatz. Und ein Rechner-Upgrade ist da keineswegs mit Betriebssystem/Software-Upgrade verknüpft, d.h. der neue Quadcore kriegt die gleiche alte Software drauf wie der abgelöste Singlecore.
Na das ist mir schon klar, aber die Büro-PCs bei Firma xyz, welche sowieso nur zu Datenerfassung genutzt werden, braucht die heute aktuelle Leistung nicht. Die Hardware Entwicklung treibt sowieso Hauptsächlich der Spieler und Designer an. €: Eigentlich alles mit Multimedia
Klaus Ausderkasse schrieb: > Na das ist mir schon klar, aber die Büro-PCs bei Firma xyz, welche > sowieso nur zu Datenerfassung genutzt werden, braucht die heute aktuelle > Leistung nicht. Rechner werden nachweislich mit den Jahren langsamer. Selbst wenn man nichts ändert ausser dem Virenscanner. Der war nämlich vor 5 Jahren geradezu zwergenhaft gegenüber den Monstern, die heute die Winzlinge fernhalten sollen. Und leider gibt es dann doch einzelne neuere Anwendungen. Besonders Java-basierte geniessen eine solide Ruf als Performance- und Speicherfresser.
A. K. schrieb: > d.h. der neue Quadcore kriegt die gleiche alte Software drauf > wie der abgelöste Singlecore. Dafür wartet die Kiste dann viermal so schnell...
PS: ... Erst Recht in Verbindung mit Virenscannern, die Java aufgrund seiner Paketierung in Unmengen kleiner Module ganz besonders auf dem Kieker haben. Ich habe nur leider nicht den Eindruck gewonnen, dass Quadcores dabei signifikant helfen.
>A. K., > >Rechner werden nachweislich mit den Jahren langsamer. Selbst wenn man >nichts ändert ausser dem Virenscanner. Du sprichst von Windows. Linux wird garantiert nicht langsamer. Also rede von Windows und nicht von "Rechnern".
Ok, das stimmt. Hab ein Linux-Serverlein mit Opteron-CPU und 64MB RAM im Einsatz. Und der hat nur deshalb so viel, weil sich weniger nicht lohnt.
A. K. schrieb: > Ich habe nur leider nicht den Eindruck gewonnen, dass Quadcores dabei > signifikant helfen. Da treffen sich wohl zwei Schwächen: Die Platte ist das langsamste Teil im Rechner und Windows ist nicht dafür konstruiert, mit Massen kleiner Dateifitzelchen zu arbeiten. Linux hat damit kein Problem.
A. K. schrieb: > PS: ... Erst Recht in Verbindung mit Virenscannern, die Java > aufgrund seiner Paketierung in Unmengen kleiner Module ganz besonders > auf dem Kieker haben. > > Ich habe nur leider nicht den Eindruck gewonnen, dass Quadcores dabei > signifikant helfen. Selbstverständlich helfen Multicores hier, denn nun hat der Virenscanner und die genutzten Anwendungen jeweils eine eigene CPU zur Verfügung.
Michael Buesch schrieb: > Selbstverständlich helfen Multicores hier, denn nun hat der Virenscanner > und die genutzten Anwendungen jeweils eine eigene CPU zur Verfügung. Vorausgesetzt die Kiste wartet nicht grad darauf, dass der Virenscanner die diversen JARs zerpflückt und beurteilt hat, bis das Programm den Anwender belästigt.
Иван S. schrieb: > Optotechnik wäre meiner Meinung nach ein wirklicher Fortschritt. Also > Logik mit Lichtsignalen. Da könnte man dann endlich wieder die > Taktfrequenzen hochschrauben. Vor gut 10 Jahren sah es so aus. Seitdem hat sich die Computertechnik aber schneller fortentwickelt als die optronic. Somit sind optische rechner veraltet :-) Klaus Ausderkasse schrieb: > es ist wesentlich billiger 4 Kerne zu produzieren Es ist gar nicht möglich eine single Core cpu zu bauen, die die gleiche Rechenleistung hat. Somit erübrigt sich dein Preisvergleich
A. F. schrieb: >>A. K., >>Rechner werden nachweislich mit den Jahren langsamer. Selbst wenn man >>nichts ändert ausser dem Virenscanner. > Du sprichst von Windows. Linux wird garantiert nicht langsamer. Also > rede von Windows und nicht von "Rechnern". Nene, die Verallgemeinerung trifft schon zu. Auch ein Linuxsystem wird mit den Jahren langsamen. Einfach nicht so signifikant, aber man hält sich dort ja auch mit Updates und Pröbeleien zurück, daher fällt es nicht so stark auf wie bei Windows. Auch umfangreiche Linuxsoftware lässt sich (durch Schlamperei der Programmierer) nicht rückstandslos entfernen und hinterlässt dadurch Leichen im System die es verlangsamen. Auch verschleissen mit der Zeit die Hardwarekomponenten, die das System auch langsamer machen können (z.B. Laufwerke).
Johnny B. schrieb: > Auch umfangreiche Linuxsoftware lässt sich (durch Schlamperei der > Programmierer) nicht rückstandslos entfernen und hinterlässt dadurch > Leichen im System die es verlangsamen. Da Linux nicht die nächste große microsoftsche Innovation seit Einführung des Backslash als Pfadtrenner hat - die Registry - machen zurückgebliebene Reste deinstallierter Pakete dank des auf massen kleinster Dateien optimierten Dateisystems nicht viel aus.
Seit es Paketmanager gibt und man nichts an jenen vorbeiinstalliert, sollte das rückstandsfreie Entfernen von Programmen kein Problem mehr darstellen. (kam mir auch noch nie so vor)
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.