Forum: Offtopic Speichermedien: Ist Moore's law am Ende?


von Fritz G. (fritz65)


Lesenswert?

Es ist auffällig, dass die Speicherkapazität von SD-Karten und 
USB-Sticks in den letzten Jahren mehr oder weniger stagniert. Über 1TB 
scheint es nur in China zu geben, an der Realität dieser Angaben sind 
Zweifel aber berechtigt.
Echte 1TB gab es aber schon um 2020.

Nach dem Mooreschen Gesetz müsste sich die Kapazität doch ca. alle 1-2 
Jahre verdoppeln. Ist das halbleitertechnische Ende der Fahnenstange 
schon erreicht, oder ist eher die Nachfrage nach größeren Speichermedien 
einfach zu gering? Wer will schon hundertausende Fotos oder mehrere Tage 
Videos auf einer Karte speichern?

von Oliver S. (oliverso)


Lesenswert?

Wenn es Tage oder Wochen braucht, um ein transportables Speichermedium 
voll zu schreiben, ist der Sinn halt begrenzt.

Bei SSDs geht's ja weiterhin mit der Kapazität fröhlich nach oben.

Oliver

von Re D. (Gast)


Lesenswert?

Ohne die Preise zu nennen, ist deine Hypothese nix wert, denn bei dem 
Moorschen Gesetz geht es um Kostenoptimum. Weiterhin ist die Betrachtung 
einen USB-Sticks in diesen Zusammenhang Unsinn, wie du ja selbst merkst. 
Keiner brauch einen 5 TB große USB-Sticks. Prinzipiell ist die Anwendung 
von USB-Sticks stark zurückgegangen. Vor 10 bis 15 Jahren hatte sowas 
jeder. Heute muss man tief im Schreibtisch wühlen, um so ein olles Ding 
zu finden. Kleine Dateien werden "per Internet" einfach versendet. Große 
Dateien liegen auf Servern.

von Michael B. (laberkopp)


Lesenswert?

Fritz G. schrieb:
> Nach dem Mooreschen Gesetz müsste sich die Kapazität doch ca. alle 1-2
> Jahre verdoppeln. Ist das halbleitertechnische Ende der Fahnenstange
> schon erreicht?

Jein, es hat sich deutlich verlangsamt. Die Taktrate ist auch im 
einstelligen Gigaherzbereich geblieben.

Moore ist auch schon tot.

Exponentielles Wachstum ist eben auf Dauer nicht durchzuhalten.

Das wusste sicher auch Moore. Schade, dass er es seinen 
nicht-mitdenkenden Jüngern nicht gesagt hat.

Jeder Schüler sollte das Rätsel mit dem Schachbrett auf dessen ersten 
Feld ein Reiskorn liegt, auf den nächsten die jeweils doppelte Anzahl, 
kennen.

Wenn du heute einen PC kaufst  bekommst du in der Billigschiene oft 
Geräte mit 10 Jahre altem Innenleben.

Aber 1 Terabyte erforderte 2004 eine 3 1/2" Festplatte, 2014 eine SSD im 
PCMCIA Format und heute ein winziges M.2 Platinchen.

Es gab damals den gigantischen Sprung auf 3GHz CPUs. Heute wartet man 
auf einen ähnlichen Sprung. FinFET hat zwar was gebracht, ist aber 
schwierig herzustellen. Kohlenstoff-Nanoröhrchen könnten das nächste 
Ding werden. Zwischenzeitlich hat man lieber OLED perfektioniert.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Natürlich ist irgendwann Ende. Beim Takt von CPUs ist das schon so. Der 
Aufwand, die Taktfrequenz zu steigern, geht derart in die Wärmeleistung, 
dass die CPUs dabei 250W brauchen und Intel sich mit Gen13/14 ein böses 
Ei gelegt hat, das die Chips abbrennt. Deshalb geht man lieber ins 
Parallele, wenn möglich mit mehr schwächeren aber sparsameren Cores 
(Intel E-Core, AMD Zen5c). Was aber hinsichtlich Software nicht einfach 
ist.

Die Grösse der Strukturen der Flash-Mems sind eine Sache, aber es gibt 
längst die 3. Dimension. Da sind mittlerweile hunderte Layer 
übereinander.

Jeder weiss, Moore ist tot, oder weiss, das Moore bald sein Ende findet. 
Aber das schiebt sich dann doch immer wieder hinaus.

: Bearbeitet durch User
von Udo S. (urschmitt)


Lesenswert?

Fritz G. schrieb:
> Nach dem Mooreschen Gesetz müsste sich die Kapazität doch ca. alle 1-2
> Jahre verdoppeln.

Das Moorsche Gesetz (oder korrekter Prognose) bezieht sich auf die 
Anzahl Transistoren (früher Komponenten) in integreierten Schaltkreisen.
Allerdings lässt sich die Physik nicht einfach überlisten. Irgendwann 
ist ein Halbleiter kein Halbleiter mehr, wenn er nur noch aus einer 
Handvoll Atomen besteht.
Und schon vorher spuckt einem die Quantenmechanik in die Suppe z.B. 
durch den Tunneleffekt.
Die Top Hersteller (TSMC) sind meines Wissens derzeit bei 3nm 
Strukturen, 2nm sind absehbar und entwickeln aber auch schon 1,4nm und 
wohl auch 1nm Prozesse.
Aber da spielen Tunneleffekte eine immer stärkere Rolle. Irgendwann ist 
Schluss.

Ganz interessant ist die Einschätzung im Wikipedia Artikel inwieweit 
diese Prognose tatsächlich zutrifft/getroffen hat.
https://de.wikipedia.org/wiki/Mooresches_Gesetz

von Andreas B. (bitverdreher)


Lesenswert?

(prx) A. K. schrieb:
> Jeder weiss, Moore ist tot,

Seit Maerz letzten Jahres uebrigens.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Udo S. schrieb:
> Irgendwann ist Schluss.

Yep, das ist jedem in der Branche klar. War es schon früher. Die 
spannende Seite ist: wo? Wir sind heute sicherlich längst jenseits der 
Vorstellungen, die man früher vom Ende der Möglichkeiten hatte.

Wie ich zum Flash oben schrieb: Es geht nicht nur um die Strukturgrösse 
der Chiptechnik. Einem tolerant interpretierten Moore ist auch Genüge 
getan, wenn man den Kram stapelt. Auch bei CPUs. AMD stapelt 
mittlerweile für Gamer und EPYCs zusätzlichen L3-Cache oben drauf. Auch 
Smartphone-SoCs sind längst in 3 Dimensionen gebaut. Da erwarte ich noch 
mehr. Ist bei Flash nur einfacher.

: Bearbeitet durch User
von Udo S. (urschmitt)


Lesenswert?

(prx) A. K. schrieb:
> Da erwarte ich noch mehr.

Das stimmt, interessant und entscheidend dürften hier innovative Ideen 
zur Kühlung werden.

von Johann L. (gjlayde) Benutzerseite


Lesenswert?

Ein aktuell unternommenes Schrittchen, Moore's Law noch weiterzuführen, 
ist Backside Power Delivery / Power Via, so dass sich Sigale und 
Energieversorgung nicht gegenseitig behindern.

Erlaubt also höhere Integrationsdichte, die momentan nicht (nur) durch 
die Dichte der aktiven Komponenten selbst begrenzt ist, sondern vor 
allem durch die Dichte der X Lagen + Anschlüsse darüber.

von 🍅🍅 🍅. (tomate)


Lesenswert?

Hauptproblem dürft sein, dass Transistoren nur in schön Monokristallin 
gezogenem Silizium gehen, sonst könnte man relativ einfach 3D gehen.

So nur 2 1/2D mit übereinander geschachtelten, runtergeschliffenen Dies, 
wo jedes mal ein Wafer pro Lage fällig wird. Richtig 3D bei irgendwas 
50nm Feature-Grösse gäbte affig Speicher pro cm³.

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Vielleicht gibt es bald organische Speichermedien, die die Daten als RNA 
ablegt.

von Falk B. (falk)


Lesenswert?

Hat sich schon mal einer die Frage gestellt, was mit den geradezu 
astronomischen Speichermengen so angestellt wird? Wieviel sinnvolle 
Daten da wirklich drauf landen und wieviel Datenmüll? Und damit meine 
ich nicht nur im Netz mit Youtube & Co, auch im Privatbereich. Allein 
die Flut der Digitalbilder ist irre.

https://www.brandwatch.com/de/blog/statistiken-youtube/

"Jede Minute werden auf YouTube 400 Stunden Videomaterial hochgeladen.

Jeden Tag werden über 1 Milliarde Stunden an YouTube Videos angesehen, 
mehr als auf Netflix und Facebook zusammen."

Wenn wir mal von sehr sparsamen 100MB/h Video ausgehen, was mal sicher 
keine 4K Auflösung ermöglicht, sind das satte

40GB/h
960GB/Tag
29,7TB/Monat
357TB/Jahr

Vermutlich eher die 2-5fache Menge. Auch wenn es 1TB Festplatten heute 
für nen Appel & Ei zu kaufen gibt, um die 50 Euro. Hmm, nur 50 Euro 
Speicherkosten pro Tag für Youtube? Zu billig! Oder die Leute laden zu 
wenig Blödsinn hoch! ;-)

Und die 1 Milliarde h Videos anschauen/Tag. Hmm, wieviel davon ist 
Blödsinn  auf Katzenvideoniveau? Jaja, beim alten Normalofernsehen war 
es nicht viel besser, nur weniger individuell.

von Dieterich (einermehr)


Lesenswert?

Hallo

Mal von der praktischen Seite her gesehen:
Was wollen die meisten den mit einem 5TB Stick anfangen können?

Videosammler und Youtube sicherer ;-)  nutzen für ihre Sammlung (ja da 
kommen 10 TB und mehr zusammen und je nach "Abos" und Downloads kommt da 
durchaus 1TB pro Jahr dazu - 4k wird langsam zum Standard von -zumindest 
technisch- besseren YT Videos und Kanälen) immer noch rotierende 
Festplatten, da diese in jenen Größenordnungen immer noch den besten 
kosten- nutzen Faktor und die höchste Zuverlässigkeit bieten.
Profis aus der Forschung (z.B. Astronomie) nutzen für ihre Daten in 
Petabyte Bereich (deren Auswertung sich durchaus über Jahre hinzieht) 
nach eigenen Angaben auch Festplatten - warum wohl?

Außerdem ist die Datenübertragungsrate bei jenen Festplatten erträglich 
- so mancher "lächerliche" 128GByte Stick benötigt im echten Leben zu 
vollständigen Beschreiben dutzende Minuten (den interessiert die Theorie 
nicht), bis zu einige, bei vielen "kleinen" Dateien, Stunden.
Festplatten (egal ob SSD oder rotierend) sind zumindest mir noch nicht 
vom herumliegen kaputtgegangen, bzw. Ausfälle haben sich bei mir immer 
angekündigt.

Bei Sticks sah und sieht das schon ganz anders aus.
Da sind mir schon selbst 4 GB Sticks "ohne Grund" einfach beim 
herumliegen kaputtgegangen...

Von den "billigen" Problemen, dass Sticks gerne mal nicht sofort erkannt 
werden und mehrmals gesteckt werden müssen (weis der Teufel, was das 
eigentliche Problem dahinter ist - simple Kontaktprobleme werden es 
nicht nur sein), brauche ich wohl erst gar nicht zu reden.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Dieterich schrieb:
> Was wollen die meisten den mit einem 5TB Stick anfangen können?

"640 kB ought to be enough for anybody."

IT-Regel: Wo ein Angebot ist, findet sich irgendwann auch ein Bedarf.

: Bearbeitet durch User
von Falk B. (falk)


Lesenswert?

(prx) A. K. schrieb:
> IT-Regel: Wo ein Angebot ist, findet sich irgendwann auch ein Bedarf.

Und mal sicher eine Verschwendung!

https://de.wikipedia.org/wiki/Wirthsches_Gesetz

R.I.P.

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Den meisten Speicher braucht Schweinekram. Das korreliert doch 
sicherlich mit den Traffikverhältnissen im Internet.

von Andreas B. (bitverdreher)


Lesenswert?

Dieter D. schrieb:
> Den meisten Speicher braucht Schweinekram.

Stimmt:
https://pigcasso.org/

von Icke ®. (49636b65)


Lesenswert?

Erinnert sich noch jemand an Opticom?

https://www.wissenschaft.de/allgemein/sandwich-gegen-speicherhunger/

171 Terabyte wollte die Firma auf polymerbasierten Speichern im Format 
einer Scheckkarte unterbringen. Und das 1997, als Festplatten um die 2GB 
üblich waren. Eine damals unvorstellbare Dimension, die auf einen Schlag 
alle herkömmlichen Speicher überflüssig gemacht hätte. Nicht nur im 
PC-Bereich, auch Magnetbänder und optische Scheiben wären abgelöst 
worden. Bis heute ist unklar, warum diese Speicher nie produktionsreif 
wurden. So ganz unrealistisch war die Technologie wohl nicht, denn es 
gab im Labor produzierte Prototypen (mit geringer Kapazität) und sogar 
Intel stieg mit ins Boot (und 2005 wieder aus).

https://www.computerwoche.de/article/2705429/plastikspeicherprojekt-vor-dem-aus.html

von (prx) A. K. (prx)


Lesenswert?

Icke ®. schrieb:
> warum diese Speicher nie produktionsreif wurden

Wurde von den Reptiloiden sabotiert. SCNR :)

: Bearbeitet durch User
von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Wer braucht schon über 100 Terabyte? Doof wenn alle Daten nur mit ner 
Scheckarte geklaut werden koennen.

von (prx) A. K. (prx)


Lesenswert?

Dieter D. schrieb:
> Wer braucht schon über 100 Terabyte?

Kommen bei HDDs schon allmählich in Sichtweite, mit 30 TB jetzt und 60 
TB am Horizont. Ist nur noch eine Frage der Zeit, bis der Laptop eine 20 
TB SSD enthält und das Billighandy eine 10 TB µSD. Die Highender gucken 
dann neidisch, weil ihr schweineteures 5 TB Smartphone keine µSD frisst.

: Bearbeitet durch User
von Jens G. (jensig)


Lesenswert?

(prx) A. K. schrieb:
> Icke ®. schrieb:
>> warum diese Speicher nie produktionsreif wurden
>
> Wurde von den Reptiloiden sabotiert. SCNR :)

Naja, wenn man da was von Polymer und Bio liest, dann wird das 
vielleicht der Grund gewesen sein, weil vielleicht nicht dauerhaft 
zuverlässig.

Dieter D. schrieb:
> Wer braucht schon über 100 Terabyte? Doof wenn alle Daten nur mit ner
> Scheckarte geklaut werden koennen.

Immer diese Ewiggestrigen ...

von Gerald B. (gerald_b)


Lesenswert?

🍅🍅 🍅. schrieb:
> So nur 2 1/2D mit übereinander geschachtelten, runtergeschliffenen Dies,
> wo jedes mal ein Wafer pro Lage fällig wird.

Infineon hat eine Technologie entwickelt, den prozessierten Wafer, wie 
Blätterteig zu spalten. Dazu wird der Wafer mit flüssigem Stickstoff 
gekühlt und mit Laserimpulsen schockerhitzt. (oder war es umgekehrt?) 
Jedenfalls können sie so die prozessierte Struktur absprengen und den 
nur unwesentlich dünneren Wafer erneut nutzen.
So sparst du dir das runterschleifen und kannst das Grundmaterial erneut 
nutzen.

von Icke ®. (49636b65)


Lesenswert?

(prx) A. K. schrieb:
> Icke ®. schrieb:
>> warum diese Speicher nie produktionsreif wurden
>
> Wurde von den Reptiloiden sabotiert. SCNR :)

Das ist eine Möglichkeit. Aber es gibt plausiblere. Zuerst natürlich, 
daß es bei der Überführung der Technologie vom Labor zur Produktion 
unerwartete Schwierigkeiten gab und das Projekt letztendlich aus 
Kostengründen eingestellt wurde. Vielleicht aber auch aus 
betriebswirtschaftlichen Überlegungen. Der Plastikspeicher sollte, wenn 
die Produktion erstmal angelaufen wäre, sehr billig herstellbar gewesen 
sein. Nun kann man etwas sehr billig hergestelltes nicht unverschämt 
teuer verkaufen, jedenfalls nicht auf Dauer, und Intel war zu dieser 
Zeit einer der größten Hersteller von Flashspeichern, die damals noch 
recht teuer verkauft wurden. Aus ökonomischer Sicht dürfte Intel also 
eher Interesse gehabt haben, seine Flashspeicher weiter teuer zu 
verkaufen als Opticoms Plastikkarten zum Schleuderpreis. Außerdem hätten 
ganze Datenträger herstellende Industriezweige, z.B. für Festplatten, 
CDROM/DVD und Magnetbänder (auch Video/Audio) einpacken können. Es 
besteht also durchaus die Möglichkeit, daß die Erfindung aus reinen 
Profitgründen abgewürgt wurde.
Jedenfalls finde ich keine konkreten Statements, weshalb die Entwicklung 
endete.

von Falk B. (falk)


Lesenswert?

Falk B. schrieb:
> "Jede Minute werden auf YouTube 400 Stunden Videomaterial hochgeladen.
>
> Jeden Tag werden über 1 Milliarde Stunden an YouTube Videos angesehen,
> mehr als auf Netflix und Facebook zusammen."
>
> Wenn wir mal von sehr sparsamen 100MB/h Video ausgehen, was mal sicher
> keine 4K Auflösung ermöglicht, sind das satte
>
> 40GB/h
> 960GB/Tag
> 29,7TB/Monat
> 357TB/Jahr

uuups, da fehlt der Faktor 60, denn es sind ja 400 Stunden Video/min! 
Und keiner hat nachgerechnet! Wenn wir mit 50 Euro/TB rechnen . . .

40GB/min          2  Euro/min
2,4TB/h         120  Euro/h
57,6TB/Tag     2835  Euro/Tag
1,78PB/Monat     89k Euro/Monat
21,4PB/Jahr    1,07M Euro/Jahr

Real eher das 5-10 fache, denn die 100MB/h Video sind sehr optimistisch 
und die Daten liegen garantiert 2-10fach gespiegelt in verschiedenen 
Rechenzentren. Aber was sind 10M Euro Speicherkosten bei zweistelligen 
Milliardenumsätzen?

von .● Des|ntegrator ●. (Firma: FULL PALATINSK) (desinfector) Benutzerseite


Lesenswert?

Wenn es zu jedem Video noch dutzende Kopien auf jedem "Sozialportal" 
gibt,
und dann die mit dem Unterschied, dass da einer seine Hackfresse nickend 
oder staunend in die Ecke reinkopiert, wird man wohl noch viel mehr 
Speicher benötigen. Gepaart mit der Unsitte dass gewisse Programme
von jedem Mist auch noch eine Kopie auf die Geräte saugen...

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.