Es ist auffällig, dass die Speicherkapazität von SD-Karten und USB-Sticks in den letzten Jahren mehr oder weniger stagniert. Über 1TB scheint es nur in China zu geben, an der Realität dieser Angaben sind Zweifel aber berechtigt. Echte 1TB gab es aber schon um 2020. Nach dem Mooreschen Gesetz müsste sich die Kapazität doch ca. alle 1-2 Jahre verdoppeln. Ist das halbleitertechnische Ende der Fahnenstange schon erreicht, oder ist eher die Nachfrage nach größeren Speichermedien einfach zu gering? Wer will schon hundertausende Fotos oder mehrere Tage Videos auf einer Karte speichern?
Wenn es Tage oder Wochen braucht, um ein transportables Speichermedium voll zu schreiben, ist der Sinn halt begrenzt. Bei SSDs geht's ja weiterhin mit der Kapazität fröhlich nach oben. Oliver
Ohne die Preise zu nennen, ist deine Hypothese nix wert, denn bei dem Moorschen Gesetz geht es um Kostenoptimum. Weiterhin ist die Betrachtung einen USB-Sticks in diesen Zusammenhang Unsinn, wie du ja selbst merkst. Keiner brauch einen 5 TB große USB-Sticks. Prinzipiell ist die Anwendung von USB-Sticks stark zurückgegangen. Vor 10 bis 15 Jahren hatte sowas jeder. Heute muss man tief im Schreibtisch wühlen, um so ein olles Ding zu finden. Kleine Dateien werden "per Internet" einfach versendet. Große Dateien liegen auf Servern.
Fritz G. schrieb: > Nach dem Mooreschen Gesetz müsste sich die Kapazität doch ca. alle 1-2 > Jahre verdoppeln. Ist das halbleitertechnische Ende der Fahnenstange > schon erreicht? Jein, es hat sich deutlich verlangsamt. Die Taktrate ist auch im einstelligen Gigaherzbereich geblieben. Moore ist auch schon tot. Exponentielles Wachstum ist eben auf Dauer nicht durchzuhalten. Das wusste sicher auch Moore. Schade, dass er es seinen nicht-mitdenkenden Jüngern nicht gesagt hat. Jeder Schüler sollte das Rätsel mit dem Schachbrett auf dessen ersten Feld ein Reiskorn liegt, auf den nächsten die jeweils doppelte Anzahl, kennen. Wenn du heute einen PC kaufst bekommst du in der Billigschiene oft Geräte mit 10 Jahre altem Innenleben. Aber 1 Terabyte erforderte 2004 eine 3 1/2" Festplatte, 2014 eine SSD im PCMCIA Format und heute ein winziges M.2 Platinchen. Es gab damals den gigantischen Sprung auf 3GHz CPUs. Heute wartet man auf einen ähnlichen Sprung. FinFET hat zwar was gebracht, ist aber schwierig herzustellen. Kohlenstoff-Nanoröhrchen könnten das nächste Ding werden. Zwischenzeitlich hat man lieber OLED perfektioniert.
:
Bearbeitet durch User
Natürlich ist irgendwann Ende. Beim Takt von CPUs ist das schon so. Der Aufwand, die Taktfrequenz zu steigern, geht derart in die Wärmeleistung, dass die CPUs dabei 250W brauchen und Intel sich mit Gen13/14 ein böses Ei gelegt hat, das die Chips abbrennt. Deshalb geht man lieber ins Parallele, wenn möglich mit mehr schwächeren aber sparsameren Cores (Intel E-Core, AMD Zen5c). Was aber hinsichtlich Software nicht einfach ist. Die Grösse der Strukturen der Flash-Mems sind eine Sache, aber es gibt längst die 3. Dimension. Da sind mittlerweile hunderte Layer übereinander. Jeder weiss, Moore ist tot, oder weiss, das Moore bald sein Ende findet. Aber das schiebt sich dann doch immer wieder hinaus.
:
Bearbeitet durch User
Fritz G. schrieb: > Nach dem Mooreschen Gesetz müsste sich die Kapazität doch ca. alle 1-2 > Jahre verdoppeln. Das Moorsche Gesetz (oder korrekter Prognose) bezieht sich auf die Anzahl Transistoren (früher Komponenten) in integreierten Schaltkreisen. Allerdings lässt sich die Physik nicht einfach überlisten. Irgendwann ist ein Halbleiter kein Halbleiter mehr, wenn er nur noch aus einer Handvoll Atomen besteht. Und schon vorher spuckt einem die Quantenmechanik in die Suppe z.B. durch den Tunneleffekt. Die Top Hersteller (TSMC) sind meines Wissens derzeit bei 3nm Strukturen, 2nm sind absehbar und entwickeln aber auch schon 1,4nm und wohl auch 1nm Prozesse. Aber da spielen Tunneleffekte eine immer stärkere Rolle. Irgendwann ist Schluss. Ganz interessant ist die Einschätzung im Wikipedia Artikel inwieweit diese Prognose tatsächlich zutrifft/getroffen hat. https://de.wikipedia.org/wiki/Mooresches_Gesetz
(prx) A. K. schrieb: > Jeder weiss, Moore ist tot, Seit Maerz letzten Jahres uebrigens.
:
Bearbeitet durch User
Udo S. schrieb: > Irgendwann ist Schluss. Yep, das ist jedem in der Branche klar. War es schon früher. Die spannende Seite ist: wo? Wir sind heute sicherlich längst jenseits der Vorstellungen, die man früher vom Ende der Möglichkeiten hatte. Wie ich zum Flash oben schrieb: Es geht nicht nur um die Strukturgrösse der Chiptechnik. Einem tolerant interpretierten Moore ist auch Genüge getan, wenn man den Kram stapelt. Auch bei CPUs. AMD stapelt mittlerweile für Gamer und EPYCs zusätzlichen L3-Cache oben drauf. Auch Smartphone-SoCs sind längst in 3 Dimensionen gebaut. Da erwarte ich noch mehr. Ist bei Flash nur einfacher.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Da erwarte ich noch mehr. Das stimmt, interessant und entscheidend dürften hier innovative Ideen zur Kühlung werden.
Ein aktuell unternommenes Schrittchen, Moore's Law noch weiterzuführen, ist Backside Power Delivery / Power Via, so dass sich Sigale und Energieversorgung nicht gegenseitig behindern. Erlaubt also höhere Integrationsdichte, die momentan nicht (nur) durch die Dichte der aktiven Komponenten selbst begrenzt ist, sondern vor allem durch die Dichte der X Lagen + Anschlüsse darüber.
Hauptproblem dürft sein, dass Transistoren nur in schön Monokristallin gezogenem Silizium gehen, sonst könnte man relativ einfach 3D gehen. So nur 2 1/2D mit übereinander geschachtelten, runtergeschliffenen Dies, wo jedes mal ein Wafer pro Lage fällig wird. Richtig 3D bei irgendwas 50nm Feature-Grösse gäbte affig Speicher pro cm³.
Vielleicht gibt es bald organische Speichermedien, die die Daten als RNA ablegt.
Hat sich schon mal einer die Frage gestellt, was mit den geradezu astronomischen Speichermengen so angestellt wird? Wieviel sinnvolle Daten da wirklich drauf landen und wieviel Datenmüll? Und damit meine ich nicht nur im Netz mit Youtube & Co, auch im Privatbereich. Allein die Flut der Digitalbilder ist irre. https://www.brandwatch.com/de/blog/statistiken-youtube/ "Jede Minute werden auf YouTube 400 Stunden Videomaterial hochgeladen. Jeden Tag werden über 1 Milliarde Stunden an YouTube Videos angesehen, mehr als auf Netflix und Facebook zusammen." Wenn wir mal von sehr sparsamen 100MB/h Video ausgehen, was mal sicher keine 4K Auflösung ermöglicht, sind das satte 40GB/h 960GB/Tag 29,7TB/Monat 357TB/Jahr Vermutlich eher die 2-5fache Menge. Auch wenn es 1TB Festplatten heute für nen Appel & Ei zu kaufen gibt, um die 50 Euro. Hmm, nur 50 Euro Speicherkosten pro Tag für Youtube? Zu billig! Oder die Leute laden zu wenig Blödsinn hoch! ;-) Und die 1 Milliarde h Videos anschauen/Tag. Hmm, wieviel davon ist Blödsinn auf Katzenvideoniveau? Jaja, beim alten Normalofernsehen war es nicht viel besser, nur weniger individuell.
Hallo Mal von der praktischen Seite her gesehen: Was wollen die meisten den mit einem 5TB Stick anfangen können? Videosammler und Youtube sicherer ;-) nutzen für ihre Sammlung (ja da kommen 10 TB und mehr zusammen und je nach "Abos" und Downloads kommt da durchaus 1TB pro Jahr dazu - 4k wird langsam zum Standard von -zumindest technisch- besseren YT Videos und Kanälen) immer noch rotierende Festplatten, da diese in jenen Größenordnungen immer noch den besten kosten- nutzen Faktor und die höchste Zuverlässigkeit bieten. Profis aus der Forschung (z.B. Astronomie) nutzen für ihre Daten in Petabyte Bereich (deren Auswertung sich durchaus über Jahre hinzieht) nach eigenen Angaben auch Festplatten - warum wohl? Außerdem ist die Datenübertragungsrate bei jenen Festplatten erträglich - so mancher "lächerliche" 128GByte Stick benötigt im echten Leben zu vollständigen Beschreiben dutzende Minuten (den interessiert die Theorie nicht), bis zu einige, bei vielen "kleinen" Dateien, Stunden. Festplatten (egal ob SSD oder rotierend) sind zumindest mir noch nicht vom herumliegen kaputtgegangen, bzw. Ausfälle haben sich bei mir immer angekündigt. Bei Sticks sah und sieht das schon ganz anders aus. Da sind mir schon selbst 4 GB Sticks "ohne Grund" einfach beim herumliegen kaputtgegangen... Von den "billigen" Problemen, dass Sticks gerne mal nicht sofort erkannt werden und mehrmals gesteckt werden müssen (weis der Teufel, was das eigentliche Problem dahinter ist - simple Kontaktprobleme werden es nicht nur sein), brauche ich wohl erst gar nicht zu reden.
:
Bearbeitet durch User
Dieterich schrieb: > Was wollen die meisten den mit einem 5TB Stick anfangen können? "640 kB ought to be enough for anybody." IT-Regel: Wo ein Angebot ist, findet sich irgendwann auch ein Bedarf.
:
Bearbeitet durch User
(prx) A. K. schrieb: > IT-Regel: Wo ein Angebot ist, findet sich irgendwann auch ein Bedarf. Und mal sicher eine Verschwendung! https://de.wikipedia.org/wiki/Wirthsches_Gesetz R.I.P.
Den meisten Speicher braucht Schweinekram. Das korreliert doch sicherlich mit den Traffikverhältnissen im Internet.
Erinnert sich noch jemand an Opticom? https://www.wissenschaft.de/allgemein/sandwich-gegen-speicherhunger/ 171 Terabyte wollte die Firma auf polymerbasierten Speichern im Format einer Scheckkarte unterbringen. Und das 1997, als Festplatten um die 2GB üblich waren. Eine damals unvorstellbare Dimension, die auf einen Schlag alle herkömmlichen Speicher überflüssig gemacht hätte. Nicht nur im PC-Bereich, auch Magnetbänder und optische Scheiben wären abgelöst worden. Bis heute ist unklar, warum diese Speicher nie produktionsreif wurden. So ganz unrealistisch war die Technologie wohl nicht, denn es gab im Labor produzierte Prototypen (mit geringer Kapazität) und sogar Intel stieg mit ins Boot (und 2005 wieder aus). https://www.computerwoche.de/article/2705429/plastikspeicherprojekt-vor-dem-aus.html
Icke ®. schrieb: > warum diese Speicher nie produktionsreif wurden Wurde von den Reptiloiden sabotiert. SCNR :)
:
Bearbeitet durch User
Wer braucht schon über 100 Terabyte? Doof wenn alle Daten nur mit ner Scheckarte geklaut werden koennen.
Dieter D. schrieb: > Wer braucht schon über 100 Terabyte? Kommen bei HDDs schon allmählich in Sichtweite, mit 30 TB jetzt und 60 TB am Horizont. Ist nur noch eine Frage der Zeit, bis der Laptop eine 20 TB SSD enthält und das Billighandy eine 10 TB µSD. Die Highender gucken dann neidisch, weil ihr schweineteures 5 TB Smartphone keine µSD frisst.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Icke ®. schrieb: >> warum diese Speicher nie produktionsreif wurden > > Wurde von den Reptiloiden sabotiert. SCNR :) Naja, wenn man da was von Polymer und Bio liest, dann wird das vielleicht der Grund gewesen sein, weil vielleicht nicht dauerhaft zuverlässig. Dieter D. schrieb: > Wer braucht schon über 100 Terabyte? Doof wenn alle Daten nur mit ner > Scheckarte geklaut werden koennen. Immer diese Ewiggestrigen ...
🍅🍅 🍅. schrieb: > So nur 2 1/2D mit übereinander geschachtelten, runtergeschliffenen Dies, > wo jedes mal ein Wafer pro Lage fällig wird. Infineon hat eine Technologie entwickelt, den prozessierten Wafer, wie Blätterteig zu spalten. Dazu wird der Wafer mit flüssigem Stickstoff gekühlt und mit Laserimpulsen schockerhitzt. (oder war es umgekehrt?) Jedenfalls können sie so die prozessierte Struktur absprengen und den nur unwesentlich dünneren Wafer erneut nutzen. So sparst du dir das runterschleifen und kannst das Grundmaterial erneut nutzen.
(prx) A. K. schrieb: > Icke ®. schrieb: >> warum diese Speicher nie produktionsreif wurden > > Wurde von den Reptiloiden sabotiert. SCNR :) Das ist eine Möglichkeit. Aber es gibt plausiblere. Zuerst natürlich, daß es bei der Überführung der Technologie vom Labor zur Produktion unerwartete Schwierigkeiten gab und das Projekt letztendlich aus Kostengründen eingestellt wurde. Vielleicht aber auch aus betriebswirtschaftlichen Überlegungen. Der Plastikspeicher sollte, wenn die Produktion erstmal angelaufen wäre, sehr billig herstellbar gewesen sein. Nun kann man etwas sehr billig hergestelltes nicht unverschämt teuer verkaufen, jedenfalls nicht auf Dauer, und Intel war zu dieser Zeit einer der größten Hersteller von Flashspeichern, die damals noch recht teuer verkauft wurden. Aus ökonomischer Sicht dürfte Intel also eher Interesse gehabt haben, seine Flashspeicher weiter teuer zu verkaufen als Opticoms Plastikkarten zum Schleuderpreis. Außerdem hätten ganze Datenträger herstellende Industriezweige, z.B. für Festplatten, CDROM/DVD und Magnetbänder (auch Video/Audio) einpacken können. Es besteht also durchaus die Möglichkeit, daß die Erfindung aus reinen Profitgründen abgewürgt wurde. Jedenfalls finde ich keine konkreten Statements, weshalb die Entwicklung endete.
Falk B. schrieb: > "Jede Minute werden auf YouTube 400 Stunden Videomaterial hochgeladen. > > Jeden Tag werden über 1 Milliarde Stunden an YouTube Videos angesehen, > mehr als auf Netflix und Facebook zusammen." > > Wenn wir mal von sehr sparsamen 100MB/h Video ausgehen, was mal sicher > keine 4K Auflösung ermöglicht, sind das satte > > 40GB/h > 960GB/Tag > 29,7TB/Monat > 357TB/Jahr uuups, da fehlt der Faktor 60, denn es sind ja 400 Stunden Video/min! Und keiner hat nachgerechnet! Wenn wir mit 50 Euro/TB rechnen . . . 40GB/min 2 Euro/min 2,4TB/h 120 Euro/h 57,6TB/Tag 2835 Euro/Tag 1,78PB/Monat 89k Euro/Monat 21,4PB/Jahr 1,07M Euro/Jahr Real eher das 5-10 fache, denn die 100MB/h Video sind sehr optimistisch und die Daten liegen garantiert 2-10fach gespiegelt in verschiedenen Rechenzentren. Aber was sind 10M Euro Speicherkosten bei zweistelligen Milliardenumsätzen?
Wenn es zu jedem Video noch dutzende Kopien auf jedem "Sozialportal" gibt, und dann die mit dem Unterschied, dass da einer seine Hackfresse nickend oder staunend in die Ecke reinkopiert, wird man wohl noch viel mehr Speicher benötigen. Gepaart mit der Unsitte dass gewisse Programme von jedem Mist auch noch eine Kopie auf die Geräte saugen...
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.