Hi, wie jetzt im Rahmen von PRISM usw berichtet wurde, wird da in Utah ein neues Datenzentrum gebaut, welches angeblich 5 Zettabytes an Daten speichern/verarbeiten können soll. Womit werden solche gigantischen Speicherkapazitäten denn aufgebaut? Mit normalen HDDs? Haben die den Tesafilmspeicher schon zur Martkreife geführt? Bänder werden sie ja wohl eher nicht benutzen. Die Hardware soll irgendwas mit 2 Mrd. $ kosten. Weiss jemand wie sowas grob aufgebaut wird? Und sind ein Zettabyte nun wirklich so viel wie es sich anhört(Hardwaremässig gesehen) oder ist das heutzutage ein Klacks? Ich weiss nicht, welche Speicherkapazität zum Beispiel Google zur Verfügung hat und ob die schon lange mit ähnlichen Grössen jonglieren Wer weiss mehr?
Warte noch ein paar Jahre, dann passen die 8 Zettabytes auf einen USB Stick, dann kann endlich jeder sein Offline-Internet dabei haben. Außerdem ist das Speichern doch überhaupt kein Problem, das macht ohnehin schon jeder Provider. Somit brauchen die Behörden nur noch den Online-Zugang zu jedem User und schon hat man die Daten in Echtzeit verfügbar.
@ A. B. (funky) >wie jetzt im Rahmen von PRISM usw berichtet wurde, wird da in Utah ein >neues Datenzentrum gebaut, welches angeblich 5 Zettabytes an Daten >speichern/verarbeiten können soll. Hmm, eine heute noch recht unübliche Vorsilbe. https://de.wikipedia.org/wiki/Vors%C3%A4tze_f%C3%BCr_Ma%C3%9Feinheiten Zetta = 10^21 Ein Terabyte ist heute als einfache Festplatte für wenig Geld zu haben, dort sind 10^12 Bytes gespeichert. Zu 5*10^21 ist es der Faktor 5*10^9, also 5 Milliarden. Uuups. 5 Milliarde 1 TB Festplatten? Will man das wirklich? Nehmen wir an, so ein Ding wiegt 500g, so macht das schlappe 2.5 Milliarden kg oder 2,5 Millionen t an Festplatten. Das derzeit größte Containerschiff der Welt kann 15.000 Container a 14t laden, macht 210.000t. Man braucht also 10 dieser Schiffe voll Festplatten. http://wie-gross.com/das-groesste-containerschiff/ >Die Hardware soll irgendwas mit 2 Mrd. $ kosten. Gigantomanie liegt im Trend. Hmm, im Moment haben wir ~ 7 Milliarden Menschen auf der Erde = 7 *10^9. Mit 5 Zettabyte kann man pro Nase ~714 Gigabyte speichern. Mein Gott!
Falk Brunner schrieb: > Hmm, im Moment haben wir ~ 7 Milliarden Menschen auf der Erde = 7 *10^9. > Mit 5 Zettabyte kann man pro Nase ~714 Gigabyte speichern. Mein Gott! Ganz so schlimm ist es nicht. So ein Datenhaufen will ja auch verwaltet werden. Da braucht es einiges an Vorverdichtung der Daten um darin auch halbwegs suchen zu können, da kommt locker das 100 bis 200-fache der rohen Quelldaten zusammen.
Das Ganze ist eine Zeitungsente der Aufmachung wer hat den Laengsten. .. Nur schon die Idee eine exponentiell wachsende Menge an Daten abspeichern zu wollen ist vollkommen absurd. Aber eine gute story fuer die Ahnungslosen ist es trotzdem. Lassen wir die Leute doch mal Zittern... und tun so, als haetten wir die Kontrolle
Siebzehn oder Fuenfzehn schrieb: > exponentiell wachsende Menge an Daten abspeichern Im Prinzip hast Du nicht unrecht. Nur: Die Speicherkapazität wächst ebenfalls exponentiell. Irgendwo müssen die Daten ja auch her kommen. Sie sind also bereits gespeichert. Halt nur einmal. Trotzdem: Das Internet umfasst ja an sich bereits in der Gegend der diskutierten Daten. Und das soll jetzt auf einen Standort verdichtet werden? Da dürfte der Aufwand etwas höher sein. Nemer mal an, ein sauber installiertes TB kostet 100$. Dann kosten 5ZB 100$*5E21/1E12 = 100$*5E9 = 5E11$. Das sind 500 Milliarden Dollar. Oder: Sagnmermal, 1TB benötigt einen Liter Volumen. Es braucht also 5E9l = 5 Millionen Kubikmeter Volumen. Ein Würfel der Kantenlänge 171 Meter. Oder gut 2 mal das Pentagon. Oder: Bei einer MTBF von 1 Million Stunden gehen pro Stunde 5000 Festplatten kaputt. Da muss man auch gute Turnschuhe mit einkalkulieren. Und einen guten Lieferservice. Gut - die Festplatten laufen ja nicht durchgehend. Sonst würden sie ja 5W * 5E9, also 25GW Leistung verbraten... An sich ist der Mensch auch nicht in der Lage wirklich viel neue Information zu produzieren. Hier der Text da oben, 1kB, mehr nicht. Mehr als 10kB pro Tag wird im Schnitt kaum generiert, das Meiste ist mehrmals kopiert, nur leicht verändert und nochmal losgeschickt.
Eddy Current schrieb: > Mehr als 10kB pro Tag wird im Schnitt kaum generiert, das Meiste ist > mehrmals kopiert, nur leicht verändert und nochmal losgeschickt. Gute Zufallsgeneratoren schaffen ein Vieltausendfaches - damit kann man die Kerle locker zumüllen, wenn man sich zusammentut...
Geplant ist ein Energiebedarf von 65MW pro Jahr. bei 2,5" Bauform gibt es 2TB Platten und die wiegen ca. 180g. (08/15 Platte) Es braucht also nur noch ein Viertel der Schiffe ;) Bei 3,5" Platten gibt es 4TB die wiegen aber so um die 700-800g. Wären da also eine schlechtere Wahl. Ich habe jetzt gelesen, das Seagate ca. 2008 die 1 Milliardste Platte verkauft hat(in 29 Jahren Firmengeschichte) Irgendwann im Jahr 2012 wurde die 2 Milliardste Platte verkauft. Wenn die Zahlen stimmen, müssten die Produktionszahlen aber noch kräftig nach oben geschraubt werden. Der ein oder andere Endanwender möchte ja sicherlich auch noch eine Platte abstauben. Ein Festplattenhersteller allein könnte die Menge gar nicht alleine bewältigen. Und der geplante Energiebedarf passt irgendwie nicht so zu der Menge an Platten die notwendig wären. Aber evtl. hat das Millitär ja schon den next level Futurespeicher in petto. Oder die benutzen jetzt schon die 60TB Platten die Seagate vor kurzem angekündigt hat %-)
5 ZB sind doch keine bedeutende Menge, eher ein Pups im Wind =8P. Laut netzpolitik.org peilt die NSA langfristig eine Kapazität von einem Yottabyte an: https://netzpolitik.org/2013/prism-neue-geheimdienstrechenzentren-in-den-usa/ In Zahlen ausgedrückt: 1.000.000.000.000.000.000.000.000 Byte Wo die das hinspeichern wollen, ist mir auch ein Rätsel. Vielleicht bauen sie eine eigene hard disk factory. Ich sollte mich mit Festplatten eindecken, bevor die Schweinepriester den Markt leerkaufen und die Preise wieder in den Himmel schießen. Wie lange wohl ein Backup dieser Datenmenge dauert? Ein paar Jahre?
http://www.heise.de/ix/meldung/200-000-Festplatten-in-einem-120-Petabyte-Cluster-1332160.html Na immerhin schonmal 200000 Platten und 120 PByte in 2011. Zitat: "Für einen bisher unbekannten Kunden hat IBM einen Storage-Cluster entwickelt, der 120 Petabyte Daten fassen kann." Unbekannter Kunde... soso ;-) Aaaber ich glaube nicht das die für alles Festplatten verwenden. Ältere Daten werden da sicher auf Band archiviert - Festplatten sind doch viel zu anfällig. http://www.storage-insider.de/themenbereiche/rz-techniken/rz-hardware/articles/315140/ 2.7 Exabyte Bandlaufwerkssystem - auch 2011... mittlerweile gibts vermutlich bessere.
Warum eigentlich Festplatten? Sollen die Informationen wieder gelöscht oder überschrieben werden?
Johann L. schrieb: > Warum eigentlich Festplatten? > > Sollen die Informationen wieder gelöscht oder überschrieben werden? Darum tippe ich auch eher auf Magnetband... ;) Festplatten vermutlich eher nur für die aktuellsten Infos die gerade analysiert werden sollen...
Uhu Uhuhu schrieb: > Eddy Current schrieb: >> Mehr als 10kB pro Tag wird im Schnitt kaum generiert, das Meiste ist >> mehrmals kopiert, nur leicht verändert und nochmal losgeschickt. > > Gute Zufallsgeneratoren schaffen ein Vieltausendfaches - damit kann man > die Kerle locker zumüllen, wenn man sich zusammentut... Leider mit dem kollaterallen Effekt das Netz ebenso zumüllen zu müssen, was allein als Akt der Computerkriminalität bewertet werden dürfte. Aber ein paar Generatoren zur Rechenlasterzeugung laufen zu lassen und das über ein paar gut dislozierte VPN´s dürfte für einiges an Beschäftigungspotential sorgen. Man kann das Ganze ja mit fragwürdigen Adressdaten würzen, just vor fun. Und das ganze dann noch ein wenig pushen. Das gibt sicher ein nettes Performensexperiment. Auch kann man harmloses senden und den Schlüssel mit agressiven fractalen spicken. Zum Beispiel Inhalt:"Paket kommt am 10.10. um 12.00" mit einem Schlüssel verschlüsseln al la "How i get my 1. own Pu-Bomb" Wetten, dass jedes Filter hier alles schrillen lässt? Namaste
Icke ®. schrieb: > In Zahlen ausgedrückt: 1.000.000.000.000.000.000.000.000 Byte Dort steht nicht, daß das gespeichert werden soll, sondern es ist die Datenmenge, die in einem Jahr verarbeitet wird. So gerechnet liegt ein heutiger PC auch schon gut im PB-Bereich - die Zahlen sind also reine Aufschneiderei.
Flächenverbrauch der Stasi-Aktenschränke und für die 5 Zetabytes ebenfalls in Aktenschränken: http://apps.opendatacity.de/stasi-vs-nsa/
Thomas W. schrieb: > Flächenverbrauch der Stasi-Aktenschränke und für die 5 Zetabytes > ebenfalls in Aktenschränken: Wenn die Stasi damals schon die technischen Möglichkeiten gehabt hätte, dann hätte sie die auch genutzt.
Heiko Jakob schrieb: > Wenn die Stasi damals schon die technischen Möglichkeiten gehabt hätte, > dann hätte sie die auch genutzt. Vorausgesetzt, sie hätten das Geld gehabt... Je weiter die ganze Skandalgeschichte fortschreitet, um so kleiner werden die Gesinnungs-Unterschiede zwischen Stasi-West und Stasi-Ost. Ich finde, wir sollten endlich aufhören, auf die Leiche Stasi-Ost einzudreschen - das verstellt nur den Blick auf das, was wir heute haben.
>An sich ist der Mensch auch nicht in der Lage wirklich viel neue
Information zu produzieren. Hier der Text da oben, 1kB, mehr nicht.
Von gestern?
Als ich in 2007 fuer 10 Tage in die Ferien ging, es war wirklich
spannend, da hab ich 2000 oder so Aufnahmen gemacht. Das waren damals
4.5GByte. Wow.
Nun ging ich wieder mal 10 Tage an einen spannenden Ort. Neue Kamera.
Dies mal wurden's ueber 40GByte. Ja. eine tolle Strassenszene, HD
Videomode rein, einen Schwenk oder zwei - Schwupp, und wieder 500MByte
weg.
Ich denk in nochmals 6 Jahren mach ich 40GByte pro Tag.
Siebzehn oder Fuenfzehn schrieb: > Ich denk in nochmals 6 Jahren mach ich 40GByte pro Tag. Hoffentlich hast Du irgendwann genug Zeit, Dir das alles auch mal anzugucken. :)
Naja. Die 500MByte sind ein paar minuetiges Video oder so. Daher sind 40GByte auch nicht so viel. Ich hab so eine Auto Cam, die ist etwas sparsamer, die macht glaub ich 32GByte in ein paar Stunden. Jetzt lass ich die zyklisch ueberschreiben. Fuer eine tolle Reise per Auto muesste ich das aber nicht. Jetzt sollte man aber nicht denken, der Geheimdienst muss ja keine Videos aufzeichnen... Ich kann ja auch ein paar Geheimnisse als .AVI Datei abspeichern.
Man kann seine "wichtigen Geheimnisse" auch per Stenographie in Bildern also z.B. deinen 2000 Urlaubsbildern verstecken ohne das mans sehen kann... das zu finden und dann die ggf. nochmal verschlüsselten Daten zu entschlüsseln dürfte dann doch zuviel Rechenleistung kosten ;-)
Mac Gyver schrieb: > Man kann seine "wichtigen Geheimnisse" auch per Stenographie in Bildern > also z.B. deinen 2000 Urlaubsbildern verstecken ohne das mans sehen > kann... das zu finden und dann die ggf. nochmal verschlüsselten Daten zu > entschlüsseln dürfte dann doch zuviel Rechenleistung kosten ;-) Was bringt Dir Verschlüsselung und Steganographie wenn Vater Staat mit dem Bundestrojaner die Sachen vor dem Verschlüsseln/Verstecken abgreift ? Den Aufwand mit einem vom Netz getrennten Rechner alles zu Verschlüsseln und dann erst zu verschicken ist immens. Sicherheit ist halt immer relativ und relativ teuer obendrein.
Ja die Gefahr besteht sowieso... auch in Form von normalen Trojanern...
notfalls schicken die halt nen Agenten der Deinen Rechner physisch
verwanzt...
Aber das wird ja nicht Automatisiert für alle Rechner der Welt
gemacht.
Darum gehts ja bei der NSA Aktion.
> Den Aufwand mit einem vom Netz getrennten Rechner
Evtl. reicht schon ein unkonventionelles Betriebssystem von CD gebootet
;-)
Siebzehn oder Fuenfzehn schrieb: > Das Ganze ist eine Zeitungsente der Aufmachung wer hat den Laengsten. .. > Nur schon die Idee eine exponentiell wachsende Menge an Daten > abspeichern zu wollen ist vollkommen absurd. Überhaupt nicht. Fast sämtliche Leistunsparameter eines Computers wachsen exponentiell. Allerdings steht man ziemlich schnell bös im Regen, wenn die Kurve der Datenmenge nicht zur Kurve der Speicherkapazität passt. Sowieso habe ich allergrösste Zweifel, ob man mit den gesammelten Daten wirklich was anfangen kann. Automatisierte Verfahren, um selbständig komplexe Informationen aus Datenmengen herauszufiltern, bringen immer noch sehr bescheidene Resultate. Beispiel Google: Ist ja längst nicht mehr eine reine Suchmaschine, sondern soll zu jeder Fragestellung ein möglichst umfassendes Informationsangebot bieten. Klappt aber eigentlich nur rudimentär. Man ist weit, weit davon entfernt, dass die Suchmaschine selbständig z.B. eine Webseite findet, die eine eingegebene Frage gut beantwortet. Und die viel zitierte Schlüsselwortsuche der NSA ist IMHO sowieso ein totaler Witz. Überlegt nur mal, wie viele falsch-positive das pro Tag generiert... Oder wie einfach es für einen Terroristen wäre, Codewörter zu benutzen. Oder wie einfach es wäre, mit einem selbstgeschriebenen Progrämmchen Daten zu verschlüsseln, dass sie garantiert nicht mehr automatisch entschlüsselt werden können. Usw.
P. M. schrieb: > Und die viel zitierte Schlüsselwortsuche der NSA ist IMHO sowieso ein > totaler Witz. Überlegt nur mal, wie viele falsch-positive das pro Tag > generiert... Dagegen haben die Amis eine traditionelle Strategie: erst schießen, dann fragen. Damit sind die falsch-positiven weg...
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.