Ein Haufen irrer Nerds hat auf der Cyber Grand Challenge der DARPA einen Wettbewerb ausgetragen, oder besser gesagt -austragen lassen-, bei dem sich von den Teams präparierte Systeme völlig autonom gegenseitig hackten und! auch völlig autonom Sicherheitslücken erkannten und! diese völlig autonom durch Erzeugen neuen Codes fixten: http://www.heise.de/security/meldung/Cyber-Grand-Challenge-Unsichere-Computer-heilten-sich-selbst-3288657.html Menschliches Eingreifen war dabei weder vorgesehen noch möglich. Sicher, die Rahmenbedingungen der Challenge waren eng gesteckt, aber wenn der Zug auf dieser Schiene weiterfährt, sind sich selbst programmierende Systeme bald kein SciFi mehr. Und wenn es soweit ist, wird der Mensch irgendwann nicht mehr nachvollziehen, respektive begreifen können, was der von ihm geschaffene Colossus ausheckt und ob er sich an die Asimovschen Regeln halten wird. Bis dahin rauschen noch etliche Yottabytes durchs Web, aber Skynet rückt ein wenig näher...
Schlimmer: Ein Skynet MIT Sicherheitslücken!
Johann L. schrieb: > Schlimmer: Ein Skynet MIT Sicherheitslücken! Wieso? Dann hätte John Connor wenigstens ein Chance, Skynet zu hacken.
Bekannte Sicherheitslücken automatisiert mittels Codeanalyse zu finden und das zu patchen ist ja wohl nicht wirklich Skynet. Das schwierige ist wohl die Codeanalyse und das Wissen darüber welche Programmversion welche Sicherheitsrisiken birgt und das mit einem aktuellen Patch zu fixen. Da waren wohl ein haufen Virenschreiber am Werk, die gegenseitig die anderen Computer zu hacken versuchten. Deshalb wurde das Projekt mit mehreren Millionen vom Militär gefördert.
Markus M. schrieb: > Das schwierige ist wohl die Codeanalyse und das Wissen darüber welche > Programmversion welche Sicherheitsrisiken birgt und das mit einem > aktuellen Patch zu fixen. Soweit ich das richtig interpretiere, haben die Systeme nicht einfach vorhandene Patches installiert, sondern sie haben die Patches selbst programmiert. Ob man das schon als KI einstufen kann, vermag ich nicht zu beurteilen, aber immerhin ist es durchaus ein gewisses, menschenunabhängiges Eigenleben. Von Skynet freilich noch so weit entfernt, wie Lilienthal von der Marslandung.
Hallo, ich finde es interessant, das es solche Wettbewerbe gibt. Allerdings hab ich gleichzeitig auch den Eindruck, das die Sicherheitslücken das Ergebnis schlechter Arbeit sind oder durch alten Quellcode entstehen, der für leistungsschwache Systeme mit minimalen Sicherheitsanforderungen geschrieben war und "einfach kopiert wurde" ohne die neuen Anforderungen zu prüfen (bitte korrigiert mich, wenn ich mich irre, ich stecke da nicht wirklich tief drin). Von daher sieht es in meiner Welt so aus, als müsste man den vorhandenen Code "einfach auf Regeln der guten Praxis" prüfen und dies bei Missachtung im Code nachbessern. Im Endeffekt der nächste Schritt der Syntaxprüfung, wenn auch sicher deutlich aufwengier zu implementieren. Das Hacken beruht nach meinem Verständnis im wesentlichen darauf die "Fehler durch nicht eingehaltene Praxisregeln" auszunutzen. Somit beläuft sich das automatische Hacken auf Standardangriffsmuster, die von der Maschine an den unterschiedlichsten Stellen ausprobiert werden. Bitte nicht falsch verstehen, das ist eine super Leistung (und großer Arbeitsaufwand) der Programmierer ein System für einen solchen Wettbewerb umzusetzten. Anschaulich gesprochen schauen die aber nur noch, ob neben der verschlossenen Haustüre ein Loch in der Wand gelassen wurde und beim schließen der Sicherheitslücken wird das Loch zugemauert, was eigentlich der Erbauer/Programmierer schon vor dem Veröffentlichen hätte machen sollen, wenn er anständig gearbeitet hätte (z.B. er hat nicht das nötige Können, der Chef lässt nicht genug Zeit, um die Arbeit fachgerecht auszuführen, oder oder oder). Ich persönlich sehe da die Skynetgefahr dann doch deutlich eher bei den Deep Learning Algorithmen. Gruß Kai
Kai S. schrieb: > Ich persönlich sehe da die Skynetgefahr dann doch deutlich eher bei den > Deep Learning Algorithmen Das halte ich für ausserst unwahrscheinlich. Deep Learning Algorithmen sind ziemlich einfache Programme, und die heute üblichen basieren alle auf dem selben Prinzip, nähmlich die Wahrscheinlichkeit eines Sinvollen resultats zu erhöhen. Eigentlich sind es Algorithmen zur Lösung von Optimierungsproblemen. Für eine echte KI braucht man noch weitere Komponenten, wie eine generische Datenbank, Fuzzylogic, und etwas um die KI Dinge erkennen und modifizieren lassen kann, sowie ein internes Realitätsmodell, etc. Bisher war noch niemand verrückt genug, das alles zu kombinieren, vermutlich weil es sich Finanziell nicht lohnt. Deshalb sind unsere "KI" nicht wirklich Intelligent. Edit:
1 | Shall I write Skynet? [Y/n] |
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.