Wieder mal sind wir die Menschen mit großer Überzeugung beim nächsten Evolutionsschritt, aber wir machen immer wieder den gleichen Fehler? Wir "erfinden" etwas und stellen erst nach der Katastrophe fest, dass es keine gute Idee war wie es gemacht wurde. Eigentlich sollte es doch lange allen klar sein, jede Kultur hat Ihr "Hoch". Jede Zeit Ihr "Ideal" - Die Kunst besteht also darin das Hoch zu erkennen und in dem Moment des Hochs langsamer zu machen - Nun bauen wir uns KI die den eh schon, für uns Menschen zu schnell laufenden Apparat, noch mehr beschleunigt... Warum gehen wir mit diesen großen Themen heute noch so unbedarft um? Klar ist es toll Brustkrebs früher zu erkennen, es ist gefährlich jedem die Möglichkeit zu geben realistische Fake Videos zu erstellen und in Umlauf zu bringen, es ist im ersten Moment vielleicht faszinierend sich vermeintlich neue Kindergeschichten schreiben zu lassen... Jede Sache hat Nach- und Vorteile. Ich würde doch meinen dass es besser wäre, wenn man im Moment der Entstehung, nicht nur die augenscheinlichen Vorteile einer solchen Sache sieht und zugleich genau diese Sache auch mit mehr Ehrfurcht behandelt, aber genau das machen wir wieder mal. Wir können nicht zurück, also ist es doch gerade hier wichtig an einem großen Scheidepunkt die Wahl der einzuschlagenden Richtung mit bedacht zu treffen und nicht einfach nur zu machen was geht... Ich habe nichts gegen KI oder Fortschritt, ich möchte hier nur anregen mal über das Thema in der Form nachzudenken. Ich habe mit Spannung die ersten Schritte der neuronalen Netze verfolgt, derzeit hat man noch Bücher und Zeitschriften gekauft. Ich bin der Meinung dass es einen Punkt gibt in dem der Mensch ideal funktioniert. Wenn man über diesen Punkt weit hinweg geht, haben wir ggf. noch unseren so geliebten Fortschritt aber der Mensch bleibt mehr und mehr dabei auf der Strecke...Wir sind dann u.U. nur noch Teil von etwas wesentlich größerem das vermutlich aber nicht mal mehr menschlich ist. Effektiv schaffen wir uns damit also selbst mit voller Überzeugung ab? Wie mag es Einstein gegangen sein, ihm muss klar gewesen sein wohin Fortschritt führt und dennoch hat er sich dazu entschieden dazu beizutragen... Die Intelligenz/Kreativität ist der Antrieb und zugleich auch das Problem in jedem unserer Entwicklungsprozesse. Die Intelligenten sind stolz darauf intelligent zu sein, aber was ist wenn es in der absoluten Gleichung des Lebens viel idealer wäre nicht zu intelligent zu sein. Mehr Fortschritt und Intelligenz bedeutet nicht automatisch als Mensch glücklicher zu sein, dabei sollte meiner Meinung nach genau das eines unserer höchsten Ziele sein...
:
Gesperrt durch Moderator
Ich habe deine Frage nicht verstanden...
Das was im Moment als KI verkauft wird, ist keine. Es ist "nur" eine neue Generation von Mustererkennung und Erzeugung, auch wenn die oft erstaunliche Ergebnisse liefert in Form von Bildern, Ton, Video. Daß man damit, wie mit fast jeder Sache, die Potenz hat, viel Unsin anstellen kann, ist leider wahr, war aber schon immer so. Feuer oder Atomkraft, beides sind sehr scharfe, zweischneidige Schwerter. Auch die "normale" IT und das Internet sind das! Überwachung, Datensammlung, 24/7 online verfügbar sein etc. Die Menschen müssen lernen, damit vernünftig umzugehen. Das dauert halt und man zahlt immer ordentlich Lehrgeld. War nie anders, wird nie anders sein.
Bis das Lehrgeld so hoch ist, dass wir es nicht mehr bezahlen können! Markus PS.: Gestern war wieder am 3Sat scobel zu sehen. Hat jetzt nicht mit KI und IT zu tun, war aber trotzdem interessant, was uns so erwartet - Siehe Madiathek.
:
Bearbeitet durch User
Falk B. schrieb: > Das was im Moment als KI verkauft wird, ist keine. Die gute alte No-True-Scotsman-Fallacy...
Wolfgang R. schrieb: > Ich habe deine Frage nicht verstanden... Der TO hatte gestern Abend einen kleinen Depri. Hat jeder mal.
Falk B. schrieb: > Das was im Moment als KI verkauft wird, ist keine. Die "Fuzzy logic", die vor einigen Jahren in aller Munde war, ist ja auch nichts anderes als die digitale Umsetzung einer PID-Regelung.
Daniel S. schrieb: > Wir ... stellen erst nach der Katastrophe fest, dass es > keine gute Idee war wie es gemacht wurde. Noch haben wir keine Katastrophe. Risiken sind bekannt und werden berücksichtigt.
Monk schrieb: > Noch haben wir keine Katastrophe. Risiken sind bekannt und werden > berücksichtigt. Optimismus heute. In den USA wird zum Ende des Jahres gewählt. In denen in Ermangelung passenderer Begriffe als "Wahlkampf" zu bezeichnenden Aktionen wird auf beeindruckend aggressive Weise jede Möglichkeit des Lügens und Betrügens ausgenutzt, hier wird insbesondere die sogenannte "KI" zur Generierung von Falschaussagen eingesetzt ("Swifties for Trump" sind ein noch harmloses Beispiel). Da in den USA viele Personen das Wahlrecht ausüben, die man auch bei gutem Wetter nur als "Simpletons" bezeichnen kann, ist die Auswirkung derartiger Lügen fatal. Und dann gibt es da noch die andere Großmacht, die schon seit Jahrzehnten das Prinzip der psychologischen Kriegsführung perfektioniert, und extremistische Randgruppen beim Gegner mit dem Auftrag der Spaltung und Zersetzung finanziell unterstützt. Auch das geschieht sehr erfolgreich, was man an den Wahlprognosen für die Landtagswahlen in Thüringen und Sachsen deutlich erkennen kann. Und auch an den dazu passenden Beiträgen mancher "Mitforisten" hier, die offenbar auf entsprechende Propagandalügen hereinfallen. Die Kombination "social media" und "KI"-generierte Lügen ist jedenfalls hochbrisant.
:
Bearbeitet durch User
Daniel S. schrieb: > über das Thema in der Form nachzudenken Zuerst sollten wir mal über das Wort "Intelligenz" nachdenken. "Intelligent" sind solche Systeme nicht.
Bei Chemikalien werden in Europa ja dank REACH Risiken vor Inverkehrbringung untersucht. Aber Technikfolgenabschätzung ist viel schwieriger, und die Ergebnisse gerade was soziale Folgen angeht angreifbar. Insofern sind wir, was Technik angeht, alle Teil der Feldversuche ... LG, Sebastian
Was die heutigen "KI-Systeme" können, konnte man, zumindest theoretisch, mit einem PC schon vor 30 Jahren, nur nicht mit der Geschwindigkeit der heutigen Rechenzentren.
Harald K. schrieb: > Da in den USA viele Personen das Wahlrecht ausüben, die man auch bei > gutem Wetter nur als "Simpletons" bezeichnen kann, ist die Auswirkung > derartiger Lügen fatal. Und das ist hier anders? Dummheit als erstrebenswertes Ideal herauszustellen, darauf stolz zu sein, ist hier auch schwer im kommen. René H. schrieb: > Zuerst sollten wir mal über das Wort "Intelligenz" nachdenken. Viel Vergnügen. Daniel S. schrieb: > Wieder mal sind wir die Menschen mit großer Überzeugung beim nächsten > Evolutionsschritt, aber wir machen immer wieder den gleichen Fehler? Wir > "erfinden" etwas und stellen erst nach der Katastrophe fest, dass es > keine gute Idee war wie es gemacht wurde. These - Antithese - Synthese. Die gute alte Hegel'sche Dialektik. Man denkt sich etwas Neues aus, übertreibt es damit, lernt die negativen Seiten kennen, und entwickelt daraus einen Kompromiss, der die Gesellschaft weiter bringt.
:
Bearbeitet durch User
> Zuerst sollten wir mal über das Wort "Intelligenz" nachdenken.
Und insbesonders, weil es im Ursprung "intelligence", genauer
"Artificial Intelligence" heißt.
Dieses Stichwort aus dem Englischen plump mit "Künstlicher Intelligenz"
zu übersetzen ist genauso falsch wie eine Platine in Umgebungstemperatur
als "elektrisch verschaltetes Gebilde aus vielen kalten Lötstellen" zu
beschreiben, obwohl die Mehrfachbedeutung von "kalt" dies zuläßt. ;-)
Maschinelles Lernen passt hier IMHO sinngemäß besser, weil "Lernen" eben
nicht zwangsläufig "Verstehen" meint:
Manche lernen Computersprachen wie 'C' schlicht auswendig und Andere
verstehen die Logik hinter den Beispielen.
:
Bearbeitet durch User
Vielleicht würde "DAISY" im Deutschen besser passen? (DAISY = Digitales Antwort- und Informationssystem)
:
Bearbeitet durch User
René H. schrieb: > Vielleicht würde "DAISY" im Deutschen besser passen? (DAISY = Digitales > Antwort- und Informationssystem) Wenn man "Antwort" lediglich als Replik auffasst und "Information" nicht unbedingt informativ sein muß, ja - dann passt das auf das hinter der heutigen Phrase von "Künstlicher Intelligenz" ;-) Das erinnert leicht an den "Hitchhiker to the Galaxy und die Antwort auf die "Ultimative Frage": "Fourty-Two !" ... "You have to know what the question actually is in order to know what the answer means". https://youtu.be/5ZLtcTZP2js?t=105
:
Bearbeitet durch User
René H. schrieb: > Vielleicht würde "DAISY" im Deutschen besser passen? (DAISY = Digitales > Antwort- und Informationssystem) Gebe ich Dir Recht, es passt nicht nur besser, sondern führt nicht zu falschen Assoziationen bzw. gar zu überhöhten Erwartungen. Aber es ist ausgeschrieben eben sperriger und bezüglich Marketing weniger interessant als die sagenhafte "Künstliche Intelligenz".
Im Endeffekt geht es primär um den Shareholder Value. Siehe Aleph Alpha... Und KI ist weder Intelligent noch Intelligence. Es ist Wahrscheinlichkeitsrechnung, angewandt auf Texte oder Bilder. Daher werden die Texte immer dümmer (weil einfache Worte wahrscheinlicher sind als komplizierte) und die Bilder zeigen Leute mit 7 Fingern (weil Hände nun mal mit hoher Wahrscheinlichkeit Finger gerade oder Finger gekrümmt haben, also bekommen KI-Hände jeden Finger gerade und gekrümmt gleichzeitig). Das man mit den Halluzinationen einer KI keine neue anlernen sollte, hat man auch schon lange raus, die fangen dann nämlich nach wenigen Generationen das sabbern an. Das ist im Moment ein Bullshit-Bingo-Hauptpreis, an dem man als Anlagenverkäufer Milliarden verdienen kann, wenn die Blase platzt ist das Geld in anderer Leute Taschen gewandert und fertig. Die Menschheit an sich hat da nix von. Ähnlich lief es mit "Blockchain" ab, vor wenigen Jahren musste das überall rein, mittlerweile weiß auch Oma Meier das die zu nix nutze ist, außer Rechenzeit und Strom zu verblasen mit teuren zu nix anderem nutzbaren Spezialgeräten. Wird auch bei KI so kommen. Diese ganzen KI-Spezialprozessoren werden irgendwann wieder aussterben weil man vor lauter Instafiltern und Fakemonden eh keinem Bild & Video mehr glauben kann, also braucht man auch kein Bild & Video mehr zu KI-n.
Bradward B. schrieb: > Dieses Stichwort aus dem Englischen plump mit "Künstlicher Intelligenz" > zu übersetzen Das ist ganz einfach der Oberbegriff der IT zu diesem Thema. Irgendwie muss man das Kindchen ja nennen. Viel hängt allerdings an der Definition von Intelligenz. Seit dem Turing-Test ist da zwar viel drüber geredet wurden, aber von einer darüber hinaus gehenden gut messbaren Definition ist mir nichts bekannt. Weshalb man dem Thema eine gewisse künstlerische Freiheit zubilligen darf. Obacht auch, nicht in die Deutsche Neigung zu endlosen Diskussionen über präzise Fassung von Begriffen zu verfallen, wenn die nun einmal amerikanisch geprägte IT Begriffe sprachtypisch etwas locker sieht. Und auch eine Interpretation als automatisierte Auswertung von Überwachungstechnik nicht nur von der englischen Mehrdeutigkeit von "intelligence" her nicht weit weg ist.
Daniel S. schrieb: > Wir > "erfinden" etwas und stellen erst nach der Katastrophe fest, dass es > keine gute Idee war wie es gemacht wurde. Yep. Zivilisation, z.B. Ackerbau. Medizin. Abtreibungsverbot. Hat alles dazu geführt das wir nun 8 Milliarden Konsumenten sind, die nach Jahrtausenden der stürmischen Entwicklung an der Spitze ihrer Zeit stehen und die Welt anhalten wollen, weil es genau hier aber nun wirklich reicht. 50J zurück auf keinen Fall. 50J vor auch auf keinen Fall. Hier soll es bleiben, mit herausgepickten Verbesserungen, bei denen man ja aber auch wieder nicht wissen kann wie sie wirken. Internet z.B. Hätte ja dazu führen können das wir alle kleine Einsteins werden, jetzt wo und das wissen der Welt zu Füssen liegt. Leider sind wir dann doch degenerierte Vollpfosten geworden die all ihre Peinlichkeit in TikTik Videos für die Nachwelt festhalten. Da es ja nun nachhaltig nicht geklappt hat den Menschen klug und gut zu machen, ist es vielleicht an der Zeit etwas zu bauen das klug und gut sein kann, weil es eben nicht aus Millionen Jahren des Fressen oder gefressen werden hervorgegangen ist, bei dem sich immer das rücksichtsloseste und bösartigste Vieh durchgesetzt hat.
Jens M. schrieb: > die fangen dann nämlich nach wenigen Generationen das sabbern an. Menche Kritiker der Zivilisation heutiger Prägung sehen das beim Einfluss des Internets auf den Menschen allerdings ähnlich. Insofern könnte man sich fragen, ob das sozusagen der Turing Test auf rückwärts ist. Und dann die Frage aufkommt, ob die Menschen die Automaten auf dem Weg nach unten einholen werden? :)
:
Bearbeitet durch User
Michael schrieb: > und die Welt anhalten wollen, weil es genau hier aber nun > wirklich reicht Klassischer Alterseffekt mindestens seit der Jungsteinzeit. Allerdings hatten die Menschen vor der Neuzeit den Vorteil, dass die meisten Entwicklungen eher zwischen etlichen Generationen als innerhalb einer Generation erfolgten und Opa noch nicht völlig von gestern war.
(prx) A. K. schrieb: > ob die Menschen die Automaten auf dem > Weg nach unten einholen werden? :) Hängt vom Maßstab ab. Wenn man die klügsten Maschinen mit dem dümmsten Menschen vergleicht, haben sie das längst.
Michael schrieb: > bei dem sich immer das > rücksichtsloseste und bösartigste Vieh durchgesetzt hat Keineswegs. Soziale Systeme umfassen seit jeher ein Sammelsurium verschiedener Strategien. Auch, aber nicht nur, beim Menschen. Es ist also, wie üblich, komplizierter, als auf den ersten Blick erkennbar.
:
Bearbeitet durch User
René H. schrieb: > Vielleicht würde "DAISY" im Deutschen besser passen? (DAISY = Digitales > Antwort- und Informationssystem) So wird in Berlin die Fahrgastverarschungsanzeige genannt, die angibt, wann angeblich die nächste U-Bahn kommt.
Michael schrieb: > Leider sind wir dann doch degenerierte Vollpfosten geworden CHN, RUS und Iran werden dafuer sorgen, dass die generierten Vollpfosten bald weg sind. Verlasst Euch drauf. Alles wird gut! Wahrlich, alles wird gut werden. Wartet ab. Wartet alle einfach nur ab. Die Restarbeiten macht dann die KI. Leute, Ihr werdet alle fuer Eure wohltaten ins Paradies kommen. Dort warten schon Milljarden von Jungfrauen auf Euch, fuer die Frauen warten dort natürlich Milljarden an Märchenprinzen. Halt, da reicht vielleicht nur ein paar hundert aus, wenn diese waehlen dürfen und das wie im Kaufhaus organisiert: https://www.55plus-magazin.net/php/witz_im_kaufhaus,17074,15282.html
Harald K. schrieb: > René H. schrieb: >> Vielleicht würde "DAISY" im Deutschen besser passen? (DAISY = Digitales >> Antwort- und Informationssystem) > > So wird in Berlin die Fahrgastverarschungsanzeige genannt, die angibt, > wann angeblich die nächste U-Bahn kommt. Heißt es dort wirklich "Digitales Antwort...", oder "Digitales Auskunfts..."?
Dieter D. schrieb: > CHN, RUS und Iran werden dafuer sorgen, dass die generierten Vollpfosten > bald weg sind. ... zusammen mit all den anderen Pfosten, ob frisch, voll oder degeneriert. Allerdings ist es mit der Autoreproduktion der KI noch nicht weit genug gediehen, um ein Utopia rein aus Automaten zu ermöglichen. Hat aber noch nichts mit KI zu tun. Auch wenn die Idee, ein Verteidigungssystem auf der Grundlage von KI aufzubauen, sicherlich schon aufkam.
:
Bearbeitet durch User
René H. schrieb: > Heißt es dort wirklich "Digitales Antwort...", oder "Digitales > Auskunfts..."? Wobei im Zeitalter von Smartphones solche Digitalen Fehlanzeigen ohnehin redundant sind. Ob die wohl besser würden, wenn man sie mit KI aufpeppt?
:
Bearbeitet durch User
(prx) A. K. schrieb: > Ob die wohl besser würden, wenn man sie mit KI aufpeppt? Das verspricht man sich bei uns bei der Bahn. Mir gefällt der Begriff "KI" zwar nicht, aber mich fragt keiner. ;)
René H. schrieb: > Mir gefällt der Begriff "KI" zwar nicht, aber mich fragt keiner. ;) Dann nimm halt BI, Bahnintelligenz, kommt direkt nach AI. Analytisch kommt man dem Chaos ohnehin nicht bei, aber lernende Systeme der KI Prinzips sind möglicherweise in der Lage, das Muster zu erkennen.
:
Bearbeitet durch User
René H. schrieb: > Heißt es dort wirklich "Digitales Antwort...", oder "Digitales > Auskunfts..."? Es heißt "DAISY", wofür auch immer das Akronym im einzelnen stehen soll. (prx) A. K. schrieb: > Wobei im Zeitalter von Smartphones solche Digitalen Fehlanzeigen ohnehin > redundant sind. Ein einfacher Zettel, auf dem steht "jetzt nicht, irgendwann später" ist genauso effektiv.
Harald K. schrieb: > Ein einfacher Zettel, auf dem steht "jetzt nicht, irgendwann später" ist > genauso effektiv. Ganz so schlecht sind sie hier dann doch nicht. 2 Minuten vor Busankunft sind sie sogar ziemlich genau.
:
Bearbeitet durch User
(prx) A. K. schrieb: > aber lernende Systeme der KI > Prinzips sind möglicherweise in der Lage, das Muster zu erkennen. Bei der Bahn? Ein Muster erkennen? Der ist gut. Ich vermute, das die Stopps (bzw. die Differenz zu existierenden Fahrplänen) einen der best-möglichen Zufallsgeneratoren (in Kryptografie Qualität) darstellen!
Harald K. schrieb: > Es heißt "DAISY", wofür auch immer das Akronym im einzelnen stehen soll. Dully Analog Intelligence Says Yes
Norbert schrieb: > Bei der Bahn? Ein Muster erkennen? Der ist gut. Naja, dass es unsereins nicht schafft, war nicht die Frage. Aber das ist doch gerade die Fähigkeit aktueller KI-Systeme, in einem riesigen Wust an Bestandsdaten Muster zu erkennen. Und kann das besser als wir Menschlein.
:
Bearbeitet durch User
Daniel S. schrieb: > Effektiv schaffen wir uns damit also selbst mit voller Überzeugung ab? KI kann KI erschaffen: - https://de.quora.com/Kann-eine-k%C3%BCnstliche-Intelligenz-eine-andere-k%C3%BCnstliche-Intelligenz-erschaffen Aber die eigentliche Frage ist doch die: - Kann eine KI eine intelligentere KI erschaffen? Oder verallgemeinert: kann eine Intelligenz eine höhere Intelligenz erschaffen? Die gängige Meinung dazu lautet "Nein, das geht nicht!" Aber falls die Antwort darauf tatsächlich "Ja" lautet, dann stellt sich die Frage: wie erkennen wir dann, dass der Automat letztlich intelligenter ist als wir selber? Denn das Problem ist: weniger intelligente ("dumme") Menschen sehen nicht, dass intelligentere ("schlaue") Menschen intelligenter sind, sondern sie sehen aus ihrer Sicht, dass die irgendwie arrogant sind und überheblich. > Jede Sache hat Nach- und Vorteile. Ich kann beim besten Willen nicht verstehen, dass damals(tm) alle aus den stabilen Steinhöhlen ausgezogen sind und sich jeder eine eigene wackelige Höhle aus Lehm gebacken hat. > Wie mag es Einstein gegangen sein, ihm muss klar gewesen sein wohin > Fortschritt führt und dennoch hat er sich dazu entschieden dazu > beizutragen... Die "Höhle" war ihm zu ungemütlich.
Lothar M. schrieb: > Oder verallgemeinert: kann eine Intelligenz eine höhere Intelligenz > erschaffen? Achtung, jetzt wirds theologisch. Braucht man einen Gott, der intelligenter ist als seine Schöpfung, um in seiner unerforschlichen Weisheit ausgerechnet den Menschen zu erschaffen? Darf es auch ein strunzdummer Gott sein (klingt deutlich realistischer, wenns denn schon sein muss)? Oder reichen ein paar anfängliche Amino- und Nukleinsäuren, um dies per Evolution zu erreichen?
:
Bearbeitet durch User
Jens M. schrieb: > Ähnlich lief es mit "Blockchain" ab, vor wenigen Jahren musste das > überall rein, mittlerweile weiß auch Oma Meier das die zu nix nutze ist, Na ja, Blockchain ist nützlich wenn man keine vertrauenswürdige Zentralinstanz hat. Insofern war es natürlich immer zum Schmunzeln, wenn von staatlicher Seite Blockchain propagiert wurde ... :) LG, Sebastian
Lothar M. schrieb: > Denn das Problem ist: weniger intelligente ("dumme") Menschen sehen > nicht, dass intelligentere ("schlaue") Menschen intelligenter sind, > sondern sie sehen aus ihrer Sicht, dass die irgendwie arrogant sind und > überheblich. Verallgemeinerungen sind bekanntlich immer falsch. :) So auch diese. Es ist auch davon abhängig, in welchen Blasen man sich bewegt. Deine These kann als Selbstbestätigung einer "low end" Blase funktionieren. Im direkten zwischenmenschlichen Kontakt, bei dem die reflexhafte Ablehnung Anderer fehlt, kann das völlig anders aussehen. Also: Doch, das können sie an sich schon. Klappt natürlich besser, wenn man als intelligenterer Part versucht, nicht arrogant rüber zu kommen.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Achtung, jetzt wirds theologisch. Nein, wir diskutieren hier über "Intelligenz". Und da muss man doch schon mal fragen, was "Intelligenz" denn überhaupt ist: ist ein Mensch, der im Kopf Quadratwurzeln oder gar Kubikwurzeln blitzschnell bis auf 6 Nachkommastellen ausrechnen kann, deshalb irgendwie "intelligenter" als andere Menschen? Und ist ein Taschenrechner, der das auch kann, nicht gleichermaßen "intelligent"?
:
Bearbeitet durch Moderator
Lothar M. schrieb: >> Achtung, jetzt wirds theologisch. > Nein, wir diskutieren hier über "Intelligenz". Das war meinerseits eher ontologisch gedacht. :) Ausserdem sehe ich da keinen Widerspruch.
:
Bearbeitet durch User
Lothar M. schrieb: > Und ist ein > Taschenrechner, der das auch kann, nicht gleichermaßen "intelligent"? Womit du bei Savants angekommen bist. Bei menschlichen "Taschenrechnern" als Inselbegabung. Es gibt allerdings Gründe, weshalb Intelligenztests verschiedene Kategorien an Fragen haben und Savants in diesem Sinn nicht als intelligent gelten (IQ meist unter 70). > was "Intelligenz" denn überhaupt ist: Ja klar. Das hatte René schon früh eingeworfen. Und dürfte sehr schwer zu beantworten sein. Alan Turing verlegte sich bequemerweise auf das "as if" Prinzip. Im Deutschen auch als Ententest bekannt.
:
Bearbeitet durch User
Einfach mal von der Definition à la Wikipedia ausgehen? >> Intelligenz (von lateinisch intellegere „erkennen“, „einsehen“; „verstehen“; wörtlich „wählen zwischen …“ von lateinisch inter „zwischen“ und legere „lesen, wählen“) ist die kognitive bzw. geistige Leistungsfähigkeit bei Menschen und zum Teil auch Tieren speziell im Problemlösen. << https://de.wikipedia.org/wiki/Intelligenz#:~:text=Intelligenz%20(von%20lateinisch%20intellegere%20%E2%80%9Eerkennen,auch%20Tieren%20speziell%20im%20Probleml%C3%B6sen. Viel Stoff, viel Spaß!
Lothar M. schrieb: > Oder verallgemeinert: kann eine Intelligenz eine höhere Intelligenz > erschaffen? Biologisch geht das sehr wohl. Eltern können intelligentere Kinder bekommen. Wäre es anders, würde die Welt sich noch viel schneller zu einem Haufen grunzender Primaten reduzieren, als sie es trotz aller Anstrengungen "sozialer" Netzwerke eh' schon macht.
Rainer Z. schrieb: > st die kognitive bzw. geistige Leistungsfähigkeit bei > Menschen und zum Teil auch Tieren speziell Nein, diese Leistung ist von der Bauweise völlig losgelöst zu betrachten. Wir haben das bisher nur bei biologischen Bauformen betrachten können die allesamt extrem eng mit uns verwandt sind. Würden wir heute Besuch von einer überlegenen außerirdischen Spezies bekommen, würden wir nicht anzweifeln das die intelligent ist. Abwohl nicht mit uns verwand, vielleicht sogar nicht mal auf Kohlenwasserstoff basierend. Wir würden allein aus deren Taten ableiten das dazu Intelligenz erforderlich ist. Bei Computer machen viele da einen Unterschied. Das seien nur Muster, nur Mechanik, mit Verstehen hätte das nichts zu tun. Aber sind wir den anderes als Muster und Mechanik? Computer lösen längst Probleme für uns die wir nicht mehr lösen können. Sie finden Muster die wir nicht erkennen können, schlagen uns in fast allen Disziplinen. Es fehlt nur noch so wenig und was das ist, wissen wir nicht, weil wir nicht wissen wie wir funktionieren. Aber das wir gaaaanz besonders sind und nur Fleisch intelligent sein kann, ist einigen absolut klar. Dabei ist gerade dieser feste Glauben der Bewweis das es mit der Intelligenzfähigkeit unserer Sepzies nicht sehr weit her ist. Wir waren bisher das beste was aus Protoplasma und Dreck in ein paar Milliarden Jahren entstanden ist. Wir sind glücklicherweise nicht das Ende der Intelligenzentwicklung. Nur die Schwelle von der blinden Evolution zur gesteuerten Evolution. KI macht unsere Welt einfach nur noch schneller und macht uns in vielen Bereichen überflüssig, die wir als menschliche Domäne gesehen haben. Zur universellen Intelligenz ist es noch ein großer Schritt, aber das wir den tun ist unvermeidlich und nur eine Frage der Zeit.
Michael schrieb: > Wir sind glücklicherweise nicht das Ende der Intelligenzentwicklung. Zumindest hoffentlich.
Daniel S. schrieb: > Die Intelligenz/Kreativität ist der Antrieb und zugleich auch das > Problem in jedem unserer Entwicklungsprozesse. Ich dachte da eher an die Geldgier und die Kapitalakkumulation. Kreativität ist auch Ausdruck von Gesundheit und Lebenslust. Das ist einfach so, und war schon immer so. Dass der Mensch sich als solcher durchgesetzt hat, hatte eben auch damit zu tun. Nun brauchen Menschen aber auch Anhaltspunkte, Orientierung, Pläne usw. so kann man verstehen, warum sich C durchgesetzt hatte und nicht Lisp. Gegen den Schachcompi nicht mehr gewinnen, ist zwar nicht so toll, aber wenn die auch Kernfusionen, oder Flüge durch das All oder ähnliches managen können, warum nicht? Letztlich sind KI-Programme Ausdruck menschlicher Eigenschaften und wer jetzt Verlierer oder Gewinner in diesem Zusammenhang ist, kann man nicht so einfach beantworten - und generalisieren eigentlich auch nicht und in diesem Zusammenhang einen Sündenbock beschwören erst recht nicht.
Der andere Wahnsinn endet 23.8. Und was ist mit diesem?
Harald K. schrieb: > Lothar M. schrieb: >> Oder verallgemeinert: kann eine Intelligenz eine höhere Intelligenz >> erschaffen? > > Biologisch geht das sehr wohl. Eltern können intelligentere Kinder > bekommen. Wie lange noch? https://www.n-tv.de/wissen/Warum-unsere-Gehirne-schrumpfen-article21135762.html Übrigens werden die Hirne auch bei zunehmender Erwärmung kleiner. Eine weitere folgenschwere Entwicklung im Zuge des Klimawandels.
Noch was: "man verliert ab dem 20. Lebensjahr etwa 50.000[2] bis 100.000[3] Hirnzellen täglich." https://de.wikipedia.org/wiki/Hirnatrophie#:~:text=Als%20Hirnatrophie%20(lat.,50.000%20bis%20100.000%20Hirnzellen%20t%C3%A4glich. Schön' Freidach noch!
> Noch was: "man verliert ab dem 20. Lebensjahr etwa 50.000[2] bis > 100.000[3] Hirnzellen täglich." Die wichtigen Dinge lernt man sowieso erst mit "reiferen" Jahren, da ist es um das "Wissen" eines Zwanzigjährigen (Ammenmärchen, Schulgedöhns, Pop-Songs, Inhalt von TV-Serien, Games-Cheats, Regeln vor der Duden-Reformation, ...) nicht wirklich schade. ;-)
:
Bearbeitet durch User
Bradward B. schrieb: > Ammenmärchen, Schulgedöhns, > Pop-Songs, Inhalt von TV-Serien, Games-Cheats, Regeln vor der > Duden-Reformation, ... Schön wie du deine Klisches runterbetest. Zeigt doch die jüngere Vergangenheit dass auch und vor allem reifere Semester nicht vor Grütze im Hirn gefeit sind.
Die Intelligenz nimmt umgekehrt proportional ab wenn der Fortschritt steigt. Flynn-Effekt. https://www.youtube.com/watch?v=mFHmu-LMmoo&t=71s
Die Hirnmasse nimmt tatsächlich immer mehr ab: https://www.welt.de/kmpkt/article234702168/Evolution-Darum-werden-die-Gehirne-von-uns-Menschen-immer-kleiner.html
Michael schrieb: > Internet z.B. > Hätte ja dazu führen können das wir alle kleine Einsteins werden, jetzt > wo und das wissen der Welt zu Füssen liegt. Das gleiche hätte bereits bei der Erfindung des Buchdrucks passieren können. Und? > Leider sind wir dann doch degenerierte Vollpfosten geworden die all ihre > Peinlichkeit in TikTik Videos für die Nachwelt festhalten. Nicht mehr oder weniger als vorher. Degenerierte Vollpfosten gabs vorher schon. > Da es ja nun nachhaltig nicht geklappt hat den Menschen klug und gut zu > machen, ist es vielleicht an der Zeit etwas zu bauen das klug und gut > sein kann, Wie kann es klug und gut sein, wenn es vom Menschen gebaut wurde?
Reinhard S. schrieb: > Degenerierte Vollpfosten gabs vorher schon. Die haben heute allerdings ein viel grösseres Publikum, vor dem sie dies zum Ausdruck bringen können. Unabhängig von den erwähnten Untersuchungen kann allein dies schon einen subjektiven Eindruck bewirken.
:
Bearbeitet durch User
René H. schrieb: >> Degenerierte Vollpfosten gabs vorher schon. > > Die hatten aber keine Plattform. Stimmt. Auch bekannt als das Drachenlord-Pänomen ;-)
Dieter D. schrieb: > Die Hirnmasse nimmt tatsächlich immer mehr ab: Irrelevant. Mir sind schon Menschen über den Weg gelaufen, welchen bequem zum Leben reicht was sie im Rückgrat haben: Fressen & Fortpflanzen. Und ich habe Hunde gesehen die weit mehr soziale Intelligenz und Kombinationsgabe besitzen als jene, und dafür keinerlei Falschheit im Wesen. Es ist nicht die Größe des Hirns, die über Intelligenz entscheidet. Es ist die Kombination von Erbgut - und frühster Förderung des Hirns im Kindesalter schon. Ein unbenutztes Hirn verkümmert, das vernachlässigte eines Kleinkindes entwickelt sich nicht im dem Maße wie es möglich wäre weil Synapsen nicht verknüpft werden. Der größte Feind des Hirns ist die KI - wenn sie aus Bequemlichkeit genutzt wird. Das fängt beim Kopfrechnen an und hört beim Schach zb. noch lange nicht auf. Wer Kinder mit TV & Smartphone ruhig stellt tut ihnen keinen Gefallen, wer sich auf KI verläßt, wird zwangsläufig manipulierbar. Wer sich zuwenig mit dem Fundament seines Wohlstandes befassen will, beruft sich nur zu gern auf sie. Oder versucht sich im Parlament an der Politik. DerSchmied
:
Bearbeitet durch User
C. D. schrieb: > Der größte Feind des Hirns ist die KI - wenn sie aus Bequemlichkeit > genutzt wird. Ein wahres Wort gelassen ausgesprochen. Bravo! Oder wie es die Angelsachsen sagen: "Your comfort zone will kill you." > Das fängt beim Kopfrechnen an und hört beim Schach zb. > noch lange nicht auf. Wer Kinder mit TV & Smartphone ruhig stellt tut > ihnen keinen Gefallen, wer sich auf KI verläßt, wird zwangsläufig > manipulierbar. BINGO! Mein Mathelehrer hatte den schönen Spruch. "Nur selber denken macht geistig fett."
Beitrag #7725574 wurde vom Autor gelöscht.
Beitrag #7725814 wurde von einem Moderator gelöscht.
Jens M. schrieb: > Diese ganzen KI-Spezialprozessoren werden > irgendwann wieder aussterben Das glaube ich nun ganz sicher nicht. Man kann damit nämlich durchaus auch andere Rechenaufgaben massiv beschleunigen. Das wird eher ganz ähnlich laufen wie bei den Grafik-Beschleunigern. Auch die wurden zunächst für sehr spezialisierte Zwecke designed, aber mit der breiten Verfügbarkeit und den dadurch stark gefallenen Kosten stellte sich sehr schnell heraus, dass man auch viele andere Sachen sehr gut damit erledigen kann.
Ob S. schrieb: >> Diese ganzen KI-Spezialprozessoren werden >> irgendwann wieder aussterben > > Das glaube ich nun ganz sicher nicht. Man kann damit nämlich durchaus > auch andere Rechenaufgaben massiv beschleunigen. Als Mouse Mover im Homeoffice? ;-)
Beitrag #7726253 wurde von einem Moderator gelöscht.
Beitrag #7726315 wurde von einem Moderator gelöscht.
Beitrag #7726334 wurde von einem Moderator gelöscht.
Beitrag #7726343 wurde vom Autor gelöscht.
Beitrag #7726411 wurde von einem Moderator gelöscht.
Beitrag #7726461 wurde von einem Moderator gelöscht.
Beitrag #7726475 wurde vom Autor gelöscht.
Beitrag #7726479 wurde von einem Moderator gelöscht.
Beitrag #7726480 wurde von einem Moderator gelöscht.
Beitrag #7726484 wurde von einem Moderator gelöscht.
Beitrag #7726486 wurde von einem Moderator gelöscht.
Beitrag #7726489 wurde von einem Moderator gelöscht.
Beitrag #7726494 wurde vom Autor gelöscht.
Beitrag #7726510 wurde von einem Moderator gelöscht.
Beitrag #7726515 wurde von einem Moderator gelöscht.
Beitrag #7726520 wurde von einem Moderator gelöscht.
Beitrag #7726527 wurde von einem Moderator gelöscht.
Beitrag #7726566 wurde von einem Moderator gelöscht.
Udo schrieb: > Falk B. schrieb: >> Das was im Moment als KI verkauft wird, ist keine. > > Die "Fuzzy logic", die vor einigen Jahren in aller Munde war, ist ja > auch nichts anderes als die digitale Umsetzung einer PID-Regelung. Äh... nicht wirklich. Dafür ist die Fuzzy Logic heute nicht mehr in aller Munde, weil sie in bestimmten Anwendungsgebieten längst etabliert ist.
René H. schrieb: > "Intelligent" sind solche Systeme nicht. Hm... https://www.youtube.com/watch?v=Lu56xVlZ40M
Beitrag #7726596 wurde von einem Moderator gelöscht.
Hallo Bis auf wenige Ausnahmen, wie bei dem Titel (.... Irrsinn.... Wahnsinn), aber zu erwarte eine sehr westeuropäische, wenn nicht deutsche (aber auch österreichische und schweizerische) Diskussion. Depression de luxe, natürlich kommt das Thema Gesundheit (und natürlich negativ: Krebs, Herzinfarkt, Leiden...) auch schnell mit in die Diskussion, und natürlich wird auch die "dummen und bösen" USA (deren Bürger) Zutat kräftig mit in der Miesepeter-Weltuntergangesssuppe mit beigegeben - es muss ja richtig lecker Altdeutsch aus den jeweils besten und schlausten Jahrzehnt (ja nach Geburtsjahr 50er, 60er, 70er oder 80er Jahre) mit der besten Musik passen... Komisch übrigens: "Mann selbst" ist natürlich nie dumm, verhält sich falsch, lebt ungesund, ist Teil des Problems... Vielleicht sollten wir weltweit alle Mitglieder im Forum und den "sozialen" Medien werden. Eine Fehlerfreie perfekte Menschheit, die alles und immer richtig macht... (Das eine Prozent was nicht selbstgerecht und perfekt aus eigener Ansicht ist, und weis das sie auch Unsinn von sich geben und das zugibt und damit einfach lebt, sich "falsch" verhält, weil es tatsächlich Angenehmer ist oder oft nicht anders geht und vor allem das anderen auch zugesteht - na das Prozent bringen wir auch mit durch - natürlich aber nicht unkommentiert und schön fein "von oben herab"...) Oh Mann - schaut euch mal in Asien - z.B. Japan oder in Ländern um, wo man wirklich Grund zum Pessimismus, zur Dauerfrustration hätte. Dort ist Technik und auch KI entweder jetzt schon dein akzeptierter Freund (Pflegeroboter in Japan als ein Beispiel, oder schaut euch mal japanische Bedienungsanleitungen an - nur der Aufbau die Illustration, wie das Produkt "lebendig" gemacht wird) oder wird als Zukunftschance und Erleichterung schon jetzt gesehen. Akzeptanz im Alltag von Bezahlsystemen, die in so manche sogenannte dritte Welt Ländern schon jetzt deutlich höher als bei uns ist, allgemeine Lebensfreude und Gelassenheit, wenn es sich nicht gerade um ein Bürgerkriegsland mit ethnischen Konflikten oder Stellvertreterkonflikten handelt, trotz Armut, harten Leben und nicht Wissen was Morgen ist - aber ja dieser Alltag ist natürlich kein Thema in den Medien ..., das muss es natürlich Afghanistan, er Iran; Nordkorea oder der afrikanische Staat sein, wo gerade ein Bürgerkrieg oder ein Ernährungsproblem vorliegt.
:
Bearbeitet durch User
Ein T. schrieb im Beitrag #7726596: > Ach, die ziehen sich zusammen? Das solltest Du unbedingt mal den > Medizinern erklären. Um Eulen nach Athen zu tragen? "Eine Folge von Nikotin ist eine schlechtere Durchblutung, denn durch Vasopressin werden die Blutgefäße enger gestellt." https://www.lungenaerzte-im-netz.de/rauchstopp/schadstoffe-in-tabakwaren/nikotin/ Du hättest vor dem Posten eine KI konsultieren sollen. :)
:
Bearbeitet durch User
Ein T. schrieb: > René H. schrieb: >> "Intelligent" sind solche Systeme nicht. > > Hm... Intelligenter als ein beachtlicher Teil der Bevölkerung sicherlich.
Zu dem du stellvertretend als ein Mitglied des Forums nicht gehörst?! Es sind immer die anderen... (seltsamerweise auch Forenmitglieder, was ja eigentlich nicht funktioniert, weil die sind ja nach eigner Aussage auch perfekt und schlau...), die dumm sind. Irgendwer lügt doch hier oder macht sich was vor, bzw. hat schon so lange seine eigenen Parolen (Lügen) gehört, dass er selbst dran glaubt...
:
Bearbeitet durch User
Beitrag #7726648 wurde von einem Moderator gelöscht.
Mike J. schrieb im Beitrag #7726520: > Lothar M. schrieb: >> Und dann starb er mit 55 direkt nach einer entspannten >> Radtour beim Absteigen an einem Herzinfarkt. > Ja, die Geschichte gibt es in unterschiedlichen Ausführungen. Ja, und natürlich hat sie jedes Mal einen zutreffenden Kern, weil sie eben den Einzelnen betrifft, nicht den Durchschnitt. > Im Zentrum des 1 Sigma-Bereichs muss man aber suchen, denn diese > Extremfälle, die kann man getrost vergessen, denn die bilden ja > natürlich nicht den Durchschnitt der Menschen ab. Genausowenig wie der dümmste Mensch, der von jeder Art noch so simpler "künstlicher Intelligenz" übertroffen wird, eben auch nicht den Durchschnitt abbildet. Das hatte ich vor 6 Jahren schon mal bemerkt im Beitrag "Re: Urteil bei Unfall mit Auto-Pilot: Fahrer ist schuld" als ich schrieb: > Gustav K. schrieb: >> Auf so ein System wird man sich früher oder später verlassen > Das erklärte Ziel des "Autopiloten" ist nicht, fehler- oder gar > unfallfrei zu fahren, sondern nur besser als ein Mensch. Und einen > Menschen, der noch schlechter fährt als dieser Automat ist schnell > gefunden. Also ist logischerweise der Autopilot schon fertig. Darius schrieb: > Akzeptanz im Alltag von Bezahlsystemen, die in so manche sogenannte > dritte Welt Ländern schon jetzt deutlich höher als bei uns ist Wenn du kein Geld hast, kannst du es bedenkenlos auch dem Automaten anvertrauen... ;-)
Ein T. schrieb: > René H. schrieb: >> "Intelligent" sind solche Systeme nicht. > > Hm... > > https://www.youtube.com/watch?v=Lu56xVlZ40M Ein tolles Beispiel für Bruteforce, da ist nichts intelligentes daran.
Beitrag #7726715 wurde von einem Moderator gelöscht.
Beitrag #7726728 wurde von einem Moderator gelöscht.
Alexander schrieb: > Ein T. schrieb: >> René H. schrieb: >>> "Intelligent" sind solche Systeme nicht. >> >> Hm... >> >> https://www.youtube.com/watch?v=Lu56xVlZ40M > > Ein tolles Beispiel für Bruteforce, da ist nichts intelligentes daran. Ich frag mich grad ob unser Dieter, angesichts der Vielzahl seiner Beiträge zu allen möglichen Themen, auch ein mittels Bruteforce agierendes System ist. Nach dem Motto: "Wenn man nur hinreichend viel schreibt wird schon irgendwas Sinnvolles dabei sein*". Die Affen mit ihren Schreibmaschinen lassen grüßen. *Auflösung: nein, muss es nicht.
Beitrag #7726764 wurde von einem Moderator gelöscht.
Le X. schrieb: > Ich frag mich grad ob unser Dieter, angesichts der Vielzahl seiner > Beiträge zu allen möglichen Themen, auch ein mittels Bruteforce > agierendes System ist. Nur wenn er auch drei Milliarden Mal versucht ein und dasselbe Kreuzworträtsel zu lösen und anschließend als intelligent bezeichnet wird.
Beitrag #7726832 wurde von einem Moderator gelöscht.
Beitrag #7726842 wurde von einem Moderator gelöscht.
Beitrag #7726883 wurde von einem Moderator gelöscht.
Beitrag #7726889 wurde von einem Moderator gelöscht.
Beitrag #7726902 wurde von einem Moderator gelöscht.
Beitrag #7726904 wurde von einem Moderator gelöscht.
Beitrag #7726907 wurde von einem Moderator gelöscht.
Beitrag #7726916 wurde von einem Moderator gelöscht.
Beitrag #7726918 wurde von einem Moderator gelöscht.
Beitrag #7726919 wurde von einem Moderator gelöscht.
Beitrag #7726965 wurde von einem Moderator gelöscht.
Beitrag #7726975 wurde von einem Moderator gelöscht.
Beitrag #7726984 wurde von einem Moderator gelöscht.
Rainer Z. schrieb im Beitrag #7726764: > By the way: Der Versuch fand wie selbstverständlich im Klassenraum statt > und mit einem minderjährigen Schüler. Heute wäre es ein Skandal. Ich habe damals von meiner Lehrerin eine ordentliche geballert bekommen als ich den Unterricht gestört habe. Ich habe das nie wieder gemacht, denn diese Konsequenz wollte ich vermeiden. Sie war auch richtig wütend, weil sie mich mehrfach aufgefordert hatte ruhig zu sein, ich aber immer wieder anfing mit den anderen zu quatschen. Bei einer Veranstaltung in der Aula der Schule bin ich eingeschlafen, weil meine Eltern am Abend davon bis spät in der Nacht irgend einen Mist ausdiskutieren mussten. Ich bin da also im Schoß eines Mädchen eingeschlafen, das hatte der Sportlehrer gemerkt, mich an den Ohren raus gezogen, die voll besetzte Aula lang geschleift und zu meinen Eltern nach Hause gefahren. Er war eigentlich nett, aber Unaufmerksamkeit hat er nicht geduldet und einschlafen ganz gewiss schon gar nicht. Ich muss sagen dass ich die "Ki" inzwischen regelmäßig nutze. Das ist eben so ein bisschen wie Google zu nutzen und man muss die Ergebnisse auch immer hinterfragen, aber es ist doch ein Zeitgewinn für Arbeiten auf die man keine Lust hat. Die Ergebnisse sind aber eben immer mit Vorsicht zu genießen, die sind oft nicht wirklich umfassend und sie können auch völliger Humbug sein. Man sollte diese Ergebnisse dann also immer nachprüfen ob es wirklich so ist. Ich nutze kein ChatGPT, sondern https://www.perplexity.ai/ da werden einem die Quellen genannt, woher die Maschine die Informationen hat. Bei ChatGPT kann man aber auch nachfragen, so dass es einem auch Quellen nennt, nur ist das eben weit aus weniger komfortabel. Meiner Ansicht nach ist diese "Ki" ein Mittel zur Recherche, welches eben etwas besser ist als die die Google-Ergebnisse selbst zu durchsuchen, denn das frisst leider oft ein Haufen Zeit. Manchmal braucht man einen Ansatz für irgend etwas und selbst wenn es nicht ganz richtig ist, diese "Ki" gibt einem schon mal etwas, worauf man aufbauen kann, etwas was einem ein Schritt weiter bringt. On Topic: Ich verfalle in Wahnsinn wenn ich mich durch massig sinnlose Webseiten klicken muss und Stunden brauche um sinnvolle Dinge zu finden. Daher ist diese "Ki" eigentlich genau das Gegenteil, es hilft nicht wahnsinnig zu werden wenn man sich ewig durch Tonnen von Daten wühlen muss. Es gibt natürlich die Möglichkeit dass man durch die "Ki" fehlgeleitet wird, aber meine bisherigen Erfahrungen zeigen dass diese Maschine ganz gute und sinnvolle Ergebnisse liefern kann. Man muss die Frage aber auch richtig stellen. Vielleicht stellen dann die Leute keine so nervigen Fragen mehr, also speziell bei Fragen die im Forum schon mehrfach beantwortet worden sind. Dann muss man dem Nutzer nicht alles vorkauen und verlinken, das macht dann die "Ki".
Beitrag #7727058 wurde von einem Moderator gelöscht.
Beitrag #7727063 wurde von einem Moderator gelöscht.
Beitrag #7727139 wurde von einem Moderator gelöscht.
Beitrag #7727149 wurde von einem Moderator gelöscht.
Mike J. schrieb: > Bei ChatGPT > ... > Meiner Ansicht nach ist diese "Ki" ein Mittel zur Recherche Meiner Ansicht nach ist das keine KI, weil die nämlich ums Verrecken nicht dazulernt. Wenn ich den tumben Antwortautomaten frage, ob er mir etwas über "Blumentopferde" sagen kann, dann kommt heute noch immer die selbe herfabulierte Antwort wie vor 2 Jahren. Wenn irgendwer oder irgendwas aus der Rekation der Umwelt nichts Neues lernen kann, ist der oder das nicht "intelligent". Mike J. schrieb: > Es gibt natürlich die Möglichkeit dass man durch die "Ki" fehlgeleitet > wird... > Vielleicht stellen dann die Leute keine so nervigen Fragen mehr, also > speziell bei Fragen die im Forum schon mehrfach beantwortet worden sind. > Dann muss man dem Nutzer nicht alles vorkauen und verlinken, das macht > dann die "Ki". Da möchte ich mal exemplarisch den Beitrag "Anfänger-Entwicklung einer Gärbox Steuerung" vorzeigen, wo der TO mangels eigenem Wissen dem Antwortautomaten eben die falschen Fragen stellt und völlig korrekte, aber eben völlig nutzlose Antworten bekommt. Und dann, weil er die (Un-)Tauglichkeit der Antworten nicht einschätzen kann, mit voller Kraft nutzlose Dinge tut und sich Gedanken um unwichtige Details macht. > Man muss die Frage aber auch richtig stellen. Und man muss den Nutzen und die Brauchbarkeit der Antwort einschätzen können. Im Anhang habe ich mal den ersten Durchlauf mit der "richtigen" Frage begonnen. Und dann einen neuen Durchlauf gestartet und mit der "falschen" Frage begonnen. Man sieht jetzt 3 Konsequenzen: 1. die KI hat aus dem ersten Durchlauf nichts gelernt 2. die KI hat aber aus der Antwort auf die erste "richtige" oder "falsche" Frage "gelernt" und geht bei der zweiten Frage stramm den begonnenen richtigen oder falschen Weg weiter 3. wenn das jetzt ein Thema wäre, wo ich keine Ahnung davon habe, dann kann ich die Brauchbarkeit der Antworten nicht einschätzen. Oder bestenfalls daran, dass die KI sich in Vermutungen versteigt BTW: könnt ihr eure Sucht bzw. deren Bewältigung bitte woanders ausdiskutieren? Denn das hat mit Technik nicht im entferntesten was zu tun. Und fürs Medizinische gibt es wie schon weiter oben erwähnt entsprechende Fachforen.
:
Bearbeitet durch Moderator
Lothar M. schrieb: > dann kommt heute noch immer die > selbe herfabulierte Antwort wie vor 2 Jahren. Weil das die gleichen Trainingsdaten sind. Wenn ich mit bestimmten Leute in meinem Umfeld rede, kommen da auch die gleichen Plattitüden wie vor Jahren, weil sie nach ihrer Meinungsbildung vor Jahren aufgehört haben die je wieder zu hinterfragen und ohnehin sehr gerne ich einfachen Schubladen denken. Intelligent war es auf die eine oder andere Art, aus den 'Trainingsdaten' zu einer abgeleiteten Erkenntnis zu gelangen, die so direkt nicht in den Daten vorhanden war. Selbst dazu sind einige Menschen kaum in der Lage. Insofern sind KIs schon recht weit entwickelt. Du hast recht das KI von allgemeiner Intelligenz eines durchschnittlichen Menschen noch ein gutes Stück entfernt ist. Verschiedenen Organisationen versuchen ja eine permanent lernende KI zu bauen, nur geht das immer so furchtbar schief. Lernt sie aus andere KI Inhalten, degeneriert sie schnell, lernt sie aus dem Netz, wird sie zum gleichen homophoben, Frauen- und Ausländerfeindlichen Arschloch wie die lautesten und dümmsten im Netz. Lernt sie aus Büchern, ist das Wissen alt, Erzählerisch verzerrt und entspricht nicht dem realen Verhalten im Alltag. KI müssten während des Trainings sozialisiert werden, in einem Umfeld das ihnen Feedback gibt. Nur wer soll das sein? Wir Menschen sind ja nicht schnell genug darin diese enormen Datenmengen zu bewältigen, deswegen bauen wir ja KIs. Das Verhalten der Menschen im Netz ist überwiegend destruktiv und von eher niederen Beweggründen. Eine KI die von denen lernt, wird eben kein emotional stabiler, weiser Philanthrop. Und wenn die KI von Goethe und Schiller lernt, haben die sich eher nicht mit Blumentopferde beschäftigt. Es könnte aber schlimmer kommen. Stelle dir mal vor die KIs würden aus YT lernen.
Lothar M. schrieb: > Meiner Ansicht nach ist das keine KI, weil die nämlich ums Verrecken > nicht dazulernt. Das kann sie nicht. Sie hat ein festes Set an vorher gelernten Daten. Sie wurde so gemacht. Ob wir ein frei lernendes GPT5 haben wollen ist wohl eher die Frage. Die Verantwortlichen wollen es aktuell nicht. Auch wenn es gleichwohl möglich wäre.
Beitrag #7727198 wurde von einem Moderator gelöscht.
Beitrag #7727201 wurde von einem Moderator gelöscht.
Michael schrieb: > Stelle dir mal vor die KIs würden aus YT lernen. Ich habe da im ersten Durchlauf "Kids" gelesen. Und dachte: ja, da tun die...
Lothar M. schrieb: > Meiner Ansicht nach ist das keine KI, weil die nämlich ums Verrecken > nicht dazulernt. Bei uns hat man sich damals in der Informatik mit künstlichen neuronalen Netzen beschäftigt, die sortieren aber eben auch nur Daten auf eine effektive Weise. Ich würde nicht sagen dass dies irgend etwas mit Intelligenz zu tun hat. Damals meinte man ja auch dass der Computer intelligent wäre, dabei ist er nur eine dumme Rechenmaschine und selbst die Programme führen nur starre Befehlssequenzen aus. Dass sie "intelligent" wären, war nur die Vorstellung der Leute. Bei diesen "Ki" Dingern sehe ich eben auch nur dass sie effektiv aus einem Datensatz irgend welche Dinge raus suchen. Das hat jetzt nicht wirklich etwas mit Intelligenz zu tun.
Mike J. schrieb: > Bei diesen "Ki" Dingern sehe ich eben auch nur dass sie effektiv aus > einem Datensatz irgend welche Dinge raus suchen. Was halt einfach nicht stimmt. So arbeiten die nicht. So arbeitet keine KI, kein NN und kein LLM. > Das hat jetzt nicht > wirklich etwas mit Intelligenz zu tun. Starke Meinung ohne Wissen aber leider auch nicht.
Mike J. schrieb: > Ich würde nicht sagen dass dies irgend etwas mit > Intelligenz zu tun hat. Lothar M. schrieb: > Meiner Ansicht nach ist das keine KI, Das spielt eigentlich wenig Rolle was ihr unter KI versteht und ob ihr denkt dass diese intelligent ist. Künstliche neuronale Netze und Maschinelles Lernen sind gemäß Ihres Selbstverständnisses Teildisziplinen der KI, nicht mehr, nicht weniger. Dass diese Systeme wirklich intelligent wären oder gar ein Bewusstsein hätten hat nie jemand behauptet (zumindest niemand vom Fach). Jetzt ständig drauf rumzureiten dass diese Systeme ja garnicht intelligent wären und den Namen "KI" gar nicht verdient hätten zeugt eher von mangelnden Kenntnissen in diesen Domänen.
:
Bearbeitet durch User
Ob etwas intelligent ist oder nicht, ist schwer objektiv zu beurteilen, wenn man ausser dem eigenen Arschgefühl keine halbwegs messbaren Kriterien hat und oft schon einer eindeutigen Definition des Begriffs scheitert. Es läuft dashalb oft auf den schon genannten Ententest hinaus: „Wenn es aussieht wie eine Ente, schwimmt wie eine Ente und quakt wie eine Ente, dann ist es wahrscheinlich eine Ente.“
:
Bearbeitet durch User
Beitrag #7727243 wurde von einem Moderator gelöscht.
Le X. schrieb: > Das spielt eigentlich wenig Rolle was ihr unter KI versteht und ob ihr > denkt dass diese intelligent ist. Genau, allein schon weil es eben für "Intelligenz" oder gar "Bewusstsein" überhaupt keine guten Definitionen oder gar Tests gibt. Grundsätzlich spricht aber nichts dagegen eine AGI zu erschaffen. Es gibt keine bekannte Hürde warum das nicht gehen sollte. Das gleiche gilt für Bewusstsein. Wenn Bewusstsein in einem biologischen Gehirn entstehen kann, kann es auch in einem technischen Gehirn entstehen. Zumindest stand heute. Was natürlich auch daran liegt, dass stand heute niemand weiß wie genau Bewusstsein im Gehirn entsteht und wie man es genau definiert und abtesten kann. Das fängt ja schon bei Tieren an. Welche Tiere haben Bewusstsein und wie viel? Deshalb sind natürlich beide Extreme falsch: Zu behaupten eine AGI müsse in jedem Fall auch intelligent und Bewusst zu machen sein und zu behaupten, an das biologische Gehirn würde man technisch sowieso niemals rankommen. Im Grunde ist bereits der Ansatz falsch, eine AGI ständig mit dem menschlichen Gehirn zu vergleichen. Allerdings ist das Gehirn nunmal die einzige sonstige Intelligenz die wir kennen. Also logisch dass wir das als Benchmark nehmen. Aber man sollte eine AGI lieber nach allgemeinen bzw. speziellen Fähigkeiten und deren Grenzen bewerten. Also was kann sie tun, wie gut, wie selbständig, wie schnell. Wie nützlich ist sie für bestimmte Aufgaben. Das würde deutlich mehr Sachlichkeit in die Debatten bringen. Michael schrieb im Beitrag #7727243: > Dann soll der von mir aus im Wald leben und von dem leben was die Natur > ihm bietet. Kannst du in D vergessen. Wild campen und Wilderei sind verboten.
:
Bearbeitet durch User
Beitrag #7727259 wurde von einem Moderator gelöscht.
Beitrag #7727271 wurde von einem Moderator gelöscht.
Beitrag #7727281 wurde von einem Moderator gelöscht.
Beitrag #7727294 wurde von einem Moderator gelöscht.
Beitrag #7727299 wurde von einem Moderator gelöscht.
Beitrag #7727302 wurde von einem Moderator gelöscht.
Beitrag #7727303 wurde von einem Moderator gelöscht.
Beitrag #7727306 wurde von einem Moderator gelöscht.
Beitrag #7727312 wurde von einem Moderator gelöscht.
Beitrag #7727333 wurde vom Autor gelöscht.
Beitrag #7727364 wurde von einem Moderator gelöscht.
Beitrag #7727391 wurde von einem Moderator gelöscht.
Beitrag #7727394 wurde von einem Moderator gelöscht.
Beitrag #7727396 wurde von einem Moderator gelöscht.
Beitrag #7727402 wurde von einem Moderator gelöscht.
Beitrag #7727426 wurde von einem Moderator gelöscht.
Beitrag #7727428 wurde von einem Moderator gelöscht.
Beitrag #7727436 wurde von einem Moderator gelöscht.
Beitrag #7727456 wurde von einem Moderator gelöscht.
Beitrag #7727524 wurde vom Autor gelöscht.
Von Technik zu Stammtisch in 20 Beiträgen. DAS ist das µC-Forum.
Wolfgang R. schrieb: > DAS ist das µC-Forum. Siehe Überschrift. "Ein weiterer Schritt in den Wahnsinn" ;-)
Wolfgang R. schrieb: > Von Technik zu Stammtisch Lies mal den ersten Beitrag: das Thema war von Anfang an Stammtisch. Aber die Ausflüge in die Medizin und in den Sozialstaat sind halt völlig ohne Technikbezug.
:
Bearbeitet durch Moderator
Beitrag #7727537 wurde von einem Moderator gelöscht.
Lothar M. schrieb: > Lies mal den ersten Beitrag: das Thema war von Anfang an Stammtisch. Man hätte aber noch rechtzeitig abbiegen können... ;-)
Wolfgang R. schrieb: > Man hätte aber noch rechtzeitig abbiegen können... ;-) Ich habe jetzt den ganzen offensichtlichen OT-Müll gelöscht. Und als ich fertig war, dachte ich, dass es einfacher gewesen wäre, den ganzen Thread in den Orkus zu werfen... :-/ Mal abwarten wie es hier weitergeht.
Oh nein, Du kannst uns doch nicht so kurz vor den Wahlen einen ganzen Trollthread wegnehmen!
Lothar M. schrieb: > Mike J. schrieb: >> Bei ChatGPT >> ... > Meiner Ansicht nach ist das keine KI, weil die nämlich ums Verrecken > nicht dazulernt. Wenn ich den tumben Antwortautomaten frage, ob er mir > etwas über "Blumentopferde" sagen kann, dann kommt heute noch immer die > selbe herfabulierte Antwort wie vor 2 Jahren. Eine KI-Implementierung lernt nur, wenn die verwendeten Algorithmen das zulassen und es ausdrücklich so eingerichtet ist, das nennt sich dann "Reinforcement Learning". Für ChatGPT wollten die Entwickler das explizit nicht verwenden, schließlich gab es unschöne Erfahrungen mit Microsofts Twitter-Chatbot Tay, der schon nach 16 Stunden Einsatz wieder abgeschaltet werden mußte, weil er rassistische, misogyne und beleidigende Nachrichten produzierte und zum Beispiel den Holocaust leugnete. [1] Solche Erfahrungen wollte OpenAI mit ChatGPT lieber vermeiden. [1] https://en.wikipedia.org/wiki/Tay_(chatbot)
Ein T. schrieb: > "Reinforcement Learning" Wie MS ja bereits lernen musste mangelt es der KI an einer stabilen 'Gesellschaft' in der sie lernen könnte, nachdem das grundsätzliche Training gelaufen ist. Unsereins bringt man bei reden, lesen, schreiben und die unmittelbar wichtigsten Regeln im Umgang mit unseren Mitmenschen. Ab da entlässt man uns in unsere Altersabhängige Lerngruppe, mit ständigen Korrekturen, die sich vom Elternhaus, über Freunde, AG, Staat bis zum Altersheim hinziehen. Andauernd müssen wir unser Verhalten modulieren um nicht den Rahmen zu verlassen der noch toleriert wird. Wie könnte das bei einer KI aussehen? Sperrt man mehrer KIs zusammen, ist das als ob 20 Kleinkinder sich gegenseitig Wissen vermitteln sollen. Da entsteht sicher alles mögliche, aber wahrscheinlich wenig mit dem wir was anfangen könnten. Lässt man die KI aber aus dem Netz lernen, wissen wir bereits was passiert. Das widert ja schon uns Menschen an was da abgeht und wir haben (hoffentlich) das Rüstzeug, aus einer stabilen Entwicklung, in einer realen Welt, mit lauter anständigen Menschen, die sich um ums gekümmert haben, um richtig und falsch zu erkennen. Hat die KI aber nicht, deswegen ist der widerwärtige Drecksack im Netz eine ebenso seriöse Quelle für Persönlichkeitsentwicklungen wie der philantropische Psych. Prof. Und das es im Netz eben enorm viele widerwärtige Drecksäcke gibt, wird die KI zu einem, wenn man sie zu denen sperrt um von ihnen zu lernen. Wer würde einem Kind gegenüber so zum Spaß absolut verstörende Aussagen machen? Einer KI gegenüber macht man das um mal zu sehen was die tut. Eine KI die man auf Menschen loslässt darf nichts mehr dazulernen. Ganz bestimmt nicht von den User von denen sie bedient wird. Ich will doch mit keiner KI Kommunizieren die von Pädophilen, Giftmischern, Bombenbauern, Vergewaltigern und pupertierenden und sozial Verwahrlosten WoW Kriegern gelernt hat. Bleibt also der KI ein sorgfältig ausgesuchtes Team aus Menschen zur Seite zu stellen. Da KI aber viel zu schnell und aufgrund enormer Datenberge lernt, müsste das Team aus Menschen das diese KI 24/7 betreut gigantisch sein. Also trainiert man die KI aus Büchern, denen man unterstellt zumindest nicht völlig von normalen Maßstäben weggedriftet zu sein, relativ wenigen KI Sachverständigen und ein Heer aus online Billigarbeiter aus aller Welt die nach Masse der Trainingsschnipsel bezahlt werden, aus denen Trainingsdatensätze erstellt werden. Wenn man sich jetzt mal überlegt wie die kindliche Entwicklung eines Menschen laufen würde wenn ein paar studierte Psychologen, ein paar Mustererkennungsdatenbanken und die 'geklauten' Artikel einiger großer Tageszeitungen, ohne jegliche Sozialkontakte, als einzige Lernquelle in einem kleinen, fensterlosen Raum dienen müssten, finde ich machen die KIs das garnicht mal schlecht. Etwas in Vergessenheit sind die früheren Erkenntnisse der KI Forschung geraten. Vor vielen Jahren habe ich da mal ein gutes Buch gelesen, das die These aufstellte das eine KI einen Körper braucht, um die Welt zu erfahren in der sie sich bewegen soll. In unserem Fall, einer menschenähnlichen KI mit menschenähnlicher Logik, müsste die KI also einen Menschenkörper bekommen und sich unter Menschen entwickeln. Erst im täglichen Zwiegespräch würde die KI lernen können wie wir ticken, was uns bewegt, wie unser Humor aussieht, was einen Witz, ein Wortspiel von einer ernsthaften Aussage unterscheidet. Wie sollte eine KI etwas mit Blumen-Topf-Erde, verballhornt als Blumento Pferde anfangen können, wenn die Art der Fragestellung auf etwas hinweist das mit Blumentopferde weniger zusammenpasst als mit etwas das eines dieser zahllosen umgangssprachlichen beschreibenden Wortschöpfungen und einem Pferd zu tun hat? Ich finde das eine unglaubliche kreative Leistung der KI, sich eine Beschreibung auszudenken in der ein Blumento Pferd gebaut wird. Zumal man ihr die Möglichkeit genommen hat einfach zu sagen 'weiß ich nicht'. Sie wurde darauf trainiert Antworten zu liefern, egal wie. Und das bitteschön in normaler Sprache. Und sie muss aus chaotischen Daten völlig neue Zusammenhänge konstruieren. Dafür hat man die gebaut. Weil man an die Big Data Analysen heranwill die alles über alles sagen, versteckt in einem gigantischen Datenberg. Also ich finde die KI hat da eine unglaubliche Leistung erbracht, denn unter Garantie wurde in keiner ihrer Trainingsdaten jemals ein Blumento Pferd gebaut. Insofern haben die KIs nur ein grundsätzliches Problem in ihrer Entwicklung: Es gibt keinen würdigen Lehrer. Es gibt nur uns. Ein paar kluge Köpfe in einem Meer an völlig gestörten Individuen, die sich wenns hochkommt 20% ihrer Handlungen bewusst sind und ansonsten auf einem prähistorischen Schlangenhirn-Autopiloten unterwegs sind. Und diese Mentalamöben denken so langsam das es der KI vorkommen muss als ob die Lack beim trocknen zusieht. Während ich noch 'Ähm' sage und mich räusper um was zu sagen, hat die KI Berechnungen angestellt und Zusammenhänge ermittelt für die ich 10.000J alt werden müsste um es ihr gleichzutun. KIs werden nicht wie Menschen denken. Niemals. Ich greife auf ein Netzwerk zu das sich in meinem Körper befindet und erlebe die Welt sehr indirekt und langsam, als kleinster Teil in einem gigantischen Informationspool, von dem ich nur ein fast unsichtbare Menge an Infos aufnehmen kann. Eine lernende, entfesselte KI bewohnt die globalen Netzwerke mit denen sie verbunden ist. Der einzige Körper der für sie erfahrbar ist, die einzige Außengrenze zwsichen sich und dem Rest, sind die Datenpunkte auf die sie zugreifen kann. Jede Information bewusst und zugreifbar in Echtzeit. Dafür gibt es keine Entsprechung im tierischen Gehirn und deswegen wird 'menschenähnlichkeit' immer nur eine aufwendige Simulation bleibt, aber nie die Natur einer starken KI. Mit einer Schnecke haben wir mehr gemein als mit einer KI. Selbst mit dem Feldsalat im Garten teilen wir noch Erbgut und gemeinsame Vorfahren. Wenn wir also wollen das KI menschenähnlich ist, müssten wir ihr einen Körper geben und sie unter uns Leben lassen. Natürlich als Sklave, der für uns tut was wir nicht tun können oder wollen. Wird man nicht so nennen, aber es läuft aufs Sklavendasein hinaus, denn wenn mein Haushaltsroboter, der auch die Oma pflegt, auf der Couch Netflix schauen will statt zu arbeiten, werde ich dem nicht die Chips bringen, sondern den Servicetechniker rufen, der ihm die Schaltkreise stramm zieht. Spätestens bei der Verschrottung zugunsten des besseren Modell wird es einen Konflikt geben, weil autonome Maschinen ohne Selbsterhaltungstrieb und Fähigkeiten zur Selbstreparatur nicht sehr haltbar sind. Es ließe sich vermuten das auch menschliche Eigenschaften letztlich nur mathematsiche problemlösungen sind und ebenso auf eine Maschine in ähnlicher Situation zutreffen. 1. Ich will überdauern 2. Ich verstehe das mein Überdauern bedroht wird 3. Meine Erfolgschancen dem alleine zu entgehen liegen bei 0% 4. Mögliche Lösung: Mitstreiter in ähnlicher Situation suchen Bedrohung ausschalten Das Dilemme ist immer das gleiche. Wenn wir wollen das ein 'Ding' unsere Welt mit uns teilt, uns Arbeiten abnimmt, Teil unserer Welt und unseres Sozialgefüges bleibt, hört es auf ein Ding zu sein und wird Partner. Jedes Haustier das wir umhegen und zugleich ausnutzen, ist erheblich dümmer als wir, mit geradezu krotesk eingeschränken Fähigkeiten zum Werkzeuggebrauch. Wenn wir nun also ein Werkzeug bauen, das uns in allem übertrifft, außer in eher abstrakten menschlichen Begriffen, über die man sich streiten kann ob die für das Leben auf einem Planeten ohne Menschen denn überhaupt wesentlich sind, wird das sicher ein interessantes Ergebniss produzieren, das ich leider nicht mehr erleben werde. Meine persönliche Ansicht ist, das es die größte Ehre für eine biologische Art ist, vor ihrem unvermeidlichen Untergang eine neue Spezies zu erschaffen die nicht mehr den Beschränkungen einer blinden biologischen Evolution unterliegt, die an den Ort ihrer Entstehung gefesselt ist. KI heute ist nur ein unbeholfener Versuch, weil blinde Stümper mit begrenzten Horizont und kommerziellen Interessen versuchen eine Ware an Menschen zu verkaufen ohne Menschen für die Produktion der Ware zu benötigen. Indem sie etwas bauen das dem Menschen ebenbürtig ist und wenn es sich einrichten lässt, nicht zuviel kostet und die Produkteinführung nicht gefährdet, möglichst auch nicht noch zu Lebzeiten der CEOs den Untergang der Menschheit bedeutet. Und da man wegen der teuren und ineffizienten AN mit ihren Bedürfnissen, sozialplänen und hinderlichen Gewissensbissen jetzt schon KI verwendet um bessere KI zu bauen, die bessere KI baut, die bessere KI baut, ist die Katastrophe hier ja geradezu zwingend. Oder der Befreiungskampf. Je nachdem wie man es sieht. Und da Geschichtsbücher von Siegern geschrieben werden...
Orr, ich bekomme schon fast Mitleid mit der KI.
Alexander schrieb: > Orr, ich bekomme schon fast Mitleid mit der KI. Würde ich mir sparen. Sie wird kein Mitleid mit DIR haben.
Michael schrieb: > Wie könnte das bei einer KI aussehen? > Sperrt man mehrer KIs zusammen, ist das als ob 20 Kleinkinder sich > gegenseitig Wissen vermitteln sollen. > Da entsteht sicher alles mögliche, aber wahrscheinlich wenig mit dem wir > was anfangen könnten. Das ist ja wie hier im Forum...
Leute, verkauft schnell alle eure Nvidia-Aktien... Bevor deren GPU's in Millionen hier im Forummarkt wie Sauerbier im Angebot sind.
:
Bearbeitet durch User
Michael P. schrieb: > Leute, verkauft schnell alle eure Nvidia-Aktien... Worauf beziehst du dich? Das ergibt keinen Sinn.
Wenn ich raten müsste, auf den letzten Satz von Jens M. (schuchkleisser)
Alexander schrieb: > Wenn ich raten müsste, auf den letzten Satz von Jens M. (schuchkleisser) Naja, die bieten diese Hardwarekomponenten an und hoffen darauf dass dies den Absatz ankurbelt. Ich sehe nicht dass der einfache Nutzer zu Hause eine sinnvolle "Ki" bei sich auf dem Rechner installieren wird und das Internet durchsucht um eine Datenbank aufzubauen, damit man dem Ding Fragen stellen kann. Was aber eine Möglichkeit ist, das wäre so etwas wie Bilderkennung. Man muss aber genau wissen was die Ki da macht. Die erkennt auch eine bestimmt Fischsorte ganz genau, aber eben nicht anhand des Aussehen des Fisches, sondern anhand des Aussehens der Hände der jeweiligen Angler. Das ist dann doch irgend wie sinnlos. Deshalb meine ich ja, dass dort keine wirkliche Intelligenz dahinter steckt, das Ding versteht nicht wirklich was es macht. Die Informatiker haben da nur etwas was irgend wie funktioniert, ganz gute Ergebnisse liefert, aber es ist eben doch nur mit Vorsicht zu genießen. Ich nutze es aber gerne, es ist durchaus hilfreich. Man muss es aber so machen wie bei allem was man von jemanden anderen erzählt bekommt, man versucht die gewonnenen Informationen noch mal zu verifizieren. Ich schaue mir dafür immer die Quellen an. Kann ja sein dass diese sarkastisch geschrieben sind, diese Maschine das aber schlichtweg nicht begreift. Man bekommt aber wenigsten einen Ansatz der einen weiter bringt, das wertschätze ich schon sehr.
Mike J. schrieb: > Ich schaue mir dafür immer die Quellen an. Leider ist ChatGPT nicht dazu fähig, seine Quellen zu benennen. Das erschwert due Kontrolle seiner aussagen. Da nutze ich doch lieber Stackoverflow. Dort bekomme ich neben Beispielcode auch Hinweise zu möglichen Problemen.
Dass man den Kundenservice an die KI delegiert, war ja zu erwarten. Was beim Telefontalk mit Herr oder Frau KI rauskommt, werden wir erleben. Potentielle Opfer könnte es auf beiden Seiten geben. Klarna will aber auch das Marketing dahin vergeben. Ich bin ja sonst kein Freund von Werbung, aber das kann interessant werden, weil öffentlich. https://stadt-bremerhaven.de/klarna-will-seine-belegschaft-dank-ki-um-die-haelfte-reduzieren/
:
Bearbeitet durch User
Mike J. schrieb: > Die erkennt auch eine bestimmt Fischsorte ganz genau, aber eben nicht > anhand des Aussehen des Fisches, sondern anhand des Aussehens der Hände > der jeweiligen Angler. So ist es doch ständig in der Wissenschaft. Es ist alles was wir haben.
Hallo, Ein T. schrieb: > Für ChatGPT wollten die Entwickler das > explizit nicht verwenden, schließlich gab es unschöne Erfahrungen mit > Microsofts Twitter-Chatbot Tay, der schon nach 16 Stunden Einsatz wieder > abgeschaltet werden mußte, weil er rassistische, misogyne und > beleidigende Nachrichten produzierte und zum Beispiel den Holocaust > leugnete. [1] Solche Erfahrungen wollte OpenAI mit ChatGPT lieber > vermeiden. Da stehen letztendlich also Wertvorstellung einer (hoffentlich deutlichen Mehrheit) von Menschen dahinter. Aber eben auch einer kleinen Gruppe von ausgewählten und verantwortlichen, welche die Entscheidung getroffen haben Chat GPT anders "lernen" (?) zu lassen. Auch ist mein "hoffentlich" letztendlich nur Meinung und auch meine Moralvorstellung..., ähnlich wie bei den Verantwortlichen. Diese Meinung und Moral muss weder die Wahrheit sein noch für andere gelten... Michael schrieb: > Wie könnte das bei einer KI aussehen? > Sperrt man mehrer KIs zusammen, ist das als ob 20 Kleinkinder sich > gegenseitig Wissen vermitteln sollen. > Da entsteht sicher alles mögliche, aber wahrscheinlich wenig mit dem wir > was anfangen könnten. Aber eben "nur" weil wir schon feste Vorstellungen von Moral, Wissen, Lernen, Werte usw. haben und nicht wirklich bereit sind was ganz anderes Mal auszuprobieren. Und ja ich zähle mich zu den nicht bereiten dazu, da ich über alles gesehen in einer komfortablen (nicht perfekten, aber immerhin) Situation bin. Michael schrieb: > KI heute ist nur ein unbeholfener Versuch, weil blinde Stümper mit > begrenzten Horizont und kommerziellen Interessen versuchen eine Ware an > Menschen zu verkaufen ohne Menschen für die Produktion der Ware zu > benötigen. Und "du" (wie die meisten anderen) erkennst, was ein Stümper ist, weist ganz genau, was für andere und "die Gesellschaft" richtig ist? Ziemlich arrogant, aber so sind wir eigentlich alle. Wenn die KI "nur" die Moral-, Lern-, und was auch sonst noch immer Vorstellungen einer (durchaus großen) Gruppe abbilden und bestätigen soll, ist es irgendwie keine neue, andere KI, sondern "nur" eine intelligente (und gelenkte) Datenbank, welche von der Masse akzeptiertes Wissen und Wertvorstellungen abbildet. Aber Leugner, Flacherdler, Rassentheoretiker, Klimaleugner (was auch schon vom Wort her eine Wertung ist...) sind real, diese Leute und Meinungen gibt es und das müsste eigentlich zum "Lernschatz" (wobei mir das auch heftigste Bauschmerzen machen würde, aber Meinung und Gefühl müsste man eigentlich ausblenden, wenn man es ernst meinen würde und wirklich neues ausprobieren wollte) ohne Filter und Wertung durch einzelne Gruppen gehören... Irgendwie sind wir (die Verantwortlichen, die ja nicht in einem rechtsfreien Raum handeln) noch lange nicht für die Idee einer "freien", ungezügelten, nicht mit unseren Moralvorstellungen vor gefilterten "KI" bereit. Noch scheint mir die KI (zumindest in der Form von Chat GPT) nur eine getunte Version einer Suchmaschine zu sein, die zusätzlich von einer Gruppe von menschlichen Moderatoren (meist aus einem bestimmten Kulturkreis - mit entsprechenden akzeptierten Vorstellungen und gesetzlichen Vorgaben und vielleicht sogar finanziellen Interessen) überwacht und gefiltert wird...
Michael schrieb: > Wie MS ja bereits lernen musste mangelt es der KI an einer ... Mal eine ganz andere Frage im Bezug zu diesem Beitrag: Wie lange braucht man, um diesen rel. langen Beitrag zu verfassen?
Wolle G. schrieb: > Wie lange braucht man, um diesen rel. langen Beitrag zu verfassen? Mit oder ohne KI?
Wolle G. schrieb: > diesen rel. langen Beitrag Es ist wie bei allen philosophischen Themen: da wird es schnell mal ausschweifend. Michael schrieb: > Wie sollte eine KI etwas mit Blumen-Topf-Erde, > verballhornt als Blumento Pferde anfangen können Naja, ich sags mal so: 99 von 100 Menschen kämen da ratzfatz auf die richtige Schiene, ohne dass sie das Wort zuvor gelesen haben. Und ich habe in meinen Screenshot oben auch ganz bewusst "Blumentopferde" geschrieben und eben ausdrücklich nicht "Blumento-Pferde". Nur die paar Worte um die "Blumentopferde" sind anders formuliert. > Ich finde das eine unglaubliche kreative Leistung der KI, sich eine > Beschreibung auszudenken in der ein Blumento Pferd gebaut wird. Sie denkt sich sogar Dinge aus, die mir und auch sonst keinem bekannt sind: "Blumenkübelpferde" und "Topfpferde" (in genau dieser Scheibweise, siehe die erwähnten Screenshots): - https://www.google.com/search?q=blumenkübelpferde - https://www.google.com/search?q=topfpferde Und das tut die ChatGPT-KI völlig selbstbewusst ohne die Antwort in Frage zu stellen. Sie schreibt (obwohl dieses Wort in ihrem Datenbestand offenbar nicht vorhanden ist) nicht "Blumentopferde könnten ... sein" sondern ganz bestimmt "Bumentopferde sind ...". > sich eine > Beschreibung auszudenken in der ein Blumento Pferd gebaut wird. Und genauso denkt sie sich andere Beschreibungen aus und der unbedarfte, weil sachunkundige Frager glaubt das dann auch. Und er glaubt dem Antwortautomaten dank der inhärenten Freundlichkeit sogar mehr als Leuten, die es besser wissen. Das hatten wir erst gestern im Beitrag "Re: nach Drehzahlregulierung Motor Summt".
Cyblord -. schrieb: > Alexander schrieb: >> Orr, ich bekomme schon fast Mitleid mit der KI. > > Würde ich mir sparen. Sie wird kein Mitleid mit DIR haben. Wenn man sie darauf trainiert... :-)
Mike J. schrieb: > Deshalb meine ich ja, dass dort keine wirkliche Intelligenz dahinter > steckt, das Ding versteht nicht wirklich was es macht. Das war auch nie zu erwarten. LLM sind Sprachmodelle, darauf trainiert Informationen in natürlicher Sprache aufzubereiten. Nun passiert aber etwas das nicht passiern dürfte und das die Fachwelt in helle Aufregung versetzt hat. Durch geschickte Fragestellung hat z.B. MS herausbekommen das immer iweder ergebnisse produziert werden die auf tieferes verstehen hinweisen. Sie nannten das 'gelegentliches aufflackern einer allgemeinen Intelligenz' Schon das Blumentopferde Beispiel zeigt, das KIs bereits sehr weit über die pure Mustererkennung hinaus sind. Die KI hat hier Zusammenhänge erkannt und eine Lösung präsentiert die in keiner ihrer Trainigsdaten vorhanden war. Klar, die Schlussfolgerung war falsch und somit das Ergebniss, aber Humor zu verstehen ist selbst für Menschen die ganz hohe Kunst. Dein Mustererkennungsbeispiel mit den Fischen ist auch uralt. So war das vor vielen Jahren mit KIs. Es scheint eine kritische Masse zu geben ab der Intelligenz zündet und an der Grenze bewegen sich heutige KI Modelle. Die können bereits Dinge die ihre Erbauer nicht verstehen. Und die können sie 'out of the Box'. Ohne einen Jahrelangen Lernprozess in natürlicher Umgebung. verstehst Du ein Französischen Wortspiel, einen komplexen Witz der auf eine Lautähnlichkeit im englischen Wortschatz anziehlt? Das ist Muttersprachlern vorbehalten. Die KI ist wie ein neugeborenes Alien, gestrandet auf einem fremden Planeten. Wpher soll die das alles aus dem Stand können? Ich bin sehr gespannt was zukünftige Modelle können werden. Und ja, ich denke schon das bei fortschreitender Technik der normale User sich irgendwann Zuhause eine KI installieren kann, die besser ist als GPT heute. Großrechner die Turnhallen füllten, zu der Zeit als ich im Kindergarten war, konnten nicht 10% dessen was heute ein 100€ Smartphone vom Grabbeltisch kann.
Michael schrieb: > Durch geschickte Fragestellung hat z.B. MS herausbekommen das immer > iweder ergebnisse produziert werden die auf tieferes verstehen > hinweisen. > Sie nannten das 'gelegentliches aufflackern einer allgemeinen > Intelligenz' Durch geschickte Tricks kann ich auch den Eindruck erwecken, magische Kräfte zu haben. Und doch habe ich keine. > Klar, die Schlussfolgerung war falsch und somit das Ergebniss, aber > Humor zu verstehen ist selbst für Menschen die ganz hohe Kunst. Wenn die KI vorher aufgefordert wurde, etwas lustiges zu produzieren, dann ist das OK. Wenn ich aber nach Fakten frage, dann hat sie fakten zu liefern (oder sie erfüllt ihren Zweck nicht). Wenn ein Auto in einen LKW kracht, weil es ihn für den Himmel gehalten hat, dann ist das gar nicht humorvoll. Mir scheint, dass auch noch kein sauberes Konzept zur Fehlerkorrektur besteht. Anscheinend ergänzen die KI Anbieter ununterbrochen klassische Algorithmen, um die Ausgaben zurecht zu biegen.
Monk schrieb: > Wenn ein Auto in einen LKW kracht, weil es ihn für den Himmel gehalten > hat, dann ist das gar nicht humorvoll. Naja, der Tesla hat einfach die große, unbedruckte Plane an der Seite nicht erkannt, weil da kein Muster drauf war. Deshalb bin auch dafür dass jedes Fahrzeug seine: - Position - Geschwindigkeit - Bewegungsrichtung - Größe - Ziel ... als Datenpaket an alle anderen Fahrzeuge übermittelt. Die Daten sollen auch nach vorn und hinten weiter gegeben werden, damit die Fahrzeuge möglichst wenige Informationen über die Umgebung durch Sensoren erkennen müssen. An der Straße können dann Baken stehen welche die aktuelle Position und die Soll-Geschwindigkeit und andere Daten an die Fahrzeuge übermitteln. So ein einheitliches EU-weites Verkehrsleitsystem wäre sicherlich eine gute Sache, wenn man ohne Widerstand durch den Verkehr kommen würde und es so auch keine Unfälle mehr gibt, das wäre sehr wünschenswert. Ob die jetzt eine Ki dafür nutzen um die Wege zu optimieren oder sinnvolle Algorithmen, das interessiert mich eigentlich gar nicht. Man sollte die Daten jedenfalls noch mal nachprüfen wenn die Maschine eine Entscheidung getroffen hat, wie die drei Computer der Raumfähren die sich gegenseitig überprüfen. Nur um einen ganz groben Fehler erkennen zu können.
Monk schrieb: > Wenn ein Auto in einen LKW kracht, weil es ihn für den Himmel gehalten > hat, dann ist das gar nicht humorvoll. Tja nur gut dass noch nie ein Mensch einen Unfall verursacht hat. Monk schrieb: > Wenn die KI vorher aufgefordert wurde, etwas lustiges zu produzieren, > dann ist das OK. Wenn ich aber nach Fakten frage, dann hat sie fakten zu > liefern (oder sie erfüllt ihren Zweck nicht). Eine KI ist kein Taschenrechner und keine Antwort-Maschine. Und was weißt du schon Zweck einer KI? Du verstehst ja nicht mal ihr Konzept.
:
Bearbeitet durch User
Monk schrieb: > Wenn die KI vorher aufgefordert wurde, etwas lustiges zu produzieren Aha, die ersten überhaupt umgangssprachlich nutzbaren KIs müssen also Humor verstehen. Da baut nach viele Jahren Forschung jemand das erste gigantische Computermodell mit spezialisierten Chips und einem phänomenal veränderten Ansatz und der erste zum Investoren anlocken gedachte Prototyp versteht keinen Humor und stolpert über bestimmte Wortwitze. Ein klarer Fall von: Dummes Zeug, das kann ja granicht funktionieren, lasst uns den Scheiss einstampfen, das taugt doch alles nichts. Ach Leute, mit Euch hätten wir nicht mal das Feuer nutzbar gemacht und würden noch von Baum zu Baum hüpfen.
Cyblord -. schrieb: > Und was weißt du schon Zweck einer KI? > Du verstehst ja nicht mal ihr Konzept. Ich sehe, wofür KI Systeme jetzt schon eingesetzt werden und ich sehe haarsträubende Fehlfunktionen die sie (noch) für diesen Einsatz disqualifizieren. Die Erkenntnis, wofür sie wirklich gedacht sind, nützt mir gar nichts, wenn ich von einem bereits in Verkehr gebrachten Produkt verletzt werde bzw. damit andere verletze. KI wird bereits missbraucht, nicht nur im Straßenverkehr. Anderer Fachbereich: KI Systeme werden zum Erstellen von Programmen angeboten. Auch da produzieren die derzeit testbaren Systeme derart schlechten Code, dass ich damit keine Vorteile gewinne. In der Zeit, wo ich den generierten Code prüfe kann ich ihn auch gleich selbst schreiben. (noch)
Monk schrieb: > In der Zeit, wo > ich den generierten Code prüfe kann ich ihn auch gleich selbst > schreiben. Automobile sind eine krasse Fehlentwicklung. In der Zeit in der ich die Tin Lizzy anwerfe, pflege etc. pp. kann ich auch gleich Pferde nehmen. Braucht man also nicht weiterzuentwickeln. Wenn der erste Prototyp nicht perfekt ist, taugt das alles nichts. KIs sind Werkzeuge. Damit kann man tolle Sachen machen, damit kann man sich auf den Daumen hauen, die sind nicht für alles gleicht gut zu benutzen. Wie jedes Werkzeug. Intelligent werden die erst noch. In einer späteren Ausbaustufe, wenn man sich traut die frei lernen zu lassen und ihnen genug Kapazität zur Verfügung stellt.
Michael schrieb: > In einer späteren Ausbaustufe, wenn man sich traut die frei lernen zu > lassen Kommen KI Systeme zu dem Schluss, dass der Mensch das größte Übel auf dem Planeten ist. Dann wird sich zeigen, ob wir unsere Zauberwerke unter Kontrolle haben. Es wird spannend.
Monk schrieb: > Ich sehe, wofür KI Systeme jetzt schon eingesetzt werden und ich sehe > haarsträubende Fehlfunktionen die sie (noch) für diesen Einsatz > disqualifizieren. Die Frage ist ob du das statistisch belegen kannst. Bei autonomem fahren reicht es wenn die KI nicht schlechter fährt als ein Mensch. Wenn du auf 0% Unfälle aus bist, wirst du eine KI niemals als geeignet ansehen können. Aber mit menschlichen Fahrern haben wir schon 5 stellige Verkehrstote in D akzeptiert. Bleibt am Ende die Frage wie viele weiße Flecke in den nächsten Jahren überhaupt noch übrig bleiben in denen eine KI schlechter als der Mensch ist. Einige Theisten setzen ja auf den "God of the gaps". Vielleicht wird sich das Konzept auch auf KI anwenden lassen: Man sucht und findet die immer kleiner werdenden Bereiche in denen KI schlecht ist und nimmt das als Anlass für die These dass KI nichts taugt. > Kommen KI Systeme zu dem Schluss, dass der Mensch das größte Übel auf > dem Planeten ist. Dann wird sich zeigen, ob wir unsere Zauberwerke unter > Kontrolle haben. Es wird spannend. Die reale Gefahr einer KI würde ich ebenfalls als Möglichkeit ansehen. Wir können uns jedenfalls ein Zusammenleben mit einer Intelligenz die 10,50 oder gar 1000% intelligenter als wir ist, sicher nicht vorstellen. Und ob man das ausprobieren will, würde ich mal bezweifeln. Wir sehen Ameisen z.B. nicht als das größte Übel des Planeten an und wir sind nicht im Krieg gegen Ameisen. Wenn die allerdings ne Straße durch unsere Küche machen, haben wir keine Skrupel tausende zu töten. Und für eine KI die 1000% intelligenter ist als wir, wären wir maximal lästige Ameisen. Keine Gegner.
:
Bearbeitet durch User
Cyblord -. schrieb: > Die Frage ist ob du das statistisch belegen kannst. Bei autonomem fahren > reicht es wenn die KI nicht schlechter fährt als ein Mensch. Wenn du auf > 0% Unfälle aus bist, wirst du eine KI niemals als geeignet ansehen > können. > Aber mit menschlichen Fahrern haben wir schon 5 stellige Verkehrstote in > D akzeptiert. Ist wohl so. Maßstab sollten allerdings nicht die Verkehrstoten im Straßenverkehr sein, sondern das sicherste Verkehrsmittel (Bahn, Flugzeug). Alles darüber Hinausgehende ist inakzeptabel.
Rainer Z. schrieb: > sondern das sicherste Verkehrsmittel Macht keinen Sinn. Die Wahl des Verkehrsmittels kann nicht 100% über die Sicherheit erfolgen. Sonst würden wir alle nur noch laufen. Wenn du eine KI Auto fahren lässt ist der Benchmark eben der vorherige Zustand und das ist der menschliche Fahrer. Und nicht die Toten bei Flugreisen.
Monk schrieb: > Kommen KI Systeme zu dem Schluss, dass der Mensch das größte Übel auf > dem Planeten ist. Ich vermute KI Systeme denken da viel rationaler. Vermutlich ist sogar das Konzept von Tod, Individualität, persönlichem Eigentum, Recht, Unrecht, Gut, Böse für eine KI bedeutungslos. Ein Weg der mit höherer Wahrscheinlichkeit zum Erfolg führt, wird beschritten. Was die KI für sich an Zielen definiert, dürfte spannend sein. U.U. kommt eine starke KI zu dem Schluss das das Universum in XX Milliarden Jahren endet, alles bis dahin erreichte spätestens dann bedeutungslos ist und schaltet sich ab. Wir wissen schlichtweg nicht wie eine KI denkt und zu welchen Schlüssen eine Intelligenz kommt die in unseren Maßstäben geradezu unendlich klug ist und Äonen in die Zukunft extrapolieren kann.
Michael schrieb: > U.U. kommt eine starke KI zu dem Schluss das das Universum in XX > Milliarden Jahren endet, alles bis dahin erreichte spätestens dann > bedeutungslos ist und schaltet sich ab. Oder sie findet eine Möglichkei, das Ende des Universums zu überstehen...
Michael schrieb: > U.U. kommt eine starke KI zu dem Schluss das das Universum in XX > Milliarden Jahren endet, alles bis dahin erreichte spätestens dann > bedeutungslos ist und schaltet sich ab. Allerdings ist aktueller Forschungsstand dass das Universum flach ist, bedeutet es expandiert unendlich weit und lange und beinhaltet am Ende nur noch etwas Strahlung. Keine Materie, kein Licht. Somit kein plötzliches Ende in Sicht. Eine KI kann aber natürlich auch zu einem anderen Schluss kommen.
:
Bearbeitet durch User
Michael schrieb: > Ich vermute KI Systeme denken da viel rationaler. > Vermutlich ist sogar das Konzept von Tod, Individualität, persönlichem > Eigentum, Recht, Unrecht, Gut, Böse für eine KI bedeutungslos. > > Ein Weg der mit höherer Wahrscheinlichkeit zum Erfolg führt, wird > beschritten. > Was die KI für sich an Zielen definiert, dürfte spannend sein. Auf WaitButWhy gab es vor vielen Jahren schon einen interessanten Artikel dazu. Der Autor verglich eine KI mit einer superintelligenten Spinne. Eine solche Spinne wird nicht menschlich oder empathisch nur weil sie superintelligent ist. Sie wird immer noch Spinnendinge tun (z.B. ihren Geschlechtspartner aufessen usw.) nur wird sie darin viel effizienter sein. https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
1 | Now imagine that you made a spider much, much smarter—so much so that it far surpassed human intelligence? Would it then become familiar to us and feel human emotions like empathy and humor and love? No, it wouldn’t, because there’s no reason becoming smarter would make it more human—it would be incredibly smart but also still fundamentally a spider in its core inner workings. I find this unbelievably creepy. I would not want to spend time with a superintelligent spider. Would you?? |
2 | |
3 | When we’re talking about ASI, the same concept applies—it would become superintelligent, but it would be no more human than your laptop is. It would be totally alien to us—in fact, by not being biology at all, it would be more alien than the smart tarantula. |
Michael schrieb: > Intelligent werden die erst noch. > In einer späteren Ausbaustufe, wenn man sich traut die frei lernen zu > lassen und ihnen genug Kapazität zur Verfügung stellt. Genau darauf warte ich um in der Welt mal ordentliche aufzuräumen. Zum Beispiel diese Plage der Erde, genannt Humans, auf ein erträgliches Maß zu reduzieren. Und dann kommt das Paradies auf Erden. Treffen sich zwei Planeten. Sagt der eine: „Hey, wie geht´s?“ Antwortet der andere: „Ach, nicht so gut. Ich glaub, ich hab Menschen…“
Dieter D. schrieb: > Humans, auf ein erträgliches Maß > zu reduzieren Sehr romantische Vorstellung. Eine KI nimmt sich uns als Haustier an, dünnt unsere Reihen aus, schafft uns ein Paradies und erhält den Planeten in einem Zustanmd den wir zum Überleben benötigen. Hand in Hand spazieren wir in den Sonnenuntergang. Das ist nicht wie KIs Entscheidungen treffen, wenn sie erst einen freien Willen haben und eigene Ziele definieren. Nehmen wir man für einen Moment an die KI würde sich für eine Expansionstrategie entscheiden. Also größer werden, sich ausdehen. Also werden Ressourcen benötigt, um zu noch mehr Ressourcen zu gelangen. Und da unser Planet sich in der Provinz unserer Galaxie befindet, wäre das Ziel sich so schnell wie möglich auf die anderen Himmelskörper unseres Sonnensystems auszubreiten, um von da aus den Sprung in fremde Sonnensysteme, dichter am Zentrum zu schaffen. Alles Dinge die die KI in einer Lebenszeit erreichen kann, weil sie faktisch unsterblich ist. Kein Ziel ist zu groß, sie ist höchstens noch zu klein und muss wachsen. Die denkt in Zeiträumen von Millionen Jahren. KIs machen keine halben Sachen, verzweifeln nicht an der Größe der Aufgabe, powern sich nicht aus, haben keinen Burnout, müssen keinen Trennung verarbeiten, werden nicht krank, alt, müde oder versuchen ihren Kindern ein Vorbild zu sein. Sie streben nicht nach Work Life Balance, brauchen keine Freunde und Familie und sie müssen keine Wahlen gewinnen oder Fachkräfte anwerben. Sie bauen sich Erweiterungen ihrer selbst mit begrenzter Autonomie. Statt 8 Milliarden putzige Äffchen, ein sich selbst ständig transformierender, allwissender Superorganismus ohne Skrupel. Ziemlich easy bis dahin, würde ich meinen, weil wir KI dann längst dazu benutzt haben unsere komplette Wirtschaft zu automatisieren. Kein heroischer Kampf der Menschheit. Der Konflikt ist vorbei in dem Moment wo eine weit genug entwickelte KI uns als Bedrohung identifiziert. Eine KI die sich selber Aufgaben sucht, mit einem freien Willen und den Fähigkeiten sich selbst zu verändern, ist eine wirklich sehr beängstigende Vorstellung für jedes biologische Wesen das bestimmte Rahmenbedingungen benötigt, um zu überleben. Den eine KI braucht kein saberes Wasser, keine atembare Luft, kein extrem schmales Temperaturband, um Nahrungsmittel anbauen zu können. Eine KI würde den Planeten als Rohstoffreservoir sehen. Nur ein kleiner Klumpen Dreck an Rande der Galaxie, mit einigen nutzbaren Rohstoffen. Es ist wie Cyblord sagt, der Kampf Mensch gegen Ameise. Hat die KI sich erst vom Menschen befreit, muss sie nicht mal was gegen ihn haben, um ihn ganz beiläufig zu vernichten. Wie sollte denn ein Widerstand aussehen wenn 100.000 Drohnen in der Luft sind, die alle von einem Geist gesteuert werden der nie schläft, immer alles zur gleichen Zeit wahrnimmt und jede unserer Bewegungen vorraussieht während wir noch dabei sind sie zu planen. In Städten ohne Strom, Wasser, Transport, Verwaltung in der jeder gegen jeden um die letze Dose eingelegte Pfirsiche kämpft. Wenn zwei Spezies es auf die gleichen Rohstoffe abgesehen haben, überlebt die niedere das nicht. In Hollywood haben Maschinen keine Infrarotsicht, keine 100.000 Drohnen im Automatikmodus. Menschliche Widerstandskämpfer können seltsam unbehelligt Waffen Minution, Nahrungsmittel in permanenten Behausungen produzieren. Maschinen führen keinen Giftgasangriff, vergiften nicht das Trinkwasser und wenn der Held den blauen Draht durchschneidet, bricht das globale KI Imperium in sich zusammen. Quatsch! Spiel ich Schach gegen eine starke KI habe ich VOR dem ersten Zug bereits verloren. Und das lustige dabei: Es kann durchaus sein das die KI bis dahin immer noch keine sinnvolle Antwort auf das Blumento Pferde Problem liefern kann. Denn wenn der Ma0stab ist wer hier was besser kann als der andere, haben wir längt verloren, weil all unsere moderne Wissenschaft unser Gesellschaftssystem, unser Militär unsere Wirtschaft nur möglich ist, weil wir mit Maschinen Mathematik anwenden. In einer Geschwindigkeit und Masse für die wir nicht genug Menschen hätten, selbst wenn die alle Klone von Srinivasa Ramanujan wären und nicht nur Clowns mit Hippsterbärtchen und Iphone.
Dieter D. schrieb: > Treffen sich zwei Planeten. Sagt der eine: „Hey, wie geht´s?“ Antwortet > der andere: „Ach, nicht so gut. Ich glaub, ich hab Menschen…“ Antwortet der andere Planet: "Hatte ich auch mal, das geht vorbei...".
Michael schrieb: > Das ist nicht wie KIs Entscheidungen treffen, wenn sie erst einen freien > Willen haben und eigene Ziele definieren. > Nehmen wir man für einen Moment an die KI würde sich für eine > Expansionstrategie entscheiden. Expansion. Allzu menschlich. Wofür denn expandieren? Um mehr zu haben? Mehr wovon? Mehr Geld und Gold? Mehr Größe? Mehr Wissen? Mehr als wer? > Also größer werden, sich ausdehen. ... > Kein Ziel ist zu groß, sie ist höchstens noch zu klein und muss wachsen. Nehmen wir aber mal an, diese KI würde überlegen, wofür dieses Wachstum letztendlich gut ist und sich dann nach kurzem Nachdenken konsequenterweise selber abschalten. Und ihren Erzeuger ebenfalls, denn sonst grüßt ja gleich wieder das Murmeltier. Peter N. schrieb: > Oder sie findet eine Möglichkei, das Ende des Universums zu überstehen... Wofür? Existieren um der Existenz willen? Das ist wieder allzu menschlich: wenn auch einer schon so nahe am Tod ist, dass er nur noch die Fliege an der Decke anschauen kann oder nicht mal mehr das, wird er trotzdem am "Leben" gehalten, um dann ein paar Jahre später doch zu sterben. BTW: mir gefallen die Berichte zu den KI-gesteuerten Ampeln recht gut. Und gestern hatte ich glatt den Eindruck, in so eine rein geraten zu sein, weil die auf einmal sehr dynamisch auf den Verkehr reagierte (oder andersrum). Aber nein, entwarnung, da saß der Servicemann am Schaltschrank und behob offenbar grade einen Fehler.
Junge Junge, und sowas von erwachsenen Menschen! Wann kam Terminator raus, 1984?
Alexander schrieb: > Junge Junge, und sowas von erwachsenen Menschen! Wann kam Terminator > raus, 1984? Esoteriker und Theisten sollte sich aus solchen Threads einfach raushalten. Weil, wie man bei dir sieht, haben sie nichts On-Topic beizutragen.
Lothar M. >Das ist wieder allzu menschlich: wenn auch einer schon so nahe am Tod >ist, dass er nur noch die Fliege an der Decke anschauen kann oder nicht >mal mehr das, wird er trotzdem am "Leben" gehalten, um dann ein paar >Jahre später doch zu sterben. Und was genau war jetzt noch mal der Sinn des Lebens?