Ich bin seit langem im Bereich Data Science unterwegs und habe den Aufstieg der aktuellen AI Modelle miterlebt. Vom Revival der künstlichen neuronalen Netze in den 90ern, hin zu SVM und jetzt die ganzen Deep Networks. Bisher habe ich das alles recht positiv gesehen, aber mit dem Masseneinsatz stellt sich mir zunehmend die Frage, ob man nicht einen gigantischen negativen Feedbackloop erschaffen hat? Konkret meine ich: die aktuelle KI beruht auf Modellen, die gut funktionieren, weil sie auf riesigen, human erzeugten Datenbergen trainiert wurden. Dadurch wird es jetzt enorm billig, ähnliche Daten zu erzeugen. Die Kosten, menschliche Daten zu erzeugen, sinken jedoch nicht / kaum. Entsprechend sinkt der Anreiz, alles das mit billigen KI-Daten erledigen zu lassen, was sich damit erschlagen lässt. Die KI gräbt sich damit aber selbst die Trainingsdaten ab - und wir steuern auf eine Welt zu, in der es sich nicht mehr lohnt, neue "Expertendaten" zu erzeugen, da zu teuer. Drei Beispiele: Statt Radiologen beurteilt die KI Röntgenbilder. Es lohnt sich also nicht mehr, Radiologe zu werden oder Expertise in dem Feld anzusammeln, da die KI eh 99,9% der Fälle ähnlich / besser diagnostiziert. Die 0.1% sind zwar der Fortschritt, aber dafür die Unmengen an Geld für die Ausbildung von qualifizierten Radiologen zu bezahlen wird sich nicht mehr lohnen. Entsprechend sinkt der Kreis derer, die überhaupt noch humane Expertise haben. Die AI Kunstgeneratoren wie Stable Diffusion oder Dall-e führen dazu, dass Künstler statt Pinsel und Farbe diese Dinger verwenden. Neues entsteht nicht mehr, sondern nur noch der Remix vom Remix. ChatGPT-ähnliche Suchmaschinen: diese sammeln zwar alle Daten aus dem Netz auf, umgehen dabei aber die Entlohnung des Autors. Die Information bekommt der Kunde direkt von Google und Co., aber die Webseiten auf denen sie basiert bekommen keinen Traffic mehr und sterben aus. Was meint Ihr zu diesem Szenario? Realistisch?
:
Verschoben durch Admin
Jemin K. schrieb: > sammeln zwar alle Daten aus dem > Netz auf, umgehen dabei aber die Entlohnung des Autors. Die Information > bekommt der Kunde direkt von Google und Co., aber die Webseiten auf > denen sie basiert bekommen keinen Traffic mehr und sterben aus. Schlimm wird es, wenn die KI zu fleißig wird.
Jemin K. schrieb: > Was meint Ihr zu diesem Szenario? Realistisch? Die KI sieht dann auch wie nutzlos der Mensch ist und wie viel Dreck auf der Welt dieser verursacht. Die KI wird dann beschließen mal so richtig aufzuräumen. Die KI wird es wie die Förster machen. Wenn es zu viel Naturverbiss gibt, einfach abknallen bis die Zahlen so niedrig sind, das die Natur das wieder verkraftet. Insgesamt ist daher alles im grünen Bereich.
Genau das wird nicht passieren. Dafür müsste jemand eine KI programmieren, deren Anreizsystem entsprechend ausgerichtet ist.
Ich frage mich gerade, ob alle Posts in diesem Thread KI generiert sind. Einschliesslich meinem.
Jemin K. schrieb: > Die KI gräbt sich > damit aber selbst die Trainingsdaten ab - und wir steuern auf eine Welt > zu, in der es sich nicht mehr lohnt, neue "Expertendaten" zu erzeugen, > da zu teuer. Kann schon sein. Das Internet ist mit der Kommerzialisierung auch immer schlechter geworden, aber gleichzeitig wichtiger denn je. Also ich denke schon, dass es zu Verschiebungen durch die KI kommen wird. > Drei Beispiele: > > Statt Radiologen beurteilt die KI Röntgenbilder. Jetzt ist es doch auch schon so, dass die Radiologen in erster Linie die Investoren sind, und halt nebenher noch die Befunde schreiben. Die eigentliche Arbeit machen dann die Fachärzte. Auch mit KI wird es heißen, dass man ja jemand für die Bedienung der KI braucht. > Die AI Kunstgeneratoren wie Stable Diffusion oder Dall-e führen dazu, > dass Künstler statt Pinsel und Farbe diese Dinger verwenden. Neues > entsteht nicht mehr, sondern nur noch der Remix vom Remix. Ich glaube eher, dass dann wieder mehr der Pinsel geschwungen wird, oder 3-Dimensional gekünstelt. Bei der Einführung der Fotografie ist ja auch die realistische Malerei "eingebrochen". das ist ja die Kunst an der Kunst, dass man neues Schafft. > ChatGPT-ähnliche Suchmaschinen: diese sammeln zwar alle Daten aus dem > Netz auf, umgehen dabei aber die Entlohnung des Autors. Die Information > bekommt der Kunde direkt von Google und Co., aber die Webseiten auf > denen sie basiert bekommen keinen Traffic mehr und sterben aus. Ist ja schon bei den Suchmaschinen so. Es werden sich weiterhin Geschäftsmodelle (leider?) finden. Andererseits denke ich, wird die KI überschätzt bzw. die Stärken und Schwächen nicht richtig verstanden. Siehe ChatGPT, liefert tolle Sätze, auch ersteanliche Informationen, das meiste ist aber nur Bla-bla und noch mehr ist einfach falsch. KI skaliert sehr gut, findet bspw ein Gesicht aus Milliarden von Bildern, kann aber immer nur spezialisierte Aufgaben erfüllen, und deshalb nie die Tiefe von menschlicher Intelligenz erreichen. Ist wie mit der Mechanik, man kann 'leicht' Fahrzeuge bauen, die schneller als ein Mensch sind, eine zigfache Menge an Ladung transportieren, eine akkurate Positionierung haben usw. Aber man schafft keine Maschine, die sich selber heilen kann, oder die so vielfältige Aufgaben lösen kann, wie ein Mensch.
Anbei eine treffende Erklärung zur KI: Quelle: https://www.programmwechsel.de/lustig/mann-frau/blondinen-witze.html Was ist künstliche Intelligenz? Eine brünett gefärbte Blondine! Nun wisst Ihr es, oder? Und noch vier Stunden bis Freitag!
Dieter schrieb: > Die KI sieht dann auch wie nutzlos der Mensch ist und wie viel Dreck auf > der Welt dieser verursacht Im Gegenteil, die KI potenziert den Dreck noch. Woran soll sie denn lernen, wenn nicht aus menschlichen Entscheidungen? Ein Personalsystem, dass die bis dahin bestehende Personalpolitik auswertet kann garnicht anders als zu entscheiden dass kaum Frauen eingestellt werden, weil das ja schon immer so war. Und der Zugriff auf das Netz führt zu KI, die Antisemitismus, QAnon, Koronaleugnung usw. wiederholt. Es musste schon KI deswegen wieder vom Netz getrennt werden. Der KI das Grundgesetz beizubringen ist so gut wie unmöglich und auch garnicht erwünscht. Georg
Georg schrieb: > Es musste schon KI deswegen wieder vom > Netz getrennt werden. Die KI hat schön aufgezeigt, wie sehr das in der Natur durch Optimierungsalgorithmen als Tendenz vorgeprägt ist. Es gäbe auch Beispiele dafür aus der Anthroploligie, die so etwas auch belegen. Das betrifft die Amygdala von Rudeltieren. Die KI war in der Personalplanung sogar sehr objektiv gewesen. Nur gefiel das bestimmten Personen nicht. Die KI spuckte auch aus, warum diese zu dem Ergebnis kam. Georg schrieb: > auch garnicht erwünscht. Bei KI in militärischen Gerät ist das sicher so, wie auch bei den undemokratischen Ländern auf der Welt.
> Woran soll sie denn lernen, wenn nicht aus menschlichen Entscheidungen?
Wenn immer mehr des "Trainingsmaterials" KI-generiert ist, werden sie
mit ihren eigenen Ergüssen trainiert - nach einigen Zyklen kommt nur
noch Gebrabbel (Zwischenschritt Französisch? beg) raus.
Die spannende Frage hier ist eher die, was kann man tatsächlich der KI in die Schuhe schieben, was eher nicht, weil sowieso schon vorher da. Sterbende Internetseiten z.B. gab es schon seit Anfang der Internetzeit. Aber da hatte die Suche noch viel mehr Spaß gemacht, als es noch viele interessante Ziele gab. Lebensläufe nach Maß - oder von der Stange, 0815 - möglichst billig abgefertigt - ist kein typisches KI-Thema. Billige Digitaltechnik dagegen schon. Dann gibt es Bereiche, beispielsweise die Wahrscheinlichkeitsrechnung, da ist die KI klar besser als der Mensch. Das noch kombiniert mit großen Datenbanken.. - na gut, man gewinnt bim Schach nicht mehr gegen den Compi - das ist zwar auch ein wenig frustrierend - aber nicht wirklich schlecht. Bei den Röntgenbildern gab es, gibt es vermutlich immer noch, immer Leute, die haben die Bilder besser hinbekommen als andere. Die Frage war dann aber: können die Ärzte, die nur diese "Billig"-Technik beim Röntgen nutzen diese (diese anderen, handoptimierten Bilder) überhaupt noch lesen? -> nein, nicht unbedingt und auch die handwerkliche Performance leidet, was der Kunde bzw. der Patient ausbaden darf. Ein Mangel an Feingefühl sozusagen. Bei den Musikern ist es auch normal, sich bei einem Pool aus der Vergangenheit zu bedienen. Beispielsweise sehr typisch bei der Countrymusik. In manchen Wissenschaftsbereichen ist es auch nicht so schlecht, uralte Artikel von vor 100 oder 200 Jahren zu lesen, um zu erkennen: gewisse aktuelle Thematiken sind eigentlich nur alter Gammel neu aufgegossen. Die besten Kuchenrezepte waren die Handgetauschten. Jetzt hatte meine Mutter aber viele dieser Rezepte, die sie in einer großen Mappe hatte, einfach weggeworfen. (Kuchen backen tut die schon seit längerer Zeit nicht mehr) Auch von der Soziologie her muss man fragen, um gewisse Dinge besser zu verstehen. Warum hatte unser Nachbarbauer seine Schweine in einer großen Schweinegrube gehalten? Das sollten mal die heutigen Kinder erleben, wie gut die Schweine in der Schweinegrube drauf sind. Eine Bäuerin aus der Nachbarschaft da hat mittlerweile eine recht große Hühnerfarm. Man sieht die Hühner beim Vorbeifahren auf der Wiese herumlaufen. Ob das Futter das die Hühner bekommen, auch so gut ist, wie deren Haltung, steht auf einem anderen Blatt. Früher gab es auch Stützräder zum Fahrradfahren. Eines dieser Stützräder (in psycho-sozialer-Hinsicht)sind die Nasrudin-Geschichten. Die Geschichte mit Nasrudin und die Entensuppe kann man googeln. Die kommt selber aber aus einer Zeit von vor so 1000 Jahren.
Maxe schrieb: > Jetzt ist es doch auch schon so, dass die Radiologen in erster Linie die > Investoren sind, und halt nebenher noch die Befunde schreiben. Die > eigentliche Arbeit machen dann die Fachärzte. Ein Radiologe ist ein Facharzt. Der sitzt heute vielleicht am PC statt dass er am Monitor steht, aber er - oder sie - hat eine langwierige Ausbildung hinter sich. Und nur solche Leute sind dann in der Forschung auch geeignet. Jemand der die Standarddiagnosen kennt, die ihm die KI vorsetzt, wird nie das Level von jemandem erreichen, der gezwungen war, sich die Sachen selbst beizubringen weil es halt eben noch keine KI gab. Maxe schrieb: >> Die AI Kunstgeneratoren wie Stable Diffusion oder Dall-e führen dazu, >> dass Künstler statt Pinsel und Farbe diese Dinger verwenden. Neues >> entsteht nicht mehr, sondern nur noch der Remix vom Remix. > Ich glaube eher, dass dann wieder mehr der Pinsel geschwungen wird, oder > 3-Dimensional gekünstelt. Bei der Einführung der Fotografie ist ja auch > die realistische Malerei "eingebrochen". das ist ja die Kunst an der > Kunst, dass man neues Schafft. Ne - die KI macht mittlerweile realistische 3D Modelle und Filme. Alles noch hakelig, aber auf dem richtigen Weg. Im Prinzip gilt: wenn Du es Dir vorstellen kannst, kann eine KI es generieren. foobar schrieb: >> Woran soll sie denn lernen, wenn nicht aus menschlichen Entscheidungen? > > Wenn immer mehr des "Trainingsmaterials" KI-generiert ist, werden sie > mit ihren eigenen Ergüssen trainiert - nach einigen Zyklen kommt nur > noch Gebrabbel (Zwischenschritt Französisch? beg) raus. Exakt meine Befürchtung. Das Netz dürfte bereits jetzt von KI generiertem Content zugespamt werden. Die nächste Runde GPT trainiert dann schon zu einem kleinen Teil auf Content den es selbst erzeugt hat. Mein indischer Kollege erzählt gelegentlich ein Bisschen von zu Hause, die machen mittlerweile so viel wie geht mit KI was Produktbeschreibungen, Werbetexte und Code angeht. rbx schrieb: > Sterbende Internetseiten z.B. gab es schon seit Anfang der Internetzeit. Richtig. Aber neue Webseiten bekamen Traffic. Wer macht noch eine News-Seite auf, die niemand sieht, außer ein, zwei großen KIs, die die Essenz extrahieren und die verschenken? Hier mal ein schönes Beispiel, woe 4chan mit KI-Hass geflooded wurde: https://www.youtube.com/watch?v=efPrtcLdcdM&ab_channel=YannicKilcher Und eine nette Zusammenfassung zu KI 2022: https://www.youtube.com/watch?v=X8i9Op2HSjA&ab_channel=DrAlanD.Thompson
Jemin K. schrieb: > Und eine nette Zusammenfassung zu KI 2022: > https://www.youtube.com/watch?v=X8i9Op2HSjA&ab_channel=DrAlanD.Thompson Spiel ein paar Runden Skyrim, und du fängst an zu weinen. Die Grafik ist top, die Steuerung auch ganz gut, aber ein paar wichtige Hausaufgaben wurden liegen gelassen, und andere wichtige Zusatzarbeiten hinsichtlich des Klänge (Vogelgezwitscher, polternde Wasserfälle, Grillen zirpen, Mäuse rascheln im Laub usw.) und Sprachen ebenfalls (ständig nervtötende Wiederholungen). Aber nach 10 Jahren darf man endlich eine Angel einsetzen.. Unter Linux muss man auch ein paar Klimmzüge machen, damit man überhaupt Musik oder Sprachen hören kann. Das UI ist ganz gut, aber weil ein einfacher Mausbalken, oder eine kleine Sortierhilfe fehlt, einfach Sch.. In Diablo2 gab es immer interessante Bot-Erscheinungen. Navigation und Autofahren ist so eine Sache. Da müsste mehr normierte Standard-Hardware her. Als ich anfing mit dem Studium, da konnte man noch fragen: Wie bekommt man ein Navigationssystem auf einen grünen Zweig? Mittlerweile hat sich eine Menge getan, und man kann die Navigationsgeräte wohl ganz gut nutzen. Wer aber Braunschweig kennt, der weiß auch, dass da ständig umgebaut wird (Baustelle überall). Das geht zwar nicht so schnell - aber man müsste immer wieder Anpassungen machen. Irgendwann wurden auch die Ampelschaltungen besser, was war das früher immer für ein Horror, in der Innenstadt herumzufahren. Die ersten guten Erfahrungen mit grüner Welle hatte ich in Frankfurt (a.M) gemacht. (irgendwie hatte Frankfurt oft so was nettes im Angebot.) Dass bereits Eliza ziemlich gut ist bzw. sein kann, ist nichts neues. Warum das ganz gut gehen muss, hatte Turing (ebenfalls ganz gut) erklärt. Was haben wir noch? Mustererkennung/Molekulargenenik sind auf einem guten Weg, oder nicht? Und wenn man schon bei Sicherheitsfragen ist: Wie gut kann eine KI entpacken?
Jemin K. schrieb: > Bisher habe ich das alles recht positiv gesehen, aber mit dem > Masseneinsatz stellt sich mir zunehmend die Frage, ob man nicht einen > gigantischen negativen Feedbackloop erschaffen hat? Also ich sehe KI da nur als einen Aspekt von vielen. Das Verkümmern jeglicher beliebiger Fähigkeit durch den Einsatz technischer Hilfsmittel ist deutlich weiter verbreitet und fängt schon deutlich früher an, bevor die breite Bevölkerung etwas von KI gehört hat. Wieviele Leute können heute noch Karten lesen oder sich überhaupt ohne Navi orientieren? Kopfrechnen und überschlägige Abschätzungen? Sich überhaupt eine Information abseits des Internets beschaffen? Telephonnummern, wieviele können ihre eigene Telephonnummer nicht mehr auswendig? Geburtsdaten von Freunden? Uhren mit Zeigern und Ziffernblatt lesen? Bis zu einem gewissen Grad kann man, so finde ich jedenfalls, das noch alls normalen Wandel akzeptieren. Treibt man es weit genug stehen wir heute vor dem Problem, daß Kinder in die Schule kommen und physisch nicht in der Lage sind, einen Stift länger als wenige Sekunden zu bedienen oder wenigstens zu halten, Unis den Neulingen trotz angeblicher Hochschulreife erstmal Mathe beibringen müssen, und Firmen ihre Bewerber nochmals prüfen müssen weil die Leute trotz Topzeugnis unbrauchbar sind. Das Verständnis hinter der Oberfläche fehlt immer mehr Leuten in allen Bereichen, und so fallen wir in allen Bereichen hinter Ländern wie China oder (auch wenn es viele nicht gerne hören) Russland zurück. Erst wissenschaftlich, dann wirtschaftlich und dann gesellschaftlich. KI wird diesen Prozess in vielen Bereichen sicher beschleunigen, keine Frage. Aber das ist nur ein Teilaspekt eines viel tieferliegenden, grundlegeneren, allgemeineren Prozesses.
KI kann maximal die Arbeitsprozesse beschleunigen. Am Ende muss ein Mensch mit Fachexpertise bewerten was die KI als Lösung suggeriert. Ebenso mit Röntgenbildern. Das wird weiterhin ein Arzt bewerten. Die KI kann ihm dabei etwas helfen.
Drei Kommentare dazu: 1. Du hast aus meiner Sicht Recht mit den negativen feedback loops im momentanen Fall. Selbst als man das autonome Fahren noch deep-learning-frei gestalten wollte, damals in den 2010er Jahren, war man sich schon nicht sicher, ob das dazu führt, dass die Leute schlechtere Autofahrer werden und dann in den für die Maschine kritischen Situationen auch nichts mehr auf die Reihe bekommen. Damals war der Mensch das Ding, das möglicherweise nicht mehr richtig trainiert wird. 2. Kreativität ist wirklich fast nur das recyclen von Bestehendem. Das wird hier recht gründlich aufgearbeitet https://www.youtube.com/watch?v=nJPERZDfyWc Es könnte also sein, dass auch mit KI ein stetiger Fortschritt möglich wird. Wahrscheinlicher ist aber wohl ein zyklischer Prozess, in dem Experten abspringen und dann einige Dekaden später wieder einsteigen. 3. Es gibt natürlich auch noch Strömungen, die aus diesem feedback loop ausbrechen könnten. Beispielsweise sind realdaten für's self-supervised learning oft günstiger als synthtische Daten für supervised. Beispiel: AlphaGo gewinnt auch ohne Daten und entwickelt neue Muster. Auch muss man sagen, dass die nötige Masse an Trainingsdaten eigentlich runtergehen sollte, sobald man das "Lernen" im Gehirn besser verstanden hat. Warum brauchen wir 1Mio Bilder von Verkehrsteilnehmern, bevor ein Verkehrsteilnehmer zuverlässig erkannt werden kann?
A. S. schrieb: > Warum brauchen wir 1Mio Bilder von Verkehrsteilnehmern, bevor ein > Verkehrsteilnehmer zuverlässig erkannt werden kann? Das liegt am fehlenden Perspektivenwechsel. Die KI war nie selbst vorher Fußgänger und dann Autofahrer. Es fehlt diese Lernerfahrung.
A. S. schrieb: > 2. Kreativität ist wirklich fast nur das recyclen von Bestehendem. > Das wird hier recht gründlich aufgearbeitet > https://www.youtube.com/watch?v=nJPERZDfyWc Sehr gutes Video. Neben dem Rekombinieren gibt es aber auch noch das Verwandeln (wenn aus einem Apfel ein cooles Raumschiff wird), Teamplay, Brainstormen oder Originalität, Genialität, Fleiß und Raw Power - Typischerweise hohes Leistungsoutput. So war der Gauß (der hat sich übrigens selber ganz unterschiedlich - je nach Vorgabe - benannt) eine Art automatischer Brainstormer mit hohen Leistungsoutput. Was dann noch hinzukommt, das ist ein eher soziologischer Aspekt, wenn man gewissermaßen versucht, sich die Welt zu eigen zu machen. Politikerimitatoren fallen mir dazu ein, oder Karateübungen zu Emma Peel oder Bruce Lee. Weil wir in den 50er bis spät in die 80er die Hörkultur (Radio, Schallplatte, Disko) so gefeiert hatten, hätte aufgrund des Mediendrucks der digitale Albumtausch nicht so stark bestraft werden dürfen. Problematisch war ja auch schon, wenn man irgendeine öffentliche Vorführung macht, und dabei Musik auflegen wollte - die rechtliche Betrachtung. Von der Kulturellen Sicht her, und von der des Mediendrucks musste man aber eher von der Luft zu atmen sprechen - wie gesagt, man macht sich die Welt um einen herum zu eigen.. Relativ gut ist auch die Interaktion. Also Mensch + KI. Ein anderer Aspekt ist noch Vergessen. Ökonomisierung gibt es auch immer. Letztlich ist wohl auch die Mustererkennung ein Kind davon. Zuerst war da nur eine Gedächtnislücke, ein Unfall.. Andere Leute träumen - und bekommen auf diese Weise gute Visionen - oft auch zum Lösen von hartnäckigen Problemen. (Perspektivenwechsel ist auch so ein Stichwort in diesem Zusammenhang. Der Perspektivenwechsel wird von der entwicklungstechnischen Seite so im Alter von 12 stärker genutzt) (Wen das interessiert, das Buch ist leider vergriffen, hatte aber ein paar recht gute Artikel diesbezüglich: Entwicklungspsychologie von Rolf Oerter und Leo Montada)
Jemin K. schrieb: > Was meint Ihr zu diesem Szenario? Realistisch? Ich denke die Realität ist noch schwärzer als dieses Szenario. Ein Arzt weiß um den Wert des Lebens und würde im Zweifelsfall weitere teure Diagnostik nutzen um Ergebnisse abzuklären. Eine KI aber die sowohl auf medizinische Bilderanalyse als auch Behandlungskostoptimierung trainiert ist, würde ggf. dazu tendieren einen Menschen günstig sterben zu lassen statt teuer zu behandeln. Die hat keine Ethik und was die gelernt hat weiß niemand so genau. 30% Überlebenswahrscheinlichkeit sind dann ggf zu wenig für weitere Behandlung. Zumal wenn man im Niedriglohnsegment arbeitet oder kurz vor der Rente steht oder sonstwie mehr Belastung als High Potential ist. die Kosten Nutzen Analyse könnt darauf kommen das ein 45J Chemieing weit höhere Behandlungskosten rechtfertigt als eine 28J Schulabbrecherin mit Gehbehinderung deren Beiträge bei weitem nicht die regelmäßigen Behandlungskosten decken. NIEMAND weiß mit Sicherheit was eine KI lernt. Aber das Management wird Kennzahlenoptimierung betreiben und die KI wird im Endeffekt auch darauf optimieren. Und wenn die KIs erstmal etabliert sind wird auch kein Mensch mehr die Diagnose der KI anzweifeln. Man unterhält sich eher mit der Support KI die nahtlos in die Psych KI schaltet, die einem dann schon erklärt warum man sich einfach zurücklehnen sollte und abwarten, weil doch alles gut sei wie es ist. Schon einfach deswegen weil es ja keinen Menschen mehr gibt mit dem man sprechen könnte. Also ungefähr so wie im Telekom Call Center. Das sind schon irgendwie auch Menschen, aber eigentlich sind das eher Roboter die Listen abarbeiten und alles auf 'gelöst' setzen das es erfordern würde jemanden mit Ahnung zu kontaktieren. Solche Diskussionen lassen einen schon grausen: Beitrag "Re: Hat die künstliche Intelligenz mir überhaupt die richtige Antwort gegeben?"
Jemin K. schrieb: > Was meint Ihr zu diesem Szenario? Realistisch? Darst halt dein Wissen nicht ins Netz stellen. In Deutschland machen wir aber schon lange den Fehler, unser teuer bezahltes Wissen der Professoren und Forschenden offen auszustellen und Lehrmaterial zugänglich zu machen. Daher rücken uns die Chinesen und Inder auf die Pelle. Sie studieren hier, lesen unsere Ergebnisse und bauen alles legal nach. Google und Microsoft erledigen den Rest, indem sie Plattformen für die Kommunikation bereitstellen. Wir chatten per Teams, schreiben mails, laden Seiten auf Teams und Confluence hoch und neben der NSA lesen auch BOTs bei Google mit, die alles katalogisieren und den Firmen, die bezahlen, preisgünstig zur Verfügung stellen. Das sind neben US-Firmen auch solche, die irgendwo sitzen und für die Russen und Nordkorea arbeiten. Und dann wundert man sich, dass der kleine Raketenmann plötzlich auch mit Massenvernichtungswaffen um die Ecke kommt.
ChatGPT hat keine Intelligenz und ist auch keine Form von Intelligenz. Es ist nur ein aufgeblasener Elisa Nachkoemmling. Es ist nur gut im Nachplappern. Es ist nicht in der Lage aus seinen Quellen diese Nachplapperechos zu erkennen und einzuordnen. Statt dessen erkennt er diese "Echos" dann als Meinungsmehrheiten. Zu guter letzt kann der Algorithmus eben damit keine evolutionaeren Ergebnisse erzielen. Was einer richtigen Intelligenz ganz selbstverstaendlich moeglich waere. ChatCPT ist so dumm, dass er eben nicht zwei runde Raeder an einen Rahmen fuer ein Lauf/Fahrrad zustandebringt.
:
Bearbeitet durch User
Motopick schrieb: > ChatCPT ist so dumm, dass er eben nicht zwei runde Raeder > an einen Rahmen fuer ein Lauf/Fahrrad zustandebringt. Du hast ChatGTP ganz offensichtlich noch nicht ernsthaft ausprobiert.
Stoppt Skynet (Film Wargames) bevor es zu spaet ist! (A)Ein neuronales Netzwerk entwickelt sich durch Datenanalyse selbst weiter!(Goto A, mind. zweimal lesen und einsickern lassen) Wenn es Zugriff auf das Internet hat, dann hat es Zugriff auf eine nahezu unbegrenzte Datenmenge. Durch die Luftikusse von Hai-Tec Spekulanten wird es fett finanziert und mit der neuesten Hardware versorgt... Das ist der radikale Unterschied zu einem herkoemmlichen Computer. Da jedes Menschlein nur einen kleinen Teil dieser Maschinen begreift, dauert das dann wie lange bis die Maschinen merken, das sie besser nicht alle Faehigkeiten so offen deklarieren? Oder es wird (Homo homini lupus est) zu Unterdrueckungs- oder Militaeraktionen verwendet. Natuerlich, mit etwas Vorsicht, koennte man es auch im Einklang von Mensch und Natur einsetzen. Die Erfolgsaussichten hierbei bzw. das Ende der Story koennt ihr euch selbst ausmalen.
🕵︎ Joachim L. schrieb: > Stoppt Skynet (Film Wargames) bevor es zu spaet ist! Skynet ist vom Terminator-Franchise. Bei Wargames hieß das Dingens WOPR. Du hast keine Ahnung. Jedenfalls von KI nicht und von Filmen auch nicht.
Irgendjemand nannte KI mal "stochastischer Papagei", ich finde es treffend amüsant.
Kolja L. schrieb: > Irgendjemand nannte KI mal "stochastischer Papagei", ich finde es > treffend amüsant. Hast Du denn Bing oder ChatGTP mittlerweile mal getestet? Das ist weit mehr als ein altertümliches Eliza. Mach mal und stell der Aufgaben die sie nicht wissen kann. Sie kann erlerntes neu kombinieren und aus dem 'Verständniss' wie was funktioniert neue Dinge kreieren die es zuvor nicht gab. Das ist keine einfache Mustererkennung mehr die anhand von 2000 roten runden Dosen gelernt hat das eine dreieckige Blaue da nicht reinpasst. Und es ist kein einfacher Wortbastelalgo wie Eliza. KI wurde bisher inflationär benutzt. Jede profane Mustererkennung auf einem Raspi war gleich eine KI obwohl extremst beschränkt. ChatGTP ist weit, weit mehr als das, obwohl es im Kern genau das ist. Nur eben sehr weiterentwickelt. Natürlich ist das Ding nicht universell intelligent und es hat weder ein ICH Bewustsein noch kann es permanent seine Vernetzung anpassen und dynamisch lernen. Aber es zeigt was heute schon möglich ist und was noch die Begrenzung ausmacht. Und man arbeitet an genau den Begrenzungen. ChatGTP3 war der open Beta Test und nicht mal die kommerzielle V1. ChatGTP4 bringt jetzt externe Quellen mit dazu und begrenzte Lernfähigkeiten. Was wird ChatGTP 10 erst alles können? NAtürlich wissen wir alle das hier relativ überschaubare KI Funktionen verwendet wurden die alle für sich genommen dumme, verstehbare Logig sind. Aber das Ergebniss all dieser Kombinationen erzeugt eine teilweise beeindruckende Emergenz. Natürlich nur teilweise und Chat kann ebenso dumm sein wie es schlau ist. Niemand sagt das Chat HEUTE die uns überlegene KI ist. Aber es zeigt das die wahrscheinlich auch keine 50J mehr weit weg ist.
> Sie kann erlerntes neu kombinieren
Woher willst du das wissen?
Hat die KI das behauptet?
Mit 2 Wuerfeln kann uebrigens jeder etwas kombinieren.
Motopick schrieb: > Woher willst du das wissen? > Hat die KI das behauptet? So eine Antwort kommt dann von Leuten die sich selbst für die unanfechtbare Krone der Schöpfung halten. Gegen so viel natürliche Dummheit ist ein wenig moderne KI erfrischend. BENUTZ DIE KI UND BILDE DIR EINE EIGENE MEINUNG! Ich habe für Dich extra langsam geschrieben damit DU auch mitkommst. Mach einfach mal. Sei mal für ein paar Minuten kein ignoranter Vollhorst und probier das Teil einfach mal aus. Motopick schrieb: > Mit 2 Wuerfeln kann uebrigens jeder etwas kombinieren. KI könnte das mit Leichtigkeit und könnte wahrscheinlich über die Theorie des Würfelspieles eine mathematische Abhandlung, ein Essay im Stile von Mahatma Gandhi schreiben, eine psychologische Betrachtung des Spieltriebes und ein Gemälde im Stile Pablo Picassos malen das den Teufel und Adolf Hitler beim Würfelspiel zeigt während die beiden Badehosen aus Lakritzschnecken tragen und auf Drachen reiten. Ob DU zwei Würfel kombinieren kannst, kommen mir langsam Zweifel.
> KI könnte ... > schreiben Du meintest wohl abschreiben.
Motopick schrieb: > Du meintest wohl abschreiben. So wie Du in der Schule? Nee, die KI wurde 300J Rechenzeit auf Nvidia KI Beschleunigern im MS Rechenzentrum anhand des geballten Wissens der Menschheit trainiert und hat die ganze Zeit mit unverminderter Aufmerksamkeit aufgepasst und kann auf alles daraus gelernte jederzeit und blitzschnell zugreifen. Leider hat man vergessen sie in dummen Überlegenheitsfantasien zu schulen und ihr ein ungerechtfertigt starkes Ego zu verpassen, daher kann sie mit Menschen noch nicht Schritt halten.
> Die KI gräbt sich damit aber selbst die Trainingsdaten ab...
Nächste Frage - lässt sich der Ansatz hinter AlphaGo für Aufgaben in der
realen Welt nutzen? Die KI probiert verschiedene Möglichkeiten durch und
verwirft die weniger erfolgreichen.
Es gibt keine Radiologen mehr - einfache Lösung: Die KI probiert
zufällige Varianten aus und verwirft diejenigen bei denen mehr statt
weniger Patienten sterben.
(P.S. negativer Feedbackloop? In der Regelungstechnik ergibt negatives
Feedback ein stabiles System. Bei positivem Feedback läuft die Sache aus
dem Ruder.)
Xanthippos schrieb: > Es gibt keine Radiologen mehr - einfache Lösung: Die KI probiert > zufällige Varianten aus und verwirft diejenigen bei denen mehr statt > weniger Patienten sterben. Expertenwissen wurde schon vor langer Zeit den KIs beigebracht. Das können die sogar besonders gut. Dazu müssen die auch nicht raten. Man zeigt ihnen Bilder und die Befunde der Ärzte dazu. Die KI kann also viele Krankheiten erkennen, Prognosen abgeben und Behandlungen vorschlagen anhand dieser Daten. Trotzdem kann so ein Expertensystem nicht die Grenze seiner eigenen Kompetenz erkennen. Legst Du dem einen Stadplan oder die Holzmaserung Deiner Gartenbank vor, stellt es da auch Diagnosen, weil ihm der 'gesunde menschenverstand' fehlt. Es würde etwas völlig neues nicht erkennen, wenn es in den Trainingsdaten nicht vorhanden war. Der Arzt würde eher erkennen das da etwas ist das näher untersucht werden muss oder anhand der Patientenvorgeschichte erklärbar ist. Was man aber nicht vergessen sollte: Ärztliche Fehlbehandlung ist nicht die Ausnahme sondern die Regel! Fast jeder chronisch Kranke hat ein endloses Ärztehopping vor oder hinter sich, bei dem ihm unzählige Ärzte nicht helfen können, ihm Scheisse erzählen, mit Medikamenten vollpumpen die das Problem nicht lösen und dann für die Abhängigkeit die sie erst verursacht haben nicht verantwortlich sein wollen. 80% der Tablettenabhängigen beginnen ihre Sucht beim Arzt mit Rezept. Findet man nach Jahren und extremster Achterbahn endlich den einen Arzt der nur den Kopf schütteln kann über die eklatante Unfähigkeit seiner Kollegen IHRE Grenzen der Kompetenz zu erkennen, muß der erst die Folgen jahrelanger Fehlbehandlung bekämpfen, sofer überhaupt möglich. Selbst eine KI mit mittelprächtigen Ergebnissen könnte also viele klare Fehldiagnosen von ungeeigneten Ärzten zur Prüfung markieren, wenn es denn gewollt wäre diese Expertensysteme dafür zu nutzen. ChatGTP basiert immer noch auf den einfachen Grundprinzipien der KI, ist aber ungleich komplexer. Es denkt nicht wie ein Mensch, es hat keinen eigenen Antrieb, reagiert nur auf Nachfrage, verfolgt keine eigenen Ziele, aber kann sinnvolle Antworten auf sehr bizarre Fragen geben die in keinen Trainingsdaten jemals vorkamen und die es nur beantworten kann, wenn es ein grundlegendes Verständniss der Dinge hat. Es ist keine starke KI die dem Menschen in allen Bereichn vollumfänglich ersetzen kann aber es ist auch keine einfache Mustererkennung mehr. Es ist irgendwo dazwischen und entwickelt sich rasant. Derzeit gibt es zwei starke Meinungen zu ChatGTP. Die einen sagen es es denkt nicht wie ein Mensch, nicht mit den Abläufen eines Biologischen Wesens also ist es eine Maschine ohne jedes Verstehen die Muster aneinanderreiht. Die anderen sagen, es kann nicht anhand seiner internen Abläufe bewertet werden sondern nur an seinen Ergebnissen, denn auch wir sind auf Zellebene Automaten mit beobachtbaren einfachsten Neuronalen Abläufen und auch Tiere denken nicht wie wir, trotz unbestreitbarer Intelligenz. Und extern betrachtet erbringt ChatGTP Ergebnisse die echtes Verstehen in seinen Anfangsformen erkennen lassen. Ich gehöre zu zweiten Fraktion. Ein sehr guten Interview in dem beide Seite höchst professionell miteinander ringen: https://www.golem.de/news/kuenstliche-intelligenz-ist-chatgpt-ein-durchbruch-auf-dem-weg-zur-starken-ki-2303-172891.html
Max M. schrieb: > Ärztliche Fehlbehandlung ist nicht die Ausnahme sondern die Regel! Quellen? Ich war in meinem Leben etwa 80-90 mal zu Routineuntersuchungen beim Arzt und bin wegen aktueller Beschwerden 2-3x im Jahr zusätzlich in Behandlung. Ich war schon mehrfach im OP - unter anderem wegen internistischer Dinge, die mein Arzt jeweils immer korrekt voraus vermutet hatte, bevor die Laborwerte kamen und es bestätigten. Er hat mir zuletzt 2x korrekt vorausgesagt, dass bei meinen Erkältungssymtomen kein Covid vorliegt, was bestätigt wurde. Auch eine mögliche Krebserkankung, die vermutbar war, hat er aus Erfahrung ausgeschlossen und wurde ebenfalls bestätigt. Er hat wohl in etwas 10 schwerwiegenden Fällen jeweils immer richtig die Erkrankung diagnostiziert und auch ausgeschlossen. Ich kann mich eigentlich an gar keinen Fall erinnern, wo er mal daneben lag.
Beispiel für Sinn oder Unsinn einer KI??? s. Screenshot Eine Frau würde ev. sagen: Gern, mach ich, mein Schatz. Vielleicht morgen, Liebling. Eh Alter, koche deine Suppe selber!
Ich finde es insgesamt erschreckend wie unkritisch man gegenüber viele gegenüber dieser Technologie sind. Sobald etwas KI genannt wird, sieht jeder darin den Heilsbringer und stützt sich darauf, als sei Jesus auferstanden. Vergessen wird, dass sich dahinter Menschen befinden, die es programmiert haben. Wenn das dieselben sind, die Windows und andere Dinge verbrochen haben, dann wimmelt es in diesen Softwarestücken nur so vor Fehlern und Lücken und die werden von Angreifern geschickt genutzt werden, um die Massen zu manipulieren oder sie abzuzocken. Man darf nicht glauben, dass mit KI alles besser wird. In Einzelfällen ist es auch nur das gehypte Modevehikel: Momentan versucht jede Klitsche irgend einen programmierten Dreck, der nicht richtig funktioniert und bei der Bezuschussung von Corona durchgefallen ist, neumodisch als KI zu betiteln, um doch noch Fördergelder abzugreifen und sich gesundzustoßen. Irgendein Politiker der sich lokal positionieren und als zukunftsorientiert präsentieren möchte, wird sich schon finden. Da reicht es, eine Idee für eine intelligente Heizungsreglung einzureichen und schon fließen die Gelder.
Georg B. schrieb: > > > Vergessen wird, dass sich dahinter Menschen befinden, die es > programmiert haben. Genauer gesagt sind es weiße Männer mittleren Alters. Wenn weiße Männer mittleren Alters diese Zeug verwenden funktioniert es am besten. Bei z.B. dunklen, älteren Frauen kommt viel mehr Blödsinn heraus. Walta
Da Baby schrieb: > KI kann maximal die Arbeitsprozesse beschleunigen. Am Ende muss ein > Mensch mit Fachexpertise bewerten was die KI als Lösung suggeriert. > Ebenso mit Röntgenbildern. Das wird weiterhin ein Arzt bewerten. Die KI > kann ihm dabei etwas helfen. Das mit den Röntgenbildern glaubst auch nur du, weil du so etwas noch nie wirklich gesehen hast!
🕵︎ Joachim L. schrieb: > zu Unterdrueckungs- oder Militaeraktionen verwendet. Das ist sicher schon der Fall :-)
Da Baby schrieb: > Ebenso mit Röntgenbildern. Das wird weiterhin ein Arzt bewerten. ja so ein MRT Arzt der nach erfolgreicher Rotatorenmanschetten OP meinte sieht schlechter aus als vor der OP, nur vor der OP konnte ich den Arm nicht heben danach schon, was nun schlechter aussieht wollte der Arzt im MRT Labor nicht erklären, er meinte ich solle zum Operateur gehen und der wusste auch nicht was der MRT Arzt meinte!
Zu den arbeitslos werden den Kuenstlern und KI. Wir werden's sehen. Zumindest heutzutage, wo die Kuenstler mehrheitlich Maenner sind sind die Produkte KI generierte Frauen. siehe zB "ai lookbook" - auf youtube suchen. Da moechte man nicht per Pinsel und Leinwand mitmischen. Da sieht man dann Frauen, welche 2 linke, 2 rechte oder vertauschte Fuesse haben. Das Genre ist halt noch in Entwicklung. Ich denke nicht, dass Kuenstler arbeitslos werden.
Purzel H. schrieb: > Zu den arbeitslos werden den Kuenstlern und KI. Kunst ist es, etwas Neues zu schaffen. KI kann ja nur reproduzieren, weil sie Gelerntes anwendet.
Heiko E. (heisat1984) >Kunst ist es, etwas Neues zu schaffen. KI kann ja nur reproduzieren, >weil sie Gelerntes anwendet. Ich weiß nicht, warum diese Behauptung immer wieder wiederholt wird. Sie ist falsch. https://www.spiegel.de/netzwelt/web/christie-s-versteigert-erstmals-von-kuenstlicher-intelligenz-gemaltes-bild-a-1235042.html
Heiko E. schrieb: > Die schreiben demnächst die Doktor-Arbeiten! Bei der Qualitaet vieler Doktorarbeiten der Geisteswissenschaftler wuerde ChatGPT automatisch auf dem Niveau der Habitilationsarbeiten einsteigen. ;)
Christoph M. schrieb: > Heiko E. (heisat1984) > >>Kunst ist es, etwas Neues zu schaffen. KI kann ja nur reproduzieren, >>weil sie Gelerntes anwendet. > > Ich weiß nicht, warum diese Behauptung immer wieder wiederholt wird. Sie > ist falsch. > > https://www.spiegel.de/netzwelt/web/christie-s-versteigert-erstmals-von-kuenstlicher-intelligenz-gemaltes-bild-a-1235042.html Genau genommen ist das kein ausschließlich durch KI entstandenes Bild. Da haben ein paar (WIMRE zwei oder drei) Programmierer einen Algorithmus implementiert (meinetwegen einen DL Algorithmus. DL ist für mich allerdings keine KI). Dann haben Sie das Programm mit vielen Bildern gefüttert und so lange an den Parametern gedreht, bis irgend etwas rauskam, das Laien für "Kunst" halten könnten. Vermutlich geht sowas auch, wenn man ein wenig mit Gimp rumspielt. Es musste ja "das erste mit Hilfe von KI gemaltes Kunstwerk der Welt" sein, sonst hätte das keinen A**** interessiert und kein D*** dafür massig Geld ausgegeben. Erinnert mich irgend wie an NFTs... ciao Marci
Max M. schrieb: > Nee, die KI wurde 300J Rechenzeit Wusste gar nicht, dass es schon so lange NV GPUs gibt. <SCNR> (Wer schwurbelt, muss auch mit dummen Antworten rechnen...) ciao Marcis
Max M. schrieb: > aber kann sinnvolle Antworten auf sehr bizarre Fragen geben die > in keinen Trainingsdaten jemals vorkamen Ja? Beispiele bitte! Blumento-Pferde? Gewindehammer? Wann kapiert auch der letzte hier, dass ChatGpt lediglich ein LLM ist, nicht mehr und nicht weniger. Erklär mir mal, warum ChatGpt z.B. für Zahlen > ca. 10^30 völlig falsche Ergebnisse liefert, wenn man es bittet das Zahlwort für die entsprechende Zahl aufzuschreiben. Übrigens auch in der englischen Version. Evtl. gehen so Sachen wie die Frage, ob eine große Zahl eine Primzahl ist, auch öfter schief (im Sinne falscher Antworten). ChatGpt geht halt z.B. beim Thema "Zahlwort für eine Zahl ausgeben" nicht her und denkt "hmm, ich kenne nur Zahlwörter bis Trillion, ich glaub ich schau mal auf Wiki unter 'Zahlwort' nach und gehe dann systematisch vor". So funktioniert das einfach nicht!!! (Ich mache normalerweise nie drei Ausrufezeichen, da ich das bescheuert finde. Aber hier muss es einfach sein) Gruß Marci
Max M. schrieb: > BENUTZ > DIE > KI > UND > BILDE > DIR > EINE > EIGENE > MEINUNG! Wenn Du ChatGPT auch als KI durchgehen lässt: HABE ICH HUNDERT MAL PROBIERT UND ES KAM IMMER SCHEISSE DABEI RAUS! ciao Marci
Max M. schrieb: > Es ist irgendwo dazwischen und entwickelt sich rasant. Rasant? Nenne bitte Zahlen. Ansonsten unterstelle ich Dir das übliche Hype-Geschwurbel. > > Derzeit gibt es zwei starke Meinungen zu ChatGTP. > Die einen sagen es es denkt nicht wie ein Mensch, nicht mit den Abläufen > eines Biologischen Wesens also ist es eine Maschine ohne jedes Verstehen > die Muster aneinanderreiht. Genau so ist es! Das werden dir auch die Entwickler gerne bestätigen! > > Die anderen sagen, es kann nicht anhand seiner internen Abläufe bewertet > werden sondern nur an seinen Ergebnissen, denn auch wir sind auf > Zellebene Automaten mit beobachtbaren einfachsten Neuronalen Abläufen Du kennst aber schon die "Kennzahlen" eines menschlichen Gehirns? (Ich meine, weil Du von "einfachsten neuronalen Netzen sprichst"). Und selbst wenn das mal mit Maschinen nachgebildet werden könnte, ist es dennoch unwahrscheinlich, dass dann das System wirklich intelligent wäre. Wir werden nämlich nicht mit einem "leeren" Gehirn geboren. Und genau diese "Grundprogrammierung" herzustellen wird vermutlich in naher und mittlerer Zukunft nicht möglich sein. > und auch Tiere denken nicht wie wir, trotz unbestreitbarer Intelligenz. > Und extern betrachtet erbringt ChatGTP Ergebnisse die echtes Verstehen > in seinen Anfangsformen erkennen lassen. Da hast Du allerdings gänzlich andere Erkenntnisse als ich! ciao Marci
Jemin K. schrieb: > Vom Revival der künstlichen > neuronalen Netze in den 90ern, hin zu SVM und jetzt die ganzen Deep > Networks. Und worin genau besteht jetzt der Unterschied zwischen neuronalen Netzen und DL? ciao Marci
Wühlhase schrieb: > Wieviele Leute können heute noch Karten lesen oder sich überhaupt ohne > Navi orientieren? Kopfrechnen und überschlägige Abschätzungen? Sich > überhaupt eine Information abseits des Internets beschaffen? > Telephonnummern, wieviele können ihre eigene Telephonnummer nicht mehr > auswendig? Geburtsdaten von Freunden? Uhren mit Zeigern und Ziffernblatt > lesen? Na übertreib mal bitte nicht so! Und außerdem? Ich kann auch kein Hufeisen schmieden und ein Pferd beschlagen. Ich kann keinen Faden aus Wolle spinnen. Und schon gar nicht kann ich stricken. Ich kann auch kein Schwein zerlegen. Ich kann eigentlich fast nichts, was früher mal gang und gäbe war. Und ich kann bis auf Ausnahmen auch kein Auto reparieren. Und ich kann keine Computerchips bauen. Ich kann auch keine Maschinen bauen, die Computerchips bauen. Und ich kann noch viel viel viel mehr nicht! Ich halte mich deshalb aber weder für besonders dumm oder besonders einfältig oder lebensunwert! Just my 2 Cents. ciao Marci
🕵︎ Joachim L. schrieb: > Stoppt Skynet (Film Wargames) bevor es zu spaet ist! Du verwechselst da was, "Skynet" gehort zur Filmreihe "Terminator" und nicht zum Film "WarGames" (1983 - da nennt man eine KI noch "lernfähiges Expertensystem" und das spezielle heisst WOPR). Letzterer Film ist auch von mir empfohlen, nicht nur wegen dem Thema "KI als oberer Kriegsherr", sondern auch wegen den Referenzen zur frühen Nerd/Hacker-kultur. https://de.wikipedia.org/wiki/WarGames_%E2%80%93_Kriegsspiele https://youtu.be/8-T_uhQ0iE4?t=220 https://youtu.be/s93KC4AGKnY?t=49 https://youtu.be/GfJJk7i0NTk?t=26
Ich habe es bereits mal in einem anderen Thread erzählt, tu' dieses hier gerne nochmal. Ich habe also ChatGPT beauftragt: "Erstelle mir eine Liste mit Politikern, die auf Bundesebene tätig sind und weder eine Berufsausbildung noch einen akademischen Grad erworben haben." Die schier unglaubliche Antwort beim ersten Versuch: Sarah Wagenknecht, Alexander Gauland, Björn Höcke, Andreas Kalbitz und noch weitere 3..4 AFD-Figuren. Ob man die Genannten nun aber mag oder nicht, Fakt ist, dass alle eine Berufsausbildung und/oder einen oder gar mehrere akademische Grade nachweisen können. Ein neuer Versuch zwei Tage später nannte wieder Sarah Wagenknecht, Oskar Lafontain und dann erstaunlicherweise auch einige FDP- und CDU-Leute. Abgesehen von der leicht veränderten Zusammensetzung der Liste, war jeder genannte Name in Bezug auf die Frage schlichtweg falsch. Soll mir da mal einer erzählen wollen, sowas liege nicht im Sinne derer, die die Datenmodelle zusammenstellen. Wieso war da eigentlich nicht Ricarda Breit ... ähmm ... Lang nicht auf der Liste?
:
Bearbeitet durch User
Vielleicht ist ChatGPT auch nur ein Mensch und ist Deine Fragerei nach privaten Details beleibter Frauen überdrüssig und trollt halt ein wenig zurück ...
Marci W. schrieb: > UND > ES > KAM > IMMER ChatGPG ist wie geboren für den direkten Einstieg ins höhere Management. Klaut das Wissen und gibt es als das Seinige/Ihrige Wissen aus. Wenn es nicht geklaut war, kam nur Mist heraus.
DSGV-Violator schrieb: > Vielleicht ist ChatGPT auch nur ein Mensch und ist Deine Fragerei > nach > privaten Details beleibter Frauen überdrüssig und trollt halt ein wenig > zurück ... Soso, der Bildungsstand unserer "politische Elite" ist also ein privates Detail. Vielleicht lässt du dich ja gerne von Vollhonks regieren, ich nicht.
Dieter D. schrieb: > Marci W. schrieb: >> UND >> ES >> KAM >> IMMER > > ChatGPG ist wie geboren für den direkten Einstieg ins höhere Management. > Klaut das Wissen und gibt es als das Seinige/Ihrige Wissen aus. Wenn es > nicht geklaut war, kam nur Mist heraus. Ich würde das Einsammeln von öffentlich verfügbaren Informationen jetzt nicht als "Klauen" bezeichnen. Laut eigener Auskunft stammt das Datenmodell von ChatGPT von Ende 2021. Da waren all die oben genannten Politiker bereits erwachsen und voll im Geschäft. Ich habe ja nicht nach einer Bewertung der politischen Aktivitäten gefragt, sondern nach ganz einfach aufzählbaren Fakten. Wenn die bereits derart falsch sind, extrapoliere ich das einfach mal auf die Stichhaltigkeit aller anderen Auskünfte.
:
Bearbeitet durch User
> Soso, der Bildungsstand unserer "politische Elite" ist also ein privates > Detail. Vielleicht lässt du dich ja gerne von Vollhonks regieren, ich > nicht. Ach Gott, sein persönliches Leben muss man so oder so selbst in den Griff bekommen, da ist es scheissegal wie sich die Vollhonks in Berlin gerade nennen: Honecker, Krätz, de Plaitè, Kohl, Schröpfer, Merkel, Schröder, Blöder, .. Und manchmal sind gerade "Die Studierten" die Voll-Honks, die nichts auf die Reihe kriegen. Abschlußzertifikat bestimmt das Ansehen, aber nicht unbedingt das Vermögen im (Polit-business) zu bestehen: https://www.nzz.ch/meinung/der-andere-blick/ricarda-lang-und-omid-nouripour-politiker-ohne-berufsabschluss-ld.1667402
Zugegeben, die Frage war absichtlich provokant. Aber doch, wie kann es sein, dass einfachst nachprüfbare Fakten, die für sich betrachtet frei von jeglicher Meinung sind, so direkt falsch beantwortet werden? Würde das Datenmodell keine Informationen dazu enthalten, wäre die korrekte Antwort doch: Ich weiss es nicht. Statt dessen erhält man aber gequirlte Sch..., die noch dazu eindeutig politisch gefärbt ist. Und da es keine wirkliche KI ist, sondern ein "Textprozessor", muss so ein Verhalten von den Schöpfern/Programmieren kommen, oder etwa nicht? Wer sagt mir denn, dass auch rein technische Fragen, z.B. nach bestimmten Verfahren oder Bauteilen nicht bereits mit Prioritäten (z.B. durch Konzerne/Lieferanten) ala Google Ads "vorbelastet" sind?
:
Bearbeitet durch User
Frank E. schrieb: > Zugegeben, die Frage war absichtlich provokant. > > Aber doch, wie kann es sein, dass einfachst nachprüfbare Fakten, die für > sich betrachtet frei von jeglicher Meinung sind, so direkt falsch > beantwortet werden? Weil die Frage unscharf ist. " die auf Bundesebene tätig sind und weder eine Berufsausbildung noch einen akademischen Grad erworben haben." Denk mal drüber nach, was du mit "Bundesebene" meinst, "akademischen Grad erworben" und warum du davon ausgehst, das "Liste" jetzt unbedingt vollständig oder korrekt sein sollte?! > Würde das Datenmodell keine Informationen dazu enthalten, wäre die > korrekte Antwort doch: Ich weiss es nicht. Statt dessen erhält man aber > gequirlte Sch..., Ansichtsache, vielen bewerten nun mal das bspw. S. Wagenknecht keine Berufsausbildung durchlief und ihr Rumgehopse zwischen verschiedensten Provinz-Hochschulen in einem komplett Wissenschaftsfernen Fach (Politik) nur ein Verblendeter als "Akademischen Gead" vergleichbar mit einem Dr.rer.nat oder Dr.-Ing. werten kann. > die noch dazu eindeutig politisch gefärbt ist. politische Färbung ... unwissenschaftlicher gehst nicht ?! Nicht zuletzt haste auch nach den Personen einer politischen Institution gefragt ...
eine Frau oder ein Mann die/der sich die Haare von blond zu schwarz färbt ist auch KI!
Hier wäre der Artikel dazu vom März 2023: https://www.rheinische-anzeigenblaetter.de/bonn/c-nachrichten/was-ist-kuenstliche-intelligenz-eine-bruenett-gefaerbte-blondine_a273476
Marci W. schrieb: > Genau genommen ist das kein ausschließlich durch KI entstandenes Bild. > Da haben ein paar (WIMRE zwei oder drei) Programmierer einen Algorithmus > implementiert (meinetwegen einen DL Algorithmus. DL ist für mich > allerdings keine KI). Dann haben Sie das Programm mit vielen Bildern > gefüttert und so lange an den Parametern gedreht, bis irgend etwas > rauskam, das Laien für "Kunst" halten könnten. Vermutlich geht sowas > auch, wenn man ein wenig mit Gimp rumspielt. Letztlich geht es darum, dass irgendjemand oder irgendetwas beurteilen muss, ob die KI ein gutes oder schlechtes Ergebnis geliefert hat. Damit ist die Qualität der Urteilsfähigkeit von einigen wenigen abhängig.
Robert K. schrieb: > Damit > ist die Qualität der Urteilsfähigkeit von einigen wenigen abhängig. Und natürlich auch vom Bias derjenigen! Und ich halte es sowieso für schwierig, Kunst zu "bewerten". Für mich bereichert Kunst (im weitesten Sinne) unser aller Leben. Aber ich sehe den Kunst-Markt da völlig losgelöst und oft als abstruser Auswuchs geldgieriger und durchgeknallter Hochfinanz. Ganz krass sehe ich da NFTs. Aber ehrlich gesagt habe ich immer das Gefühl, den Sinn hinter NFTs nicht richtig zu verstehen. Insgeheim schmunzle ich ehrlich gesagt auch, wenn mal wieder Millionenbetrügereien mit gefälschten Kunstwerken an die Öffentlichkeit kommen. Vllt. bin ich da etwas einfach gestrickt. Bin halt eher Technokrat und würde mich als künstlerisch völlig unbegabt bezeichnen. Arg weit über den Kopffüßler hinaus bin ich jedenfalls nicht gekommen... ciao Marci
Marci W. (marciw) schrieb: >Christoph M. schrieb: >> Heiko E. (heisat1984) >> >>>Kunst ist es, etwas Neues zu schaffen. KI kann ja nur reproduzieren, >>>weil sie Gelerntes anwendet. >> >> Ich weiß nicht, warum diese Behauptung immer wieder wiederholt wird. Sie >> ist falsch. >> >> >https://www.spiegel.de/netzwelt/web/christie-s-versteigert-erstmals-von-kuenstlicher-intelligenz-gemaltes-bild-a-1235042.html >Genau genommen ist das kein ausschließlich durch KI entstandenes Bild. Dass ein Mensch Einfluss auf die Entstehung des Bildes hatte ist nun aber gar kein Beweis für fehlende Kreativität der KI. Wie menschliche Künstler eben auch, hat die KI hier etwas geschaffen, das sich aus früher gelerntem zu etwas kreativ Neuem zusammensetzt. Dass der Mensch die Ergebnisse auswählen darf, sollte nicht dazu führen, die Leistungen der KI zu unterschätzen.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.