Stackoverflow musste jetzt schon deutliche Traffic Einbußen dank ChatGPT hinnehmen: https://www.golem.de/news/entwickler-forum-chatgpt-verursacht-traffic-einbrueche-bei-stack-overflow-2305-174120.html Gründe sind unter anderem, dass ChatGPT immer freundlich und hilfsbereit antwortet, was gerade beim rauen Klima auf Stackoverflow nicht immer gegeben ist. Gerade hier sehe ich aber auch Parallelen zum Forum hier. Läuft mikrocontroller.net mittelfristig auch Gefahr von ChatGPT den Rang abgelaufen zu bekommen?
Dir scheint, wie wirklich vielen Leuten, nicht bewusst zu sein, dass der Job der Software nicht ist, korrekte Antworten zu geben, denn das kann sie gar nicht leisten. Stattdessen gibt sie die wahrscheinlichste Wortaneinanderreihung als Antwort auf die Eingabe aus. Das kann durchaus auch faktisch korrekt sein, wenn es die Statistik gerade hergibt – es ist aber nicht in jedem Fall so, und nicht einmal die Regel. Damit haben sich schon so manche in die Nesseln gesetzt, die‘s ebenfalls nicht verstanden haben. Letztes Beispiel, das durch die Medien gegangen ist, war ein Anwalt aus NY, der die „Recherche“ von ChatGPT erledigen lassen hat – und dann vor Gericht erklären musste, warum alle angeführten Referenzen ins Leere liefen …
Jack V. schrieb: > Dir scheint, wie wirklich vielen Leuten, nicht bewusst zu sein, dass der > Job der Software nicht ist, korrekte Antworten zu geben, denn das kann > sie gar nicht leisten. Stattdessen gibt sie die wahrscheinlichste > Wortaneinanderreihung als Antwort auf die Eingabe aus. Das /kann/ > durchaus auch faktisch korrekt sein, wenn es die Statistik gerade > hergibt – es ist aber nicht in jedem Fall so, und nicht einmal die > Regel. Damit haben sich schon so manche in die Nesseln gesetzt, die‘s > ebenfalls nicht verstanden haben. > > Letztes Beispiel, das durch die Medien gegangen ist, war ein Anwalt aus > NY, der die „Recherche“ von ChatGPT erledigen lassen hat – und dann vor > Gericht erklären musste, warum alle angeführten Referenzen ins Leere > liefen … Mir ist klar wie ChatGPT funktioniert. Wenn man aber einigermaßen im Thema ist fallen einem die Fehler auf und man fragt noch ein zweites mal nach. Meist stimmt es dann. Und du vergisst dass in einem Forum auch oft falsche Antworten oder zumindest unvollständige und fehlerhafte Antworten gepostet werden.
Jack V. schrieb: > korrekte Antworten zu geben Jack V. schrieb: > Wortaneinanderreihung als Antwort Also wie im Forum. Wenn ein Precy und Konsorten auftauchen gibt es auch nur noch Wortaneinanderreihung.
Re D. schrieb: > Jack V. schrieb: >> korrekte Antworten zu geben > > Jack V. schrieb: >> Wortaneinanderreihung als Antwort > > Also wie im Forum. Wenn ein Precy und Konsorten auftauchen gibt es auch > nur noch Wortaneinanderreihung. Danke! Es gibt so viele User hier bei denen man die Beiträge regelrecht vorhersagen kann...
Flo schrieb: > Läuft mikrocontroller.net mittelfristig auch Gefahr von ChatGPT den Rang > abgelaufen zu bekommen? Das ist keine Gefahr. Wer ChatGPT bevorzugt ist hier eh falsch.
Flo schrieb: > enn man aber einigermaßen im > Thema ist fallen einem die Fehler auf Wenn die Leute „einigermaßen im Thema“ wären, würden wirklich viele Threads hier gar nicht existieren. Diese TE sind es, die von den Sprachmodellen aufs Glatteis geführt würden. Es ist ja sogar so, dass Leute, die sich vorgeblich auskennen würden, hier schon falsche oder auch nur unpassende Antworten von ChatGPT gepostet haben. Dass sie das dann nicht einmal kenntlich gemacht haben, hat dem Ganzen dann auch irgendwie nur noch die Krone aufgesetzt.
:
Bearbeitet durch User
Hallo Flo schrieb: > Gerade hier sehe ich aber auch Parallelen zum Forum hier. Läuft > mikrocontroller.net mittelfristig auch Gefahr von ChatGPT den Rang > abgelaufen zu bekommen? Netter Versuch einigen Leuten hier mal ->freundlich<- und mit nur leichter aber feiner Ironie mal zum Nachdenken und zu einer Verhaltensveränderung anzuregen. Aber es wird nicht funktionieren - du bist nicht der erste und wirst wahrscheinlich auch nicht der letzte sein. Flo schrieb: > Danke! Es gibt so viele User hier bei denen man die Beiträge regelrecht > vorhersagen kann... wahre Worte - und ja, jetzt werden sie kommen, die schon genannten "Forenstörer" und das auch auf mich beziehen... ;-) Stefan F. schrieb: > Das ist keine Gefahr. Wer ChatGPT bevorzugt ist hier eh falsch. Ja, so ist es wohl - wer Wert auf vernünftigen und freundlichen Umgang legt und nun mal fragt, weil er eben keine Ahnung hat (sonst würde man nicht fragen) und sich nicht erst mal ein "Grundstudium" im entsprechenden Fachbereich antun will, sondern einfach nur schnell und ohne viel Aufwand eine Frage beantwortet haben will - der ist hier meist wirklich verkehrt.. Hier sind halt einige laute und sich immer als Erstes mit dummen Sprüchen und sehr schlechten "Gegenfragen" um sich schmeißende verhinderte sehr schlechte "Lehrer" unterwegs. Ja Chat GPT hat eindeutig seine Schwächen (letztendlich holt es sich sein "Wissen" ja auch "nur" aus dem Netz und "lernt" aus Reaktionen während des "Gesprächs"). Es (Chat GPT) könnte aber auch ruhig mal seine Schwächen zugeben und auch mal mit ein "ich bin da auch nicht ganz sicher, aber wahrscheinlich..." Reagieren, aber trotz allem: Man wird freundlich angesprochen, man wird nicht persönlich gewertet, und nicht zuletzt geht ChatGPT eben nicht seinen "Wissen" und "seinen Wertevorstellungen" (hat es sowieso nicht) als das "Normal" und ein "Das muss der TO beherrschen" aus. Jack V. schrieb: > Wenn die Leute „einigermaßen im Thema“ wären, würden wirklich viele > Threads hier gar nicht existieren. Diese TE sind es, die von den > Sprachmodellen aufs Glatteis geführt würden. Das ist eben der Bereich, wo echte Menschen und Systeme wie Foren immer noch punkten könnten... Beispielsweise, wenn vernünftig und freundlich (!) nachgefragt würde, wenn freundlich erklärt werden würde, welche Informationen noch fehlen, und wie der TO diese herausbekommt, und wenn nie (!) von dem eigenen Wissen, wie man es erlangt hat ausgeht und welche Vorstellungen man vom "richtigen" Lernen hat (höchstens als freundliche eingeschobene Empfehlung) einfach kein Thema sind. Ein TO möchte Antworten und keine Anweisungen und Wertungen.
Peter G. schrieb: > Man wird freundlich angesprochen, man wird nicht persönlich gewertet Man wird von ChatGPT aber auch nicht respektiert. Wenn das System keine Ahnung hat, erfindet es Geschichten. Wenn du auf Fehler hinweist, entschuldigt es sich, um direkt danach den selben Scheiß zu wiederholen oder gar mit erfundenen Argumenten zu belegen. Insofern verhält sich ChatGPT absolut respektlos. Stefan F. schrieb: > Das ist keine Gefahr. Wer ChatGPT bevorzugt ist hier eh falsch. Damit meinte ich allerdings nicht die Höflichkeit (an der es hier tatsächlich mangelt), sondern dass hier Menschen sind, die Beweggründe und Ziele hinterfragen, um zu einer guten Empfehlung zu kommen. Und wenn hier Quatsch verzapft wird, dann sind genug Leute da, die das prompt dementieren. ChatGPT antwortet immer kompakt und überzeugen, ganz egal welchen Bullshit es dabei abgeliefert hat. Wer das so will, der soll bitteschön dort in gehen anstatt sich hier im Diskussionsforum darüber zu beklagen, dass diskutiert wird. Ich dringe ja auch nicht in ein Schwimmbad ein, um mich über zu viel Wasser zu beklagen.
Jack V. schrieb: > Dir scheint, wie wirklich vielen Leuten, nicht bewusst zu sein, dass der > Job der Software nicht ist, korrekte Antworten zu geben, Doch, genau dafür wurde es entwickelt und trainiert. > denn das kann > sie gar nicht leisten. Stattdessen gibt sie die wahrscheinlichste > Wortaneinanderreihung als Antwort auf die Eingabe aus. Das /kann/ > durchaus auch faktisch korrekt sein, wenn es die Statistik gerade > hergibt – es ist aber nicht in jedem Fall so, und nicht einmal die > Regel. Und was ist, wenn die Statistik besser wird? So wie das z.B. von Version 3.5 auf 4.0 passiert ist. 4.0 halluziniert deutlich weniger als 3.5. Funktioniert das menschliche Gehirn denn anders? Manche Menschen haben einen inneren Monolog beim Denken und ganz zufällig wird ChatGPT deutlich besser, wenn man es bittet die Lösung Schritt für Schritt zu erklären.
Markus K. schrieb: > Und was ist, wenn die Statistik besser wird? Funktioniert doch schon beeindruckend gut – in der Regel kommen da valide Sätze raus. Das Programm hat nur keine Ahnung vom Inhalt, und wenn die Trainingsdaten verschiedene Wortfolgen als Antwort zulassen, wird es nicht zwangsläufig die sachlich richtige Antwort geben. Dazu müsste es etwas verstehen, und soweit sind wir noch lange nicht.
Jack V. schrieb: > Das Programm hat nur keine Ahnung vom Inhalt, Braucht es das denn? Oder reicht es, wenn es die Regeln kennt, nach denen Inhalte verknüpft werden? Vielleicht fehlt einfach nur noch eine Menge feintuning? > und wenn die > Trainingsdaten verschiedene Wortfolgen als Antwort zulassen, wird es > nicht zwangsläufig die sachlich richtige Antwort geben. > Dazu müsste es etwas verstehen, und soweit sind wir noch lange nicht. Leider weiß man noch nicht so genau, was Verständnis und Intelligenz eigentlich ausmacht. Deswegen kann man auch nicht unbedingt sagen, dass es kein Verständnis hat. Was, wenn es ein bisschen Verständnis hat? Dann würde man erwarten, dass es einige Verständnisaufgaben lösen kann, aber viele davon nicht. Wenn es in einem Intelligenztest gut abschneidet, bedeutet das dann, dass es intelligent ist? Oder bedeutet es, dass der Test keine Intelligenz misst? https://www.scientificamerican.com/article/i-gave-chatgpt-an-iq-test-heres-what-i-discovered/
Markus K. schrieb: > Was, wenn es ein bisschen Verständnis hat? Das würde keiner fragen, der sich damit beschäftigt hat. Erinnert mich an diesen Googlemenschen, der meinte, eines seiner LaMDA-Dinger hätte ein Bewusstsein entwickelt … Markus K. schrieb: > Oder reicht es, wenn es die Regeln kennt, nach > denen Inhalte verknüpft werden? Die Sache ist, dass die Trainingsdaten aufgrund ihrer schieren Masse auch allerhand Müll beinhaltet haben. Ohne den Inhalt zu kennen und abstrahieren zu können, wird das immer eine Rolle spielen. Soweit mir bekannt, behilft man sich derzeit damit, den gröbsten Stuss nach seinem Auftauchen mittels „Tuning“ zu unterbinden, was irgendwie nur eine Marketingumschreibung dafür ist, dass da im Grunde nur bestimmte Verknüpfungen manuell als unerwünscht markiert in einer Datenbank abgelegt werden. Wenn das I für „Intelligenz“ stehen würde, wäre das nicht notwendig.
:
Bearbeitet durch User
Jack V. schrieb: > Dazu müsste es etwas verstehen, und soweit sind wir noch lange nicht. Das gilt auch für sehr viele Aussagen von s.g. natürlichen Intelligenzen. Und hey, das worüber gerade geredet wird, ist die erste veröffentlichte Version (3), 4 ist in der betaphase und soll schon deutlich besser sein (vor allem was falsche, also ausgedachte Antworten angeht) und was kann ML in einem, zwei oder fünf Jahren?
Die meisten Inhalte der Posts hier von echten Menschen sind allerdings auch nur Wiederholungen von Wissen, welches woanders bereits stand/steht. Manchmal ist es innovativ neu angeordnet. Ganz selten sieht man auch mal echte neue Erkenntnisse. Von diesen muß man dann aber noch die echten Messungen der Wirklichkeit abziehen, die KI logischerweise momentan (noch) nicht realisieren kann, mangels realer "Muskeln".
Jack V. schrieb: > Markus K. schrieb: >> Was, wenn es ein bisschen Verständnis hat? > > Das würde keiner fragen, der sich damit beschäftigt hat. Ich habe mich damit beschäftigt. Lass es mich anders formulieren: Wenn ein Mensch nur sehr wenige/einfache Verständnisaufgaben lösen kann, dann ist das ein Zeichen von geringer Intelligenz. Aber bei einer KI gilt das nicht. Da ist das ein Zeichen von gar keiner Intelligenz. Wenn eine KI eine (geringe) Intelligenz hätte - wie würde man das erkennen? Offensichtlich nicht mit einem Intelligenztest für Menschen. Als ein Kriterium für Verständnis werden interne Repräsentation/Abstraktionen genannt. Die hat es zumindest teilweise. Obwohl die öffentlichen Versionen nur mit Textdaten trainiert wurden kann man es bitten, den Code für eine SVG-Datei zu erstellen, die ein Haus mit Dach, Schornstein, Fenstern und Türen zeigt und davor einen Jungen mit Ball. Es hat sich zwar etwas geziert (ich soll doch lieber ein Grafikprogramm nehmen), aber als ich darauf beharrt habe, hat er das getan.
Meine Erfahrungen mit ChatGPT: für echte hilfreiche Ausgaben kann ich das Programm in den meisten Fällen noch nicht bzw. nur bei sehr einfachen Anfragen nutzen. (die aber auch eine Google Anfrage schnell gelöst hätte, nur nicht so hübsch in Text verpackt). Zumindest die aktuelle freie Version liefert bei technischen und naturwissenschaftlichen Fragen jedenfalls bei mir in den meisten Fällen völlig falsche Antworten. Erst wenn man die Fragen immer weiter präzisiert und vorhergehende falsche Antworten als solche markiert, liefert es irgend wann brauchbare Ergebnisse. Aber dann ist die Frage eigentlich schon die Lösung des Problems. ;-) Ich kann mir zumindest aktuell noch nicht vorstellen und erklären, wie es gelingen soll, in zwei bis drei Jahren das System so weit zu verbessern, dass es die meisten (akademischen bzw. intellektuell arbeitenden) Berufsgruppen überflüssig macht. Aber vielleicht sind die Fortschritte ja tatsächlich so spektakulär (Leistungssteigerungen von mehreren Zehnerpotenzen) wie prognostiziert. Dann könne es klappen. Wie gesagt, ich rede von ChatGPT, nicht von der KI an sich. Für Teilgebiete lassen sich sicher enorm leistungsfähige Systeme entwickeln (z.B. in der Medizin). Aber ChatGPT wird ja als umfassende Lösung für Probleme und Fragen in den meisten Gebieten dargestellt. Was ich auch nicht verstehe: die ersten Spielereien mit "Deep Learning" aka neuronale Netze habe ich schon vor vielen Jahren gemacht. Warum hat die ganze Entwicklung in den letzten Jahren wieder geschlafen, obwohl ja die Rechenleistung, vor allem der Großrechner, schon länger auf einem Level ist, mit dem die KI auch tatsächlich interessante Einsatzgebiete ermöglicht. Und plötzlich soll die Leistungsfähigkeit der KI explodieren, losgelöst von der Entwicklung der Rechenleistung der Systeme. Liegt es daran, dass einfach genug Input für generalisierte Systeme zur Verfügung steht? ciao Marci
Wohl eher am Hype, dessen Intention mir noch nicht so ganz klar ist. Was ist denn der eigentlich Zweck dieser Großprojekte, die auch einen enormen Stromverbrauch haben sollen. Also erhebliche Kosten für die Betreiber. Sonst gibt es doch auch nix umsonst. Das fällt auf! Vielleicht leben wir dann doch in der Scheibenwelt und sind nur willfähriges Schafsvieh. Wäre schön peinlich, wenn die Aluhutträger am Ende recht hätten.
Offenbar ist es einer Firma (danach mehreren) gelungen, sehr viel Geld einzutreiben, um eine längst entwickelte KI mit ganz vielen Daten zu trainieren. Gefühlt ist es mun um Faktor 1000 größer als die vorherigen Versuche. Nun kamen dabei Ergebnisse heraus, die sogar Laien zu beeindrucken vermögen. Was wiederum nich mehr Geld einbringt. Mehr steckt wohl nicht dahinter. Keine geniale Idee, kein übermenschlicher Algorithmus. Einfach nur viel Training mit viel Geld.
Markus K. schrieb: > Obwohl die öffentlichen Versionen nur mit Textdaten trainiert wurden > kann man es bitten, den Code für eine SVG-Datei zu erstellen, die ein > Haus mit Dach, Schornstein, Fenstern und Türen zeigt und davor einen > Jungen mit Ball. Dann guck dir das Bild scharf an: es ist falsch. Obwohl in den Trainingsdaten ganz sicher auch die Anatomie vom Menschen beschrieben worden ist. Von „Verständnis“ sehe ich da also nichts. Abdul K. schrieb: > Vielleicht leben wir dann doch in der Scheibenwelt Das kann glücklicherweise jeder selbst nachprüfen. Ist mit mein Lieblingseinstieg bei Diskussionen mit Schwurblern, weil’s so einfach zu widerlegen ist ;)
Jack V. schrieb: > Abdul K. schrieb: >> Vielleicht leben wir dann doch in der Scheibenwelt > > Das kann glücklicherweise jeder selbst nachprüfen. Ist mit mein > Lieblingseinstieg bei Diskussionen mit Schwurblern, weil’s so einfach zu > widerlegen ist ;) Glaube da sitzt Du einem großen Irrtum auf. Wir leben in einer krummen Scheibenwelt. Das stellt eine witzige umgangssprachliche Formulierung astronomischer Theorie dar. Mit der Scheibenwelt von Schwurblern hat das aber nichts gemeinsam.
Dieter D. schrieb: > Wir leben in einer krummen > Scheibenwelt. Das stellt eine witzige umgangssprachliche Formulierung > astronomischer Theorie dar. Mit der Scheibenwelt von Schwurblern hat das > aber nichts gemeinsam. Nix für ungut, aber was du da schreibst, liest sich für mich wie blanke Schwurbelei (im weiteren Sinne). Im Übrigen gibt es nur eine ernstzunehmende Scheibenwelt – und das ist nicht die Erde. Sie wird getragen von vier Elefanten, die auf einer riesigen Schildkröte namens Groß-A’Tuin stehen – aber das ist eine andere Geschichte.
Stefan F. schrieb: > Insofern verhält sich ChatGPT absolut respektlos. Respekt... meine Güte, was erwartest Du denn von einem Sprachmodell?
Hallo Flo schrieb: > Gründe sind unter anderem, dass ChatGPT immer freundlich und hilfsbereit > antwortet, was gerade beim rauen Klima auf Stackoverflow nicht immer > gegeben ist. > Gerade hier sehe ich aber auch Parallelen zum Forum hier. Läuft > mikrocontroller.net mittelfristig auch Gefahr von ChatGPT den Rang > abgelaufen zu bekommen? "Ihr" (bis auf ein oder zwei Ausnahmen) habt wirklich nicht verstanden, worauf der TO zu Recht anspielt und was er halt etwas verklausuliert und mit leichter Ironie kritisiert. ChatGPT ist hier und bei Stackoverflow nur "das Werkzeug" , was das alte Kernproblem (nicht nur dieser) Foren und ähnlicher "sozialer" Medien auf einer weiteren Art sichtbar macht: Die Unfreundlichkeit, Respektlosigkeit und Unfähigkeit anderes Verhalten und Grundeinstellungen von Mitmenschen ohne Kommentare zu akzeptieren. Eine recht kleine feste Gruppe von sehr lauten und schlicht unverschämten Leuten, die sich nicht mal schämen das auch noch unter ihren festen (Foren)namen das Niveau hinunterzuziehen, Streit zu züchten, einzelne Menschen zu Mobben - und öfter auch gegen Gruppen (hier gerne "Die Jugend" bestimmte Gewerkschaften und eher links und "ökologisch" eingestellte Gruppen, und je nachdem gegen Fahrradfahrer oder Autofahrer) extrem zu hetzen. Leider wird hier schnell wieder mal der einfache Weg gegangen und über ChatGPT (ein weiters "Werzeug" was das Problem aufzeigt)an sich diskutiert - und das ist eben nicht das Thema und Problem, was der TO vollkommen zurecht (wie so viele andere schon vorher) anspricht.
Marci W. schrieb: > Ich kann mir zumindest aktuell noch nicht vorstellen und erklären, wie > es gelingen soll, in zwei bis drei Jahren das System so weit zu > verbessern, dass es die meisten (akademischen bzw. intellektuell > arbeitenden) Berufsgruppen überflüssig macht. Da muss man sehr darauf achten, wer so etwas sagt. Das ist wie beim autonomen Fahren: Firma A sagte, sie schaffen das in 5 Jahren. Dann sagte Firma B, wenn die das 5 Jahren schaffen, dann schaffen wir das in 4 Jahren usw. bis Firma D sagte, wir schaffen das in 2 Jahren. Völlig absurde Zahlen, die ganz sicher nicht mit den Entwicklern abgestimmt waren. Am Ende hat sich rausgestellt, dass auch die 5 Jahre viel zu optimistisch waren. > Was ich auch nicht verstehe: die ersten Spielereien mit "Deep Learning" > aka neuronale Netze habe ich schon vor vielen Jahren gemacht. Warum hat > die ganze Entwicklung in den letzten Jahren wieder geschlafen, obwohl ja > die Rechenleistung, vor allem der Großrechner, schon länger auf einem > Level ist, mit dem die KI auch tatsächlich interessante Einsatzgebiete > ermöglicht. Und plötzlich soll die Leistungsfähigkeit der KI > explodieren, losgelöst von der Entwicklung der Rechenleistung der > Systeme. Liegt es daran, dass einfach genug Input für generalisierte > Systeme zur Verfügung steht? Auch. Außerdem sind die Netze deutlich größer geworden und es gibt da durchaus emergente Funktionen, z.B. kann man ein Netz mit 175 Milliarden Parametern bitten, es soll die Lösung Schritt für Schritt erklären, aber bei einem Netz mit 7 Milliarden Parametern geht das nicht. Was am Ende aber wohl wirklich viel gebracht hat, war, dass man nach dem Training mit dem Textkörper dem Netz Fragen gestellt hat und Menschen haben die Antworten beurteilt und das floss dann in das weitere Training ein.
Jack V. schrieb: > Markus K. schrieb: >> Obwohl die öffentlichen Versionen nur mit Textdaten trainiert wurden >> kann man es bitten, den Code für eine SVG-Datei zu erstellen, die ein >> Haus mit Dach, Schornstein, Fenstern und Türen zeigt und davor einen >> Jungen mit Ball. > > Dann guck dir das Bild scharf an: es ist falsch. Obwohl in den > Trainingsdaten ganz sicher auch die Anatomie vom Menschen beschrieben > worden ist. Von „Verständnis“ sehe ich da also nichts. Das ist wie bei Kindern, die Strichmännchen zeichnen. Die haben auch kein Verständnis. Sonst würden sie es ja richtig zeichnen. Irgendwann in der Entwicklung gibt es dann den Verständnistag, und ab da sind sie dann Intelligent.
Markus K. schrieb: > Das ist wie bei Kindern, die Strichmännchen zeichnen. Kinder haben in der Regel vorher keine Petabyte an Daten zum Verknüpfen vorgesetzt bekommen, und es würde von ihnen auch keiner behaupten, dass dafür da wären, korrekte Antworten zu geben. Das sind nur zwei der Gründe, warum dein Vergleich an dieser Stelle nicht im Ansatz passt. Abgesehen davon würde auch kein Kind die Arme so anordnen, wie im Bild.
:
Bearbeitet durch User
Jack V. schrieb: > Markus K. schrieb: >> Das ist wie bei Kindern, die Strichmännchen zeichnen. > > Kinder haben in der Regel vorher keine Petabyte an Daten zum Verknüpfen > vorgesetzt bekommen, ist der Weg dahin wichtig? ich würde sagen, nur das Ergebnis zählt. Davon abgesehen bin ich mir nicht sicher, ob Kinder wegen des Sehens nicht vielleicht doch sehr viel mehr Trainingsdaten(menge) haben. > und es würde von ihnen auch keiner behaupten, dass > dafür da wären, korrekte Antworten zu geben. Und diese Aussage hat einen Einfluss auf Verständnis/Intelligenz eines Systems? > Abgesehen davon würde auch kein Kind die Arme so anordnen, wie im Bild. Genau. Kinder würden einfach alle Gliedmaßen an den Kopf machen. Sogenannte Kopffüßler: https://www.google.com/search?client=firefox-b-d&q=kinder+strichm%C3%A4nnchen+kopff%C3%BC%C3%9Fler
Markus schrieb: > Jack V. schrieb: >> Dir scheint, wie wirklich vielen Leuten, nicht bewusst zu sein, dass der >> Job der Software nicht ist, korrekte Antworten zu geben, > > Doch, genau dafür wurde es entwickelt und trainiert. Das "korrekt" aber nur in Bezug auf Sprache/Grammatik. Inhaltliche Korrektheit wird eben nicht trainiert. Die für das Feedback eingesetzte Zusatz-KI zur Bewertung von Anworten bevorzugt "genehme" Antworten - ordentlicher Satzbau, gute Korrelation mit den Wortfolgen der Frage, etc. Etwas wie "Weiß ich nicht" bekommt da einen hohen negativen Score - jede Lüge hat einen bessere Bewertung. Ein Prüfung auf Kausalität existiert nicht! Wenn das mal kommt, wird es interessant. Aktuell sind diese "KI"s nur sehr gute Phrasendrescher mit einem gigantischen Phrasenvorrat - mehr wollten sie ja auch garnicht sein ...
Hier mal ein Beispiel für mehr Traffik durch ChatGPT, in dem Falle die automatische Übersetzung ins Französische. Die Anwendung hatte aber noch eine Macke, indem das Französische nicht ins Deutsche übertragen eingetragen wird. Beitrag "Re: [V] elektr. Trafo 11,5V 150W und 4 MR16 LED Spots" Es sollte auf eine Vorschlag hin eine Metainformationen für den Seitenquelltext eingeführt werden, damit solche Übersetzer in solche Felder Quell- und Zielsprache eintragen. Vielleicht weiß da jemand mehr, ob das allles ruht oder noch was kommt.
:
Bearbeitet durch User
Flo schrieb: > Gründe sind unter anderem, dass ChatGPT immer freundlich und hilfsbereit > antwortet, was gerade beim rauen Klima auf Stackoverflow nicht immer > gegeben ist. > Gerade hier sehe ich aber auch Parallelen zum Forum hier. Läuft > mikrocontroller.net mittelfristig auch Gefahr von ChatGPT den Rang > abgelaufen zu bekommen? Hier geht's doch primär ums Herumpöbeln - also keine Sorge. ChatGPT braucht Trainingsdaten - die hundertste Frage zum Vorwiderstand einer LED kann davon beantwortet werden und müllt die Foren nicht zu. Dort können dann anspruchsvollere Fragestellungen behandelt werden.
Jan H. schrieb: > anspruchsvollere Fragestellungen Umgekehrt wird es werden. Die KI übernimmt alle interessanten Fragestellungen und überläßt den Rest dem biologischen Müll. (Terminator 1)
Jack V. schrieb: > Letztes Beispiel, das durch die Medien gegangen ist, war ein Anwalt aus > NY, der die „Recherche“ von ChatGPT erledigen lassen hat – und dann vor > Gericht erklären musste, warum alle angeführten Referenzen ins Leere > liefen … Man muss die Quellen und deren Information überprüfen und nicht alles kritiklos übernehmen. Galt immer auch schon für menschliche Quellen. Ich musste leider feststellen, dass die Qualität von ChaGPT stark abgenommen hat.
Flo schrieb: > Mir ist klar wie ChatGPT funktioniert. Wenn man aber einigermaßen im > Thema ist fallen einem die Fehler auf und man fragt noch ein zweites mal > nach. Meist stimmt es dann. Und du vergisst dass in einem Forum auch oft > falsche Antworten oder zumindest unvollständige und fehlerhafte > Antworten gepostet werden. Es ist sehr irritierend, dass sich ChatGPT sehr menschenähnlich in seinen Antworten verhält. Man kann sich nicht auf dessen Aussagen verlassen. Es setzt Grundwissen voraus um ChatGPT sinnvoll verwenden zu können, um Spreu vom Weizen trennen zu können.
Flo schrieb: > dass ChatGPT immer freundlich und hilfsbereit > antwortet, ja, saublöde Fragen und Antworten, egal wie freundlich, wird auch hier zu weniger Traffic führen, zumindest ich überlege dann auszusteigen denn unbrauchbare Antworten und sinnlose Fragen braucht kein Mensch.
:
Bearbeitet durch User
Ist das noch zu toppen? Ein paar Dummköpfe zanken sich um Intelligenz. Das ist, selbst wenn die Intelligenz nur künstlich ist, ein Paradestück der Parodie. Stan Laurel und Oliver Hardy (Dick & Doof) wären stolz zu sehen was wir hier aus ihren bescheidenen Anfängen machen. Die Tatsache ein landwirtschaftliches Nutztier zu sein, macht aus dem Esel noch keinen Experten für Ackerbau und Viehzucht! Schönen Feiertag. Tom
Tom A. schrieb: > Intelligenz nur künstlich wo soll denn die KI herkommen wenn die NI abnimmt? Solange MINT Fächer teilweise abgewählt werden und Promotionen gekauft werden können fast überall.
Markus K. schrieb: > Jack V. schrieb: > >> Das Programm hat nur keine Ahnung vom Inhalt, > > Braucht es das denn? Oder reicht es, wenn es die Regeln kennt, nach > denen Inhalte verknüpft werden? Vielleicht fehlt einfach nur noch eine > Menge feintuning? Ja, offensichtlicht braucht es das. In einem anderen Thread hier wurde ChatGPT doch nach den Blumento Pferden gefragt und es hat ganz brav den Inhalt der Stubipedia wiedergegeben. Da Medienkompetenz in der Grundschule ja auchzu kurz kommt kann das ChatGPT ja auch nicht viel besser wissen. Wird jedenfalls Spannend die Zukunft. Den Schlagzeilen der Bild "Zeitung" wurde ja auch geglaubt, also werden Menschen auch ChatGPT glauben.
Flo schrieb: > erade hier sehe ich aber auch Parallelen zum Forum hier. Läuft > mikrocontroller.net mittelfristig auch Gefahr von ChatGPT den Rang > abgelaufen zu bekommen? Ja das tut es. Das Schlimme ist halt, dass die KIs mit Daten trainiert werden, die grösstenteils geklaut sind. Wie Suchmaschinen, grasen sie das ganze Internet nach Daten ab, die sie sich einverleiben und die Betreiberfirma macht dann haufenweise Geld damit, ohne die eigentlichen Urheber der Daten finanziell zu entschädigen. Kommt mir vor wie die lebende Nr. 5, welche nach immer noch mehr Input schreit: https://youtu.be/-upam5r3nbA
Die Daten sind genauso "geklaut" als wenn Du im Forum nach einer Antwort fragst und die dann verwendest. Das ist doch bloß die Gier der Leute, dass jetzt jeder mitverdienen will. Wenn ich nicht will, dass andere meinen Kram verwenden, ja dann stelle ich ihn halt nicht ins Netz. Die KI-Entwicklung wird so große Vorteile für uns alle bringen - und tut das jetzt schon - dass es einfach keinen Sinn macht, das Netz fürs KI-Training zu speren, wohingegen menschliche Akteure normal Zugriff haben. Ich sehe da einfach den Unterschied nicht, ob Google Seiten indiziert, Leute Informationen aus dem Web in ihr Gehirn integrieren und damit dann Geld verdienen oder irgendeine KI-Firma die Daten mit Netz in ihre Netze reinlernt. Solange das keine Plagiate gibt ist das doch alles völlig iO.
Jemin K. schrieb: > Die Daten sind genauso "geklaut" als wenn Du im Forum nach einer Antwort > fragst und die dann verwendest. Geklaut wurden auch Bücher, die nicht frei zugänglich waren (bzw. hätten sein sollen).
Stefan F. schrieb: > Jemin K. schrieb: >> Die Daten sind genauso "geklaut" als wenn Du im Forum nach einer Antwort >> fragst und die dann verwendest. > > Geklaut wurden auch Bücher, die nicht frei zugänglich waren (bzw. hätten > sein sollen). Wenn Du ein Buch kaufst und dann, nachdem Du es gelesen hast, an Deine Freunde verleihst, ist das dann nicht auch gestohlen? Das wurde ja nur einmal gekauft und dann von verschiedenen Personen gelesen. Kann sein, dass openai gar nichts für die Bücher gezahlt hat, aber die Diskussion geht ja nicht darum, dass sie jeweils ein Exemplar hätten bezahlen sollen, sondern dass sie mit dem gelernten Wissen Geld verdienen. So wie das halt auch Menschen machen, aber Menschen kann man schlecht kopieren.
Markus K. schrieb: > Wenn Du ein Buch kaufst und dann, nachdem Du es gelesen hast, an Deine > Freunde verleihst, ist das dann nicht auch gestohlen? Das wurde ja nur > einmal gekauft und dann von verschiedenen Personen gelesen. Natürlich werden alte Definitionen unsinnig in neuen Umgebungen. Aber der Deal bei einem Buch ist: Du kannst es kaufen, an alle Freunde verleihen und danach verkaufen auf diese Weise können 1000 Leute das eine Buch in 10 Jahren lesen, realistisch eher 3. ChatGPT agiert wie 10 Millionen Personen. Es hat das Buch quasi hunderttausend mal kopiert und stellt den Inhalt (oder ein excerpt) jedem zur Verfügung. Quantität ist eine eigene Qualität.
Moin, Ich sehe anhand der Kommentare bisheriger Erfahrungen anderer Leute, daß sich die Beschäftigung mit chatGPT scheinbar doch noch nicht so wirklich lohnen zu scheint und möglicherweise auch als eine Art Zeitverschwendung bewertet werden könnte. Bisher war ich von den vielen publizierten Frage Antwortspielen Beispielen nicht wirklich beeindruckt. Abgesehen davon geht mir auch die überzogen neutrale Sprachwahl total auf den Wecker. Ja niemand auf die Zehen zu steigen, scheint die Programmierung darauf hinzielen zu wollen. Da sind mir Menschen mit all ihrer Unvollkommenheit lieber als diese schleimige Korrektheit. Die leben wenigstens. Was mich betrifft, tut Eile mit chatGPT wirklich nicht Not und schüttle mir wie ein nasser Hund das Wasser vom Fell:-) Gerhard
:
Bearbeitet durch User
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.