Forum: Offtopic Weniger Traffic durch ChatGPT


von Flo (linux_user)


Lesenswert?

Stackoverflow musste jetzt schon deutliche Traffic Einbußen dank ChatGPT 
hinnehmen:
https://www.golem.de/news/entwickler-forum-chatgpt-verursacht-traffic-einbrueche-bei-stack-overflow-2305-174120.html

Gründe sind unter anderem, dass ChatGPT immer freundlich und hilfsbereit 
antwortet, was gerade beim rauen Klima auf Stackoverflow nicht immer 
gegeben ist.
Gerade hier sehe ich aber auch Parallelen zum Forum hier. Läuft 
mikrocontroller.net mittelfristig auch Gefahr von ChatGPT den Rang 
abgelaufen zu bekommen?

von Jack V. (jackv)


Lesenswert?

Dir scheint, wie wirklich vielen Leuten, nicht bewusst zu sein, dass der 
Job der Software nicht ist, korrekte Antworten zu geben, denn das kann 
sie gar nicht leisten. Stattdessen gibt sie die wahrscheinlichste 
Wortaneinanderreihung als Antwort auf die Eingabe aus. Das kann 
durchaus auch faktisch korrekt sein, wenn es die Statistik gerade 
hergibt – es ist aber nicht in jedem Fall so, und nicht einmal die 
Regel. Damit haben sich schon so manche in die Nesseln gesetzt, die‘s 
ebenfalls nicht verstanden haben.

Letztes Beispiel, das durch die Medien gegangen ist, war ein Anwalt aus 
NY, der die „Recherche“ von ChatGPT erledigen lassen hat – und dann vor 
Gericht erklären musste, warum alle angeführten Referenzen ins Leere 
liefen …

von Flo (linux_user)


Lesenswert?

Jack V. schrieb:
> Dir scheint, wie wirklich vielen Leuten, nicht bewusst zu sein, dass der
> Job der Software nicht ist, korrekte Antworten zu geben, denn das kann
> sie gar nicht leisten. Stattdessen gibt sie die wahrscheinlichste
> Wortaneinanderreihung als Antwort auf die Eingabe aus. Das /kann/
> durchaus auch faktisch korrekt sein, wenn es die Statistik gerade
> hergibt – es ist aber nicht in jedem Fall so, und nicht einmal die
> Regel. Damit haben sich schon so manche in die Nesseln gesetzt, die‘s
> ebenfalls nicht verstanden haben.
>
> Letztes Beispiel, das durch die Medien gegangen ist, war ein Anwalt aus
> NY, der die „Recherche“ von ChatGPT erledigen lassen hat – und dann vor
> Gericht erklären musste, warum alle angeführten Referenzen ins Leere
> liefen …

Mir ist klar wie ChatGPT funktioniert. Wenn man aber einigermaßen im 
Thema ist fallen einem die Fehler auf und man fragt noch ein zweites mal 
nach. Meist stimmt es dann. Und du vergisst dass in einem Forum auch oft 
falsche Antworten oder zumindest unvollständige und fehlerhafte 
Antworten gepostet werden.

von Re D. (Gast)


Lesenswert?

Jack V. schrieb:
> korrekte Antworten zu geben

Jack V. schrieb:
> Wortaneinanderreihung als Antwort

Also wie im Forum. Wenn ein Precy und Konsorten auftauchen gibt es auch 
nur noch Wortaneinanderreihung.

von Flo (linux_user)


Lesenswert?

Re D. schrieb:
> Jack V. schrieb:
>> korrekte Antworten zu geben
>
> Jack V. schrieb:
>> Wortaneinanderreihung als Antwort
>
> Also wie im Forum. Wenn ein Precy und Konsorten auftauchen gibt es auch
> nur noch Wortaneinanderreihung.

Danke! Es gibt so viele User hier bei denen man die Beiträge regelrecht 
vorhersagen kann...

von Stefan F. (Gast)


Lesenswert?

Flo schrieb:
> Läuft mikrocontroller.net mittelfristig auch Gefahr von ChatGPT den Rang
> abgelaufen zu bekommen?

Das ist keine Gefahr. Wer ChatGPT bevorzugt ist hier eh falsch.

von Jack V. (jackv)


Lesenswert?

Flo schrieb:
> enn man aber einigermaßen im
> Thema ist fallen einem die Fehler auf

Wenn die Leute „einigermaßen im Thema“ wären, würden wirklich viele 
Threads hier gar nicht existieren. Diese TE sind es, die von den 
Sprachmodellen aufs Glatteis geführt würden.

Es ist ja sogar so, dass Leute, die sich vorgeblich auskennen würden, 
hier schon falsche oder auch nur unpassende Antworten von ChatGPT 
gepostet haben. Dass sie das dann nicht einmal kenntlich gemacht haben, 
hat dem Ganzen dann auch irgendwie nur noch die Krone aufgesetzt.

: Bearbeitet durch User
von Peter G. (ham)


Lesenswert?

Hallo

Flo schrieb:
> Gerade hier sehe ich aber auch Parallelen zum Forum hier. Läuft
> mikrocontroller.net mittelfristig auch Gefahr von ChatGPT den Rang
> abgelaufen zu bekommen?

Netter Versuch einigen Leuten hier mal ->freundlich<- und mit nur 
leichter aber feiner Ironie mal zum Nachdenken und zu einer 
Verhaltensveränderung anzuregen.

Aber es wird nicht funktionieren - du bist nicht der erste und wirst 
wahrscheinlich auch nicht der letzte sein.

Flo schrieb:
> Danke! Es gibt so viele User hier bei denen man die Beiträge regelrecht
> vorhersagen kann...

wahre Worte - und ja, jetzt werden sie kommen, die schon genannten 
"Forenstörer" und das auch auf mich beziehen... ;-)

Stefan F. schrieb:
> Das ist keine Gefahr. Wer ChatGPT bevorzugt ist hier eh falsch.

Ja, so ist es wohl - wer Wert auf vernünftigen und freundlichen  Umgang 
legt und nun mal fragt, weil er eben keine Ahnung hat (sonst würde man 
nicht fragen) und sich nicht erst mal ein "Grundstudium" im 
entsprechenden Fachbereich antun will, sondern einfach nur schnell und 
ohne viel Aufwand eine Frage beantwortet haben will - der ist hier meist 
wirklich verkehrt..

Hier sind halt einige laute und sich immer als Erstes mit dummen 
Sprüchen und sehr schlechten "Gegenfragen" um sich schmeißende 
verhinderte sehr schlechte "Lehrer" unterwegs.

Ja Chat GPT hat eindeutig seine Schwächen (letztendlich holt es sich 
sein "Wissen" ja auch "nur" aus dem Netz und "lernt" aus Reaktionen 
während des "Gesprächs").

Es  (Chat GPT) könnte aber auch ruhig mal seine Schwächen zugeben und 
auch mal mit ein "ich bin da auch nicht ganz sicher, aber 
wahrscheinlich..."  Reagieren, aber trotz allem:

Man wird freundlich angesprochen, man wird nicht persönlich gewertet, 
und nicht zuletzt geht ChatGPT eben nicht seinen "Wissen" und "seinen 
Wertevorstellungen" (hat es sowieso nicht) als das "Normal" und ein "Das 
muss der TO beherrschen" aus.

Jack V. schrieb:
> Wenn die Leute „einigermaßen im Thema“ wären, würden wirklich viele
> Threads hier gar nicht existieren. Diese TE sind es, die von den
> Sprachmodellen aufs Glatteis geführt würden.

Das ist eben der Bereich, wo echte Menschen und Systeme wie Foren immer 
noch punkten könnten...
Beispielsweise, wenn vernünftig und freundlich (!) nachgefragt würde, 
wenn freundlich erklärt werden würde, welche Informationen noch fehlen, 
und wie der TO diese herausbekommt, und wenn nie (!) von dem eigenen 
Wissen, wie man es erlangt hat ausgeht  und welche Vorstellungen man vom 
"richtigen" Lernen hat (höchstens als freundliche eingeschobene 
Empfehlung) einfach kein Thema sind.
Ein TO möchte Antworten und keine Anweisungen und Wertungen.

von Stefan F. (Gast)


Lesenswert?

Peter G. schrieb:
> Man wird freundlich angesprochen, man wird nicht persönlich gewertet

Man wird von ChatGPT aber auch nicht respektiert. Wenn das System keine 
Ahnung hat, erfindet es Geschichten. Wenn du auf Fehler hinweist, 
entschuldigt es sich, um direkt danach den selben Scheiß zu wiederholen 
oder gar mit erfundenen Argumenten zu belegen.

Insofern verhält sich ChatGPT absolut respektlos.

Stefan F. schrieb:
> Das ist keine Gefahr. Wer ChatGPT bevorzugt ist hier eh falsch.

Damit meinte ich allerdings nicht die Höflichkeit (an der es hier 
tatsächlich mangelt), sondern dass hier Menschen sind, die Beweggründe 
und Ziele hinterfragen, um zu einer guten Empfehlung zu kommen. Und wenn 
hier Quatsch verzapft wird, dann sind genug Leute  da, die das prompt 
dementieren.

ChatGPT antwortet immer kompakt und überzeugen, ganz egal welchen 
Bullshit es dabei abgeliefert hat. Wer das so will, der soll bitteschön 
dort in gehen anstatt sich hier im Diskussionsforum darüber zu beklagen, 
dass diskutiert wird.

Ich dringe ja auch nicht in ein Schwimmbad ein, um mich über zu viel 
Wasser zu beklagen.

von Markus K. (markus-)


Lesenswert?

Jack V. schrieb:
> Dir scheint, wie wirklich vielen Leuten, nicht bewusst zu sein, dass der
> Job der Software nicht ist, korrekte Antworten zu geben,

Doch, genau dafür wurde es entwickelt und trainiert.

> denn das kann
> sie gar nicht leisten. Stattdessen gibt sie die wahrscheinlichste
> Wortaneinanderreihung als Antwort auf die Eingabe aus. Das /kann/
> durchaus auch faktisch korrekt sein, wenn es die Statistik gerade
> hergibt – es ist aber nicht in jedem Fall so, und nicht einmal die
> Regel.

Und was ist, wenn die Statistik besser wird? So wie das z.B. von Version 
3.5 auf 4.0 passiert ist. 4.0 halluziniert deutlich weniger als 3.5.

Funktioniert das menschliche Gehirn denn anders? Manche Menschen haben 
einen inneren Monolog beim Denken und ganz zufällig wird ChatGPT 
deutlich besser, wenn man es bittet die Lösung Schritt für Schritt zu 
erklären.

von Jack V. (jackv)


Lesenswert?

Markus K. schrieb:
> Und was ist, wenn die Statistik besser wird?

Funktioniert doch schon beeindruckend gut – in der Regel kommen da 
valide Sätze raus.

Das Programm hat nur keine Ahnung vom Inhalt, und wenn die 
Trainingsdaten verschiedene Wortfolgen als Antwort zulassen, wird es 
nicht zwangsläufig die sachlich richtige Antwort geben. Dazu müsste es 
etwas verstehen, und soweit sind wir noch lange nicht.

von Markus K. (markus-)


Lesenswert?

Jack V. schrieb:

> Das Programm hat nur keine Ahnung vom Inhalt,

Braucht es das denn? Oder reicht es, wenn es die Regeln kennt, nach 
denen Inhalte verknüpft werden? Vielleicht fehlt einfach nur noch eine 
Menge feintuning?

> und wenn die
> Trainingsdaten verschiedene Wortfolgen als Antwort zulassen, wird es
> nicht zwangsläufig die sachlich richtige Antwort geben.
> Dazu müsste es etwas verstehen, und soweit sind wir noch lange nicht.

Leider weiß man noch nicht so genau, was Verständnis und Intelligenz 
eigentlich ausmacht. Deswegen kann man auch nicht unbedingt sagen, dass 
es kein Verständnis hat. Was, wenn es ein bisschen Verständnis hat? Dann 
würde man erwarten, dass es einige Verständnisaufgaben lösen kann, aber 
viele davon nicht.

Wenn es in einem Intelligenztest gut abschneidet, bedeutet das dann, 
dass es intelligent ist? Oder bedeutet es, dass der Test keine 
Intelligenz misst?
https://www.scientificamerican.com/article/i-gave-chatgpt-an-iq-test-heres-what-i-discovered/

von Jack V. (jackv)


Lesenswert?

Markus K. schrieb:
> Was, wenn es ein bisschen Verständnis hat?

Das würde keiner fragen, der sich damit beschäftigt hat. Erinnert mich 
an diesen Googlemenschen, der meinte, eines seiner LaMDA-Dinger hätte 
ein Bewusstsein entwickelt …

Markus K. schrieb:
> Oder reicht es, wenn es die Regeln kennt, nach
> denen Inhalte verknüpft werden?

Die Sache ist, dass die Trainingsdaten aufgrund ihrer schieren Masse 
auch allerhand Müll beinhaltet haben. Ohne den Inhalt zu kennen und 
abstrahieren zu können, wird das immer eine Rolle spielen. Soweit mir 
bekannt, behilft man sich derzeit damit, den gröbsten Stuss nach seinem 
Auftauchen mittels „Tuning“ zu unterbinden, was irgendwie nur eine 
Marketingumschreibung dafür ist, dass da im Grunde nur bestimmte 
Verknüpfungen manuell als unerwünscht markiert in einer Datenbank 
abgelegt werden. Wenn das I für „Intelligenz“ stehen würde, wäre das 
nicht notwendig.

: Bearbeitet durch User
von Kolja L. (kolja82)


Lesenswert?

Jack V. schrieb:
> Dazu müsste es etwas verstehen, und soweit sind wir noch lange nicht.

Das gilt auch für sehr viele Aussagen von s.g. natürlichen 
Intelligenzen.

Und hey, das worüber gerade geredet wird, ist die erste veröffentlichte 
Version (3), 4 ist in der betaphase und soll schon deutlich besser sein 
(vor allem was falsche, also ausgedachte Antworten angeht) und was kann 
ML in einem, zwei oder fünf Jahren?

von Abdul K. (ehydra) Benutzerseite


Lesenswert?

Die meisten Inhalte der Posts hier von echten Menschen sind allerdings 
auch nur Wiederholungen von Wissen, welches woanders bereits 
stand/steht. Manchmal ist es innovativ neu angeordnet. Ganz selten sieht 
man auch mal echte neue Erkenntnisse. Von diesen muß man dann aber noch 
die echten Messungen der Wirklichkeit abziehen, die KI logischerweise 
momentan (noch) nicht realisieren kann, mangels realer "Muskeln".

von Markus K. (markus-)


Angehängte Dateien:

Lesenswert?

Jack V. schrieb:
> Markus K. schrieb:
>> Was, wenn es ein bisschen Verständnis hat?
>
> Das würde keiner fragen, der sich damit beschäftigt hat.

Ich habe mich damit beschäftigt.

Lass es mich anders formulieren: Wenn ein Mensch nur sehr 
wenige/einfache Verständnisaufgaben lösen kann, dann ist das ein Zeichen 
von geringer Intelligenz. Aber bei einer KI gilt das nicht. Da ist das 
ein Zeichen von gar keiner Intelligenz.

Wenn eine KI eine (geringe) Intelligenz hätte - wie würde man das 
erkennen? Offensichtlich nicht mit einem Intelligenztest für Menschen. 
Als ein Kriterium für Verständnis werden interne 
Repräsentation/Abstraktionen genannt. Die hat es zumindest teilweise. 
Obwohl die öffentlichen Versionen nur mit Textdaten trainiert wurden 
kann man es bitten, den Code für eine SVG-Datei zu erstellen, die ein 
Haus mit Dach, Schornstein, Fenstern und Türen zeigt und davor einen 
Jungen mit Ball. Es hat sich zwar etwas geziert (ich soll doch lieber 
ein Grafikprogramm nehmen), aber als ich darauf beharrt habe, hat er das 
getan.

von Marci W. (Gast)


Lesenswert?

Meine Erfahrungen mit ChatGPT:

für echte hilfreiche Ausgaben kann ich das Programm in den meisten 
Fällen noch nicht bzw. nur bei sehr einfachen Anfragen nutzen. (die aber 
auch eine Google Anfrage schnell gelöst hätte, nur nicht so hübsch in 
Text verpackt). Zumindest die aktuelle freie Version liefert bei 
technischen und naturwissenschaftlichen Fragen jedenfalls bei mir in den 
meisten Fällen völlig falsche Antworten. Erst wenn man die Fragen immer 
weiter präzisiert und vorhergehende falsche Antworten als solche 
markiert, liefert es irgend wann brauchbare Ergebnisse. Aber dann ist 
die Frage eigentlich schon die Lösung des Problems. ;-)

Ich kann mir zumindest aktuell noch nicht vorstellen und erklären, wie 
es gelingen soll, in zwei bis drei Jahren das System so weit zu 
verbessern, dass es die meisten (akademischen bzw. intellektuell 
arbeitenden) Berufsgruppen überflüssig macht. Aber vielleicht sind die 
Fortschritte ja tatsächlich so spektakulär (Leistungssteigerungen von 
mehreren Zehnerpotenzen) wie prognostiziert. Dann könne es klappen.

Wie gesagt, ich rede von ChatGPT, nicht von der KI an sich. Für 
Teilgebiete lassen sich sicher enorm leistungsfähige Systeme entwickeln 
(z.B. in der Medizin). Aber ChatGPT wird ja als umfassende Lösung für 
Probleme und Fragen in den meisten Gebieten dargestellt.

Was ich auch nicht verstehe: die ersten Spielereien mit "Deep Learning" 
aka neuronale Netze habe ich schon vor vielen Jahren gemacht. Warum hat 
die ganze Entwicklung in den letzten Jahren wieder geschlafen, obwohl ja 
die Rechenleistung, vor allem der Großrechner, schon länger auf einem 
Level ist, mit dem die KI auch tatsächlich interessante Einsatzgebiete 
ermöglicht. Und plötzlich soll die Leistungsfähigkeit der KI 
explodieren, losgelöst von der Entwicklung der Rechenleistung der 
Systeme. Liegt es daran, dass einfach genug Input für generalisierte 
Systeme zur Verfügung steht?

ciao

Marci

von Abdul K. (ehydra) Benutzerseite


Lesenswert?

Wohl eher am Hype, dessen Intention mir noch nicht so ganz klar ist.

Was ist denn der eigentlich Zweck dieser Großprojekte, die auch einen 
enormen Stromverbrauch haben sollen. Also erhebliche Kosten für die 
Betreiber. Sonst gibt es doch auch nix umsonst. Das fällt auf!

Vielleicht leben wir dann doch in der Scheibenwelt und sind nur 
willfähriges Schafsvieh. Wäre schön peinlich, wenn die Aluhutträger am 
Ende recht hätten.

von Stefan F. (Gast)


Lesenswert?

Offenbar ist es einer Firma (danach mehreren) gelungen, sehr viel Geld 
einzutreiben, um eine längst entwickelte KI mit ganz vielen Daten zu 
trainieren. Gefühlt ist es mun um Faktor 1000 größer als die vorherigen 
Versuche.

Nun kamen dabei Ergebnisse heraus, die sogar Laien zu beeindrucken 
vermögen. Was wiederum nich mehr Geld einbringt.

Mehr steckt wohl nicht dahinter. Keine geniale Idee, kein 
übermenschlicher Algorithmus. Einfach nur viel Training mit viel Geld.

von Jack V. (jackv)


Lesenswert?

Markus K. schrieb:
> Obwohl die öffentlichen Versionen nur mit Textdaten trainiert wurden
> kann man es bitten, den Code für eine SVG-Datei zu erstellen, die ein
> Haus mit Dach, Schornstein, Fenstern und Türen zeigt und davor einen
> Jungen mit Ball.

Dann guck dir das Bild scharf an: es ist falsch. Obwohl in den 
Trainingsdaten ganz sicher auch die Anatomie vom Menschen beschrieben 
worden ist. Von „Verständnis“ sehe ich da also nichts.

Abdul K. schrieb:
> Vielleicht leben wir dann doch in der Scheibenwelt

Das kann glücklicherweise jeder selbst nachprüfen. Ist mit mein 
Lieblingseinstieg bei Diskussionen mit Schwurblern, weil’s so einfach zu 
widerlegen ist ;)

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Jack V. schrieb:
> Abdul K. schrieb:
>> Vielleicht leben wir dann doch in der Scheibenwelt
>
> Das kann glücklicherweise jeder selbst nachprüfen. Ist mit mein
> Lieblingseinstieg bei Diskussionen mit Schwurblern, weil’s so einfach zu
> widerlegen ist ;)

Glaube da sitzt Du einem großen Irrtum auf. Wir leben in einer krummen 
Scheibenwelt. Das stellt eine witzige umgangssprachliche Formulierung 
astronomischer Theorie dar. Mit der Scheibenwelt von Schwurblern hat das 
aber nichts gemeinsam.

von Jack V. (jackv)


Lesenswert?

Dieter D. schrieb:
> Wir leben in einer krummen
> Scheibenwelt. Das stellt eine witzige umgangssprachliche Formulierung
> astronomischer Theorie dar. Mit der Scheibenwelt von Schwurblern hat das
> aber nichts gemeinsam.

Nix für ungut, aber was du da schreibst, liest sich für mich wie blanke 
Schwurbelei (im weiteren Sinne).

Im Übrigen gibt es nur eine ernstzunehmende Scheibenwelt – und das ist 
nicht die Erde. Sie wird getragen von vier Elefanten, die auf einer 
riesigen Schildkröte namens Groß-A’Tuin stehen – aber das ist eine 
andere Geschichte.

von Ein T. (ein_typ)


Lesenswert?

Stefan F. schrieb:
> Insofern verhält sich ChatGPT absolut respektlos.

Respekt... meine Güte, was erwartest Du denn von einem Sprachmodell?

von Peter G. (ham)


Lesenswert?

Hallo

Flo schrieb:
> Gründe sind unter anderem, dass ChatGPT immer freundlich und hilfsbereit
> antwortet, was gerade beim rauen Klima auf Stackoverflow nicht immer
> gegeben ist.
> Gerade hier sehe ich aber auch Parallelen zum Forum hier. Läuft
> mikrocontroller.net mittelfristig auch Gefahr von ChatGPT den Rang
> abgelaufen zu bekommen?

"Ihr" (bis auf ein oder zwei Ausnahmen) habt wirklich nicht verstanden, 
worauf der TO zu Recht anspielt und was er halt etwas verklausuliert und 
mit leichter Ironie kritisiert.

ChatGPT ist hier und bei Stackoverflow nur "das Werkzeug" , was das alte 
Kernproblem (nicht nur dieser) Foren und ähnlicher "sozialer" Medien 
auf einer weiteren Art sichtbar macht:

Die Unfreundlichkeit, Respektlosigkeit und Unfähigkeit anderes Verhalten 
und Grundeinstellungen von Mitmenschen ohne Kommentare zu akzeptieren.

Eine recht kleine feste Gruppe von sehr lauten und schlicht 
unverschämten Leuten, die sich nicht mal schämen das auch noch unter 
ihren festen (Foren)namen das Niveau hinunterzuziehen, Streit zu 
züchten, einzelne Menschen zu Mobben - und öfter auch gegen Gruppen 
(hier gerne "Die Jugend" bestimmte Gewerkschaften und eher links und 
"ökologisch" eingestellte Gruppen, und je nachdem gegen Fahrradfahrer 
oder Autofahrer) extrem zu hetzen.

Leider wird hier schnell wieder mal der einfache Weg gegangen und über 
ChatGPT (ein weiters  "Werzeug" was das Problem aufzeigt)an sich 
diskutiert - und das ist eben nicht das Thema und Problem, was der TO 
vollkommen zurecht (wie so viele andere schon vorher) anspricht.

von Markus K. (markus-)


Lesenswert?

Marci W. schrieb:

> Ich kann mir zumindest aktuell noch nicht vorstellen und erklären, wie
> es gelingen soll, in zwei bis drei Jahren das System so weit zu
> verbessern, dass es die meisten (akademischen bzw. intellektuell
> arbeitenden) Berufsgruppen überflüssig macht.

Da muss man sehr darauf achten, wer so etwas sagt. Das ist wie beim 
autonomen Fahren:
Firma A sagte, sie schaffen das in 5 Jahren.
Dann sagte Firma B, wenn die das 5 Jahren schaffen, dann schaffen wir 
das in 4 Jahren usw. bis Firma D sagte, wir schaffen das in 2 Jahren. 
Völlig absurde Zahlen, die ganz sicher nicht mit den Entwicklern 
abgestimmt waren. Am Ende hat sich rausgestellt, dass auch die 5 Jahre 
viel zu optimistisch waren.

> Was ich auch nicht verstehe: die ersten Spielereien mit "Deep Learning"
> aka neuronale Netze habe ich schon vor vielen Jahren gemacht. Warum hat
> die ganze Entwicklung in den letzten Jahren wieder geschlafen, obwohl ja
> die Rechenleistung, vor allem der Großrechner, schon länger auf einem
> Level ist, mit dem die KI auch tatsächlich interessante Einsatzgebiete
> ermöglicht. Und plötzlich soll die Leistungsfähigkeit der KI
> explodieren, losgelöst von der Entwicklung der Rechenleistung der
> Systeme. Liegt es daran, dass einfach genug Input für generalisierte
> Systeme zur Verfügung steht?

Auch. Außerdem sind die Netze deutlich größer geworden und es gibt da 
durchaus emergente Funktionen, z.B. kann man ein Netz mit 175 Milliarden 
Parametern bitten, es soll die Lösung Schritt für Schritt erklären, aber 
bei einem Netz mit 7 Milliarden Parametern geht das nicht.
Was am Ende aber wohl wirklich viel gebracht hat, war, dass man nach dem 
Training mit dem Textkörper dem Netz Fragen gestellt hat und Menschen 
haben die Antworten beurteilt und das floss dann in das weitere Training 
ein.

von Markus K. (markus-)


Lesenswert?

Jack V. schrieb:
> Markus K. schrieb:
>> Obwohl die öffentlichen Versionen nur mit Textdaten trainiert wurden
>> kann man es bitten, den Code für eine SVG-Datei zu erstellen, die ein
>> Haus mit Dach, Schornstein, Fenstern und Türen zeigt und davor einen
>> Jungen mit Ball.
>
> Dann guck dir das Bild scharf an: es ist falsch. Obwohl in den
> Trainingsdaten ganz sicher auch die Anatomie vom Menschen beschrieben
> worden ist. Von „Verständnis“ sehe ich da also nichts.

Das ist wie bei Kindern, die Strichmännchen zeichnen. Die haben auch 
kein Verständnis. Sonst würden sie es ja richtig zeichnen. Irgendwann in 
der Entwicklung gibt es dann den Verständnistag, und ab da sind sie dann 
Intelligent.

von Jack V. (jackv)


Lesenswert?

Markus K. schrieb:
> Das ist wie bei Kindern, die Strichmännchen zeichnen.

Kinder haben in der Regel vorher keine Petabyte an Daten zum Verknüpfen 
vorgesetzt bekommen, und es würde von ihnen auch keiner behaupten, dass 
dafür da wären, korrekte Antworten zu geben. Das sind nur zwei der 
Gründe, warum dein Vergleich an dieser Stelle nicht im Ansatz passt.

Abgesehen davon würde auch kein Kind die Arme so anordnen, wie im Bild.

: Bearbeitet durch User
von Markus K. (markus-)


Lesenswert?

Jack V. schrieb:
> Markus K. schrieb:
>> Das ist wie bei Kindern, die Strichmännchen zeichnen.
>
> Kinder haben in der Regel vorher keine Petabyte an Daten zum Verknüpfen
> vorgesetzt bekommen,

ist der Weg dahin wichtig? ich würde sagen, nur das Ergebnis zählt. 
Davon abgesehen bin ich mir nicht sicher, ob Kinder wegen des Sehens 
nicht vielleicht doch sehr viel mehr Trainingsdaten(menge) haben.

> und es würde von ihnen auch keiner behaupten, dass
> dafür da wären, korrekte Antworten zu geben.

Und diese Aussage hat einen Einfluss auf Verständnis/Intelligenz eines 
Systems?

> Abgesehen davon würde auch kein Kind die Arme so anordnen, wie im Bild.

Genau. Kinder würden einfach alle Gliedmaßen an den Kopf machen. 
Sogenannte Kopffüßler: 
https://www.google.com/search?client=firefox-b-d&q=kinder+strichm%C3%A4nnchen+kopff%C3%BC%C3%9Fler

von Foobar (asdfasd)


Lesenswert?

Markus schrieb:
> Jack V. schrieb:
>> Dir scheint, wie wirklich vielen Leuten, nicht bewusst zu sein, dass der
>> Job der Software nicht ist, korrekte Antworten zu geben,
>
> Doch, genau dafür wurde es entwickelt und trainiert.

Das "korrekt" aber nur in Bezug auf Sprache/Grammatik.  Inhaltliche 
Korrektheit wird eben nicht trainiert.  Die für das Feedback 
eingesetzte Zusatz-KI zur Bewertung von Anworten bevorzugt "genehme" 
Antworten - ordentlicher Satzbau, gute Korrelation mit den Wortfolgen 
der Frage, etc.  Etwas wie "Weiß ich nicht" bekommt da einen hohen 
negativen Score - jede Lüge hat einen bessere Bewertung.  Ein Prüfung 
auf Kausalität existiert nicht!  Wenn das mal kommt, wird es 
interessant.  Aktuell sind diese "KI"s nur sehr gute Phrasendrescher mit 
einem gigantischen Phrasenvorrat - mehr wollten sie ja auch garnicht 
sein ...

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Hier mal ein Beispiel für mehr Traffik durch ChatGPT, in dem Falle die 
automatische Übersetzung ins Französische. Die Anwendung hatte aber noch 
eine Macke, indem das Französische nicht ins Deutsche übertragen 
eingetragen wird.

Beitrag "Re: [V] elektr. Trafo 11,5V 150W und 4 MR16 LED Spots"

Es sollte auf eine Vorschlag hin eine Metainformationen für den 
Seitenquelltext eingeführt werden, damit solche Übersetzer in solche 
Felder Quell- und Zielsprache eintragen. Vielleicht weiß da jemand mehr, 
ob das allles ruht oder noch was kommt.

: Bearbeitet durch User
von Jan H. (j_hansen)


Lesenswert?

Flo schrieb:
> Gründe sind unter anderem, dass ChatGPT immer freundlich und hilfsbereit
> antwortet, was gerade beim rauen Klima auf Stackoverflow nicht immer
> gegeben ist.
> Gerade hier sehe ich aber auch Parallelen zum Forum hier. Läuft
> mikrocontroller.net mittelfristig auch Gefahr von ChatGPT den Rang
> abgelaufen zu bekommen?

Hier geht's doch primär ums Herumpöbeln - also keine Sorge.

ChatGPT braucht Trainingsdaten - die hundertste Frage zum Vorwiderstand 
einer LED kann davon beantwortet werden und müllt die Foren nicht zu. 
Dort können dann anspruchsvollere Fragestellungen behandelt werden.

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Jan H. schrieb:
> anspruchsvollere Fragestellungen

Umgekehrt wird es werden. Die KI übernimmt alle interessanten 
Fragestellungen und überläßt den Rest dem biologischen Müll.
(Terminator 1)

von Gerald K. (geku)


Lesenswert?

Jack V. schrieb:
> Letztes Beispiel, das durch die Medien gegangen ist, war ein Anwalt aus
> NY, der die „Recherche“ von ChatGPT erledigen lassen hat – und dann vor
> Gericht erklären musste, warum alle angeführten Referenzen ins Leere
> liefen …

Man muss die Quellen und deren Information überprüfen und nicht alles 
kritiklos übernehmen. Galt immer auch schon für menschliche Quellen.
Ich musste leider feststellen, dass die Qualität von ChaGPT stark 
abgenommen hat.

von Gerald K. (geku)


Lesenswert?

Flo schrieb:
> Mir ist klar wie ChatGPT funktioniert. Wenn man aber einigermaßen im
> Thema ist fallen einem die Fehler auf und man fragt noch ein zweites mal
> nach. Meist stimmt es dann. Und du vergisst dass in einem Forum auch oft
> falsche Antworten oder zumindest unvollständige und fehlerhafte
> Antworten gepostet werden.

Es ist sehr irritierend, dass sich ChatGPT sehr menschenähnlich in 
seinen Antworten verhält. Man kann sich nicht auf dessen Aussagen 
verlassen.
Es setzt Grundwissen voraus um ChatGPT sinnvoll verwenden zu können, um 
Spreu vom Weizen trennen zu können.

von Joachim B. (jar)


Lesenswert?

Flo schrieb:
> dass ChatGPT immer freundlich und hilfsbereit
> antwortet,

ja, saublöde Fragen und Antworten, egal wie freundlich, wird auch hier 
zu weniger Traffic führen, zumindest ich überlege dann auszusteigen denn 
unbrauchbare Antworten und sinnlose Fragen braucht kein Mensch.

: Bearbeitet durch User
von Tom A. (toma)


Lesenswert?

Ist das noch zu toppen? Ein paar Dummköpfe zanken sich um Intelligenz. 
Das ist, selbst wenn die Intelligenz nur künstlich ist, ein Paradestück 
der Parodie.

Stan Laurel und Oliver Hardy (Dick & Doof) wären stolz zu sehen was wir 
hier aus ihren bescheidenen Anfängen machen.

Die Tatsache ein landwirtschaftliches Nutztier zu sein, macht aus dem 
Esel noch keinen Experten für Ackerbau und Viehzucht!

Schönen Feiertag. Tom

von Joachim B. (jar)


Lesenswert?

Tom A. schrieb:
> Intelligenz nur künstlich

wo soll denn die KI herkommen wenn die NI abnimmt?
Solange MINT Fächer teilweise abgewählt werden und Promotionen gekauft 
werden können fast überall.

von Christoph Z. (christophz)


Lesenswert?

Markus K. schrieb:
> Jack V. schrieb:
>
>> Das Programm hat nur keine Ahnung vom Inhalt,
>
> Braucht es das denn? Oder reicht es, wenn es die Regeln kennt, nach
> denen Inhalte verknüpft werden? Vielleicht fehlt einfach nur noch eine
> Menge feintuning?

Ja, offensichtlicht braucht es das. In einem anderen Thread hier wurde 
ChatGPT doch nach den Blumento Pferden gefragt und es hat ganz brav den 
Inhalt der Stubipedia wiedergegeben.

Da Medienkompetenz in der Grundschule ja auchzu kurz kommt kann das 
ChatGPT ja auch nicht viel besser wissen.
Wird jedenfalls Spannend die Zukunft. Den Schlagzeilen der Bild 
"Zeitung" wurde ja auch geglaubt, also werden Menschen auch ChatGPT 
glauben.

von Johnny B. (johnnyb)


Lesenswert?

Flo schrieb:
> erade hier sehe ich aber auch Parallelen zum Forum hier. Läuft
> mikrocontroller.net mittelfristig auch Gefahr von ChatGPT den Rang
> abgelaufen zu bekommen?

Ja das tut es.
Das Schlimme ist halt, dass die KIs mit Daten trainiert werden, die 
grösstenteils geklaut sind. Wie Suchmaschinen, grasen sie das ganze 
Internet nach Daten ab, die sie sich einverleiben und die Betreiberfirma 
macht dann haufenweise Geld damit, ohne die eigentlichen Urheber der 
Daten finanziell zu entschädigen.

Kommt mir vor wie die lebende Nr. 5, welche nach immer noch mehr Input 
schreit:
https://youtu.be/-upam5r3nbA

von Jemin K. (jkam)


Lesenswert?

Die Daten sind genauso "geklaut" als wenn Du im Forum nach einer Antwort 
fragst und die dann verwendest. Das ist doch bloß die Gier der Leute, 
dass jetzt jeder mitverdienen will. Wenn ich nicht will, dass andere 
meinen Kram verwenden, ja dann stelle ich ihn halt nicht ins Netz. Die 
KI-Entwicklung wird so große Vorteile für uns alle bringen - und tut das 
jetzt schon - dass es einfach keinen Sinn macht, das Netz fürs 
KI-Training zu speren, wohingegen menschliche Akteure normal Zugriff 
haben. Ich sehe da einfach den Unterschied nicht, ob Google Seiten 
indiziert, Leute Informationen aus dem Web in ihr Gehirn integrieren und 
damit dann Geld verdienen oder irgendeine KI-Firma die Daten mit Netz in 
ihre Netze reinlernt. Solange das keine Plagiate gibt ist das doch alles 
völlig iO.

von Stefan F. (Gast)


Lesenswert?

Jemin K. schrieb:
> Die Daten sind genauso "geklaut" als wenn Du im Forum nach einer Antwort
> fragst und die dann verwendest.

Geklaut wurden auch Bücher, die nicht frei zugänglich waren (bzw. hätten 
sein sollen).

von Markus K. (markus-)


Lesenswert?

Stefan F. schrieb:
> Jemin K. schrieb:
>> Die Daten sind genauso "geklaut" als wenn Du im Forum nach einer Antwort
>> fragst und die dann verwendest.
>
> Geklaut wurden auch Bücher, die nicht frei zugänglich waren (bzw. hätten
> sein sollen).

Wenn Du ein Buch kaufst und dann, nachdem Du es gelesen hast, an Deine 
Freunde verleihst, ist das dann nicht auch gestohlen? Das wurde ja nur 
einmal gekauft und dann von verschiedenen Personen gelesen.

Kann sein, dass openai gar nichts für die Bücher gezahlt hat, aber die 
Diskussion geht ja nicht darum, dass sie jeweils ein Exemplar hätten 
bezahlen sollen, sondern dass sie mit dem gelernten Wissen Geld 
verdienen. So wie das halt auch Menschen machen, aber Menschen kann man 
schlecht kopieren.

von Bruno V. (bruno_v)


Lesenswert?

Markus K. schrieb:
> Wenn Du ein Buch kaufst und dann, nachdem Du es gelesen hast, an Deine
> Freunde verleihst, ist das dann nicht auch gestohlen? Das wurde ja nur
> einmal gekauft und dann von verschiedenen Personen gelesen.

Natürlich werden alte Definitionen unsinnig in neuen Umgebungen. Aber 
der Deal bei einem Buch ist: Du kannst es kaufen, an alle Freunde 
verleihen und danach verkaufen auf diese Weise können 1000 Leute das 
eine Buch in 10 Jahren lesen, realistisch eher 3.

ChatGPT agiert wie 10 Millionen Personen. Es hat das Buch quasi 
hunderttausend mal kopiert und stellt den Inhalt (oder ein excerpt) 
jedem zur Verfügung. Quantität ist eine eigene Qualität.

von Gerhard O. (gerhard_)


Lesenswert?

Moin,

Ich sehe anhand der Kommentare bisheriger Erfahrungen anderer Leute, daß 
sich die Beschäftigung mit chatGPT scheinbar doch noch nicht so wirklich 
lohnen zu scheint und möglicherweise auch als eine Art Zeitverschwendung 
bewertet werden könnte.

Bisher war ich von den vielen publizierten Frage Antwortspielen 
Beispielen nicht wirklich beeindruckt. Abgesehen davon geht mir auch die 
überzogen neutrale Sprachwahl total auf den Wecker. Ja niemand auf die 
Zehen zu steigen, scheint die Programmierung darauf hinzielen zu wollen. 
Da sind mir Menschen mit all ihrer Unvollkommenheit lieber als diese 
schleimige Korrektheit. Die leben wenigstens.

Was mich betrifft, tut Eile mit chatGPT wirklich nicht Not und schüttle 
mir wie ein nasser Hund das Wasser vom Fell:-)

Gerhard

: Bearbeitet durch User
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.