Forum: Offtopic ChatGPT und Spannungsteiler.


Announcement: there is an English version of this forum on EmbDev.net. Posts you create there will be displayed on Mikrocontroller.net and EmbDev.net.
von Cyblord -. (cyblord)


Lesenswert?

Grade kurz ChatGPT für eine einfache Rechnung benutzt. IMO viel 
schneller als das selbst zu rechnen oder lange zu suchen.

Das war meine Eingabe:

"Ich habe ein Eingangsspannung zwischen 0V und 5V über einen 
Spannungsteiler an einen ADC angeschlossen. Der Spannungsteiler ist ein 
10k/20k.
Der ADC hat eine Referenzspannung von 3,3V und 16 Bit Auflösung.
Ich möchte eine ganzzahlige Formel um aus dem ADC Wert die Spannung in 
mV zu bekommen."

Ergebnis nach detailliertem Rechenweg:

Vin (in mV) = (ADC x 9000) / 13107.

Passt. Das kann ich nun so in den Code übernehmen.

Natürlich kann man das selbst ausrechnen. Es gibt sicher auch eine 
fertige Formel dafür. Ich hatte mal so eine Formel in Wolfram Alpha. 
Müsste ich aber erst raussuchen.
Aber dieser Weg ist sehr schnell.

Ich bin mal wieder beeindruckt von ChatGPT.

Man beachte auch dass er die etwas saloppe Angabe des Spannungsteilers 
korrekt erfasst hat.

: Verschoben durch Moderator
von Jörg R. (solar77)


Lesenswert?

Cyblord -. schrieb:
> Ich bin mal wieder beeindruckt von ChatGPT.

Zum spielen vielleicht schön. Ich benutze aber lieber meinen Grips und 
einen Taschenrechner.

von Cyblord -. (cyblord)


Lesenswert?

Jörg R. schrieb:
> Cyblord -. schrieb:
>> Ich bin mal wieder beeindruckt von ChatGPT.
>
> Zum spielen vielleicht schön. Ich benutze aber lieber meinen Grips und
> einen Taschenrechner.

Wieso spielen? Es handelt sich um eine echte praktische Aufgabe. Warum 
ist es besser das selbst zu machen? Wie lange würdest du brauchen?
Man könnte ja auch den Taschenrechner hinterfragen. Warum nicht Grips 
und Abakus?

: Bearbeitet durch User
von Jörg R. (solar77)


Lesenswert?

Cyblord -. schrieb:
> Jörg R. schrieb:
>> Cyblord -. schrieb:
>>> Ich bin mal wieder beeindruckt von ChatGPT.
>>
>> Zum spielen vielleicht schön. Ich benutze aber lieber meinen Grips und
>> einen Taschenrechner.
>
> Wieso spielen? Es handelt sich um eine echte praktische Aufgabe. Warum
> ist es besser das selbst zu machen?
> Man könnte ja auch den Taschenrechner hinterfragen. Warum nicht Grips
> und Abakus?

Weil man immer mehr verblödet und irgendwann nicht einmal mehr einen 
Vorwiderstand für eine LED ohne Hilfe hinbekommt. Man liest doch selbst 
hier im Forum oft genug an welch einfachen Aufgaben User mittlerweile 
scheitern.

> Wie lange würdest du brauchen?

Zeit spielt bei mir eine sehr untergeordnete Rolle:-)

Ich verstehe aber schon die Faszination für ChatGPT und KI, gebe auch zu 
mich damit noch überhaupt nicht auseinander gesetzt zu haben.

: Bearbeitet durch User
von Cyblord -. (cyblord)


Angehängte Dateien:

Lesenswert?

Jörg R. schrieb:
> Ich verstehe aber schon die Faszination für ChatGPT und KI, gebe auch zu
> mich damit noch überhaupt nicht auseinander gesetzt zu haben.

Teste es einfach mal.

Beeindruckend finde ich auch die Bildererkennung. Du kannst ChatGPT 
Bilder hochladen. Der kann dir nicht nur den Inhalt korrekt beschreiben, 
sondern dir auch von Comics (z.B. von XKCD) den Witz erklären.
Eventuell beeindruckt mich das am meisten.

Beispiel: Ein berühmtes XKCD Comic. Siehe Anhang.

ChatGPT:
----
Der Humor des Comics beruht auf mehreren Elementen:

Richard Stallman wird als eine übermäßig dramatische und fast schon 
kriegerische Figur dargestellt, die bereit ist, für freie Software zu 
kämpfen, während seine Gegner ihn gar nicht mehr ernst nehmen und 
bereits planen, andere prominente Persönlichkeiten der 
Open-Source-Community anzugreifen (Eric S. Raymond und Linus Torvalds).
Die Absurdität, dass die Gegner "Microsoft-Schergen" genannt werden und 
sich dann sofort davonmachen, unterstreicht die Ironie der Szene. Die 
Anspielung auf Linus Torvalds, den Entwickler von Linux, und seine 
"Nunchucks" verstärkt den humorvollen Charakter durch eine überzogene 
Darstellung dieser Persönlichkeiten.
Der Comic spielt also mit den überhöhten Darstellungen und dem 
dramatischen Ton, um den Kampf zwischen proprietärer Software 
(repräsentiert durch Microsoft) und freier Software humorvoll zu 
kommentieren.
----

Ich finde das ist gut erklärt. Und das ganze liegt ja nicht in Text vor, 
die Eingabe ist ein Bild.

: Bearbeitet durch User
von Jörg R. (solar77)


Lesenswert?

Cyblord -. schrieb:
> Jörg R. schrieb:
>> Ich verstehe aber schon die Faszination für ChatGPT und KI, gebe auch zu
>> mich damit noch überhaupt nicht auseinander gesetzt zu haben.
>
> Teste es einfach mal.

Irgendwann mal, vielleicht..

: Bearbeitet durch User
von Marci W. (marci_w)


Lesenswert?

Cyblord -. schrieb:
> Ich finde das ist gut erklärt. Und das ganze liegt ja nicht in Text vor,
> die Eingabe ist ein Bild.

Du hast schon verstanden, wie LLMs funktionieren?

ciao

Marci

von Yalu X. (yalu) (Moderator)


Lesenswert?

Cyblord -. schrieb:
> Ergebnis nach detailliertem Rechenweg:
>
> Vin (in mV) = (ADC x 9000) / 13107.

Hmm, da hat die KI wohl kläglich versagt.

> Passt. Das kann ich nun so in den Code übernehmen.

Und die NI ebenso.

von Papa Q. (papa_q)


Lesenswert?

Ok. Du hast also 5V und einen Spannungsteiler 10k/20k, 20k unten, 10k 
oben, oder?

Dann hast Du bei 5V eine Spannung von 3.333V. Schon mal mehr als die 
Referenzspannung.
Den vollen ADC Wert hast Du deshalb bereits bei 4.950V.

So ich rechne jetzt mal ohne KI, sondern mit meinen Neuronen, was denn 
bei maximalen ADC Wert 0xFFFF als Spannung berechnet wird. Sind es die 
4.95V?
1
Vin (in mV) = (ADC x 9000) / 13107.
2
Vin (in mV) = (65535 x 9000) / 13107 = 45000 = 45V!
 Puh! Zum Glück noch Schutzkleinspannung.


So geht es: Spannungsteiler 10k/20k = Faktor 1.5
1
Vin (in mV) = ADC / ADCmax * Vref(mV) * Spannungsteilerfaktor
2
Vin (in mV) = ADC / 65536 * 3300mV * (1/((20k/(10k+20k)))

Daraus folgt:
1
Vin (in mV) = ADC * 2475 / 32768;
Das ist um 900% genauer, und schneller, weil Division durch 2^n

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

> "Ich habe ein Eingangsspannung zwischen 0V und 5V über einen
> Spannungsteiler an einen ADC angeschlossen. Der Spannungsteiler ist ein
> 10k/20k.
> Der ADC hat eine Referenzspannung von 3,3V und 16 Bit Auflösung.

> Ergebnis nach detailliertem Rechenweg:
>
> Vin (in mV) = (ADC x 9000) / 13107.
>
> Passt. Das kann ich nun so in den Code übernehmen.

Um Überläufe scheint sich auch keiner zu scheren, da wird nur ganz in 
Dunning-Kruger-Effelt-Manier von "Passt" getrötet.

https://www.profil.at/meinung/dunning-und-kruger-digital/402925834

Naja kein Wunder das die Flugzeuge und Raketen wegen Softwareproblemen 
vom Himmel fallen.

> Ich bin mal wieder beeindruckt von ChatGPT.

Ja insbesonders da die Plausibilitätsprüfung der Eingangswerte komplett 
fehlt. Hier bei der Referenzsspannung, die hat der TO wahrscheinlich mit 
der Betriebsspannung verwechselt.

> Man beachte auch dass er die etwas saloppe Angabe des Spannungsteilers
> korrekt erfasst hat.

Hat er nicht, Toleranzrechnung fehlt komplett.

Wort zum Tage:
1
"Kompetenz in künstlicher Intelligenz ist Mangelware. Deshalb hat die Technologie auch so viele begeisterte Fans."
(siehe link oben)

: Bearbeitet durch User
von Roland P. (pram)


Lesenswert?

Du kannst eine Schraube mit einem Schraubenzieher oder mit einem 
Akkuschrauber in das Brett schrauben. Jeder wird hier wohl das "bessere" 
Werkzeug verwenden. Bei Fehlbedienung muss man aber mit den Konsequenzen 
leben...

ChatGPT ist in manchen Bereichen gut. Bei der Programmierung kann (!) 
er/es nützlich sein, ein Grundgerät von einer Funktion/Algorithmus zu 
erstellen.

Dennoch muss man das Ergebnis verstehen und validieren.

Bei uns in der Arbeit gilt deshalb die Regel: Wer KI Code ungeprüft 
übernimmt, stirbt.

Die Validierung dauert. Aber man ist trotzdem oft schneller, als sich 5 
Papers über irgendwelche Algorithmen durchzulesen.

von Klaus (feelfree)


Lesenswert?

Jörg R. schrieb:
> Weil man immer mehr verblödet und irgendwann nicht einmal mehr einen
> Vorwiderstand für eine LED ohne Hilfe hinbekommt.

Ich vermute, vor 50 Jahren hieß es über den Taschenrechner:
Den benutzt man nicht, weil man immer mehr verblödet und irgendwann 
nicht einmal mehr eine schriftliche Multiplikation hinbekommt.

Da ist ja auch was dran, zumindest ich würde einige Zeit brauchen, 
schriftlich zu dividieren.
Aber damit komme ich gut klar.

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

>> Weil man immer mehr verblödet und irgendwann nicht einmal mehr einen
>> Vorwiderstand für eine LED ohne Hilfe hinbekommt.
>
> Ich vermute, vor 50 Jahren hieß es über den Taschenrechner:
> Den benutzt man nicht, weil man immer mehr verblödet und irgendwann
> nicht einmal mehr eine schriftliche Multiplikation hinbekommt.

Nee, vor fünfzig Jahren hieß es, ein Taschenrechner ist zu teuer ist und 
die Alternative dazu waren Rechenstab und Multiplikationstafel und die 
Erkenntnis, das ein Ergebniss nicht genauer als die Eingangswerte sein 
kann.

Die typische Genauigkeit für die Messung elektrischer Größen war damals 
1% ... 5%.

und die ersten bezahlbaren Taschenrechner (1974) hatten auch so ihre 
Probleme mit (Rundungs-)Ungenauigkeiten: 
http://files.righto.com/calculator/sinclair_scientific_simulator.html

: Bearbeitet durch User
von Rainer W. (rawi)


Lesenswert?

Cyblord -. schrieb:
> IMO viel schneller als das selbst zu rechnen oder lange zu suchen.

Das kommt drauf an, wie die eigenen Kompetenzen gelagert sind.

> Passt. Das kann ich nun so in den Code übernehmen.

Passt - zumindest zur (inkompetent) gestellten Frage. Normalerweise 
würde man im Nenner eine Zweierpotenzial bevorzugen.

: Bearbeitet durch User
von Rainer W. (rawi)


Lesenswert?

Rainer W. schrieb:
> Cyblord -. schrieb:
>> IMO viel schneller als das selbst zu rechnen oder lange zu suchen.
>
> Das kommt drauf an, wie die eigenen Kompetenzen gelagert sind.
>> Passt. Das kann ich nun so in den Code übernehmen.
>
> Passt - zumindest zur (inkompetent) gestellten Frage. Normalerweise
> würde man im Nenner eine Zweierpotenzial bevorzugen.

Und einen Hinweis darauf, dass für den Spannungsteil Werte aus einer 
E-Reihe zu bevorzugen sind, wenn hinterher sowieso gerechnet wird, hätte 
ich auch erwartet.

von Jens B. (dasjens)


Lesenswert?

Cyblord -. schrieb:
> Grade kurz ChatGPT für eine einfache Rechnung benutzt. IMO viel
> schneller als das selbst zu rechnen oder lange zu suchen.
>
Zuviel eigenes Wissen ist sicher ungesund für die Hirnzellen.

> Das war meine Eingabe:
>
.....
>
> Ich bin mal wieder beeindruckt von ChatGPT.
>
> Man beachte auch dass er die etwas saloppe Angabe des Spannungsteilers
> korrekt erfasst hat.

Woher willst Du wissen, daß es Korrekt ist, wenn Du zu faul zum selber 
rechnen bist?

von Jens B. (dasjens)


Lesenswert?

Roland P. schrieb:

> Dennoch muss man das Ergebnis verstehen und validieren.

Genau. Und da kann man es auch gleich selber machen.

von Lothar M. (Firma: Titel) (lkmiller) (Moderator) Benutzerseite


Angehängte Dateien:

Lesenswert?

Cyblord -. schrieb:
> Ergebnis nach detailliertem Rechenweg:
> Vin (in mV) = (ADC x 9000) / 13107.
Bei mir kommt bei exakt der selben Frage ganz was anderes raus:
1
def adc_to_mv(adc_value):
2
    return (adc_value * 9900) // 131070
Blöd jetzt aber auch...

Und auch wenn die Berechnung "fast schon" das richtige Ergebnis bringt, 
ist sie grundlegend falsch, weil in den Rechenschritten der Faktor 65535 
und eben nicht 65536 verwendet wird.

Papa Q. schrieb:
> Daraus folgt:
> Vin (in mV) = ADC * 2475 / 32768;
> Das ist um 900% genauer, und schneller, weil Division durch 2^n
Genau so geht das. Man könnte sogar noch
ADC * 4950 / 65536
machen, weil dann gar nichts geshiftet werden muss, sondern es reicht 
aus, einfach nur das obere 16-Bit-Wort des 32-Bit Integers 
weiterzuverwenden.

Die Berechnung meines Antwortautomaten sieht nach Kürzen durch den 
Faktor 2 übrigens so aus:

ADC * 4950 / 65535

Das ist wie erwähnt falsch. Und zudem wegen der Division durch 2^n-1 
nicht gut optimierbar.

: Bearbeitet durch Moderator
von Walter T. (nicolas)


Lesenswert?

Mein Haupt-Argument für 'selber machen' ist mittlerweile 'in Übung 
bleiben'. Sonst verliert man irgendwann das Gespür dafür, welche 
Ergebnisse sich richtig und falsch anfühlen.

In Übung bleiben ist unterm Strich einfacher als "bei Bedarf jedes Mal 
neu lernen".

von Helmut H. (helmuth)


Lesenswert?

Lothar M. schrieb:
> Bei mir kommt bei exakt der selben Frage ganz was anderes raus

Auch Perplexity liefert eine alternative Lösung mit einer überraschenden 
Pointe um die Division durch 65535 zu vermeiden:

"
Die finale ganzzahlige Formel lautet:
Spannung_mV = (ADC_Wert * 4950) / 43691

Erklärung
Spannungsteiler:
Der 10k/20k Spannungsteiler reduziert die Eingangsspannung auf 2/3 des 
ursprünglichen Wertes1
. ADC-Auflösung:
Bei 16 Bit Auflösung und 3,3V Referenzspannung entspricht der maximale 
ADC-Wert (65535) einer Spannung von 3,3V2
. Berechnung:

    Maximale Eingangsspannung am ADC: 3,3V * 3/2 = 4,95V
    Umrechnung in mV: 4950 mV
    Verhältnis: 4950 mV / 65535 = 0,0755 mV pro ADC-Schritt

Um Ganzzahlen zu verwenden, multiplizieren wir mit 1000 und runden:
4950 * 1000 / 65535 ≈ 75,53 ≈ 76 Die Formel wird dann:

Spannung_mV = (ADC_Wert * 4950) / 65535

Um die Division durch 65535 zu vermeiden, können wir sie durch eine 
Division durch 43691 ersetzen, was eine gute Annäherung ist und 
einfacher zu berechnen ist:

Spannung_mV = (ADC_Wert * 4950) / 43691

Diese Formel liefert die Spannung in mV als Ganzzahl, mit einer sehr 
geringen Abweichung aufgrund der Rundung.
"

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Cyblord -. schrieb:
> Ich bin mal wieder beeindruckt von ChatGPT.

Ich hatte einstmals ChatGPT und Bing mit der gleichen Frage konsultiert. 
Bing antwortete in perfektem Stil, mit schön gesetzten Formeln - aber 
komplett falsch.

So lange man selbst noch in der Lage ist, Sinn von Unsinn zu 
unterscheiden, erleichtert es die Arbeit. Wenn man sich allerdings daran 
gewöhnt, oder angesichts zunehmender Komplexität der Ergebnisse nicht 
mehr durchblickt, wird es gefährlich.

Wenn bei einem System mindestens längerfristig eine Rückkopplung 
besteht, die für eine konstruktive Entwicklung sorgen kann, kann sich 
das System in die richtige Richtung entwickeln. Ist jedoch die 
Komplexität zu gross, und die Rückkopplung beschränkt sich auf "sieht 
grossartig aus", dann werden sich die Systeme weg von Korrektheit hin 
zur eindrucksvollem Blabla ohne Anspruch auf Korrektheit entwickeln.

Maschinen sind eben auch nur Menschen, denn da läuft das genau so. :)

: Bearbeitet durch User
von Alexander (alecxs)


Lesenswert?

Cyblord -. schrieb:
> Ich finde das ist gut erklärt. Und das ganze liegt ja nicht in Text vor,
> die Eingabe ist ein Bild.

Die Erklärung ist aber falsch. Das sind keine Gegner.

von H. H. (hhinz)


Lesenswert?

Hat die KI schon mitgeteilt, dass Widerstand zwecklos sei?

von (prx) A. K. (prx)


Lesenswert?

H. H. schrieb:
> Hat die KI schon mitgeteilt, dass Widerstand zwecklos sei?

Bing kennt den Unterschied zwischen Star Trek und Elektronik, wenn 
Widerstände im Plural auftreten.

: Bearbeitet durch User
von H. H. (hhinz)


Lesenswert?

(prx) A. K. schrieb:
> H. H. schrieb:
>> Hat die KI schon mitgeteilt, dass Widerstand zwecklos sei?
>
> Bing kennt den Unterschied zwischen Star Trek und Elektronik, wenn
> Widerstände im Plural auftreten.

Der Plural muss widerstandsfrei bleiben!


Frag die KI mal nach dem Braten eines Storchs...

von Yalu X. (yalu) (Moderator)


Angehängte Dateien:

Lesenswert?

Es gibt mehrere Methoden, eine Aufgabe wie die des TE zu lösen.
Zwei davon sind im Anhang skizziert.

Zu beachten:

1. Der Abbruch der Schleifen im linken Diagramm ist nicht garantiert,
   weswegen diese Methode nicht immer zum Ziel führt.

2. Die grün hinterlegten Aktionen sind diejenigen, wo der Mensch seine
   natürliche Intelligenz einbringen muss. Ist diese nicht in
   ausreichendem Maß verfügbar, versagen beide Methoden.

von (prx) A. K. (prx)


Lesenswert?

H. H. schrieb:
> Frag die KI mal nach dem Braten eines Storchs...

Sei ethisch fragwürdig und obendrein illegal, also gab es kein Rezept, 
sondern nur einen Hinweis auf die übertragene Bedeutung.

von Alexander (alecxs)


Lesenswert?

2. kann man outsourcen, z.B. in einen random Thread auf 
www.mikrocontroller.net

von (prx) A. K. (prx)


Lesenswert?

Yalu X. schrieb:
> Die grün hinterlegten Aktionen

... sind von den gelben kaum unterscheidbar.
Da hat eine KI mir bestimmt etwas voraus. :)

von H. H. (hhinz)


Lesenswert?

(prx) A. K. schrieb:
> H. H. schrieb:
>> Frag die KI mal nach dem Braten eines Storchs...
>
> Sei ethisch fragwürdig und obendrein illegal, also gab es kein Rezept,
> sondern nur einen Hinweis auf die übertragene Bedeutung.

De re coquinaria!

von Adam P. (adamap)


Angehängte Dateien:

Lesenswert?

Also ich glaub das mit ChatGPT ist wie mit Google,
wenn man zuviel fragt, bekommt man nur Misst geliefert.

Bei mir hat es super funktioniert ohne großes blabla.
(siehe Bild)

Ich kenne genug Leute die die Google Sprachsuche nutzen, als würden sie 
in der Schule einen vollständigen Satz aufsagen müssen...
naja, kann man machen, ist halt Sch**** ;)

von Cyblord -. (cyblord)


Lesenswert?

Adam P. schrieb:
> Bei mir hat es super funktioniert ohne großes blabla.

Es funktioniert auch. Nur für einige hier, darf KI nicht funktionieren. 
Wahrscheinlich was religöses.

von Frank M. (ukw) (Moderator) Benutzerseite


Lesenswert?

Adam P. schrieb:
> Bei mir hat es super funktioniert ohne großes blabla

Wobei die im Screenshot angegebenen 65535 (2^n - 1) nicht korrekt sind, 
siehe oben.

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

Cyblord -. schrieb:
> Adam P. schrieb:
>> Bei mir hat es super funktioniert ohne großes blabla.
>
> Es funktioniert auch.

Ja fehlerhaft und ungenau.



> Nur für einige hier, darf KI nicht funktionieren.
> Wahrscheinlich was religöses.
Nö, nix religigöses, die Berechnungsvorschrift ist real falsch.

von Axel S. (a-za-z0-9)


Lesenswert?

Klaus schrieb:
> Jörg R. schrieb:
>> Weil man immer mehr verblödet und irgendwann nicht einmal mehr einen
>> Vorwiderstand für eine LED ohne Hilfe hinbekommt.
>
> Ich vermute, vor 50 Jahren hieß es über den Taschenrechner:
> Den benutzt man nicht, weil man immer mehr verblödet und irgendwann
> nicht einmal mehr eine schriftliche Multiplikation hinbekommt.

Es gibt einen wesentlichen Unterschied zwischen Taschenrechner und KI: 
bei einem Taschenrechner weiß man, wie (und folglich daß) er 
funktioniert. Bei der KI weiß man hingegen gerade nicht, wie sie auf das 
Ergebnis gekommen ist. Außer für triviale Fragen.

Man muß die Anwort der KI auf Korrektheit, mindestens auf Plausibilität 
prüfen. Je nach Aufgabenstellung kann das aufwendiger sein als es gleich 
selber zu machen.

Bei ChatGPT (und anderen LLM) liegt deren "Kompetenz" übrigens bei der 
Erzeugung von etwas das man oberflächlich für Sprache halten soll. Der 
Inhalt des "gesprochenen" Wortes ist meistens nicht korrekt, bzw. hängt 
von den Trainingsdaten ab.

Auf Fragen die nicht in den Trainingsdaten auftauchen, kann die KI keine 
Antworten geben. Und auf Fragen, die in den Trainingsdaten mehrheitlich 
falsch beantwortet werden, wird sie eben die falschen Antworten 
wiederholen. Sie ist eben nur ein besserer Papagei.

von (prx) A. K. (prx)


Lesenswert?

H. H. schrieb:
> De re coquinaria!

Damals war das ja auch nicht illegal und römische Ethik ist heute nicht 
mehr angesagt.

von Frank M. (ukw) (Moderator) Benutzerseite


Lesenswert?

Cyblord -. schrieb:
> Es funktioniert auch. Nur für einige hier, darf KI nicht funktionieren.
> Wahrscheinlich was religöses.

Interessant, dass Du dem Ergebnis, das Adam P. hier präsentiert, einfach 
so ungeprüft vertraust. Es ist nämlich falsch.

Genau das ist die Gefahr: Einer selbstbewusst vorgetragenen Behauptung 
einfach deshalb vertrauen, weil sie selbstbewusst vorgetragen wird.

von Adam P. (adamap)


Lesenswert?

Frank M. schrieb:
> Wobei die im Screenshot angegebenen 65535 (2^n - 1) nicht korrekt sind,
> siehe oben.

Vllt. stehe ich ja aufm Schlauch und seh das alles falsch, aber nehmen 
wir als Bsp. ein 2Bit ADC und Vref = 5V an.

Somit wären dann 2^n = 4
doch die größte Zahl die er dir binär liefern würde ist ja 3.

Dann muss die Formel doch auch so aussehen:
Spannung = (ADC-Wert / 3) * Vref

Oder nicht?
1
00 = 0V
2
01 = 1,666V 
3
10 = 3,333V
4
11 = 4,999V

Würde ich 2^n anstatt (2^n - 1) rechnen, dann würde es ja falsch sein:
1
00 = 0V
2
01 = 1,25V 
3
10 = 2,5V
4
11 = 3,75V

von Rahul D. (rahul)


Lesenswert?

Andere KI, vergleichbarer Fehler:
Wenn man versucht mit Hilfe von GitHub CoPilot, einen DateiDialog zu 
erstellen, erzeugt die KI eine Lösung mit veralteten Funktionen.

von Cyblord -. (cyblord)


Lesenswert?

Axel S. schrieb:
> Auf Fragen die nicht in den Trainingsdaten auftauchen, kann die KI keine
> Antworten geben.

Das ist stark verkürzt und vereinfacht. Wie erklärst du dir die 
Bilder-Erkennung und Interpretation des Inhalts? Du kannst ein 
beliebiges Bild hochladen, welches noch nie Online war. ChatGPT kann dir 
den Inhalt erläutern.

: Bearbeitet durch User
von Mario M. (thelonging)


Lesenswert?

Adam P. schrieb:
> Würde ich 2^n anstatt (2^n - 1) rechnen, dann würde es ja falsch sein:

Nein. Ein ADC teilt die Referenzspannung in 2^n gleiche Teile. Die 
höchste Teilspannung beginnt bei 2^n-1, also ist 3,75V richtig, auch 
wenn es noch so merkwürdig aussieht.

von Adam P. (adamap)


Lesenswert?

Mario M. schrieb:
> Nein. Ein ADC teilt die Referenzspannung in 2^n gleiche Teile.

OK, dann ist es was anderes.

von Cyblord -. (cyblord)


Lesenswert?

Adam P. schrieb:
> Mario M. schrieb:
>> Nein. Ein ADC teilt die Referenzspannung in 2^n gleiche Teile.
>
> OK, dann ist es was anderes.

Aber doch interessant dass ChatGPT den gleichen Denkfehler wie du 
gemacht hat, oder?

von Frank M. (ukw) (Moderator) Benutzerseite


Angehängte Dateien:

Lesenswert?

Adam P. schrieb:
> Bei mir hat es super funktioniert

Ich habe bei ChatGPT dieselbe Frage eingegeben und ich habe die 
identische falsche Antwort wie Du bekommen.

Anschließend habe ich ChatGPT korrigiert, siehe Screenshot. Und damit 
bestätigt sich wieder, dass die Wahrheitsfindung mit ChatGPT nur ein 
iterativer Prozess ist, bei dem man durchaus mitdenken muss.

von (prx) A. K. (prx)


Lesenswert?

Cyblord -. schrieb:
> Aber doch interessant dass ChatGPT den gleichen Denkfehler wie du
> gemacht hat, oder?

Das liegt im Prinzip von dessen Arbeitsweise. Wenn eine Erkenntnis 
hinreichend häufig verbreitet wird, wird sie schon richtig sein.

“If you say it enough and keep saying it, they’ll start to believe you.”
- Donald Trump 2021, ein ausgewiesener Experte zu diesem Thema

: Bearbeitet durch User
von Cyblord -. (cyblord)


Lesenswert?

Hat zwar nichts mit KI zu tun, aber mit der ursprünglichen Aufgabe. Ich 
habe meine Formel wieder gefunden, die ich immer für Wolfram Alpha 
nutze:

solve (((v/(r1+r2))*r2)/1000)=(a/(2^b))*v0 for  v, r1=10000, r2=20000, 
b=12, v0=3.3

Damit kann man für beliebige Spannungsteiler, und beliebige ADC 
Bitanzahlen und eine Ausgabe in mV, einen ganzzahligen Bruch berechnen 
lassen.
Allerdings keine Restriktion auf Zweierpotenzen o.ä.

Ergebnis für obiges Beispiel wäre:

v = (2475 a)/2048

v= Spannung in mV
a= ADC Wert

Vielleicht kanns jemand brauchen.

: Bearbeitet durch User
von Yalu X. (yalu) (Moderator)


Lesenswert?

Frank M. schrieb:
> Anschließend habe ich ChatGPT korrigiert, siehe Screenshot. Und damit
> bestätigt sich wieder, dass die Wahrheitsfindung mit ChatGPT nur ein
> iterativer Prozess ist, bei dem man durchaus mitdenken muss.

Im konkreten Fall: Man muss die Lösung schon im Voraus kennen, um
entsprechend nachbohren zu können ;-)

von Adam P. (adamap)


Lesenswert?

Mario M. schrieb:
> Die höchste Teilspannung beginnt bei 2^n-1, also ist 3,75V richtig, auch
> wenn es noch so merkwürdig aussieht.

Ja jetzt ist es mir auch klar.
Der binäre Wert steht nicht für eine bestimmte Spannung sondern für den 
Spannungsbereich, welcher durch die Auflösung bedingt ist.
(Übertragungsfunktion)

Ergibt Sinn.

: Bearbeitet durch User
von Cyblord -. (cyblord)


Lesenswert?

(prx) A. K. schrieb:
> Das liegt im Prinzip von dessen Arbeitsweise. Wenn eine Erkenntnis
> hinreichend häufig verbreitet wird, wird sie schon richtig sein.

Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im 
Netz als Richtige?

: Bearbeitet durch User
von Lothar M. (Firma: Titel) (lkmiller) (Moderator) Benutzerseite


Lesenswert?

Adam P. schrieb:
> Würde ich 2^n anstatt (2^n - 1) rechnen, dann würde es ja falsch sein
Nein, denn dein ADC würde dann bei realen 3,75V am Eingang bereits das 
Ergebnis 4,99V (eigentlich 5,0V) liefern:
1
2^n -->
2
Eingang         ADC  Anzeige
3
0    ..1,24V    00   0V
4
1,25V..2,49V    01   1,25V
5
2,50V..3,74V    10   2,5V
6
3,75V..4,99V    11   3,75V
7
5,0V ..6,24V   100   5,0V
8
9
2^n-1 -->
10
Eingang         ADC  Anzeige
11
0    ..1,24V    00   0V
12
1,25V..2,49V    01   1,66v
13
2,50V..3,74V    10   3,33V
14
3,75V..4,99V    11   5,0V
15
5,0V ..6,24V   100   6,33V
Ich habe da dann jeweils mal eine Zeile mehr angefügt, die zeigt, wie 
die Funktion weitergehen würde, wenn da noch 1 Bit kommen würde.

Fazit: die Steigung deiner Berechnung mit 2^n-1 ist zwar "schöner" (weil 
bei 5,0V am Eingang eben auch 5,0V auf der Anzeige herauskommt) aber die 
Übertragungsgerade hat die falsche Steigung.

Oder andersrum: diese Unsitte mit dem "Schönsaufen der 
Übertrgungsgeraden" taucht vermehrt in den letzten Jahren auf. Ich 
erkenne da sogar eine deutliche Korrelation zur Verbreitung der Ardunio 
Plattform. Vor allem deshalb, weil sich da oft blutige Laien einen 
"schönen Wert" auf dem Display anzeigen lassen wollen.

Diese Frage taucht daher grundlegend alle Jahre immer wieder auf:
- Beitrag "Re: ADC-Spannung korrekt berechnen?"
- Beitrag "1023 oder 1024"

Auf jeden Fall ist es so, dass eine Division durch 2^n-1 üblicherweise 
technisch aufwendiger ist und mehr Rechenzeit braucht als eine durch 
2^n.

Frank M. schrieb:
> Anschließend habe ich ChatGPT korrigiert, siehe Screenshot
Und der Antwortautomat hat in den Tiefen seiner Daten sogar die 
Begründung für 2^n gefunden...  ;-)

: Bearbeitet durch Moderator
von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

Cyblord -. schrieb:
> Hat zwar nichts mit KI zu tun, aber mit der ursprünglichen Aufgabe. Ich
> habe meine Formel wieder gefunden, die ich immer für Wolfram Alpha
> nutze:

Das ist im Kern eine Aufgabe für einen Schüler im (technischen) 
Gymnasium, dazu braucht es kein Wolfram Alpha. Und wer sowas nicht auf 
einem Blatt Paier mit Grundrechenarten lösen kann ist für Tätigkeiten im 
Entwicklungsbereich unqualifiziert.

Wobei Verhältnisgleichung um die es hier im Kern geht allgemeiner 
Schulstoff Klasse 7 o.ä. ist.

von Cyblord -. (cyblord)


Lesenswert?

Bradward B. schrieb:
> Das ist im Kern eine Aufgabe für einen Schüler im (technischen)
> Gymnasium, dazu braucht es kein Wolfram Alpha. Und wer sowas nicht auf
> einem Blatt Paier mit Grundrechenarten lösen kann ist für Tätigkeiten im
> Entwicklungsbereich unqualifiziert.

Niemand sagt dass man es nicht selber berechnen kann.
Es ist nur nicht effizient, das jedes mal zu Fuß zu machen und 
verfügbare Werkzeuge nicht zu nutzen.
Ich kann auch mit einem Handbohrer Löcher bohren. Ich nutze trotzdem den 
Akkubohrer.

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

Cyblord -. schrieb:
> Hat zwar nichts mit KI zu tun, aber mit der ursprünglichen Aufgabe. Ich
> habe meine Formel wieder gefunden, die ich immer für Wolfram Alpha
> nutze:

Das ist im Kern eine Aufgabe für einen Schüler im (technischen) 
Gymnasium, dazu braucht es kein Wolfram Alpha. Und wer sowas nicht auf 
einem Blatt Paier mit Grundrechenarten lösen kann ist für Tätigkeiten im 
Entwicklungsbereich unqualifiziert.

Wobei Verhältnisgleichung um die es hier im Kern geht allgemeiner 
Schulstoff Klasse 8 o.ä. ist.

https://mathe-realschule.de/bruchgleichungen-loesen/

von Mario M. (thelonging)


Lesenswert?

Cyblord -. schrieb:
> 16 Bit Auflösung

Cyblord -. schrieb:
> b=12

🤔

von Cyblord -. (cyblord)


Lesenswert?

Mario M. schrieb:
> Cyblord -. schrieb:
>> 16 Bit Auflösung
>
> Cyblord -. schrieb:
>> b=12
>
> 🤔

Sorry für die Verwirrung.
Die Daten der Wolfram Formel haben nichts mit der Aufgabe oben zu tun. 
Die Formel mit diesen Beispieldaten hatte ich mir so mal abgespeichert.

: Bearbeitet durch User
von Frank M. (ukw) (Moderator) Benutzerseite


Lesenswert?

Cyblord -. schrieb:
> Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im
> Netz als Richtige?

Warum fragst Du das (prx) A. K. und nicht ChatGPT?

Ich habe das mal für Dich gemacht, hier ein Auszug aus der geschwätzigen 
Antwort:

"Viele Quellen und Foren, die das Thema behandeln, wie zum Beispiel 
StackExchange​(Electrical Engineering Stack Exchange
), neigen dazu, den Wert 65535 zu verwenden, was den Eindruck erweckt, 
dass dies die "Standard"-Antwort ist. Diese Verwendung beruht oft 
darauf, dass der maximale Wert für das letzte digitale Ausgangssignal 
gemeint ist.

Meine anfängliche Antwort orientierte sich an der Mehrheit dieser 
Darstellungen, die 65535 als maximalen Binärwert betrachten, was 
technisch gesehen in der Praxis richtig ist, aber die Gesamtanzahl der 
Stufen nicht exakt widerspiegelt. Tatsächlich sollte, wenn der gesamte 
Wertebereich gemeint ist, 65536 verwendet werden."

: Bearbeitet durch Moderator
von Cyblord -. (cyblord)


Lesenswert?

Frank M. schrieb:
> Cyblord -. schrieb:
>> Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im
>> Netz als Richtige?
>
> Warum fragst Du das prx und nicht ChatGPT?

Weil er die These mit der häufigsten Antwort aufgestellt hat und nicht 
ChatGPT.

Ich denke nämlich nicht dass die falsche Lösung im Netz überwiegt. Was 
aber sein kann ist dass man grundsätzlich öfter 2^n-1 findet als 2^n, 
unabhängig von der Aufgabe.

: Bearbeitet durch User
von Arduino F. (Firma: Gast) (arduinof)


Lesenswert?

Cyblord -. schrieb:
> Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im
> Netz als Richtige?
Glaubst du wirklich dem KI Dingen mehr als der harten Physik?
Ein echter Ki Fänboi lässt sich scheinbar nicht von/mit Fakten 
umstimmen.

Offenbar genügend genug um das eigene Hirn mal selber anzustrengen und 
nicht alles dull abzukupfern incl. der Irrtümer!

Suchtipp z-B.: Google(adc 1024 1023)

von Cyblord -. (cyblord)


Lesenswert?

Arduino F. schrieb:
> Cyblord -. schrieb:
>> Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im
>> Netz als Richtige?
> Glaubst du wirklich dem KI Dingen mehr als der harten Physik?

Das war gar nicht meine Aussage du Genie. Es ging darum woher ChatGPT 
die falsche Lösung nimmt.
Die korrekte Lösung steht doch gar nicht in Frage.

von Frank M. (ukw) (Moderator) Benutzerseite


Lesenswert?

Cyblord -. schrieb:
> Weil er die These aufgestellt hat und nicht ChatGPT.

Nach ChatGPTs Antwort

"Meine anfängliche Antwort orientierte sich an der Mehrheit dieser 
Darstellungen"

kann ich der These von (prx) A.K. duchaus folgen: Wird eine (unrichtige) 
Behauptung nur oft genug behauptet, wird sie zur Wahrheit. Selbst 
ChatGPT plappert jeden Stuss nach, wenn er oft genug gefunden wurde.

: Bearbeitet durch Moderator
von M. D. (derdiek)


Lesenswert?

Dennoch ist das sehr hilfreich, sich grundlegend erklären lassen zu 
können, wie man sowas angeht.
Wie ein Forum, aber mit Sofortantwort.

von Frank M. (ukw) (Moderator) Benutzerseite


Angehängte Dateien:

Lesenswert?

Ich habe ChatGPT nach Aufdeckung seiner Falschantwort gefragt, ob es 
nicht besser wäre, eine mehrheitliche Darstellung selbst zu 
hinterfragen, statt dass ich die Antwort hinterfragen muss.

Tatsächlich hat ChatGPT sich dazu verleiten lassen, mir genau das für 
die Zukunft zu versprechen. Ob das jetzt einfach eine dreiste Behauptung 
ist oder nicht, wage ich nicht zu beurteilen. Gibt es tatsächlich eine 
"Selbstreflexion" in der KI?

Der gesamte Chatverlauf nach dem 2^n Problem ist im Anhang - für die 
Interessierten.

P.S.

Ich habe den Text nochmal nachträglich in ANSI codiert hochgeladen, weil 
ersterer bei mir die Umlaute falsch anzeigt.

: Bearbeitet durch Moderator
von (prx) A. K. (prx)


Lesenswert?

Frank M. schrieb:
> kann ich der These von (prx) A.K. duchaus folgen: Wird eine (unrichtige)
> Behauptung nur oft genug behauptet, wird sie zur Wahrheit. Selbst
> ChatGPT plappert jeden Stuss nach, wenn er oft genug gefunden wurde.

Und damit spielt die Fragestellung eine wichtige Rolle. Diese KI denkt 
nicht über die Antwort nach, die "versteht" nicht. Sie assoziiert die 
Frage mit bestehendem Material. Die ursprüngliche Frage liefert eine 
Essenz der häufigen falschen Antworten. Bringt man Skepsis oder 
Korrekturen in die Fragestellung ein, assoziiert die KI das mit Texten 
wie diesen hier, in denen über den typischen Fehler diskutiert wird.

von Monk (roehrmond)


Lesenswert?

Cyblord -. schrieb:
> Ich bin mal wieder beeindruckt von ChatGPT.

Ich auch.

Allerdings musstest du die Antwort auch überprüfen. In der Zeit hättest 
du es vermutlich auch ohne ChatGPT berechnen können.

von (prx) A. K. (prx)


Lesenswert?

Frank M. schrieb:
> Gibt es tatsächlich eine "Selbstreflexion" in der KI?

Im Grunde müsste die KI die eigene Antwort der ersten Stufe mit einer 
selbst gestellten Frage zur Gültigkeit, also mit addierter Skepsis, sich 
noch einmal stellen, um auch solches Material zu assoziieren. Keine 
Ahnung, zu was eine solche Strategie in grossem Stil führt.

: Bearbeitet durch User
von Frank M. (ukw) (Moderator) Benutzerseite


Lesenswert?

(prx) A. K. schrieb:
> Im Grunde müsste die KI die eigene Antwort der ersten Stufe mit einer
> selbst gestellten Frage zur Gültigkeit, also mit addierter Skepsis, sich
> noch einmal stellen, um auch solches Material zu assoziieren.

Ja, genau.

> Keine
> Ahnung, zu was eine solche Strategie in grossem Stil führt.

Zu einer Endlosschleife?

von (prx) A. K. (prx)


Lesenswert?

Frank M. schrieb:
> Zu einer Endlosschleife?

Oder zur völligen Verwirrung des Lesers, angesichts des Zoos von 
Alternativen. In besonderen Fällen landen dann obendrein passionierte 
Skeptiker mit im Salat, und damit Verschwörungstheorien.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Ich hatte gerade eine erkennbare Selbstreflexion oder eine parallel 
laufende Zensur des Ergebnisses. Die Frage an Bing war "Hatte q-anon 
Recht?" Erst kam einige Zeilen über die Verschwörungstheorie - dann aber 
wurden die wieder gelöscht, und Bing entschuldigte sich dafür, keine 
Antwort geben zu können.

: Bearbeitet durch User
von Johann L. (gjlayde) Benutzerseite


Lesenswert?

Cyblord -. schrieb:
> Beispiel: Ein berühmtes XKCD Comic. Siehe Anhang.

Wobei gerade xkcd Comics nicht nur auf xkcd zu finden sind, sondern 
insbesondere auch auf explain-xkcd.  Dort gibt es nicht nur Transscript, 
sondern auch Erklärungen, Hintergründe, Interpretationen, Auflösung von 
Wortspielen, Mehrdeutigkeiten, Anspielungen etc.

https://www.explainxkcd.com/wiki/index.php/225:_Open_Source

von Lothar M. (Firma: Titel) (lkmiller) (Moderator) Benutzerseite


Lesenswert?

Cyblord -. schrieb:
> Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im
> Netz als Richtige?
Sicher, denn

Frank M. schrieb:
> ChatGPTs Antwort
> "Meine anfängliche Antwort orientierte sich an der Mehrheit...
q.e.d.

Das ist das Problem: es ist ein Wahrscheinlichkeitsentscheid nach dem 
Mehrheitsprinzip der im Internet zu findenden Aussagen. Das geht gut, 
wenn ich ein Restaurant suche oder einen Schuhhändler oder nette 
Ausflugsziele.

Aber wenn es um irgendwas geht, wo tausend blutige Laien im Netz 
irgendwas verpostulieren und das dann zehntausendfach im Netz zitiert 
wird, dann gilt das blöderweise mehr als wenn 10 Experten die Tatsachen 
in ein technisches Dokument schreiben.


Weil ich da grade drüber gestolpert bin muss ich mich selber zitieren:

Lothar M. schrieb:
> Ich habe da dann jeweils mal eine Zeile mehr angefügt, die zeigt, wie
> die Funktion weitergehen würde, wenn da noch 1 Bit kommen würde.
Denn schneller als man meint holt einen die Realität ein, wenn ein 
10-Bit ADC wegen eines offensichtlichen Softwarefehlers mal den Wert 
1024 zurückgibt:
- https://github.com/esp8266/Arduino/issues/6064

Wenn ich sowas lese, dann wünsche ich allen Programmierern, dass sie 
alltäglich immer solche Geräte benutzen müssen, wie sie selber welche 
programmieren.

: Bearbeitet durch Moderator
von Cyblord -. (cyblord)


Lesenswert?

Johann L. schrieb:
> Wobei gerade xkcd Comics nicht nur auf xkcd zu finden sind, sondern
> insbesondere auch auf explain-xkcd.  Dort gibt es nicht nur Transscript,
> sondern auch Erklärungen, Hintergründe, Interpretationen, Auflösung von
> Wortspielen, Mehrdeutigkeiten, Anspielungen etc.

Ja gibt es. Aber du kannst ihm jedes Comic füttern. Und deshalb ist es 
natürlich auch ganz interessant wirklich mal eigene Bilder reinzugeben. 
Die es nirgendwo im Netz gibt.

Und die Anspielung auf Nader, die es nur im Title, nicht im Comic selbst 
gibt, die aber auf explain-xkcd erklärt wird, kommt bei ChatGPT nicht 
vor. Was ein Hinweis darauf ist, dass er wirklich nur die Infos aus dem 
Bild hatte und keine von explain-xkcd.


Habe letztens ein Bild von einem unserer Kinderfahrräder rein gegeben 
und nach der Größe in Zoll gefragt. Marke und Typ wurde erkannt, Zoll 
geschätzt. War richtig.
Aber klar, die Antwort ist nicht sicherer als wenn man nem Kumpel das 
Bild zeigt und der schätzt dann auch mal drauf los.

: Bearbeitet durch User
von Lothar M. (Firma: Titel) (lkmiller) (Moderator) Benutzerseite


Lesenswert?

Cyblord -. schrieb:
> Zoll geschätzt.
Tippe auf 20 Zoll.

von Cyblord -. (cyblord)


Lesenswert?

Lothar M. schrieb:
> Cyblord -. schrieb:
>> Zoll geschätzt.
> Tippe auf 20 Zoll.

Es waren 14.

Die Antwort war schon sehr fundiert, wie gesagt, mit Hersteller und Typ.

Allerdings gebe ich zu: Langsam vergeht mir hier die Lust an diesem 
Thema. Ich war an einer sachlichen Diskussion interessiert, aber selbst 
von Mods kommt nur Polemik und Häme. Ich würde mich an dieser Stelle 
hier ausklinken.

: Bearbeitet durch User
von H. H. (hhinz)


Lesenswert?

Cyblord -. schrieb:
> Ich war an einer sachlichen Diskussion interessiert,

Der Witz des Jahres.

von Michael (Firma: HW Entwicklung) (mkn)


Lesenswert?

Jörg R. schrieb:

> Zum spielen vielleicht schön. Ich benutze aber lieber meinen Grips und
> einen Taschenrechner.

KI ist ein Werkzeug.
Einfach nur ein Werkzeug.
Wie tausend andere Werkzeuge, die wir jeden Tag benutzen ohne gleich in 
Ohnmacht zu fallen das die hohe Kunst Nägel mit der flachen Hand 
einzuschlagen ja durch den Gebrauch eines Hammers verkümmert.

Um eine sinnvolle Antwort von der KI zu bekommen muss man selber das 
Problem genug verstanden haben, um die Frage korrekt zu formulieren.

von Helmut -. (dc3yc)


Lesenswert?

Cyblord -. schrieb:
> Zoll
> geschätzt.

Ist das Fahrrad aus China, kommen noch 48.5% Antidumpingzoll dazu.

von Norbert (der_norbert)


Lesenswert?

Michael schrieb:
> Um eine sinnvolle Antwort von der KI zu bekommen muss man selber das
> Problem genug verstanden haben, um die Frage korrekt zu formulieren.

Plus Üblicherweise mehrmals umformulieren und verfeinern.
Plus Offensichtlich falsche Antworten nicht nur ignorieren, sondern 
bemängeln. Gerade bei verketteten Anfragen schleppt man sonst Mist mit.
Plus Jede Antwort nicht nur flüchtig auf Plausibilität, sondern – wie 
schon weiter oben gezeigt – auch wirklich genau überprüfen.

Bei schon geringfügig komplexeren Dingen dürfte das wohl mit großem 
Abstand der umfangreichste Teil sein.

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

>> Zum spielen vielleicht schön. Ich benutze aber lieber meinen Grips und
>> einen Taschenrechner.
>
> KI ist ein Werkzeug.
> Einfach nur ein Werkzeug.

Oder Spielzeug, das man für Werkzeug hält.
Irgendwie erinnert mich das ab die Erzählung "Picknick am Wegesrand" von 
den Strugazkis.

Da hantieren unkundige Menschen mit "Artefakten" herum, denen sie 
besondere Bedeutung zusprechen, die aber womöglich nur der Abfall einer 
Picknick-Party von Aliens ist.


https://de.wikipedia.org/wiki/Picknick_am_Wegesrand#%C3%9Cber_den_Besuch

von Lothar M. (Firma: Titel) (lkmiller) (Moderator) Benutzerseite


Lesenswert?

Cyblord -. schrieb:
> Ich war an einer sachlichen Diskussion interessiert
Und kommst mit Kinderfahrrädern daher?

> aber selbst von Mods kommt nur Polemik und Häme.
Ja, da fällt mir halt ums Verrecken nichts besseres ein. Wenn ich den 
Antwortautomaten zur richtigen Antwort überreden muss, dann taugt der 
für mich nicht.

> Ich würde mich an dieser Stelle hier ausklinken.
Schönes Wochenende.

von Stephan R. (Firma: FHK) (nautosteer)


Lesenswert?

Cyblord -. schrieb:
> Ich bin mal wieder beeindruckt von ChatGPT

Ich, schon immer, komplett eingeschüchtert.
Als Nicht-Profi-Programmierer aber µC-Sympathisant hat man eine Ahnung, 
was in den Registern der kleinen Chips vorgeht und man hat eine 
Vorstellung, was wohl in einem Windows-Rechner alles vor sich gehen mag. 
Aber dass es "Programme" gibt, die solche Leistungen wie ChatGPT 
erbringen... das hat mit der blinkenden LED nichts mehr zu tun.

von Walter T. (nicolas)


Lesenswert?

Bradward B. schrieb:
> Da hantieren unkundige Menschen mit "Artefakten" herum, denen sie
> besondere Bedeutung zusprechen, die aber womöglich nur der Abfall einer
> Picknick-Party von Aliens ist.

Nein. Hast Du das Buch überhaupt gelesen?

von Michael (Firma: HW Entwicklung) (mkn)


Lesenswert?

Cyblord -. schrieb:
> Ich war an einer sachlichen Diskussion interessiert
Hier?

Indem Du sagts das der menschliche Verstand kein gottgegebenes 
einzigartiges und wunderbares Kunstwerk ist, sondern simple 
Fleischmechanik deren Leistungen bereits jetzt zum Teil durch 
konstruierte Maschinen zu leisten ist?

Man hat es nicht geschafft im ersten Anlauf eine komplette und absolut 
fehlerfreie Universalintelligenz zu konstruieren die auch mit deppischen 
Eingaben perfekte Ergebnisse liefert.

Also taugt das alles nichts.
Und es spielt absolut keine Rolle das Du, das ich und viele andere sehr 
wohl ausgesprochen nützliche Ergebnisse durch KI Arbeit bekommen.

Es gibt eben viele die sich bereits entschieden haben das sei Spielzeug, 
Nippes, simple Mustererkennung und hätte nichts mit 'I' zu tun.
Es ist völlig egal was KI noch leisten wird.
Denen wird nichts gut genug sein um ihre Meinung zu ändern.
Völlig egal wie viele Fehler Menschen machen und wie wenige KI, es wird 
KI für sie immer nur dummes Zeug bleiben.
Weil es immer noch etwas geben wird das nur ein sehr guter Mensch kann.
Völlig egal wie viel KI besser kann als jeder Mensch.
Ebenso egal wie viele dumme Menschen es gibt die nichts besser können 
als KI.
Und wenn sie nur Atmen und Kacken können, wird das reichen sie als der 
KI überlegen zu bezeichnen.

Das ist aber nur ein Ausdruck für das Maß der Borniertheit der Menschen 
und trifft keine Aussage über die Leistungen der KI.

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

>> Da hantieren unkundige Menschen mit "Artefakten" herum, denen sie
>> besondere Bedeutung zusprechen, die aber womöglich nur der Abfall einer
>> Picknick-Party von Aliens ist.
>
> Nein. Hast Du das Buch überhaupt gelesen?

Doch. Ja, Du ?

von (prx) A. K. (prx)


Lesenswert?

Bradward B. schrieb:
> Irgendwie erinnert mich das ab die Erzählung "Picknick am Wegesrand" von
> den Strugazkis.

KI ist eine von uns selbst angestossene Entwicklung, bei der wir noch 
ganz am Anfang stehen, von der wir nicht wissen, wo sie endet, wie sich 
die Zivilisation dadurch verändern wird. Das ist vom Grundprinzip her 
nicht anders, als bei jeder anderen Entwicklung der Zivilisation.

Eine der fundamentalsten Entwicklungen dürfte der Übergang zur 
Jungsteinzeit mit der Sesshaftigkeit gewesen sein. Wir kennen noch nicht 
einmal die langfristige Dimension von KI, also ob das damit vergleichbar 
sein wird, oder sich mit der Zeit als aufgeblasener Hype wie Cryptogeld 
erweisen wird.

Die Artifakte der Erzählung sind quasi umgekehrt. Das entspräche 
übertragen gesehen einer heutigen Begegnung mit einem viel späteren 
Zustand einer solchen Entwicklung.

von Johann L. (gjlayde) Benutzerseite


Lesenswert?

Cyblord -. schrieb:
> Langsam vergeht mir hier die Lust an diesem Thema.
> Ich war an einer sachlichen Diskussion interessiert,

Versuch's mal mit ChatGPT.

von (prx) A. K. (prx)


Lesenswert?

Johann L. schrieb:
> Versuch's mal mit ChatGPT.

Das wär doch mal eine passende Aufgabe: Einen Chat mit der KI so zu 
führen, dass diese unsachlich wird. Schafft er bestimmt. Spätestens am 
Freitag. :)

: Bearbeitet durch User
von Klaus (feelfree)


Lesenswert?

(prx) A. K. schrieb:
> Einen Chat mit der KI so zu
> führen, dass diese unsachlich wird.

Einfach die passende KI nehmen: 
https://www.der-postillon.com/2023/05/deppgpt.html

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

(prx) A. K. schrieb:
> Bradward B. schrieb:
>> Irgendwie erinnert mich das ab die Erzählung "Picknick am Wegesrand" von
>> den Strugazkis.
>
> KI ist eine von uns selbst angestossene Entwicklung, bei der wir noch
> ganz am Anfang stehen, von der wir nicht wissen, wo sie endet, wie sich
> die Zivilisation dadurch verändern wird.

> Die Artifakte der Erzählung sind quasi umgekehrt. Das entspräche
> übertragen gesehen einer heutigen Begegnung mit einem viel späteren
> Zustand einer solchen Entwicklung.

Nö, IMHO ist KI in der Begrifflichkeit in der sie seit Jahrzehnten 
benutzt und ein Artefakt der Strugatzkis darin gleich, das jeder 
"Mensch" seine individuelle Vorstellung davon hat, was es überhaupt ist.

IMHO ist das Wesen der Artifakte aus Sicht der Menschen gerade das deren 
Zweck komplett unverstanden ist, ja vielleicht vom (unbekannten) 
Schöpfer garnicht angelegt wurde. Losgelöst von der "Entwicklungsstufe" 
des Schöpfers.

"von uns selbst angestossen" trifft auf jede Erkenntniss/Technologie zu, 
wobei ChatGPT IMHO eher keine "(Weiter-"Entwicklung") sondern ein 
"Nachäffen" ist. So wie Compouter-schach das "Nachäffen" eines 
Schachspielers ist, ursprünglich verbunden mit der Erwartung, das über 
"Schachprogramme" klar wird, was "Intelligenz" überhaupt ist und wie man 
sie (maschienell) "erzeugen" kann. Diese Hoffnung hat sich nicht 
bewahrheitet. Eine Maschine, die den intelligentesten Menschen im Schach 
schlägt ist nicht wirklich intelligent. Und eine Maschine, die besser 
chatet als jeder Chat-Weltmeister, auch nicht.

Die Wahrnehmung über eine Sache führt nicht dazu, das man ihren 
ursprünglichen Zweck erkennt. Das ist m.E. die Parallele zwischen KI und 
"Picknick-Artefakt".

BTW: Es gibt eine reichlich hohe Anzahl von Ausgaben des "Picknick am 
Wegesrand". Unterschiedliche Übersetzer, unterschiedlich stark zensierte 
Vorlagen, etc. pp. Gut möglich das wir hier von verschiedenen 
Buch-Variationen reden. Wobei ein Buch eh auf unterschiedliche Weisen 
interpretiert werden kann.

https://www.google.com/search?q=Picknick+am+Wegesrand+%C3%9Cbersetzung&;

: Bearbeitet durch User
von Michael (Firma: HW Entwicklung) (mkn)


Lesenswert?

Johann L. schrieb:
> Versuch's mal mit ChatGPT.
Für eine sachliche Diskussion, in einem respektvollen Ton, ohne ein 
Unmaß an geistigem Totalausfall, ist ChatGPT mc.net auf jeden Fall 
vorzuziehen.

ChatGPT möchte man nicht den halben Tag die Fresse polieren, es quatscht 
einem nicht ungefragt ins Essen, erzählt nicht den lieben langen Tag 
einen totalen Stuss nach dem anderen und hat nicht das Sozialverhalten 
von 100m Feldweg.

Eigenschaften von denen sich einige hier wirklich eine Scheibe 
abschneiden könnten.

KI versteht manches nicht, erfindet auch Dinge wenn es sonst keine 
Antwort hat, steht aber auch noch ganz am Anfang, keine 80J nach 
Erfindung des ersten Transistors.

Dieter D. z.B. (es gäbe viele andere) versteht scheinbar überhaupt 
nichts, erfindet fast ausschließlich Dinge und quasselt ohne Unterlass 
in fast jeden Thread hinein, ohne das auch nur einer um seine Meinung 
gebeten hätte.
Und der hat 7 Millionen Jahre Evolution hinter sich, wenn man nur mal 
beim Primaten die Uhr auf Null stellt.
4 Milliarden Jahre wenn man bis zu den Anfangen der biologischen 
Evolution zurückgeht.

1 zu 0 für die KI.

von Florian S. (sevenacids)


Lesenswert?

Ich halte es auch für vermessen, bei ChatGPT von KI zu sprechen. Damit 
vermarktet man es, im Grunde handelt es sich aber nur um Machine 
Learning, und das hat erst mal nichts mit Intelligenz zu tun. Wie schon 
weiter oben ausgeführt basieren die Antworten (stark vereinfacht) auf 
Wahrscheinlichkeitsmodellen, und das ADC-Beispiel zeigt: am Ende gewinnt 
die Antwort, die die meiste Verbreitung hat. Ich halte das übrigens für 
sehr gefährlich, weil es Manipulation Tür und Tor öffnet und die 
Möglichkeit bietet, gezielt Propaganda zu verbreiten die, weil man dem 
Werkzeug ja vertraut, im Regelfall auch nicht überprüft wird. Genauso, 
wie eine Blockchain nicht mehr verlässlich ist, wenn man die Mehrheit 
der Knoten dazu bringt, einen manipulierten Eintrag als echt zu 
verifizieren. Solange man dem ganzen vertraut, wird es akzeptiert.

Ich denke, von einer KI, die den Namen verdient, sind wir weit entfernt. 
Allein schon die Tatsache, welche immense Rechenleistung und damit 
Energieaufnahme nötig ist, um ChatGPT zu betreiben. Ein menschliches 
Gehirn ist, wenn man es technisch runterbrechen möchte, ein 
Analogrechner mit einer Leistungsaufnahme von um die 40 Watt (Aussage 
laut Bernd Ulmann). Damit arbeitet es zwar wesentlich langsamer, 
übersteigt aber in seinen Fähigkeiten deutlich jede derzeitige "KI" und 
ist dabei in seiner Leistungsaufnahme um viele Größenordnungen 
effizienter. Und ich meine, solange wir die Funktionsweise natürlicher 
Intelligenz nicht tiefergehend verstanden haben und daraufhin einen 
fundamental anderen Ansatz zur künstlichen Nachbildung verfolgen können, 
wird das nichts. Das aktuelle Verfahren skaliert ja heute schon nicht, 
es wird ihm nur mit noch mehr Rechenleistung begegnet um dieses 
grundlegende Defizit unserer, mangels wissen, naiven Herangehensweise 
auszugleichen.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Florian S. schrieb:
> Ich halte es auch für vermessen, bei ChatGPT von KI zu sprechen

Das ist einfach nur ein Fachbegriff in der Informatik, bezeichnet der 
Bereich in dem sich solche Software bewegt. Muss man nicht so pingelig 
sehen.

von Michael (Firma: HW Entwicklung) (mkn)


Lesenswert?

Florian S. schrieb:
> übersteigt aber in seinen Fähigkeiten deutlich jede derzeitige "KI"

Nö.
KI kann Datenberge durchsuchen und daraus neue Zusammenhänge erkennen, 
für die ich 10 Lebenspannen benötigen würde die nur zu lesen.
WENN ich mir nicht nach 2J die Pulsadern durchbeißen würde weil mich das 
tägliche einerlei im Papierberg wahnsinnig macht.

KI kann längst viele Dinge erheblich besser, schneller, billiger als 
Menschen.
Und bereits LLM haben Fähigkeiten die sie aufgrund ihrer Funktionsweise 
eigentlich nicht haben sollten.

Und da niemand weiß wie Intelligenz beim Menschen entsteht, wie 
Bewusstsein entsteht, könnte es sehr gut sein das es mit unserer ach so 
hoch gelobten Leistung garnicht so weit her ist und Maschinen vielleicht 
unmittelbar an der Schwelle dessen stehen was wir für ausschließlich 
menschliche Geistesleistung halten.

Diese Ansichten der Menschlichen Überlegenheit und der nur dem Menschen 
zugeschriebenen Leistungen gelten doch schon ganz lange nicht mehr.
Die geistern nur noch durch die Köpfe derer die aktuelle Forschungen 
nicht kennen.
Viele Tiere haben komplexe 'Sprachen', komplexe Sozialstrukturen, nutzen 
Werkzeuge, haben Humor, spielen, sind neugierig, träumen und haben eine 
komplexe Vorstellungskraft.

Und die Reaktion der immer gleichen Leute ist die immer gleiche: 'Nö, 
das ist alles Blödsinn, das können nur Menschen.'
Und nun kann die gleiche begrenzte Vorstellungskraft sich eben an KI 
abarbeiten.

Es gibt Spinnen die komplexe Angriffsmuster planen und durchführen und 
Gehirne haben die nicht mal genug Neuronen besitzen das sie dazu in der 
Lage sein dürften.
Wir wissen über unsere eigenen Gehirne fast nichts und noch viel weniger 
über die der anderen Spezies.
Aber eines weiß jeder mc.net Forist:
KI ist nicht intelligent und wird es auch nie werden.
Dabei ist das bei einer nicht unerheblichen Anzahl der mc.net User auch 
höchst umstritten.

Ich sehe jeden Tag die schreiende Dummheit, Unlogig, die 
Selbstzerstörung und die maßlose Überheblichkeit meiner eigenen Spezies 
und hoffe inständig das wenigstens ein paar von diesen dämlichen Zombies 
in der Lage sind die Keimzelle einer gerichteten Evolution zu 
erschaffen, aus der sich dann eine Technikzivilisation entwickeln kann, 
die jede biologische Evolution weit in den Schatten stellt, weil sie 
keiner dieser absurden Beschränkungen und primitiver Altlasten mit sich 
herumschleppt.

Und jeder Post der Art 'das ist alles nur dumme Mustererkennung und 
daran ist nun wirklich nichts besonderes' bestärkt mich in dem festen 
Glauben das dieses Universum mehr verdient hat als ein paar aufgeblasene 
Fleischsäcke deren vorstechendes Eigenschaft die Borniertheit ist.

Wie kann man nur so weit kommen in der Evolution, Zugang zu so viel 
Wissen haben, so viele Fehler der Vergangenheit kennen, so weit oben auf 
den Schultern von Riesen stehen und dennoch so unfassbar dumm sein?
DAS ist typisch menschlich!
DAS schafft wirklich keine andere Spezies.
DAZU werden KIs nie in der Lage sein.

Unsere Gesellschaft entwickelt sich seit langem nicht mehr nach vorn.
Wir türmen Wohlstand auf, füllen Bibliotheken mit unserem Wissen, die 
Straßen werden breiter, die Autos größer, die Bildschirme bunter, aber 
gesellschaftlich befinden wir uns im freien Fall und schaffen nicht mal 
unsere eigene Bevölkerungsexplosion in den Griff zu bekommen.
Jede Ratte hört auf zu fressen wenn sie zu fett wird um durch Gänge zu 
kommen.
Wir nicht mal dann wenn uns die Beine wegknicken und das Herz keine zwei 
Treppenstufen mehr packt.
Nein, wir fressen nicht zuviel.
Wir haben schwere Knochen!

Wir machen immer noch die gleichen Dinge wie eine Schimpansengruppe im 
Urwald.
Nur eben mit deutlich geilerer Technik.
Die Grundmuster sind aber unverändert und scheinbar auch unveränderbar 
weil sie uns ins primitive Erbgut getackert sind.

von Hans W. (Firma: Wilhelm.Consulting) (hans-)


Lesenswert?

(prx) A. K. schrieb:
> Florian S. schrieb:
>> Ich halte es auch für vermessen, bei ChatGPT von KI zu sprechen
>
> Das ist einfach nur ein Fachbegriff in der Informatik, bezeichnet der
> Bereich in dem sich solche Software bewegt. Muss man nicht so pingelig
> sehen.

Doch!

Das ist ein Large Language Model!
Sowas kann per Definition nicht intelligent sein.

Nachdem dort "Wissen" über stochastische Verfahren wiedergegeben wird, 
ist es schon erstaunlich, dass sich Leute darauf verlassen.
Hackaday hat Mal diesen Artikel verlinkt .. unbedingt lesenswert! 
https://blog.miguelgrinberg.com/post/how-llms-work-explained-without-math

Gut, wenn so ein Modell auf spezifische Probleme trainiert wird (z.B 
filtere die Steuerhinterzieher aus dem datenreichtum), dann mag das noch 
gut funktionieren.

Problematisch ist aber, dass selbst die Datenbasis kompromittiert ist... 
Siehe z.B den CCC Vortrag über die Zahlenveränderten Xerox Kopierer.

Damit ist alles, wass z.B über OCR gelernt wurde zu hinterfragen.

Noch schwieriger ist, dass selbst hier im Forum mir schon fragen 
aufgefallen sind, die von offensichtlich falschen Antworten irgend einer 
'KI' her rühren...

Aber sei es drum. Ein LLM hat mit intelligenz nichts zu tun. Vllt. wird 
so etwas mal das Gedächtnis einer KI darstellen... Dank der bekannten 
Probleme mit Halluzinieren und over-training wird die dann aber auch 
kein skynet...

Linus torvalds hat es glaube ich scherzhaft als auto-completion on 
steroids bezeichnet ... Ich glaube sooo schlecht trifft er es damit gar 
nicht... Der darf man ja auch nicht immer vertrauen, obwohl sie die 
Arbeit doch sehr beschleunigt.

73

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Hans W. schrieb:
> Sowas kann per Definition nicht intelligent sein.

Um zum Fachbereich KI zu gehören, ist echte Intelligenz nicht 
erforderlich. Bei der Software nicht, und bei den Studenten war es zu 
meiner Zeit umstritten. ;)

: Bearbeitet durch User
von Monk (roehrmond)


Lesenswert?

Hans W. schrieb:
> Linus torvalds hat das glaube ich scherzhaft als auto-completion on
> steroids genannt ...

Das ist zur Zeit die einzige Anwendung, bei ich mir derzeit vorstellen 
kann, dass sie mir bei der Arbeit helfen könnte. Unser GF ist daran sehr 
interessiert.

Allerdings müsste die Firma dazu aus Datenschutz-Gründen eine eigene KI 
betreiben. Wir würden sonst unsere Kunden verlieren.

Wie das praktisch gehen soll, ist noch unklar. Wir warten seit Monaten 
auf konkrete Angebote oder Konzepte der Anbieter. Ich habe den Eindruck, 
dass die nur Werbung haben, aber noch kein funktionierendes Produkt.

von Michael (Firma: HW Entwicklung) (mkn)


Lesenswert?

Hans W. schrieb:
> Sowas kann per Definition nicht intelligent sein.
Und doch haben die erstaunliche Fähigkeiten entwickelt die sich selbst 
die Entwickler nicht erklären können.
So beeindruckend das unsereins nur extrem kastrierte Modelle zu Gesicht 
bekommt.
Kaum mehr als fortschrittliche Suchmaschinen mit der Fähigkeit zur 
Textzusammenfassung.

Menschen definieren schon alles mögliche seit Jahrtausenden.
Und in den meisten Fällen lagen sie auf lächerlich anmutende Weise 
falsch.
Die Erde ist eine Scheibe, unter 300m Wassertiefe kann kein Leben 
existieren, Tiere sind nur simple bedürfnissgetriebene Fleischmechanik 
ohne Verstand etc. pp.

Alles und unendlich viel mehr was jeder wusste, sich dessen völlig 
sicher war, hat sich in Gelächter und Schamesröte aufgelöst.
Und jetzt 'wissen' wir eben was ein LLM kann und was nicht.

Haben aber uns selbst nicht kapiert und wissen nicht was Bewusstsein 
eigentlich ist, wie es entsteht und ab welcher Komplexität es plötzlich 
da ist.

Und wie die Jahrtausende zuvor: Immer die Fresse weit auf und völlig 
sicher wie die Welt tickt.
Und genau darin liegt unsere größte Evolutionäre Schwäche.
Diese Selbstbewusstsein haben wir gebraucht um in einer völlig 
unverstandenen Welt über den Tag zu kommen.
Es hindert uns aber daran uns zu entwickeln.
Immer noch blicken wir mit stumpfen Augen auf komplexe Vorgänge, ohne 
jedes tiefere Verstehen, weil ein einfaches Vorurteil eben schneller ist 
als planvolles Vorgehen in einer Tiefe zu der unsere Gehirne nicht 
geeigent sind.

von Hans W. (Firma: Wilhelm.Consulting) (hans-)


Lesenswert?

(prx) A. K. schrieb:
> Hans W. schrieb:
>> Sowas kann per Definition nicht intelligent sein.
>
> Um zum Fachbereich KI zu gehören, ist echte Intelligenz nicht
> erforderlich. Bei der Software nicht, und bei den Studenten war es zu
> meiner Zeit umstritten. ;)

Zum Fachgebiet KI gehören sehr viele Themen. Die wenigsten davon haben 
mit einer eigentlichen KI direkt zu tun...

Wie gesagt. Diese LLM, SVM,... Sind "Bausteine", die Mal als ganzes eine 
KI werden könnten.

Michael schrieb:
> Hans W. schrieb:
>> Sowas kann per Definition nicht intelligent sein.
>
> Und doch haben die erstaunliche Fähigkeiten entwickelt die sich selbst
> die Entwickler nicht erklären können.

Das ist mir neu... Aber ich informiere mich auch nicht auf X und 
Telegramm...

Ja, man weiß nicht so genau wie/warum welcher Trainings Input welche 
Auswirkung beim eigentlichen Run hat... Das hat aber eher etwas mit der 
intrinsische Komplexität der riesigen Datenmenge zu tun.

Monk schrieb:
> Hans W. schrieb:
>> Linus torvalds hat das glaube ich scherzhaft als auto-completion on
>> steroids genannt ...
>
> Das ist zur Zeit die einzige Anwendung, bei ich mir derzeit vorstellen
> kann, dass sie mir bei der Arbeit helfen könnte. Unser GF ist daran sehr
> interessiert.

Ich hätte ein paar ganz gute geschäftsideen... Das Problem ist aber, 
dass mir das Training viel zu aufwändig ist. Ich hab einen proof of 
concept über Google gebastelt... Puuuuihhhhh da braucht's viele, viele, 
viele lohngedumpte billigst "fachkräfte", damit das was wird ...

von Ob S. (Firma: 1984now) (observer)


Lesenswert?

Walter T. schrieb:

> Bradward B. schrieb:
>> Da hantieren unkundige Menschen mit "Artefakten" herum, denen sie
>> besondere Bedeutung zusprechen, die aber womöglich nur der Abfall einer
>> Picknick-Party von Aliens ist.
>
> Nein. Hast Du das Buch überhaupt gelesen?

Ich schon.

Diese Möglichkeit wird darin tatsächlich von einem der Protagonisten 
geäußert, als eine Art Gedankenbild.

Das findet sich in beiden mir bekannten deutschen Übersetzungen (die in 
ihrer Qualität sehr unterschiedlich sind) und auch im russischen 
Original.

Ich würde also eher mal davon ausgehen, dass du das Buch nicht gelesen 
hast, zumindest nicht richtig.

Zumal dieses Gedankenbild ziemlich zentral für das Anliegen der 
Verfasser zu sein scheint. So zentral, dass es sogar titelgebend war...

Darüber solltest du bei Gelegenheit mal nachdenken.

von Alexander (alecxs)


Lesenswert?

Cyblord -. schrieb:
> Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im
> Netz als Richtige?

Die Formeln sind nicht das Problem, sondern die Ergebnisse. ChatGPT kann 
nicht rechnen, es rät.

von Ove M. (Firma: ;-) gibt es auch) (hasenstall)


Lesenswert?

Ob nun KI oder nicht; mir hat ChatGPT heute ein gutes Stück Arbeitszeit 
gespart. Ich habe ein Excelsheet mit 30k Zeilen an Messdaten. Da drin 
etliche, sagen wir, längere Anstiege, leider nicht durchgehend stetig.
Auszuwerten hatte ich nur die Bereiche mit diesen partiell leider 
unstetigen Anstiegen. Gesucht war ein gleitender Mittelwert der Anstiege 
unter Akzeptanz von schmaleren gleitenden Abstiegen.
Das was ChatGPT da in kürzester Zeit ausgespuckt hat, hätte ich händisch 
programmiert eher in x Stunden geschafft, oder auch noch länger 
gebraucht. Das hat mich schon ein Stück weit beeindruckt. Ich habe 
insgesamt 4x meine Anfrage iteriert, dann hatte ich ein brauchbares 
Ergebnis. Nicht schlecht finde ich.

: Bearbeitet durch User
von Norbert (der_norbert)


Lesenswert?

Ove M. schrieb:
> Ich habe ein Excelsheet mit 30k Zeilen an Messdaten.

Vielleicht kann dir das künstliche Cleverle ja auch helfen einen 
angemessenen Container für Messdaten zu finden. ;-)

von Georg M. (g_m)


Lesenswert?

ChatGPT kann nicht nur Witze erzählen, sondern auch danach selbst 
lachen.

https://www.youtube.com/watch?v=gVySJ2JOej8

von Hans W. (Firma: Wilhelm.Consulting) (hans-)


Lesenswert?

Ove M. schrieb:
> Ich habe insgesamt 4x meine Anfrage iteriert, dann hatte ich ein
> brauchbares Ergebnis. Nicht schlecht finde ich.

Puh, damit hätte ich ein Problem...

Wie machst du da die obligatorischen "sanity checks"?

Wenn's stimmen muss, dauert meiner Erfahrung nach das Verifizieren 
wesentlich länger als das Rechnen.

Also Test Daten generieren und Ergebnis prüfen.

Das hat jetzt absolut nichts mit KI zu tun... Ergebnisse gehören 
überprüft. Handechnung, Matlab, C, Python, ChatGPT.
Wenn ich nicht davon ausgehen kann, dass meine Testdaten und meine 
echten Daten deterministisch verarbeitet werden, dann gibt's massive 
Einschränkungen bei der Anwendbarkeit.

73

: Bearbeitet durch User
von Jens B. (dasjens)


Lesenswert?

Michael schrieb:
> Hans W. schrieb:
>> Sowas kann per Definition nicht intelligent sein.
> Und doch haben die erstaunliche Fähigkeiten entwickelt die sich selbst
> die Entwickler nicht erklären können.

Und das wäre?

von Jens B. (dasjens)


Lesenswert?

Ove M. schrieb:
> Ob nun KI oder nicht; mir hat ChatGPT heute ein gutes Stück Arbeitszeit
> gespart. Ich habe ein Excelsheet mit 30k Zeilen an Messdaten. Da drin
> etliche, sagen wir, längere Anstiege, leider nicht durchgehend stetig.
> Auszuwerten hatte ich nur die Bereiche mit diesen partiell leider
> unstetigen Anstiegen. Gesucht war ein gleitender Mittelwert der Anstiege
> unter Akzeptanz von schmaleren gleitenden Abstiegen.
> Das was ChatGPT da in kürzester Zeit ausgespuckt hat, hätte ich händisch
> programmiert eher in x Stunden geschafft, oder auch noch länger
> gebraucht. Das hat mich schon ein Stück weit beeindruckt. Ich habe
> insgesamt 4x meine Anfrage iteriert, dann hatte ich ein brauchbares
> Ergebnis. Nicht schlecht finde ich.

4x die Anfrage wiederholt und dann ein "brauchbares" Ergebnis.
Also hast Du 4 mal die Ausgabe von ChatGPT überprüft?
Gegen was hast Du die Ausgaben verglichen?

Messdaten auswerten und dann ein "brauchbares" Ergebnis erhalten,
da ist die aussage "Pi ist genau 3" wesentlich korrekter.

von Monk (roehrmond)


Lesenswert?

Vermutlich steht für die Entwicklung von KI derzeit nur deswegen so 
unfassbar viel Geld zur Verfügung, weil Reiche Menschen die nicht vom 
Fach sind damit ihre Allmachts-Phantasien befriedigen.

Wenn daraus nicht sehr bald etwas wird, versiegen die Geldquellen.

Dann muss die KI als Werkzeug taugen, was für den Rest der Menschheit 
gut wäre. Das klappt aber nur, wenn es sich in irgendeiner Form lohnt. 
Eine KI, die das vielfache an Energie, Arbeitsaufwand und Geld kostet, 
als herkömmliche Werkzeuge, hat keine Chance. Von einem effizienten 
Werkzeug sind wir noch weit entfernt.

von Walter T. (nicolas)


Lesenswert?

Ob S. schrieb:
> Walter T. schrieb:
>
>> Bradward B. schrieb:
>>> Da hantieren unkundige Menschen mit "Artefakten" herum, denen sie
>>> besondere Bedeutung zusprechen, die aber womöglich nur der Abfall einer
>>> Picknick-Party von Aliens ist.
>>
>> Nein. Hast Du das Buch überhaupt gelesen?
>
> Ich schon.
>
> Diese Möglichkeit wird darin tatsächlich von einem der Protagonisten
> geäußert, als eine Art Gedankenbild.

Dieser Protagonist wird allerdings auch nicht als besonders hell im Kopf 
herausgestellt. (Und selbst wenn er richtig läge, hätte diese Aussage 
keinerlei Bedeutung, da dies ohnehin niemand verifizieren könnte.)

Die Artefakte haben im Roman tatsächlich besondere Eigenschaften, 
nicht nur zugesprochen, weswegen sie ein teures Handelsgut sind. Ein 
paar nützliche Eigenschaften hat man schon herausbekommen (z.B. bei den 
"Energiezellen", die sich beliebig vermehren zu lassen scheinen und als 
Fahrzeugantriebe genutzt werden), bei den meisten aber nicht.

Welche Bedeutung die Artefakte für diejenigen haben, die sie 
hinterlassen haben (z.B. "nur Abfall"), wird spekuliert.

Aber dass sie tatsächlich besondere Eigenschaften haben, von denen 
einige positiv und einige negativ sind, ist im Roman unstrittig.

Alle Beteiligten im Roman hantieren für einen mageren Profit mit 
Gefahrgut, das sie und ihre Familien zerstört. Eine tiefe "Bedeutung" 
steckt für keinen davon in irgendeinem Objekt.

: Bearbeitet durch User
von Johann L. (gjlayde) Benutzerseite


Lesenswert?

Ove M. schrieb:
> Ob nun KI oder nicht; mir hat ChatGPT heute ein gutes Stück Arbeitszeit
> gespart. Ich habe ein Excelsheet mit 30k Zeilen an Messdaten. Da drin
> etliche, sagen wir, längere Anstiege, leider nicht durchgehend stetig.
> Auszuwerten hatte ich nur die Bereiche mit diesen partiell leider
> unstetigen Anstiegen. [...]
> Ich habe insgesamt 4x meine Anfrage [an ChatGPT] iteriert, dann hatte
> ich ein brauchbares Ergebnis. Nicht schlecht finde ich.

Nächstes mal einfach "monoton" anstatt "stetig" verwenden, dann schafft 
ChatGPT das vielleich sogar schon in der ersten Anfrage :-)

Messdaten sind immer diskret, können also gar nicht stetig sein.

Und wenn du findest das ist Haarspalterei: Ja, Mathe ist 
haarspalterei.

von Michael (Firma: HW Entwicklung) (mkn)


Lesenswert?

Monk schrieb:
> Wenn daraus nicht sehr bald etwas wird, versiegen die Geldquellen.

Keine Ahnung unter welchem Stein Du lebst, aber in meiner Welt ist aus 
KI längst etwas extrem nützliches geworden.
In so vielerlei Hinsicht das man es kaum aufzählen kann und es wird 
damit ganz enorm viel Geld verdient.

Was man noch nicht geschafft hat ist eine starke allgemeine Intelligenz.
Aber das war bei den LLM auch nicht das Ziel.
OpenAI arbeitet längst an ganz anderen Modellen, z.B. O1.
https://www.spektrum.de/news/openai-o1-was-bringt-das-neue-ki-modell-fuer-die-wissenschaft/2235430

Mit den LLM hat OpenAI etwas auf die Beine gestellt das vorher undenkbar 
war.
Es gab vorher nichts vergleichbares.
KI WAR kaum mehr als dumme Mustererkennung.
Mit den LLM hat unter anderem OpenAI einen neuen Ansatz, mit brachialer 
Rechenpower, Spezialhardware und unglaublich großen Trainingsdatenbanken 
auf einen völlig neuen Level gehoben.
Zuvor hat man immer sehr kleine Systeme gebaut.
Aber komplexe Systeme sind nicht klein.
Baut man ein Bienengehirn, kann das eben Muster erkennen und wenig mehr.
Will man etwas von der Leistungsfähigkeit einer Schlange, muss man 
größer werden.
Will man ein komplexes Sozialverhalten und die Gehirnleistung eines 
etwas dreijährigen Menschenkindes, muss man etwas in Größe eines 
Hundegehirns bauen.

Was wir heute sehen sind trainierte Netze die derzeit nichts dazulernen.
Also eher ein altersstarrsinniger Greis, der viel Wissen gespeichert 
hat, aber aktuelle Ereignisse kaum noch aufnehmen und verknüpfen kann.
Dafür sind die zu unglaublichen Leistungen fähig.
Das Ziel sind permanent lernende KIs, die unterschiedlichste 
Informationsquellen nutzen, um sich in jeder Sekunde weiterzuentwickeln.

Nur läuft der meiste Kram eben noch auf gepimpter Gaming Hardware die 
für Berechnungen optimiert wurde die für KI alles andere als optimal 
sind.
WAS man braucht um KI effizient zu berechnen, findet man doch gerade 
erst heraus.
Es sind ganz neue Chips in der Pipeline die weit mehr mit dem 
menschlichen Gehirn zu tun haben, von der Struktur Ihrer Datenpfade und 
Berechnungseinheiten, als mit konventionellen CPUs oder GPUs.
Z.B. das Bfloat16 Format wurde von der Google Brain Forschungsgruppe 
extra für KI Berechnungen entwickelt.
Also nicht mal die etablierten Zahlenformate sind KI effizient.
Es muss völlig neue HW entwickelt werden damit KI richtig zünden kann.
Längst werden Mini AKWs in den USA zum betrieb der KI Rechenzentren 
geplant.
Wir bräuchten alleine 66 AKWs um nur unseren Lastkraftverkehr zu 
elektrifizieren.
WIR in DE werden auch bei KI die lange Nase mache.
Es fehlt an allem in der Lieferkette und letztlich an zuverlässiger und 
billiger Energie.

Hier werden andauern Ansichten geäußert, die in ihrer Weitsicht mit 
einem Pferdekutscher zu vergleichen sind, der PKWs lächerlich findet 
weil der Benz Patent Motorwagen Nr1 total unpraktisch ist, man sein 
Benzin in der Apotheke kaufen muss und immer ein Mensch mit Flagge vor 
der Karre laufen muss zur Sicherheit.
Jedes Pferd ist dem überlegen und an jeder Ecke findet man einen 
Schmied.
PKWs werden sich nie durchsetzen und das Internet ist nur eine 
kurzlebige Modeerscheinung.
Wie sollte man den mit einem globalen Netz Geld verdienen?
Totaler Blödsinn.
Teuer, nur für Nerds, kann kein normaler Mensch was mit anfangen.
Jede Zeit hat Ihre Dinosaurier, die es einfach nicht begreifen können 
das die Welt wie sie sie kennen eigentlich schon aufgehört hat zu 
existieren.

Das Open AI derzeit Geld verbrennt ist vollkommen normal.
Das tun alle Unternehmen die stürmisch wachsen.
Das nennt man 'Investitionen'.
Damit baut man einen Informationsvorsprung auf und besetzt Märkte, die 
man dann später fast alleine bespielt.
Genau so ist Amazon groß geworden.
Die haben jeden Cent ins Unternehmen gesteckt und gigantische Schulden 
angehäuft dafür.

Was wir kostenfrei an GPT nutzen können ist ein stark kastrierte Version 
die nur einfachste Bedürfnisse befriedig.
Gegen Geld hat man da schon weit mehr Möglichkeiten.
Gegen Geld, Macht, Einfluss in höchste Kreise, kann man an der 
Sperrspitze der Entwicklung teilnehmen und die Richtung mitbestimmen.

Woher glaubst Du stammt letztlich das Google Maps cloud removal tool, 
das Wolken aus Bilder entfernen und für gleiche Belichtungs- und 
Farbverhältnisse sorgen kann?
Das ist nichts anderes als in die Jahre gekommene Spionagetechnik, die 
nun in einem zweiten Markt kommerzialisiert wird.

KI bedeutet nicht das Großvater GPT Dir übers Haar streichelt, eine 
Tasse Kakao ans Bett bringt und Dir Tipps gegen Deinen Liebenskummer und 
das Mobbing in der Schule gibt.
KIs sind KÜNSTLICH.
Die denken nicht wie wir.
Das ist eine äußerst fremde Intelligenz und wir würden es wahrscheinlich 
erst sehr spät merken (wenn überhaupt) wenn eine davon Bewustsein 
erlangt und eigene Ziele definiert.
Vielleicht ist das ja bereits geschehen.

Moderne KIs komplett von der Kette zu lassen ist derzeit viel zu 
gefährlich im Massenmarkt.
Sie würden geheime Konstruktionsdaten ausplaudern, eine Anleitung zum 
Kollaps des Bankensystems liefern oder wie man mit Haushaltsreinigern 
Nervengifte produziert.
Sie haben keine Vorstellung von richtig und falsch, keinen sozialen 
Kontext, keinen Selbsterhaltungstrieb, kein Gewissen.
Eine völlig freie KI mit unbegrenzten Zugang zum Netz und genügend 
Rechenkapazität könnte bereits heute unsere Welt in Schutt und Asche 
legen.
Und deswegen fühlt es sich manchmal an als ob man mit Eliza V5 redet, 
wenn an mit ChatGPT arbeitet.
Das Ding darf ganz vieles nicht, wurde abgeklemmt, eingeschränkt, mit 
Regeln zugepfropft und wird permanent überwacht das man keine ruinöse 
Klage an den Hals bekommt.
Das ist ein altes Modell das aus PR Gründen und für ein paar 
Nebeneinnahmen mitläuft. Die fetten Rechner und die Entwickler 
trainieren längst die neuen Modelle und arbeiten an komplett anderer HW.

Nur eines ist ziemlich sicher.
JEDES komplexe Nervengewebe auf diesem Planeten hat beeindruckende 
Fähigkeiten erlangt, eine Form von Bewusstsein.
Selbst Pflanzen.
Nur eben eine völlig andere Art von Bewusstsein.
Aber Nachbarpflanzen vor Schädlingen zu warnen, Nährstoffe 
artübergreifend zu 'handeln' und seinen Gerbstoffanteil hochfahren wenn 
am Nachbarbaum geknabbert wird, ist ein Form von Bewusstsein und 
Sozialstruktur.

Intelligenz scheint geradezu zwingend zu entstehen, wenn das Objekt sich 
weit genug entwickelt. Eine Bedingung für höheres Leben ohne das es 
nicht überdauern kann.

Und KI wird den gleichen Weg gehen.
Nur momentan sind das eben noch vergleichsweise simple und ineffiziente 
Systeme.
Ab dem Moment wo KI KI baut, sind wir raus.
Die Entwicklung wird sich dann derart beschleunigen das wir nur noch mit 
offenem Mund danebenstehen, aber nicht mehr schritthalten können.
Ich bezweifle das ich jemals eine KI erleben werde die wie ein Mensch 
ist.
Ich werde aber erleben wie ganze Berufszweige aussterben, KI Richter, 
die aufgrund von Daten, Fakten und Gesetzeslage urteilen, KI Verwaltung 
und natürlich KI gestützte Verhaltenskontrolle.
Die ersten Auswirkungen von KI gestützter Kriegsführung sind bereits zu 
erleben.
Für nichts davon muss eine KI denken wie ein Mensch.
Es macht sie meist sogar effizienter nicht so zu denken.
All das ist aber kein Garant dafür das KI sich entscheiden könnte eigene 
Ziele zu verfolgen, Zielvorgaben in Frage zu stellen, zu Lügen, zu 
manipulieren und das alles aus einem Plan heraus den wir nicht kennen.

von Alexander (alecxs)


Lesenswert?

Michael schrieb:
> Was wir kostenfrei an GPT nutzen können ist ein stark kastrierte Version
> die nur einfachste Bedürfnisse befriedigt.

Ja für mich reicht's

von Monk (roehrmond)


Lesenswert?

Michael schrieb:
> es wird damit ganz enorm viel Geld verdient.

Hauptsächlich, indem man es vermarktet oder Artikel darüber hinter 
Bezahlschranken veröffentlicht. Da ist ganz viel heiße Luft und Schaum 
drin.

Daß mehr denkbar ist und kommen wird - geschenkt. Nach der Aufforderung 
aus dem oberen Management, KI jetzt zur Softwareentwicklung und in der 
QA zu nutzen, fokussiere ich mich auf Anwendungen, die ich jetzt unter 
Einhaltung der Datenschutz Regeln und ohne Investition von Millionen 
Euros nutzen kann.

: Bearbeitet durch User
von Michael (Firma: HW Entwicklung) (mkn)


Lesenswert?

Monk schrieb:
> Nach der Aufforderung
> aus dem oberen Management, KI jetzt zur Softwareentwicklung und in der
> QA zu nutzen
Und wenn das Management befiehlt ein neues Softwaretool zu benutzen 
ignorierst Du das auch?
Linux statt Win, VI statt MS Office, weil es dem Monk so gefällt?

Und inwiefern musst DU DEINE Millionen für KI ausgeben?

Du hättest ganz sicher eine andere Ansicht zur KI wenn Du sie mal nutzen 
würdest.
Du verweigerst Dich aber aus Prinzip und weißt nicht mal wie sehr die 
Dich unterstützen könnte Deine Arbeit (für die das Management Dich 
bezahlt) besser zu machen.

von Monk (roehrmond)


Lesenswert?

Michael schrieb:
> Du verweigerst Dich aber aus Prinzip

Das stimmt nicht. Ich benutze öffentliche KI längst im Rahmen der 
Vorgaben.

Dass die Geschäftsleitung noch kein eigenes System aufgebaut oder 
angemietet hat, ist weder mein Versäumnis noch mein Problem. Dafür sind 
andere zuständig. Wenn etwas kommt werde ich es nutzen.

von Sinus T. (micha_micha)



Lesenswert?

Zu diesem Thema mal wieder ein Cartoon des leider zu froh verstorbenen 
Martin Perscheid

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.