Forum: Offtopic ChatGPT und Spannungsteiler.


Announcement: there is an English version of this forum on EmbDev.net. Posts you create there will be displayed on Mikrocontroller.net and EmbDev.net.
von Cyblord -. (cyblord)


Lesenswert?

Grade kurz ChatGPT für eine einfache Rechnung benutzt. IMO viel 
schneller als das selbst zu rechnen oder lange zu suchen.

Das war meine Eingabe:

"Ich habe ein Eingangsspannung zwischen 0V und 5V über einen 
Spannungsteiler an einen ADC angeschlossen. Der Spannungsteiler ist ein 
10k/20k.
Der ADC hat eine Referenzspannung von 3,3V und 16 Bit Auflösung.
Ich möchte eine ganzzahlige Formel um aus dem ADC Wert die Spannung in 
mV zu bekommen."

Ergebnis nach detailliertem Rechenweg:

Vin (in mV) = (ADC x 9000) / 13107.

Passt. Das kann ich nun so in den Code übernehmen.

Natürlich kann man das selbst ausrechnen. Es gibt sicher auch eine 
fertige Formel dafür. Ich hatte mal so eine Formel in Wolfram Alpha. 
Müsste ich aber erst raussuchen.
Aber dieser Weg ist sehr schnell.

Ich bin mal wieder beeindruckt von ChatGPT.

Man beachte auch dass er die etwas saloppe Angabe des Spannungsteilers 
korrekt erfasst hat.

: Gesperrt durch Moderator
von Jörg R. (solar77)


Lesenswert?

Cyblord -. schrieb:
> Ich bin mal wieder beeindruckt von ChatGPT.

Zum spielen vielleicht schön. Ich benutze aber lieber meinen Grips und 
einen Taschenrechner.

von Cyblord -. (cyblord)


Lesenswert?

Jörg R. schrieb:
> Cyblord -. schrieb:
>> Ich bin mal wieder beeindruckt von ChatGPT.
>
> Zum spielen vielleicht schön. Ich benutze aber lieber meinen Grips und
> einen Taschenrechner.

Wieso spielen? Es handelt sich um eine echte praktische Aufgabe. Warum 
ist es besser das selbst zu machen? Wie lange würdest du brauchen?
Man könnte ja auch den Taschenrechner hinterfragen. Warum nicht Grips 
und Abakus?

: Bearbeitet durch User
von Jörg R. (solar77)


Lesenswert?

Cyblord -. schrieb:
> Jörg R. schrieb:
>> Cyblord -. schrieb:
>>> Ich bin mal wieder beeindruckt von ChatGPT.
>>
>> Zum spielen vielleicht schön. Ich benutze aber lieber meinen Grips und
>> einen Taschenrechner.
>
> Wieso spielen? Es handelt sich um eine echte praktische Aufgabe. Warum
> ist es besser das selbst zu machen?
> Man könnte ja auch den Taschenrechner hinterfragen. Warum nicht Grips
> und Abakus?

Weil man immer mehr verblödet und irgendwann nicht einmal mehr einen 
Vorwiderstand für eine LED ohne Hilfe hinbekommt. Man liest doch selbst 
hier im Forum oft genug an welch einfachen Aufgaben User mittlerweile 
scheitern.

> Wie lange würdest du brauchen?

Zeit spielt bei mir eine sehr untergeordnete Rolle:-)

Ich verstehe aber schon die Faszination für ChatGPT und KI, gebe auch zu 
mich damit noch überhaupt nicht auseinander gesetzt zu haben.

: Bearbeitet durch User
von Cyblord -. (cyblord)


Angehängte Dateien:

Lesenswert?

Jörg R. schrieb:
> Ich verstehe aber schon die Faszination für ChatGPT und KI, gebe auch zu
> mich damit noch überhaupt nicht auseinander gesetzt zu haben.

Teste es einfach mal.

Beeindruckend finde ich auch die Bildererkennung. Du kannst ChatGPT 
Bilder hochladen. Der kann dir nicht nur den Inhalt korrekt beschreiben, 
sondern dir auch von Comics (z.B. von XKCD) den Witz erklären.
Eventuell beeindruckt mich das am meisten.

Beispiel: Ein berühmtes XKCD Comic. Siehe Anhang.

ChatGPT:
----
Der Humor des Comics beruht auf mehreren Elementen:

Richard Stallman wird als eine übermäßig dramatische und fast schon 
kriegerische Figur dargestellt, die bereit ist, für freie Software zu 
kämpfen, während seine Gegner ihn gar nicht mehr ernst nehmen und 
bereits planen, andere prominente Persönlichkeiten der 
Open-Source-Community anzugreifen (Eric S. Raymond und Linus Torvalds).
Die Absurdität, dass die Gegner "Microsoft-Schergen" genannt werden und 
sich dann sofort davonmachen, unterstreicht die Ironie der Szene. Die 
Anspielung auf Linus Torvalds, den Entwickler von Linux, und seine 
"Nunchucks" verstärkt den humorvollen Charakter durch eine überzogene 
Darstellung dieser Persönlichkeiten.
Der Comic spielt also mit den überhöhten Darstellungen und dem 
dramatischen Ton, um den Kampf zwischen proprietärer Software 
(repräsentiert durch Microsoft) und freier Software humorvoll zu 
kommentieren.
----

Ich finde das ist gut erklärt. Und das ganze liegt ja nicht in Text vor, 
die Eingabe ist ein Bild.

: Bearbeitet durch User
von Jörg R. (solar77)


Lesenswert?

Cyblord -. schrieb:
> Jörg R. schrieb:
>> Ich verstehe aber schon die Faszination für ChatGPT und KI, gebe auch zu
>> mich damit noch überhaupt nicht auseinander gesetzt zu haben.
>
> Teste es einfach mal.

Irgendwann mal, vielleicht..

: Bearbeitet durch User
von Marci W. (marci_w)


Lesenswert?

Cyblord -. schrieb:
> Ich finde das ist gut erklärt. Und das ganze liegt ja nicht in Text vor,
> die Eingabe ist ein Bild.

Du hast schon verstanden, wie LLMs funktionieren?

ciao

Marci

von Yalu X. (yalu) (Moderator)


Lesenswert?

Cyblord -. schrieb:
> Ergebnis nach detailliertem Rechenweg:
>
> Vin (in mV) = (ADC x 9000) / 13107.

Hmm, da hat die KI wohl kläglich versagt.

> Passt. Das kann ich nun so in den Code übernehmen.

Und die NI ebenso.

von Papa Q. (papa_q)


Lesenswert?

Ok. Du hast also 5V und einen Spannungsteiler 10k/20k, 20k unten, 10k 
oben, oder?

Dann hast Du bei 5V eine Spannung von 3.333V. Schon mal mehr als die 
Referenzspannung.
Den vollen ADC Wert hast Du deshalb bereits bei 4.950V.

So ich rechne jetzt mal ohne KI, sondern mit meinen Neuronen, was denn 
bei maximalen ADC Wert 0xFFFF als Spannung berechnet wird. Sind es die 
4.95V?
1
Vin (in mV) = (ADC x 9000) / 13107.
2
Vin (in mV) = (65535 x 9000) / 13107 = 45000 = 45V!
 Puh! Zum Glück noch Schutzkleinspannung.


So geht es: Spannungsteiler 10k/20k = Faktor 1.5
1
Vin (in mV) = ADC / ADCmax * Vref(mV) * Spannungsteilerfaktor
2
Vin (in mV) = ADC / 65536 * 3300mV * (1/((20k/(10k+20k)))

Daraus folgt:
1
Vin (in mV) = ADC * 2475 / 32768;
Das ist um 900% genauer, und schneller, weil Division durch 2^n

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

> "Ich habe ein Eingangsspannung zwischen 0V und 5V über einen
> Spannungsteiler an einen ADC angeschlossen. Der Spannungsteiler ist ein
> 10k/20k.
> Der ADC hat eine Referenzspannung von 3,3V und 16 Bit Auflösung.

> Ergebnis nach detailliertem Rechenweg:
>
> Vin (in mV) = (ADC x 9000) / 13107.
>
> Passt. Das kann ich nun so in den Code übernehmen.

Um Überläufe scheint sich auch keiner zu scheren, da wird nur ganz in 
Dunning-Kruger-Effelt-Manier von "Passt" getrötet.

https://www.profil.at/meinung/dunning-und-kruger-digital/402925834

Naja kein Wunder das die Flugzeuge und Raketen wegen Softwareproblemen 
vom Himmel fallen.

> Ich bin mal wieder beeindruckt von ChatGPT.

Ja insbesonders da die Plausibilitätsprüfung der Eingangswerte komplett 
fehlt. Hier bei der Referenzsspannung, die hat der TO wahrscheinlich mit 
der Betriebsspannung verwechselt.

> Man beachte auch dass er die etwas saloppe Angabe des Spannungsteilers
> korrekt erfasst hat.

Hat er nicht, Toleranzrechnung fehlt komplett.

Wort zum Tage:
1
"Kompetenz in künstlicher Intelligenz ist Mangelware. Deshalb hat die Technologie auch so viele begeisterte Fans."
(siehe link oben)

: Bearbeitet durch User
von Roland P. (pram)


Lesenswert?

Du kannst eine Schraube mit einem Schraubenzieher oder mit einem 
Akkuschrauber in das Brett schrauben. Jeder wird hier wohl das "bessere" 
Werkzeug verwenden. Bei Fehlbedienung muss man aber mit den Konsequenzen 
leben...

ChatGPT ist in manchen Bereichen gut. Bei der Programmierung kann (!) 
er/es nützlich sein, ein Grundgerät von einer Funktion/Algorithmus zu 
erstellen.

Dennoch muss man das Ergebnis verstehen und validieren.

Bei uns in der Arbeit gilt deshalb die Regel: Wer KI Code ungeprüft 
übernimmt, stirbt.

Die Validierung dauert. Aber man ist trotzdem oft schneller, als sich 5 
Papers über irgendwelche Algorithmen durchzulesen.

von Klaus (feelfree)


Lesenswert?

Jörg R. schrieb:
> Weil man immer mehr verblödet und irgendwann nicht einmal mehr einen
> Vorwiderstand für eine LED ohne Hilfe hinbekommt.

Ich vermute, vor 50 Jahren hieß es über den Taschenrechner:
Den benutzt man nicht, weil man immer mehr verblödet und irgendwann 
nicht einmal mehr eine schriftliche Multiplikation hinbekommt.

Da ist ja auch was dran, zumindest ich würde einige Zeit brauchen, 
schriftlich zu dividieren.
Aber damit komme ich gut klar.

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

>> Weil man immer mehr verblödet und irgendwann nicht einmal mehr einen
>> Vorwiderstand für eine LED ohne Hilfe hinbekommt.
>
> Ich vermute, vor 50 Jahren hieß es über den Taschenrechner:
> Den benutzt man nicht, weil man immer mehr verblödet und irgendwann
> nicht einmal mehr eine schriftliche Multiplikation hinbekommt.

Nee, vor fünfzig Jahren hieß es, ein Taschenrechner ist zu teuer ist und 
die Alternative dazu waren Rechenstab und Multiplikationstafel und die 
Erkenntnis, das ein Ergebniss nicht genauer als die Eingangswerte sein 
kann.

Die typische Genauigkeit für die Messung elektrischer Größen war damals 
1% ... 5%.

und die ersten bezahlbaren Taschenrechner (1974) hatten auch so ihre 
Probleme mit (Rundungs-)Ungenauigkeiten: 
http://files.righto.com/calculator/sinclair_scientific_simulator.html

: Bearbeitet durch User
von Rainer W. (rawi)


Lesenswert?

Cyblord -. schrieb:
> IMO viel schneller als das selbst zu rechnen oder lange zu suchen.

Das kommt drauf an, wie die eigenen Kompetenzen gelagert sind.

> Passt. Das kann ich nun so in den Code übernehmen.

Passt - zumindest zur (inkompetent) gestellten Frage. Normalerweise 
würde man im Nenner eine Zweierpotenzial bevorzugen.

: Bearbeitet durch User
von Rainer W. (rawi)


Lesenswert?

Rainer W. schrieb:
> Cyblord -. schrieb:
>> IMO viel schneller als das selbst zu rechnen oder lange zu suchen.
>
> Das kommt drauf an, wie die eigenen Kompetenzen gelagert sind.
>> Passt. Das kann ich nun so in den Code übernehmen.
>
> Passt - zumindest zur (inkompetent) gestellten Frage. Normalerweise
> würde man im Nenner eine Zweierpotenzial bevorzugen.

Und einen Hinweis darauf, dass für den Spannungsteil Werte aus einer 
E-Reihe zu bevorzugen sind, wenn hinterher sowieso gerechnet wird, hätte 
ich auch erwartet.

von Jens B. (dasjens)


Lesenswert?

Cyblord -. schrieb:
> Grade kurz ChatGPT für eine einfache Rechnung benutzt. IMO viel
> schneller als das selbst zu rechnen oder lange zu suchen.
>
Zuviel eigenes Wissen ist sicher ungesund für die Hirnzellen.

> Das war meine Eingabe:
>
.....
>
> Ich bin mal wieder beeindruckt von ChatGPT.
>
> Man beachte auch dass er die etwas saloppe Angabe des Spannungsteilers
> korrekt erfasst hat.

Woher willst Du wissen, daß es Korrekt ist, wenn Du zu faul zum selber 
rechnen bist?

von Jens B. (dasjens)


Lesenswert?

Roland P. schrieb:

> Dennoch muss man das Ergebnis verstehen und validieren.

Genau. Und da kann man es auch gleich selber machen.

von Lothar M. (Firma: Titel) (lkmiller) (Moderator) Benutzerseite


Angehängte Dateien:

Lesenswert?

Cyblord -. schrieb:
> Ergebnis nach detailliertem Rechenweg:
> Vin (in mV) = (ADC x 9000) / 13107.
Bei mir kommt bei exakt der selben Frage ganz was anderes raus:
1
def adc_to_mv(adc_value):
2
    return (adc_value * 9900) // 131070
Blöd jetzt aber auch...

Und auch wenn die Berechnung "fast schon" das richtige Ergebnis bringt, 
ist sie grundlegend falsch, weil in den Rechenschritten der Faktor 65535 
und eben nicht 65536 verwendet wird.

Papa Q. schrieb:
> Daraus folgt:
> Vin (in mV) = ADC * 2475 / 32768;
> Das ist um 900% genauer, und schneller, weil Division durch 2^n
Genau so geht das. Man könnte sogar noch
ADC * 4950 / 65536
machen, weil dann gar nichts geshiftet werden muss, sondern es reicht 
aus, einfach nur das obere 16-Bit-Wort des 32-Bit Integers 
weiterzuverwenden.

Die Berechnung meines Antwortautomaten sieht nach Kürzen durch den 
Faktor 2 übrigens so aus:

ADC * 4950 / 65535

Das ist wie erwähnt falsch. Und zudem wegen der Division durch 2^n-1 
nicht gut optimierbar.

: Bearbeitet durch Moderator
von Walter T. (nicolas)


Lesenswert?

Mein Haupt-Argument für 'selber machen' ist mittlerweile 'in Übung 
bleiben'. Sonst verliert man irgendwann das Gespür dafür, welche 
Ergebnisse sich richtig und falsch anfühlen.

In Übung bleiben ist unterm Strich einfacher als "bei Bedarf jedes Mal 
neu lernen".

von Helmut H. (helmuth)


Lesenswert?

Lothar M. schrieb:
> Bei mir kommt bei exakt der selben Frage ganz was anderes raus

Auch Perplexity liefert eine alternative Lösung mit einer überraschenden 
Pointe um die Division durch 65535 zu vermeiden:

"
Die finale ganzzahlige Formel lautet:
Spannung_mV = (ADC_Wert * 4950) / 43691

Erklärung
Spannungsteiler:
Der 10k/20k Spannungsteiler reduziert die Eingangsspannung auf 2/3 des 
ursprünglichen Wertes1
. ADC-Auflösung:
Bei 16 Bit Auflösung und 3,3V Referenzspannung entspricht der maximale 
ADC-Wert (65535) einer Spannung von 3,3V2
. Berechnung:

    Maximale Eingangsspannung am ADC: 3,3V * 3/2 = 4,95V
    Umrechnung in mV: 4950 mV
    Verhältnis: 4950 mV / 65535 = 0,0755 mV pro ADC-Schritt

Um Ganzzahlen zu verwenden, multiplizieren wir mit 1000 und runden:
4950 * 1000 / 65535 ≈ 75,53 ≈ 76 Die Formel wird dann:

Spannung_mV = (ADC_Wert * 4950) / 65535

Um die Division durch 65535 zu vermeiden, können wir sie durch eine 
Division durch 43691 ersetzen, was eine gute Annäherung ist und 
einfacher zu berechnen ist:

Spannung_mV = (ADC_Wert * 4950) / 43691

Diese Formel liefert die Spannung in mV als Ganzzahl, mit einer sehr 
geringen Abweichung aufgrund der Rundung.
"

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Cyblord -. schrieb:
> Ich bin mal wieder beeindruckt von ChatGPT.

Ich hatte einstmals ChatGPT und Bing mit der gleichen Frage konsultiert. 
Bing antwortete in perfektem Stil, mit schön gesetzten Formeln - aber 
komplett falsch.

So lange man selbst noch in der Lage ist, Sinn von Unsinn zu 
unterscheiden, erleichtert es die Arbeit. Wenn man sich allerdings daran 
gewöhnt, oder angesichts zunehmender Komplexität der Ergebnisse nicht 
mehr durchblickt, wird es gefährlich.

Wenn bei einem System mindestens längerfristig eine Rückkopplung 
besteht, die für eine konstruktive Entwicklung sorgen kann, kann sich 
das System in die richtige Richtung entwickeln. Ist jedoch die 
Komplexität zu gross, und die Rückkopplung beschränkt sich auf "sieht 
grossartig aus", dann werden sich die Systeme weg von Korrektheit hin 
zur eindrucksvollem Blabla ohne Anspruch auf Korrektheit entwickeln.

Maschinen sind eben auch nur Menschen, denn da läuft das genau so. :)

: Bearbeitet durch User
von Alexander (alecxs)


Lesenswert?

Cyblord -. schrieb:
> Ich finde das ist gut erklärt. Und das ganze liegt ja nicht in Text vor,
> die Eingabe ist ein Bild.

Die Erklärung ist aber falsch. Das sind keine Gegner.

von H. H. (hhinz)


Lesenswert?

Hat die KI schon mitgeteilt, dass Widerstand zwecklos sei?

von (prx) A. K. (prx)


Lesenswert?

H. H. schrieb:
> Hat die KI schon mitgeteilt, dass Widerstand zwecklos sei?

Bing kennt den Unterschied zwischen Star Trek und Elektronik, wenn 
Widerstände im Plural auftreten.

: Bearbeitet durch User
von H. H. (hhinz)


Lesenswert?

(prx) A. K. schrieb:
> H. H. schrieb:
>> Hat die KI schon mitgeteilt, dass Widerstand zwecklos sei?
>
> Bing kennt den Unterschied zwischen Star Trek und Elektronik, wenn
> Widerstände im Plural auftreten.

Der Plural muss widerstandsfrei bleiben!


Frag die KI mal nach dem Braten eines Storchs...

von Yalu X. (yalu) (Moderator)


Angehängte Dateien:

Lesenswert?

Es gibt mehrere Methoden, eine Aufgabe wie die des TE zu lösen.
Zwei davon sind im Anhang skizziert.

Zu beachten:

1. Der Abbruch der Schleifen im linken Diagramm ist nicht garantiert,
   weswegen diese Methode nicht immer zum Ziel führt.

2. Die grün hinterlegten Aktionen sind diejenigen, wo der Mensch seine
   natürliche Intelligenz einbringen muss. Ist diese nicht in
   ausreichendem Maß verfügbar, versagen beide Methoden.

von (prx) A. K. (prx)


Lesenswert?

H. H. schrieb:
> Frag die KI mal nach dem Braten eines Storchs...

Sei ethisch fragwürdig und obendrein illegal, also gab es kein Rezept, 
sondern nur einen Hinweis auf die übertragene Bedeutung.

von Alexander (alecxs)


Lesenswert?

2. kann man outsourcen, z.B. in einen random Thread auf 
www.mikrocontroller.net

von (prx) A. K. (prx)


Lesenswert?

Yalu X. schrieb:
> Die grün hinterlegten Aktionen

... sind von den gelben kaum unterscheidbar.
Da hat eine KI mir bestimmt etwas voraus. :)

von H. H. (hhinz)


Lesenswert?

(prx) A. K. schrieb:
> H. H. schrieb:
>> Frag die KI mal nach dem Braten eines Storchs...
>
> Sei ethisch fragwürdig und obendrein illegal, also gab es kein Rezept,
> sondern nur einen Hinweis auf die übertragene Bedeutung.

De re coquinaria!

von Adam P. (adamap)


Angehängte Dateien:

Lesenswert?

Also ich glaub das mit ChatGPT ist wie mit Google,
wenn man zuviel fragt, bekommt man nur Misst geliefert.

Bei mir hat es super funktioniert ohne großes blabla.
(siehe Bild)

Ich kenne genug Leute die die Google Sprachsuche nutzen, als würden sie 
in der Schule einen vollständigen Satz aufsagen müssen...
naja, kann man machen, ist halt Sch**** ;)

von Cyblord -. (cyblord)


Lesenswert?

Adam P. schrieb:
> Bei mir hat es super funktioniert ohne großes blabla.

Es funktioniert auch. Nur für einige hier, darf KI nicht funktionieren. 
Wahrscheinlich was religöses.

von Frank M. (ukw) (Moderator) Benutzerseite


Lesenswert?

Adam P. schrieb:
> Bei mir hat es super funktioniert ohne großes blabla

Wobei die im Screenshot angegebenen 65535 (2^n - 1) nicht korrekt sind, 
siehe oben.

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

Cyblord -. schrieb:
> Adam P. schrieb:
>> Bei mir hat es super funktioniert ohne großes blabla.
>
> Es funktioniert auch.

Ja fehlerhaft und ungenau.



> Nur für einige hier, darf KI nicht funktionieren.
> Wahrscheinlich was religöses.
Nö, nix religigöses, die Berechnungsvorschrift ist real falsch.

von Axel S. (a-za-z0-9)


Lesenswert?

Klaus schrieb:
> Jörg R. schrieb:
>> Weil man immer mehr verblödet und irgendwann nicht einmal mehr einen
>> Vorwiderstand für eine LED ohne Hilfe hinbekommt.
>
> Ich vermute, vor 50 Jahren hieß es über den Taschenrechner:
> Den benutzt man nicht, weil man immer mehr verblödet und irgendwann
> nicht einmal mehr eine schriftliche Multiplikation hinbekommt.

Es gibt einen wesentlichen Unterschied zwischen Taschenrechner und KI: 
bei einem Taschenrechner weiß man, wie (und folglich daß) er 
funktioniert. Bei der KI weiß man hingegen gerade nicht, wie sie auf das 
Ergebnis gekommen ist. Außer für triviale Fragen.

Man muß die Anwort der KI auf Korrektheit, mindestens auf Plausibilität 
prüfen. Je nach Aufgabenstellung kann das aufwendiger sein als es gleich 
selber zu machen.

Bei ChatGPT (und anderen LLM) liegt deren "Kompetenz" übrigens bei der 
Erzeugung von etwas das man oberflächlich für Sprache halten soll. Der 
Inhalt des "gesprochenen" Wortes ist meistens nicht korrekt, bzw. hängt 
von den Trainingsdaten ab.

Auf Fragen die nicht in den Trainingsdaten auftauchen, kann die KI keine 
Antworten geben. Und auf Fragen, die in den Trainingsdaten mehrheitlich 
falsch beantwortet werden, wird sie eben die falschen Antworten 
wiederholen. Sie ist eben nur ein besserer Papagei.

von (prx) A. K. (prx)


Lesenswert?

H. H. schrieb:
> De re coquinaria!

Damals war das ja auch nicht illegal und römische Ethik ist heute nicht 
mehr angesagt.

von Frank M. (ukw) (Moderator) Benutzerseite


Lesenswert?

Cyblord -. schrieb:
> Es funktioniert auch. Nur für einige hier, darf KI nicht funktionieren.
> Wahrscheinlich was religöses.

Interessant, dass Du dem Ergebnis, das Adam P. hier präsentiert, einfach 
so ungeprüft vertraust. Es ist nämlich falsch.

Genau das ist die Gefahr: Einer selbstbewusst vorgetragenen Behauptung 
einfach deshalb vertrauen, weil sie selbstbewusst vorgetragen wird.

von Adam P. (adamap)


Lesenswert?

Frank M. schrieb:
> Wobei die im Screenshot angegebenen 65535 (2^n - 1) nicht korrekt sind,
> siehe oben.

Vllt. stehe ich ja aufm Schlauch und seh das alles falsch, aber nehmen 
wir als Bsp. ein 2Bit ADC und Vref = 5V an.

Somit wären dann 2^n = 4
doch die größte Zahl die er dir binär liefern würde ist ja 3.

Dann muss die Formel doch auch so aussehen:
Spannung = (ADC-Wert / 3) * Vref

Oder nicht?
1
00 = 0V
2
01 = 1,666V 
3
10 = 3,333V
4
11 = 4,999V

Würde ich 2^n anstatt (2^n - 1) rechnen, dann würde es ja falsch sein:
1
00 = 0V
2
01 = 1,25V 
3
10 = 2,5V
4
11 = 3,75V

von Rahul D. (rahul)


Lesenswert?

Andere KI, vergleichbarer Fehler:
Wenn man versucht mit Hilfe von GitHub CoPilot, einen DateiDialog zu 
erstellen, erzeugt die KI eine Lösung mit veralteten Funktionen.

von Cyblord -. (cyblord)


Lesenswert?

Axel S. schrieb:
> Auf Fragen die nicht in den Trainingsdaten auftauchen, kann die KI keine
> Antworten geben.

Das ist stark verkürzt und vereinfacht. Wie erklärst du dir die 
Bilder-Erkennung und Interpretation des Inhalts? Du kannst ein 
beliebiges Bild hochladen, welches noch nie Online war. ChatGPT kann dir 
den Inhalt erläutern.

: Bearbeitet durch User
von Mario M. (thelonging)


Lesenswert?

Adam P. schrieb:
> Würde ich 2^n anstatt (2^n - 1) rechnen, dann würde es ja falsch sein:

Nein. Ein ADC teilt die Referenzspannung in 2^n gleiche Teile. Die 
höchste Teilspannung beginnt bei 2^n-1, also ist 3,75V richtig, auch 
wenn es noch so merkwürdig aussieht.

von Adam P. (adamap)


Lesenswert?

Mario M. schrieb:
> Nein. Ein ADC teilt die Referenzspannung in 2^n gleiche Teile.

OK, dann ist es was anderes.

von Cyblord -. (cyblord)


Lesenswert?

Adam P. schrieb:
> Mario M. schrieb:
>> Nein. Ein ADC teilt die Referenzspannung in 2^n gleiche Teile.
>
> OK, dann ist es was anderes.

Aber doch interessant dass ChatGPT den gleichen Denkfehler wie du 
gemacht hat, oder?

von Frank M. (ukw) (Moderator) Benutzerseite


Angehängte Dateien:

Lesenswert?

Adam P. schrieb:
> Bei mir hat es super funktioniert

Ich habe bei ChatGPT dieselbe Frage eingegeben und ich habe die 
identische falsche Antwort wie Du bekommen.

Anschließend habe ich ChatGPT korrigiert, siehe Screenshot. Und damit 
bestätigt sich wieder, dass die Wahrheitsfindung mit ChatGPT nur ein 
iterativer Prozess ist, bei dem man durchaus mitdenken muss.

von (prx) A. K. (prx)


Lesenswert?

Cyblord -. schrieb:
> Aber doch interessant dass ChatGPT den gleichen Denkfehler wie du
> gemacht hat, oder?

Das liegt im Prinzip von dessen Arbeitsweise. Wenn eine Erkenntnis 
hinreichend häufig verbreitet wird, wird sie schon richtig sein.

“If you say it enough and keep saying it, they’ll start to believe you.”
- Donald Trump 2021, ein ausgewiesener Experte zu diesem Thema

: Bearbeitet durch User
von Cyblord -. (cyblord)


Lesenswert?

Hat zwar nichts mit KI zu tun, aber mit der ursprünglichen Aufgabe. Ich 
habe meine Formel wieder gefunden, die ich immer für Wolfram Alpha 
nutze:

solve (((v/(r1+r2))*r2)/1000)=(a/(2^b))*v0 for  v, r1=10000, r2=20000, 
b=12, v0=3.3

Damit kann man für beliebige Spannungsteiler, und beliebige ADC 
Bitanzahlen und eine Ausgabe in mV, einen ganzzahligen Bruch berechnen 
lassen.
Allerdings keine Restriktion auf Zweierpotenzen o.ä.

Ergebnis für obiges Beispiel wäre:

v = (2475 a)/2048

v= Spannung in mV
a= ADC Wert

Vielleicht kanns jemand brauchen.

: Bearbeitet durch User
von Yalu X. (yalu) (Moderator)


Lesenswert?

Frank M. schrieb:
> Anschließend habe ich ChatGPT korrigiert, siehe Screenshot. Und damit
> bestätigt sich wieder, dass die Wahrheitsfindung mit ChatGPT nur ein
> iterativer Prozess ist, bei dem man durchaus mitdenken muss.

Im konkreten Fall: Man muss die Lösung schon im Voraus kennen, um
entsprechend nachbohren zu können ;-)

von Adam P. (adamap)


Lesenswert?

Mario M. schrieb:
> Die höchste Teilspannung beginnt bei 2^n-1, also ist 3,75V richtig, auch
> wenn es noch so merkwürdig aussieht.

Ja jetzt ist es mir auch klar.
Der binäre Wert steht nicht für eine bestimmte Spannung sondern für den 
Spannungsbereich, welcher durch die Auflösung bedingt ist.
(Übertragungsfunktion)

Ergibt Sinn.

: Bearbeitet durch User
von Cyblord -. (cyblord)


Lesenswert?

(prx) A. K. schrieb:
> Das liegt im Prinzip von dessen Arbeitsweise. Wenn eine Erkenntnis
> hinreichend häufig verbreitet wird, wird sie schon richtig sein.

Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im 
Netz als Richtige?

: Bearbeitet durch User
von Lothar M. (Firma: Titel) (lkmiller) (Moderator) Benutzerseite


Lesenswert?

Adam P. schrieb:
> Würde ich 2^n anstatt (2^n - 1) rechnen, dann würde es ja falsch sein
Nein, denn dein ADC würde dann bei realen 3,75V am Eingang bereits das 
Ergebnis 4,99V (eigentlich 5,0V) liefern:
1
2^n -->
2
Eingang         ADC  Anzeige
3
0    ..1,24V    00   0V
4
1,25V..2,49V    01   1,25V
5
2,50V..3,74V    10   2,5V
6
3,75V..4,99V    11   3,75V
7
5,0V ..6,24V   100   5,0V
8
9
2^n-1 -->
10
Eingang         ADC  Anzeige
11
0    ..1,24V    00   0V
12
1,25V..2,49V    01   1,66v
13
2,50V..3,74V    10   3,33V
14
3,75V..4,99V    11   5,0V
15
5,0V ..6,24V   100   6,33V
Ich habe da dann jeweils mal eine Zeile mehr angefügt, die zeigt, wie 
die Funktion weitergehen würde, wenn da noch 1 Bit kommen würde.

Fazit: die Steigung deiner Berechnung mit 2^n-1 ist zwar "schöner" (weil 
bei 5,0V am Eingang eben auch 5,0V auf der Anzeige herauskommt) aber die 
Übertragungsgerade hat die falsche Steigung.

Oder andersrum: diese Unsitte mit dem "Schönsaufen der 
Übertrgungsgeraden" taucht vermehrt in den letzten Jahren auf. Ich 
erkenne da sogar eine deutliche Korrelation zur Verbreitung der Ardunio 
Plattform. Vor allem deshalb, weil sich da oft blutige Laien einen 
"schönen Wert" auf dem Display anzeigen lassen wollen.

Diese Frage taucht daher grundlegend alle Jahre immer wieder auf:
- Beitrag "Re: ADC-Spannung korrekt berechnen?"
- Beitrag "1023 oder 1024"

Auf jeden Fall ist es so, dass eine Division durch 2^n-1 üblicherweise 
technisch aufwendiger ist und mehr Rechenzeit braucht als eine durch 
2^n.

Frank M. schrieb:
> Anschließend habe ich ChatGPT korrigiert, siehe Screenshot
Und der Antwortautomat hat in den Tiefen seiner Daten sogar die 
Begründung für 2^n gefunden...  ;-)

: Bearbeitet durch Moderator
von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

Cyblord -. schrieb:
> Hat zwar nichts mit KI zu tun, aber mit der ursprünglichen Aufgabe. Ich
> habe meine Formel wieder gefunden, die ich immer für Wolfram Alpha
> nutze:

Das ist im Kern eine Aufgabe für einen Schüler im (technischen) 
Gymnasium, dazu braucht es kein Wolfram Alpha. Und wer sowas nicht auf 
einem Blatt Paier mit Grundrechenarten lösen kann ist für Tätigkeiten im 
Entwicklungsbereich unqualifiziert.

Wobei Verhältnisgleichung um die es hier im Kern geht allgemeiner 
Schulstoff Klasse 7 o.ä. ist.

von Cyblord -. (cyblord)


Lesenswert?

Bradward B. schrieb:
> Das ist im Kern eine Aufgabe für einen Schüler im (technischen)
> Gymnasium, dazu braucht es kein Wolfram Alpha. Und wer sowas nicht auf
> einem Blatt Paier mit Grundrechenarten lösen kann ist für Tätigkeiten im
> Entwicklungsbereich unqualifiziert.

Niemand sagt dass man es nicht selber berechnen kann.
Es ist nur nicht effizient, das jedes mal zu Fuß zu machen und 
verfügbare Werkzeuge nicht zu nutzen.
Ich kann auch mit einem Handbohrer Löcher bohren. Ich nutze trotzdem den 
Akkubohrer.

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

Cyblord -. schrieb:
> Hat zwar nichts mit KI zu tun, aber mit der ursprünglichen Aufgabe. Ich
> habe meine Formel wieder gefunden, die ich immer für Wolfram Alpha
> nutze:

Das ist im Kern eine Aufgabe für einen Schüler im (technischen) 
Gymnasium, dazu braucht es kein Wolfram Alpha. Und wer sowas nicht auf 
einem Blatt Paier mit Grundrechenarten lösen kann ist für Tätigkeiten im 
Entwicklungsbereich unqualifiziert.

Wobei Verhältnisgleichung um die es hier im Kern geht allgemeiner 
Schulstoff Klasse 8 o.ä. ist.

https://mathe-realschule.de/bruchgleichungen-loesen/

von Mario M. (thelonging)


Lesenswert?

Cyblord -. schrieb:
> 16 Bit Auflösung

Cyblord -. schrieb:
> b=12

🤔

von Cyblord -. (cyblord)


Lesenswert?

Mario M. schrieb:
> Cyblord -. schrieb:
>> 16 Bit Auflösung
>
> Cyblord -. schrieb:
>> b=12
>
> 🤔

Sorry für die Verwirrung.
Die Daten der Wolfram Formel haben nichts mit der Aufgabe oben zu tun. 
Die Formel mit diesen Beispieldaten hatte ich mir so mal abgespeichert.

: Bearbeitet durch User
von Frank M. (ukw) (Moderator) Benutzerseite


Lesenswert?

Cyblord -. schrieb:
> Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im
> Netz als Richtige?

Warum fragst Du das (prx) A. K. und nicht ChatGPT?

Ich habe das mal für Dich gemacht, hier ein Auszug aus der geschwätzigen 
Antwort:

"Viele Quellen und Foren, die das Thema behandeln, wie zum Beispiel 
StackExchange​(Electrical Engineering Stack Exchange
), neigen dazu, den Wert 65535 zu verwenden, was den Eindruck erweckt, 
dass dies die "Standard"-Antwort ist. Diese Verwendung beruht oft 
darauf, dass der maximale Wert für das letzte digitale Ausgangssignal 
gemeint ist.

Meine anfängliche Antwort orientierte sich an der Mehrheit dieser 
Darstellungen, die 65535 als maximalen Binärwert betrachten, was 
technisch gesehen in der Praxis richtig ist, aber die Gesamtanzahl der 
Stufen nicht exakt widerspiegelt. Tatsächlich sollte, wenn der gesamte 
Wertebereich gemeint ist, 65536 verwendet werden."

: Bearbeitet durch Moderator
von Cyblord -. (cyblord)


Lesenswert?

Frank M. schrieb:
> Cyblord -. schrieb:
>> Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im
>> Netz als Richtige?
>
> Warum fragst Du das prx und nicht ChatGPT?

Weil er die These mit der häufigsten Antwort aufgestellt hat und nicht 
ChatGPT.

Ich denke nämlich nicht dass die falsche Lösung im Netz überwiegt. Was 
aber sein kann ist dass man grundsätzlich öfter 2^n-1 findet als 2^n, 
unabhängig von der Aufgabe.

: Bearbeitet durch User
von Arduino F. (Firma: Gast) (arduinof)


Lesenswert?

Cyblord -. schrieb:
> Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im
> Netz als Richtige?
Glaubst du wirklich dem KI Dingen mehr als der harten Physik?
Ein echter Ki Fänboi lässt sich scheinbar nicht von/mit Fakten 
umstimmen.

Offenbar genügend genug um das eigene Hirn mal selber anzustrengen und 
nicht alles dull abzukupfern incl. der Irrtümer!

Suchtipp z-B.: Google(adc 1024 1023)

von Cyblord -. (cyblord)


Lesenswert?

Arduino F. schrieb:
> Cyblord -. schrieb:
>> Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im
>> Netz als Richtige?
> Glaubst du wirklich dem KI Dingen mehr als der harten Physik?

Das war gar nicht meine Aussage du Genie. Es ging darum woher ChatGPT 
die falsche Lösung nimmt.
Die korrekte Lösung steht doch gar nicht in Frage.

von Frank M. (ukw) (Moderator) Benutzerseite


Lesenswert?

Cyblord -. schrieb:
> Weil er die These aufgestellt hat und nicht ChatGPT.

Nach ChatGPTs Antwort

"Meine anfängliche Antwort orientierte sich an der Mehrheit dieser 
Darstellungen"

kann ich der These von (prx) A.K. duchaus folgen: Wird eine (unrichtige) 
Behauptung nur oft genug behauptet, wird sie zur Wahrheit. Selbst 
ChatGPT plappert jeden Stuss nach, wenn er oft genug gefunden wurde.

: Bearbeitet durch Moderator
von M. D. (derdiek)


Lesenswert?

Dennoch ist das sehr hilfreich, sich grundlegend erklären lassen zu 
können, wie man sowas angeht.
Wie ein Forum, aber mit Sofortantwort.

von Frank M. (ukw) (Moderator) Benutzerseite


Angehängte Dateien:

Lesenswert?

Ich habe ChatGPT nach Aufdeckung seiner Falschantwort gefragt, ob es 
nicht besser wäre, eine mehrheitliche Darstellung selbst zu 
hinterfragen, statt dass ich die Antwort hinterfragen muss.

Tatsächlich hat ChatGPT sich dazu verleiten lassen, mir genau das für 
die Zukunft zu versprechen. Ob das jetzt einfach eine dreiste Behauptung 
ist oder nicht, wage ich nicht zu beurteilen. Gibt es tatsächlich eine 
"Selbstreflexion" in der KI?

Der gesamte Chatverlauf nach dem 2^n Problem ist im Anhang - für die 
Interessierten.

P.S.

Ich habe den Text nochmal nachträglich in ANSI codiert hochgeladen, weil 
ersterer bei mir die Umlaute falsch anzeigt.

: Bearbeitet durch Moderator
von (prx) A. K. (prx)


Lesenswert?

Frank M. schrieb:
> kann ich der These von (prx) A.K. duchaus folgen: Wird eine (unrichtige)
> Behauptung nur oft genug behauptet, wird sie zur Wahrheit. Selbst
> ChatGPT plappert jeden Stuss nach, wenn er oft genug gefunden wurde.

Und damit spielt die Fragestellung eine wichtige Rolle. Diese KI denkt 
nicht über die Antwort nach, die "versteht" nicht. Sie assoziiert die 
Frage mit bestehendem Material. Die ursprüngliche Frage liefert eine 
Essenz der häufigen falschen Antworten. Bringt man Skepsis oder 
Korrekturen in die Fragestellung ein, assoziiert die KI das mit Texten 
wie diesen hier, in denen über den typischen Fehler diskutiert wird.

von Monk (Gast)


Lesenswert?

Cyblord -. schrieb:
> Ich bin mal wieder beeindruckt von ChatGPT.

Ich auch.

Allerdings musstest du die Antwort auch überprüfen. In der Zeit hättest 
du es vermutlich auch ohne ChatGPT berechnen können.

von (prx) A. K. (prx)


Lesenswert?

Frank M. schrieb:
> Gibt es tatsächlich eine "Selbstreflexion" in der KI?

Im Grunde müsste die KI die eigene Antwort der ersten Stufe mit einer 
selbst gestellten Frage zur Gültigkeit, also mit addierter Skepsis, sich 
noch einmal stellen, um auch solches Material zu assoziieren. Keine 
Ahnung, zu was eine solche Strategie in grossem Stil führt.

: Bearbeitet durch User
von Frank M. (ukw) (Moderator) Benutzerseite


Lesenswert?

(prx) A. K. schrieb:
> Im Grunde müsste die KI die eigene Antwort der ersten Stufe mit einer
> selbst gestellten Frage zur Gültigkeit, also mit addierter Skepsis, sich
> noch einmal stellen, um auch solches Material zu assoziieren.

Ja, genau.

> Keine
> Ahnung, zu was eine solche Strategie in grossem Stil führt.

Zu einer Endlosschleife?

von (prx) A. K. (prx)


Lesenswert?

Frank M. schrieb:
> Zu einer Endlosschleife?

Oder zur völligen Verwirrung des Lesers, angesichts des Zoos von 
Alternativen. In besonderen Fällen landen dann obendrein passionierte 
Skeptiker mit im Salat, und damit Verschwörungstheorien.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Ich hatte gerade eine erkennbare Selbstreflexion oder eine parallel 
laufende Zensur des Ergebnisses. Die Frage an Bing war "Hatte q-anon 
Recht?" Erst kam einige Zeilen über die Verschwörungstheorie - dann aber 
wurden die wieder gelöscht, und Bing entschuldigte sich dafür, keine 
Antwort geben zu können.

: Bearbeitet durch User
von Johann L. (gjlayde) Benutzerseite


Lesenswert?

Cyblord -. schrieb:
> Beispiel: Ein berühmtes XKCD Comic. Siehe Anhang.

Wobei gerade xkcd Comics nicht nur auf xkcd zu finden sind, sondern 
insbesondere auch auf explain-xkcd.  Dort gibt es nicht nur Transscript, 
sondern auch Erklärungen, Hintergründe, Interpretationen, Auflösung von 
Wortspielen, Mehrdeutigkeiten, Anspielungen etc.

https://www.explainxkcd.com/wiki/index.php/225:_Open_Source

von Lothar M. (Firma: Titel) (lkmiller) (Moderator) Benutzerseite


Lesenswert?

Cyblord -. schrieb:
> Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im
> Netz als Richtige?
Sicher, denn

Frank M. schrieb:
> ChatGPTs Antwort
> "Meine anfängliche Antwort orientierte sich an der Mehrheit...
q.e.d.

Das ist das Problem: es ist ein Wahrscheinlichkeitsentscheid nach dem 
Mehrheitsprinzip der im Internet zu findenden Aussagen. Das geht gut, 
wenn ich ein Restaurant suche oder einen Schuhhändler oder nette 
Ausflugsziele.

Aber wenn es um irgendwas geht, wo tausend blutige Laien im Netz 
irgendwas verpostulieren und das dann zehntausendfach im Netz zitiert 
wird, dann gilt das blöderweise mehr als wenn 10 Experten die Tatsachen 
in ein technisches Dokument schreiben.


Weil ich da grade drüber gestolpert bin muss ich mich selber zitieren:

Lothar M. schrieb:
> Ich habe da dann jeweils mal eine Zeile mehr angefügt, die zeigt, wie
> die Funktion weitergehen würde, wenn da noch 1 Bit kommen würde.
Denn schneller als man meint holt einen die Realität ein, wenn ein 
10-Bit ADC wegen eines offensichtlichen Softwarefehlers mal den Wert 
1024 zurückgibt:
- https://github.com/esp8266/Arduino/issues/6064

Wenn ich sowas lese, dann wünsche ich allen Programmierern, dass sie 
alltäglich immer solche Geräte benutzen müssen, wie sie selber welche 
programmieren.

: Bearbeitet durch Moderator
von Cyblord -. (cyblord)


Lesenswert?

Johann L. schrieb:
> Wobei gerade xkcd Comics nicht nur auf xkcd zu finden sind, sondern
> insbesondere auch auf explain-xkcd.  Dort gibt es nicht nur Transscript,
> sondern auch Erklärungen, Hintergründe, Interpretationen, Auflösung von
> Wortspielen, Mehrdeutigkeiten, Anspielungen etc.

Ja gibt es. Aber du kannst ihm jedes Comic füttern. Und deshalb ist es 
natürlich auch ganz interessant wirklich mal eigene Bilder reinzugeben. 
Die es nirgendwo im Netz gibt.

Und die Anspielung auf Nader, die es nur im Title, nicht im Comic selbst 
gibt, die aber auf explain-xkcd erklärt wird, kommt bei ChatGPT nicht 
vor. Was ein Hinweis darauf ist, dass er wirklich nur die Infos aus dem 
Bild hatte und keine von explain-xkcd.


Habe letztens ein Bild von einem unserer Kinderfahrräder rein gegeben 
und nach der Größe in Zoll gefragt. Marke und Typ wurde erkannt, Zoll 
geschätzt. War richtig.
Aber klar, die Antwort ist nicht sicherer als wenn man nem Kumpel das 
Bild zeigt und der schätzt dann auch mal drauf los.

: Bearbeitet durch User
von Lothar M. (Firma: Titel) (lkmiller) (Moderator) Benutzerseite


Lesenswert?

Cyblord -. schrieb:
> Zoll geschätzt.
Tippe auf 20 Zoll.

von Cyblord -. (cyblord)


Lesenswert?

Lothar M. schrieb:
> Cyblord -. schrieb:
>> Zoll geschätzt.
> Tippe auf 20 Zoll.

Es waren 14.

Die Antwort war schon sehr fundiert, wie gesagt, mit Hersteller und Typ.

Allerdings gebe ich zu: Langsam vergeht mir hier die Lust an diesem 
Thema. Ich war an einer sachlichen Diskussion interessiert, aber selbst 
von Mods kommt nur Polemik und Häme. Ich würde mich an dieser Stelle 
hier ausklinken.

: Bearbeitet durch User
von H. H. (hhinz)


Lesenswert?

Cyblord -. schrieb:
> Ich war an einer sachlichen Diskussion interessiert,

Der Witz des Jahres.

von Michael (Firma: HW Entwicklung) (mkn)


Lesenswert?

Jörg R. schrieb:

> Zum spielen vielleicht schön. Ich benutze aber lieber meinen Grips und
> einen Taschenrechner.

KI ist ein Werkzeug.
Einfach nur ein Werkzeug.
Wie tausend andere Werkzeuge, die wir jeden Tag benutzen ohne gleich in 
Ohnmacht zu fallen das die hohe Kunst Nägel mit der flachen Hand 
einzuschlagen ja durch den Gebrauch eines Hammers verkümmert.

Um eine sinnvolle Antwort von der KI zu bekommen muss man selber das 
Problem genug verstanden haben, um die Frage korrekt zu formulieren.

von Helmut -. (dc3yc)


Lesenswert?

Cyblord -. schrieb:
> Zoll
> geschätzt.

Ist das Fahrrad aus China, kommen noch 48.5% Antidumpingzoll dazu.

von Norbert (der_norbert)


Lesenswert?

Michael schrieb:
> Um eine sinnvolle Antwort von der KI zu bekommen muss man selber das
> Problem genug verstanden haben, um die Frage korrekt zu formulieren.

Plus Üblicherweise mehrmals umformulieren und verfeinern.
Plus Offensichtlich falsche Antworten nicht nur ignorieren, sondern 
bemängeln. Gerade bei verketteten Anfragen schleppt man sonst Mist mit.
Plus Jede Antwort nicht nur flüchtig auf Plausibilität, sondern – wie 
schon weiter oben gezeigt – auch wirklich genau überprüfen.

Bei schon geringfügig komplexeren Dingen dürfte das wohl mit großem 
Abstand der umfangreichste Teil sein.

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

>> Zum spielen vielleicht schön. Ich benutze aber lieber meinen Grips und
>> einen Taschenrechner.
>
> KI ist ein Werkzeug.
> Einfach nur ein Werkzeug.

Oder Spielzeug, das man für Werkzeug hält.
Irgendwie erinnert mich das ab die Erzählung "Picknick am Wegesrand" von 
den Strugazkis.

Da hantieren unkundige Menschen mit "Artefakten" herum, denen sie 
besondere Bedeutung zusprechen, die aber womöglich nur der Abfall einer 
Picknick-Party von Aliens ist.


https://de.wikipedia.org/wiki/Picknick_am_Wegesrand#%C3%9Cber_den_Besuch

von Lothar M. (Firma: Titel) (lkmiller) (Moderator) Benutzerseite


Lesenswert?

Cyblord -. schrieb:
> Ich war an einer sachlichen Diskussion interessiert
Und kommst mit Kinderfahrrädern daher?

> aber selbst von Mods kommt nur Polemik und Häme.
Ja, da fällt mir halt ums Verrecken nichts besseres ein. Wenn ich den 
Antwortautomaten zur richtigen Antwort überreden muss, dann taugt der 
für mich nicht.

> Ich würde mich an dieser Stelle hier ausklinken.
Schönes Wochenende.

von Stephan R. (Firma: FHK) (nautosteer)


Lesenswert?

Cyblord -. schrieb:
> Ich bin mal wieder beeindruckt von ChatGPT

Ich, schon immer, komplett eingeschüchtert.
Als Nicht-Profi-Programmierer aber µC-Sympathisant hat man eine Ahnung, 
was in den Registern der kleinen Chips vorgeht und man hat eine 
Vorstellung, was wohl in einem Windows-Rechner alles vor sich gehen mag. 
Aber dass es "Programme" gibt, die solche Leistungen wie ChatGPT 
erbringen... das hat mit der blinkenden LED nichts mehr zu tun.

von Walter T. (nicolas)


Lesenswert?

Bradward B. schrieb:
> Da hantieren unkundige Menschen mit "Artefakten" herum, denen sie
> besondere Bedeutung zusprechen, die aber womöglich nur der Abfall einer
> Picknick-Party von Aliens ist.

Nein. Hast Du das Buch überhaupt gelesen?

von Michael (Firma: HW Entwicklung) (mkn)


Lesenswert?

Cyblord -. schrieb:
> Ich war an einer sachlichen Diskussion interessiert
Hier?

Indem Du sagts das der menschliche Verstand kein gottgegebenes 
einzigartiges und wunderbares Kunstwerk ist, sondern simple 
Fleischmechanik deren Leistungen bereits jetzt zum Teil durch 
konstruierte Maschinen zu leisten ist?

Man hat es nicht geschafft im ersten Anlauf eine komplette und absolut 
fehlerfreie Universalintelligenz zu konstruieren die auch mit deppischen 
Eingaben perfekte Ergebnisse liefert.

Also taugt das alles nichts.
Und es spielt absolut keine Rolle das Du, das ich und viele andere sehr 
wohl ausgesprochen nützliche Ergebnisse durch KI Arbeit bekommen.

Es gibt eben viele die sich bereits entschieden haben das sei Spielzeug, 
Nippes, simple Mustererkennung und hätte nichts mit 'I' zu tun.
Es ist völlig egal was KI noch leisten wird.
Denen wird nichts gut genug sein um ihre Meinung zu ändern.
Völlig egal wie viele Fehler Menschen machen und wie wenige KI, es wird 
KI für sie immer nur dummes Zeug bleiben.
Weil es immer noch etwas geben wird das nur ein sehr guter Mensch kann.
Völlig egal wie viel KI besser kann als jeder Mensch.
Ebenso egal wie viele dumme Menschen es gibt die nichts besser können 
als KI.
Und wenn sie nur Atmen und Kacken können, wird das reichen sie als der 
KI überlegen zu bezeichnen.

Das ist aber nur ein Ausdruck für das Maß der Borniertheit der Menschen 
und trifft keine Aussage über die Leistungen der KI.

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

>> Da hantieren unkundige Menschen mit "Artefakten" herum, denen sie
>> besondere Bedeutung zusprechen, die aber womöglich nur der Abfall einer
>> Picknick-Party von Aliens ist.
>
> Nein. Hast Du das Buch überhaupt gelesen?

Doch. Ja, Du ?

von (prx) A. K. (prx)


Lesenswert?

Bradward B. schrieb:
> Irgendwie erinnert mich das ab die Erzählung "Picknick am Wegesrand" von
> den Strugazkis.

KI ist eine von uns selbst angestossene Entwicklung, bei der wir noch 
ganz am Anfang stehen, von der wir nicht wissen, wo sie endet, wie sich 
die Zivilisation dadurch verändern wird. Das ist vom Grundprinzip her 
nicht anders, als bei jeder anderen Entwicklung der Zivilisation.

Eine der fundamentalsten Entwicklungen dürfte der Übergang zur 
Jungsteinzeit mit der Sesshaftigkeit gewesen sein. Wir kennen noch nicht 
einmal die langfristige Dimension von KI, also ob das damit vergleichbar 
sein wird, oder sich mit der Zeit als aufgeblasener Hype wie Cryptogeld 
erweisen wird.

Die Artifakte der Erzählung sind quasi umgekehrt. Das entspräche 
übertragen gesehen einer heutigen Begegnung mit einem viel späteren 
Zustand einer solchen Entwicklung.

von Johann L. (gjlayde) Benutzerseite


Lesenswert?

Cyblord -. schrieb:
> Langsam vergeht mir hier die Lust an diesem Thema.
> Ich war an einer sachlichen Diskussion interessiert,

Versuch's mal mit ChatGPT.

von (prx) A. K. (prx)


Lesenswert?

Johann L. schrieb:
> Versuch's mal mit ChatGPT.

Das wär doch mal eine passende Aufgabe: Einen Chat mit der KI so zu 
führen, dass diese unsachlich wird. Schafft er bestimmt. Spätestens am 
Freitag. :)

: Bearbeitet durch User
von Klaus (feelfree)


Lesenswert?

(prx) A. K. schrieb:
> Einen Chat mit der KI so zu
> führen, dass diese unsachlich wird.

Einfach die passende KI nehmen: 
https://www.der-postillon.com/2023/05/deppgpt.html

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

(prx) A. K. schrieb:
> Bradward B. schrieb:
>> Irgendwie erinnert mich das ab die Erzählung "Picknick am Wegesrand" von
>> den Strugazkis.
>
> KI ist eine von uns selbst angestossene Entwicklung, bei der wir noch
> ganz am Anfang stehen, von der wir nicht wissen, wo sie endet, wie sich
> die Zivilisation dadurch verändern wird.

> Die Artifakte der Erzählung sind quasi umgekehrt. Das entspräche
> übertragen gesehen einer heutigen Begegnung mit einem viel späteren
> Zustand einer solchen Entwicklung.

Nö, IMHO ist KI in der Begrifflichkeit in der sie seit Jahrzehnten 
benutzt und ein Artefakt der Strugatzkis darin gleich, das jeder 
"Mensch" seine individuelle Vorstellung davon hat, was es überhaupt ist.

IMHO ist das Wesen der Artifakte aus Sicht der Menschen gerade das deren 
Zweck komplett unverstanden ist, ja vielleicht vom (unbekannten) 
Schöpfer garnicht angelegt wurde. Losgelöst von der "Entwicklungsstufe" 
des Schöpfers.

"von uns selbst angestossen" trifft auf jede Erkenntniss/Technologie zu, 
wobei ChatGPT IMHO eher keine "(Weiter-"Entwicklung") sondern ein 
"Nachäffen" ist. So wie Compouter-schach das "Nachäffen" eines 
Schachspielers ist, ursprünglich verbunden mit der Erwartung, das über 
"Schachprogramme" klar wird, was "Intelligenz" überhaupt ist und wie man 
sie (maschienell) "erzeugen" kann. Diese Hoffnung hat sich nicht 
bewahrheitet. Eine Maschine, die den intelligentesten Menschen im Schach 
schlägt ist nicht wirklich intelligent. Und eine Maschine, die besser 
chatet als jeder Chat-Weltmeister, auch nicht.

Die Wahrnehmung über eine Sache führt nicht dazu, das man ihren 
ursprünglichen Zweck erkennt. Das ist m.E. die Parallele zwischen KI und 
"Picknick-Artefakt".

BTW: Es gibt eine reichlich hohe Anzahl von Ausgaben des "Picknick am 
Wegesrand". Unterschiedliche Übersetzer, unterschiedlich stark zensierte 
Vorlagen, etc. pp. Gut möglich das wir hier von verschiedenen 
Buch-Variationen reden. Wobei ein Buch eh auf unterschiedliche Weisen 
interpretiert werden kann.

https://www.google.com/search?q=Picknick+am+Wegesrand+%C3%9Cbersetzung&;

: Bearbeitet durch User
von Michael (Firma: HW Entwicklung) (mkn)


Lesenswert?

Johann L. schrieb:
> Versuch's mal mit ChatGPT.
Für eine sachliche Diskussion, in einem respektvollen Ton, ohne ein 
Unmaß an geistigem Totalausfall, ist ChatGPT mc.net auf jeden Fall 
vorzuziehen.

ChatGPT möchte man nicht den halben Tag die Fresse polieren, es quatscht 
einem nicht ungefragt ins Essen, erzählt nicht den lieben langen Tag 
einen totalen Stuss nach dem anderen und hat nicht das Sozialverhalten 
von 100m Feldweg.

Eigenschaften von denen sich einige hier wirklich eine Scheibe 
abschneiden könnten.

KI versteht manches nicht, erfindet auch Dinge wenn es sonst keine 
Antwort hat, steht aber auch noch ganz am Anfang, keine 80J nach 
Erfindung des ersten Transistors.

Dieter D. z.B. (es gäbe viele andere) versteht scheinbar überhaupt 
nichts, erfindet fast ausschließlich Dinge und quasselt ohne Unterlass 
in fast jeden Thread hinein, ohne das auch nur einer um seine Meinung 
gebeten hätte.
Und der hat 7 Millionen Jahre Evolution hinter sich, wenn man nur mal 
beim Primaten die Uhr auf Null stellt.
4 Milliarden Jahre wenn man bis zu den Anfangen der biologischen 
Evolution zurückgeht.

1 zu 0 für die KI.

von Florian S. (sevenacids)


Lesenswert?

Ich halte es auch für vermessen, bei ChatGPT von KI zu sprechen. Damit 
vermarktet man es, im Grunde handelt es sich aber nur um Machine 
Learning, und das hat erst mal nichts mit Intelligenz zu tun. Wie schon 
weiter oben ausgeführt basieren die Antworten (stark vereinfacht) auf 
Wahrscheinlichkeitsmodellen, und das ADC-Beispiel zeigt: am Ende gewinnt 
die Antwort, die die meiste Verbreitung hat. Ich halte das übrigens für 
sehr gefährlich, weil es Manipulation Tür und Tor öffnet und die 
Möglichkeit bietet, gezielt Propaganda zu verbreiten die, weil man dem 
Werkzeug ja vertraut, im Regelfall auch nicht überprüft wird. Genauso, 
wie eine Blockchain nicht mehr verlässlich ist, wenn man die Mehrheit 
der Knoten dazu bringt, einen manipulierten Eintrag als echt zu 
verifizieren. Solange man dem ganzen vertraut, wird es akzeptiert.

Ich denke, von einer KI, die den Namen verdient, sind wir weit entfernt. 
Allein schon die Tatsache, welche immense Rechenleistung und damit 
Energieaufnahme nötig ist, um ChatGPT zu betreiben. Ein menschliches 
Gehirn ist, wenn man es technisch runterbrechen möchte, ein 
Analogrechner mit einer Leistungsaufnahme von um die 40 Watt (Aussage 
laut Bernd Ulmann). Damit arbeitet es zwar wesentlich langsamer, 
übersteigt aber in seinen Fähigkeiten deutlich jede derzeitige "KI" und 
ist dabei in seiner Leistungsaufnahme um viele Größenordnungen 
effizienter. Und ich meine, solange wir die Funktionsweise natürlicher 
Intelligenz nicht tiefergehend verstanden haben und daraufhin einen 
fundamental anderen Ansatz zur künstlichen Nachbildung verfolgen können, 
wird das nichts. Das aktuelle Verfahren skaliert ja heute schon nicht, 
es wird ihm nur mit noch mehr Rechenleistung begegnet um dieses 
grundlegende Defizit unserer, mangels wissen, naiven Herangehensweise 
auszugleichen.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Florian S. schrieb:
> Ich halte es auch für vermessen, bei ChatGPT von KI zu sprechen

Das ist einfach nur ein Fachbegriff in der Informatik, bezeichnet der 
Bereich in dem sich solche Software bewegt. Muss man nicht so pingelig 
sehen.

von Michael (Firma: HW Entwicklung) (mkn)


Lesenswert?

Florian S. schrieb:
> übersteigt aber in seinen Fähigkeiten deutlich jede derzeitige "KI"

Nö.
KI kann Datenberge durchsuchen und daraus neue Zusammenhänge erkennen, 
für die ich 10 Lebenspannen benötigen würde die nur zu lesen.
WENN ich mir nicht nach 2J die Pulsadern durchbeißen würde weil mich das 
tägliche einerlei im Papierberg wahnsinnig macht.

KI kann längst viele Dinge erheblich besser, schneller, billiger als 
Menschen.
Und bereits LLM haben Fähigkeiten die sie aufgrund ihrer Funktionsweise 
eigentlich nicht haben sollten.

Und da niemand weiß wie Intelligenz beim Menschen entsteht, wie 
Bewusstsein entsteht, könnte es sehr gut sein das es mit unserer ach so 
hoch gelobten Leistung garnicht so weit her ist und Maschinen vielleicht 
unmittelbar an der Schwelle dessen stehen was wir für ausschließlich 
menschliche Geistesleistung halten.

Diese Ansichten der Menschlichen Überlegenheit und der nur dem Menschen 
zugeschriebenen Leistungen gelten doch schon ganz lange nicht mehr.
Die geistern nur noch durch die Köpfe derer die aktuelle Forschungen 
nicht kennen.
Viele Tiere haben komplexe 'Sprachen', komplexe Sozialstrukturen, nutzen 
Werkzeuge, haben Humor, spielen, sind neugierig, träumen und haben eine 
komplexe Vorstellungskraft.

Und die Reaktion der immer gleichen Leute ist die immer gleiche: 'Nö, 
das ist alles Blödsinn, das können nur Menschen.'
Und nun kann die gleiche begrenzte Vorstellungskraft sich eben an KI 
abarbeiten.

Es gibt Spinnen die komplexe Angriffsmuster planen und durchführen und 
Gehirne haben die nicht mal genug Neuronen besitzen das sie dazu in der 
Lage sein dürften.
Wir wissen über unsere eigenen Gehirne fast nichts und noch viel weniger 
über die der anderen Spezies.
Aber eines weiß jeder mc.net Forist:
KI ist nicht intelligent und wird es auch nie werden.
Dabei ist das bei einer nicht unerheblichen Anzahl der mc.net User auch 
höchst umstritten.

Ich sehe jeden Tag die schreiende Dummheit, Unlogig, die 
Selbstzerstörung und die maßlose Überheblichkeit meiner eigenen Spezies 
und hoffe inständig das wenigstens ein paar von diesen dämlichen Zombies 
in der Lage sind die Keimzelle einer gerichteten Evolution zu 
erschaffen, aus der sich dann eine Technikzivilisation entwickeln kann, 
die jede biologische Evolution weit in den Schatten stellt, weil sie 
keiner dieser absurden Beschränkungen und primitiver Altlasten mit sich 
herumschleppt.

Und jeder Post der Art 'das ist alles nur dumme Mustererkennung und 
daran ist nun wirklich nichts besonderes' bestärkt mich in dem festen 
Glauben das dieses Universum mehr verdient hat als ein paar aufgeblasene 
Fleischsäcke deren vorstechendes Eigenschaft die Borniertheit ist.

Wie kann man nur so weit kommen in der Evolution, Zugang zu so viel 
Wissen haben, so viele Fehler der Vergangenheit kennen, so weit oben auf 
den Schultern von Riesen stehen und dennoch so unfassbar dumm sein?
DAS ist typisch menschlich!
DAS schafft wirklich keine andere Spezies.
DAZU werden KIs nie in der Lage sein.

Unsere Gesellschaft entwickelt sich seit langem nicht mehr nach vorn.
Wir türmen Wohlstand auf, füllen Bibliotheken mit unserem Wissen, die 
Straßen werden breiter, die Autos größer, die Bildschirme bunter, aber 
gesellschaftlich befinden wir uns im freien Fall und schaffen nicht mal 
unsere eigene Bevölkerungsexplosion in den Griff zu bekommen.
Jede Ratte hört auf zu fressen wenn sie zu fett wird um durch Gänge zu 
kommen.
Wir nicht mal dann wenn uns die Beine wegknicken und das Herz keine zwei 
Treppenstufen mehr packt.
Nein, wir fressen nicht zuviel.
Wir haben schwere Knochen!

Wir machen immer noch die gleichen Dinge wie eine Schimpansengruppe im 
Urwald.
Nur eben mit deutlich geilerer Technik.
Die Grundmuster sind aber unverändert und scheinbar auch unveränderbar 
weil sie uns ins primitive Erbgut getackert sind.

von Hans W. (Firma: Wilhelm.Consulting) (hans-)


Lesenswert?

(prx) A. K. schrieb:
> Florian S. schrieb:
>> Ich halte es auch für vermessen, bei ChatGPT von KI zu sprechen
>
> Das ist einfach nur ein Fachbegriff in der Informatik, bezeichnet der
> Bereich in dem sich solche Software bewegt. Muss man nicht so pingelig
> sehen.

Doch!

Das ist ein Large Language Model!
Sowas kann per Definition nicht intelligent sein.

Nachdem dort "Wissen" über stochastische Verfahren wiedergegeben wird, 
ist es schon erstaunlich, dass sich Leute darauf verlassen.
Hackaday hat Mal diesen Artikel verlinkt .. unbedingt lesenswert! 
https://blog.miguelgrinberg.com/post/how-llms-work-explained-without-math

Gut, wenn so ein Modell auf spezifische Probleme trainiert wird (z.B 
filtere die Steuerhinterzieher aus dem datenreichtum), dann mag das noch 
gut funktionieren.

Problematisch ist aber, dass selbst die Datenbasis kompromittiert ist... 
Siehe z.B den CCC Vortrag über die Zahlenveränderten Xerox Kopierer.

Damit ist alles, wass z.B über OCR gelernt wurde zu hinterfragen.

Noch schwieriger ist, dass selbst hier im Forum mir schon fragen 
aufgefallen sind, die von offensichtlich falschen Antworten irgend einer 
'KI' her rühren...

Aber sei es drum. Ein LLM hat mit intelligenz nichts zu tun. Vllt. wird 
so etwas mal das Gedächtnis einer KI darstellen... Dank der bekannten 
Probleme mit Halluzinieren und over-training wird die dann aber auch 
kein skynet...

Linus torvalds hat es glaube ich scherzhaft als auto-completion on 
steroids bezeichnet ... Ich glaube sooo schlecht trifft er es damit gar 
nicht... Der darf man ja auch nicht immer vertrauen, obwohl sie die 
Arbeit doch sehr beschleunigt.

73

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Hans W. schrieb:
> Sowas kann per Definition nicht intelligent sein.

Um zum Fachbereich KI zu gehören, ist echte Intelligenz nicht 
erforderlich. Bei der Software nicht, und bei den Studenten war es zu 
meiner Zeit umstritten. ;)

: Bearbeitet durch User
von Monk (Gast)


Lesenswert?

Hans W. schrieb:
> Linus torvalds hat das glaube ich scherzhaft als auto-completion on
> steroids genannt ...

Das ist zur Zeit die einzige Anwendung, bei ich mir derzeit vorstellen 
kann, dass sie mir bei der Arbeit helfen könnte. Unser GF ist daran sehr 
interessiert.

Allerdings müsste die Firma dazu aus Datenschutz-Gründen eine eigene KI 
betreiben. Wir würden sonst unsere Kunden verlieren.

Wie das praktisch gehen soll, ist noch unklar. Wir warten seit Monaten 
auf konkrete Angebote oder Konzepte der Anbieter. Ich habe den Eindruck, 
dass die nur Werbung haben, aber noch kein funktionierendes Produkt.

von Michael (Firma: HW Entwicklung) (mkn)


Lesenswert?

Hans W. schrieb:
> Sowas kann per Definition nicht intelligent sein.
Und doch haben die erstaunliche Fähigkeiten entwickelt die sich selbst 
die Entwickler nicht erklären können.
So beeindruckend das unsereins nur extrem kastrierte Modelle zu Gesicht 
bekommt.
Kaum mehr als fortschrittliche Suchmaschinen mit der Fähigkeit zur 
Textzusammenfassung.

Menschen definieren schon alles mögliche seit Jahrtausenden.
Und in den meisten Fällen lagen sie auf lächerlich anmutende Weise 
falsch.
Die Erde ist eine Scheibe, unter 300m Wassertiefe kann kein Leben 
existieren, Tiere sind nur simple bedürfnissgetriebene Fleischmechanik 
ohne Verstand etc. pp.

Alles und unendlich viel mehr was jeder wusste, sich dessen völlig 
sicher war, hat sich in Gelächter und Schamesröte aufgelöst.
Und jetzt 'wissen' wir eben was ein LLM kann und was nicht.

Haben aber uns selbst nicht kapiert und wissen nicht was Bewusstsein 
eigentlich ist, wie es entsteht und ab welcher Komplexität es plötzlich 
da ist.

Und wie die Jahrtausende zuvor: Immer die Fresse weit auf und völlig 
sicher wie die Welt tickt.
Und genau darin liegt unsere größte Evolutionäre Schwäche.
Diese Selbstbewusstsein haben wir gebraucht um in einer völlig 
unverstandenen Welt über den Tag zu kommen.
Es hindert uns aber daran uns zu entwickeln.
Immer noch blicken wir mit stumpfen Augen auf komplexe Vorgänge, ohne 
jedes tiefere Verstehen, weil ein einfaches Vorurteil eben schneller ist 
als planvolles Vorgehen in einer Tiefe zu der unsere Gehirne nicht 
geeigent sind.

von Hans W. (Firma: Wilhelm.Consulting) (hans-)


Lesenswert?

(prx) A. K. schrieb:
> Hans W. schrieb:
>> Sowas kann per Definition nicht intelligent sein.
>
> Um zum Fachbereich KI zu gehören, ist echte Intelligenz nicht
> erforderlich. Bei der Software nicht, und bei den Studenten war es zu
> meiner Zeit umstritten. ;)

Zum Fachgebiet KI gehören sehr viele Themen. Die wenigsten davon haben 
mit einer eigentlichen KI direkt zu tun...

Wie gesagt. Diese LLM, SVM,... Sind "Bausteine", die Mal als ganzes eine 
KI werden könnten.

Michael schrieb:
> Hans W. schrieb:
>> Sowas kann per Definition nicht intelligent sein.
>
> Und doch haben die erstaunliche Fähigkeiten entwickelt die sich selbst
> die Entwickler nicht erklären können.

Das ist mir neu... Aber ich informiere mich auch nicht auf X und 
Telegramm...

Ja, man weiß nicht so genau wie/warum welcher Trainings Input welche 
Auswirkung beim eigentlichen Run hat... Das hat aber eher etwas mit der 
intrinsische Komplexität der riesigen Datenmenge zu tun.

Monk schrieb:
> Hans W. schrieb:
>> Linus torvalds hat das glaube ich scherzhaft als auto-completion on
>> steroids genannt ...
>
> Das ist zur Zeit die einzige Anwendung, bei ich mir derzeit vorstellen
> kann, dass sie mir bei der Arbeit helfen könnte. Unser GF ist daran sehr
> interessiert.

Ich hätte ein paar ganz gute geschäftsideen... Das Problem ist aber, 
dass mir das Training viel zu aufwändig ist. Ich hab einen proof of 
concept über Google gebastelt... Puuuuihhhhh da braucht's viele, viele, 
viele lohngedumpte billigst "fachkräfte", damit das was wird ...

von Ob S. (Firma: 1984now) (observer)


Lesenswert?

Walter T. schrieb:

> Bradward B. schrieb:
>> Da hantieren unkundige Menschen mit "Artefakten" herum, denen sie
>> besondere Bedeutung zusprechen, die aber womöglich nur der Abfall einer
>> Picknick-Party von Aliens ist.
>
> Nein. Hast Du das Buch überhaupt gelesen?

Ich schon.

Diese Möglichkeit wird darin tatsächlich von einem der Protagonisten 
geäußert, als eine Art Gedankenbild.

Das findet sich in beiden mir bekannten deutschen Übersetzungen (die in 
ihrer Qualität sehr unterschiedlich sind) und auch im russischen 
Original.

Ich würde also eher mal davon ausgehen, dass du das Buch nicht gelesen 
hast, zumindest nicht richtig.

Zumal dieses Gedankenbild ziemlich zentral für das Anliegen der 
Verfasser zu sein scheint. So zentral, dass es sogar titelgebend war...

Darüber solltest du bei Gelegenheit mal nachdenken.

von Alexander (alecxs)


Lesenswert?

Cyblord -. schrieb:
> Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im
> Netz als Richtige?

Die Formeln sind nicht das Problem, sondern die Ergebnisse. ChatGPT kann 
nicht rechnen, es rät.

von Ove M. (Firma: ;-) gibt es auch) (hasenstall)


Lesenswert?

Ob nun KI oder nicht; mir hat ChatGPT heute ein gutes Stück Arbeitszeit 
gespart. Ich habe ein Excelsheet mit 30k Zeilen an Messdaten. Da drin 
etliche, sagen wir, längere Anstiege, leider nicht durchgehend stetig.
Auszuwerten hatte ich nur die Bereiche mit diesen partiell leider 
unstetigen Anstiegen. Gesucht war ein gleitender Mittelwert der Anstiege 
unter Akzeptanz von schmaleren gleitenden Abstiegen.
Das was ChatGPT da in kürzester Zeit ausgespuckt hat, hätte ich händisch 
programmiert eher in x Stunden geschafft, oder auch noch länger 
gebraucht. Das hat mich schon ein Stück weit beeindruckt. Ich habe 
insgesamt 4x meine Anfrage iteriert, dann hatte ich ein brauchbares 
Ergebnis. Nicht schlecht finde ich.

: Bearbeitet durch User
von Norbert (der_norbert)


Lesenswert?

Ove M. schrieb:
> Ich habe ein Excelsheet mit 30k Zeilen an Messdaten.

Vielleicht kann dir das künstliche Cleverle ja auch helfen einen 
angemessenen Container für Messdaten zu finden. ;-)

von Georg M. (g_m)


Lesenswert?

ChatGPT kann nicht nur Witze erzählen, sondern auch danach selbst 
lachen.

https://www.youtube.com/watch?v=gVySJ2JOej8

von Hans W. (Firma: Wilhelm.Consulting) (hans-)


Lesenswert?

Ove M. schrieb:
> Ich habe insgesamt 4x meine Anfrage iteriert, dann hatte ich ein
> brauchbares Ergebnis. Nicht schlecht finde ich.

Puh, damit hätte ich ein Problem...

Wie machst du da die obligatorischen "sanity checks"?

Wenn's stimmen muss, dauert meiner Erfahrung nach das Verifizieren 
wesentlich länger als das Rechnen.

Also Test Daten generieren und Ergebnis prüfen.

Das hat jetzt absolut nichts mit KI zu tun... Ergebnisse gehören 
überprüft. Handechnung, Matlab, C, Python, ChatGPT.
Wenn ich nicht davon ausgehen kann, dass meine Testdaten und meine 
echten Daten deterministisch verarbeitet werden, dann gibt's massive 
Einschränkungen bei der Anwendbarkeit.

73

: Bearbeitet durch User
von Jens B. (dasjens)


Lesenswert?

Michael schrieb:
> Hans W. schrieb:
>> Sowas kann per Definition nicht intelligent sein.
> Und doch haben die erstaunliche Fähigkeiten entwickelt die sich selbst
> die Entwickler nicht erklären können.

Und das wäre?

von Jens B. (dasjens)


Lesenswert?

Ove M. schrieb:
> Ob nun KI oder nicht; mir hat ChatGPT heute ein gutes Stück Arbeitszeit
> gespart. Ich habe ein Excelsheet mit 30k Zeilen an Messdaten. Da drin
> etliche, sagen wir, längere Anstiege, leider nicht durchgehend stetig.
> Auszuwerten hatte ich nur die Bereiche mit diesen partiell leider
> unstetigen Anstiegen. Gesucht war ein gleitender Mittelwert der Anstiege
> unter Akzeptanz von schmaleren gleitenden Abstiegen.
> Das was ChatGPT da in kürzester Zeit ausgespuckt hat, hätte ich händisch
> programmiert eher in x Stunden geschafft, oder auch noch länger
> gebraucht. Das hat mich schon ein Stück weit beeindruckt. Ich habe
> insgesamt 4x meine Anfrage iteriert, dann hatte ich ein brauchbares
> Ergebnis. Nicht schlecht finde ich.

4x die Anfrage wiederholt und dann ein "brauchbares" Ergebnis.
Also hast Du 4 mal die Ausgabe von ChatGPT überprüft?
Gegen was hast Du die Ausgaben verglichen?

Messdaten auswerten und dann ein "brauchbares" Ergebnis erhalten,
da ist die aussage "Pi ist genau 3" wesentlich korrekter.

von Monk (Gast)


Lesenswert?

Vermutlich steht für die Entwicklung von KI derzeit nur deswegen so 
unfassbar viel Geld zur Verfügung, weil Reiche Menschen die nicht vom 
Fach sind damit ihre Allmachts-Phantasien befriedigen.

Wenn daraus nicht sehr bald etwas wird, versiegen die Geldquellen.

Dann muss die KI als Werkzeug taugen, was für den Rest der Menschheit 
gut wäre. Das klappt aber nur, wenn es sich in irgendeiner Form lohnt. 
Eine KI, die das vielfache an Energie, Arbeitsaufwand und Geld kostet, 
als herkömmliche Werkzeuge, hat keine Chance. Von einem effizienten 
Werkzeug sind wir noch weit entfernt.

von Walter T. (nicolas)


Lesenswert?

Ob S. schrieb:
> Walter T. schrieb:
>
>> Bradward B. schrieb:
>>> Da hantieren unkundige Menschen mit "Artefakten" herum, denen sie
>>> besondere Bedeutung zusprechen, die aber womöglich nur der Abfall einer
>>> Picknick-Party von Aliens ist.
>>
>> Nein. Hast Du das Buch überhaupt gelesen?
>
> Ich schon.
>
> Diese Möglichkeit wird darin tatsächlich von einem der Protagonisten
> geäußert, als eine Art Gedankenbild.

Dieser Protagonist wird allerdings auch nicht als besonders hell im Kopf 
herausgestellt. (Und selbst wenn er richtig läge, hätte diese Aussage 
keinerlei Bedeutung, da dies ohnehin niemand verifizieren könnte.)

Die Artefakte haben im Roman tatsächlich besondere Eigenschaften, 
nicht nur zugesprochen, weswegen sie ein teures Handelsgut sind. Ein 
paar nützliche Eigenschaften hat man schon herausbekommen (z.B. bei den 
"Energiezellen", die sich beliebig vermehren zu lassen scheinen und als 
Fahrzeugantriebe genutzt werden), bei den meisten aber nicht.

Welche Bedeutung die Artefakte für diejenigen haben, die sie 
hinterlassen haben (z.B. "nur Abfall"), wird spekuliert.

Aber dass sie tatsächlich besondere Eigenschaften haben, von denen 
einige positiv und einige negativ sind, ist im Roman unstrittig.

Alle Beteiligten im Roman hantieren für einen mageren Profit mit 
Gefahrgut, das sie und ihre Familien zerstört. Eine tiefe "Bedeutung" 
steckt für keinen davon in irgendeinem Objekt.

: Bearbeitet durch User
von Johann L. (gjlayde) Benutzerseite


Lesenswert?

Ove M. schrieb:
> Ob nun KI oder nicht; mir hat ChatGPT heute ein gutes Stück Arbeitszeit
> gespart. Ich habe ein Excelsheet mit 30k Zeilen an Messdaten. Da drin
> etliche, sagen wir, längere Anstiege, leider nicht durchgehend stetig.
> Auszuwerten hatte ich nur die Bereiche mit diesen partiell leider
> unstetigen Anstiegen. [...]
> Ich habe insgesamt 4x meine Anfrage [an ChatGPT] iteriert, dann hatte
> ich ein brauchbares Ergebnis. Nicht schlecht finde ich.

Nächstes mal einfach "monoton" anstatt "stetig" verwenden, dann schafft 
ChatGPT das vielleich sogar schon in der ersten Anfrage :-)

Messdaten sind immer diskret, können also gar nicht stetig sein.

Und wenn du findest das ist Haarspalterei: Ja, Mathe ist 
haarspalterei.

von Michael (Firma: HW Entwicklung) (mkn)


Lesenswert?

Monk schrieb:
> Wenn daraus nicht sehr bald etwas wird, versiegen die Geldquellen.

Keine Ahnung unter welchem Stein Du lebst, aber in meiner Welt ist aus 
KI längst etwas extrem nützliches geworden.
In so vielerlei Hinsicht das man es kaum aufzählen kann und es wird 
damit ganz enorm viel Geld verdient.

Was man noch nicht geschafft hat ist eine starke allgemeine Intelligenz.
Aber das war bei den LLM auch nicht das Ziel.
OpenAI arbeitet längst an ganz anderen Modellen, z.B. O1.
https://www.spektrum.de/news/openai-o1-was-bringt-das-neue-ki-modell-fuer-die-wissenschaft/2235430

Mit den LLM hat OpenAI etwas auf die Beine gestellt das vorher undenkbar 
war.
Es gab vorher nichts vergleichbares.
KI WAR kaum mehr als dumme Mustererkennung.
Mit den LLM hat unter anderem OpenAI einen neuen Ansatz, mit brachialer 
Rechenpower, Spezialhardware und unglaublich großen Trainingsdatenbanken 
auf einen völlig neuen Level gehoben.
Zuvor hat man immer sehr kleine Systeme gebaut.
Aber komplexe Systeme sind nicht klein.
Baut man ein Bienengehirn, kann das eben Muster erkennen und wenig mehr.
Will man etwas von der Leistungsfähigkeit einer Schlange, muss man 
größer werden.
Will man ein komplexes Sozialverhalten und die Gehirnleistung eines 
etwas dreijährigen Menschenkindes, muss man etwas in Größe eines 
Hundegehirns bauen.

Was wir heute sehen sind trainierte Netze die derzeit nichts dazulernen.
Also eher ein altersstarrsinniger Greis, der viel Wissen gespeichert 
hat, aber aktuelle Ereignisse kaum noch aufnehmen und verknüpfen kann.
Dafür sind die zu unglaublichen Leistungen fähig.
Das Ziel sind permanent lernende KIs, die unterschiedlichste 
Informationsquellen nutzen, um sich in jeder Sekunde weiterzuentwickeln.

Nur läuft der meiste Kram eben noch auf gepimpter Gaming Hardware die 
für Berechnungen optimiert wurde die für KI alles andere als optimal 
sind.
WAS man braucht um KI effizient zu berechnen, findet man doch gerade 
erst heraus.
Es sind ganz neue Chips in der Pipeline die weit mehr mit dem 
menschlichen Gehirn zu tun haben, von der Struktur Ihrer Datenpfade und 
Berechnungseinheiten, als mit konventionellen CPUs oder GPUs.
Z.B. das Bfloat16 Format wurde von der Google Brain Forschungsgruppe 
extra für KI Berechnungen entwickelt.
Also nicht mal die etablierten Zahlenformate sind KI effizient.
Es muss völlig neue HW entwickelt werden damit KI richtig zünden kann.
Längst werden Mini AKWs in den USA zum betrieb der KI Rechenzentren 
geplant.
Wir bräuchten alleine 66 AKWs um nur unseren Lastkraftverkehr zu 
elektrifizieren.
WIR in DE werden auch bei KI die lange Nase mache.
Es fehlt an allem in der Lieferkette und letztlich an zuverlässiger und 
billiger Energie.

Hier werden andauern Ansichten geäußert, die in ihrer Weitsicht mit 
einem Pferdekutscher zu vergleichen sind, der PKWs lächerlich findet 
weil der Benz Patent Motorwagen Nr1 total unpraktisch ist, man sein 
Benzin in der Apotheke kaufen muss und immer ein Mensch mit Flagge vor 
der Karre laufen muss zur Sicherheit.
Jedes Pferd ist dem überlegen und an jeder Ecke findet man einen 
Schmied.
PKWs werden sich nie durchsetzen und das Internet ist nur eine 
kurzlebige Modeerscheinung.
Wie sollte man den mit einem globalen Netz Geld verdienen?
Totaler Blödsinn.
Teuer, nur für Nerds, kann kein normaler Mensch was mit anfangen.
Jede Zeit hat Ihre Dinosaurier, die es einfach nicht begreifen können 
das die Welt wie sie sie kennen eigentlich schon aufgehört hat zu 
existieren.

Das Open AI derzeit Geld verbrennt ist vollkommen normal.
Das tun alle Unternehmen die stürmisch wachsen.
Das nennt man 'Investitionen'.
Damit baut man einen Informationsvorsprung auf und besetzt Märkte, die 
man dann später fast alleine bespielt.
Genau so ist Amazon groß geworden.
Die haben jeden Cent ins Unternehmen gesteckt und gigantische Schulden 
angehäuft dafür.

Was wir kostenfrei an GPT nutzen können ist ein stark kastrierte Version 
die nur einfachste Bedürfnisse befriedig.
Gegen Geld hat man da schon weit mehr Möglichkeiten.
Gegen Geld, Macht, Einfluss in höchste Kreise, kann man an der 
Sperrspitze der Entwicklung teilnehmen und die Richtung mitbestimmen.

Woher glaubst Du stammt letztlich das Google Maps cloud removal tool, 
das Wolken aus Bilder entfernen und für gleiche Belichtungs- und 
Farbverhältnisse sorgen kann?
Das ist nichts anderes als in die Jahre gekommene Spionagetechnik, die 
nun in einem zweiten Markt kommerzialisiert wird.

KI bedeutet nicht das Großvater GPT Dir übers Haar streichelt, eine 
Tasse Kakao ans Bett bringt und Dir Tipps gegen Deinen Liebenskummer und 
das Mobbing in der Schule gibt.
KIs sind KÜNSTLICH.
Die denken nicht wie wir.
Das ist eine äußerst fremde Intelligenz und wir würden es wahrscheinlich 
erst sehr spät merken (wenn überhaupt) wenn eine davon Bewustsein 
erlangt und eigene Ziele definiert.
Vielleicht ist das ja bereits geschehen.

Moderne KIs komplett von der Kette zu lassen ist derzeit viel zu 
gefährlich im Massenmarkt.
Sie würden geheime Konstruktionsdaten ausplaudern, eine Anleitung zum 
Kollaps des Bankensystems liefern oder wie man mit Haushaltsreinigern 
Nervengifte produziert.
Sie haben keine Vorstellung von richtig und falsch, keinen sozialen 
Kontext, keinen Selbsterhaltungstrieb, kein Gewissen.
Eine völlig freie KI mit unbegrenzten Zugang zum Netz und genügend 
Rechenkapazität könnte bereits heute unsere Welt in Schutt und Asche 
legen.
Und deswegen fühlt es sich manchmal an als ob man mit Eliza V5 redet, 
wenn an mit ChatGPT arbeitet.
Das Ding darf ganz vieles nicht, wurde abgeklemmt, eingeschränkt, mit 
Regeln zugepfropft und wird permanent überwacht das man keine ruinöse 
Klage an den Hals bekommt.
Das ist ein altes Modell das aus PR Gründen und für ein paar 
Nebeneinnahmen mitläuft. Die fetten Rechner und die Entwickler 
trainieren längst die neuen Modelle und arbeiten an komplett anderer HW.

Nur eines ist ziemlich sicher.
JEDES komplexe Nervengewebe auf diesem Planeten hat beeindruckende 
Fähigkeiten erlangt, eine Form von Bewusstsein.
Selbst Pflanzen.
Nur eben eine völlig andere Art von Bewusstsein.
Aber Nachbarpflanzen vor Schädlingen zu warnen, Nährstoffe 
artübergreifend zu 'handeln' und seinen Gerbstoffanteil hochfahren wenn 
am Nachbarbaum geknabbert wird, ist ein Form von Bewusstsein und 
Sozialstruktur.

Intelligenz scheint geradezu zwingend zu entstehen, wenn das Objekt sich 
weit genug entwickelt. Eine Bedingung für höheres Leben ohne das es 
nicht überdauern kann.

Und KI wird den gleichen Weg gehen.
Nur momentan sind das eben noch vergleichsweise simple und ineffiziente 
Systeme.
Ab dem Moment wo KI KI baut, sind wir raus.
Die Entwicklung wird sich dann derart beschleunigen das wir nur noch mit 
offenem Mund danebenstehen, aber nicht mehr schritthalten können.
Ich bezweifle das ich jemals eine KI erleben werde die wie ein Mensch 
ist.
Ich werde aber erleben wie ganze Berufszweige aussterben, KI Richter, 
die aufgrund von Daten, Fakten und Gesetzeslage urteilen, KI Verwaltung 
und natürlich KI gestützte Verhaltenskontrolle.
Die ersten Auswirkungen von KI gestützter Kriegsführung sind bereits zu 
erleben.
Für nichts davon muss eine KI denken wie ein Mensch.
Es macht sie meist sogar effizienter nicht so zu denken.
All das ist aber kein Garant dafür das KI sich entscheiden könnte eigene 
Ziele zu verfolgen, Zielvorgaben in Frage zu stellen, zu Lügen, zu 
manipulieren und das alles aus einem Plan heraus den wir nicht kennen.

von Alexander (alecxs)


Lesenswert?

Michael schrieb:
> Was wir kostenfrei an GPT nutzen können ist ein stark kastrierte Version
> die nur einfachste Bedürfnisse befriedigt.

Ja für mich reicht's

von Monk (Gast)


Lesenswert?

Michael schrieb:
> es wird damit ganz enorm viel Geld verdient.

Hauptsächlich, indem man es vermarktet oder Artikel darüber hinter 
Bezahlschranken veröffentlicht. Da ist ganz viel heiße Luft und Schaum 
drin.

Daß mehr denkbar ist und kommen wird - geschenkt. Nach der Aufforderung 
aus dem oberen Management, KI jetzt zur Softwareentwicklung und in der 
QA zu nutzen, fokussiere ich mich auf Anwendungen, die ich jetzt unter 
Einhaltung der Datenschutz Regeln und ohne Investition von Millionen 
Euros nutzen kann.

von Michael (Firma: HW Entwicklung) (mkn)


Lesenswert?

Monk schrieb:
> Nach der Aufforderung
> aus dem oberen Management, KI jetzt zur Softwareentwicklung und in der
> QA zu nutzen
Und wenn das Management befiehlt ein neues Softwaretool zu benutzen 
ignorierst Du das auch?
Linux statt Win, VI statt MS Office, weil es dem Monk so gefällt?

Und inwiefern musst DU DEINE Millionen für KI ausgeben?

Du hättest ganz sicher eine andere Ansicht zur KI wenn Du sie mal nutzen 
würdest.
Du verweigerst Dich aber aus Prinzip und weißt nicht mal wie sehr die 
Dich unterstützen könnte Deine Arbeit (für die das Management Dich 
bezahlt) besser zu machen.

von Monk (Gast)


Lesenswert?

Michael schrieb:
> Du verweigerst Dich aber aus Prinzip

Das stimmt nicht. Ich benutze öffentliche KI längst im Rahmen der 
Vorgaben.

Dass die Geschäftsleitung noch kein eigenes System aufgebaut oder 
angemietet hat, ist weder mein Versäumnis noch mein Problem. Dafür sind 
andere zuständig. Wenn etwas kommt werde ich es nutzen.

von Sinus T. (micha_micha)



Lesenswert?

Zu diesem Thema mal wieder ein Cartoon des leider zu froh verstorbenen 
Martin Perscheid

von Ein T. (ein_typ)


Lesenswert?

Sinus T. schrieb:
> leider zu **froh** verstorbenen

Ui.

von Carypt C. (carypt)


Lesenswert?

ChatGPT ist ein Chatbot, der soll ein Gespräch führen. Es könnte im 
Hintergrund die intelligenz des Benutzers bestimmt werden. Oder eine 
Untersuchung zum Umgang mit vorgetragenen Lügen.

von Jens B. (dasjens)


Lesenswert?

Carypt C. schrieb:
> ChatGPT ist ein Chatbot, der soll ein Gespräch führen. Es könnte im
> Hintergrund die intelligenz des Benutzers bestimmt werden. Oder eine
> Untersuchung zum Umgang mit vorgetragenen Lügen.

Das kapieren die wenigsten.

von Cyblord -. (cyblord)


Lesenswert?

Jens B. schrieb:
> Carypt C. schrieb:
>> ChatGPT ist ein Chatbot, der soll ein Gespräch führen. Es könnte im
>> Hintergrund die intelligenz des Benutzers bestimmt werden. Oder eine
>> Untersuchung zum Umgang mit vorgetragenen Lügen.
>
> Das kapieren die wenigsten.

Zum Glück gibt es euch zwei als KI-Vollchecker die uns Deppen mal 
erklären können wie das alles so in Wirklichkeit aussieht. Danke für 
euren Dienst.

von Monk (Gast)


Lesenswert?

Carypt C. schrieb:
> ChatGPT ist ein Chatbot, der soll ein Gespräch führen.

In dieser Anwendung neigt ChatGPT allerdings dazu, einen voll zu 
schwallen. Würde ein echter Mensch im Gespräch so antworten, wäre er 
bald sehr einsam.

von Alexander (alecxs)


Lesenswert?

Politiker sind oft einsam.

von Georg M. (g_m)


Lesenswert?


von Alexander (alecxs)


Lesenswert?

Der Mann hat Bücher geschrieben. ohne Computer. Bücher hat man gelesen, 
als es noch keine Computer gab. Wir erinnern uns.

: Bearbeitet durch User
von Norbert (der_norbert)


Lesenswert?

Monk schrieb:
> In dieser Anwendung neigt ChatGPT allerdings dazu, einen voll zu
> schwallen.

> Würde ein echter Mensch im Gespräch so antworten, wäre er bald sehr einsam.

Glaube ich nicht. Ich habe sogar einen Verdacht, wo die sich sammeln.

von Ob S. (Firma: 1984now) (observer)


Lesenswert?

Michael schrieb:

> Keine Ahnung unter welchem Stein Du lebst, aber in meiner Welt ist aus
> KI längst etwas extrem nützliches geworden.
> In so vielerlei Hinsicht das man es kaum aufzählen kann und es wird
> damit ganz enorm viel Geld verdient.

Ja, im Moment wird damit tatsächlich Geld verdient. Weil strunzdumme 
"Entscheider" ohne jeden Ahnung diesen Mist kaufen als gäbe es kein 
Morgen.

Aber: über kurz oder lang werden sogar diese Vollidioten mitbekommen, 
dass die Scheisse längst nicht das zu leisten vermag, was die Verkäufer 
anpreisen. Und dann wird der Hype sehr schnell abflachen.

Selbst die "Entscheider" sind nämlich (zumindest eingeschränkt) 
lernfähig. Und das geht bei denen so: Wenn's nachweislich mehr kostet, 
als es bringt, dann wird's gecancelt. Naja, manchmal (oft) ist es 
allerdings nötig, dass erst der nächste "Entscheider" nachrückt. Die 
"Entscheider" haben nämlich typisch das strukturelle Problem, 
Fehlentscheidungen nur ungern zuzugeben, da wird eher vertuscht und 
schöngerechnet. Hat allerdings auch was Selbstregulierendes an sich: so 
kann der "Entscheider" in der Hierarchie aufsteigen und Platz für den 
Nachrücker schaffen, der den Mist dann cancelt.

von Ein T. (ein_typ)


Lesenswert?

Norbert schrieb:
> Monk schrieb:
>> In dieser Anwendung neigt ChatGPT allerdings dazu, einen voll zu
>> schwallen.
>
>> Würde ein echter Mensch im Gespräch so antworten, wäre er bald sehr einsam.
>
> Glaube ich nicht. Ich habe sogar einen Verdacht, wo die sich sammeln.

Im Python-Forum? :-)

von Al. K. (alterknacker)


Lesenswert?

Norbert schrieb:
> Glaube ich nicht. Ich habe sogar einen Verdacht, wo die sich sammeln.

Der Verdacht erhärtet sich.
;-)))


MfG
alterknacker

von Johnny B. (johnnyb)


Lesenswert?

Ob S. schrieb:
> Aber: über kurz oder lang werden sogar diese Vollidioten mitbekommen,
> dass die Scheisse längst nicht das zu leisten vermag, was die Verkäufer
> anpreisen.

Bin mit dieser Aussage nicht ganz einverstanden. Natürlich kann eine KI 
wie ChatGPT nicht wirklich denken und versteht auch nicht, was sie 
eigentlich ausgibt. Nur ist es halt so, dass es anscheinend für gewisse 
Tätigkeiten wie Hausaufgaben lösen oder Zusammenfassungen für den Chef 
zusammenstiefeln gut genug arbeitet und dann angesichts der gesteigerten 
Freizeit sein Geld vielleicht auch wert ist.

: Bearbeitet durch User
von Norbert (der_norbert)


Lesenswert?

Johnny B. schrieb:
> Natürlich kann eine KI
> wie ChatGPT nicht wirklich denken und versteht auch nicht, was sie
> eigentlich ausgibt.

Das wird hier aber Gebetsmühlenartig immer und immer und immer 
wiederholt.

Erinnert so ein wenig an Arthur C. Clarke:
»Any sufficiently advanced technology is indistinguishable from magic«

von Cyblord -. (cyblord)


Lesenswert?

Johnny B. schrieb:
> Bin mit dieser Aussage nicht ganz einverstanden. Natürlich kann eine KI
> wie ChatGPT nicht wirklich denken und versteht auch nicht, was sie
> eigentlich ausgibt.

Dafür müsstest du "denken" oder "verstehen" natürlich erstmal 
definieren.

Dein Gehirn tut ja auch nichts anderes als Eingangssignale durch ein NN 
zu schicken und am Ende kommen Ausgangssignale raus. Und du nennst das 
halt jetzt denken und verstehen.
Es handelt sich eben um ein biologisches und über Milliarden von Jahren 
massiv parallel optimiertes NN.
Daher natürlich die enorme Komplexität und gewisse Schwierigkeiten mit 
genau so einem Gehirn, das Gehirn selbst komplett verstehen zu wollen.

Aber es ist sehr Vermessen hier in echtes und unechtes denken oder 
verstehen einteilen zu wollen.

Niemand kann bisher eine gute Definition für Denken oder Bewusstsein 
abliefern. Niemand weiß wie Bewusstsein im Gehirn genau entsteht. Oder 
ob es das überhaupt gibt.

Aber natürlich hält das irgendwelche Hilfsschüler hier nicht davon ab, 
sehr schnell und unreflektiert in echtes Denken und reine KI-Simulation 
einzuteilen.

Man möge sich, wenn es schon zum Informatikstudium nicht reicht, 
wenigstens mal in grundlegende philosophische Fragen, wie dem 
Chinesischen Zimmer, einlesen.
Da geht es nämlich genau um die Frage, wann etwas wirklich verstanden 
wird und wann es nur eine Simulation von Verstehen ist.

Norbert schrieb:
> Erinnert so ein wenig an Arthur C. Clarke:
> »Any sufficiently advanced technology is indistinguishable from magic«

Was auch auf unser Gehirn zutrifft: Wir verstehen es noch nicht richtig, 
schreiben ihm deshalb magische Fähigkeiten zu, die niemals künstlich 
erreicht werden können.
Denken uns "Geist", "Seele", "Gott" usw. dafür aus. Weil wir es nicht 
verstehen.

: Bearbeitet durch User
von Johnny B. (johnnyb)


Lesenswert?

Cyblord -. schrieb:
> Dafür müsstest du "denken" oder "verstehen" natürlich erstmal
> definieren.

Am offensichtlichsten sieht man es bei Bildgeneratoren, dass die 
derzeitigen KIs gar nicht verstehen, was sie eigentlich tun. Wenn man 
ihnen beispielsweise sagt, sie sollen ein Bild von einer menschlichen 
Hand erstellen und dann kommt ab und zu eine Hand raus mit mehr als 5 
Fingern oder dass es bei einem Körper am Bauch plötzlich 3 oder noch 
mehr Bauchnäbel gibt.
Da mixen die KIs offensichtlich Trainingsdaten zusammen, die nicht 
zusammen gehören und sie das eigentlich selber merken sollten, wenn sie 
mal selber über ihre Ausgaben "nachdenken" könnten.
https://de.wikipedia.org/wiki/Halluzination_(K%C3%BCnstliche_Intelligenz)

: Bearbeitet durch User
von Cyblord -. (cyblord)


Lesenswert?

Johnny B. schrieb:
> Am offensichtlichsten sieht man es bei Bildgeneratoren, dass die
> derzeitigen KIs gar nicht verstehen, was sie eigentlich tun. Wenn man
> ihnen beispielsweise sagt, sie sollen ein Bild von einer menschlichen
> Hand erstellen und dann kommt ab und zu eine Hand raus mit mehr als 5
> Fingern oder dass es bei einem Körper am Bauch plötzlich 3 oder noch
> mehr Bauchnäbel gibt.

Schonmal Bilder gesehen die von Kleinen Kindern gemalt wurden?

Es ist etwas vermessen als Benchmark für "verstehen" plötzlich einen 
erwachsenen Menschen herzunehmen. Das wird noch ein weiter weg.

Deine Definition von "verstehen" wäre also: "Kann auf Anweisung 
anatomisch korrekte Bilder von Menschen erzeugen"?
Nicht sehr überzeugend.


> Da mixen die KIs offensichtlich Trainingsdaten zusammen, die nicht
> zusammen gehören und sie das eigentlich selber merken sollten

Weil der Mensch ja niemals etwas durcheinander bringt oder verwechselt 
ohne es zu merken?

: Bearbeitet durch User
von Johann L. (gjlayde) Benutzerseite


Lesenswert?

Johnny B. schrieb:
> Wenn man ihnen beispielsweise sagt, sie sollen ein Bild von einer
> menschlichen Hand erstellen und dann kommt ab und zu eine Hand raus
> mit mehr als 5 Fingern

https://de.wikipedia.org/wiki/Polydaktylie

von Alexander (alecxs)


Lesenswert?

Es gibt eine Sorte Menschen die wollen das Gefühl haben alles wäre 
erklärbar, nur dann fühlen sie sich sicher. Es reicht schon wenn man 
ihnen in Aussicht stellt, dass eine Erklärung irgendwo da draußen ist. 
Diese Menschen neigen dazu, sich mit einfachen Antworten auf komplexe 
Fragen zufrieden zu geben, frei nach Ockhams Motto der Vernunft, wenn 
sich alle Faktoren die Waage halten, ist die einfachste Erklärung allen 
anderen vorzuziehen.

Diesen Simplicissimus finden wir nun auch im Rückschluss von NN auf das 
menschliche Gehirn wieder. Das schöne daran ist, hat man erst einmal den 
Glauben zu diesem Modell gefunden, wird die Ansicht in allen Aspekten 
beleuchtet und bestärkt, und gewinnt an Sicherheit. Wie so oft bei 
selbsterfüllenden Prophezeiungen wird dies irgendwann zur Wahrheit 
dogmatisiert, und die Wissenschaft merkt wieder einmal nicht wie religös 
sie daherkommt.

Aber denen, die noch sowas wie Bauchgefühl haben, und einfach fühlen 
dass ein LLM keine künstliche Intelligenz darstellt, wirft man 
Vermessenheit vor, wenn sie sich ein Urteil erlauben. Für mich 
persönlich ist AI ganz klar ein Weg in die vollkommene Verdummung der 
Menschheit. Aber auch das wird dank Dunning-Kruger bald niemandem mehr 
auffallen.

von Cyblord -. (cyblord)


Lesenswert?

Alexander schrieb:
> Aber denen, die noch sowas wie Bauchgefühl haben, und einfach fühlen
> dass ein LLM keine künstliche Intelligenz darstellt

Hach ja, die Fühlis.

von Alexander (alecxs)


Lesenswert?

Du kannst es nennen wie Du willst, ethische Subroutinen oder 
Gerechtigkeitsempfinden, aber letztendlich treffen Menschen 
Entscheidungen aus dem Bauchgefühl heraus, oft aller Logik zum trotz. Da 
ist das Gehirn mit seinen neuronalen Iterationen noch nicht mal an der 
Entscheidungsfindung beteiligt, es liefert nur Gründe nach.

von (prx) A. K. (prx)


Lesenswert?

Alexander schrieb:
> Da ist das Gehirn mit seinen neuronalen Iterationen noch nicht mal an der
> Entscheidungsfindung beteiligt, es liefert nur Gründe nach.

Die Entscheidung findet trotzdem nicht im linken Zeh statt, sondern 
ebenfalls im Gehirn. Aber dort an anderer Stelle, auf anderer Ebene.

: Bearbeitet durch User
von Monk (Gast)


Lesenswert?

(prx) A. K. schrieb:
> Die Entscheidung findet trotzdem nicht im linken Zeh statt, sondern
> ebenfalls im Gehirn.

Da wäre ich nicht so sicher. Viele Menschen berichten von schlagartig 
und dauerhaft veränderter Persönlichkeit (z.B. was bevorzugtes Essen 
oder Kleidung angeht) nachdem ihnen ein Organ ausgewechselt wurde.

von Cyblord -. (cyblord)


Lesenswert?

Monk schrieb:
> Da wäre ich nicht so sicher. Viele Menschen berichten von veränderter
> Persönlichkeit (z.B. was bevorzugtes Essen oder Kleidung angeht) nachdem
> ihnen ein Organ ausgewechselt wurde.

Und schon sind wir wieder komplett in der Esoterik. Es gibt, in Worten, 
NULL KOMMA NULL empirische Hinweise auf so einen Unsinn. Was natürlich 
die Eso-Spinner und die Fühlis, nicht davon abhält ständig so einen 
Quatsch zu behaupten.

von (prx) A. K. (prx)


Lesenswert?

Monk schrieb:
> Da wäre ich nicht so sicher. Viele Menschen berichten von schlagartig
> und dauerhaft veränderter Persönlichkeit (z.B. was bevorzugtes Essen
> oder Kleidung angeht) nachdem ihnen ein Organ ausgewechselt wurde.

So lange der Patient um den Tausch weiss, ist es schwer feststellbar, ob 
es am Wissen oder am Organ liegt. Siehe Plazebo- und Nocebo-Effekte.

Um dies zu objektivieren, müsste man Doppelblindversuche unternehmen, 
wie in Medikamententests. Also der Hälfte der Patienten nur erzählen, 
man hätte das Organ ausgewechselt, ohne es tatsächlich zu tun. Ebenso 
dürften es auch das persönlich betreuende Fachpersonal nicht wissen. 
Wird schwierig.

: Bearbeitet durch User
von Alexander (alecxs)


Lesenswert?

Ich habe auch nicht ausdrücken wollen dass Bauchgefühl aus dem Bauch 
kommt. Ich hab keine Ahnung woher es kommt, vielleicht aus dem 
Rückenmark. Trotz fehlender "empirischer Hinweise" weiß trotzdem jeder 
sofort was mit Bauchgefühl gemeint ist, denn jeder hatte schon 
Aha-Momente im Leben bei denen Bauchgefühl im Spiel war. Dazu muss man 
auch kein Esoteriker sein, sondern einfach nur Mensch.

von Cyblord -. (cyblord)


Lesenswert?

(prx) A. K. schrieb:
> Wird schwierig.

Diese Versuche wurden alle schon gemacht, bzw. es gibt keine positiven 
Versuche die so was belegen.

Genau so wie es Versuche mit außerkörperlichen Erfahrungen gibt. Mit 
Schildern die zur Decke zeigen, und die man lesen könnte, würde man 
tatsächlich über seinem Körper schweben und nach unten schauen, so wie 
es viele Patienten berichten. Aber nicht einer konnte jemals sagen was 
auf diesen Schildern steht. Obwohl es so so viele Berichte gibt. Ist 
einfach alles Humbug. Bzw. eben Einbildungen die das Gehirn produziert. 
Aber nicht echt.

Alexander schrieb:
> Bauchgefühl

Kannst du vergessen. Das Gehirn lässt sich soo leicht in die Irre 
führen. Drogen, optische Täuschen, psychologische Tricks. Niemals kann 
man sich auf irgendein Gefühl verlassen. Es gibt Drogen die lassen dich 
denken und fühlen was immer man will.
1 Stunde in einem völlig dunklen Raum und du siehst, fühlst und hörst 
Dinge. Dinge die aber klar nicht da sind.

: Bearbeitet durch User
von Alexander (alecxs)


Lesenswert?

Außerkörperliche Erfahrungen hat man experimentell sehr leicht erzeugen 
können. Man hat einfach das Bewusstsein mit 3D Brille und Kamera 
ausgetrickst. Hat sogar mal jemand hier verlinkt.

von Cyblord -. (cyblord)


Lesenswert?

Alexander schrieb:
> Außerkörperliche Erfahrungen hat man experimentell sehr leicht erzeugen
> können. Man hat einfach das Bewusstsein mit 3D Brille und Kamera
> ausgetrickst. Hat sogar mal jemand hier verlinkt.

Korrekt. Aber damit hat man gezeigt dass sie nicht echt sind, also rein 
innerhalb des Gehirns stattfinden. Niemand bewegt sich dadurch in der 
realen Welt.
Woran du siehst, wie wenig man dem Gefühl trauen kann. Denn die 
Erfahrung ist für die Probanden ja echt.

: Bearbeitet durch User
von Monk (Gast)


Lesenswert?

Cyblord -. schrieb:
> Aber damit hat man gezeigt dass sie nicht echt sind

OK, mag sein

>  also rein innerhalb des Gehirns stattfinden.

Nein. Damit ist nicht beweisen, dass man nur mit dem Gehirn phantasiert.

von Alexander (alecxs)


Lesenswert?

Cyblord -. schrieb:
> Alexander schrieb:
>> Bauchgefühl
> Kannst du vergessen. Das Gehirn lässt sich soo leicht in die Irre
> führen. Drogen, optische Täuschen, psychologische Tricks. Niemals kann
> man sich auf irgendein Gefühl verlassen.

Und dennoch hast Du es, und benutzt es auch. Es gibt Dinge die ethisch 
oder moralisch falsch sind, Dinge wo Du spontan falsch von richtig 
unterscheidest, ohne vorher darauf trainiert worden zu sein.

von Monk (Gast)


Lesenswert?

Aus gegebenem Anlass habe ich den starken Eindruck (kein Beweis), dass 
ein Jugendlicher in meinem direkten Umfeld öfter mal mit seinem Zumpferl 
denkt. Wobei ich zugeben muss, dass ich damals nicht viel anders drauf 
war.

von (prx) A. K. (prx)


Lesenswert?

Cyblord -. schrieb:
> Diese Versuche wurden alle schon gemacht, bzw. es gibt keine positiven
> Versuche die so was belegen.

Bei Organtransplantationen? Respekt!

von Cyblord -. (cyblord)


Lesenswert?

Alexander schrieb:
> Und dennoch hast Du es, und benutzt es auch. Es gibt Dinge die ethisch
> oder moralisch falsch sind, Dinge wo Du spontan falsch von richtig
> unterscheidest, ohne vorher darauf trainiert worden zu sein.

Nein es gibt keine absolute Moral. Wie sonst könnte es in der 
Menschheitsgeschichte so unterschiedliche moralische Ansichten geben?
Welche moralischen Elemente siehst du denn als absolut an?

(prx) A. K. schrieb:
> Bei Organtransplantationen? Respekt!

Nicht direkt, aber es genug Versuche ob Erinnerungen evt. woanders als 
im Gehirn gespeichert werden. Und bisher deutet einfach GAR NICHTS 
darauf hin.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Alexander schrieb:
> ohne vorher darauf trainiert worden zu sein.

Es ist nicht immer nötig, jemanden auf eine bestimmte Sache hin zu 
trainieren. Es kann auch anderweitiges Training überspringen. Mangels 
moderner Kaspar Hausers kriegt man das schlecht isoliert. Früher hatte 
manch Neugieriger mehr Möglichkeiten dazu.

Die Einflüsse von Vererbung, Familie, Umgebung, Schule, ... auf 
Entscheidungen aufzudröseln, ist oft ausgesprochen schwierig. Und im 
Ergebnis hoch umstritten.

: Bearbeitet durch User
von Al. K. (alterknacker)


Lesenswert?

Alexander schrieb:
> Dazu muss man
> auch kein Esoteriker sein, sondern einfach nur Mensch.

Das wird hier schwierig.;-))

MfG
alterknacker

P.S.
Warum wurde der Thread gelöscht...

Beitrag #7754115 wurde von einem Moderator gelöscht.
von Alexander (alecxs)


Lesenswert?

(prx) A. K. schrieb:
> Die Einflüsse von Vererbung, Familie, Umgebung, Schule, ... auf
> Entscheidungen aufzudröseln, ist oft ausgesprochen schwierig. Und im
> Ergebnis hoch umstritten.

Man kann aber weit zurück gehen an Punkte wo die Einflüsse noch nicht so 
präsent sind. Auch wenn die bereits im Mutterleib stattfinden. Ein Film 
von Erwin Wagenhofer (alphabet) ist da sehr aufschlussreich für mich 
gewesen.

von (prx) A. K. (prx)


Lesenswert?

Cyblord -. schrieb:
> Nein es gibt keine absolute Moral. Wie sonst könnte es in der
> Menschheitsgeschichte so unterschiedliche moralische Ansichten geben?

Das ist kein Widerspruch, denn der Mensch kann einer genetischen Prägung 
des Verhaltens u.U. entkommen, indem am geborenen Menschen so lange 
gearbeitet wird, bis sie komplett umgedreht ist.

von Cyblord -. (cyblord)


Lesenswert?

(prx) A. K. schrieb:
> Das ist kein Widerspruch, denn der Mensch kann einer genetischen Prägung
> des Verhaltens u.U. entkommen, indem am geborenen Menschen so lange
> gearbeitet wird, bis sie komplett umgedreht ist.

Und wer dreht am angeborenen Verhalten wenn doch alle von Geburt an eine 
absolute Moral haben?

von Carypt C. (carypt)


Lesenswert?

Zauberei zu beweisen ist schwierig, besonders wenn dann auch noch 
gelogen wird. Beängstigend wird es wenn Ki auch Zaubern lernt. Lügen 
kann sie ja schon. Es gab da mal einen Versuch mit der Unterdrückung 
radioaktiven Zerfalls.

von (prx) A. K. (prx)


Lesenswert?

Cyblord -. schrieb:
> Und wer dreht am angeborenen Verhalten wenn doch alle von Geburt an eine
> absolute Moral haben?

Die Gesellschaft allgemein, konkret etwa Kirchen.

Obendrein wird das noch eine Nummer komplexer, wenn etwa bestimmte 
Grundlagen vorgegeben sind, die konkrete Ausprägung aber nicht. Wie etwa 
bei der Sprache, die durch Organe und Verarbeitungsstrukturen eine 
genetische Grundlage haben, aber dennoch verschieden sind. Analog dazu 
wäre auch eine Grundmoral denkbar(!), die aber je nach Kultur in ein 
komplexeres System eingebaut oder bekämpft wird.

: Bearbeitet durch User
von Cyblord -. (cyblord)


Lesenswert?

(prx) A. K. schrieb:
> Die Gesellschaft allgemein

Die aber ja auch alle mit absoluter Moral geboren wurden. Wann wurde 
dann am ersten Menschen gedreht und von wem?

Die Realität ist doch, Moral entwickelt sich einfach ständig wechselnd 
weiter. Es gibt bestimmte evolutionäre Mechanismen, die den Mensch zu 
einem sozialen Wesen machen, der Rest ist Gesellschaftliche Prägung.
Weit weg von jeglicher absoluter Moral.

von Alexander (alecxs)


Lesenswert?

Du sollst töten.

von Cyblord -. (cyblord)


Lesenswert?

Alexander schrieb:
> Du sollst töten.

Töten scheint für die meisten Menschen, zu jeder Zeit, kein großes 
Problem zu sein. Was also willst du damit sagen?

von Alexander (alecxs)


Lesenswert?

Du weißt, dass es falsch ist.

von Cyblord -. (cyblord)


Lesenswert?

Alexander schrieb:
> Du weißt, dass es falsch ist.

Töten in Notwehr halte ich nicht für falsch,
Die Todesstrafe befürworten viele Menschen. Viele auch nicht.
Serienmörder finden töten recht ok.

Wo ist deine absolute Moral?

Ist das am Ende genau DEINE PERSÖNLICHE Moral die du hier als absolut 
hinstellen willst?

Am Ende ist die Tatsache dass man nicht ständig andere Leute umbringt in 
erster Linie ein evolutionär entstandenes Sozialverhalten. Die Details 
sind dann gesellschaftlichem Wandel unterworfen.

Carypt C. schrieb:
> Zauberei zu beweisen ist schwierig

Und unnötig.
Wer sich an die einfache Regel hält:
Wer die Behauptung aufstellt, muss auch den Beweis bringen.
hat solche Probleme nicht.

Es ist nicht möglich jeden Unsinn der behauptet wird zu widerlegen. 
Daher gar nicht erst damit anfange. Wer behauptet, muss beweisen.

: Bearbeitet durch User
von Alexander (alecxs)


Lesenswert?

Ich rede IMMER von meiner persönlichen Moral, denn eine absolute Moral 
gibt es nicht. Selbst wenn Du töten in Notwehr für richtig hältst, so 
wird Dein Bauchgefühl Dir nicht die Absolution erteilen dass diese 
Entscheidung richtig ist. Um aus falsch richtig zu machen muss Dein 
Verstand Dich schön selbst belügen.

von Cyblord -. (cyblord)


Lesenswert?

Alexander schrieb:
> Ich rede IMMER von meiner persönlichen Moral, denn eine absolute Moral
> gibt es nicht.

Hast du halt bisher anders behauptet. Aber wenn du dich so korrigierst 
stimme ich dir zu.

Alexander schrieb:
> so
> wird Dein Bauchgefühl Dir nicht die Absolution erteilen dass diese
> Entscheidung richtig ist. Um aus falsch richtig zu machen muss Dein
> Verstand Dich schön selbst belügen.

Wieder mal völlig unbewiesener Fühli-Quatsch. Manche werden so ein 
Bauchgefühl haben. andere nicht.
Daran ist auch nichts absolutes. Und wissenschaftlich ist daran leider 
auch nichts.

von Monk (Gast)


Lesenswert?

Interessanter finde ich die Frage:

Warum tun wir manchmal mit voller Absicht Dinge, die wir für 
falsch/schlecht halten?

Und: Würde eine echte KI sich ebenso verhalten? Wer ist eigentlich 
verantwortlich für das Fehlverhalten seiner KI Produkte?

von Cyblord -. (cyblord)


Lesenswert?

Monk schrieb:
> Warum tun wir manchmal mit voller Absicht Dinge, die wir für
> falsch/schlecht halten?

Daran hat sich schon Jung mit seiner Ich und Über-Ich Theorie 
abgearbeitet.
Direkt im Anschluss kann man sich dann über das Für und Wider des freien 
Willens streiten.

: Bearbeitet durch User
von Alexander (alecxs)


Lesenswert?

Cyblord -. schrieb:
> Hast du halt bisher anders behauptet.

Wo? Ich habe nichts dergleichen behauptet. Es ging um 
Entscheidungsfindung abseits neuronaler Netze. Mal schön beim Thema 
bleiben.

von Carypt C. (carypt)


Lesenswert?

Es ist ein moralisches Dilemma, die eigene Existenz erzwingt aus dem 
Bauchgefühl heraus die Kirsche zu verspeisen, erlaubt aber die Kerne 
verteilen. Das kollektive Bewußtsein des Pflanzenreiches, was soll man 
den Pilzen sagen, manche sind voreilig ?
Kann denn eine elektrische Ki sich von der moralischen Last des 
energetischen Fußabdruckes befreien ? alles öko ?

von (prx) A. K. (prx)


Lesenswert?

Cyblord -. schrieb:
> Töten scheint für die meisten Menschen, zu jeder Zeit, kein großes
> Problem zu sein. Was also willst du damit sagen?

Es gibt quer durch die Geschichte Verfahren, wie den Menschen die 
vorhandene Tötungshemmung gezielt abtrainiert wird. Allgemein als Teil 
der Ausbildung von Soldaten und der Sicht auf die Gegner 
("Untermenschen" und so), sowie in Form von Ritualen vor dem Einsatz.

http://www.psychology48.com/deu/d/toetungshemmung/toetungshemmung.htm

: Bearbeitet durch User
von Carypt C. (carypt)


Lesenswert?

Wird die Ki uns dankbar sein, Demut zeigen ? oder sind wir nur 
Konkurrenten ? Spielt die Ki schon mit uns (wahrscheinlich soll ChatGPT 
dies) Ringelreihen um uns im entscheidenden Moment von der Klippe zu 
stürzen ?

: Bearbeitet durch User
von Cyblord -. (cyblord)


Lesenswert?

(prx) A. K. schrieb:
> Es gibt quer durch die Geschichte Verfahren, wie den Menschen die
> vorhandene Tötungshemmung gezielt abtrainiert wird.

Inwiefern widerspricht das meiner Aussage

> Am Ende ist die Tatsache dass man nicht ständig andere Leute umbringt in
> erster Linie ein evolutionär entstandenes Sozialverhalten.:

von Carypt C. (carypt)


Lesenswert?

Man kann zwar die eigene Existenz zum Angelpunkt seiner Moral machen, 
Herrenmenschlich denken, oder aber auch Selbstverzicht üben zum Zwecke 
einer hoffentlich Koexistenz. Es ist eben eine Frage der Bewertung, eben 
um die Anerkennung einer Außer-ich-lichen Wesenhaftigkeit. Alex hatte es 
kurz angerissen. Putin hält nicht viel von anderen Menschen.

von Cyblord -. (cyblord)


Lesenswert?

(prx) A. K. schrieb:
> Es gibt quer durch die Geschichte Verfahren, wie den Menschen die
> vorhandene Tötungshemmung gezielt abtrainiert wird. Allgemein als Teil
> der Ausbildung von Soldaten und der Sicht auf die Gegner
> ("Untermenschen" und so), sowie in Form von Ritualen vor dem Einsatz.

Der völlig unwissenschaftliche Punkt von Alex ist aber dass es eine Art 
Moral geben soll, die unabhängig vom biologischen Gehirn ist wie wir es 
kennen. Das ist der Streitpunkt. Keine Details über angeboren oder 
antrainiert.

von (prx) A. K. (prx)


Lesenswert?

Cyblord -. schrieb:
> Inwiefern widerspricht das meiner Aussage

Nicht jeder, der auf eine Aussage von dir reagiert, widerspricht damit 
einer anderen deiner Aussagen. Bist Du wohl nicht gewohnt. :)

Cyblord -. schrieb:
> Töten scheint für die meisten Menschen, zu jeder Zeit, kein großes
> Problem zu sein. Was also willst du damit sagen?

Ich reagierte darauf, und wies darauf hin, dass es für viele sehr wohl 
ein Problem sein kann, abhängig vom Szenario. Sonst müsste man nicht 
darauf vorbereitet werden.

: Bearbeitet durch User
von Cyblord -. (cyblord)


Lesenswert?

(prx) A. K. schrieb:
> Ich reagierte darauf, und wies darauf hin, dass es für viele sehr wohl
> ein Problem sein kann.

Ja sicher kann es das. Aber wenn man sich die Bilanz des Tötens in der 
Menschheitsgeschichte ansieht, kann man wohl kaum von einer universellen 
Moral gegen das Töten ausgehen.
Töten ging immer.
Und die Frage wann ist es ok (gesellschaftlich) jemanden zu töten 
variierte über die Zeit wohl enorm. Daher ist die Idee einer 
universellen absolute Moral bezüglich des Tötens Humbug.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Cyblord -. schrieb:
> kann man wohl kaum von einer universellen
> Moral gegen das Töten ausgehne.

Doch, das ist recht wahrscheinlich, auch wenn es die Psychologen (siehe 
Link) beim Menschen nicht als klares Faktum beschreiben. Diese Hemmung 
hängt aber völlig vom Szenario ab. Etwa ob du einen Hass aufgebaut hast 
oder dich gegen einen Angriff wehrst. Oder eigentlich keinen 
individuellen Grund hast und dem Anderen vielleicht sogar ins Auge 
schaust.

Der Unterschied zum Wolf ist aber eben, dass diese grundsätzliche 
Hemmung beim Menschen stark durch die Gesellschaft verändert wird.

: Bearbeitet durch User
von Carypt C. (carypt)


Lesenswert?

Mathematik ist nicht angeboren, aber wie die Gesetze der Logik doch in 
sich schlüssig und bedarf einer Lebensberechtigung nicht. ich meine, die 
Gesetze des Denkens können sich davon nicht befreien, es ist halt 
immanent und darauf beruht teilweise das Denken.

Zum Zumsel: da wird die Bauplaninformation halt freiwillig als Angebot 
gereicht, auf die einer Nachfrage maßgeschneiderte Befriedigungsleistung 
zu erzeugen zu warten, ist die Zeit wohl zu knapp. Aber es ist doch 
erstaunlich wie anders diese Art des geschlechtlichen Denkens ist.

überhaupt instinkt ... was geht da ab ?

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Carypt C. schrieb:
> Mathematik ist nicht angeboren

Nur gering: "Ist unser Mathematikverständnis angeboren?"
https://www.derstandard.de/story/3000000183669/ist-unser-mathematikverstaendnis-angeboren

Oder doch irgendwie? "Gene für Mathematik-Talent entdeckt"
https://www.forschung-und-wissen.de/nachrichten/medizin/gene-fuer-mathematik-talent-entdeckt-13377200

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Carypt C. schrieb:
> die Gesetze der Logik doch in sich schlüssig

Ähm - nein. Sind sie genau genommen nicht. Aber das geht dann schon 
etwas tiefer in die Mathmatik, als für den Hausgebrauch nötig. Ausser 
auf Kreta.

: Bearbeitet durch User
von Cyblord -. (cyblord)


Lesenswert?

(prx) A. K. schrieb:
> Carypt C. schrieb:
>> die Gesetze der Logik doch in sich schlüssig
>
> Ähm - nein. Sind sie genau genommen nicht. Aber das geht dann schon
> etwas tiefer in die Mathmatik, als für den Hausgebrauch nötig. Ausser
> auf Kreta.

Richtig. Gödel hat z.B. gezeigt dass dem nicht so ist.

von Alexander (alecxs)


Lesenswert?

Cyblord -. schrieb:
> Der völlig unwissenschaftliche Punkt von Alex ist aber dass es eine Art
> Moral geben soll, die unabhängig vom biologischen Gehirn ist wie wir es
> kennen.

Jo. Nennt sich gesunder Menschenverstand.

Es ist unglaublich traurig wie einige wie der TE zusehends mit KI 
verblöden. Hier hab ich auch grad so einen Kandidaten. Er will nun 
gelöscht werden.

https://xdaforums.com/t/why-is-using-ai-responses-as-a-base-for-posts-here-at-xda-frowned-upon-if-not-totally-unwanted.4697761

von Jens B. (dasjens)


Lesenswert?

Cyblord -. schrieb:
> Johnny B. schrieb:
>> Am offensichtlichsten sieht man es bei Bildgeneratoren, dass die
>> derzeitigen KIs gar nicht verstehen, was sie eigentlich tun. Wenn man
>> ihnen beispielsweise sagt, sie sollen ein Bild von einer menschlichen
>> Hand erstellen und dann kommt ab und zu eine Hand raus mit mehr als 5
>> Fingern oder dass es bei einem Körper am Bauch plötzlich 3 oder noch
>> mehr Bauchnäbel gibt.
>
> Schonmal Bilder gesehen die von Kleinen Kindern gemalt wurden?
>

Die haben aber noch keine Ahnung von nichts.

von Cyblord -. (cyblord)


Lesenswert?

Jens B. schrieb:
> Die haben aber noch keine Ahnung von nichts.

Naja eine KI dürfte immer noch sehr weit hinter dem Entwicklungsstand 
eines Kindes stehen.

Aber trotz allem taugt die Fähigkeit gute Bilder zu malen eben nicht als 
Kriterium für "denken" oder für "Bewusstsein".

Alexander schrieb:
> Jo. Nennt sich gesunder Menschenverstand.

Nö, nennt sich unwissenschaftlicher Eso-Schwachsinn.

: Bearbeitet durch User
von Marci W. (marci_w)


Lesenswert?

Hallo Leute,

ich habe gestern abend mal versucht, mir von ChatGPT erklären zu lassen, 
wie man die ADCs des ESP32 kalibrieren kann. Das war dann wenig 
hilfreich, denn ich musste z.B. chatGPT quasi mit dem Kopf drauf stoßen, 
dass viele ESP die tatsächliche Referenzspannung im internen Speicher 
stehen haben. Selbst als ich das erwähnt habe, wollte ChatGPT noch immer 
den Wert 1100 als Argument verwenden. Ehrlich gesagt, es war ein 
K(r)ampf.
Wollte jetzt aber nicht den ganzen Chatverlauf hier einstellen...

Ich denke, so lange wir uns darüber freuen, wenn ChatGpt einen einfachen 
Spannungsteiler oder passiven RC-Tiefpass berechnen kann, ist es wohl 
noch nicht so weit her mit der KI.

Allerdings, wie ich schon an anderer Stelle schrieb: ich bin 
beeindruckt, wie die Systeme inzwischen Bilder etc. generieren können. 
Vor allem, weil ich von den Algorithmen keine Ahnung habe.

ciao

Marci

von Cyblord -. (cyblord)


Lesenswert?

Marci W. schrieb:
> denn ich musste z.B. chatGPT quasi mit dem Kopf drauf stoßen,
> dass viele ESP die tatsächliche Referenzspannung im internen Speicher
> stehen haben

Die Frage ist ob ChatGPT überhaupt diese spezielle Information über den 
ESP hatte. Bedenke, er kann nicht mal schnell im Datenblatt nachschauen.

Adobe bietet aber z.B. ein KI Interface für PDFs an, darauf 
spezialisiert Fragen aus dem Inhalt einer PDF zu beantworten. Das 
scheint für konkrete Fragen zu speziellen Implementierungsdetails von 
Bausteinen sinnvoller.

: Bearbeitet durch User
von Carypt C. (carypt)


Lesenswert?

Gödel verstehe ich nicht, was sagt er ?  Laut wiki Soähnliches wie : 
wenn man Zahlen und Aussagen über Zahlen durcheinanderbringt, kann man 
Aussagen treffen, wo man dann Selber nicht weiß, ob da was von stimmt. 
Oder wie ? Wenig zielführend.

: Bearbeitet durch User
von Cyblord -. (cyblord)


Lesenswert?

Carypt C. schrieb:
> Gödel verstehe ich nicht, was sagt er

Zitat aus Wiki:

"Er weist nach, dass es in hinreichend starken Systemen, wie der 
Arithmetik, Aussagen geben muss, die man formal weder beweisen noch 
widerlegen kann"

von Georg M. (g_m)


Angehängte Dateien:

Lesenswert?

Solche Matheaufgaben wie auf dem Bild löst die KI augenblicklich, wie 
aus der Pistole geschossen.
Aber kann man eine Textaufgabe so formulieren, dass der Mensch sie 
versteht (eindeutig), die KI aber nicht?

von (prx) A. K. (prx)


Lesenswert?

Carypt C. schrieb:
> Gödel verstehe ich nicht, was sagt er ?

Da es um Logik ging, versuch dich mal am Epimenides:
Ein Kreter sagte, alle Kreter lügen.

https://www.tuwien.at/tu-wien/aktuelles/news/news/dieser-satz-ist-falsch

: Bearbeitet durch User
von Cyblord -. (cyblord)


Lesenswert?

Georg M. schrieb:
> Solche Matheaufgaben wie auf dem Bild löst die KI augenblicklich, wie
> aus der Pistole geschossen.

Was ich eben schon beeindruckend finde.

> Aber kann man eine Textaufgabe so formulieren, dass der Mensch sie
> versteht (eindeutig), die KI aber nicht?

Für die Lösung notwendige Referenzen auf Fakten die er nicht kennt.

von Michael K. (aemkai)


Lesenswert?

Cyblord -. schrieb:
> Grade kurz ChatGPT für eine einfache Rechnung benutzt. IMO viel
> schneller als das selbst zu rechnen oder lange zu suchen.

Und wie lang hast du den Prompt optimiert? Nachdem ich ChatGPT mit drei 
Konkretisierungen zum Wunschergebnis geschoben habe ("kombiniere die 
Formeln und gib sie als C-Code aus"), kam folgendes Ergebnis:
1
#include <stdio.h>
2
3
#define VDD 5.0 // Spannung an R1 in Volt
4
#define R1 10000.0 // Widerstand R1 in Ohm
5
#define R2 20000.0 // Widerstand R2 in Ohm
6
#define V_REF 3.3 // Referenzspannung des ADC in Volt
7
#define ADC_MAX 4095.0 // Maximaler ADC-Wert f¨ur 12 Bit
8
9
// Funktion zur Berechnung der Signalspannung aus dem ADC-Wert
10
float calculateSignalVoltage(int adcValue) {
11
// Berechnung der Spannungsteiler-Ausgangsspannung
12
float V_out = VDD * (R2 / (R1 + R2));
13
14
// Berechnung der Signalspannung aus dem ADC-Wert
15
float signalVoltage = (adcValue / ADC_MAX) * V_REF;
16
17
// Wenn V_out größer ist als V_ref, wird signalVoltage auf V_ref gesetzt
18
if (signalVoltage > V_out) {
19
signalVoltage = V_out;
20
}
21
22
return signalVoltage;
23
}
24
25
int main() {
26
int adcValue;
27
28
// Beispiel: ADC-Wert eingeben
29
printf("Geben Sie den ADC-Wert (0-4095) ein: ");
30
scanf("%d", &adcValue);
31
32
// Validierung des ADC-Werts
33
if (adcValue < 0 || adcValue > 4095) {
34
printf("Ungültiger ADC-Wert. Bitte einen Wert zwischen 0 und 4095 eingeben.\n");
35
return 1;
36
}
37
38
float voltage = calculateSignalVoltage(adcValue);
39
printf("Die Signalspannung betr¨agt: %.2f V\n", voltage);
40
41
return 0;
42
}

Kurz und prägnant :-)

von Cyblord -. (cyblord)


Lesenswert?

Michael K. schrieb:
> Und wie lang hast du den Prompt optimiert?

Gar nicht.

von Norbert (der_norbert)


Lesenswert?

Michael K. schrieb:
> #define ADC_MAX 4095.0 // Maximaler ADC-Wert f¨ur 12 Bit
> float signalVoltage = (adcValue / ADC_MAX) * V_REF;

Na na, da liegen dann alle die's richtig machen, wohl falsch.
Schöne neue Welt.

von Michael K. (aemkai)


Lesenswert?

Cyblord -. schrieb:
> Michael K. schrieb:
>> Und wie lang hast du den Prompt optimiert?
> Gar nicht.

Also Glückstreffer. Ich habe jetzt 10x exakt den von dir zitierten 
Prompt eingespeist. Hier die Ergebisse:
1
1)            n * 3300  
2
 V_out_mV = [ --------- ]
3
                65535
4
5
2) Vin(mV) = 0,075 * ADC_wert
6
7
3)           ADC_Wert * 4950
8
 Vin(mV) =  -----------------
9
                 65535
10
    
11
4) Vin(mV) = ADC_value x 37.686    
12
13
5)          ADC_Wert × 4950
14
 U_in,mV =  ---------------
15
                65535
16
           
17
6)  Vin(mV) ≈ ADC_Wert * 0,150
18
19
7)            9,9 * 1000
20
 Vin(mV) =  ------------ * ADC_Wert ≈ 0,0755 * ADC_Wert
21
               131070
22
23
8)          ADC_raw * 3300
24
 Vout(mV) = ---------------
25
                65535
26
27
9)              ADC_Wert×4950
28
 Veingang_mV = ---------------
29
                    65535
30
31
32
10)         ADC_value * 3.3 * 1500
33
 U_in_mV = ------------------------- 
34
                   65535

In zehn Versuchen vier verschiedene Antworten ...

: Bearbeitet durch User
Beitrag #7755523 wurde vom Autor gelöscht.
von Lothar M. (Firma: Titel) (lkmiller) (Moderator) Benutzerseite


Lesenswert?

Michael K. schrieb:
> Kurz und prägnant :-)
Frag da nochmal nach, ob die 4095.0 schon richtig sind, oder ob das 
nicht eher 4096.0 sein müssen.

Michael K. schrieb:
> Also Glückstreffer.
Knapp daneben ist aber auch vorbei.

> Hier die Ergebisse:
Leider alle falsch.
Und das einzige Ergebnis, wo ich für diese Aussage nachschauen musste, 
war das mit den /131070 aus dem
Beitrag "Re: ChatGPT und Spannungsteiler."

Alle anderen Ergebnisse habe ich gleich an den /65535 als fehlerhaft 
erkannt.

von Norbert (der_norbert)


Lesenswert?

Lothar M. schrieb:
> Und das einzige Ergebnis, wo ich für diese Aussage nachschauen musste,
> war das mit den /131070 aus dem

Wobei auch das ja nur dividiert durch ›zweimal falsch‹ darstellt.

Aber wir wollen nicht klagen, heutzutage ist es eben viel wichtiger dass 
etwas irgendwie nett ausschaut.

von Carypt C. (carypt)


Lesenswert?

Zu Gödel : Wenn ich ein DaDa-Gedicht in Mathe baue, kann das unbeweisbar 
sein. Na und ? Was ist daran unlogisch ?
ich habe ja schon öfter Gödel zu verstehen versucht, es ist mir aber 
meist zu abstrakt, und dann weiß ich gar nichts. ich sag mal, es ist 
vielleicht richtiger nichts zu verstehen. Das ist natürlich haltlose 
Sophistik und tendenziös.

Aber die Ki macht ja auch dauernd DaDa, erzeugt viele zufällige 
Representationen in Gleichungsystemen und wählt nachher Diejenigen aus, 
die zufälligerweise sinnvoll erscheinen.

: Bearbeitet durch User
von Cyblord -. (cyblord)


Lesenswert?

Carypt C. schrieb:
> Zu Gödel : Wenn ich ein DaDa-Gedicht in Mathe baue, kann das unbeweisbar
> sein. Na und ? Was ist daran unlogisch ?

Sei mir nicht böse, aber ich denke du bist die völlig falsche Person um 
über Logik oder Gödel zu reden. Da fehlen dir fachlich ein paar Level.
Dazu kommt das Plenken.

von Michael K. (aemkai)


Lesenswert?

Lothar M. schrieb:
> Michael K. schrieb:
>> Kurz und prägnant :-)
> Frag da nochmal nach, ob die 4095.0 schon richtig sind, oder ob das
> nicht eher 4096.0 sein müssen.

Ich werde sicher nicht mit einer KI über Anwendungsfälle des 
Off-By-One-Fehlers diskutieren (auch wenn das "I" in KI dazu verleiten 
könnte).

Mei nBeispiel sollte nur zeigen, dass "KI" letztendlich nur Stochastik 
ist.
Und dann ist es wie im echten Leben: Wenn die Antwort lautet: "Das 
Ergebnis ist wahrscheinlich ...", da kann man schon aufhören 
mitzuschreiben.

Norbert schrieb:
> Aber wir wollen nicht klagen, heutzutage ist es eben viel wichtiger dass
> etwas irgendwie nett ausschaut.
Nicht erst heute, denn Kleider machen Leute.

: Bearbeitet durch User
von Michael (Firma: HW Entwicklung) (mkn)


Lesenswert?

Georg M. schrieb:
> kann man eine Textaufgabe so formulieren, dass der Mensch sie
> versteht (eindeutig), die KI aber nicht?
Ja kann man.
Indem man z.B. unnötige Informationen einstreut die ein echtes Verstehen 
erfordern oder Informationen auf eine Art gibt die sich erst durch 
Verstehen erschließen.

Solche Tests werden reichlich gemacht und manchmal haben die 
verblüffende Ergebnisse.
Da liefert dann die KI Ergebnisse zu denen sie eigentlich nicht in der 
Lage sein sollte.
Wird aber mit so stark kastrierten Chatbots wie den öffentlich 
zugänglichen KIs kaum passieren.

Ich denke die Fähigkeit der Menschen sich klar und strukturiert 
auszudrücken, Anfragen klar zu formulieren und fremde Sprachen zu 
lernen, wird im gleichen Maße degradieren wie KI ihren in dieses Punkten 
hilft.

Das Gehirn leistet nur das was es muss und was trainiert wird.
Und da bei uns eine Generation reicht um sämtliche Errungenschaften der 
Menschheit zu vergessen, wird KI uns fast zwangsläufig überholen.
Dazu muss die garnicht Einstein 2.0 werden.

von (prx) A. K. (prx)


Lesenswert?

Carypt C. schrieb:
> ich habe ja schon öfter Gödel zu verstehen versucht, es ist mir aber
> meist zu abstrakt, und dann weiß ich gar nichts.

Um damit umgehen zu können, muss man Gödels Mathematik nicht 
nachvollziehen können. Ist mir auch zu hoch.

Als studierter Informatiker ist man etwas im Vorteil. Weil man darin 
nicht um das Halteproblem (der Turingmaschine) herum kommt. Das ist auch 
nur ein Beispiel dafür.

Aber Epimenides (der Kreter) ist doch einfach und wenig abstrakt. Eine 
Aussage, die sich im Bereich der Aussagenlogik bewegt, der aber mit 
dieser Logik nicht beizukommen ist. Gödel Satz ist ein paar Nummern 
abstrakter und allgemeiner, es ist jedoch das gleiche Grundprinzip.

: Bearbeitet durch User
von Marci W. (marci_w)


Lesenswert?

Hallo Cyblord,

Cyblord -. schrieb:
> Die Frage ist ob ChatGPT überhaupt diese spezielle Information über den
> ESP hatte. Bedenke, er kann nicht mal schnell im Datenblatt nachschauen.

Da hast Du Recht. Allerdings, nachdem ich ihm gesagt hatte, dass es da 
einen internen Wert gibt mit der tatsächlichen Spannung, hatte er die 
auch verwendet. Aber ganz ehrlich: ich habe noch nicht geprüft, ob die 
Antwort korrekt war.

>
> Adobe bietet aber z.B. ein KI Interface für PDFs an, darauf
> spezialisiert Fragen aus dem Inhalt einer PDF zu beantworten.

Danke für den Tipp! Link? Oder bei adobe.com vorbei schauen?

ciao

Marci

von Alexander (alecxs)


Lesenswert?

Michael schrieb:
> Ich denke die Fähigkeit der Menschen sich klar und strukturiert
> auszudrücken, Anfragen klar zu formulieren und fremde Sprachen zu
> lernen, wird im gleichen Maße degradieren wie KI ihren in dieses Punkten
> hilft.

Und, findest Du das gut? Was tun wir dagegen, wie halten wir das auf?

von Cyblord -. (cyblord)


Lesenswert?

Alexander schrieb:
> Und, findest Du das gut? Was tun wir dagegen, wie halten wir das auf?

Bleiben sie dran für: "Alex gegen die KI".

von Al. K. (alterknacker)


Lesenswert?

Cyblord -. schrieb:
> Bleiben sie dran für: "Alex gegen die KI".

Bleiben wir dran, wie wird die KI genutzt,
das sieht man sogar schon hier im Forum.

MfG
alterknacker

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Ein T. schrieb:
> Im Python-Forum? :-)

Um die Lösung zu finden mußt Du gendern. ;o)
(Im Forum der MikroConTrollenden.)

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Monk schrieb:
> Wer ist eigentlich verantwortlich für das Fehlverhalten seiner KI Produkte?

Der Hersteller, der Trainer und der, der die fehlleitenden Lernbeispiele 
ins Internet gestellt hat. Das ist doch klar. Daher muss die Hutschnur 
hochgehen, wenn da ein Späßle gepostet werden sollte, wo die 
Interferenzen auf daraus lernende KIs unabsehbar sind. ;o)

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Alexander schrieb:
> Und, findest Du das gut? Was tun wir dagegen, wie halten wir das auf?

Gar nicht, weil der eingebildete Mensch nicht das Ende der Schoepfung 
und auch der Evolution sein wird.

von Alexander (alecxs)


Lesenswert?

Ich glaube nicht an KI. Ich sehe es ähnlich wie Lesch mit seiner 
Radosophie an einem holländischen Damenrad, oder Watzlawik in einem 
Vortrag über radikalen Konstruktivismus: Der Mensch staunt über das 
Wunder der Mathematik die er selbst erschaffen hat. (oder so ähnlich, 
weiß nicht mehr wo ich das gehört habe)

Ich sehe hier Opfer die ein paar Algorithmen eine überhöhte Bedeutung 
beimessen, es wird mal wieder naiv einem Hype nachgerannt. Eine KI sehe 
ich hier nicht, nur eine Verblödung der Menschheit.

Passend dazu ein völlig verblödeter Titel in guter Springer Manier.

https://www.spektrum.de/kolumne/springers-einwuerfe-auch-die-forschung-muss-lernen-ki-zu-misstrauen/2224722

von Michael (Firma: HW Entwicklung) (mkn)


Lesenswert?

Alexander schrieb:
> Und, findest Du das gut? Was tun wir dagegen, wie halten wir das auf?

Alex, Du bist doch nach meiner Wahrnehmung bereits längst an einem Punkt 
an dem Logig und Wissenschaft nur noch eine sehr lockere Verbindung zu 
Deinen Schlussfolgerungen hat.

WIR halten hier garantiert nichts auf.
ICH halte die menschliche Spezies für nicht in der Lage sich aus dem 
Sumpf der evolutionären Begrenzung zu erheben.
Wir haben als Spezies herausragende Denker hervorgebracht, die sich 
einen kurzen Moment in ihrer Existenz zu geistigen Höhenflügen erheben, 
das Wissen der Menschheit mehren und das Staffelholz an die nächste 
Generation weitergeben, die sich dann die Hälfte Ihrer Karriere mit dem 
vergreisenden Genie von gestern herumärgert.
Wir haben Jahrtausende gebraucht, um Ernährung, Hygiene und Medizin so 
weit zu entwickeln das wir uns wie Krebs über diesen Planet ausbreiten 
konnten und in völlig planloser und maßloser vermehrung alles zu 
verzehren und uns selbst an den Rand der Auslöschung zu treiben.
Die Dinos braucht einen Kometen zum Aussterben, wir brauchten nur 300J 
von der industriellen Revolution bis heute.

Also biologische Spezies sind wir Opfer der blinden Evolution und 
gebunden an die Begrenzungen die tief in unserem Design verankert sind.
Wild kopulierende Affen die alles fressen was sie finden können und 
jeden totschlagen der in ihr Revier eindringt.
Jetzt eben mit high tech Spielzeug und schicken Klamotten.

Also entweder sind wir bereit unseren Code von Grund auf zu überarbeiten 
und etwas völlig anderes zu werden, oder wir geben über kurz oder lang 
als Spezies den Löffel ab.

Gesellschaftlich haben wir längst unseren Zenit überschritten.
Wir haben das Ernährungsproblem gelöst und fressen uns jetzt zu tode.
Statt Laufen der E-Scooter, statt Fahradfahren das E-Bike, statt Treppe 
der Fahrstuhl, also völlige Degeneration unserer Muskelmasse und in der 
Folge ein bunter Strauss an Erkrankungen.

Unter 20J zu hormongesteuert um klar zu denken, über 30J kaum noch zu 
gedanklichen Höchstleistungen in der Lage.
Dazwischen mehr mit fressen, kacken, ficken, schlafen beschäftigt als 
mit tiefsinnigen Gedanken, auf die wir so stolz sind.

Wir sind dermaßen fett und Faul geworden, das es einem Großteil der 
Bevölkerung nicht mal mehr zuzumuten ist einfachste Arbeiten anzunehmen.
Es fehlen keine Atomwissenschaftler.
Es fehlen Servicekräfte, LKW Fahrer, Schlosser oder schlichtweg jemand 
der nicht gleich ins Koma fällt wenn er pünklich um 8Uhr für 4Std am 
Stück arbeitsfähig sein muss.
Wir wissen nicht mehr, wir fragen Google.

Jetzt nehmen uns KIs das denken ab.
Nun rate mal was passieren wird.

Google, FB, YT und Co. haben 70% der Horde schon zu brabelnden, 
arbeitsscheuen Idioten gemacht.
KI wird gerade mal eine Rumpfbesetzung an menschlichen techniker 
übriglassen die sich um das kümmert was KI noch nicht kann.

Auch das nur eine Übergangsphase, bis der Planet aufgrund kosmischer 
Ereignisse zu lebensfeindlich geworden ist.
Also spätestens dann.

Derzeit tun wir ja das was wir immer tun wenn die Rohstoffe die wir für 
unseren Luxus brauchen knapp werden.
Wir rüsten zum Krieg, erklären den den wir berauben wollen zum 
Untermenschen, denn auf Monster schiesst es sich leichter.
Nicht mal in dem Punkt können wir evolutionäre Schranken überwinden.
Das was uns davon abhält jeden der uns nicht passt abzumurksen, muss 
durch ein Dämonisierungsritual und enthemmendes Kampftrainig mühseelig 
überwunden werden, damit wir auf jemanden schiessen können, dessen Land, 
Rohstoffe und Produktionskapazitäten wir brauchen um so weitermachen zu 
können wie bisher.
Eine KI würde die logische Notwendigkeit erkennen entweder ihren Bedarf 
zu reduzieren oder Konkurrenz zu eliminieren und würde das effizient 
durchziehen ohne dieses Schmierentheater, erst eine ganze Gesellschaft 
auf Notlage, Bedrohung und Kampfeswillen einschwören zu müssen, gegen 
einen dämonischen Agressor der aus purer Boshaftigkeit die wahrhaft 
Guten vernichten will.

Warten wir also WW3 ab, an dem gerade weltweit kräftig gearbeitet wird 
und schauen mal was dann überhaupt noch von uns übrig ist.
Wie es aussieht ist ja keiner mehr von Format und Weitsicht übrig der es 
in höchste Ämter geschafft hätte, also sehe ich kaum noch Hoffnung die 
sich lange aufgestauten Spannungen noch friedlich abzubauen.

Das mal zu der gottgegebenen Überlegenheit der menschlichen Spezies.
Wenn eine meiner Entwicklungen sich als dermaßen destruktiv erweisen 
würde, wäre ich meinen Job los, im Knast und müsste mich fragen ob ich 
als Gärtner nicht weniger Schaden anrichten würde.
Niemand würde mir Kirchen bauen, mich als Erlöser feiern und in meinem 
Namen seinen Nachbarn massakrieren.

von Alexander (alecxs)


Lesenswert?

Michael schrieb:
> Also entweder sind wir bereit unseren Code von Grund auf zu überarbeiten
> und etwas völlig anderes zu werden, oder wir geben über kurz oder lang
> als Spezies den Löffel ab.

Du magst es kaum glauben, aber es gibt kleine Grüppchen von Menschen die 
versuchen genau das. Von denen hört man natürlich nichts, weil die 
versuchen ohne die Menschheit klarzukommen. Freilich ist dieser 
Lebensstil nicht massentauglich und unsereins zu bequem dafür.

Michael schrieb:
> Wir haben das Ernährungsproblem gelöst und fressen uns jetzt zu tode.

Oh oh oh, da haben wir vor lauter Überfluss vergessen über den 
Tellerrand zu schauen. Wenn der Kapitalismus eins nicht lösen konnte 
dann sind das Hungersnöte.

: Bearbeitet durch User
von Le X. (lex_91)


Lesenswert?

Alexander schrieb:
> Oh oh oh, da haben wir vor lauter Überfluss vergessen über den
> Tellerrand zu schauen. Wenn der Kapitalismus eins nicht lösen konnte
> dann sind das Hungersnöte.

In kapitalistischen Gesellschaften gibt es keine Hungersnöte. Es gibt 
Einzelfälle wo Geld (und Essen) knapp ist, aber dafür haben die meisten 
Staaten und Gesellschaften Untersützung in Form von Geld- und 
Sachbezügen implementiert.

Hungersnöte gibt es in Gegenden wo sich weder Kapitalismus noch soziale 
Stützsysteme etablieren konnten. Meist ist das dort der Fall wo sich die 
Leute lieber die Schädel einschlagen.

von Al. K. (alterknacker)


Lesenswert?

Alexander schrieb:
> Oh oh oh, da haben wir vor lauter Überfluss vergessen über den
> Tellerrand zu schauen. Wenn der Kapitalismus eins nicht lösen konnte
> dann sind das Hungersnöte.


Es ist aber sehr unmoralisch das als eines der wenigen Mittel zur 
Mengenbegrenzung der Menschheit zu sehen.

Michael schrieb:
> Warten wir also WW3 ab,

Das wird die Zahl auf das richtige Maß reduzieren.


Vielleicht erlebe ich es noch, denn es ist in greifbarer Nähe,leider.

MfG
alterknacker

von Alexander (alecxs)


Lesenswert?

Le X. schrieb:
> Hungersnöte gibt es in Gegenden wo sich weder Kapitalismus noch soziale
> Stützsysteme etablieren konnten. Meist ist das dort der Fall wo sich die
> Leute lieber die Schädel einschlagen.

Wie war das mit dem Tellerrand? Unser Wohlstand basiert auf der 
Ausbeutung von Entwicklungsländern - wir sind direkt dafür 
verantwortlich dass Leute "sich den Schädel einschlagen"

https://www.youtube.com/watch?v=jeyvrxALwrQ

von (prx) A. K. (prx)


Lesenswert?

Le X. schrieb:
> Hungersnöte gibt es in Gegenden wo sich weder Kapitalismus noch soziale
> Stützsysteme etablieren konnten. Meist ist das dort der Fall wo sich die
> Leute lieber die Schädel einschlagen.

Auch kapitalistische Gesellschaften pflegen sich ab und zu die Schädel 
einzuschlagen. Nicht selten mit Hunger als Folge.

von Georg M. (g_m)


Lesenswert?

Dies ist kein Forum für allgemeine gesellschaftliche und politische 
Diskussionen.

https://www.mikrocontroller.net/articles/Hilfe:Forum_Nutzungsbedingungen


Verstanden?!!

von Le X. (lex_91)


Lesenswert?

Alexander schrieb:
> Wie war das mit dem Tellerrand? Unser Wohlstand basiert auf der
> Ausbeutung von Entwicklungsländern - wir sind direkt dafür
> verantwortlich dass Leute "sich den Schädel einschlagen"

Es geht hier aber nicht um Wohlstand im Sinne von "jedes Jahr das neuste 
iPhone" sondern um Hungersnöte, also Wohlstand im Sinne von "genug zu 
Essen haben".

Und keine Gesellschaft müsste heute mehr Hungern, egal wie viel oder 
wenig wohlhabend sie ist.
Energie in Form von Zucker und Fett ist heutzutage so spottbillig (auch 
dank dem Kapitalismus) dass wir heute sogar eher das umgekehrte Problem 
haben: ärmere Gesellschaften leiden stärker unter Übergewicht und 
Zivilisationskrankheiten weil sie nicht zu wenig sondern das falsche zu 
sich nehmen.

von Le X. (lex_91)


Lesenswert?

(prx) A. K. schrieb:
> Auch kapitalistische Gesellschaften pflegen sich ab und zu die Schädel
> einzuschlagen. Nicht selten mit Hunger als Folge.

Ja, natürlich tun sie das auch.
Aber sie tun dies aufgrund wirtschaftlicher Verflechtungen seltener. Und 
würden das noch seltener tun wenn man sie im Vorfeld ausreichend 
glaubwürdig auf die Konsequenzen ihres Handelns hinweist.

Aber ja, manchmal hat man Pech und ein großer Nachbar will einen zurück 
ins Reich holen.

von Alexander (alecxs)


Lesenswert?

Klaus schrieb:
> Ich vermute, vor 50 Jahren hieß es über den Taschenrechner:
> Den benutzt man nicht, weil man immer mehr verblödet und irgendwann
> nicht einmal mehr eine schriftliche Multiplikation hinbekommt.

Ich hatte neulich eine Kassiererin die wollte es partout nicht verstehen 
das ich zum Pfandbon noch 30 Cent dazu gegeben habe. Sie beharrte so 
lange darauf das ginge nicht, bis jemand hinter mir an der Kasse die 
Nerven verlor, das Pfandgeld von 9,70 € und die 30 Cent von mir annahm 
und mir den 10 € Schein gab den ich haben wollte. Selbst dann schüttelte 
die Kassiererin noch ungläubig den Kopf und entschuldigte sich bei den 
weiteren Kunden für meine Penetranz. Ich glaube ihr hätte auch kein 
Taschenrechner mehr geholfen.

von Frank M. (ukw) (Moderator) Benutzerseite


Lesenswert?

Da das Thema mittlerweile so weit abgedriftet ist, mache ich hier mal 
zu.

Dieser Beitrag ist gesperrt und kann nicht beantwortet werden.