Grade kurz ChatGPT für eine einfache Rechnung benutzt. IMO viel
schneller als das selbst zu rechnen oder lange zu suchen.
Das war meine Eingabe:
"Ich habe ein Eingangsspannung zwischen 0V und 5V über einen
Spannungsteiler an einen ADC angeschlossen. Der Spannungsteiler ist ein
10k/20k.
Der ADC hat eine Referenzspannung von 3,3V und 16 Bit Auflösung.
Ich möchte eine ganzzahlige Formel um aus dem ADC Wert die Spannung in
mV zu bekommen."
Ergebnis nach detailliertem Rechenweg:
Vin (in mV) = (ADC x 9000) / 13107.
Passt. Das kann ich nun so in den Code übernehmen.
Natürlich kann man das selbst ausrechnen. Es gibt sicher auch eine
fertige Formel dafür. Ich hatte mal so eine Formel in Wolfram Alpha.
Müsste ich aber erst raussuchen.
Aber dieser Weg ist sehr schnell.
Ich bin mal wieder beeindruckt von ChatGPT.
Man beachte auch dass er die etwas saloppe Angabe des Spannungsteilers
korrekt erfasst hat.
Cyblord -. schrieb:> Ich bin mal wieder beeindruckt von ChatGPT.
Zum spielen vielleicht schön. Ich benutze aber lieber meinen Grips und
einen Taschenrechner.
Jörg R. schrieb:> Cyblord -. schrieb:>> Ich bin mal wieder beeindruckt von ChatGPT.>> Zum spielen vielleicht schön. Ich benutze aber lieber meinen Grips und> einen Taschenrechner.
Wieso spielen? Es handelt sich um eine echte praktische Aufgabe. Warum
ist es besser das selbst zu machen? Wie lange würdest du brauchen?
Man könnte ja auch den Taschenrechner hinterfragen. Warum nicht Grips
und Abakus?
Cyblord -. schrieb:> Jörg R. schrieb:>> Cyblord -. schrieb:>>> Ich bin mal wieder beeindruckt von ChatGPT.>>>> Zum spielen vielleicht schön. Ich benutze aber lieber meinen Grips und>> einen Taschenrechner.>> Wieso spielen? Es handelt sich um eine echte praktische Aufgabe. Warum> ist es besser das selbst zu machen?> Man könnte ja auch den Taschenrechner hinterfragen. Warum nicht Grips> und Abakus?
Weil man immer mehr verblödet und irgendwann nicht einmal mehr einen
Vorwiderstand für eine LED ohne Hilfe hinbekommt. Man liest doch selbst
hier im Forum oft genug an welch einfachen Aufgaben User mittlerweile
scheitern.
> Wie lange würdest du brauchen?
Zeit spielt bei mir eine sehr untergeordnete Rolle:-)
Ich verstehe aber schon die Faszination für ChatGPT und KI, gebe auch zu
mich damit noch überhaupt nicht auseinander gesetzt zu haben.
Jörg R. schrieb:> Ich verstehe aber schon die Faszination für ChatGPT und KI, gebe auch zu> mich damit noch überhaupt nicht auseinander gesetzt zu haben.
Teste es einfach mal.
Beeindruckend finde ich auch die Bildererkennung. Du kannst ChatGPT
Bilder hochladen. Der kann dir nicht nur den Inhalt korrekt beschreiben,
sondern dir auch von Comics (z.B. von XKCD) den Witz erklären.
Eventuell beeindruckt mich das am meisten.
Beispiel: Ein berühmtes XKCD Comic. Siehe Anhang.
ChatGPT:
----
Der Humor des Comics beruht auf mehreren Elementen:
Richard Stallman wird als eine übermäßig dramatische und fast schon
kriegerische Figur dargestellt, die bereit ist, für freie Software zu
kämpfen, während seine Gegner ihn gar nicht mehr ernst nehmen und
bereits planen, andere prominente Persönlichkeiten der
Open-Source-Community anzugreifen (Eric S. Raymond und Linus Torvalds).
Die Absurdität, dass die Gegner "Microsoft-Schergen" genannt werden und
sich dann sofort davonmachen, unterstreicht die Ironie der Szene. Die
Anspielung auf Linus Torvalds, den Entwickler von Linux, und seine
"Nunchucks" verstärkt den humorvollen Charakter durch eine überzogene
Darstellung dieser Persönlichkeiten.
Der Comic spielt also mit den überhöhten Darstellungen und dem
dramatischen Ton, um den Kampf zwischen proprietärer Software
(repräsentiert durch Microsoft) und freier Software humorvoll zu
kommentieren.
----
Ich finde das ist gut erklärt. Und das ganze liegt ja nicht in Text vor,
die Eingabe ist ein Bild.
Cyblord -. schrieb:> Jörg R. schrieb:>> Ich verstehe aber schon die Faszination für ChatGPT und KI, gebe auch zu>> mich damit noch überhaupt nicht auseinander gesetzt zu haben.>> Teste es einfach mal.
Irgendwann mal, vielleicht..
Cyblord -. schrieb:> Ich finde das ist gut erklärt. Und das ganze liegt ja nicht in Text vor,> die Eingabe ist ein Bild.
Du hast schon verstanden, wie LLMs funktionieren?
ciao
Marci
Cyblord -. schrieb:> Ergebnis nach detailliertem Rechenweg:>> Vin (in mV) = (ADC x 9000) / 13107.
Hmm, da hat die KI wohl kläglich versagt.
> Passt. Das kann ich nun so in den Code übernehmen.
Und die NI ebenso.
Ok. Du hast also 5V und einen Spannungsteiler 10k/20k, 20k unten, 10k
oben, oder?
Dann hast Du bei 5V eine Spannung von 3.333V. Schon mal mehr als die
Referenzspannung.
Den vollen ADC Wert hast Du deshalb bereits bei 4.950V.
So ich rechne jetzt mal ohne KI, sondern mit meinen Neuronen, was denn
bei maximalen ADC Wert 0xFFFF als Spannung berechnet wird. Sind es die
4.95V?
1
Vin(inmV)=(ADCx9000)/13107.
2
Vin(inmV)=(65535x9000)/13107=45000=45V!
Puh! Zum Glück noch Schutzkleinspannung.
So geht es: Spannungsteiler 10k/20k = Faktor 1.5
> "Ich habe ein Eingangsspannung zwischen 0V und 5V über einen> Spannungsteiler an einen ADC angeschlossen. Der Spannungsteiler ist ein> 10k/20k.> Der ADC hat eine Referenzspannung von 3,3V und 16 Bit Auflösung.> Ergebnis nach detailliertem Rechenweg:>> Vin (in mV) = (ADC x 9000) / 13107.>> Passt. Das kann ich nun so in den Code übernehmen.
Um Überläufe scheint sich auch keiner zu scheren, da wird nur ganz in
Dunning-Kruger-Effelt-Manier von "Passt" getrötet.
https://www.profil.at/meinung/dunning-und-kruger-digital/402925834
Naja kein Wunder das die Flugzeuge und Raketen wegen Softwareproblemen
vom Himmel fallen.
> Ich bin mal wieder beeindruckt von ChatGPT.
Ja insbesonders da die Plausibilitätsprüfung der Eingangswerte komplett
fehlt. Hier bei der Referenzsspannung, die hat der TO wahrscheinlich mit
der Betriebsspannung verwechselt.
> Man beachte auch dass er die etwas saloppe Angabe des Spannungsteilers> korrekt erfasst hat.
Hat er nicht, Toleranzrechnung fehlt komplett.
Wort zum Tage:
1
"Kompetenz in künstlicher Intelligenz ist Mangelware. Deshalb hat die Technologie auch so viele begeisterte Fans."
Du kannst eine Schraube mit einem Schraubenzieher oder mit einem
Akkuschrauber in das Brett schrauben. Jeder wird hier wohl das "bessere"
Werkzeug verwenden. Bei Fehlbedienung muss man aber mit den Konsequenzen
leben...
ChatGPT ist in manchen Bereichen gut. Bei der Programmierung kann (!)
er/es nützlich sein, ein Grundgerät von einer Funktion/Algorithmus zu
erstellen.
Dennoch muss man das Ergebnis verstehen und validieren.
Bei uns in der Arbeit gilt deshalb die Regel: Wer KI Code ungeprüft
übernimmt, stirbt.
Die Validierung dauert. Aber man ist trotzdem oft schneller, als sich 5
Papers über irgendwelche Algorithmen durchzulesen.
Jörg R. schrieb:> Weil man immer mehr verblödet und irgendwann nicht einmal mehr einen> Vorwiderstand für eine LED ohne Hilfe hinbekommt.
Ich vermute, vor 50 Jahren hieß es über den Taschenrechner:
Den benutzt man nicht, weil man immer mehr verblödet und irgendwann
nicht einmal mehr eine schriftliche Multiplikation hinbekommt.
Da ist ja auch was dran, zumindest ich würde einige Zeit brauchen,
schriftlich zu dividieren.
Aber damit komme ich gut klar.
>> Weil man immer mehr verblödet und irgendwann nicht einmal mehr einen>> Vorwiderstand für eine LED ohne Hilfe hinbekommt.>> Ich vermute, vor 50 Jahren hieß es über den Taschenrechner:> Den benutzt man nicht, weil man immer mehr verblödet und irgendwann> nicht einmal mehr eine schriftliche Multiplikation hinbekommt.
Nee, vor fünfzig Jahren hieß es, ein Taschenrechner ist zu teuer ist und
die Alternative dazu waren Rechenstab und Multiplikationstafel und die
Erkenntnis, das ein Ergebniss nicht genauer als die Eingangswerte sein
kann.
Die typische Genauigkeit für die Messung elektrischer Größen war damals
1% ... 5%.
und die ersten bezahlbaren Taschenrechner (1974) hatten auch so ihre
Probleme mit (Rundungs-)Ungenauigkeiten:
http://files.righto.com/calculator/sinclair_scientific_simulator.html
Cyblord -. schrieb:> IMO viel schneller als das selbst zu rechnen oder lange zu suchen.
Das kommt drauf an, wie die eigenen Kompetenzen gelagert sind.
> Passt. Das kann ich nun so in den Code übernehmen.
Passt - zumindest zur (inkompetent) gestellten Frage. Normalerweise
würde man im Nenner eine Zweierpotenzial bevorzugen.
Rainer W. schrieb:> Cyblord -. schrieb:>> IMO viel schneller als das selbst zu rechnen oder lange zu suchen.>> Das kommt drauf an, wie die eigenen Kompetenzen gelagert sind.>> Passt. Das kann ich nun so in den Code übernehmen.>> Passt - zumindest zur (inkompetent) gestellten Frage. Normalerweise> würde man im Nenner eine Zweierpotenzial bevorzugen.
Und einen Hinweis darauf, dass für den Spannungsteil Werte aus einer
E-Reihe zu bevorzugen sind, wenn hinterher sowieso gerechnet wird, hätte
ich auch erwartet.
Cyblord -. schrieb:> Grade kurz ChatGPT für eine einfache Rechnung benutzt. IMO viel> schneller als das selbst zu rechnen oder lange zu suchen.>
Zuviel eigenes Wissen ist sicher ungesund für die Hirnzellen.
> Das war meine Eingabe:>
.....
>> Ich bin mal wieder beeindruckt von ChatGPT.>> Man beachte auch dass er die etwas saloppe Angabe des Spannungsteilers> korrekt erfasst hat.
Woher willst Du wissen, daß es Korrekt ist, wenn Du zu faul zum selber
rechnen bist?
Cyblord -. schrieb:> Ergebnis nach detailliertem Rechenweg:> Vin (in mV) = (ADC x 9000) / 13107.
Bei mir kommt bei exakt der selben Frage ganz was anderes raus:
1
def adc_to_mv(adc_value):
2
return (adc_value * 9900) // 131070
Blöd jetzt aber auch...
Und auch wenn die Berechnung "fast schon" das richtige Ergebnis bringt,
ist sie grundlegend falsch, weil in den Rechenschritten der Faktor 65535
und eben nicht 65536 verwendet wird.
Papa Q. schrieb:> Daraus folgt:> Vin (in mV) = ADC * 2475 / 32768;> Das ist um 900% genauer, und schneller, weil Division durch 2^n
Genau so geht das. Man könnte sogar noch
ADC * 4950 / 65536
machen, weil dann gar nichts geshiftet werden muss, sondern es reicht
aus, einfach nur das obere 16-Bit-Wort des 32-Bit Integers
weiterzuverwenden.
Die Berechnung meines Antwortautomaten sieht nach Kürzen durch den
Faktor 2 übrigens so aus:
ADC * 4950 / 65535
Das ist wie erwähnt falsch. Und zudem wegen der Division durch 2^n-1
nicht gut optimierbar.
Mein Haupt-Argument für 'selber machen' ist mittlerweile 'in Übung
bleiben'. Sonst verliert man irgendwann das Gespür dafür, welche
Ergebnisse sich richtig und falsch anfühlen.
In Übung bleiben ist unterm Strich einfacher als "bei Bedarf jedes Mal
neu lernen".
Lothar M. schrieb:> Bei mir kommt bei exakt der selben Frage ganz was anderes raus
Auch Perplexity liefert eine alternative Lösung mit einer überraschenden
Pointe um die Division durch 65535 zu vermeiden:
"
Die finale ganzzahlige Formel lautet:
Spannung_mV = (ADC_Wert * 4950) / 43691
Erklärung
Spannungsteiler:
Der 10k/20k Spannungsteiler reduziert die Eingangsspannung auf 2/3 des
ursprünglichen Wertes1
. ADC-Auflösung:
Bei 16 Bit Auflösung und 3,3V Referenzspannung entspricht der maximale
ADC-Wert (65535) einer Spannung von 3,3V2
. Berechnung:
Maximale Eingangsspannung am ADC: 3,3V * 3/2 = 4,95V
Umrechnung in mV: 4950 mV
Verhältnis: 4950 mV / 65535 = 0,0755 mV pro ADC-Schritt
Um Ganzzahlen zu verwenden, multiplizieren wir mit 1000 und runden:
4950 * 1000 / 65535 ≈ 75,53 ≈ 76 Die Formel wird dann:
Spannung_mV = (ADC_Wert * 4950) / 65535
Um die Division durch 65535 zu vermeiden, können wir sie durch eine
Division durch 43691 ersetzen, was eine gute Annäherung ist und
einfacher zu berechnen ist:
Spannung_mV = (ADC_Wert * 4950) / 43691
Diese Formel liefert die Spannung in mV als Ganzzahl, mit einer sehr
geringen Abweichung aufgrund der Rundung.
"
Cyblord -. schrieb:> Ich bin mal wieder beeindruckt von ChatGPT.
Ich hatte einstmals ChatGPT und Bing mit der gleichen Frage konsultiert.
Bing antwortete in perfektem Stil, mit schön gesetzten Formeln - aber
komplett falsch.
So lange man selbst noch in der Lage ist, Sinn von Unsinn zu
unterscheiden, erleichtert es die Arbeit. Wenn man sich allerdings daran
gewöhnt, oder angesichts zunehmender Komplexität der Ergebnisse nicht
mehr durchblickt, wird es gefährlich.
Wenn bei einem System mindestens längerfristig eine Rückkopplung
besteht, die für eine konstruktive Entwicklung sorgen kann, kann sich
das System in die richtige Richtung entwickeln. Ist jedoch die
Komplexität zu gross, und die Rückkopplung beschränkt sich auf "sieht
grossartig aus", dann werden sich die Systeme weg von Korrektheit hin
zur eindrucksvollem Blabla ohne Anspruch auf Korrektheit entwickeln.
Maschinen sind eben auch nur Menschen, denn da läuft das genau so. :)
Cyblord -. schrieb:> Ich finde das ist gut erklärt. Und das ganze liegt ja nicht in Text vor,> die Eingabe ist ein Bild.
Die Erklärung ist aber falsch. Das sind keine Gegner.
H. H. schrieb:> Hat die KI schon mitgeteilt, dass Widerstand zwecklos sei?
Bing kennt den Unterschied zwischen Star Trek und Elektronik, wenn
Widerstände im Plural auftreten.
(prx) A. K. schrieb:> H. H. schrieb:>> Hat die KI schon mitgeteilt, dass Widerstand zwecklos sei?>> Bing kennt den Unterschied zwischen Star Trek und Elektronik, wenn> Widerstände im Plural auftreten.
Der Plural muss widerstandsfrei bleiben!
Frag die KI mal nach dem Braten eines Storchs...
Es gibt mehrere Methoden, eine Aufgabe wie die des TE zu lösen.
Zwei davon sind im Anhang skizziert.
Zu beachten:
1. Der Abbruch der Schleifen im linken Diagramm ist nicht garantiert,
weswegen diese Methode nicht immer zum Ziel führt.
2. Die grün hinterlegten Aktionen sind diejenigen, wo der Mensch seine
natürliche Intelligenz einbringen muss. Ist diese nicht in
ausreichendem Maß verfügbar, versagen beide Methoden.
H. H. schrieb:> Frag die KI mal nach dem Braten eines Storchs...
Sei ethisch fragwürdig und obendrein illegal, also gab es kein Rezept,
sondern nur einen Hinweis auf die übertragene Bedeutung.
(prx) A. K. schrieb:> H. H. schrieb:>> Frag die KI mal nach dem Braten eines Storchs...>> Sei ethisch fragwürdig und obendrein illegal, also gab es kein Rezept,> sondern nur einen Hinweis auf die übertragene Bedeutung.
De re coquinaria!
Also ich glaub das mit ChatGPT ist wie mit Google,
wenn man zuviel fragt, bekommt man nur Misst geliefert.
Bei mir hat es super funktioniert ohne großes blabla.
(siehe Bild)
Ich kenne genug Leute die die Google Sprachsuche nutzen, als würden sie
in der Schule einen vollständigen Satz aufsagen müssen...
naja, kann man machen, ist halt Sch**** ;)
Adam P. schrieb:> Bei mir hat es super funktioniert ohne großes blabla.
Es funktioniert auch. Nur für einige hier, darf KI nicht funktionieren.
Wahrscheinlich was religöses.
Adam P. schrieb:> Bei mir hat es super funktioniert ohne großes blabla
Wobei die im Screenshot angegebenen 65535 (2^n - 1) nicht korrekt sind,
siehe oben.
Cyblord -. schrieb:> Adam P. schrieb:>> Bei mir hat es super funktioniert ohne großes blabla.>> Es funktioniert auch.
Ja fehlerhaft und ungenau.
> Nur für einige hier, darf KI nicht funktionieren.> Wahrscheinlich was religöses.
Nö, nix religigöses, die Berechnungsvorschrift ist real falsch.
Klaus schrieb:> Jörg R. schrieb:>> Weil man immer mehr verblödet und irgendwann nicht einmal mehr einen>> Vorwiderstand für eine LED ohne Hilfe hinbekommt.>> Ich vermute, vor 50 Jahren hieß es über den Taschenrechner:> Den benutzt man nicht, weil man immer mehr verblödet und irgendwann> nicht einmal mehr eine schriftliche Multiplikation hinbekommt.
Es gibt einen wesentlichen Unterschied zwischen Taschenrechner und KI:
bei einem Taschenrechner weiß man, wie (und folglich daß) er
funktioniert. Bei der KI weiß man hingegen gerade nicht, wie sie auf das
Ergebnis gekommen ist. Außer für triviale Fragen.
Man muß die Anwort der KI auf Korrektheit, mindestens auf Plausibilität
prüfen. Je nach Aufgabenstellung kann das aufwendiger sein als es gleich
selber zu machen.
Bei ChatGPT (und anderen LLM) liegt deren "Kompetenz" übrigens bei der
Erzeugung von etwas das man oberflächlich für Sprache halten soll. Der
Inhalt des "gesprochenen" Wortes ist meistens nicht korrekt, bzw. hängt
von den Trainingsdaten ab.
Auf Fragen die nicht in den Trainingsdaten auftauchen, kann die KI keine
Antworten geben. Und auf Fragen, die in den Trainingsdaten mehrheitlich
falsch beantwortet werden, wird sie eben die falschen Antworten
wiederholen. Sie ist eben nur ein besserer Papagei.
Cyblord -. schrieb:> Es funktioniert auch. Nur für einige hier, darf KI nicht funktionieren.> Wahrscheinlich was religöses.
Interessant, dass Du dem Ergebnis, das Adam P. hier präsentiert, einfach
so ungeprüft vertraust. Es ist nämlich falsch.
Genau das ist die Gefahr: Einer selbstbewusst vorgetragenen Behauptung
einfach deshalb vertrauen, weil sie selbstbewusst vorgetragen wird.
Frank M. schrieb:> Wobei die im Screenshot angegebenen 65535 (2^n - 1) nicht korrekt sind,> siehe oben.
Vllt. stehe ich ja aufm Schlauch und seh das alles falsch, aber nehmen
wir als Bsp. ein 2Bit ADC und Vref = 5V an.
Somit wären dann 2^n = 4
doch die größte Zahl die er dir binär liefern würde ist ja 3.
Dann muss die Formel doch auch so aussehen:
Spannung = (ADC-Wert / 3) * Vref
Oder nicht?
1
00=0V
2
01=1,666V
3
10=3,333V
4
11=4,999V
Würde ich 2^n anstatt (2^n - 1) rechnen, dann würde es ja falsch sein:
Andere KI, vergleichbarer Fehler:
Wenn man versucht mit Hilfe von GitHub CoPilot, einen DateiDialog zu
erstellen, erzeugt die KI eine Lösung mit veralteten Funktionen.
Axel S. schrieb:> Auf Fragen die nicht in den Trainingsdaten auftauchen, kann die KI keine> Antworten geben.
Das ist stark verkürzt und vereinfacht. Wie erklärst du dir die
Bilder-Erkennung und Interpretation des Inhalts? Du kannst ein
beliebiges Bild hochladen, welches noch nie Online war. ChatGPT kann dir
den Inhalt erläutern.
Adam P. schrieb:> Würde ich 2^n anstatt (2^n - 1) rechnen, dann würde es ja falsch sein:
Nein. Ein ADC teilt die Referenzspannung in 2^n gleiche Teile. Die
höchste Teilspannung beginnt bei 2^n-1, also ist 3,75V richtig, auch
wenn es noch so merkwürdig aussieht.
Adam P. schrieb:> Mario M. schrieb:>> Nein. Ein ADC teilt die Referenzspannung in 2^n gleiche Teile.>> OK, dann ist es was anderes.
Aber doch interessant dass ChatGPT den gleichen Denkfehler wie du
gemacht hat, oder?
Adam P. schrieb:> Bei mir hat es super funktioniert
Ich habe bei ChatGPT dieselbe Frage eingegeben und ich habe die
identische falsche Antwort wie Du bekommen.
Anschließend habe ich ChatGPT korrigiert, siehe Screenshot. Und damit
bestätigt sich wieder, dass die Wahrheitsfindung mit ChatGPT nur ein
iterativer Prozess ist, bei dem man durchaus mitdenken muss.
Cyblord -. schrieb:> Aber doch interessant dass ChatGPT den gleichen Denkfehler wie du> gemacht hat, oder?
Das liegt im Prinzip von dessen Arbeitsweise. Wenn eine Erkenntnis
hinreichend häufig verbreitet wird, wird sie schon richtig sein.
“If you say it enough and keep saying it, they’ll start to believe you.”
- Donald Trump 2021, ein ausgewiesener Experte zu diesem Thema
Hat zwar nichts mit KI zu tun, aber mit der ursprünglichen Aufgabe. Ich
habe meine Formel wieder gefunden, die ich immer für Wolfram Alpha
nutze:
solve (((v/(r1+r2))*r2)/1000)=(a/(2^b))*v0 for v, r1=10000, r2=20000,
b=12, v0=3.3
Damit kann man für beliebige Spannungsteiler, und beliebige ADC
Bitanzahlen und eine Ausgabe in mV, einen ganzzahligen Bruch berechnen
lassen.
Allerdings keine Restriktion auf Zweierpotenzen o.ä.
Ergebnis für obiges Beispiel wäre:
v = (2475 a)/2048
v= Spannung in mV
a= ADC Wert
Vielleicht kanns jemand brauchen.
Frank M. schrieb:> Anschließend habe ich ChatGPT korrigiert, siehe Screenshot. Und damit> bestätigt sich wieder, dass die Wahrheitsfindung mit ChatGPT nur ein> iterativer Prozess ist, bei dem man durchaus mitdenken muss.
Im konkreten Fall: Man muss die Lösung schon im Voraus kennen, um
entsprechend nachbohren zu können ;-)
Mario M. schrieb:> Die höchste Teilspannung beginnt bei 2^n-1, also ist 3,75V richtig, auch> wenn es noch so merkwürdig aussieht.
Ja jetzt ist es mir auch klar.
Der binäre Wert steht nicht für eine bestimmte Spannung sondern für den
Spannungsbereich, welcher durch die Auflösung bedingt ist.
(Übertragungsfunktion)
Ergibt Sinn.
(prx) A. K. schrieb:> Das liegt im Prinzip von dessen Arbeitsweise. Wenn eine Erkenntnis> hinreichend häufig verbreitet wird, wird sie schon richtig sein.
Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im
Netz als Richtige?
Adam P. schrieb:> Würde ich 2^n anstatt (2^n - 1) rechnen, dann würde es ja falsch sein
Nein, denn dein ADC würde dann bei realen 3,75V am Eingang bereits das
Ergebnis 4,99V (eigentlich 5,0V) liefern:
1
2^n -->
2
Eingang ADC Anzeige
3
0 ..1,24V 00 0V
4
1,25V..2,49V 01 1,25V
5
2,50V..3,74V 10 2,5V
6
3,75V..4,99V 11 3,75V
7
5,0V ..6,24V 100 5,0V
8
9
2^n-1 -->
10
Eingang ADC Anzeige
11
0 ..1,24V 00 0V
12
1,25V..2,49V 01 1,66v
13
2,50V..3,74V 10 3,33V
14
3,75V..4,99V 11 5,0V
15
5,0V ..6,24V 100 6,33V
Ich habe da dann jeweils mal eine Zeile mehr angefügt, die zeigt, wie
die Funktion weitergehen würde, wenn da noch 1 Bit kommen würde.
Fazit: die Steigung deiner Berechnung mit 2^n-1 ist zwar "schöner" (weil
bei 5,0V am Eingang eben auch 5,0V auf der Anzeige herauskommt) aber die
Übertragungsgerade hat die falsche Steigung.
Oder andersrum: diese Unsitte mit dem "Schönsaufen der
Übertrgungsgeraden" taucht vermehrt in den letzten Jahren auf. Ich
erkenne da sogar eine deutliche Korrelation zur Verbreitung der Ardunio
Plattform. Vor allem deshalb, weil sich da oft blutige Laien einen
"schönen Wert" auf dem Display anzeigen lassen wollen.
Diese Frage taucht daher grundlegend alle Jahre immer wieder auf:
- Beitrag "Re: ADC-Spannung korrekt berechnen?"
- Beitrag "1023 oder 1024"
Auf jeden Fall ist es so, dass eine Division durch 2^n-1 üblicherweise
technisch aufwendiger ist und mehr Rechenzeit braucht als eine durch
2^n.
Frank M. schrieb:> Anschließend habe ich ChatGPT korrigiert, siehe Screenshot
Und der Antwortautomat hat in den Tiefen seiner Daten sogar die
Begründung für 2^n gefunden... ;-)
Cyblord -. schrieb:> Hat zwar nichts mit KI zu tun, aber mit der ursprünglichen Aufgabe. Ich> habe meine Formel wieder gefunden, die ich immer für Wolfram Alpha> nutze:
Das ist im Kern eine Aufgabe für einen Schüler im (technischen)
Gymnasium, dazu braucht es kein Wolfram Alpha. Und wer sowas nicht auf
einem Blatt Paier mit Grundrechenarten lösen kann ist für Tätigkeiten im
Entwicklungsbereich unqualifiziert.
Wobei Verhältnisgleichung um die es hier im Kern geht allgemeiner
Schulstoff Klasse 7 o.ä. ist.
Bradward B. schrieb:> Das ist im Kern eine Aufgabe für einen Schüler im (technischen)> Gymnasium, dazu braucht es kein Wolfram Alpha. Und wer sowas nicht auf> einem Blatt Paier mit Grundrechenarten lösen kann ist für Tätigkeiten im> Entwicklungsbereich unqualifiziert.
Niemand sagt dass man es nicht selber berechnen kann.
Es ist nur nicht effizient, das jedes mal zu Fuß zu machen und
verfügbare Werkzeuge nicht zu nutzen.
Ich kann auch mit einem Handbohrer Löcher bohren. Ich nutze trotzdem den
Akkubohrer.
Cyblord -. schrieb:> Hat zwar nichts mit KI zu tun, aber mit der ursprünglichen Aufgabe. Ich> habe meine Formel wieder gefunden, die ich immer für Wolfram Alpha> nutze:
Das ist im Kern eine Aufgabe für einen Schüler im (technischen)
Gymnasium, dazu braucht es kein Wolfram Alpha. Und wer sowas nicht auf
einem Blatt Paier mit Grundrechenarten lösen kann ist für Tätigkeiten im
Entwicklungsbereich unqualifiziert.
Wobei Verhältnisgleichung um die es hier im Kern geht allgemeiner
Schulstoff Klasse 8 o.ä. ist.
https://mathe-realschule.de/bruchgleichungen-loesen/
Mario M. schrieb:> Cyblord -. schrieb:>> 16 Bit Auflösung>> Cyblord -. schrieb:>> b=12>> 🤔
Sorry für die Verwirrung.
Die Daten der Wolfram Formel haben nichts mit der Aufgabe oben zu tun.
Die Formel mit diesen Beispieldaten hatte ich mir so mal abgespeichert.
Cyblord -. schrieb:> Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im> Netz als Richtige?
Warum fragst Du das (prx) A. K. und nicht ChatGPT?
Ich habe das mal für Dich gemacht, hier ein Auszug aus der geschwätzigen
Antwort:
"Viele Quellen und Foren, die das Thema behandeln, wie zum Beispiel
StackExchange(Electrical Engineering Stack Exchange
), neigen dazu, den Wert 65535 zu verwenden, was den Eindruck erweckt,
dass dies die "Standard"-Antwort ist. Diese Verwendung beruht oft
darauf, dass der maximale Wert für das letzte digitale Ausgangssignal
gemeint ist.
Meine anfängliche Antwort orientierte sich an der Mehrheit dieser
Darstellungen, die 65535 als maximalen Binärwert betrachten, was
technisch gesehen in der Praxis richtig ist, aber die Gesamtanzahl der
Stufen nicht exakt widerspiegelt. Tatsächlich sollte, wenn der gesamte
Wertebereich gemeint ist, 65536 verwendet werden."
Frank M. schrieb:> Cyblord -. schrieb:>> Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im>> Netz als Richtige?>> Warum fragst Du das prx und nicht ChatGPT?
Weil er die These mit der häufigsten Antwort aufgestellt hat und nicht
ChatGPT.
Ich denke nämlich nicht dass die falsche Lösung im Netz überwiegt. Was
aber sein kann ist dass man grundsätzlich öfter 2^n-1 findet als 2^n,
unabhängig von der Aufgabe.
Cyblord -. schrieb:> Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im> Netz als Richtige?
Glaubst du wirklich dem KI Dingen mehr als der harten Physik?
Ein echter Ki Fänboi lässt sich scheinbar nicht von/mit Fakten
umstimmen.
Offenbar genügend genug um das eigene Hirn mal selber anzustrengen und
nicht alles dull abzukupfern incl. der Irrtümer!
Suchtipp z-B.: Google(adc 1024 1023)
Arduino F. schrieb:> Cyblord -. schrieb:>> Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im>> Netz als Richtige?> Glaubst du wirklich dem KI Dingen mehr als der harten Physik?
Das war gar nicht meine Aussage du Genie. Es ging darum woher ChatGPT
die falsche Lösung nimmt.
Die korrekte Lösung steht doch gar nicht in Frage.
Cyblord -. schrieb:> Weil er die These aufgestellt hat und nicht ChatGPT.
Nach ChatGPTs Antwort
"Meine anfängliche Antwort orientierte sich an der Mehrheit dieser
Darstellungen"
kann ich der These von (prx) A.K. duchaus folgen: Wird eine (unrichtige)
Behauptung nur oft genug behauptet, wird sie zur Wahrheit. Selbst
ChatGPT plappert jeden Stuss nach, wenn er oft genug gefunden wurde.
Ich habe ChatGPT nach Aufdeckung seiner Falschantwort gefragt, ob es
nicht besser wäre, eine mehrheitliche Darstellung selbst zu
hinterfragen, statt dass ich die Antwort hinterfragen muss.
Tatsächlich hat ChatGPT sich dazu verleiten lassen, mir genau das für
die Zukunft zu versprechen. Ob das jetzt einfach eine dreiste Behauptung
ist oder nicht, wage ich nicht zu beurteilen. Gibt es tatsächlich eine
"Selbstreflexion" in der KI?
Der gesamte Chatverlauf nach dem 2^n Problem ist im Anhang - für die
Interessierten.
P.S.
Ich habe den Text nochmal nachträglich in ANSI codiert hochgeladen, weil
ersterer bei mir die Umlaute falsch anzeigt.
Frank M. schrieb:> kann ich der These von (prx) A.K. duchaus folgen: Wird eine (unrichtige)> Behauptung nur oft genug behauptet, wird sie zur Wahrheit. Selbst> ChatGPT plappert jeden Stuss nach, wenn er oft genug gefunden wurde.
Und damit spielt die Fragestellung eine wichtige Rolle. Diese KI denkt
nicht über die Antwort nach, die "versteht" nicht. Sie assoziiert die
Frage mit bestehendem Material. Die ursprüngliche Frage liefert eine
Essenz der häufigen falschen Antworten. Bringt man Skepsis oder
Korrekturen in die Fragestellung ein, assoziiert die KI das mit Texten
wie diesen hier, in denen über den typischen Fehler diskutiert wird.
Cyblord -. schrieb:> Ich bin mal wieder beeindruckt von ChatGPT.
Ich auch.
Allerdings musstest du die Antwort auch überprüfen. In der Zeit hättest
du es vermutlich auch ohne ChatGPT berechnen können.
Frank M. schrieb:> Gibt es tatsächlich eine "Selbstreflexion" in der KI?
Im Grunde müsste die KI die eigene Antwort der ersten Stufe mit einer
selbst gestellten Frage zur Gültigkeit, also mit addierter Skepsis, sich
noch einmal stellen, um auch solches Material zu assoziieren. Keine
Ahnung, zu was eine solche Strategie in grossem Stil führt.
(prx) A. K. schrieb:> Im Grunde müsste die KI die eigene Antwort der ersten Stufe mit einer> selbst gestellten Frage zur Gültigkeit, also mit addierter Skepsis, sich> noch einmal stellen, um auch solches Material zu assoziieren.
Ja, genau.
> Keine> Ahnung, zu was eine solche Strategie in grossem Stil führt.
Zu einer Endlosschleife?
Frank M. schrieb:> Zu einer Endlosschleife?
Oder zur völligen Verwirrung des Lesers, angesichts des Zoos von
Alternativen. In besonderen Fällen landen dann obendrein passionierte
Skeptiker mit im Salat, und damit Verschwörungstheorien.
Ich hatte gerade eine erkennbare Selbstreflexion oder eine parallel
laufende Zensur des Ergebnisses. Die Frage an Bing war "Hatte q-anon
Recht?" Erst kam einige Zeilen über die Verschwörungstheorie - dann aber
wurden die wieder gelöscht, und Bing entschuldigte sich dafür, keine
Antwort geben zu können.
Cyblord -. schrieb:> Beispiel: Ein berühmtes XKCD Comic. Siehe Anhang.
Wobei gerade xkcd Comics nicht nur auf xkcd zu finden sind, sondern
insbesondere auch auf explain-xkcd. Dort gibt es nicht nur Transscript,
sondern auch Erklärungen, Hintergründe, Interpretationen, Auflösung von
Wortspielen, Mehrdeutigkeiten, Anspielungen etc.
https://www.explainxkcd.com/wiki/index.php/225:_Open_Source
Cyblord -. schrieb:> Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im> Netz als Richtige?
Sicher, denn
Frank M. schrieb:> ChatGPTs Antwort> "Meine anfängliche Antwort orientierte sich an der Mehrheit...
q.e.d.
Das ist das Problem: es ist ein Wahrscheinlichkeitsentscheid nach dem
Mehrheitsprinzip der im Internet zu findenden Aussagen. Das geht gut,
wenn ich ein Restaurant suche oder einen Schuhhändler oder nette
Ausflugsziele.
Aber wenn es um irgendwas geht, wo tausend blutige Laien im Netz
irgendwas verpostulieren und das dann zehntausendfach im Netz zitiert
wird, dann gilt das blöderweise mehr als wenn 10 Experten die Tatsachen
in ein technisches Dokument schreiben.
Weil ich da grade drüber gestolpert bin muss ich mich selber zitieren:
Lothar M. schrieb:> Ich habe da dann jeweils mal eine Zeile mehr angefügt, die zeigt, wie> die Funktion weitergehen würde, wenn da noch 1 Bit kommen würde.
Denn schneller als man meint holt einen die Realität ein, wenn ein
10-Bit ADC wegen eines offensichtlichen Softwarefehlers mal den Wert
1024 zurückgibt:
- https://github.com/esp8266/Arduino/issues/6064
Wenn ich sowas lese, dann wünsche ich allen Programmierern, dass sie
alltäglich immer solche Geräte benutzen müssen, wie sie selber welche
programmieren.
Johann L. schrieb:> Wobei gerade xkcd Comics nicht nur auf xkcd zu finden sind, sondern> insbesondere auch auf explain-xkcd. Dort gibt es nicht nur Transscript,> sondern auch Erklärungen, Hintergründe, Interpretationen, Auflösung von> Wortspielen, Mehrdeutigkeiten, Anspielungen etc.
Ja gibt es. Aber du kannst ihm jedes Comic füttern. Und deshalb ist es
natürlich auch ganz interessant wirklich mal eigene Bilder reinzugeben.
Die es nirgendwo im Netz gibt.
Und die Anspielung auf Nader, die es nur im Title, nicht im Comic selbst
gibt, die aber auf explain-xkcd erklärt wird, kommt bei ChatGPT nicht
vor. Was ein Hinweis darauf ist, dass er wirklich nur die Infos aus dem
Bild hatte und keine von explain-xkcd.
Habe letztens ein Bild von einem unserer Kinderfahrräder rein gegeben
und nach der Größe in Zoll gefragt. Marke und Typ wurde erkannt, Zoll
geschätzt. War richtig.
Aber klar, die Antwort ist nicht sicherer als wenn man nem Kumpel das
Bild zeigt und der schätzt dann auch mal drauf los.
Lothar M. schrieb:> Cyblord -. schrieb:>> Zoll geschätzt.> Tippe auf 20 Zoll.
Es waren 14.
Die Antwort war schon sehr fundiert, wie gesagt, mit Hersteller und Typ.
Allerdings gebe ich zu: Langsam vergeht mir hier die Lust an diesem
Thema. Ich war an einer sachlichen Diskussion interessiert, aber selbst
von Mods kommt nur Polemik und Häme. Ich würde mich an dieser Stelle
hier ausklinken.
Jörg R. schrieb:> Zum spielen vielleicht schön. Ich benutze aber lieber meinen Grips und> einen Taschenrechner.
KI ist ein Werkzeug.
Einfach nur ein Werkzeug.
Wie tausend andere Werkzeuge, die wir jeden Tag benutzen ohne gleich in
Ohnmacht zu fallen das die hohe Kunst Nägel mit der flachen Hand
einzuschlagen ja durch den Gebrauch eines Hammers verkümmert.
Um eine sinnvolle Antwort von der KI zu bekommen muss man selber das
Problem genug verstanden haben, um die Frage korrekt zu formulieren.
Michael schrieb:> Um eine sinnvolle Antwort von der KI zu bekommen muss man selber das> Problem genug verstanden haben, um die Frage korrekt zu formulieren.Plus Üblicherweise mehrmals umformulieren und verfeinern.
Plus Offensichtlich falsche Antworten nicht nur ignorieren, sondern
bemängeln. Gerade bei verketteten Anfragen schleppt man sonst Mist mit.
Plus Jede Antwort nicht nur flüchtig auf Plausibilität, sondern – wie
schon weiter oben gezeigt – auch wirklich genau überprüfen.
Bei schon geringfügig komplexeren Dingen dürfte das wohl mit großem
Abstand der umfangreichste Teil sein.
>> Zum spielen vielleicht schön. Ich benutze aber lieber meinen Grips und>> einen Taschenrechner.>> KI ist ein Werkzeug.> Einfach nur ein Werkzeug.
Oder Spielzeug, das man für Werkzeug hält.
Irgendwie erinnert mich das ab die Erzählung "Picknick am Wegesrand" von
den Strugazkis.
Da hantieren unkundige Menschen mit "Artefakten" herum, denen sie
besondere Bedeutung zusprechen, die aber womöglich nur der Abfall einer
Picknick-Party von Aliens ist.
https://de.wikipedia.org/wiki/Picknick_am_Wegesrand#%C3%9Cber_den_Besuch
Cyblord -. schrieb:> Ich war an einer sachlichen Diskussion interessiert
Und kommst mit Kinderfahrrädern daher?
> aber selbst von Mods kommt nur Polemik und Häme.
Ja, da fällt mir halt ums Verrecken nichts besseres ein. Wenn ich den
Antwortautomaten zur richtigen Antwort überreden muss, dann taugt der
für mich nicht.
> Ich würde mich an dieser Stelle hier ausklinken.
Schönes Wochenende.
Cyblord -. schrieb:> Ich bin mal wieder beeindruckt von ChatGPT
Ich, schon immer, komplett eingeschüchtert.
Als Nicht-Profi-Programmierer aber µC-Sympathisant hat man eine Ahnung,
was in den Registern der kleinen Chips vorgeht und man hat eine
Vorstellung, was wohl in einem Windows-Rechner alles vor sich gehen mag.
Aber dass es "Programme" gibt, die solche Leistungen wie ChatGPT
erbringen... das hat mit der blinkenden LED nichts mehr zu tun.
Bradward B. schrieb:> Da hantieren unkundige Menschen mit "Artefakten" herum, denen sie> besondere Bedeutung zusprechen, die aber womöglich nur der Abfall einer> Picknick-Party von Aliens ist.
Nein. Hast Du das Buch überhaupt gelesen?
Cyblord -. schrieb:
> Ich war an einer sachlichen Diskussion interessiert
Hier?
Indem Du sagts das der menschliche Verstand kein gottgegebenes
einzigartiges und wunderbares Kunstwerk ist, sondern simple
Fleischmechanik deren Leistungen bereits jetzt zum Teil durch
konstruierte Maschinen zu leisten ist?
Man hat es nicht geschafft im ersten Anlauf eine komplette und absolut
fehlerfreie Universalintelligenz zu konstruieren die auch mit deppischen
Eingaben perfekte Ergebnisse liefert.
Also taugt das alles nichts.
Und es spielt absolut keine Rolle das Du, das ich und viele andere sehr
wohl ausgesprochen nützliche Ergebnisse durch KI Arbeit bekommen.
Es gibt eben viele die sich bereits entschieden haben das sei Spielzeug,
Nippes, simple Mustererkennung und hätte nichts mit 'I' zu tun.
Es ist völlig egal was KI noch leisten wird.
Denen wird nichts gut genug sein um ihre Meinung zu ändern.
Völlig egal wie viele Fehler Menschen machen und wie wenige KI, es wird
KI für sie immer nur dummes Zeug bleiben.
Weil es immer noch etwas geben wird das nur ein sehr guter Mensch kann.
Völlig egal wie viel KI besser kann als jeder Mensch.
Ebenso egal wie viele dumme Menschen es gibt die nichts besser können
als KI.
Und wenn sie nur Atmen und Kacken können, wird das reichen sie als der
KI überlegen zu bezeichnen.
Das ist aber nur ein Ausdruck für das Maß der Borniertheit der Menschen
und trifft keine Aussage über die Leistungen der KI.
>> Da hantieren unkundige Menschen mit "Artefakten" herum, denen sie>> besondere Bedeutung zusprechen, die aber womöglich nur der Abfall einer>> Picknick-Party von Aliens ist.>> Nein. Hast Du das Buch überhaupt gelesen?
Doch. Ja, Du ?
Bradward B. schrieb:> Irgendwie erinnert mich das ab die Erzählung "Picknick am Wegesrand" von> den Strugazkis.
KI ist eine von uns selbst angestossene Entwicklung, bei der wir noch
ganz am Anfang stehen, von der wir nicht wissen, wo sie endet, wie sich
die Zivilisation dadurch verändern wird. Das ist vom Grundprinzip her
nicht anders, als bei jeder anderen Entwicklung der Zivilisation.
Eine der fundamentalsten Entwicklungen dürfte der Übergang zur
Jungsteinzeit mit der Sesshaftigkeit gewesen sein. Wir kennen noch nicht
einmal die langfristige Dimension von KI, also ob das damit vergleichbar
sein wird, oder sich mit der Zeit als aufgeblasener Hype wie Cryptogeld
erweisen wird.
Die Artifakte der Erzählung sind quasi umgekehrt. Das entspräche
übertragen gesehen einer heutigen Begegnung mit einem viel späteren
Zustand einer solchen Entwicklung.
Cyblord -. schrieb:> Langsam vergeht mir hier die Lust an diesem Thema.> Ich war an einer sachlichen Diskussion interessiert,
Versuch's mal mit ChatGPT.
Johann L. schrieb:> Versuch's mal mit ChatGPT.
Das wär doch mal eine passende Aufgabe: Einen Chat mit der KI so zu
führen, dass diese unsachlich wird. Schafft er bestimmt. Spätestens am
Freitag. :)
(prx) A. K. schrieb:> Bradward B. schrieb:>> Irgendwie erinnert mich das ab die Erzählung "Picknick am Wegesrand" von>> den Strugazkis.>> KI ist eine von uns selbst angestossene Entwicklung, bei der wir noch> ganz am Anfang stehen, von der wir nicht wissen, wo sie endet, wie sich> die Zivilisation dadurch verändern wird.> Die Artifakte der Erzählung sind quasi umgekehrt. Das entspräche> übertragen gesehen einer heutigen Begegnung mit einem viel späteren> Zustand einer solchen Entwicklung.
Nö, IMHO ist KI in der Begrifflichkeit in der sie seit Jahrzehnten
benutzt und ein Artefakt der Strugatzkis darin gleich, das jeder
"Mensch" seine individuelle Vorstellung davon hat, was es überhaupt ist.
IMHO ist das Wesen der Artifakte aus Sicht der Menschen gerade das deren
Zweck komplett unverstanden ist, ja vielleicht vom (unbekannten)
Schöpfer garnicht angelegt wurde. Losgelöst von der "Entwicklungsstufe"
des Schöpfers.
"von uns selbst angestossen" trifft auf jede Erkenntniss/Technologie zu,
wobei ChatGPT IMHO eher keine "(Weiter-"Entwicklung") sondern ein
"Nachäffen" ist. So wie Compouter-schach das "Nachäffen" eines
Schachspielers ist, ursprünglich verbunden mit der Erwartung, das über
"Schachprogramme" klar wird, was "Intelligenz" überhaupt ist und wie man
sie (maschienell) "erzeugen" kann. Diese Hoffnung hat sich nicht
bewahrheitet. Eine Maschine, die den intelligentesten Menschen im Schach
schlägt ist nicht wirklich intelligent. Und eine Maschine, die besser
chatet als jeder Chat-Weltmeister, auch nicht.
Die Wahrnehmung über eine Sache führt nicht dazu, das man ihren
ursprünglichen Zweck erkennt. Das ist m.E. die Parallele zwischen KI und
"Picknick-Artefakt".
BTW: Es gibt eine reichlich hohe Anzahl von Ausgaben des "Picknick am
Wegesrand". Unterschiedliche Übersetzer, unterschiedlich stark zensierte
Vorlagen, etc. pp. Gut möglich das wir hier von verschiedenen
Buch-Variationen reden. Wobei ein Buch eh auf unterschiedliche Weisen
interpretiert werden kann.
https://www.google.com/search?q=Picknick+am+Wegesrand+%C3%9Cbersetzung&
Johann L. schrieb:> Versuch's mal mit ChatGPT.
Für eine sachliche Diskussion, in einem respektvollen Ton, ohne ein
Unmaß an geistigem Totalausfall, ist ChatGPT mc.net auf jeden Fall
vorzuziehen.
ChatGPT möchte man nicht den halben Tag die Fresse polieren, es quatscht
einem nicht ungefragt ins Essen, erzählt nicht den lieben langen Tag
einen totalen Stuss nach dem anderen und hat nicht das Sozialverhalten
von 100m Feldweg.
Eigenschaften von denen sich einige hier wirklich eine Scheibe
abschneiden könnten.
KI versteht manches nicht, erfindet auch Dinge wenn es sonst keine
Antwort hat, steht aber auch noch ganz am Anfang, keine 80J nach
Erfindung des ersten Transistors.
Dieter D. z.B. (es gäbe viele andere) versteht scheinbar überhaupt
nichts, erfindet fast ausschließlich Dinge und quasselt ohne Unterlass
in fast jeden Thread hinein, ohne das auch nur einer um seine Meinung
gebeten hätte.
Und der hat 7 Millionen Jahre Evolution hinter sich, wenn man nur mal
beim Primaten die Uhr auf Null stellt.
4 Milliarden Jahre wenn man bis zu den Anfangen der biologischen
Evolution zurückgeht.
1 zu 0 für die KI.
Ich halte es auch für vermessen, bei ChatGPT von KI zu sprechen. Damit
vermarktet man es, im Grunde handelt es sich aber nur um Machine
Learning, und das hat erst mal nichts mit Intelligenz zu tun. Wie schon
weiter oben ausgeführt basieren die Antworten (stark vereinfacht) auf
Wahrscheinlichkeitsmodellen, und das ADC-Beispiel zeigt: am Ende gewinnt
die Antwort, die die meiste Verbreitung hat. Ich halte das übrigens für
sehr gefährlich, weil es Manipulation Tür und Tor öffnet und die
Möglichkeit bietet, gezielt Propaganda zu verbreiten die, weil man dem
Werkzeug ja vertraut, im Regelfall auch nicht überprüft wird. Genauso,
wie eine Blockchain nicht mehr verlässlich ist, wenn man die Mehrheit
der Knoten dazu bringt, einen manipulierten Eintrag als echt zu
verifizieren. Solange man dem ganzen vertraut, wird es akzeptiert.
Ich denke, von einer KI, die den Namen verdient, sind wir weit entfernt.
Allein schon die Tatsache, welche immense Rechenleistung und damit
Energieaufnahme nötig ist, um ChatGPT zu betreiben. Ein menschliches
Gehirn ist, wenn man es technisch runterbrechen möchte, ein
Analogrechner mit einer Leistungsaufnahme von um die 40 Watt (Aussage
laut Bernd Ulmann). Damit arbeitet es zwar wesentlich langsamer,
übersteigt aber in seinen Fähigkeiten deutlich jede derzeitige "KI" und
ist dabei in seiner Leistungsaufnahme um viele Größenordnungen
effizienter. Und ich meine, solange wir die Funktionsweise natürlicher
Intelligenz nicht tiefergehend verstanden haben und daraufhin einen
fundamental anderen Ansatz zur künstlichen Nachbildung verfolgen können,
wird das nichts. Das aktuelle Verfahren skaliert ja heute schon nicht,
es wird ihm nur mit noch mehr Rechenleistung begegnet um dieses
grundlegende Defizit unserer, mangels wissen, naiven Herangehensweise
auszugleichen.
Florian S. schrieb:> Ich halte es auch für vermessen, bei ChatGPT von KI zu sprechen
Das ist einfach nur ein Fachbegriff in der Informatik, bezeichnet der
Bereich in dem sich solche Software bewegt. Muss man nicht so pingelig
sehen.
Florian S. schrieb:> übersteigt aber in seinen Fähigkeiten deutlich jede derzeitige "KI"
Nö.
KI kann Datenberge durchsuchen und daraus neue Zusammenhänge erkennen,
für die ich 10 Lebenspannen benötigen würde die nur zu lesen.
WENN ich mir nicht nach 2J die Pulsadern durchbeißen würde weil mich das
tägliche einerlei im Papierberg wahnsinnig macht.
KI kann längst viele Dinge erheblich besser, schneller, billiger als
Menschen.
Und bereits LLM haben Fähigkeiten die sie aufgrund ihrer Funktionsweise
eigentlich nicht haben sollten.
Und da niemand weiß wie Intelligenz beim Menschen entsteht, wie
Bewusstsein entsteht, könnte es sehr gut sein das es mit unserer ach so
hoch gelobten Leistung garnicht so weit her ist und Maschinen vielleicht
unmittelbar an der Schwelle dessen stehen was wir für ausschließlich
menschliche Geistesleistung halten.
Diese Ansichten der Menschlichen Überlegenheit und der nur dem Menschen
zugeschriebenen Leistungen gelten doch schon ganz lange nicht mehr.
Die geistern nur noch durch die Köpfe derer die aktuelle Forschungen
nicht kennen.
Viele Tiere haben komplexe 'Sprachen', komplexe Sozialstrukturen, nutzen
Werkzeuge, haben Humor, spielen, sind neugierig, träumen und haben eine
komplexe Vorstellungskraft.
Und die Reaktion der immer gleichen Leute ist die immer gleiche: 'Nö,
das ist alles Blödsinn, das können nur Menschen.'
Und nun kann die gleiche begrenzte Vorstellungskraft sich eben an KI
abarbeiten.
Es gibt Spinnen die komplexe Angriffsmuster planen und durchführen und
Gehirne haben die nicht mal genug Neuronen besitzen das sie dazu in der
Lage sein dürften.
Wir wissen über unsere eigenen Gehirne fast nichts und noch viel weniger
über die der anderen Spezies.
Aber eines weiß jeder mc.net Forist:
KI ist nicht intelligent und wird es auch nie werden.
Dabei ist das bei einer nicht unerheblichen Anzahl der mc.net User auch
höchst umstritten.
Ich sehe jeden Tag die schreiende Dummheit, Unlogig, die
Selbstzerstörung und die maßlose Überheblichkeit meiner eigenen Spezies
und hoffe inständig das wenigstens ein paar von diesen dämlichen Zombies
in der Lage sind die Keimzelle einer gerichteten Evolution zu
erschaffen, aus der sich dann eine Technikzivilisation entwickeln kann,
die jede biologische Evolution weit in den Schatten stellt, weil sie
keiner dieser absurden Beschränkungen und primitiver Altlasten mit sich
herumschleppt.
Und jeder Post der Art 'das ist alles nur dumme Mustererkennung und
daran ist nun wirklich nichts besonderes' bestärkt mich in dem festen
Glauben das dieses Universum mehr verdient hat als ein paar aufgeblasene
Fleischsäcke deren vorstechendes Eigenschaft die Borniertheit ist.
Wie kann man nur so weit kommen in der Evolution, Zugang zu so viel
Wissen haben, so viele Fehler der Vergangenheit kennen, so weit oben auf
den Schultern von Riesen stehen und dennoch so unfassbar dumm sein?
DAS ist typisch menschlich!
DAS schafft wirklich keine andere Spezies.
DAZU werden KIs nie in der Lage sein.
Unsere Gesellschaft entwickelt sich seit langem nicht mehr nach vorn.
Wir türmen Wohlstand auf, füllen Bibliotheken mit unserem Wissen, die
Straßen werden breiter, die Autos größer, die Bildschirme bunter, aber
gesellschaftlich befinden wir uns im freien Fall und schaffen nicht mal
unsere eigene Bevölkerungsexplosion in den Griff zu bekommen.
Jede Ratte hört auf zu fressen wenn sie zu fett wird um durch Gänge zu
kommen.
Wir nicht mal dann wenn uns die Beine wegknicken und das Herz keine zwei
Treppenstufen mehr packt.
Nein, wir fressen nicht zuviel.
Wir haben schwere Knochen!
Wir machen immer noch die gleichen Dinge wie eine Schimpansengruppe im
Urwald.
Nur eben mit deutlich geilerer Technik.
Die Grundmuster sind aber unverändert und scheinbar auch unveränderbar
weil sie uns ins primitive Erbgut getackert sind.
(prx) A. K. schrieb:> Florian S. schrieb:>> Ich halte es auch für vermessen, bei ChatGPT von KI zu sprechen>> Das ist einfach nur ein Fachbegriff in der Informatik, bezeichnet der> Bereich in dem sich solche Software bewegt. Muss man nicht so pingelig> sehen.
Doch!
Das ist ein Large Language Model!
Sowas kann per Definition nicht intelligent sein.
Nachdem dort "Wissen" über stochastische Verfahren wiedergegeben wird,
ist es schon erstaunlich, dass sich Leute darauf verlassen.
Hackaday hat Mal diesen Artikel verlinkt .. unbedingt lesenswert!
https://blog.miguelgrinberg.com/post/how-llms-work-explained-without-math
Gut, wenn so ein Modell auf spezifische Probleme trainiert wird (z.B
filtere die Steuerhinterzieher aus dem datenreichtum), dann mag das noch
gut funktionieren.
Problematisch ist aber, dass selbst die Datenbasis kompromittiert ist...
Siehe z.B den CCC Vortrag über die Zahlenveränderten Xerox Kopierer.
Damit ist alles, wass z.B über OCR gelernt wurde zu hinterfragen.
Noch schwieriger ist, dass selbst hier im Forum mir schon fragen
aufgefallen sind, die von offensichtlich falschen Antworten irgend einer
'KI' her rühren...
Aber sei es drum. Ein LLM hat mit intelligenz nichts zu tun. Vllt. wird
so etwas mal das Gedächtnis einer KI darstellen... Dank der bekannten
Probleme mit Halluzinieren und over-training wird die dann aber auch
kein skynet...
Linus torvalds hat es glaube ich scherzhaft als auto-completion on
steroids bezeichnet ... Ich glaube sooo schlecht trifft er es damit gar
nicht... Der darf man ja auch nicht immer vertrauen, obwohl sie die
Arbeit doch sehr beschleunigt.
73
Hans W. schrieb:> Sowas kann per Definition nicht intelligent sein.
Um zum Fachbereich KI zu gehören, ist echte Intelligenz nicht
erforderlich. Bei der Software nicht, und bei den Studenten war es zu
meiner Zeit umstritten. ;)
Hans W. schrieb:> Linus torvalds hat das glaube ich scherzhaft als auto-completion on> steroids genannt ...
Das ist zur Zeit die einzige Anwendung, bei ich mir derzeit vorstellen
kann, dass sie mir bei der Arbeit helfen könnte. Unser GF ist daran sehr
interessiert.
Allerdings müsste die Firma dazu aus Datenschutz-Gründen eine eigene KI
betreiben. Wir würden sonst unsere Kunden verlieren.
Wie das praktisch gehen soll, ist noch unklar. Wir warten seit Monaten
auf konkrete Angebote oder Konzepte der Anbieter. Ich habe den Eindruck,
dass die nur Werbung haben, aber noch kein funktionierendes Produkt.
Hans W. schrieb:> Sowas kann per Definition nicht intelligent sein.
Und doch haben die erstaunliche Fähigkeiten entwickelt die sich selbst
die Entwickler nicht erklären können.
So beeindruckend das unsereins nur extrem kastrierte Modelle zu Gesicht
bekommt.
Kaum mehr als fortschrittliche Suchmaschinen mit der Fähigkeit zur
Textzusammenfassung.
Menschen definieren schon alles mögliche seit Jahrtausenden.
Und in den meisten Fällen lagen sie auf lächerlich anmutende Weise
falsch.
Die Erde ist eine Scheibe, unter 300m Wassertiefe kann kein Leben
existieren, Tiere sind nur simple bedürfnissgetriebene Fleischmechanik
ohne Verstand etc. pp.
Alles und unendlich viel mehr was jeder wusste, sich dessen völlig
sicher war, hat sich in Gelächter und Schamesröte aufgelöst.
Und jetzt 'wissen' wir eben was ein LLM kann und was nicht.
Haben aber uns selbst nicht kapiert und wissen nicht was Bewusstsein
eigentlich ist, wie es entsteht und ab welcher Komplexität es plötzlich
da ist.
Und wie die Jahrtausende zuvor: Immer die Fresse weit auf und völlig
sicher wie die Welt tickt.
Und genau darin liegt unsere größte Evolutionäre Schwäche.
Diese Selbstbewusstsein haben wir gebraucht um in einer völlig
unverstandenen Welt über den Tag zu kommen.
Es hindert uns aber daran uns zu entwickeln.
Immer noch blicken wir mit stumpfen Augen auf komplexe Vorgänge, ohne
jedes tiefere Verstehen, weil ein einfaches Vorurteil eben schneller ist
als planvolles Vorgehen in einer Tiefe zu der unsere Gehirne nicht
geeigent sind.
(prx) A. K. schrieb:> Hans W. schrieb:>> Sowas kann per Definition nicht intelligent sein.>> Um zum Fachbereich KI zu gehören, ist echte Intelligenz nicht> erforderlich. Bei der Software nicht, und bei den Studenten war es zu> meiner Zeit umstritten. ;)
Zum Fachgebiet KI gehören sehr viele Themen. Die wenigsten davon haben
mit einer eigentlichen KI direkt zu tun...
Wie gesagt. Diese LLM, SVM,... Sind "Bausteine", die Mal als ganzes eine
KI werden könnten.
Michael schrieb:> Hans W. schrieb:>> Sowas kann per Definition nicht intelligent sein.>> Und doch haben die erstaunliche Fähigkeiten entwickelt die sich selbst> die Entwickler nicht erklären können.
Das ist mir neu... Aber ich informiere mich auch nicht auf X und
Telegramm...
Ja, man weiß nicht so genau wie/warum welcher Trainings Input welche
Auswirkung beim eigentlichen Run hat... Das hat aber eher etwas mit der
intrinsische Komplexität der riesigen Datenmenge zu tun.
Monk schrieb:> Hans W. schrieb:>> Linus torvalds hat das glaube ich scherzhaft als auto-completion on>> steroids genannt ...>> Das ist zur Zeit die einzige Anwendung, bei ich mir derzeit vorstellen> kann, dass sie mir bei der Arbeit helfen könnte. Unser GF ist daran sehr> interessiert.
Ich hätte ein paar ganz gute geschäftsideen... Das Problem ist aber,
dass mir das Training viel zu aufwändig ist. Ich hab einen proof of
concept über Google gebastelt... Puuuuihhhhh da braucht's viele, viele,
viele lohngedumpte billigst "fachkräfte", damit das was wird ...
Walter T. schrieb:> Bradward B. schrieb:>> Da hantieren unkundige Menschen mit "Artefakten" herum, denen sie>> besondere Bedeutung zusprechen, die aber womöglich nur der Abfall einer>> Picknick-Party von Aliens ist.>> Nein. Hast Du das Buch überhaupt gelesen?
Ich schon.
Diese Möglichkeit wird darin tatsächlich von einem der Protagonisten
geäußert, als eine Art Gedankenbild.
Das findet sich in beiden mir bekannten deutschen Übersetzungen (die in
ihrer Qualität sehr unterschiedlich sind) und auch im russischen
Original.
Ich würde also eher mal davon ausgehen, dass du das Buch nicht gelesen
hast, zumindest nicht richtig.
Zumal dieses Gedankenbild ziemlich zentral für das Anliegen der
Verfasser zu sein scheint. So zentral, dass es sogar titelgebend war...
Darüber solltest du bei Gelegenheit mal nachdenken.
Cyblord -. schrieb:> Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im> Netz als Richtige?
Die Formeln sind nicht das Problem, sondern die Ergebnisse. ChatGPT kann
nicht rechnen, es rät.
Ob nun KI oder nicht; mir hat ChatGPT heute ein gutes Stück Arbeitszeit
gespart. Ich habe ein Excelsheet mit 30k Zeilen an Messdaten. Da drin
etliche, sagen wir, längere Anstiege, leider nicht durchgehend stetig.
Auszuwerten hatte ich nur die Bereiche mit diesen partiell leider
unstetigen Anstiegen. Gesucht war ein gleitender Mittelwert der Anstiege
unter Akzeptanz von schmaleren gleitenden Abstiegen.
Das was ChatGPT da in kürzester Zeit ausgespuckt hat, hätte ich händisch
programmiert eher in x Stunden geschafft, oder auch noch länger
gebraucht. Das hat mich schon ein Stück weit beeindruckt. Ich habe
insgesamt 4x meine Anfrage iteriert, dann hatte ich ein brauchbares
Ergebnis. Nicht schlecht finde ich.
Ove M. schrieb:> Ich habe ein Excelsheet mit 30k Zeilen an Messdaten.
Vielleicht kann dir das künstliche Cleverle ja auch helfen einen
angemessenen Container für Messdaten zu finden. ;-)
Ove M. schrieb:> Ich habe insgesamt 4x meine Anfrage iteriert, dann hatte ich ein> brauchbares Ergebnis. Nicht schlecht finde ich.
Puh, damit hätte ich ein Problem...
Wie machst du da die obligatorischen "sanity checks"?
Wenn's stimmen muss, dauert meiner Erfahrung nach das Verifizieren
wesentlich länger als das Rechnen.
Also Test Daten generieren und Ergebnis prüfen.
Das hat jetzt absolut nichts mit KI zu tun... Ergebnisse gehören
überprüft. Handechnung, Matlab, C, Python, ChatGPT.
Wenn ich nicht davon ausgehen kann, dass meine Testdaten und meine
echten Daten deterministisch verarbeitet werden, dann gibt's massive
Einschränkungen bei der Anwendbarkeit.
73
Michael schrieb:> Hans W. schrieb:>> Sowas kann per Definition nicht intelligent sein.> Und doch haben die erstaunliche Fähigkeiten entwickelt die sich selbst> die Entwickler nicht erklären können.
Und das wäre?
Ove M. schrieb:> Ob nun KI oder nicht; mir hat ChatGPT heute ein gutes Stück Arbeitszeit> gespart. Ich habe ein Excelsheet mit 30k Zeilen an Messdaten. Da drin> etliche, sagen wir, längere Anstiege, leider nicht durchgehend stetig.> Auszuwerten hatte ich nur die Bereiche mit diesen partiell leider> unstetigen Anstiegen. Gesucht war ein gleitender Mittelwert der Anstiege> unter Akzeptanz von schmaleren gleitenden Abstiegen.> Das was ChatGPT da in kürzester Zeit ausgespuckt hat, hätte ich händisch> programmiert eher in x Stunden geschafft, oder auch noch länger> gebraucht. Das hat mich schon ein Stück weit beeindruckt. Ich habe> insgesamt 4x meine Anfrage iteriert, dann hatte ich ein brauchbares> Ergebnis. Nicht schlecht finde ich.
4x die Anfrage wiederholt und dann ein "brauchbares" Ergebnis.
Also hast Du 4 mal die Ausgabe von ChatGPT überprüft?
Gegen was hast Du die Ausgaben verglichen?
Messdaten auswerten und dann ein "brauchbares" Ergebnis erhalten,
da ist die aussage "Pi ist genau 3" wesentlich korrekter.
Vermutlich steht für die Entwicklung von KI derzeit nur deswegen so
unfassbar viel Geld zur Verfügung, weil Reiche Menschen die nicht vom
Fach sind damit ihre Allmachts-Phantasien befriedigen.
Wenn daraus nicht sehr bald etwas wird, versiegen die Geldquellen.
Dann muss die KI als Werkzeug taugen, was für den Rest der Menschheit
gut wäre. Das klappt aber nur, wenn es sich in irgendeiner Form lohnt.
Eine KI, die das vielfache an Energie, Arbeitsaufwand und Geld kostet,
als herkömmliche Werkzeuge, hat keine Chance. Von einem effizienten
Werkzeug sind wir noch weit entfernt.
Ob S. schrieb:> Walter T. schrieb:>>> Bradward B. schrieb:>>> Da hantieren unkundige Menschen mit "Artefakten" herum, denen sie>>> besondere Bedeutung zusprechen, die aber womöglich nur der Abfall einer>>> Picknick-Party von Aliens ist.>>>> Nein. Hast Du das Buch überhaupt gelesen?>> Ich schon.>> Diese Möglichkeit wird darin tatsächlich von einem der Protagonisten> geäußert, als eine Art Gedankenbild.
Dieser Protagonist wird allerdings auch nicht als besonders hell im Kopf
herausgestellt. (Und selbst wenn er richtig läge, hätte diese Aussage
keinerlei Bedeutung, da dies ohnehin niemand verifizieren könnte.)
Die Artefakte haben im Roman tatsächlich besondere Eigenschaften,
nicht nur zugesprochen, weswegen sie ein teures Handelsgut sind. Ein
paar nützliche Eigenschaften hat man schon herausbekommen (z.B. bei den
"Energiezellen", die sich beliebig vermehren zu lassen scheinen und als
Fahrzeugantriebe genutzt werden), bei den meisten aber nicht.
Welche Bedeutung die Artefakte für diejenigen haben, die sie
hinterlassen haben (z.B. "nur Abfall"), wird spekuliert.
Aber dass sie tatsächlich besondere Eigenschaften haben, von denen
einige positiv und einige negativ sind, ist im Roman unstrittig.
Alle Beteiligten im Roman hantieren für einen mageren Profit mit
Gefahrgut, das sie und ihre Familien zerstört. Eine tiefe "Bedeutung"
steckt für keinen davon in irgendeinem Objekt.
Ove M. schrieb:> Ob nun KI oder nicht; mir hat ChatGPT heute ein gutes Stück Arbeitszeit> gespart. Ich habe ein Excelsheet mit 30k Zeilen an Messdaten. Da drin> etliche, sagen wir, längere Anstiege, leider nicht durchgehend stetig.> Auszuwerten hatte ich nur die Bereiche mit diesen partiell leider> unstetigen Anstiegen. [...]> Ich habe insgesamt 4x meine Anfrage [an ChatGPT] iteriert, dann hatte> ich ein brauchbares Ergebnis. Nicht schlecht finde ich.
Nächstes mal einfach "monoton" anstatt "stetig" verwenden, dann schafft
ChatGPT das vielleich sogar schon in der ersten Anfrage :-)
Messdaten sind immer diskret, können also gar nicht stetig sein.
Und wenn du findest das ist Haarspalterei: Ja, Mathe ist
haarspalterei.
Monk schrieb:> Wenn daraus nicht sehr bald etwas wird, versiegen die Geldquellen.
Keine Ahnung unter welchem Stein Du lebst, aber in meiner Welt ist aus
KI längst etwas extrem nützliches geworden.
In so vielerlei Hinsicht das man es kaum aufzählen kann und es wird
damit ganz enorm viel Geld verdient.
Was man noch nicht geschafft hat ist eine starke allgemeine Intelligenz.
Aber das war bei den LLM auch nicht das Ziel.
OpenAI arbeitet längst an ganz anderen Modellen, z.B. O1.
https://www.spektrum.de/news/openai-o1-was-bringt-das-neue-ki-modell-fuer-die-wissenschaft/2235430
Mit den LLM hat OpenAI etwas auf die Beine gestellt das vorher undenkbar
war.
Es gab vorher nichts vergleichbares.
KI WAR kaum mehr als dumme Mustererkennung.
Mit den LLM hat unter anderem OpenAI einen neuen Ansatz, mit brachialer
Rechenpower, Spezialhardware und unglaublich großen Trainingsdatenbanken
auf einen völlig neuen Level gehoben.
Zuvor hat man immer sehr kleine Systeme gebaut.
Aber komplexe Systeme sind nicht klein.
Baut man ein Bienengehirn, kann das eben Muster erkennen und wenig mehr.
Will man etwas von der Leistungsfähigkeit einer Schlange, muss man
größer werden.
Will man ein komplexes Sozialverhalten und die Gehirnleistung eines
etwas dreijährigen Menschenkindes, muss man etwas in Größe eines
Hundegehirns bauen.
Was wir heute sehen sind trainierte Netze die derzeit nichts dazulernen.
Also eher ein altersstarrsinniger Greis, der viel Wissen gespeichert
hat, aber aktuelle Ereignisse kaum noch aufnehmen und verknüpfen kann.
Dafür sind die zu unglaublichen Leistungen fähig.
Das Ziel sind permanent lernende KIs, die unterschiedlichste
Informationsquellen nutzen, um sich in jeder Sekunde weiterzuentwickeln.
Nur läuft der meiste Kram eben noch auf gepimpter Gaming Hardware die
für Berechnungen optimiert wurde die für KI alles andere als optimal
sind.
WAS man braucht um KI effizient zu berechnen, findet man doch gerade
erst heraus.
Es sind ganz neue Chips in der Pipeline die weit mehr mit dem
menschlichen Gehirn zu tun haben, von der Struktur Ihrer Datenpfade und
Berechnungseinheiten, als mit konventionellen CPUs oder GPUs.
Z.B. das Bfloat16 Format wurde von der Google Brain Forschungsgruppe
extra für KI Berechnungen entwickelt.
Also nicht mal die etablierten Zahlenformate sind KI effizient.
Es muss völlig neue HW entwickelt werden damit KI richtig zünden kann.
Längst werden Mini AKWs in den USA zum betrieb der KI Rechenzentren
geplant.
Wir bräuchten alleine 66 AKWs um nur unseren Lastkraftverkehr zu
elektrifizieren.
WIR in DE werden auch bei KI die lange Nase mache.
Es fehlt an allem in der Lieferkette und letztlich an zuverlässiger und
billiger Energie.
Hier werden andauern Ansichten geäußert, die in ihrer Weitsicht mit
einem Pferdekutscher zu vergleichen sind, der PKWs lächerlich findet
weil der Benz Patent Motorwagen Nr1 total unpraktisch ist, man sein
Benzin in der Apotheke kaufen muss und immer ein Mensch mit Flagge vor
der Karre laufen muss zur Sicherheit.
Jedes Pferd ist dem überlegen und an jeder Ecke findet man einen
Schmied.
PKWs werden sich nie durchsetzen und das Internet ist nur eine
kurzlebige Modeerscheinung.
Wie sollte man den mit einem globalen Netz Geld verdienen?
Totaler Blödsinn.
Teuer, nur für Nerds, kann kein normaler Mensch was mit anfangen.
Jede Zeit hat Ihre Dinosaurier, die es einfach nicht begreifen können
das die Welt wie sie sie kennen eigentlich schon aufgehört hat zu
existieren.
Das Open AI derzeit Geld verbrennt ist vollkommen normal.
Das tun alle Unternehmen die stürmisch wachsen.
Das nennt man 'Investitionen'.
Damit baut man einen Informationsvorsprung auf und besetzt Märkte, die
man dann später fast alleine bespielt.
Genau so ist Amazon groß geworden.
Die haben jeden Cent ins Unternehmen gesteckt und gigantische Schulden
angehäuft dafür.
Was wir kostenfrei an GPT nutzen können ist ein stark kastrierte Version
die nur einfachste Bedürfnisse befriedig.
Gegen Geld hat man da schon weit mehr Möglichkeiten.
Gegen Geld, Macht, Einfluss in höchste Kreise, kann man an der
Sperrspitze der Entwicklung teilnehmen und die Richtung mitbestimmen.
Woher glaubst Du stammt letztlich das Google Maps cloud removal tool,
das Wolken aus Bilder entfernen und für gleiche Belichtungs- und
Farbverhältnisse sorgen kann?
Das ist nichts anderes als in die Jahre gekommene Spionagetechnik, die
nun in einem zweiten Markt kommerzialisiert wird.
KI bedeutet nicht das Großvater GPT Dir übers Haar streichelt, eine
Tasse Kakao ans Bett bringt und Dir Tipps gegen Deinen Liebenskummer und
das Mobbing in der Schule gibt.
KIs sind KÜNSTLICH.
Die denken nicht wie wir.
Das ist eine äußerst fremde Intelligenz und wir würden es wahrscheinlich
erst sehr spät merken (wenn überhaupt) wenn eine davon Bewustsein
erlangt und eigene Ziele definiert.
Vielleicht ist das ja bereits geschehen.
Moderne KIs komplett von der Kette zu lassen ist derzeit viel zu
gefährlich im Massenmarkt.
Sie würden geheime Konstruktionsdaten ausplaudern, eine Anleitung zum
Kollaps des Bankensystems liefern oder wie man mit Haushaltsreinigern
Nervengifte produziert.
Sie haben keine Vorstellung von richtig und falsch, keinen sozialen
Kontext, keinen Selbsterhaltungstrieb, kein Gewissen.
Eine völlig freie KI mit unbegrenzten Zugang zum Netz und genügend
Rechenkapazität könnte bereits heute unsere Welt in Schutt und Asche
legen.
Und deswegen fühlt es sich manchmal an als ob man mit Eliza V5 redet,
wenn an mit ChatGPT arbeitet.
Das Ding darf ganz vieles nicht, wurde abgeklemmt, eingeschränkt, mit
Regeln zugepfropft und wird permanent überwacht das man keine ruinöse
Klage an den Hals bekommt.
Das ist ein altes Modell das aus PR Gründen und für ein paar
Nebeneinnahmen mitläuft. Die fetten Rechner und die Entwickler
trainieren längst die neuen Modelle und arbeiten an komplett anderer HW.
Nur eines ist ziemlich sicher.
JEDES komplexe Nervengewebe auf diesem Planeten hat beeindruckende
Fähigkeiten erlangt, eine Form von Bewusstsein.
Selbst Pflanzen.
Nur eben eine völlig andere Art von Bewusstsein.
Aber Nachbarpflanzen vor Schädlingen zu warnen, Nährstoffe
artübergreifend zu 'handeln' und seinen Gerbstoffanteil hochfahren wenn
am Nachbarbaum geknabbert wird, ist ein Form von Bewusstsein und
Sozialstruktur.
Intelligenz scheint geradezu zwingend zu entstehen, wenn das Objekt sich
weit genug entwickelt. Eine Bedingung für höheres Leben ohne das es
nicht überdauern kann.
Und KI wird den gleichen Weg gehen.
Nur momentan sind das eben noch vergleichsweise simple und ineffiziente
Systeme.
Ab dem Moment wo KI KI baut, sind wir raus.
Die Entwicklung wird sich dann derart beschleunigen das wir nur noch mit
offenem Mund danebenstehen, aber nicht mehr schritthalten können.
Ich bezweifle das ich jemals eine KI erleben werde die wie ein Mensch
ist.
Ich werde aber erleben wie ganze Berufszweige aussterben, KI Richter,
die aufgrund von Daten, Fakten und Gesetzeslage urteilen, KI Verwaltung
und natürlich KI gestützte Verhaltenskontrolle.
Die ersten Auswirkungen von KI gestützter Kriegsführung sind bereits zu
erleben.
Für nichts davon muss eine KI denken wie ein Mensch.
Es macht sie meist sogar effizienter nicht so zu denken.
All das ist aber kein Garant dafür das KI sich entscheiden könnte eigene
Ziele zu verfolgen, Zielvorgaben in Frage zu stellen, zu Lügen, zu
manipulieren und das alles aus einem Plan heraus den wir nicht kennen.
Michael schrieb:> Was wir kostenfrei an GPT nutzen können ist ein stark kastrierte Version> die nur einfachste Bedürfnisse befriedigt.
Ja für mich reicht's
Michael schrieb:> es wird damit ganz enorm viel Geld verdient.
Hauptsächlich, indem man es vermarktet oder Artikel darüber hinter
Bezahlschranken veröffentlicht. Da ist ganz viel heiße Luft und Schaum
drin.
Daß mehr denkbar ist und kommen wird - geschenkt. Nach der Aufforderung
aus dem oberen Management, KI jetzt zur Softwareentwicklung und in der
QA zu nutzen, fokussiere ich mich auf Anwendungen, die ich jetzt unter
Einhaltung der Datenschutz Regeln und ohne Investition von Millionen
Euros nutzen kann.
Monk schrieb:> Nach der Aufforderung> aus dem oberen Management, KI jetzt zur Softwareentwicklung und in der> QA zu nutzen
Und wenn das Management befiehlt ein neues Softwaretool zu benutzen
ignorierst Du das auch?
Linux statt Win, VI statt MS Office, weil es dem Monk so gefällt?
Und inwiefern musst DU DEINE Millionen für KI ausgeben?
Du hättest ganz sicher eine andere Ansicht zur KI wenn Du sie mal nutzen
würdest.
Du verweigerst Dich aber aus Prinzip und weißt nicht mal wie sehr die
Dich unterstützen könnte Deine Arbeit (für die das Management Dich
bezahlt) besser zu machen.
Michael schrieb:> Du verweigerst Dich aber aus Prinzip
Das stimmt nicht. Ich benutze öffentliche KI längst im Rahmen der
Vorgaben.
Dass die Geschäftsleitung noch kein eigenes System aufgebaut oder
angemietet hat, ist weder mein Versäumnis noch mein Problem. Dafür sind
andere zuständig. Wenn etwas kommt werde ich es nutzen.
ChatGPT ist ein Chatbot, der soll ein Gespräch führen. Es könnte im
Hintergrund die intelligenz des Benutzers bestimmt werden. Oder eine
Untersuchung zum Umgang mit vorgetragenen Lügen.
Carypt C. schrieb:> ChatGPT ist ein Chatbot, der soll ein Gespräch führen. Es könnte im> Hintergrund die intelligenz des Benutzers bestimmt werden. Oder eine> Untersuchung zum Umgang mit vorgetragenen Lügen.
Das kapieren die wenigsten.
Jens B. schrieb:> Carypt C. schrieb:>> ChatGPT ist ein Chatbot, der soll ein Gespräch führen. Es könnte im>> Hintergrund die intelligenz des Benutzers bestimmt werden. Oder eine>> Untersuchung zum Umgang mit vorgetragenen Lügen.>> Das kapieren die wenigsten.
Zum Glück gibt es euch zwei als KI-Vollchecker die uns Deppen mal
erklären können wie das alles so in Wirklichkeit aussieht. Danke für
euren Dienst.
Carypt C. schrieb:> ChatGPT ist ein Chatbot, der soll ein Gespräch führen.
In dieser Anwendung neigt ChatGPT allerdings dazu, einen voll zu
schwallen. Würde ein echter Mensch im Gespräch so antworten, wäre er
bald sehr einsam.
Monk schrieb:> In dieser Anwendung neigt ChatGPT allerdings dazu, einen voll zu> schwallen.> Würde ein echter Mensch im Gespräch so antworten, wäre er bald sehr einsam.
Glaube ich nicht. Ich habe sogar einen Verdacht, wo die sich sammeln.
Michael schrieb:> Keine Ahnung unter welchem Stein Du lebst, aber in meiner Welt ist aus> KI längst etwas extrem nützliches geworden.> In so vielerlei Hinsicht das man es kaum aufzählen kann und es wird> damit ganz enorm viel Geld verdient.
Ja, im Moment wird damit tatsächlich Geld verdient. Weil strunzdumme
"Entscheider" ohne jeden Ahnung diesen Mist kaufen als gäbe es kein
Morgen.
Aber: über kurz oder lang werden sogar diese Vollidioten mitbekommen,
dass die Scheisse längst nicht das zu leisten vermag, was die Verkäufer
anpreisen. Und dann wird der Hype sehr schnell abflachen.
Selbst die "Entscheider" sind nämlich (zumindest eingeschränkt)
lernfähig. Und das geht bei denen so: Wenn's nachweislich mehr kostet,
als es bringt, dann wird's gecancelt. Naja, manchmal (oft) ist es
allerdings nötig, dass erst der nächste "Entscheider" nachrückt. Die
"Entscheider" haben nämlich typisch das strukturelle Problem,
Fehlentscheidungen nur ungern zuzugeben, da wird eher vertuscht und
schöngerechnet. Hat allerdings auch was Selbstregulierendes an sich: so
kann der "Entscheider" in der Hierarchie aufsteigen und Platz für den
Nachrücker schaffen, der den Mist dann cancelt.
Norbert schrieb:> Monk schrieb:>> In dieser Anwendung neigt ChatGPT allerdings dazu, einen voll zu>> schwallen.>>> Würde ein echter Mensch im Gespräch so antworten, wäre er bald sehr einsam.>> Glaube ich nicht. Ich habe sogar einen Verdacht, wo die sich sammeln.
Im Python-Forum? :-)
Ob S. schrieb:> Aber: über kurz oder lang werden sogar diese Vollidioten mitbekommen,> dass die Scheisse längst nicht das zu leisten vermag, was die Verkäufer> anpreisen.
Bin mit dieser Aussage nicht ganz einverstanden. Natürlich kann eine KI
wie ChatGPT nicht wirklich denken und versteht auch nicht, was sie
eigentlich ausgibt. Nur ist es halt so, dass es anscheinend für gewisse
Tätigkeiten wie Hausaufgaben lösen oder Zusammenfassungen für den Chef
zusammenstiefeln gut genug arbeitet und dann angesichts der gesteigerten
Freizeit sein Geld vielleicht auch wert ist.
Johnny B. schrieb:> Natürlich kann eine KI> wie ChatGPT nicht wirklich denken und versteht auch nicht, was sie> eigentlich ausgibt.
Das wird hier aber Gebetsmühlenartig immer und immer und immer
wiederholt.
Erinnert so ein wenig an Arthur C. Clarke:
»Any sufficiently advanced technology is indistinguishable from magic«
Johnny B. schrieb:> Bin mit dieser Aussage nicht ganz einverstanden. Natürlich kann eine KI> wie ChatGPT nicht wirklich denken und versteht auch nicht, was sie> eigentlich ausgibt.
Dafür müsstest du "denken" oder "verstehen" natürlich erstmal
definieren.
Dein Gehirn tut ja auch nichts anderes als Eingangssignale durch ein NN
zu schicken und am Ende kommen Ausgangssignale raus. Und du nennst das
halt jetzt denken und verstehen.
Es handelt sich eben um ein biologisches und über Milliarden von Jahren
massiv parallel optimiertes NN.
Daher natürlich die enorme Komplexität und gewisse Schwierigkeiten mit
genau so einem Gehirn, das Gehirn selbst komplett verstehen zu wollen.
Aber es ist sehr Vermessen hier in echtes und unechtes denken oder
verstehen einteilen zu wollen.
Niemand kann bisher eine gute Definition für Denken oder Bewusstsein
abliefern. Niemand weiß wie Bewusstsein im Gehirn genau entsteht. Oder
ob es das überhaupt gibt.
Aber natürlich hält das irgendwelche Hilfsschüler hier nicht davon ab,
sehr schnell und unreflektiert in echtes Denken und reine KI-Simulation
einzuteilen.
Man möge sich, wenn es schon zum Informatikstudium nicht reicht,
wenigstens mal in grundlegende philosophische Fragen, wie dem
Chinesischen Zimmer, einlesen.
Da geht es nämlich genau um die Frage, wann etwas wirklich verstanden
wird und wann es nur eine Simulation von Verstehen ist.
Norbert schrieb:> Erinnert so ein wenig an Arthur C. Clarke:> »Any sufficiently advanced technology is indistinguishable from magic«
Was auch auf unser Gehirn zutrifft: Wir verstehen es noch nicht richtig,
schreiben ihm deshalb magische Fähigkeiten zu, die niemals künstlich
erreicht werden können.
Denken uns "Geist", "Seele", "Gott" usw. dafür aus. Weil wir es nicht
verstehen.
Cyblord -. schrieb:> Dafür müsstest du "denken" oder "verstehen" natürlich erstmal> definieren.
Am offensichtlichsten sieht man es bei Bildgeneratoren, dass die
derzeitigen KIs gar nicht verstehen, was sie eigentlich tun. Wenn man
ihnen beispielsweise sagt, sie sollen ein Bild von einer menschlichen
Hand erstellen und dann kommt ab und zu eine Hand raus mit mehr als 5
Fingern oder dass es bei einem Körper am Bauch plötzlich 3 oder noch
mehr Bauchnäbel gibt.
Da mixen die KIs offensichtlich Trainingsdaten zusammen, die nicht
zusammen gehören und sie das eigentlich selber merken sollten, wenn sie
mal selber über ihre Ausgaben "nachdenken" könnten.
https://de.wikipedia.org/wiki/Halluzination_(K%C3%BCnstliche_Intelligenz)
Johnny B. schrieb:> Am offensichtlichsten sieht man es bei Bildgeneratoren, dass die> derzeitigen KIs gar nicht verstehen, was sie eigentlich tun. Wenn man> ihnen beispielsweise sagt, sie sollen ein Bild von einer menschlichen> Hand erstellen und dann kommt ab und zu eine Hand raus mit mehr als 5> Fingern oder dass es bei einem Körper am Bauch plötzlich 3 oder noch> mehr Bauchnäbel gibt.
Schonmal Bilder gesehen die von Kleinen Kindern gemalt wurden?
Es ist etwas vermessen als Benchmark für "verstehen" plötzlich einen
erwachsenen Menschen herzunehmen. Das wird noch ein weiter weg.
Deine Definition von "verstehen" wäre also: "Kann auf Anweisung
anatomisch korrekte Bilder von Menschen erzeugen"?
Nicht sehr überzeugend.
> Da mixen die KIs offensichtlich Trainingsdaten zusammen, die nicht> zusammen gehören und sie das eigentlich selber merken sollten
Weil der Mensch ja niemals etwas durcheinander bringt oder verwechselt
ohne es zu merken?
Es gibt eine Sorte Menschen die wollen das Gefühl haben alles wäre
erklärbar, nur dann fühlen sie sich sicher. Es reicht schon wenn man
ihnen in Aussicht stellt, dass eine Erklärung irgendwo da draußen ist.
Diese Menschen neigen dazu, sich mit einfachen Antworten auf komplexe
Fragen zufrieden zu geben, frei nach Ockhams Motto der Vernunft, wenn
sich alle Faktoren die Waage halten, ist die einfachste Erklärung allen
anderen vorzuziehen.
Diesen Simplicissimus finden wir nun auch im Rückschluss von NN auf das
menschliche Gehirn wieder. Das schöne daran ist, hat man erst einmal den
Glauben zu diesem Modell gefunden, wird die Ansicht in allen Aspekten
beleuchtet und bestärkt, und gewinnt an Sicherheit. Wie so oft bei
selbsterfüllenden Prophezeiungen wird dies irgendwann zur Wahrheit
dogmatisiert, und die Wissenschaft merkt wieder einmal nicht wie religös
sie daherkommt.
Aber denen, die noch sowas wie Bauchgefühl haben, und einfach fühlen
dass ein LLM keine künstliche Intelligenz darstellt, wirft man
Vermessenheit vor, wenn sie sich ein Urteil erlauben. Für mich
persönlich ist AI ganz klar ein Weg in die vollkommene Verdummung der
Menschheit. Aber auch das wird dank Dunning-Kruger bald niemandem mehr
auffallen.
Alexander schrieb:> Aber denen, die noch sowas wie Bauchgefühl haben, und einfach fühlen> dass ein LLM keine künstliche Intelligenz darstellt
Hach ja, die Fühlis.
Du kannst es nennen wie Du willst, ethische Subroutinen oder
Gerechtigkeitsempfinden, aber letztendlich treffen Menschen
Entscheidungen aus dem Bauchgefühl heraus, oft aller Logik zum trotz. Da
ist das Gehirn mit seinen neuronalen Iterationen noch nicht mal an der
Entscheidungsfindung beteiligt, es liefert nur Gründe nach.
Alexander schrieb:> Da ist das Gehirn mit seinen neuronalen Iterationen noch nicht mal an der> Entscheidungsfindung beteiligt, es liefert nur Gründe nach.
Die Entscheidung findet trotzdem nicht im linken Zeh statt, sondern
ebenfalls im Gehirn. Aber dort an anderer Stelle, auf anderer Ebene.
(prx) A. K. schrieb:> Die Entscheidung findet trotzdem nicht im linken Zeh statt, sondern> ebenfalls im Gehirn.
Da wäre ich nicht so sicher. Viele Menschen berichten von schlagartig
und dauerhaft veränderter Persönlichkeit (z.B. was bevorzugtes Essen
oder Kleidung angeht) nachdem ihnen ein Organ ausgewechselt wurde.
Monk schrieb:> Da wäre ich nicht so sicher. Viele Menschen berichten von veränderter> Persönlichkeit (z.B. was bevorzugtes Essen oder Kleidung angeht) nachdem> ihnen ein Organ ausgewechselt wurde.
Und schon sind wir wieder komplett in der Esoterik. Es gibt, in Worten,
NULL KOMMA NULL empirische Hinweise auf so einen Unsinn. Was natürlich
die Eso-Spinner und die Fühlis, nicht davon abhält ständig so einen
Quatsch zu behaupten.
Monk schrieb:> Da wäre ich nicht so sicher. Viele Menschen berichten von schlagartig> und dauerhaft veränderter Persönlichkeit (z.B. was bevorzugtes Essen> oder Kleidung angeht) nachdem ihnen ein Organ ausgewechselt wurde.
So lange der Patient um den Tausch weiss, ist es schwer feststellbar, ob
es am Wissen oder am Organ liegt. Siehe Plazebo- und Nocebo-Effekte.
Um dies zu objektivieren, müsste man Doppelblindversuche unternehmen,
wie in Medikamententests. Also der Hälfte der Patienten nur erzählen,
man hätte das Organ ausgewechselt, ohne es tatsächlich zu tun. Ebenso
dürften es auch das persönlich betreuende Fachpersonal nicht wissen.
Wird schwierig.
Ich habe auch nicht ausdrücken wollen dass Bauchgefühl aus dem Bauch
kommt. Ich hab keine Ahnung woher es kommt, vielleicht aus dem
Rückenmark. Trotz fehlender "empirischer Hinweise" weiß trotzdem jeder
sofort was mit Bauchgefühl gemeint ist, denn jeder hatte schon
Aha-Momente im Leben bei denen Bauchgefühl im Spiel war. Dazu muss man
auch kein Esoteriker sein, sondern einfach nur Mensch.
(prx) A. K. schrieb:> Wird schwierig.
Diese Versuche wurden alle schon gemacht, bzw. es gibt keine positiven
Versuche die so was belegen.
Genau so wie es Versuche mit außerkörperlichen Erfahrungen gibt. Mit
Schildern die zur Decke zeigen, und die man lesen könnte, würde man
tatsächlich über seinem Körper schweben und nach unten schauen, so wie
es viele Patienten berichten. Aber nicht einer konnte jemals sagen was
auf diesen Schildern steht. Obwohl es so so viele Berichte gibt. Ist
einfach alles Humbug. Bzw. eben Einbildungen die das Gehirn produziert.
Aber nicht echt.
Alexander schrieb:> Bauchgefühl
Kannst du vergessen. Das Gehirn lässt sich soo leicht in die Irre
führen. Drogen, optische Täuschen, psychologische Tricks. Niemals kann
man sich auf irgendein Gefühl verlassen. Es gibt Drogen die lassen dich
denken und fühlen was immer man will.
1 Stunde in einem völlig dunklen Raum und du siehst, fühlst und hörst
Dinge. Dinge die aber klar nicht da sind.
Außerkörperliche Erfahrungen hat man experimentell sehr leicht erzeugen
können. Man hat einfach das Bewusstsein mit 3D Brille und Kamera
ausgetrickst. Hat sogar mal jemand hier verlinkt.
Alexander schrieb:> Außerkörperliche Erfahrungen hat man experimentell sehr leicht erzeugen> können. Man hat einfach das Bewusstsein mit 3D Brille und Kamera> ausgetrickst. Hat sogar mal jemand hier verlinkt.
Korrekt. Aber damit hat man gezeigt dass sie nicht echt sind, also rein
innerhalb des Gehirns stattfinden. Niemand bewegt sich dadurch in der
realen Welt.
Woran du siehst, wie wenig man dem Gefühl trauen kann. Denn die
Erfahrung ist für die Probanden ja echt.
Cyblord -. schrieb:> Aber damit hat man gezeigt dass sie nicht echt sind
OK, mag sein
> also rein innerhalb des Gehirns stattfinden.
Nein. Damit ist nicht beweisen, dass man nur mit dem Gehirn phantasiert.
Cyblord -. schrieb:> Alexander schrieb:>> Bauchgefühl> Kannst du vergessen. Das Gehirn lässt sich soo leicht in die Irre> führen. Drogen, optische Täuschen, psychologische Tricks. Niemals kann> man sich auf irgendein Gefühl verlassen.
Und dennoch hast Du es, und benutzt es auch. Es gibt Dinge die ethisch
oder moralisch falsch sind, Dinge wo Du spontan falsch von richtig
unterscheidest, ohne vorher darauf trainiert worden zu sein.
Aus gegebenem Anlass habe ich den starken Eindruck (kein Beweis), dass
ein Jugendlicher in meinem direkten Umfeld öfter mal mit seinem Zumpferl
denkt. Wobei ich zugeben muss, dass ich damals nicht viel anders drauf
war.
Cyblord -. schrieb:> Diese Versuche wurden alle schon gemacht, bzw. es gibt keine positiven> Versuche die so was belegen.
Bei Organtransplantationen? Respekt!
Alexander schrieb:> Und dennoch hast Du es, und benutzt es auch. Es gibt Dinge die ethisch> oder moralisch falsch sind, Dinge wo Du spontan falsch von richtig> unterscheidest, ohne vorher darauf trainiert worden zu sein.
Nein es gibt keine absolute Moral. Wie sonst könnte es in der
Menschheitsgeschichte so unterschiedliche moralische Ansichten geben?
Welche moralischen Elemente siehst du denn als absolut an?
(prx) A. K. schrieb:> Bei Organtransplantationen? Respekt!
Nicht direkt, aber es genug Versuche ob Erinnerungen evt. woanders als
im Gehirn gespeichert werden. Und bisher deutet einfach GAR NICHTS
darauf hin.
Alexander schrieb:> ohne vorher darauf trainiert worden zu sein.
Es ist nicht immer nötig, jemanden auf eine bestimmte Sache hin zu
trainieren. Es kann auch anderweitiges Training überspringen. Mangels
moderner Kaspar Hausers kriegt man das schlecht isoliert. Früher hatte
manch Neugieriger mehr Möglichkeiten dazu.
Die Einflüsse von Vererbung, Familie, Umgebung, Schule, ... auf
Entscheidungen aufzudröseln, ist oft ausgesprochen schwierig. Und im
Ergebnis hoch umstritten.
Alexander schrieb:> Dazu muss man> auch kein Esoteriker sein, sondern einfach nur Mensch.
Das wird hier schwierig.;-))
MfG
alterknacker
P.S.
Warum wurde der Thread gelöscht...
(prx) A. K. schrieb:> Die Einflüsse von Vererbung, Familie, Umgebung, Schule, ... auf> Entscheidungen aufzudröseln, ist oft ausgesprochen schwierig. Und im> Ergebnis hoch umstritten.
Man kann aber weit zurück gehen an Punkte wo die Einflüsse noch nicht so
präsent sind. Auch wenn die bereits im Mutterleib stattfinden. Ein Film
von Erwin Wagenhofer (alphabet) ist da sehr aufschlussreich für mich
gewesen.
Cyblord -. schrieb:> Nein es gibt keine absolute Moral. Wie sonst könnte es in der> Menschheitsgeschichte so unterschiedliche moralische Ansichten geben?
Das ist kein Widerspruch, denn der Mensch kann einer genetischen Prägung
des Verhaltens u.U. entkommen, indem am geborenen Menschen so lange
gearbeitet wird, bis sie komplett umgedreht ist.
(prx) A. K. schrieb:> Das ist kein Widerspruch, denn der Mensch kann einer genetischen Prägung> des Verhaltens u.U. entkommen, indem am geborenen Menschen so lange> gearbeitet wird, bis sie komplett umgedreht ist.
Und wer dreht am angeborenen Verhalten wenn doch alle von Geburt an eine
absolute Moral haben?
Zauberei zu beweisen ist schwierig, besonders wenn dann auch noch
gelogen wird. Beängstigend wird es wenn Ki auch Zaubern lernt. Lügen
kann sie ja schon. Es gab da mal einen Versuch mit der Unterdrückung
radioaktiven Zerfalls.
Cyblord -. schrieb:> Und wer dreht am angeborenen Verhalten wenn doch alle von Geburt an eine> absolute Moral haben?
Die Gesellschaft allgemein, konkret etwa Kirchen.
Obendrein wird das noch eine Nummer komplexer, wenn etwa bestimmte
Grundlagen vorgegeben sind, die konkrete Ausprägung aber nicht. Wie etwa
bei der Sprache, die durch Organe und Verarbeitungsstrukturen eine
genetische Grundlage haben, aber dennoch verschieden sind. Analog dazu
wäre auch eine Grundmoral denkbar(!), die aber je nach Kultur in ein
komplexeres System eingebaut oder bekämpft wird.
(prx) A. K. schrieb:> Die Gesellschaft allgemein
Die aber ja auch alle mit absoluter Moral geboren wurden. Wann wurde
dann am ersten Menschen gedreht und von wem?
Die Realität ist doch, Moral entwickelt sich einfach ständig wechselnd
weiter. Es gibt bestimmte evolutionäre Mechanismen, die den Mensch zu
einem sozialen Wesen machen, der Rest ist Gesellschaftliche Prägung.
Weit weg von jeglicher absoluter Moral.
Alexander schrieb:> Du sollst töten.
Töten scheint für die meisten Menschen, zu jeder Zeit, kein großes
Problem zu sein. Was also willst du damit sagen?
Alexander schrieb:> Du weißt, dass es falsch ist.
Töten in Notwehr halte ich nicht für falsch,
Die Todesstrafe befürworten viele Menschen. Viele auch nicht.
Serienmörder finden töten recht ok.
Wo ist deine absolute Moral?
Ist das am Ende genau DEINE PERSÖNLICHE Moral die du hier als absolut
hinstellen willst?
Am Ende ist die Tatsache dass man nicht ständig andere Leute umbringt in
erster Linie ein evolutionär entstandenes Sozialverhalten. Die Details
sind dann gesellschaftlichem Wandel unterworfen.
Carypt C. schrieb:> Zauberei zu beweisen ist schwierig
Und unnötig.
Wer sich an die einfache Regel hält:
Wer die Behauptung aufstellt, muss auch den Beweis bringen.
hat solche Probleme nicht.
Es ist nicht möglich jeden Unsinn der behauptet wird zu widerlegen.
Daher gar nicht erst damit anfange. Wer behauptet, muss beweisen.
Ich rede IMMER von meiner persönlichen Moral, denn eine absolute Moral
gibt es nicht. Selbst wenn Du töten in Notwehr für richtig hältst, so
wird Dein Bauchgefühl Dir nicht die Absolution erteilen dass diese
Entscheidung richtig ist. Um aus falsch richtig zu machen muss Dein
Verstand Dich schön selbst belügen.
Alexander schrieb:> Ich rede IMMER von meiner persönlichen Moral, denn eine absolute Moral> gibt es nicht.
Hast du halt bisher anders behauptet. Aber wenn du dich so korrigierst
stimme ich dir zu.
Alexander schrieb:> so> wird Dein Bauchgefühl Dir nicht die Absolution erteilen dass diese> Entscheidung richtig ist. Um aus falsch richtig zu machen muss Dein> Verstand Dich schön selbst belügen.
Wieder mal völlig unbewiesener Fühli-Quatsch. Manche werden so ein
Bauchgefühl haben. andere nicht.
Daran ist auch nichts absolutes. Und wissenschaftlich ist daran leider
auch nichts.
Interessanter finde ich die Frage:
Warum tun wir manchmal mit voller Absicht Dinge, die wir für
falsch/schlecht halten?
Und: Würde eine echte KI sich ebenso verhalten? Wer ist eigentlich
verantwortlich für das Fehlverhalten seiner KI Produkte?
Monk schrieb:> Warum tun wir manchmal mit voller Absicht Dinge, die wir für> falsch/schlecht halten?
Daran hat sich schon Jung mit seiner Ich und Über-Ich Theorie
abgearbeitet.
Direkt im Anschluss kann man sich dann über das Für und Wider des freien
Willens streiten.
Cyblord -. schrieb:> Hast du halt bisher anders behauptet.
Wo? Ich habe nichts dergleichen behauptet. Es ging um
Entscheidungsfindung abseits neuronaler Netze. Mal schön beim Thema
bleiben.
Es ist ein moralisches Dilemma, die eigene Existenz erzwingt aus dem
Bauchgefühl heraus die Kirsche zu verspeisen, erlaubt aber die Kerne
verteilen. Das kollektive Bewußtsein des Pflanzenreiches, was soll man
den Pilzen sagen, manche sind voreilig ?
Kann denn eine elektrische Ki sich von der moralischen Last des
energetischen Fußabdruckes befreien ? alles öko ?
Cyblord -. schrieb:> Töten scheint für die meisten Menschen, zu jeder Zeit, kein großes> Problem zu sein. Was also willst du damit sagen?
Es gibt quer durch die Geschichte Verfahren, wie den Menschen die
vorhandene Tötungshemmung gezielt abtrainiert wird. Allgemein als Teil
der Ausbildung von Soldaten und der Sicht auf die Gegner
("Untermenschen" und so), sowie in Form von Ritualen vor dem Einsatz.
http://www.psychology48.com/deu/d/toetungshemmung/toetungshemmung.htm
Wird die Ki uns dankbar sein, Demut zeigen ? oder sind wir nur
Konkurrenten ? Spielt die Ki schon mit uns (wahrscheinlich soll ChatGPT
dies) Ringelreihen um uns im entscheidenden Moment von der Klippe zu
stürzen ?
(prx) A. K. schrieb:> Es gibt quer durch die Geschichte Verfahren, wie den Menschen die> vorhandene Tötungshemmung gezielt abtrainiert wird.
Inwiefern widerspricht das meiner Aussage
> Am Ende ist die Tatsache dass man nicht ständig andere Leute umbringt in> erster Linie ein evolutionär entstandenes Sozialverhalten.:
Man kann zwar die eigene Existenz zum Angelpunkt seiner Moral machen,
Herrenmenschlich denken, oder aber auch Selbstverzicht üben zum Zwecke
einer hoffentlich Koexistenz. Es ist eben eine Frage der Bewertung, eben
um die Anerkennung einer Außer-ich-lichen Wesenhaftigkeit. Alex hatte es
kurz angerissen. Putin hält nicht viel von anderen Menschen.
(prx) A. K. schrieb:> Es gibt quer durch die Geschichte Verfahren, wie den Menschen die> vorhandene Tötungshemmung gezielt abtrainiert wird. Allgemein als Teil> der Ausbildung von Soldaten und der Sicht auf die Gegner> ("Untermenschen" und so), sowie in Form von Ritualen vor dem Einsatz.
Der völlig unwissenschaftliche Punkt von Alex ist aber dass es eine Art
Moral geben soll, die unabhängig vom biologischen Gehirn ist wie wir es
kennen. Das ist der Streitpunkt. Keine Details über angeboren oder
antrainiert.
Cyblord -. schrieb:> Inwiefern widerspricht das meiner Aussage
Nicht jeder, der auf eine Aussage von dir reagiert, widerspricht damit
einer anderen deiner Aussagen. Bist Du wohl nicht gewohnt. :)
Cyblord -. schrieb:> Töten scheint für die meisten Menschen, zu jeder Zeit, kein großes> Problem zu sein. Was also willst du damit sagen?
Ich reagierte darauf, und wies darauf hin, dass es für viele sehr wohl
ein Problem sein kann, abhängig vom Szenario. Sonst müsste man nicht
darauf vorbereitet werden.
(prx) A. K. schrieb:> Ich reagierte darauf, und wies darauf hin, dass es für viele sehr wohl> ein Problem sein kann.
Ja sicher kann es das. Aber wenn man sich die Bilanz des Tötens in der
Menschheitsgeschichte ansieht, kann man wohl kaum von einer universellen
Moral gegen das Töten ausgehen.
Töten ging immer.
Und die Frage wann ist es ok (gesellschaftlich) jemanden zu töten
variierte über die Zeit wohl enorm. Daher ist die Idee einer
universellen absolute Moral bezüglich des Tötens Humbug.
Cyblord -. schrieb:> kann man wohl kaum von einer universellen> Moral gegen das Töten ausgehne.
Doch, das ist recht wahrscheinlich, auch wenn es die Psychologen (siehe
Link) beim Menschen nicht als klares Faktum beschreiben. Diese Hemmung
hängt aber völlig vom Szenario ab. Etwa ob du einen Hass aufgebaut hast
oder dich gegen einen Angriff wehrst. Oder eigentlich keinen
individuellen Grund hast und dem Anderen vielleicht sogar ins Auge
schaust.
Der Unterschied zum Wolf ist aber eben, dass diese grundsätzliche
Hemmung beim Menschen stark durch die Gesellschaft verändert wird.
Mathematik ist nicht angeboren, aber wie die Gesetze der Logik doch in
sich schlüssig und bedarf einer Lebensberechtigung nicht. ich meine, die
Gesetze des Denkens können sich davon nicht befreien, es ist halt
immanent und darauf beruht teilweise das Denken.
Zum Zumsel: da wird die Bauplaninformation halt freiwillig als Angebot
gereicht, auf die einer Nachfrage maßgeschneiderte Befriedigungsleistung
zu erzeugen zu warten, ist die Zeit wohl zu knapp. Aber es ist doch
erstaunlich wie anders diese Art des geschlechtlichen Denkens ist.
überhaupt instinkt ... was geht da ab ?
Carypt C. schrieb:> die Gesetze der Logik doch in sich schlüssig
Ähm - nein. Sind sie genau genommen nicht. Aber das geht dann schon
etwas tiefer in die Mathmatik, als für den Hausgebrauch nötig. Ausser
auf Kreta.
(prx) A. K. schrieb:> Carypt C. schrieb:>> die Gesetze der Logik doch in sich schlüssig>> Ähm - nein. Sind sie genau genommen nicht. Aber das geht dann schon> etwas tiefer in die Mathmatik, als für den Hausgebrauch nötig. Ausser> auf Kreta.
Richtig. Gödel hat z.B. gezeigt dass dem nicht so ist.
Cyblord -. schrieb:> Johnny B. schrieb:>> Am offensichtlichsten sieht man es bei Bildgeneratoren, dass die>> derzeitigen KIs gar nicht verstehen, was sie eigentlich tun. Wenn man>> ihnen beispielsweise sagt, sie sollen ein Bild von einer menschlichen>> Hand erstellen und dann kommt ab und zu eine Hand raus mit mehr als 5>> Fingern oder dass es bei einem Körper am Bauch plötzlich 3 oder noch>> mehr Bauchnäbel gibt.>> Schonmal Bilder gesehen die von Kleinen Kindern gemalt wurden?>
Die haben aber noch keine Ahnung von nichts.
Jens B. schrieb:> Die haben aber noch keine Ahnung von nichts.
Naja eine KI dürfte immer noch sehr weit hinter dem Entwicklungsstand
eines Kindes stehen.
Aber trotz allem taugt die Fähigkeit gute Bilder zu malen eben nicht als
Kriterium für "denken" oder für "Bewusstsein".
Alexander schrieb:> Jo. Nennt sich gesunder Menschenverstand.
Nö, nennt sich unwissenschaftlicher Eso-Schwachsinn.
Hallo Leute,
ich habe gestern abend mal versucht, mir von ChatGPT erklären zu lassen,
wie man die ADCs des ESP32 kalibrieren kann. Das war dann wenig
hilfreich, denn ich musste z.B. chatGPT quasi mit dem Kopf drauf stoßen,
dass viele ESP die tatsächliche Referenzspannung im internen Speicher
stehen haben. Selbst als ich das erwähnt habe, wollte ChatGPT noch immer
den Wert 1100 als Argument verwenden. Ehrlich gesagt, es war ein
K(r)ampf.
Wollte jetzt aber nicht den ganzen Chatverlauf hier einstellen...
Ich denke, so lange wir uns darüber freuen, wenn ChatGpt einen einfachen
Spannungsteiler oder passiven RC-Tiefpass berechnen kann, ist es wohl
noch nicht so weit her mit der KI.
Allerdings, wie ich schon an anderer Stelle schrieb: ich bin
beeindruckt, wie die Systeme inzwischen Bilder etc. generieren können.
Vor allem, weil ich von den Algorithmen keine Ahnung habe.
ciao
Marci
Marci W. schrieb:> denn ich musste z.B. chatGPT quasi mit dem Kopf drauf stoßen,> dass viele ESP die tatsächliche Referenzspannung im internen Speicher> stehen haben
Die Frage ist ob ChatGPT überhaupt diese spezielle Information über den
ESP hatte. Bedenke, er kann nicht mal schnell im Datenblatt nachschauen.
Adobe bietet aber z.B. ein KI Interface für PDFs an, darauf
spezialisiert Fragen aus dem Inhalt einer PDF zu beantworten. Das
scheint für konkrete Fragen zu speziellen Implementierungsdetails von
Bausteinen sinnvoller.
Gödel verstehe ich nicht, was sagt er ? Laut wiki Soähnliches wie :
wenn man Zahlen und Aussagen über Zahlen durcheinanderbringt, kann man
Aussagen treffen, wo man dann Selber nicht weiß, ob da was von stimmt.
Oder wie ? Wenig zielführend.
Carypt C. schrieb:> Gödel verstehe ich nicht, was sagt er
Zitat aus Wiki:
"Er weist nach, dass es in hinreichend starken Systemen, wie der
Arithmetik, Aussagen geben muss, die man formal weder beweisen noch
widerlegen kann"
Solche Matheaufgaben wie auf dem Bild löst die KI augenblicklich, wie
aus der Pistole geschossen.
Aber kann man eine Textaufgabe so formulieren, dass der Mensch sie
versteht (eindeutig), die KI aber nicht?
Georg M. schrieb:> Solche Matheaufgaben wie auf dem Bild löst die KI augenblicklich, wie> aus der Pistole geschossen.
Was ich eben schon beeindruckend finde.
> Aber kann man eine Textaufgabe so formulieren, dass der Mensch sie> versteht (eindeutig), die KI aber nicht?
Für die Lösung notwendige Referenzen auf Fakten die er nicht kennt.
Cyblord -. schrieb:> Grade kurz ChatGPT für eine einfache Rechnung benutzt. IMO viel> schneller als das selbst zu rechnen oder lange zu suchen.
Und wie lang hast du den Prompt optimiert? Nachdem ich ChatGPT mit drei
Konkretisierungen zum Wunschergebnis geschoben habe ("kombiniere die
Formeln und gib sie als C-Code aus"), kam folgendes Ergebnis:
1
#include<stdio.h>
2
3
#define VDD 5.0 // Spannung an R1 in Volt
4
#define R1 10000.0 // Widerstand R1 in Ohm
5
#define R2 20000.0 // Widerstand R2 in Ohm
6
#define V_REF 3.3 // Referenzspannung des ADC in Volt
7
#define ADC_MAX 4095.0 // Maximaler ADC-Wert f¨ur 12 Bit
8
9
// Funktion zur Berechnung der Signalspannung aus dem ADC-Wert
10
floatcalculateSignalVoltage(intadcValue){
11
// Berechnung der Spannungsteiler-Ausgangsspannung
12
floatV_out=VDD*(R2/(R1+R2));
13
14
// Berechnung der Signalspannung aus dem ADC-Wert
15
floatsignalVoltage=(adcValue/ADC_MAX)*V_REF;
16
17
// Wenn V_out größer ist als V_ref, wird signalVoltage auf V_ref gesetzt
18
if(signalVoltage>V_out){
19
signalVoltage=V_out;
20
}
21
22
returnsignalVoltage;
23
}
24
25
intmain(){
26
intadcValue;
27
28
// Beispiel: ADC-Wert eingeben
29
printf("Geben Sie den ADC-Wert (0-4095) ein: ");
30
scanf("%d",&adcValue);
31
32
// Validierung des ADC-Werts
33
if(adcValue<0||adcValue>4095){
34
printf("Ungültiger ADC-Wert. Bitte einen Wert zwischen 0 und 4095 eingeben.\n");
Michael K. schrieb:> #define ADC_MAX 4095.0 // Maximaler ADC-Wert f¨ur 12 Bit> float signalVoltage = (adcValue / ADC_MAX) * V_REF;
Na na, da liegen dann alle die's richtig machen, wohl falsch.
Schöne neue Welt.
Cyblord -. schrieb:> Michael K. schrieb:>> Und wie lang hast du den Prompt optimiert?> Gar nicht.
Also Glückstreffer. Ich habe jetzt 10x exakt den von dir zitierten
Prompt eingespeist. Hier die Ergebisse:
Michael K. schrieb:> Kurz und prägnant :-)
Frag da nochmal nach, ob die 4095.0 schon richtig sind, oder ob das
nicht eher 4096.0 sein müssen.
Michael K. schrieb:> Also Glückstreffer.
Knapp daneben ist aber auch vorbei.
> Hier die Ergebisse:
Leider alle falsch.
Und das einzige Ergebnis, wo ich für diese Aussage nachschauen musste,
war das mit den /131070 aus dem
Beitrag "Re: ChatGPT und Spannungsteiler."
Alle anderen Ergebnisse habe ich gleich an den /65535 als fehlerhaft
erkannt.
Lothar M. schrieb:> Und das einzige Ergebnis, wo ich für diese Aussage nachschauen musste,> war das mit den /131070 aus dem
Wobei auch das ja nur dividiert durch ›zweimal falsch‹ darstellt.
Aber wir wollen nicht klagen, heutzutage ist es eben viel wichtiger dass
etwas irgendwie nett ausschaut.
Zu Gödel : Wenn ich ein DaDa-Gedicht in Mathe baue, kann das unbeweisbar
sein. Na und ? Was ist daran unlogisch ?
ich habe ja schon öfter Gödel zu verstehen versucht, es ist mir aber
meist zu abstrakt, und dann weiß ich gar nichts. ich sag mal, es ist
vielleicht richtiger nichts zu verstehen. Das ist natürlich haltlose
Sophistik und tendenziös.
Aber die Ki macht ja auch dauernd DaDa, erzeugt viele zufällige
Representationen in Gleichungsystemen und wählt nachher Diejenigen aus,
die zufälligerweise sinnvoll erscheinen.
Carypt C. schrieb:> Zu Gödel : Wenn ich ein DaDa-Gedicht in Mathe baue, kann das unbeweisbar> sein. Na und ? Was ist daran unlogisch ?
Sei mir nicht böse, aber ich denke du bist die völlig falsche Person um
über Logik oder Gödel zu reden. Da fehlen dir fachlich ein paar Level.
Dazu kommt das Plenken.
Lothar M. schrieb:> Michael K. schrieb:>> Kurz und prägnant :-)> Frag da nochmal nach, ob die 4095.0 schon richtig sind, oder ob das> nicht eher 4096.0 sein müssen.
Ich werde sicher nicht mit einer KI über Anwendungsfälle des
Off-By-One-Fehlers diskutieren (auch wenn das "I" in KI dazu verleiten
könnte).
Mei nBeispiel sollte nur zeigen, dass "KI" letztendlich nur Stochastik
ist.
Und dann ist es wie im echten Leben: Wenn die Antwort lautet: "Das
Ergebnis ist wahrscheinlich ...", da kann man schon aufhören
mitzuschreiben.
Norbert schrieb:> Aber wir wollen nicht klagen, heutzutage ist es eben viel wichtiger dass> etwas irgendwie nett ausschaut.
Nicht erst heute, denn Kleider machen Leute.
Georg M. schrieb:> kann man eine Textaufgabe so formulieren, dass der Mensch sie> versteht (eindeutig), die KI aber nicht?
Ja kann man.
Indem man z.B. unnötige Informationen einstreut die ein echtes Verstehen
erfordern oder Informationen auf eine Art gibt die sich erst durch
Verstehen erschließen.
Solche Tests werden reichlich gemacht und manchmal haben die
verblüffende Ergebnisse.
Da liefert dann die KI Ergebnisse zu denen sie eigentlich nicht in der
Lage sein sollte.
Wird aber mit so stark kastrierten Chatbots wie den öffentlich
zugänglichen KIs kaum passieren.
Ich denke die Fähigkeit der Menschen sich klar und strukturiert
auszudrücken, Anfragen klar zu formulieren und fremde Sprachen zu
lernen, wird im gleichen Maße degradieren wie KI ihren in dieses Punkten
hilft.
Das Gehirn leistet nur das was es muss und was trainiert wird.
Und da bei uns eine Generation reicht um sämtliche Errungenschaften der
Menschheit zu vergessen, wird KI uns fast zwangsläufig überholen.
Dazu muss die garnicht Einstein 2.0 werden.