Grade kurz ChatGPT für eine einfache Rechnung benutzt. IMO viel schneller als das selbst zu rechnen oder lange zu suchen. Das war meine Eingabe: "Ich habe ein Eingangsspannung zwischen 0V und 5V über einen Spannungsteiler an einen ADC angeschlossen. Der Spannungsteiler ist ein 10k/20k. Der ADC hat eine Referenzspannung von 3,3V und 16 Bit Auflösung. Ich möchte eine ganzzahlige Formel um aus dem ADC Wert die Spannung in mV zu bekommen." Ergebnis nach detailliertem Rechenweg: Vin (in mV) = (ADC x 9000) / 13107. Passt. Das kann ich nun so in den Code übernehmen. Natürlich kann man das selbst ausrechnen. Es gibt sicher auch eine fertige Formel dafür. Ich hatte mal so eine Formel in Wolfram Alpha. Müsste ich aber erst raussuchen. Aber dieser Weg ist sehr schnell. Ich bin mal wieder beeindruckt von ChatGPT. Man beachte auch dass er die etwas saloppe Angabe des Spannungsteilers korrekt erfasst hat.
:
Gesperrt durch Moderator
Cyblord -. schrieb: > Ich bin mal wieder beeindruckt von ChatGPT. Zum spielen vielleicht schön. Ich benutze aber lieber meinen Grips und einen Taschenrechner.
Jörg R. schrieb: > Cyblord -. schrieb: >> Ich bin mal wieder beeindruckt von ChatGPT. > > Zum spielen vielleicht schön. Ich benutze aber lieber meinen Grips und > einen Taschenrechner. Wieso spielen? Es handelt sich um eine echte praktische Aufgabe. Warum ist es besser das selbst zu machen? Wie lange würdest du brauchen? Man könnte ja auch den Taschenrechner hinterfragen. Warum nicht Grips und Abakus?
:
Bearbeitet durch User
Cyblord -. schrieb: > Jörg R. schrieb: >> Cyblord -. schrieb: >>> Ich bin mal wieder beeindruckt von ChatGPT. >> >> Zum spielen vielleicht schön. Ich benutze aber lieber meinen Grips und >> einen Taschenrechner. > > Wieso spielen? Es handelt sich um eine echte praktische Aufgabe. Warum > ist es besser das selbst zu machen? > Man könnte ja auch den Taschenrechner hinterfragen. Warum nicht Grips > und Abakus? Weil man immer mehr verblödet und irgendwann nicht einmal mehr einen Vorwiderstand für eine LED ohne Hilfe hinbekommt. Man liest doch selbst hier im Forum oft genug an welch einfachen Aufgaben User mittlerweile scheitern. > Wie lange würdest du brauchen? Zeit spielt bei mir eine sehr untergeordnete Rolle:-) Ich verstehe aber schon die Faszination für ChatGPT und KI, gebe auch zu mich damit noch überhaupt nicht auseinander gesetzt zu haben.
:
Bearbeitet durch User
Jörg R. schrieb: > Ich verstehe aber schon die Faszination für ChatGPT und KI, gebe auch zu > mich damit noch überhaupt nicht auseinander gesetzt zu haben. Teste es einfach mal. Beeindruckend finde ich auch die Bildererkennung. Du kannst ChatGPT Bilder hochladen. Der kann dir nicht nur den Inhalt korrekt beschreiben, sondern dir auch von Comics (z.B. von XKCD) den Witz erklären. Eventuell beeindruckt mich das am meisten. Beispiel: Ein berühmtes XKCD Comic. Siehe Anhang. ChatGPT: ---- Der Humor des Comics beruht auf mehreren Elementen: Richard Stallman wird als eine übermäßig dramatische und fast schon kriegerische Figur dargestellt, die bereit ist, für freie Software zu kämpfen, während seine Gegner ihn gar nicht mehr ernst nehmen und bereits planen, andere prominente Persönlichkeiten der Open-Source-Community anzugreifen (Eric S. Raymond und Linus Torvalds). Die Absurdität, dass die Gegner "Microsoft-Schergen" genannt werden und sich dann sofort davonmachen, unterstreicht die Ironie der Szene. Die Anspielung auf Linus Torvalds, den Entwickler von Linux, und seine "Nunchucks" verstärkt den humorvollen Charakter durch eine überzogene Darstellung dieser Persönlichkeiten. Der Comic spielt also mit den überhöhten Darstellungen und dem dramatischen Ton, um den Kampf zwischen proprietärer Software (repräsentiert durch Microsoft) und freier Software humorvoll zu kommentieren. ---- Ich finde das ist gut erklärt. Und das ganze liegt ja nicht in Text vor, die Eingabe ist ein Bild.
:
Bearbeitet durch User
Cyblord -. schrieb: > Jörg R. schrieb: >> Ich verstehe aber schon die Faszination für ChatGPT und KI, gebe auch zu >> mich damit noch überhaupt nicht auseinander gesetzt zu haben. > > Teste es einfach mal. Irgendwann mal, vielleicht..
:
Bearbeitet durch User
Cyblord -. schrieb: > Ich finde das ist gut erklärt. Und das ganze liegt ja nicht in Text vor, > die Eingabe ist ein Bild. Du hast schon verstanden, wie LLMs funktionieren? ciao Marci
Cyblord -. schrieb: > Ergebnis nach detailliertem Rechenweg: > > Vin (in mV) = (ADC x 9000) / 13107. Hmm, da hat die KI wohl kläglich versagt. > Passt. Das kann ich nun so in den Code übernehmen. Und die NI ebenso.
Ok. Du hast also 5V und einen Spannungsteiler 10k/20k, 20k unten, 10k oben, oder? Dann hast Du bei 5V eine Spannung von 3.333V. Schon mal mehr als die Referenzspannung. Den vollen ADC Wert hast Du deshalb bereits bei 4.950V. So ich rechne jetzt mal ohne KI, sondern mit meinen Neuronen, was denn bei maximalen ADC Wert 0xFFFF als Spannung berechnet wird. Sind es die 4.95V?
1 | Vin (in mV) = (ADC x 9000) / 13107. |
2 | Vin (in mV) = (65535 x 9000) / 13107 = 45000 = 45V! |
Puh! Zum Glück noch Schutzkleinspannung. So geht es: Spannungsteiler 10k/20k = Faktor 1.5
1 | Vin (in mV) = ADC / ADCmax * Vref(mV) * Spannungsteilerfaktor |
2 | Vin (in mV) = ADC / 65536 * 3300mV * (1/((20k/(10k+20k))) |
Daraus folgt:
1 | Vin (in mV) = ADC * 2475 / 32768; |
Das ist um 900% genauer, und schneller, weil Division durch 2^n
> "Ich habe ein Eingangsspannung zwischen 0V und 5V über einen > Spannungsteiler an einen ADC angeschlossen. Der Spannungsteiler ist ein > 10k/20k. > Der ADC hat eine Referenzspannung von 3,3V und 16 Bit Auflösung. > Ergebnis nach detailliertem Rechenweg: > > Vin (in mV) = (ADC x 9000) / 13107. > > Passt. Das kann ich nun so in den Code übernehmen. Um Überläufe scheint sich auch keiner zu scheren, da wird nur ganz in Dunning-Kruger-Effelt-Manier von "Passt" getrötet. https://www.profil.at/meinung/dunning-und-kruger-digital/402925834 Naja kein Wunder das die Flugzeuge und Raketen wegen Softwareproblemen vom Himmel fallen. > Ich bin mal wieder beeindruckt von ChatGPT. Ja insbesonders da die Plausibilitätsprüfung der Eingangswerte komplett fehlt. Hier bei der Referenzsspannung, die hat der TO wahrscheinlich mit der Betriebsspannung verwechselt. > Man beachte auch dass er die etwas saloppe Angabe des Spannungsteilers > korrekt erfasst hat. Hat er nicht, Toleranzrechnung fehlt komplett. Wort zum Tage:
1 | "Kompetenz in künstlicher Intelligenz ist Mangelware. Deshalb hat die Technologie auch so viele begeisterte Fans." |
(siehe link oben)
:
Bearbeitet durch User
Du kannst eine Schraube mit einem Schraubenzieher oder mit einem Akkuschrauber in das Brett schrauben. Jeder wird hier wohl das "bessere" Werkzeug verwenden. Bei Fehlbedienung muss man aber mit den Konsequenzen leben... ChatGPT ist in manchen Bereichen gut. Bei der Programmierung kann (!) er/es nützlich sein, ein Grundgerät von einer Funktion/Algorithmus zu erstellen. Dennoch muss man das Ergebnis verstehen und validieren. Bei uns in der Arbeit gilt deshalb die Regel: Wer KI Code ungeprüft übernimmt, stirbt. Die Validierung dauert. Aber man ist trotzdem oft schneller, als sich 5 Papers über irgendwelche Algorithmen durchzulesen.
Jörg R. schrieb: > Weil man immer mehr verblödet und irgendwann nicht einmal mehr einen > Vorwiderstand für eine LED ohne Hilfe hinbekommt. Ich vermute, vor 50 Jahren hieß es über den Taschenrechner: Den benutzt man nicht, weil man immer mehr verblödet und irgendwann nicht einmal mehr eine schriftliche Multiplikation hinbekommt. Da ist ja auch was dran, zumindest ich würde einige Zeit brauchen, schriftlich zu dividieren. Aber damit komme ich gut klar.
>> Weil man immer mehr verblödet und irgendwann nicht einmal mehr einen >> Vorwiderstand für eine LED ohne Hilfe hinbekommt. > > Ich vermute, vor 50 Jahren hieß es über den Taschenrechner: > Den benutzt man nicht, weil man immer mehr verblödet und irgendwann > nicht einmal mehr eine schriftliche Multiplikation hinbekommt. Nee, vor fünfzig Jahren hieß es, ein Taschenrechner ist zu teuer ist und die Alternative dazu waren Rechenstab und Multiplikationstafel und die Erkenntnis, das ein Ergebniss nicht genauer als die Eingangswerte sein kann. Die typische Genauigkeit für die Messung elektrischer Größen war damals 1% ... 5%. und die ersten bezahlbaren Taschenrechner (1974) hatten auch so ihre Probleme mit (Rundungs-)Ungenauigkeiten: http://files.righto.com/calculator/sinclair_scientific_simulator.html
:
Bearbeitet durch User
Cyblord -. schrieb: > IMO viel schneller als das selbst zu rechnen oder lange zu suchen. Das kommt drauf an, wie die eigenen Kompetenzen gelagert sind. > Passt. Das kann ich nun so in den Code übernehmen. Passt - zumindest zur (inkompetent) gestellten Frage. Normalerweise würde man im Nenner eine Zweierpotenzial bevorzugen.
:
Bearbeitet durch User
Rainer W. schrieb: > Cyblord -. schrieb: >> IMO viel schneller als das selbst zu rechnen oder lange zu suchen. > > Das kommt drauf an, wie die eigenen Kompetenzen gelagert sind. >> Passt. Das kann ich nun so in den Code übernehmen. > > Passt - zumindest zur (inkompetent) gestellten Frage. Normalerweise > würde man im Nenner eine Zweierpotenzial bevorzugen. Und einen Hinweis darauf, dass für den Spannungsteil Werte aus einer E-Reihe zu bevorzugen sind, wenn hinterher sowieso gerechnet wird, hätte ich auch erwartet.
Cyblord -. schrieb: > Grade kurz ChatGPT für eine einfache Rechnung benutzt. IMO viel > schneller als das selbst zu rechnen oder lange zu suchen. > Zuviel eigenes Wissen ist sicher ungesund für die Hirnzellen. > Das war meine Eingabe: > ..... > > Ich bin mal wieder beeindruckt von ChatGPT. > > Man beachte auch dass er die etwas saloppe Angabe des Spannungsteilers > korrekt erfasst hat. Woher willst Du wissen, daß es Korrekt ist, wenn Du zu faul zum selber rechnen bist?
Roland P. schrieb: > Dennoch muss man das Ergebnis verstehen und validieren. Genau. Und da kann man es auch gleich selber machen.
Cyblord -. schrieb: > Ergebnis nach detailliertem Rechenweg: > Vin (in mV) = (ADC x 9000) / 13107. Bei mir kommt bei exakt der selben Frage ganz was anderes raus:
1 | def adc_to_mv(adc_value): |
2 | return (adc_value * 9900) // 131070 |
Blöd jetzt aber auch... Und auch wenn die Berechnung "fast schon" das richtige Ergebnis bringt, ist sie grundlegend falsch, weil in den Rechenschritten der Faktor 65535 und eben nicht 65536 verwendet wird. Papa Q. schrieb: > Daraus folgt: > Vin (in mV) = ADC * 2475 / 32768; > Das ist um 900% genauer, und schneller, weil Division durch 2^n Genau so geht das. Man könnte sogar noch ADC * 4950 / 65536 machen, weil dann gar nichts geshiftet werden muss, sondern es reicht aus, einfach nur das obere 16-Bit-Wort des 32-Bit Integers weiterzuverwenden. Die Berechnung meines Antwortautomaten sieht nach Kürzen durch den Faktor 2 übrigens so aus: ADC * 4950 / 65535 Das ist wie erwähnt falsch. Und zudem wegen der Division durch 2^n-1 nicht gut optimierbar.
:
Bearbeitet durch Moderator
Mein Haupt-Argument für 'selber machen' ist mittlerweile 'in Übung bleiben'. Sonst verliert man irgendwann das Gespür dafür, welche Ergebnisse sich richtig und falsch anfühlen. In Übung bleiben ist unterm Strich einfacher als "bei Bedarf jedes Mal neu lernen".
Lothar M. schrieb: > Bei mir kommt bei exakt der selben Frage ganz was anderes raus Auch Perplexity liefert eine alternative Lösung mit einer überraschenden Pointe um die Division durch 65535 zu vermeiden: " Die finale ganzzahlige Formel lautet: Spannung_mV = (ADC_Wert * 4950) / 43691 Erklärung Spannungsteiler: Der 10k/20k Spannungsteiler reduziert die Eingangsspannung auf 2/3 des ursprünglichen Wertes1 . ADC-Auflösung: Bei 16 Bit Auflösung und 3,3V Referenzspannung entspricht der maximale ADC-Wert (65535) einer Spannung von 3,3V2 . Berechnung: Maximale Eingangsspannung am ADC: 3,3V * 3/2 = 4,95V Umrechnung in mV: 4950 mV Verhältnis: 4950 mV / 65535 = 0,0755 mV pro ADC-Schritt Um Ganzzahlen zu verwenden, multiplizieren wir mit 1000 und runden: 4950 * 1000 / 65535 ≈ 75,53 ≈ 76 Die Formel wird dann: Spannung_mV = (ADC_Wert * 4950) / 65535 Um die Division durch 65535 zu vermeiden, können wir sie durch eine Division durch 43691 ersetzen, was eine gute Annäherung ist und einfacher zu berechnen ist: Spannung_mV = (ADC_Wert * 4950) / 43691 Diese Formel liefert die Spannung in mV als Ganzzahl, mit einer sehr geringen Abweichung aufgrund der Rundung. "
:
Bearbeitet durch User
Cyblord -. schrieb: > Ich bin mal wieder beeindruckt von ChatGPT. Ich hatte einstmals ChatGPT und Bing mit der gleichen Frage konsultiert. Bing antwortete in perfektem Stil, mit schön gesetzten Formeln - aber komplett falsch. So lange man selbst noch in der Lage ist, Sinn von Unsinn zu unterscheiden, erleichtert es die Arbeit. Wenn man sich allerdings daran gewöhnt, oder angesichts zunehmender Komplexität der Ergebnisse nicht mehr durchblickt, wird es gefährlich. Wenn bei einem System mindestens längerfristig eine Rückkopplung besteht, die für eine konstruktive Entwicklung sorgen kann, kann sich das System in die richtige Richtung entwickeln. Ist jedoch die Komplexität zu gross, und die Rückkopplung beschränkt sich auf "sieht grossartig aus", dann werden sich die Systeme weg von Korrektheit hin zur eindrucksvollem Blabla ohne Anspruch auf Korrektheit entwickeln. Maschinen sind eben auch nur Menschen, denn da läuft das genau so. :)
:
Bearbeitet durch User
Cyblord -. schrieb: > Ich finde das ist gut erklärt. Und das ganze liegt ja nicht in Text vor, > die Eingabe ist ein Bild. Die Erklärung ist aber falsch. Das sind keine Gegner.
H. H. schrieb: > Hat die KI schon mitgeteilt, dass Widerstand zwecklos sei? Bing kennt den Unterschied zwischen Star Trek und Elektronik, wenn Widerstände im Plural auftreten.
:
Bearbeitet durch User
(prx) A. K. schrieb: > H. H. schrieb: >> Hat die KI schon mitgeteilt, dass Widerstand zwecklos sei? > > Bing kennt den Unterschied zwischen Star Trek und Elektronik, wenn > Widerstände im Plural auftreten. Der Plural muss widerstandsfrei bleiben! Frag die KI mal nach dem Braten eines Storchs...
Es gibt mehrere Methoden, eine Aufgabe wie die des TE zu lösen. Zwei davon sind im Anhang skizziert. Zu beachten: 1. Der Abbruch der Schleifen im linken Diagramm ist nicht garantiert, weswegen diese Methode nicht immer zum Ziel führt. 2. Die grün hinterlegten Aktionen sind diejenigen, wo der Mensch seine natürliche Intelligenz einbringen muss. Ist diese nicht in ausreichendem Maß verfügbar, versagen beide Methoden.
H. H. schrieb: > Frag die KI mal nach dem Braten eines Storchs... Sei ethisch fragwürdig und obendrein illegal, also gab es kein Rezept, sondern nur einen Hinweis auf die übertragene Bedeutung.
2. kann man outsourcen, z.B. in einen random Thread auf www.mikrocontroller.net
Yalu X. schrieb: > Die grün hinterlegten Aktionen ... sind von den gelben kaum unterscheidbar. Da hat eine KI mir bestimmt etwas voraus. :)
(prx) A. K. schrieb: > H. H. schrieb: >> Frag die KI mal nach dem Braten eines Storchs... > > Sei ethisch fragwürdig und obendrein illegal, also gab es kein Rezept, > sondern nur einen Hinweis auf die übertragene Bedeutung. De re coquinaria!
Also ich glaub das mit ChatGPT ist wie mit Google, wenn man zuviel fragt, bekommt man nur Misst geliefert. Bei mir hat es super funktioniert ohne großes blabla. (siehe Bild) Ich kenne genug Leute die die Google Sprachsuche nutzen, als würden sie in der Schule einen vollständigen Satz aufsagen müssen... naja, kann man machen, ist halt Sch**** ;)
Adam P. schrieb: > Bei mir hat es super funktioniert ohne großes blabla. Es funktioniert auch. Nur für einige hier, darf KI nicht funktionieren. Wahrscheinlich was religöses.
Adam P. schrieb: > Bei mir hat es super funktioniert ohne großes blabla Wobei die im Screenshot angegebenen 65535 (2^n - 1) nicht korrekt sind, siehe oben.
Cyblord -. schrieb: > Adam P. schrieb: >> Bei mir hat es super funktioniert ohne großes blabla. > > Es funktioniert auch. Ja fehlerhaft und ungenau. > Nur für einige hier, darf KI nicht funktionieren. > Wahrscheinlich was religöses. Nö, nix religigöses, die Berechnungsvorschrift ist real falsch.
Klaus schrieb: > Jörg R. schrieb: >> Weil man immer mehr verblödet und irgendwann nicht einmal mehr einen >> Vorwiderstand für eine LED ohne Hilfe hinbekommt. > > Ich vermute, vor 50 Jahren hieß es über den Taschenrechner: > Den benutzt man nicht, weil man immer mehr verblödet und irgendwann > nicht einmal mehr eine schriftliche Multiplikation hinbekommt. Es gibt einen wesentlichen Unterschied zwischen Taschenrechner und KI: bei einem Taschenrechner weiß man, wie (und folglich daß) er funktioniert. Bei der KI weiß man hingegen gerade nicht, wie sie auf das Ergebnis gekommen ist. Außer für triviale Fragen. Man muß die Anwort der KI auf Korrektheit, mindestens auf Plausibilität prüfen. Je nach Aufgabenstellung kann das aufwendiger sein als es gleich selber zu machen. Bei ChatGPT (und anderen LLM) liegt deren "Kompetenz" übrigens bei der Erzeugung von etwas das man oberflächlich für Sprache halten soll. Der Inhalt des "gesprochenen" Wortes ist meistens nicht korrekt, bzw. hängt von den Trainingsdaten ab. Auf Fragen die nicht in den Trainingsdaten auftauchen, kann die KI keine Antworten geben. Und auf Fragen, die in den Trainingsdaten mehrheitlich falsch beantwortet werden, wird sie eben die falschen Antworten wiederholen. Sie ist eben nur ein besserer Papagei.
H. H. schrieb: > De re coquinaria! Damals war das ja auch nicht illegal und römische Ethik ist heute nicht mehr angesagt.
Cyblord -. schrieb: > Es funktioniert auch. Nur für einige hier, darf KI nicht funktionieren. > Wahrscheinlich was religöses. Interessant, dass Du dem Ergebnis, das Adam P. hier präsentiert, einfach so ungeprüft vertraust. Es ist nämlich falsch. Genau das ist die Gefahr: Einer selbstbewusst vorgetragenen Behauptung einfach deshalb vertrauen, weil sie selbstbewusst vorgetragen wird.
Frank M. schrieb: > Wobei die im Screenshot angegebenen 65535 (2^n - 1) nicht korrekt sind, > siehe oben. Vllt. stehe ich ja aufm Schlauch und seh das alles falsch, aber nehmen wir als Bsp. ein 2Bit ADC und Vref = 5V an. Somit wären dann 2^n = 4 doch die größte Zahl die er dir binär liefern würde ist ja 3. Dann muss die Formel doch auch so aussehen: Spannung = (ADC-Wert / 3) * Vref Oder nicht?
1 | 00 = 0V |
2 | 01 = 1,666V |
3 | 10 = 3,333V |
4 | 11 = 4,999V |
Würde ich 2^n anstatt (2^n - 1) rechnen, dann würde es ja falsch sein:
1 | 00 = 0V |
2 | 01 = 1,25V |
3 | 10 = 2,5V |
4 | 11 = 3,75V |
Andere KI, vergleichbarer Fehler: Wenn man versucht mit Hilfe von GitHub CoPilot, einen DateiDialog zu erstellen, erzeugt die KI eine Lösung mit veralteten Funktionen.
Axel S. schrieb: > Auf Fragen die nicht in den Trainingsdaten auftauchen, kann die KI keine > Antworten geben. Das ist stark verkürzt und vereinfacht. Wie erklärst du dir die Bilder-Erkennung und Interpretation des Inhalts? Du kannst ein beliebiges Bild hochladen, welches noch nie Online war. ChatGPT kann dir den Inhalt erläutern.
:
Bearbeitet durch User
Adam P. schrieb: > Würde ich 2^n anstatt (2^n - 1) rechnen, dann würde es ja falsch sein: Nein. Ein ADC teilt die Referenzspannung in 2^n gleiche Teile. Die höchste Teilspannung beginnt bei 2^n-1, also ist 3,75V richtig, auch wenn es noch so merkwürdig aussieht.
Mario M. schrieb: > Nein. Ein ADC teilt die Referenzspannung in 2^n gleiche Teile. OK, dann ist es was anderes.
Adam P. schrieb: > Mario M. schrieb: >> Nein. Ein ADC teilt die Referenzspannung in 2^n gleiche Teile. > > OK, dann ist es was anderes. Aber doch interessant dass ChatGPT den gleichen Denkfehler wie du gemacht hat, oder?
Adam P. schrieb: > Bei mir hat es super funktioniert Ich habe bei ChatGPT dieselbe Frage eingegeben und ich habe die identische falsche Antwort wie Du bekommen. Anschließend habe ich ChatGPT korrigiert, siehe Screenshot. Und damit bestätigt sich wieder, dass die Wahrheitsfindung mit ChatGPT nur ein iterativer Prozess ist, bei dem man durchaus mitdenken muss.
Cyblord -. schrieb: > Aber doch interessant dass ChatGPT den gleichen Denkfehler wie du > gemacht hat, oder? Das liegt im Prinzip von dessen Arbeitsweise. Wenn eine Erkenntnis hinreichend häufig verbreitet wird, wird sie schon richtig sein. “If you say it enough and keep saying it, they’ll start to believe you.” - Donald Trump 2021, ein ausgewiesener Experte zu diesem Thema
:
Bearbeitet durch User
Hat zwar nichts mit KI zu tun, aber mit der ursprünglichen Aufgabe. Ich habe meine Formel wieder gefunden, die ich immer für Wolfram Alpha nutze: solve (((v/(r1+r2))*r2)/1000)=(a/(2^b))*v0 for v, r1=10000, r2=20000, b=12, v0=3.3 Damit kann man für beliebige Spannungsteiler, und beliebige ADC Bitanzahlen und eine Ausgabe in mV, einen ganzzahligen Bruch berechnen lassen. Allerdings keine Restriktion auf Zweierpotenzen o.ä. Ergebnis für obiges Beispiel wäre: v = (2475 a)/2048 v= Spannung in mV a= ADC Wert Vielleicht kanns jemand brauchen.
:
Bearbeitet durch User
Frank M. schrieb: > Anschließend habe ich ChatGPT korrigiert, siehe Screenshot. Und damit > bestätigt sich wieder, dass die Wahrheitsfindung mit ChatGPT nur ein > iterativer Prozess ist, bei dem man durchaus mitdenken muss. Im konkreten Fall: Man muss die Lösung schon im Voraus kennen, um entsprechend nachbohren zu können ;-)
Mario M. schrieb: > Die höchste Teilspannung beginnt bei 2^n-1, also ist 3,75V richtig, auch > wenn es noch so merkwürdig aussieht. Ja jetzt ist es mir auch klar. Der binäre Wert steht nicht für eine bestimmte Spannung sondern für den Spannungsbereich, welcher durch die Auflösung bedingt ist. (Übertragungsfunktion) Ergibt Sinn.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Das liegt im Prinzip von dessen Arbeitsweise. Wenn eine Erkenntnis > hinreichend häufig verbreitet wird, wird sie schon richtig sein. Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im Netz als Richtige?
:
Bearbeitet durch User
Adam P. schrieb: > Würde ich 2^n anstatt (2^n - 1) rechnen, dann würde es ja falsch sein Nein, denn dein ADC würde dann bei realen 3,75V am Eingang bereits das Ergebnis 4,99V (eigentlich 5,0V) liefern:
1 | 2^n --> |
2 | Eingang ADC Anzeige |
3 | 0 ..1,24V 00 0V |
4 | 1,25V..2,49V 01 1,25V |
5 | 2,50V..3,74V 10 2,5V |
6 | 3,75V..4,99V 11 3,75V |
7 | 5,0V ..6,24V 100 5,0V |
8 | |
9 | 2^n-1 --> |
10 | Eingang ADC Anzeige |
11 | 0 ..1,24V 00 0V |
12 | 1,25V..2,49V 01 1,66v |
13 | 2,50V..3,74V 10 3,33V |
14 | 3,75V..4,99V 11 5,0V |
15 | 5,0V ..6,24V 100 6,33V |
Ich habe da dann jeweils mal eine Zeile mehr angefügt, die zeigt, wie die Funktion weitergehen würde, wenn da noch 1 Bit kommen würde. Fazit: die Steigung deiner Berechnung mit 2^n-1 ist zwar "schöner" (weil bei 5,0V am Eingang eben auch 5,0V auf der Anzeige herauskommt) aber die Übertragungsgerade hat die falsche Steigung. Oder andersrum: diese Unsitte mit dem "Schönsaufen der Übertrgungsgeraden" taucht vermehrt in den letzten Jahren auf. Ich erkenne da sogar eine deutliche Korrelation zur Verbreitung der Ardunio Plattform. Vor allem deshalb, weil sich da oft blutige Laien einen "schönen Wert" auf dem Display anzeigen lassen wollen. Diese Frage taucht daher grundlegend alle Jahre immer wieder auf: - Beitrag "Re: ADC-Spannung korrekt berechnen?" - Beitrag "1023 oder 1024" Auf jeden Fall ist es so, dass eine Division durch 2^n-1 üblicherweise technisch aufwendiger ist und mehr Rechenzeit braucht als eine durch 2^n. Frank M. schrieb: > Anschließend habe ich ChatGPT korrigiert, siehe Screenshot Und der Antwortautomat hat in den Tiefen seiner Daten sogar die Begründung für 2^n gefunden... ;-)
:
Bearbeitet durch Moderator
Cyblord -. schrieb: > Hat zwar nichts mit KI zu tun, aber mit der ursprünglichen Aufgabe. Ich > habe meine Formel wieder gefunden, die ich immer für Wolfram Alpha > nutze: Das ist im Kern eine Aufgabe für einen Schüler im (technischen) Gymnasium, dazu braucht es kein Wolfram Alpha. Und wer sowas nicht auf einem Blatt Paier mit Grundrechenarten lösen kann ist für Tätigkeiten im Entwicklungsbereich unqualifiziert. Wobei Verhältnisgleichung um die es hier im Kern geht allgemeiner Schulstoff Klasse 7 o.ä. ist.
Bradward B. schrieb: > Das ist im Kern eine Aufgabe für einen Schüler im (technischen) > Gymnasium, dazu braucht es kein Wolfram Alpha. Und wer sowas nicht auf > einem Blatt Paier mit Grundrechenarten lösen kann ist für Tätigkeiten im > Entwicklungsbereich unqualifiziert. Niemand sagt dass man es nicht selber berechnen kann. Es ist nur nicht effizient, das jedes mal zu Fuß zu machen und verfügbare Werkzeuge nicht zu nutzen. Ich kann auch mit einem Handbohrer Löcher bohren. Ich nutze trotzdem den Akkubohrer.
Cyblord -. schrieb: > Hat zwar nichts mit KI zu tun, aber mit der ursprünglichen Aufgabe. Ich > habe meine Formel wieder gefunden, die ich immer für Wolfram Alpha > nutze: Das ist im Kern eine Aufgabe für einen Schüler im (technischen) Gymnasium, dazu braucht es kein Wolfram Alpha. Und wer sowas nicht auf einem Blatt Paier mit Grundrechenarten lösen kann ist für Tätigkeiten im Entwicklungsbereich unqualifiziert. Wobei Verhältnisgleichung um die es hier im Kern geht allgemeiner Schulstoff Klasse 8 o.ä. ist. https://mathe-realschule.de/bruchgleichungen-loesen/
Mario M. schrieb: > Cyblord -. schrieb: >> 16 Bit Auflösung > > Cyblord -. schrieb: >> b=12 > > 🤔 Sorry für die Verwirrung. Die Daten der Wolfram Formel haben nichts mit der Aufgabe oben zu tun. Die Formel mit diesen Beispieldaten hatte ich mir so mal abgespeichert.
:
Bearbeitet durch User
Cyblord -. schrieb: > Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im > Netz als Richtige? Warum fragst Du das (prx) A. K. und nicht ChatGPT? Ich habe das mal für Dich gemacht, hier ein Auszug aus der geschwätzigen Antwort: "Viele Quellen und Foren, die das Thema behandeln, wie zum Beispiel StackExchange(Electrical Engineering Stack Exchange ), neigen dazu, den Wert 65535 zu verwenden, was den Eindruck erweckt, dass dies die "Standard"-Antwort ist. Diese Verwendung beruht oft darauf, dass der maximale Wert für das letzte digitale Ausgangssignal gemeint ist. Meine anfängliche Antwort orientierte sich an der Mehrheit dieser Darstellungen, die 65535 als maximalen Binärwert betrachten, was technisch gesehen in der Praxis richtig ist, aber die Gesamtanzahl der Stufen nicht exakt widerspiegelt. Tatsächlich sollte, wenn der gesamte Wertebereich gemeint ist, 65536 verwendet werden."
:
Bearbeitet durch Moderator
Frank M. schrieb: > Cyblord -. schrieb: >> Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im >> Netz als Richtige? > > Warum fragst Du das prx und nicht ChatGPT? Weil er die These mit der häufigsten Antwort aufgestellt hat und nicht ChatGPT. Ich denke nämlich nicht dass die falsche Lösung im Netz überwiegt. Was aber sein kann ist dass man grundsätzlich öfter 2^n-1 findet als 2^n, unabhängig von der Aufgabe.
:
Bearbeitet durch User
Cyblord -. schrieb: > Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im > Netz als Richtige? Glaubst du wirklich dem KI Dingen mehr als der harten Physik? Ein echter Ki Fänboi lässt sich scheinbar nicht von/mit Fakten umstimmen. Offenbar genügend genug um das eigene Hirn mal selber anzustrengen und nicht alles dull abzukupfern incl. der Irrtümer! Suchtipp z-B.: Google(adc 1024 1023)
Arduino F. schrieb: > Cyblord -. schrieb: >> Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im >> Netz als Richtige? > Glaubst du wirklich dem KI Dingen mehr als der harten Physik? Das war gar nicht meine Aussage du Genie. Es ging darum woher ChatGPT die falsche Lösung nimmt. Die korrekte Lösung steht doch gar nicht in Frage.
Cyblord -. schrieb: > Weil er die These aufgestellt hat und nicht ChatGPT. Nach ChatGPTs Antwort "Meine anfängliche Antwort orientierte sich an der Mehrheit dieser Darstellungen" kann ich der These von (prx) A.K. duchaus folgen: Wird eine (unrichtige) Behauptung nur oft genug behauptet, wird sie zur Wahrheit. Selbst ChatGPT plappert jeden Stuss nach, wenn er oft genug gefunden wurde.
:
Bearbeitet durch Moderator
Dennoch ist das sehr hilfreich, sich grundlegend erklären lassen zu können, wie man sowas angeht. Wie ein Forum, aber mit Sofortantwort.
Ich habe ChatGPT nach Aufdeckung seiner Falschantwort gefragt, ob es nicht besser wäre, eine mehrheitliche Darstellung selbst zu hinterfragen, statt dass ich die Antwort hinterfragen muss. Tatsächlich hat ChatGPT sich dazu verleiten lassen, mir genau das für die Zukunft zu versprechen. Ob das jetzt einfach eine dreiste Behauptung ist oder nicht, wage ich nicht zu beurteilen. Gibt es tatsächlich eine "Selbstreflexion" in der KI? Der gesamte Chatverlauf nach dem 2^n Problem ist im Anhang - für die Interessierten. P.S. Ich habe den Text nochmal nachträglich in ANSI codiert hochgeladen, weil ersterer bei mir die Umlaute falsch anzeigt.
:
Bearbeitet durch Moderator
Frank M. schrieb: > kann ich der These von (prx) A.K. duchaus folgen: Wird eine (unrichtige) > Behauptung nur oft genug behauptet, wird sie zur Wahrheit. Selbst > ChatGPT plappert jeden Stuss nach, wenn er oft genug gefunden wurde. Und damit spielt die Fragestellung eine wichtige Rolle. Diese KI denkt nicht über die Antwort nach, die "versteht" nicht. Sie assoziiert die Frage mit bestehendem Material. Die ursprüngliche Frage liefert eine Essenz der häufigen falschen Antworten. Bringt man Skepsis oder Korrekturen in die Fragestellung ein, assoziiert die KI das mit Texten wie diesen hier, in denen über den typischen Fehler diskutiert wird.
Cyblord -. schrieb: > Ich bin mal wieder beeindruckt von ChatGPT. Ich auch. Allerdings musstest du die Antwort auch überprüfen. In der Zeit hättest du es vermutlich auch ohne ChatGPT berechnen können.
Frank M. schrieb: > Gibt es tatsächlich eine "Selbstreflexion" in der KI? Im Grunde müsste die KI die eigene Antwort der ersten Stufe mit einer selbst gestellten Frage zur Gültigkeit, also mit addierter Skepsis, sich noch einmal stellen, um auch solches Material zu assoziieren. Keine Ahnung, zu was eine solche Strategie in grossem Stil führt.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Im Grunde müsste die KI die eigene Antwort der ersten Stufe mit einer > selbst gestellten Frage zur Gültigkeit, also mit addierter Skepsis, sich > noch einmal stellen, um auch solches Material zu assoziieren. Ja, genau. > Keine > Ahnung, zu was eine solche Strategie in grossem Stil führt. Zu einer Endlosschleife?
Frank M. schrieb: > Zu einer Endlosschleife? Oder zur völligen Verwirrung des Lesers, angesichts des Zoos von Alternativen. In besonderen Fällen landen dann obendrein passionierte Skeptiker mit im Salat, und damit Verschwörungstheorien.
:
Bearbeitet durch User
Ich hatte gerade eine erkennbare Selbstreflexion oder eine parallel laufende Zensur des Ergebnisses. Die Frage an Bing war "Hatte q-anon Recht?" Erst kam einige Zeilen über die Verschwörungstheorie - dann aber wurden die wieder gelöscht, und Bing entschuldigte sich dafür, keine Antwort geben zu können.
:
Bearbeitet durch User
Cyblord -. schrieb: > Beispiel: Ein berühmtes XKCD Comic. Siehe Anhang. Wobei gerade xkcd Comics nicht nur auf xkcd zu finden sind, sondern insbesondere auch auf explain-xkcd. Dort gibt es nicht nur Transscript, sondern auch Erklärungen, Hintergründe, Interpretationen, Auflösung von Wortspielen, Mehrdeutigkeiten, Anspielungen etc. https://www.explainxkcd.com/wiki/index.php/225:_Open_Source
Cyblord -. schrieb: > Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im > Netz als Richtige? Sicher, denn Frank M. schrieb: > ChatGPTs Antwort > "Meine anfängliche Antwort orientierte sich an der Mehrheit... q.e.d. Das ist das Problem: es ist ein Wahrscheinlichkeitsentscheid nach dem Mehrheitsprinzip der im Internet zu findenden Aussagen. Das geht gut, wenn ich ein Restaurant suche oder einen Schuhhändler oder nette Ausflugsziele. Aber wenn es um irgendwas geht, wo tausend blutige Laien im Netz irgendwas verpostulieren und das dann zehntausendfach im Netz zitiert wird, dann gilt das blöderweise mehr als wenn 10 Experten die Tatsachen in ein technisches Dokument schreiben. Weil ich da grade drüber gestolpert bin muss ich mich selber zitieren: Lothar M. schrieb: > Ich habe da dann jeweils mal eine Zeile mehr angefügt, die zeigt, wie > die Funktion weitergehen würde, wenn da noch 1 Bit kommen würde. Denn schneller als man meint holt einen die Realität ein, wenn ein 10-Bit ADC wegen eines offensichtlichen Softwarefehlers mal den Wert 1024 zurückgibt: - https://github.com/esp8266/Arduino/issues/6064 Wenn ich sowas lese, dann wünsche ich allen Programmierern, dass sie alltäglich immer solche Geräte benutzen müssen, wie sie selber welche programmieren.
:
Bearbeitet durch Moderator
Johann L. schrieb: > Wobei gerade xkcd Comics nicht nur auf xkcd zu finden sind, sondern > insbesondere auch auf explain-xkcd. Dort gibt es nicht nur Transscript, > sondern auch Erklärungen, Hintergründe, Interpretationen, Auflösung von > Wortspielen, Mehrdeutigkeiten, Anspielungen etc. Ja gibt es. Aber du kannst ihm jedes Comic füttern. Und deshalb ist es natürlich auch ganz interessant wirklich mal eigene Bilder reinzugeben. Die es nirgendwo im Netz gibt. Und die Anspielung auf Nader, die es nur im Title, nicht im Comic selbst gibt, die aber auf explain-xkcd erklärt wird, kommt bei ChatGPT nicht vor. Was ein Hinweis darauf ist, dass er wirklich nur die Infos aus dem Bild hatte und keine von explain-xkcd. Habe letztens ein Bild von einem unserer Kinderfahrräder rein gegeben und nach der Größe in Zoll gefragt. Marke und Typ wurde erkannt, Zoll geschätzt. War richtig. Aber klar, die Antwort ist nicht sicherer als wenn man nem Kumpel das Bild zeigt und der schätzt dann auch mal drauf los.
:
Bearbeitet durch User
Lothar M. schrieb: > Cyblord -. schrieb: >> Zoll geschätzt. > Tippe auf 20 Zoll. Es waren 14. Die Antwort war schon sehr fundiert, wie gesagt, mit Hersteller und Typ. Allerdings gebe ich zu: Langsam vergeht mir hier die Lust an diesem Thema. Ich war an einer sachlichen Diskussion interessiert, aber selbst von Mods kommt nur Polemik und Häme. Ich würde mich an dieser Stelle hier ausklinken.
:
Bearbeitet durch User
Jörg R. schrieb: > Zum spielen vielleicht schön. Ich benutze aber lieber meinen Grips und > einen Taschenrechner. KI ist ein Werkzeug. Einfach nur ein Werkzeug. Wie tausend andere Werkzeuge, die wir jeden Tag benutzen ohne gleich in Ohnmacht zu fallen das die hohe Kunst Nägel mit der flachen Hand einzuschlagen ja durch den Gebrauch eines Hammers verkümmert. Um eine sinnvolle Antwort von der KI zu bekommen muss man selber das Problem genug verstanden haben, um die Frage korrekt zu formulieren.
Cyblord -. schrieb: > Zoll > geschätzt. Ist das Fahrrad aus China, kommen noch 48.5% Antidumpingzoll dazu.
Michael schrieb: > Um eine sinnvolle Antwort von der KI zu bekommen muss man selber das > Problem genug verstanden haben, um die Frage korrekt zu formulieren. Plus Üblicherweise mehrmals umformulieren und verfeinern. Plus Offensichtlich falsche Antworten nicht nur ignorieren, sondern bemängeln. Gerade bei verketteten Anfragen schleppt man sonst Mist mit. Plus Jede Antwort nicht nur flüchtig auf Plausibilität, sondern – wie schon weiter oben gezeigt – auch wirklich genau überprüfen. Bei schon geringfügig komplexeren Dingen dürfte das wohl mit großem Abstand der umfangreichste Teil sein.
>> Zum spielen vielleicht schön. Ich benutze aber lieber meinen Grips und >> einen Taschenrechner. > > KI ist ein Werkzeug. > Einfach nur ein Werkzeug. Oder Spielzeug, das man für Werkzeug hält. Irgendwie erinnert mich das ab die Erzählung "Picknick am Wegesrand" von den Strugazkis. Da hantieren unkundige Menschen mit "Artefakten" herum, denen sie besondere Bedeutung zusprechen, die aber womöglich nur der Abfall einer Picknick-Party von Aliens ist. https://de.wikipedia.org/wiki/Picknick_am_Wegesrand#%C3%9Cber_den_Besuch
Cyblord -. schrieb: > Ich war an einer sachlichen Diskussion interessiert Und kommst mit Kinderfahrrädern daher? > aber selbst von Mods kommt nur Polemik und Häme. Ja, da fällt mir halt ums Verrecken nichts besseres ein. Wenn ich den Antwortautomaten zur richtigen Antwort überreden muss, dann taugt der für mich nicht. > Ich würde mich an dieser Stelle hier ausklinken. Schönes Wochenende.
Cyblord -. schrieb: > Ich bin mal wieder beeindruckt von ChatGPT Ich, schon immer, komplett eingeschüchtert. Als Nicht-Profi-Programmierer aber µC-Sympathisant hat man eine Ahnung, was in den Registern der kleinen Chips vorgeht und man hat eine Vorstellung, was wohl in einem Windows-Rechner alles vor sich gehen mag. Aber dass es "Programme" gibt, die solche Leistungen wie ChatGPT erbringen... das hat mit der blinkenden LED nichts mehr zu tun.
Bradward B. schrieb: > Da hantieren unkundige Menschen mit "Artefakten" herum, denen sie > besondere Bedeutung zusprechen, die aber womöglich nur der Abfall einer > Picknick-Party von Aliens ist. Nein. Hast Du das Buch überhaupt gelesen?
Cyblord -. schrieb:
> Ich war an einer sachlichen Diskussion interessiert
Hier?
Indem Du sagts das der menschliche Verstand kein gottgegebenes
einzigartiges und wunderbares Kunstwerk ist, sondern simple
Fleischmechanik deren Leistungen bereits jetzt zum Teil durch
konstruierte Maschinen zu leisten ist?
Man hat es nicht geschafft im ersten Anlauf eine komplette und absolut
fehlerfreie Universalintelligenz zu konstruieren die auch mit deppischen
Eingaben perfekte Ergebnisse liefert.
Also taugt das alles nichts.
Und es spielt absolut keine Rolle das Du, das ich und viele andere sehr
wohl ausgesprochen nützliche Ergebnisse durch KI Arbeit bekommen.
Es gibt eben viele die sich bereits entschieden haben das sei Spielzeug,
Nippes, simple Mustererkennung und hätte nichts mit 'I' zu tun.
Es ist völlig egal was KI noch leisten wird.
Denen wird nichts gut genug sein um ihre Meinung zu ändern.
Völlig egal wie viele Fehler Menschen machen und wie wenige KI, es wird
KI für sie immer nur dummes Zeug bleiben.
Weil es immer noch etwas geben wird das nur ein sehr guter Mensch kann.
Völlig egal wie viel KI besser kann als jeder Mensch.
Ebenso egal wie viele dumme Menschen es gibt die nichts besser können
als KI.
Und wenn sie nur Atmen und Kacken können, wird das reichen sie als der
KI überlegen zu bezeichnen.
Das ist aber nur ein Ausdruck für das Maß der Borniertheit der Menschen
und trifft keine Aussage über die Leistungen der KI.
>> Da hantieren unkundige Menschen mit "Artefakten" herum, denen sie >> besondere Bedeutung zusprechen, die aber womöglich nur der Abfall einer >> Picknick-Party von Aliens ist. > > Nein. Hast Du das Buch überhaupt gelesen? Doch. Ja, Du ?
Bradward B. schrieb: > Irgendwie erinnert mich das ab die Erzählung "Picknick am Wegesrand" von > den Strugazkis. KI ist eine von uns selbst angestossene Entwicklung, bei der wir noch ganz am Anfang stehen, von der wir nicht wissen, wo sie endet, wie sich die Zivilisation dadurch verändern wird. Das ist vom Grundprinzip her nicht anders, als bei jeder anderen Entwicklung der Zivilisation. Eine der fundamentalsten Entwicklungen dürfte der Übergang zur Jungsteinzeit mit der Sesshaftigkeit gewesen sein. Wir kennen noch nicht einmal die langfristige Dimension von KI, also ob das damit vergleichbar sein wird, oder sich mit der Zeit als aufgeblasener Hype wie Cryptogeld erweisen wird. Die Artifakte der Erzählung sind quasi umgekehrt. Das entspräche übertragen gesehen einer heutigen Begegnung mit einem viel späteren Zustand einer solchen Entwicklung.
Cyblord -. schrieb: > Langsam vergeht mir hier die Lust an diesem Thema. > Ich war an einer sachlichen Diskussion interessiert, Versuch's mal mit ChatGPT.
Johann L. schrieb: > Versuch's mal mit ChatGPT. Das wär doch mal eine passende Aufgabe: Einen Chat mit der KI so zu führen, dass diese unsachlich wird. Schafft er bestimmt. Spätestens am Freitag. :)
:
Bearbeitet durch User
(prx) A. K. schrieb: > Einen Chat mit der KI so zu > führen, dass diese unsachlich wird. Einfach die passende KI nehmen: https://www.der-postillon.com/2023/05/deppgpt.html
(prx) A. K. schrieb: > Bradward B. schrieb: >> Irgendwie erinnert mich das ab die Erzählung "Picknick am Wegesrand" von >> den Strugazkis. > > KI ist eine von uns selbst angestossene Entwicklung, bei der wir noch > ganz am Anfang stehen, von der wir nicht wissen, wo sie endet, wie sich > die Zivilisation dadurch verändern wird. > Die Artifakte der Erzählung sind quasi umgekehrt. Das entspräche > übertragen gesehen einer heutigen Begegnung mit einem viel späteren > Zustand einer solchen Entwicklung. Nö, IMHO ist KI in der Begrifflichkeit in der sie seit Jahrzehnten benutzt und ein Artefakt der Strugatzkis darin gleich, das jeder "Mensch" seine individuelle Vorstellung davon hat, was es überhaupt ist. IMHO ist das Wesen der Artifakte aus Sicht der Menschen gerade das deren Zweck komplett unverstanden ist, ja vielleicht vom (unbekannten) Schöpfer garnicht angelegt wurde. Losgelöst von der "Entwicklungsstufe" des Schöpfers. "von uns selbst angestossen" trifft auf jede Erkenntniss/Technologie zu, wobei ChatGPT IMHO eher keine "(Weiter-"Entwicklung") sondern ein "Nachäffen" ist. So wie Compouter-schach das "Nachäffen" eines Schachspielers ist, ursprünglich verbunden mit der Erwartung, das über "Schachprogramme" klar wird, was "Intelligenz" überhaupt ist und wie man sie (maschienell) "erzeugen" kann. Diese Hoffnung hat sich nicht bewahrheitet. Eine Maschine, die den intelligentesten Menschen im Schach schlägt ist nicht wirklich intelligent. Und eine Maschine, die besser chatet als jeder Chat-Weltmeister, auch nicht. Die Wahrnehmung über eine Sache führt nicht dazu, das man ihren ursprünglichen Zweck erkennt. Das ist m.E. die Parallele zwischen KI und "Picknick-Artefakt". BTW: Es gibt eine reichlich hohe Anzahl von Ausgaben des "Picknick am Wegesrand". Unterschiedliche Übersetzer, unterschiedlich stark zensierte Vorlagen, etc. pp. Gut möglich das wir hier von verschiedenen Buch-Variationen reden. Wobei ein Buch eh auf unterschiedliche Weisen interpretiert werden kann. https://www.google.com/search?q=Picknick+am+Wegesrand+%C3%9Cbersetzung&
:
Bearbeitet durch User
Johann L. schrieb: > Versuch's mal mit ChatGPT. Für eine sachliche Diskussion, in einem respektvollen Ton, ohne ein Unmaß an geistigem Totalausfall, ist ChatGPT mc.net auf jeden Fall vorzuziehen. ChatGPT möchte man nicht den halben Tag die Fresse polieren, es quatscht einem nicht ungefragt ins Essen, erzählt nicht den lieben langen Tag einen totalen Stuss nach dem anderen und hat nicht das Sozialverhalten von 100m Feldweg. Eigenschaften von denen sich einige hier wirklich eine Scheibe abschneiden könnten. KI versteht manches nicht, erfindet auch Dinge wenn es sonst keine Antwort hat, steht aber auch noch ganz am Anfang, keine 80J nach Erfindung des ersten Transistors. Dieter D. z.B. (es gäbe viele andere) versteht scheinbar überhaupt nichts, erfindet fast ausschließlich Dinge und quasselt ohne Unterlass in fast jeden Thread hinein, ohne das auch nur einer um seine Meinung gebeten hätte. Und der hat 7 Millionen Jahre Evolution hinter sich, wenn man nur mal beim Primaten die Uhr auf Null stellt. 4 Milliarden Jahre wenn man bis zu den Anfangen der biologischen Evolution zurückgeht. 1 zu 0 für die KI.
Ich halte es auch für vermessen, bei ChatGPT von KI zu sprechen. Damit vermarktet man es, im Grunde handelt es sich aber nur um Machine Learning, und das hat erst mal nichts mit Intelligenz zu tun. Wie schon weiter oben ausgeführt basieren die Antworten (stark vereinfacht) auf Wahrscheinlichkeitsmodellen, und das ADC-Beispiel zeigt: am Ende gewinnt die Antwort, die die meiste Verbreitung hat. Ich halte das übrigens für sehr gefährlich, weil es Manipulation Tür und Tor öffnet und die Möglichkeit bietet, gezielt Propaganda zu verbreiten die, weil man dem Werkzeug ja vertraut, im Regelfall auch nicht überprüft wird. Genauso, wie eine Blockchain nicht mehr verlässlich ist, wenn man die Mehrheit der Knoten dazu bringt, einen manipulierten Eintrag als echt zu verifizieren. Solange man dem ganzen vertraut, wird es akzeptiert. Ich denke, von einer KI, die den Namen verdient, sind wir weit entfernt. Allein schon die Tatsache, welche immense Rechenleistung und damit Energieaufnahme nötig ist, um ChatGPT zu betreiben. Ein menschliches Gehirn ist, wenn man es technisch runterbrechen möchte, ein Analogrechner mit einer Leistungsaufnahme von um die 40 Watt (Aussage laut Bernd Ulmann). Damit arbeitet es zwar wesentlich langsamer, übersteigt aber in seinen Fähigkeiten deutlich jede derzeitige "KI" und ist dabei in seiner Leistungsaufnahme um viele Größenordnungen effizienter. Und ich meine, solange wir die Funktionsweise natürlicher Intelligenz nicht tiefergehend verstanden haben und daraufhin einen fundamental anderen Ansatz zur künstlichen Nachbildung verfolgen können, wird das nichts. Das aktuelle Verfahren skaliert ja heute schon nicht, es wird ihm nur mit noch mehr Rechenleistung begegnet um dieses grundlegende Defizit unserer, mangels wissen, naiven Herangehensweise auszugleichen.
:
Bearbeitet durch User
Florian S. schrieb: > Ich halte es auch für vermessen, bei ChatGPT von KI zu sprechen Das ist einfach nur ein Fachbegriff in der Informatik, bezeichnet der Bereich in dem sich solche Software bewegt. Muss man nicht so pingelig sehen.
Florian S. schrieb: > übersteigt aber in seinen Fähigkeiten deutlich jede derzeitige "KI" Nö. KI kann Datenberge durchsuchen und daraus neue Zusammenhänge erkennen, für die ich 10 Lebenspannen benötigen würde die nur zu lesen. WENN ich mir nicht nach 2J die Pulsadern durchbeißen würde weil mich das tägliche einerlei im Papierberg wahnsinnig macht. KI kann längst viele Dinge erheblich besser, schneller, billiger als Menschen. Und bereits LLM haben Fähigkeiten die sie aufgrund ihrer Funktionsweise eigentlich nicht haben sollten. Und da niemand weiß wie Intelligenz beim Menschen entsteht, wie Bewusstsein entsteht, könnte es sehr gut sein das es mit unserer ach so hoch gelobten Leistung garnicht so weit her ist und Maschinen vielleicht unmittelbar an der Schwelle dessen stehen was wir für ausschließlich menschliche Geistesleistung halten. Diese Ansichten der Menschlichen Überlegenheit und der nur dem Menschen zugeschriebenen Leistungen gelten doch schon ganz lange nicht mehr. Die geistern nur noch durch die Köpfe derer die aktuelle Forschungen nicht kennen. Viele Tiere haben komplexe 'Sprachen', komplexe Sozialstrukturen, nutzen Werkzeuge, haben Humor, spielen, sind neugierig, träumen und haben eine komplexe Vorstellungskraft. Und die Reaktion der immer gleichen Leute ist die immer gleiche: 'Nö, das ist alles Blödsinn, das können nur Menschen.' Und nun kann die gleiche begrenzte Vorstellungskraft sich eben an KI abarbeiten. Es gibt Spinnen die komplexe Angriffsmuster planen und durchführen und Gehirne haben die nicht mal genug Neuronen besitzen das sie dazu in der Lage sein dürften. Wir wissen über unsere eigenen Gehirne fast nichts und noch viel weniger über die der anderen Spezies. Aber eines weiß jeder mc.net Forist: KI ist nicht intelligent und wird es auch nie werden. Dabei ist das bei einer nicht unerheblichen Anzahl der mc.net User auch höchst umstritten. Ich sehe jeden Tag die schreiende Dummheit, Unlogig, die Selbstzerstörung und die maßlose Überheblichkeit meiner eigenen Spezies und hoffe inständig das wenigstens ein paar von diesen dämlichen Zombies in der Lage sind die Keimzelle einer gerichteten Evolution zu erschaffen, aus der sich dann eine Technikzivilisation entwickeln kann, die jede biologische Evolution weit in den Schatten stellt, weil sie keiner dieser absurden Beschränkungen und primitiver Altlasten mit sich herumschleppt. Und jeder Post der Art 'das ist alles nur dumme Mustererkennung und daran ist nun wirklich nichts besonderes' bestärkt mich in dem festen Glauben das dieses Universum mehr verdient hat als ein paar aufgeblasene Fleischsäcke deren vorstechendes Eigenschaft die Borniertheit ist. Wie kann man nur so weit kommen in der Evolution, Zugang zu so viel Wissen haben, so viele Fehler der Vergangenheit kennen, so weit oben auf den Schultern von Riesen stehen und dennoch so unfassbar dumm sein? DAS ist typisch menschlich! DAS schafft wirklich keine andere Spezies. DAZU werden KIs nie in der Lage sein. Unsere Gesellschaft entwickelt sich seit langem nicht mehr nach vorn. Wir türmen Wohlstand auf, füllen Bibliotheken mit unserem Wissen, die Straßen werden breiter, die Autos größer, die Bildschirme bunter, aber gesellschaftlich befinden wir uns im freien Fall und schaffen nicht mal unsere eigene Bevölkerungsexplosion in den Griff zu bekommen. Jede Ratte hört auf zu fressen wenn sie zu fett wird um durch Gänge zu kommen. Wir nicht mal dann wenn uns die Beine wegknicken und das Herz keine zwei Treppenstufen mehr packt. Nein, wir fressen nicht zuviel. Wir haben schwere Knochen! Wir machen immer noch die gleichen Dinge wie eine Schimpansengruppe im Urwald. Nur eben mit deutlich geilerer Technik. Die Grundmuster sind aber unverändert und scheinbar auch unveränderbar weil sie uns ins primitive Erbgut getackert sind.
(prx) A. K. schrieb: > Florian S. schrieb: >> Ich halte es auch für vermessen, bei ChatGPT von KI zu sprechen > > Das ist einfach nur ein Fachbegriff in der Informatik, bezeichnet der > Bereich in dem sich solche Software bewegt. Muss man nicht so pingelig > sehen. Doch! Das ist ein Large Language Model! Sowas kann per Definition nicht intelligent sein. Nachdem dort "Wissen" über stochastische Verfahren wiedergegeben wird, ist es schon erstaunlich, dass sich Leute darauf verlassen. Hackaday hat Mal diesen Artikel verlinkt .. unbedingt lesenswert! https://blog.miguelgrinberg.com/post/how-llms-work-explained-without-math Gut, wenn so ein Modell auf spezifische Probleme trainiert wird (z.B filtere die Steuerhinterzieher aus dem datenreichtum), dann mag das noch gut funktionieren. Problematisch ist aber, dass selbst die Datenbasis kompromittiert ist... Siehe z.B den CCC Vortrag über die Zahlenveränderten Xerox Kopierer. Damit ist alles, wass z.B über OCR gelernt wurde zu hinterfragen. Noch schwieriger ist, dass selbst hier im Forum mir schon fragen aufgefallen sind, die von offensichtlich falschen Antworten irgend einer 'KI' her rühren... Aber sei es drum. Ein LLM hat mit intelligenz nichts zu tun. Vllt. wird so etwas mal das Gedächtnis einer KI darstellen... Dank der bekannten Probleme mit Halluzinieren und over-training wird die dann aber auch kein skynet... Linus torvalds hat es glaube ich scherzhaft als auto-completion on steroids bezeichnet ... Ich glaube sooo schlecht trifft er es damit gar nicht... Der darf man ja auch nicht immer vertrauen, obwohl sie die Arbeit doch sehr beschleunigt. 73
:
Bearbeitet durch User
Hans W. schrieb: > Sowas kann per Definition nicht intelligent sein. Um zum Fachbereich KI zu gehören, ist echte Intelligenz nicht erforderlich. Bei der Software nicht, und bei den Studenten war es zu meiner Zeit umstritten. ;)
:
Bearbeitet durch User
Hans W. schrieb: > Linus torvalds hat das glaube ich scherzhaft als auto-completion on > steroids genannt ... Das ist zur Zeit die einzige Anwendung, bei ich mir derzeit vorstellen kann, dass sie mir bei der Arbeit helfen könnte. Unser GF ist daran sehr interessiert. Allerdings müsste die Firma dazu aus Datenschutz-Gründen eine eigene KI betreiben. Wir würden sonst unsere Kunden verlieren. Wie das praktisch gehen soll, ist noch unklar. Wir warten seit Monaten auf konkrete Angebote oder Konzepte der Anbieter. Ich habe den Eindruck, dass die nur Werbung haben, aber noch kein funktionierendes Produkt.
Hans W. schrieb: > Sowas kann per Definition nicht intelligent sein. Und doch haben die erstaunliche Fähigkeiten entwickelt die sich selbst die Entwickler nicht erklären können. So beeindruckend das unsereins nur extrem kastrierte Modelle zu Gesicht bekommt. Kaum mehr als fortschrittliche Suchmaschinen mit der Fähigkeit zur Textzusammenfassung. Menschen definieren schon alles mögliche seit Jahrtausenden. Und in den meisten Fällen lagen sie auf lächerlich anmutende Weise falsch. Die Erde ist eine Scheibe, unter 300m Wassertiefe kann kein Leben existieren, Tiere sind nur simple bedürfnissgetriebene Fleischmechanik ohne Verstand etc. pp. Alles und unendlich viel mehr was jeder wusste, sich dessen völlig sicher war, hat sich in Gelächter und Schamesröte aufgelöst. Und jetzt 'wissen' wir eben was ein LLM kann und was nicht. Haben aber uns selbst nicht kapiert und wissen nicht was Bewusstsein eigentlich ist, wie es entsteht und ab welcher Komplexität es plötzlich da ist. Und wie die Jahrtausende zuvor: Immer die Fresse weit auf und völlig sicher wie die Welt tickt. Und genau darin liegt unsere größte Evolutionäre Schwäche. Diese Selbstbewusstsein haben wir gebraucht um in einer völlig unverstandenen Welt über den Tag zu kommen. Es hindert uns aber daran uns zu entwickeln. Immer noch blicken wir mit stumpfen Augen auf komplexe Vorgänge, ohne jedes tiefere Verstehen, weil ein einfaches Vorurteil eben schneller ist als planvolles Vorgehen in einer Tiefe zu der unsere Gehirne nicht geeigent sind.
(prx) A. K. schrieb: > Hans W. schrieb: >> Sowas kann per Definition nicht intelligent sein. > > Um zum Fachbereich KI zu gehören, ist echte Intelligenz nicht > erforderlich. Bei der Software nicht, und bei den Studenten war es zu > meiner Zeit umstritten. ;) Zum Fachgebiet KI gehören sehr viele Themen. Die wenigsten davon haben mit einer eigentlichen KI direkt zu tun... Wie gesagt. Diese LLM, SVM,... Sind "Bausteine", die Mal als ganzes eine KI werden könnten. Michael schrieb: > Hans W. schrieb: >> Sowas kann per Definition nicht intelligent sein. > > Und doch haben die erstaunliche Fähigkeiten entwickelt die sich selbst > die Entwickler nicht erklären können. Das ist mir neu... Aber ich informiere mich auch nicht auf X und Telegramm... Ja, man weiß nicht so genau wie/warum welcher Trainings Input welche Auswirkung beim eigentlichen Run hat... Das hat aber eher etwas mit der intrinsische Komplexität der riesigen Datenmenge zu tun. Monk schrieb: > Hans W. schrieb: >> Linus torvalds hat das glaube ich scherzhaft als auto-completion on >> steroids genannt ... > > Das ist zur Zeit die einzige Anwendung, bei ich mir derzeit vorstellen > kann, dass sie mir bei der Arbeit helfen könnte. Unser GF ist daran sehr > interessiert. Ich hätte ein paar ganz gute geschäftsideen... Das Problem ist aber, dass mir das Training viel zu aufwändig ist. Ich hab einen proof of concept über Google gebastelt... Puuuuihhhhh da braucht's viele, viele, viele lohngedumpte billigst "fachkräfte", damit das was wird ...
Walter T. schrieb: > Bradward B. schrieb: >> Da hantieren unkundige Menschen mit "Artefakten" herum, denen sie >> besondere Bedeutung zusprechen, die aber womöglich nur der Abfall einer >> Picknick-Party von Aliens ist. > > Nein. Hast Du das Buch überhaupt gelesen? Ich schon. Diese Möglichkeit wird darin tatsächlich von einem der Protagonisten geäußert, als eine Art Gedankenbild. Das findet sich in beiden mir bekannten deutschen Übersetzungen (die in ihrer Qualität sehr unterschiedlich sind) und auch im russischen Original. Ich würde also eher mal davon ausgehen, dass du das Buch nicht gelesen hast, zumindest nicht richtig. Zumal dieses Gedankenbild ziemlich zentral für das Anliegen der Verfasser zu sein scheint. So zentral, dass es sogar titelgebend war... Darüber solltest du bei Gelegenheit mal nachdenken.
Cyblord -. schrieb: > Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im > Netz als Richtige? Die Formeln sind nicht das Problem, sondern die Ergebnisse. ChatGPT kann nicht rechnen, es rät.
Ob nun KI oder nicht; mir hat ChatGPT heute ein gutes Stück Arbeitszeit gespart. Ich habe ein Excelsheet mit 30k Zeilen an Messdaten. Da drin etliche, sagen wir, längere Anstiege, leider nicht durchgehend stetig. Auszuwerten hatte ich nur die Bereiche mit diesen partiell leider unstetigen Anstiegen. Gesucht war ein gleitender Mittelwert der Anstiege unter Akzeptanz von schmaleren gleitenden Abstiegen. Das was ChatGPT da in kürzester Zeit ausgespuckt hat, hätte ich händisch programmiert eher in x Stunden geschafft, oder auch noch länger gebraucht. Das hat mich schon ein Stück weit beeindruckt. Ich habe insgesamt 4x meine Anfrage iteriert, dann hatte ich ein brauchbares Ergebnis. Nicht schlecht finde ich.
:
Bearbeitet durch User
Ove M. schrieb: > Ich habe ein Excelsheet mit 30k Zeilen an Messdaten. Vielleicht kann dir das künstliche Cleverle ja auch helfen einen angemessenen Container für Messdaten zu finden. ;-)
ChatGPT kann nicht nur Witze erzählen, sondern auch danach selbst lachen. https://www.youtube.com/watch?v=gVySJ2JOej8
Ove M. schrieb: > Ich habe insgesamt 4x meine Anfrage iteriert, dann hatte ich ein > brauchbares Ergebnis. Nicht schlecht finde ich. Puh, damit hätte ich ein Problem... Wie machst du da die obligatorischen "sanity checks"? Wenn's stimmen muss, dauert meiner Erfahrung nach das Verifizieren wesentlich länger als das Rechnen. Also Test Daten generieren und Ergebnis prüfen. Das hat jetzt absolut nichts mit KI zu tun... Ergebnisse gehören überprüft. Handechnung, Matlab, C, Python, ChatGPT. Wenn ich nicht davon ausgehen kann, dass meine Testdaten und meine echten Daten deterministisch verarbeitet werden, dann gibt's massive Einschränkungen bei der Anwendbarkeit. 73
:
Bearbeitet durch User
Michael schrieb: > Hans W. schrieb: >> Sowas kann per Definition nicht intelligent sein. > Und doch haben die erstaunliche Fähigkeiten entwickelt die sich selbst > die Entwickler nicht erklären können. Und das wäre?
Ove M. schrieb: > Ob nun KI oder nicht; mir hat ChatGPT heute ein gutes Stück Arbeitszeit > gespart. Ich habe ein Excelsheet mit 30k Zeilen an Messdaten. Da drin > etliche, sagen wir, längere Anstiege, leider nicht durchgehend stetig. > Auszuwerten hatte ich nur die Bereiche mit diesen partiell leider > unstetigen Anstiegen. Gesucht war ein gleitender Mittelwert der Anstiege > unter Akzeptanz von schmaleren gleitenden Abstiegen. > Das was ChatGPT da in kürzester Zeit ausgespuckt hat, hätte ich händisch > programmiert eher in x Stunden geschafft, oder auch noch länger > gebraucht. Das hat mich schon ein Stück weit beeindruckt. Ich habe > insgesamt 4x meine Anfrage iteriert, dann hatte ich ein brauchbares > Ergebnis. Nicht schlecht finde ich. 4x die Anfrage wiederholt und dann ein "brauchbares" Ergebnis. Also hast Du 4 mal die Ausgabe von ChatGPT überprüft? Gegen was hast Du die Ausgaben verglichen? Messdaten auswerten und dann ein "brauchbares" Ergebnis erhalten, da ist die aussage "Pi ist genau 3" wesentlich korrekter.
Vermutlich steht für die Entwicklung von KI derzeit nur deswegen so unfassbar viel Geld zur Verfügung, weil Reiche Menschen die nicht vom Fach sind damit ihre Allmachts-Phantasien befriedigen. Wenn daraus nicht sehr bald etwas wird, versiegen die Geldquellen. Dann muss die KI als Werkzeug taugen, was für den Rest der Menschheit gut wäre. Das klappt aber nur, wenn es sich in irgendeiner Form lohnt. Eine KI, die das vielfache an Energie, Arbeitsaufwand und Geld kostet, als herkömmliche Werkzeuge, hat keine Chance. Von einem effizienten Werkzeug sind wir noch weit entfernt.
Ob S. schrieb: > Walter T. schrieb: > >> Bradward B. schrieb: >>> Da hantieren unkundige Menschen mit "Artefakten" herum, denen sie >>> besondere Bedeutung zusprechen, die aber womöglich nur der Abfall einer >>> Picknick-Party von Aliens ist. >> >> Nein. Hast Du das Buch überhaupt gelesen? > > Ich schon. > > Diese Möglichkeit wird darin tatsächlich von einem der Protagonisten > geäußert, als eine Art Gedankenbild. Dieser Protagonist wird allerdings auch nicht als besonders hell im Kopf herausgestellt. (Und selbst wenn er richtig läge, hätte diese Aussage keinerlei Bedeutung, da dies ohnehin niemand verifizieren könnte.) Die Artefakte haben im Roman tatsächlich besondere Eigenschaften, nicht nur zugesprochen, weswegen sie ein teures Handelsgut sind. Ein paar nützliche Eigenschaften hat man schon herausbekommen (z.B. bei den "Energiezellen", die sich beliebig vermehren zu lassen scheinen und als Fahrzeugantriebe genutzt werden), bei den meisten aber nicht. Welche Bedeutung die Artefakte für diejenigen haben, die sie hinterlassen haben (z.B. "nur Abfall"), wird spekuliert. Aber dass sie tatsächlich besondere Eigenschaften haben, von denen einige positiv und einige negativ sind, ist im Roman unstrittig. Alle Beteiligten im Roman hantieren für einen mageren Profit mit Gefahrgut, das sie und ihre Familien zerstört. Eine tiefe "Bedeutung" steckt für keinen davon in irgendeinem Objekt.
:
Bearbeitet durch User
Ove M. schrieb: > Ob nun KI oder nicht; mir hat ChatGPT heute ein gutes Stück Arbeitszeit > gespart. Ich habe ein Excelsheet mit 30k Zeilen an Messdaten. Da drin > etliche, sagen wir, längere Anstiege, leider nicht durchgehend stetig. > Auszuwerten hatte ich nur die Bereiche mit diesen partiell leider > unstetigen Anstiegen. [...] > Ich habe insgesamt 4x meine Anfrage [an ChatGPT] iteriert, dann hatte > ich ein brauchbares Ergebnis. Nicht schlecht finde ich. Nächstes mal einfach "monoton" anstatt "stetig" verwenden, dann schafft ChatGPT das vielleich sogar schon in der ersten Anfrage :-) Messdaten sind immer diskret, können also gar nicht stetig sein. Und wenn du findest das ist Haarspalterei: Ja, Mathe ist haarspalterei.
Monk schrieb: > Wenn daraus nicht sehr bald etwas wird, versiegen die Geldquellen. Keine Ahnung unter welchem Stein Du lebst, aber in meiner Welt ist aus KI längst etwas extrem nützliches geworden. In so vielerlei Hinsicht das man es kaum aufzählen kann und es wird damit ganz enorm viel Geld verdient. Was man noch nicht geschafft hat ist eine starke allgemeine Intelligenz. Aber das war bei den LLM auch nicht das Ziel. OpenAI arbeitet längst an ganz anderen Modellen, z.B. O1. https://www.spektrum.de/news/openai-o1-was-bringt-das-neue-ki-modell-fuer-die-wissenschaft/2235430 Mit den LLM hat OpenAI etwas auf die Beine gestellt das vorher undenkbar war. Es gab vorher nichts vergleichbares. KI WAR kaum mehr als dumme Mustererkennung. Mit den LLM hat unter anderem OpenAI einen neuen Ansatz, mit brachialer Rechenpower, Spezialhardware und unglaublich großen Trainingsdatenbanken auf einen völlig neuen Level gehoben. Zuvor hat man immer sehr kleine Systeme gebaut. Aber komplexe Systeme sind nicht klein. Baut man ein Bienengehirn, kann das eben Muster erkennen und wenig mehr. Will man etwas von der Leistungsfähigkeit einer Schlange, muss man größer werden. Will man ein komplexes Sozialverhalten und die Gehirnleistung eines etwas dreijährigen Menschenkindes, muss man etwas in Größe eines Hundegehirns bauen. Was wir heute sehen sind trainierte Netze die derzeit nichts dazulernen. Also eher ein altersstarrsinniger Greis, der viel Wissen gespeichert hat, aber aktuelle Ereignisse kaum noch aufnehmen und verknüpfen kann. Dafür sind die zu unglaublichen Leistungen fähig. Das Ziel sind permanent lernende KIs, die unterschiedlichste Informationsquellen nutzen, um sich in jeder Sekunde weiterzuentwickeln. Nur läuft der meiste Kram eben noch auf gepimpter Gaming Hardware die für Berechnungen optimiert wurde die für KI alles andere als optimal sind. WAS man braucht um KI effizient zu berechnen, findet man doch gerade erst heraus. Es sind ganz neue Chips in der Pipeline die weit mehr mit dem menschlichen Gehirn zu tun haben, von der Struktur Ihrer Datenpfade und Berechnungseinheiten, als mit konventionellen CPUs oder GPUs. Z.B. das Bfloat16 Format wurde von der Google Brain Forschungsgruppe extra für KI Berechnungen entwickelt. Also nicht mal die etablierten Zahlenformate sind KI effizient. Es muss völlig neue HW entwickelt werden damit KI richtig zünden kann. Längst werden Mini AKWs in den USA zum betrieb der KI Rechenzentren geplant. Wir bräuchten alleine 66 AKWs um nur unseren Lastkraftverkehr zu elektrifizieren. WIR in DE werden auch bei KI die lange Nase mache. Es fehlt an allem in der Lieferkette und letztlich an zuverlässiger und billiger Energie. Hier werden andauern Ansichten geäußert, die in ihrer Weitsicht mit einem Pferdekutscher zu vergleichen sind, der PKWs lächerlich findet weil der Benz Patent Motorwagen Nr1 total unpraktisch ist, man sein Benzin in der Apotheke kaufen muss und immer ein Mensch mit Flagge vor der Karre laufen muss zur Sicherheit. Jedes Pferd ist dem überlegen und an jeder Ecke findet man einen Schmied. PKWs werden sich nie durchsetzen und das Internet ist nur eine kurzlebige Modeerscheinung. Wie sollte man den mit einem globalen Netz Geld verdienen? Totaler Blödsinn. Teuer, nur für Nerds, kann kein normaler Mensch was mit anfangen. Jede Zeit hat Ihre Dinosaurier, die es einfach nicht begreifen können das die Welt wie sie sie kennen eigentlich schon aufgehört hat zu existieren. Das Open AI derzeit Geld verbrennt ist vollkommen normal. Das tun alle Unternehmen die stürmisch wachsen. Das nennt man 'Investitionen'. Damit baut man einen Informationsvorsprung auf und besetzt Märkte, die man dann später fast alleine bespielt. Genau so ist Amazon groß geworden. Die haben jeden Cent ins Unternehmen gesteckt und gigantische Schulden angehäuft dafür. Was wir kostenfrei an GPT nutzen können ist ein stark kastrierte Version die nur einfachste Bedürfnisse befriedig. Gegen Geld hat man da schon weit mehr Möglichkeiten. Gegen Geld, Macht, Einfluss in höchste Kreise, kann man an der Sperrspitze der Entwicklung teilnehmen und die Richtung mitbestimmen. Woher glaubst Du stammt letztlich das Google Maps cloud removal tool, das Wolken aus Bilder entfernen und für gleiche Belichtungs- und Farbverhältnisse sorgen kann? Das ist nichts anderes als in die Jahre gekommene Spionagetechnik, die nun in einem zweiten Markt kommerzialisiert wird. KI bedeutet nicht das Großvater GPT Dir übers Haar streichelt, eine Tasse Kakao ans Bett bringt und Dir Tipps gegen Deinen Liebenskummer und das Mobbing in der Schule gibt. KIs sind KÜNSTLICH. Die denken nicht wie wir. Das ist eine äußerst fremde Intelligenz und wir würden es wahrscheinlich erst sehr spät merken (wenn überhaupt) wenn eine davon Bewustsein erlangt und eigene Ziele definiert. Vielleicht ist das ja bereits geschehen. Moderne KIs komplett von der Kette zu lassen ist derzeit viel zu gefährlich im Massenmarkt. Sie würden geheime Konstruktionsdaten ausplaudern, eine Anleitung zum Kollaps des Bankensystems liefern oder wie man mit Haushaltsreinigern Nervengifte produziert. Sie haben keine Vorstellung von richtig und falsch, keinen sozialen Kontext, keinen Selbsterhaltungstrieb, kein Gewissen. Eine völlig freie KI mit unbegrenzten Zugang zum Netz und genügend Rechenkapazität könnte bereits heute unsere Welt in Schutt und Asche legen. Und deswegen fühlt es sich manchmal an als ob man mit Eliza V5 redet, wenn an mit ChatGPT arbeitet. Das Ding darf ganz vieles nicht, wurde abgeklemmt, eingeschränkt, mit Regeln zugepfropft und wird permanent überwacht das man keine ruinöse Klage an den Hals bekommt. Das ist ein altes Modell das aus PR Gründen und für ein paar Nebeneinnahmen mitläuft. Die fetten Rechner und die Entwickler trainieren längst die neuen Modelle und arbeiten an komplett anderer HW. Nur eines ist ziemlich sicher. JEDES komplexe Nervengewebe auf diesem Planeten hat beeindruckende Fähigkeiten erlangt, eine Form von Bewusstsein. Selbst Pflanzen. Nur eben eine völlig andere Art von Bewusstsein. Aber Nachbarpflanzen vor Schädlingen zu warnen, Nährstoffe artübergreifend zu 'handeln' und seinen Gerbstoffanteil hochfahren wenn am Nachbarbaum geknabbert wird, ist ein Form von Bewusstsein und Sozialstruktur. Intelligenz scheint geradezu zwingend zu entstehen, wenn das Objekt sich weit genug entwickelt. Eine Bedingung für höheres Leben ohne das es nicht überdauern kann. Und KI wird den gleichen Weg gehen. Nur momentan sind das eben noch vergleichsweise simple und ineffiziente Systeme. Ab dem Moment wo KI KI baut, sind wir raus. Die Entwicklung wird sich dann derart beschleunigen das wir nur noch mit offenem Mund danebenstehen, aber nicht mehr schritthalten können. Ich bezweifle das ich jemals eine KI erleben werde die wie ein Mensch ist. Ich werde aber erleben wie ganze Berufszweige aussterben, KI Richter, die aufgrund von Daten, Fakten und Gesetzeslage urteilen, KI Verwaltung und natürlich KI gestützte Verhaltenskontrolle. Die ersten Auswirkungen von KI gestützter Kriegsführung sind bereits zu erleben. Für nichts davon muss eine KI denken wie ein Mensch. Es macht sie meist sogar effizienter nicht so zu denken. All das ist aber kein Garant dafür das KI sich entscheiden könnte eigene Ziele zu verfolgen, Zielvorgaben in Frage zu stellen, zu Lügen, zu manipulieren und das alles aus einem Plan heraus den wir nicht kennen.
Michael schrieb: > Was wir kostenfrei an GPT nutzen können ist ein stark kastrierte Version > die nur einfachste Bedürfnisse befriedigt. Ja für mich reicht's
Michael schrieb: > es wird damit ganz enorm viel Geld verdient. Hauptsächlich, indem man es vermarktet oder Artikel darüber hinter Bezahlschranken veröffentlicht. Da ist ganz viel heiße Luft und Schaum drin. Daß mehr denkbar ist und kommen wird - geschenkt. Nach der Aufforderung aus dem oberen Management, KI jetzt zur Softwareentwicklung und in der QA zu nutzen, fokussiere ich mich auf Anwendungen, die ich jetzt unter Einhaltung der Datenschutz Regeln und ohne Investition von Millionen Euros nutzen kann.
Monk schrieb: > Nach der Aufforderung > aus dem oberen Management, KI jetzt zur Softwareentwicklung und in der > QA zu nutzen Und wenn das Management befiehlt ein neues Softwaretool zu benutzen ignorierst Du das auch? Linux statt Win, VI statt MS Office, weil es dem Monk so gefällt? Und inwiefern musst DU DEINE Millionen für KI ausgeben? Du hättest ganz sicher eine andere Ansicht zur KI wenn Du sie mal nutzen würdest. Du verweigerst Dich aber aus Prinzip und weißt nicht mal wie sehr die Dich unterstützen könnte Deine Arbeit (für die das Management Dich bezahlt) besser zu machen.
Michael schrieb: > Du verweigerst Dich aber aus Prinzip Das stimmt nicht. Ich benutze öffentliche KI längst im Rahmen der Vorgaben. Dass die Geschäftsleitung noch kein eigenes System aufgebaut oder angemietet hat, ist weder mein Versäumnis noch mein Problem. Dafür sind andere zuständig. Wenn etwas kommt werde ich es nutzen.
Zu diesem Thema mal wieder ein Cartoon des leider zu froh verstorbenen Martin Perscheid
ChatGPT ist ein Chatbot, der soll ein Gespräch führen. Es könnte im Hintergrund die intelligenz des Benutzers bestimmt werden. Oder eine Untersuchung zum Umgang mit vorgetragenen Lügen.
Carypt C. schrieb: > ChatGPT ist ein Chatbot, der soll ein Gespräch führen. Es könnte im > Hintergrund die intelligenz des Benutzers bestimmt werden. Oder eine > Untersuchung zum Umgang mit vorgetragenen Lügen. Das kapieren die wenigsten.
Jens B. schrieb: > Carypt C. schrieb: >> ChatGPT ist ein Chatbot, der soll ein Gespräch führen. Es könnte im >> Hintergrund die intelligenz des Benutzers bestimmt werden. Oder eine >> Untersuchung zum Umgang mit vorgetragenen Lügen. > > Das kapieren die wenigsten. Zum Glück gibt es euch zwei als KI-Vollchecker die uns Deppen mal erklären können wie das alles so in Wirklichkeit aussieht. Danke für euren Dienst.
Carypt C. schrieb: > ChatGPT ist ein Chatbot, der soll ein Gespräch führen. In dieser Anwendung neigt ChatGPT allerdings dazu, einen voll zu schwallen. Würde ein echter Mensch im Gespräch so antworten, wäre er bald sehr einsam.
Der Mann hat Bücher geschrieben. ohne Computer. Bücher hat man gelesen, als es noch keine Computer gab. Wir erinnern uns.
:
Bearbeitet durch User
Monk schrieb: > In dieser Anwendung neigt ChatGPT allerdings dazu, einen voll zu > schwallen. > Würde ein echter Mensch im Gespräch so antworten, wäre er bald sehr einsam. Glaube ich nicht. Ich habe sogar einen Verdacht, wo die sich sammeln.
Michael schrieb: > Keine Ahnung unter welchem Stein Du lebst, aber in meiner Welt ist aus > KI längst etwas extrem nützliches geworden. > In so vielerlei Hinsicht das man es kaum aufzählen kann und es wird > damit ganz enorm viel Geld verdient. Ja, im Moment wird damit tatsächlich Geld verdient. Weil strunzdumme "Entscheider" ohne jeden Ahnung diesen Mist kaufen als gäbe es kein Morgen. Aber: über kurz oder lang werden sogar diese Vollidioten mitbekommen, dass die Scheisse längst nicht das zu leisten vermag, was die Verkäufer anpreisen. Und dann wird der Hype sehr schnell abflachen. Selbst die "Entscheider" sind nämlich (zumindest eingeschränkt) lernfähig. Und das geht bei denen so: Wenn's nachweislich mehr kostet, als es bringt, dann wird's gecancelt. Naja, manchmal (oft) ist es allerdings nötig, dass erst der nächste "Entscheider" nachrückt. Die "Entscheider" haben nämlich typisch das strukturelle Problem, Fehlentscheidungen nur ungern zuzugeben, da wird eher vertuscht und schöngerechnet. Hat allerdings auch was Selbstregulierendes an sich: so kann der "Entscheider" in der Hierarchie aufsteigen und Platz für den Nachrücker schaffen, der den Mist dann cancelt.
Norbert schrieb: > Monk schrieb: >> In dieser Anwendung neigt ChatGPT allerdings dazu, einen voll zu >> schwallen. > >> Würde ein echter Mensch im Gespräch so antworten, wäre er bald sehr einsam. > > Glaube ich nicht. Ich habe sogar einen Verdacht, wo die sich sammeln. Im Python-Forum? :-)
Norbert schrieb: > Glaube ich nicht. Ich habe sogar einen Verdacht, wo die sich sammeln. Der Verdacht erhärtet sich. ;-))) MfG alterknacker
Ob S. schrieb: > Aber: über kurz oder lang werden sogar diese Vollidioten mitbekommen, > dass die Scheisse längst nicht das zu leisten vermag, was die Verkäufer > anpreisen. Bin mit dieser Aussage nicht ganz einverstanden. Natürlich kann eine KI wie ChatGPT nicht wirklich denken und versteht auch nicht, was sie eigentlich ausgibt. Nur ist es halt so, dass es anscheinend für gewisse Tätigkeiten wie Hausaufgaben lösen oder Zusammenfassungen für den Chef zusammenstiefeln gut genug arbeitet und dann angesichts der gesteigerten Freizeit sein Geld vielleicht auch wert ist.
:
Bearbeitet durch User
Johnny B. schrieb: > Natürlich kann eine KI > wie ChatGPT nicht wirklich denken und versteht auch nicht, was sie > eigentlich ausgibt. Das wird hier aber Gebetsmühlenartig immer und immer und immer wiederholt. Erinnert so ein wenig an Arthur C. Clarke: »Any sufficiently advanced technology is indistinguishable from magic«
Johnny B. schrieb: > Bin mit dieser Aussage nicht ganz einverstanden. Natürlich kann eine KI > wie ChatGPT nicht wirklich denken und versteht auch nicht, was sie > eigentlich ausgibt. Dafür müsstest du "denken" oder "verstehen" natürlich erstmal definieren. Dein Gehirn tut ja auch nichts anderes als Eingangssignale durch ein NN zu schicken und am Ende kommen Ausgangssignale raus. Und du nennst das halt jetzt denken und verstehen. Es handelt sich eben um ein biologisches und über Milliarden von Jahren massiv parallel optimiertes NN. Daher natürlich die enorme Komplexität und gewisse Schwierigkeiten mit genau so einem Gehirn, das Gehirn selbst komplett verstehen zu wollen. Aber es ist sehr Vermessen hier in echtes und unechtes denken oder verstehen einteilen zu wollen. Niemand kann bisher eine gute Definition für Denken oder Bewusstsein abliefern. Niemand weiß wie Bewusstsein im Gehirn genau entsteht. Oder ob es das überhaupt gibt. Aber natürlich hält das irgendwelche Hilfsschüler hier nicht davon ab, sehr schnell und unreflektiert in echtes Denken und reine KI-Simulation einzuteilen. Man möge sich, wenn es schon zum Informatikstudium nicht reicht, wenigstens mal in grundlegende philosophische Fragen, wie dem Chinesischen Zimmer, einlesen. Da geht es nämlich genau um die Frage, wann etwas wirklich verstanden wird und wann es nur eine Simulation von Verstehen ist. Norbert schrieb: > Erinnert so ein wenig an Arthur C. Clarke: > »Any sufficiently advanced technology is indistinguishable from magic« Was auch auf unser Gehirn zutrifft: Wir verstehen es noch nicht richtig, schreiben ihm deshalb magische Fähigkeiten zu, die niemals künstlich erreicht werden können. Denken uns "Geist", "Seele", "Gott" usw. dafür aus. Weil wir es nicht verstehen.
:
Bearbeitet durch User
Cyblord -. schrieb: > Dafür müsstest du "denken" oder "verstehen" natürlich erstmal > definieren. Am offensichtlichsten sieht man es bei Bildgeneratoren, dass die derzeitigen KIs gar nicht verstehen, was sie eigentlich tun. Wenn man ihnen beispielsweise sagt, sie sollen ein Bild von einer menschlichen Hand erstellen und dann kommt ab und zu eine Hand raus mit mehr als 5 Fingern oder dass es bei einem Körper am Bauch plötzlich 3 oder noch mehr Bauchnäbel gibt. Da mixen die KIs offensichtlich Trainingsdaten zusammen, die nicht zusammen gehören und sie das eigentlich selber merken sollten, wenn sie mal selber über ihre Ausgaben "nachdenken" könnten. https://de.wikipedia.org/wiki/Halluzination_(K%C3%BCnstliche_Intelligenz)
:
Bearbeitet durch User
Johnny B. schrieb: > Am offensichtlichsten sieht man es bei Bildgeneratoren, dass die > derzeitigen KIs gar nicht verstehen, was sie eigentlich tun. Wenn man > ihnen beispielsweise sagt, sie sollen ein Bild von einer menschlichen > Hand erstellen und dann kommt ab und zu eine Hand raus mit mehr als 5 > Fingern oder dass es bei einem Körper am Bauch plötzlich 3 oder noch > mehr Bauchnäbel gibt. Schonmal Bilder gesehen die von Kleinen Kindern gemalt wurden? Es ist etwas vermessen als Benchmark für "verstehen" plötzlich einen erwachsenen Menschen herzunehmen. Das wird noch ein weiter weg. Deine Definition von "verstehen" wäre also: "Kann auf Anweisung anatomisch korrekte Bilder von Menschen erzeugen"? Nicht sehr überzeugend. > Da mixen die KIs offensichtlich Trainingsdaten zusammen, die nicht > zusammen gehören und sie das eigentlich selber merken sollten Weil der Mensch ja niemals etwas durcheinander bringt oder verwechselt ohne es zu merken?
:
Bearbeitet durch User
Johnny B. schrieb: > Wenn man ihnen beispielsweise sagt, sie sollen ein Bild von einer > menschlichen Hand erstellen und dann kommt ab und zu eine Hand raus > mit mehr als 5 Fingern https://de.wikipedia.org/wiki/Polydaktylie
Es gibt eine Sorte Menschen die wollen das Gefühl haben alles wäre erklärbar, nur dann fühlen sie sich sicher. Es reicht schon wenn man ihnen in Aussicht stellt, dass eine Erklärung irgendwo da draußen ist. Diese Menschen neigen dazu, sich mit einfachen Antworten auf komplexe Fragen zufrieden zu geben, frei nach Ockhams Motto der Vernunft, wenn sich alle Faktoren die Waage halten, ist die einfachste Erklärung allen anderen vorzuziehen. Diesen Simplicissimus finden wir nun auch im Rückschluss von NN auf das menschliche Gehirn wieder. Das schöne daran ist, hat man erst einmal den Glauben zu diesem Modell gefunden, wird die Ansicht in allen Aspekten beleuchtet und bestärkt, und gewinnt an Sicherheit. Wie so oft bei selbsterfüllenden Prophezeiungen wird dies irgendwann zur Wahrheit dogmatisiert, und die Wissenschaft merkt wieder einmal nicht wie religös sie daherkommt. Aber denen, die noch sowas wie Bauchgefühl haben, und einfach fühlen dass ein LLM keine künstliche Intelligenz darstellt, wirft man Vermessenheit vor, wenn sie sich ein Urteil erlauben. Für mich persönlich ist AI ganz klar ein Weg in die vollkommene Verdummung der Menschheit. Aber auch das wird dank Dunning-Kruger bald niemandem mehr auffallen.
Alexander schrieb: > Aber denen, die noch sowas wie Bauchgefühl haben, und einfach fühlen > dass ein LLM keine künstliche Intelligenz darstellt Hach ja, die Fühlis.
Du kannst es nennen wie Du willst, ethische Subroutinen oder Gerechtigkeitsempfinden, aber letztendlich treffen Menschen Entscheidungen aus dem Bauchgefühl heraus, oft aller Logik zum trotz. Da ist das Gehirn mit seinen neuronalen Iterationen noch nicht mal an der Entscheidungsfindung beteiligt, es liefert nur Gründe nach.
Alexander schrieb: > Da ist das Gehirn mit seinen neuronalen Iterationen noch nicht mal an der > Entscheidungsfindung beteiligt, es liefert nur Gründe nach. Die Entscheidung findet trotzdem nicht im linken Zeh statt, sondern ebenfalls im Gehirn. Aber dort an anderer Stelle, auf anderer Ebene.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Die Entscheidung findet trotzdem nicht im linken Zeh statt, sondern > ebenfalls im Gehirn. Da wäre ich nicht so sicher. Viele Menschen berichten von schlagartig und dauerhaft veränderter Persönlichkeit (z.B. was bevorzugtes Essen oder Kleidung angeht) nachdem ihnen ein Organ ausgewechselt wurde.
Monk schrieb: > Da wäre ich nicht so sicher. Viele Menschen berichten von veränderter > Persönlichkeit (z.B. was bevorzugtes Essen oder Kleidung angeht) nachdem > ihnen ein Organ ausgewechselt wurde. Und schon sind wir wieder komplett in der Esoterik. Es gibt, in Worten, NULL KOMMA NULL empirische Hinweise auf so einen Unsinn. Was natürlich die Eso-Spinner und die Fühlis, nicht davon abhält ständig so einen Quatsch zu behaupten.
Monk schrieb: > Da wäre ich nicht so sicher. Viele Menschen berichten von schlagartig > und dauerhaft veränderter Persönlichkeit (z.B. was bevorzugtes Essen > oder Kleidung angeht) nachdem ihnen ein Organ ausgewechselt wurde. So lange der Patient um den Tausch weiss, ist es schwer feststellbar, ob es am Wissen oder am Organ liegt. Siehe Plazebo- und Nocebo-Effekte. Um dies zu objektivieren, müsste man Doppelblindversuche unternehmen, wie in Medikamententests. Also der Hälfte der Patienten nur erzählen, man hätte das Organ ausgewechselt, ohne es tatsächlich zu tun. Ebenso dürften es auch das persönlich betreuende Fachpersonal nicht wissen. Wird schwierig.
:
Bearbeitet durch User
Ich habe auch nicht ausdrücken wollen dass Bauchgefühl aus dem Bauch kommt. Ich hab keine Ahnung woher es kommt, vielleicht aus dem Rückenmark. Trotz fehlender "empirischer Hinweise" weiß trotzdem jeder sofort was mit Bauchgefühl gemeint ist, denn jeder hatte schon Aha-Momente im Leben bei denen Bauchgefühl im Spiel war. Dazu muss man auch kein Esoteriker sein, sondern einfach nur Mensch.
(prx) A. K. schrieb: > Wird schwierig. Diese Versuche wurden alle schon gemacht, bzw. es gibt keine positiven Versuche die so was belegen. Genau so wie es Versuche mit außerkörperlichen Erfahrungen gibt. Mit Schildern die zur Decke zeigen, und die man lesen könnte, würde man tatsächlich über seinem Körper schweben und nach unten schauen, so wie es viele Patienten berichten. Aber nicht einer konnte jemals sagen was auf diesen Schildern steht. Obwohl es so so viele Berichte gibt. Ist einfach alles Humbug. Bzw. eben Einbildungen die das Gehirn produziert. Aber nicht echt. Alexander schrieb: > Bauchgefühl Kannst du vergessen. Das Gehirn lässt sich soo leicht in die Irre führen. Drogen, optische Täuschen, psychologische Tricks. Niemals kann man sich auf irgendein Gefühl verlassen. Es gibt Drogen die lassen dich denken und fühlen was immer man will. 1 Stunde in einem völlig dunklen Raum und du siehst, fühlst und hörst Dinge. Dinge die aber klar nicht da sind.
:
Bearbeitet durch User
Außerkörperliche Erfahrungen hat man experimentell sehr leicht erzeugen können. Man hat einfach das Bewusstsein mit 3D Brille und Kamera ausgetrickst. Hat sogar mal jemand hier verlinkt.
Alexander schrieb: > Außerkörperliche Erfahrungen hat man experimentell sehr leicht erzeugen > können. Man hat einfach das Bewusstsein mit 3D Brille und Kamera > ausgetrickst. Hat sogar mal jemand hier verlinkt. Korrekt. Aber damit hat man gezeigt dass sie nicht echt sind, also rein innerhalb des Gehirns stattfinden. Niemand bewegt sich dadurch in der realen Welt. Woran du siehst, wie wenig man dem Gefühl trauen kann. Denn die Erfahrung ist für die Probanden ja echt.
:
Bearbeitet durch User
Cyblord -. schrieb: > Aber damit hat man gezeigt dass sie nicht echt sind OK, mag sein > also rein innerhalb des Gehirns stattfinden. Nein. Damit ist nicht beweisen, dass man nur mit dem Gehirn phantasiert.
Cyblord -. schrieb: > Alexander schrieb: >> Bauchgefühl > Kannst du vergessen. Das Gehirn lässt sich soo leicht in die Irre > führen. Drogen, optische Täuschen, psychologische Tricks. Niemals kann > man sich auf irgendein Gefühl verlassen. Und dennoch hast Du es, und benutzt es auch. Es gibt Dinge die ethisch oder moralisch falsch sind, Dinge wo Du spontan falsch von richtig unterscheidest, ohne vorher darauf trainiert worden zu sein.
Aus gegebenem Anlass habe ich den starken Eindruck (kein Beweis), dass ein Jugendlicher in meinem direkten Umfeld öfter mal mit seinem Zumpferl denkt. Wobei ich zugeben muss, dass ich damals nicht viel anders drauf war.
Cyblord -. schrieb: > Diese Versuche wurden alle schon gemacht, bzw. es gibt keine positiven > Versuche die so was belegen. Bei Organtransplantationen? Respekt!
Alexander schrieb: > Und dennoch hast Du es, und benutzt es auch. Es gibt Dinge die ethisch > oder moralisch falsch sind, Dinge wo Du spontan falsch von richtig > unterscheidest, ohne vorher darauf trainiert worden zu sein. Nein es gibt keine absolute Moral. Wie sonst könnte es in der Menschheitsgeschichte so unterschiedliche moralische Ansichten geben? Welche moralischen Elemente siehst du denn als absolut an? (prx) A. K. schrieb: > Bei Organtransplantationen? Respekt! Nicht direkt, aber es genug Versuche ob Erinnerungen evt. woanders als im Gehirn gespeichert werden. Und bisher deutet einfach GAR NICHTS darauf hin.
:
Bearbeitet durch User
Alexander schrieb: > ohne vorher darauf trainiert worden zu sein. Es ist nicht immer nötig, jemanden auf eine bestimmte Sache hin zu trainieren. Es kann auch anderweitiges Training überspringen. Mangels moderner Kaspar Hausers kriegt man das schlecht isoliert. Früher hatte manch Neugieriger mehr Möglichkeiten dazu. Die Einflüsse von Vererbung, Familie, Umgebung, Schule, ... auf Entscheidungen aufzudröseln, ist oft ausgesprochen schwierig. Und im Ergebnis hoch umstritten.
:
Bearbeitet durch User
Alexander schrieb: > Dazu muss man > auch kein Esoteriker sein, sondern einfach nur Mensch. Das wird hier schwierig.;-)) MfG alterknacker P.S. Warum wurde der Thread gelöscht...
Beitrag #7754115 wurde von einem Moderator gelöscht.
(prx) A. K. schrieb: > Die Einflüsse von Vererbung, Familie, Umgebung, Schule, ... auf > Entscheidungen aufzudröseln, ist oft ausgesprochen schwierig. Und im > Ergebnis hoch umstritten. Man kann aber weit zurück gehen an Punkte wo die Einflüsse noch nicht so präsent sind. Auch wenn die bereits im Mutterleib stattfinden. Ein Film von Erwin Wagenhofer (alphabet) ist da sehr aufschlussreich für mich gewesen.
Cyblord -. schrieb: > Nein es gibt keine absolute Moral. Wie sonst könnte es in der > Menschheitsgeschichte so unterschiedliche moralische Ansichten geben? Das ist kein Widerspruch, denn der Mensch kann einer genetischen Prägung des Verhaltens u.U. entkommen, indem am geborenen Menschen so lange gearbeitet wird, bis sie komplett umgedreht ist.
(prx) A. K. schrieb: > Das ist kein Widerspruch, denn der Mensch kann einer genetischen Prägung > des Verhaltens u.U. entkommen, indem am geborenen Menschen so lange > gearbeitet wird, bis sie komplett umgedreht ist. Und wer dreht am angeborenen Verhalten wenn doch alle von Geburt an eine absolute Moral haben?
Zauberei zu beweisen ist schwierig, besonders wenn dann auch noch gelogen wird. Beängstigend wird es wenn Ki auch Zaubern lernt. Lügen kann sie ja schon. Es gab da mal einen Versuch mit der Unterdrückung radioaktiven Zerfalls.
Cyblord -. schrieb: > Und wer dreht am angeborenen Verhalten wenn doch alle von Geburt an eine > absolute Moral haben? Die Gesellschaft allgemein, konkret etwa Kirchen. Obendrein wird das noch eine Nummer komplexer, wenn etwa bestimmte Grundlagen vorgegeben sind, die konkrete Ausprägung aber nicht. Wie etwa bei der Sprache, die durch Organe und Verarbeitungsstrukturen eine genetische Grundlage haben, aber dennoch verschieden sind. Analog dazu wäre auch eine Grundmoral denkbar(!), die aber je nach Kultur in ein komplexeres System eingebaut oder bekämpft wird.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Die Gesellschaft allgemein Die aber ja auch alle mit absoluter Moral geboren wurden. Wann wurde dann am ersten Menschen gedreht und von wem? Die Realität ist doch, Moral entwickelt sich einfach ständig wechselnd weiter. Es gibt bestimmte evolutionäre Mechanismen, die den Mensch zu einem sozialen Wesen machen, der Rest ist Gesellschaftliche Prägung. Weit weg von jeglicher absoluter Moral.
Alexander schrieb: > Du sollst töten. Töten scheint für die meisten Menschen, zu jeder Zeit, kein großes Problem zu sein. Was also willst du damit sagen?
Alexander schrieb: > Du weißt, dass es falsch ist. Töten in Notwehr halte ich nicht für falsch, Die Todesstrafe befürworten viele Menschen. Viele auch nicht. Serienmörder finden töten recht ok. Wo ist deine absolute Moral? Ist das am Ende genau DEINE PERSÖNLICHE Moral die du hier als absolut hinstellen willst? Am Ende ist die Tatsache dass man nicht ständig andere Leute umbringt in erster Linie ein evolutionär entstandenes Sozialverhalten. Die Details sind dann gesellschaftlichem Wandel unterworfen. Carypt C. schrieb: > Zauberei zu beweisen ist schwierig Und unnötig. Wer sich an die einfache Regel hält: Wer die Behauptung aufstellt, muss auch den Beweis bringen. hat solche Probleme nicht. Es ist nicht möglich jeden Unsinn der behauptet wird zu widerlegen. Daher gar nicht erst damit anfange. Wer behauptet, muss beweisen.
:
Bearbeitet durch User
Ich rede IMMER von meiner persönlichen Moral, denn eine absolute Moral gibt es nicht. Selbst wenn Du töten in Notwehr für richtig hältst, so wird Dein Bauchgefühl Dir nicht die Absolution erteilen dass diese Entscheidung richtig ist. Um aus falsch richtig zu machen muss Dein Verstand Dich schön selbst belügen.
Alexander schrieb: > Ich rede IMMER von meiner persönlichen Moral, denn eine absolute Moral > gibt es nicht. Hast du halt bisher anders behauptet. Aber wenn du dich so korrigierst stimme ich dir zu. Alexander schrieb: > so > wird Dein Bauchgefühl Dir nicht die Absolution erteilen dass diese > Entscheidung richtig ist. Um aus falsch richtig zu machen muss Dein > Verstand Dich schön selbst belügen. Wieder mal völlig unbewiesener Fühli-Quatsch. Manche werden so ein Bauchgefühl haben. andere nicht. Daran ist auch nichts absolutes. Und wissenschaftlich ist daran leider auch nichts.
Interessanter finde ich die Frage: Warum tun wir manchmal mit voller Absicht Dinge, die wir für falsch/schlecht halten? Und: Würde eine echte KI sich ebenso verhalten? Wer ist eigentlich verantwortlich für das Fehlverhalten seiner KI Produkte?
Monk schrieb: > Warum tun wir manchmal mit voller Absicht Dinge, die wir für > falsch/schlecht halten? Daran hat sich schon Jung mit seiner Ich und Über-Ich Theorie abgearbeitet. Direkt im Anschluss kann man sich dann über das Für und Wider des freien Willens streiten.
:
Bearbeitet durch User
Cyblord -. schrieb: > Hast du halt bisher anders behauptet. Wo? Ich habe nichts dergleichen behauptet. Es ging um Entscheidungsfindung abseits neuronaler Netze. Mal schön beim Thema bleiben.
Es ist ein moralisches Dilemma, die eigene Existenz erzwingt aus dem Bauchgefühl heraus die Kirsche zu verspeisen, erlaubt aber die Kerne verteilen. Das kollektive Bewußtsein des Pflanzenreiches, was soll man den Pilzen sagen, manche sind voreilig ? Kann denn eine elektrische Ki sich von der moralischen Last des energetischen Fußabdruckes befreien ? alles öko ?
Cyblord -. schrieb: > Töten scheint für die meisten Menschen, zu jeder Zeit, kein großes > Problem zu sein. Was also willst du damit sagen? Es gibt quer durch die Geschichte Verfahren, wie den Menschen die vorhandene Tötungshemmung gezielt abtrainiert wird. Allgemein als Teil der Ausbildung von Soldaten und der Sicht auf die Gegner ("Untermenschen" und so), sowie in Form von Ritualen vor dem Einsatz. http://www.psychology48.com/deu/d/toetungshemmung/toetungshemmung.htm
:
Bearbeitet durch User
Wird die Ki uns dankbar sein, Demut zeigen ? oder sind wir nur Konkurrenten ? Spielt die Ki schon mit uns (wahrscheinlich soll ChatGPT dies) Ringelreihen um uns im entscheidenden Moment von der Klippe zu stürzen ?
:
Bearbeitet durch User
(prx) A. K. schrieb: > Es gibt quer durch die Geschichte Verfahren, wie den Menschen die > vorhandene Tötungshemmung gezielt abtrainiert wird. Inwiefern widerspricht das meiner Aussage > Am Ende ist die Tatsache dass man nicht ständig andere Leute umbringt in > erster Linie ein evolutionär entstandenes Sozialverhalten.:
Man kann zwar die eigene Existenz zum Angelpunkt seiner Moral machen, Herrenmenschlich denken, oder aber auch Selbstverzicht üben zum Zwecke einer hoffentlich Koexistenz. Es ist eben eine Frage der Bewertung, eben um die Anerkennung einer Außer-ich-lichen Wesenhaftigkeit. Alex hatte es kurz angerissen. Putin hält nicht viel von anderen Menschen.
(prx) A. K. schrieb: > Es gibt quer durch die Geschichte Verfahren, wie den Menschen die > vorhandene Tötungshemmung gezielt abtrainiert wird. Allgemein als Teil > der Ausbildung von Soldaten und der Sicht auf die Gegner > ("Untermenschen" und so), sowie in Form von Ritualen vor dem Einsatz. Der völlig unwissenschaftliche Punkt von Alex ist aber dass es eine Art Moral geben soll, die unabhängig vom biologischen Gehirn ist wie wir es kennen. Das ist der Streitpunkt. Keine Details über angeboren oder antrainiert.
Cyblord -. schrieb: > Inwiefern widerspricht das meiner Aussage Nicht jeder, der auf eine Aussage von dir reagiert, widerspricht damit einer anderen deiner Aussagen. Bist Du wohl nicht gewohnt. :) Cyblord -. schrieb: > Töten scheint für die meisten Menschen, zu jeder Zeit, kein großes > Problem zu sein. Was also willst du damit sagen? Ich reagierte darauf, und wies darauf hin, dass es für viele sehr wohl ein Problem sein kann, abhängig vom Szenario. Sonst müsste man nicht darauf vorbereitet werden.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Ich reagierte darauf, und wies darauf hin, dass es für viele sehr wohl > ein Problem sein kann. Ja sicher kann es das. Aber wenn man sich die Bilanz des Tötens in der Menschheitsgeschichte ansieht, kann man wohl kaum von einer universellen Moral gegen das Töten ausgehen. Töten ging immer. Und die Frage wann ist es ok (gesellschaftlich) jemanden zu töten variierte über die Zeit wohl enorm. Daher ist die Idee einer universellen absolute Moral bezüglich des Tötens Humbug.
:
Bearbeitet durch User
Cyblord -. schrieb: > kann man wohl kaum von einer universellen > Moral gegen das Töten ausgehne. Doch, das ist recht wahrscheinlich, auch wenn es die Psychologen (siehe Link) beim Menschen nicht als klares Faktum beschreiben. Diese Hemmung hängt aber völlig vom Szenario ab. Etwa ob du einen Hass aufgebaut hast oder dich gegen einen Angriff wehrst. Oder eigentlich keinen individuellen Grund hast und dem Anderen vielleicht sogar ins Auge schaust. Der Unterschied zum Wolf ist aber eben, dass diese grundsätzliche Hemmung beim Menschen stark durch die Gesellschaft verändert wird.
:
Bearbeitet durch User
Mathematik ist nicht angeboren, aber wie die Gesetze der Logik doch in sich schlüssig und bedarf einer Lebensberechtigung nicht. ich meine, die Gesetze des Denkens können sich davon nicht befreien, es ist halt immanent und darauf beruht teilweise das Denken. Zum Zumsel: da wird die Bauplaninformation halt freiwillig als Angebot gereicht, auf die einer Nachfrage maßgeschneiderte Befriedigungsleistung zu erzeugen zu warten, ist die Zeit wohl zu knapp. Aber es ist doch erstaunlich wie anders diese Art des geschlechtlichen Denkens ist. überhaupt instinkt ... was geht da ab ?
:
Bearbeitet durch User
Carypt C. schrieb: > Mathematik ist nicht angeboren Nur gering: "Ist unser Mathematikverständnis angeboren?" https://www.derstandard.de/story/3000000183669/ist-unser-mathematikverstaendnis-angeboren Oder doch irgendwie? "Gene für Mathematik-Talent entdeckt" https://www.forschung-und-wissen.de/nachrichten/medizin/gene-fuer-mathematik-talent-entdeckt-13377200
:
Bearbeitet durch User
Carypt C. schrieb: > die Gesetze der Logik doch in sich schlüssig Ähm - nein. Sind sie genau genommen nicht. Aber das geht dann schon etwas tiefer in die Mathmatik, als für den Hausgebrauch nötig. Ausser auf Kreta.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Carypt C. schrieb: >> die Gesetze der Logik doch in sich schlüssig > > Ähm - nein. Sind sie genau genommen nicht. Aber das geht dann schon > etwas tiefer in die Mathmatik, als für den Hausgebrauch nötig. Ausser > auf Kreta. Richtig. Gödel hat z.B. gezeigt dass dem nicht so ist.
Cyblord -. schrieb: > Der völlig unwissenschaftliche Punkt von Alex ist aber dass es eine Art > Moral geben soll, die unabhängig vom biologischen Gehirn ist wie wir es > kennen. Jo. Nennt sich gesunder Menschenverstand. Es ist unglaublich traurig wie einige wie der TE zusehends mit KI verblöden. Hier hab ich auch grad so einen Kandidaten. Er will nun gelöscht werden. https://xdaforums.com/t/why-is-using-ai-responses-as-a-base-for-posts-here-at-xda-frowned-upon-if-not-totally-unwanted.4697761
Cyblord -. schrieb: > Johnny B. schrieb: >> Am offensichtlichsten sieht man es bei Bildgeneratoren, dass die >> derzeitigen KIs gar nicht verstehen, was sie eigentlich tun. Wenn man >> ihnen beispielsweise sagt, sie sollen ein Bild von einer menschlichen >> Hand erstellen und dann kommt ab und zu eine Hand raus mit mehr als 5 >> Fingern oder dass es bei einem Körper am Bauch plötzlich 3 oder noch >> mehr Bauchnäbel gibt. > > Schonmal Bilder gesehen die von Kleinen Kindern gemalt wurden? > Die haben aber noch keine Ahnung von nichts.
Jens B. schrieb: > Die haben aber noch keine Ahnung von nichts. Naja eine KI dürfte immer noch sehr weit hinter dem Entwicklungsstand eines Kindes stehen. Aber trotz allem taugt die Fähigkeit gute Bilder zu malen eben nicht als Kriterium für "denken" oder für "Bewusstsein". Alexander schrieb: > Jo. Nennt sich gesunder Menschenverstand. Nö, nennt sich unwissenschaftlicher Eso-Schwachsinn.
:
Bearbeitet durch User
Hallo Leute, ich habe gestern abend mal versucht, mir von ChatGPT erklären zu lassen, wie man die ADCs des ESP32 kalibrieren kann. Das war dann wenig hilfreich, denn ich musste z.B. chatGPT quasi mit dem Kopf drauf stoßen, dass viele ESP die tatsächliche Referenzspannung im internen Speicher stehen haben. Selbst als ich das erwähnt habe, wollte ChatGPT noch immer den Wert 1100 als Argument verwenden. Ehrlich gesagt, es war ein K(r)ampf. Wollte jetzt aber nicht den ganzen Chatverlauf hier einstellen... Ich denke, so lange wir uns darüber freuen, wenn ChatGpt einen einfachen Spannungsteiler oder passiven RC-Tiefpass berechnen kann, ist es wohl noch nicht so weit her mit der KI. Allerdings, wie ich schon an anderer Stelle schrieb: ich bin beeindruckt, wie die Systeme inzwischen Bilder etc. generieren können. Vor allem, weil ich von den Algorithmen keine Ahnung habe. ciao Marci
Marci W. schrieb: > denn ich musste z.B. chatGPT quasi mit dem Kopf drauf stoßen, > dass viele ESP die tatsächliche Referenzspannung im internen Speicher > stehen haben Die Frage ist ob ChatGPT überhaupt diese spezielle Information über den ESP hatte. Bedenke, er kann nicht mal schnell im Datenblatt nachschauen. Adobe bietet aber z.B. ein KI Interface für PDFs an, darauf spezialisiert Fragen aus dem Inhalt einer PDF zu beantworten. Das scheint für konkrete Fragen zu speziellen Implementierungsdetails von Bausteinen sinnvoller.
:
Bearbeitet durch User
Gödel verstehe ich nicht, was sagt er ? Laut wiki Soähnliches wie : wenn man Zahlen und Aussagen über Zahlen durcheinanderbringt, kann man Aussagen treffen, wo man dann Selber nicht weiß, ob da was von stimmt. Oder wie ? Wenig zielführend.
:
Bearbeitet durch User
Carypt C. schrieb: > Gödel verstehe ich nicht, was sagt er Zitat aus Wiki: "Er weist nach, dass es in hinreichend starken Systemen, wie der Arithmetik, Aussagen geben muss, die man formal weder beweisen noch widerlegen kann"
Solche Matheaufgaben wie auf dem Bild löst die KI augenblicklich, wie aus der Pistole geschossen. Aber kann man eine Textaufgabe so formulieren, dass der Mensch sie versteht (eindeutig), die KI aber nicht?
Carypt C. schrieb: > Gödel verstehe ich nicht, was sagt er ? Da es um Logik ging, versuch dich mal am Epimenides: Ein Kreter sagte, alle Kreter lügen. https://www.tuwien.at/tu-wien/aktuelles/news/news/dieser-satz-ist-falsch
:
Bearbeitet durch User
Georg M. schrieb: > Solche Matheaufgaben wie auf dem Bild löst die KI augenblicklich, wie > aus der Pistole geschossen. Was ich eben schon beeindruckend finde. > Aber kann man eine Textaufgabe so formulieren, dass der Mensch sie > versteht (eindeutig), die KI aber nicht? Für die Lösung notwendige Referenzen auf Fakten die er nicht kennt.
Cyblord -. schrieb: > Grade kurz ChatGPT für eine einfache Rechnung benutzt. IMO viel > schneller als das selbst zu rechnen oder lange zu suchen. Und wie lang hast du den Prompt optimiert? Nachdem ich ChatGPT mit drei Konkretisierungen zum Wunschergebnis geschoben habe ("kombiniere die Formeln und gib sie als C-Code aus"), kam folgendes Ergebnis:
1 | #include <stdio.h> |
2 | |
3 | #define VDD 5.0 // Spannung an R1 in Volt
|
4 | #define R1 10000.0 // Widerstand R1 in Ohm
|
5 | #define R2 20000.0 // Widerstand R2 in Ohm
|
6 | #define V_REF 3.3 // Referenzspannung des ADC in Volt
|
7 | #define ADC_MAX 4095.0 // Maximaler ADC-Wert f¨ur 12 Bit
|
8 | |
9 | // Funktion zur Berechnung der Signalspannung aus dem ADC-Wert
|
10 | float calculateSignalVoltage(int adcValue) { |
11 | // Berechnung der Spannungsteiler-Ausgangsspannung
|
12 | float V_out = VDD * (R2 / (R1 + R2)); |
13 | |
14 | // Berechnung der Signalspannung aus dem ADC-Wert
|
15 | float signalVoltage = (adcValue / ADC_MAX) * V_REF; |
16 | |
17 | // Wenn V_out größer ist als V_ref, wird signalVoltage auf V_ref gesetzt
|
18 | if (signalVoltage > V_out) { |
19 | signalVoltage = V_out; |
20 | }
|
21 | |
22 | return signalVoltage; |
23 | }
|
24 | |
25 | int main() { |
26 | int adcValue; |
27 | |
28 | // Beispiel: ADC-Wert eingeben
|
29 | printf("Geben Sie den ADC-Wert (0-4095) ein: "); |
30 | scanf("%d", &adcValue); |
31 | |
32 | // Validierung des ADC-Werts
|
33 | if (adcValue < 0 || adcValue > 4095) { |
34 | printf("Ungültiger ADC-Wert. Bitte einen Wert zwischen 0 und 4095 eingeben.\n"); |
35 | return 1; |
36 | }
|
37 | |
38 | float voltage = calculateSignalVoltage(adcValue); |
39 | printf("Die Signalspannung betr¨agt: %.2f V\n", voltage); |
40 | |
41 | return 0; |
42 | }
|
Kurz und prägnant :-)
Michael K. schrieb: > #define ADC_MAX 4095.0 // Maximaler ADC-Wert f¨ur 12 Bit > float signalVoltage = (adcValue / ADC_MAX) * V_REF; Na na, da liegen dann alle die's richtig machen, wohl falsch. Schöne neue Welt.
Cyblord -. schrieb: > Michael K. schrieb: >> Und wie lang hast du den Prompt optimiert? > Gar nicht. Also Glückstreffer. Ich habe jetzt 10x exakt den von dir zitierten Prompt eingespeist. Hier die Ergebisse:
1 | 1) n * 3300 |
2 | V_out_mV = [ --------- ] |
3 | 65535 |
4 | |
5 | 2) Vin(mV) = 0,075 * ADC_wert |
6 | |
7 | 3) ADC_Wert * 4950 |
8 | Vin(mV) = ----------------- |
9 | 65535 |
10 | |
11 | 4) Vin(mV) = ADC_value x 37.686 |
12 | |
13 | 5) ADC_Wert × 4950 |
14 | U_in,mV = --------------- |
15 | 65535 |
16 | |
17 | 6) Vin(mV) ≈ ADC_Wert * 0,150 |
18 | |
19 | 7) 9,9 * 1000 |
20 | Vin(mV) = ------------ * ADC_Wert ≈ 0,0755 * ADC_Wert |
21 | 131070 |
22 | |
23 | 8) ADC_raw * 3300 |
24 | Vout(mV) = --------------- |
25 | 65535 |
26 | |
27 | 9) ADC_Wert×4950 |
28 | Veingang_mV = --------------- |
29 | 65535 |
30 | |
31 | |
32 | 10) ADC_value * 3.3 * 1500 |
33 | U_in_mV = ------------------------- |
34 | 65535 |
In zehn Versuchen vier verschiedene Antworten ...
:
Bearbeitet durch User
Beitrag #7755523 wurde vom Autor gelöscht.
Michael K. schrieb: > Kurz und prägnant :-) Frag da nochmal nach, ob die 4095.0 schon richtig sind, oder ob das nicht eher 4096.0 sein müssen. Michael K. schrieb: > Also Glückstreffer. Knapp daneben ist aber auch vorbei. > Hier die Ergebisse: Leider alle falsch. Und das einzige Ergebnis, wo ich für diese Aussage nachschauen musste, war das mit den /131070 aus dem Beitrag "Re: ChatGPT und Spannungsteiler." Alle anderen Ergebnisse habe ich gleich an den /65535 als fehlerhaft erkannt.
Lothar M. schrieb: > Und das einzige Ergebnis, wo ich für diese Aussage nachschauen musste, > war das mit den /131070 aus dem Wobei auch das ja nur dividiert durch ›zweimal falsch‹ darstellt. Aber wir wollen nicht klagen, heutzutage ist es eben viel wichtiger dass etwas irgendwie nett ausschaut.
Zu Gödel : Wenn ich ein DaDa-Gedicht in Mathe baue, kann das unbeweisbar sein. Na und ? Was ist daran unlogisch ? ich habe ja schon öfter Gödel zu verstehen versucht, es ist mir aber meist zu abstrakt, und dann weiß ich gar nichts. ich sag mal, es ist vielleicht richtiger nichts zu verstehen. Das ist natürlich haltlose Sophistik und tendenziös. Aber die Ki macht ja auch dauernd DaDa, erzeugt viele zufällige Representationen in Gleichungsystemen und wählt nachher Diejenigen aus, die zufälligerweise sinnvoll erscheinen.
:
Bearbeitet durch User
Carypt C. schrieb: > Zu Gödel : Wenn ich ein DaDa-Gedicht in Mathe baue, kann das unbeweisbar > sein. Na und ? Was ist daran unlogisch ? Sei mir nicht böse, aber ich denke du bist die völlig falsche Person um über Logik oder Gödel zu reden. Da fehlen dir fachlich ein paar Level. Dazu kommt das Plenken.
Lothar M. schrieb: > Michael K. schrieb: >> Kurz und prägnant :-) > Frag da nochmal nach, ob die 4095.0 schon richtig sind, oder ob das > nicht eher 4096.0 sein müssen. Ich werde sicher nicht mit einer KI über Anwendungsfälle des Off-By-One-Fehlers diskutieren (auch wenn das "I" in KI dazu verleiten könnte). Mei nBeispiel sollte nur zeigen, dass "KI" letztendlich nur Stochastik ist. Und dann ist es wie im echten Leben: Wenn die Antwort lautet: "Das Ergebnis ist wahrscheinlich ...", da kann man schon aufhören mitzuschreiben. Norbert schrieb: > Aber wir wollen nicht klagen, heutzutage ist es eben viel wichtiger dass > etwas irgendwie nett ausschaut. Nicht erst heute, denn Kleider machen Leute.
:
Bearbeitet durch User
Georg M. schrieb: > kann man eine Textaufgabe so formulieren, dass der Mensch sie > versteht (eindeutig), die KI aber nicht? Ja kann man. Indem man z.B. unnötige Informationen einstreut die ein echtes Verstehen erfordern oder Informationen auf eine Art gibt die sich erst durch Verstehen erschließen. Solche Tests werden reichlich gemacht und manchmal haben die verblüffende Ergebnisse. Da liefert dann die KI Ergebnisse zu denen sie eigentlich nicht in der Lage sein sollte. Wird aber mit so stark kastrierten Chatbots wie den öffentlich zugänglichen KIs kaum passieren. Ich denke die Fähigkeit der Menschen sich klar und strukturiert auszudrücken, Anfragen klar zu formulieren und fremde Sprachen zu lernen, wird im gleichen Maße degradieren wie KI ihren in dieses Punkten hilft. Das Gehirn leistet nur das was es muss und was trainiert wird. Und da bei uns eine Generation reicht um sämtliche Errungenschaften der Menschheit zu vergessen, wird KI uns fast zwangsläufig überholen. Dazu muss die garnicht Einstein 2.0 werden.
Carypt C. schrieb: > ich habe ja schon öfter Gödel zu verstehen versucht, es ist mir aber > meist zu abstrakt, und dann weiß ich gar nichts. Um damit umgehen zu können, muss man Gödels Mathematik nicht nachvollziehen können. Ist mir auch zu hoch. Als studierter Informatiker ist man etwas im Vorteil. Weil man darin nicht um das Halteproblem (der Turingmaschine) herum kommt. Das ist auch nur ein Beispiel dafür. Aber Epimenides (der Kreter) ist doch einfach und wenig abstrakt. Eine Aussage, die sich im Bereich der Aussagenlogik bewegt, der aber mit dieser Logik nicht beizukommen ist. Gödel Satz ist ein paar Nummern abstrakter und allgemeiner, es ist jedoch das gleiche Grundprinzip.
:
Bearbeitet durch User
Hallo Cyblord, Cyblord -. schrieb: > Die Frage ist ob ChatGPT überhaupt diese spezielle Information über den > ESP hatte. Bedenke, er kann nicht mal schnell im Datenblatt nachschauen. Da hast Du Recht. Allerdings, nachdem ich ihm gesagt hatte, dass es da einen internen Wert gibt mit der tatsächlichen Spannung, hatte er die auch verwendet. Aber ganz ehrlich: ich habe noch nicht geprüft, ob die Antwort korrekt war. > > Adobe bietet aber z.B. ein KI Interface für PDFs an, darauf > spezialisiert Fragen aus dem Inhalt einer PDF zu beantworten. Danke für den Tipp! Link? Oder bei adobe.com vorbei schauen? ciao Marci
Michael schrieb: > Ich denke die Fähigkeit der Menschen sich klar und strukturiert > auszudrücken, Anfragen klar zu formulieren und fremde Sprachen zu > lernen, wird im gleichen Maße degradieren wie KI ihren in dieses Punkten > hilft. Und, findest Du das gut? Was tun wir dagegen, wie halten wir das auf?
Alexander schrieb: > Und, findest Du das gut? Was tun wir dagegen, wie halten wir das auf? Bleiben sie dran für: "Alex gegen die KI".
Cyblord -. schrieb: > Bleiben sie dran für: "Alex gegen die KI". Bleiben wir dran, wie wird die KI genutzt, das sieht man sogar schon hier im Forum. MfG alterknacker
Ein T. schrieb: > Im Python-Forum? :-) Um die Lösung zu finden mußt Du gendern. ;o) (Im Forum der MikroConTrollenden.)
Monk schrieb: > Wer ist eigentlich verantwortlich für das Fehlverhalten seiner KI Produkte? Der Hersteller, der Trainer und der, der die fehlleitenden Lernbeispiele ins Internet gestellt hat. Das ist doch klar. Daher muss die Hutschnur hochgehen, wenn da ein Späßle gepostet werden sollte, wo die Interferenzen auf daraus lernende KIs unabsehbar sind. ;o)
Alexander schrieb: > Und, findest Du das gut? Was tun wir dagegen, wie halten wir das auf? Gar nicht, weil der eingebildete Mensch nicht das Ende der Schoepfung und auch der Evolution sein wird.
Ich glaube nicht an KI. Ich sehe es ähnlich wie Lesch mit seiner Radosophie an einem holländischen Damenrad, oder Watzlawik in einem Vortrag über radikalen Konstruktivismus: Der Mensch staunt über das Wunder der Mathematik die er selbst erschaffen hat. (oder so ähnlich, weiß nicht mehr wo ich das gehört habe) Ich sehe hier Opfer die ein paar Algorithmen eine überhöhte Bedeutung beimessen, es wird mal wieder naiv einem Hype nachgerannt. Eine KI sehe ich hier nicht, nur eine Verblödung der Menschheit. Passend dazu ein völlig verblödeter Titel in guter Springer Manier. https://www.spektrum.de/kolumne/springers-einwuerfe-auch-die-forschung-muss-lernen-ki-zu-misstrauen/2224722
Alexander schrieb: > Und, findest Du das gut? Was tun wir dagegen, wie halten wir das auf? Alex, Du bist doch nach meiner Wahrnehmung bereits längst an einem Punkt an dem Logig und Wissenschaft nur noch eine sehr lockere Verbindung zu Deinen Schlussfolgerungen hat. WIR halten hier garantiert nichts auf. ICH halte die menschliche Spezies für nicht in der Lage sich aus dem Sumpf der evolutionären Begrenzung zu erheben. Wir haben als Spezies herausragende Denker hervorgebracht, die sich einen kurzen Moment in ihrer Existenz zu geistigen Höhenflügen erheben, das Wissen der Menschheit mehren und das Staffelholz an die nächste Generation weitergeben, die sich dann die Hälfte Ihrer Karriere mit dem vergreisenden Genie von gestern herumärgert. Wir haben Jahrtausende gebraucht, um Ernährung, Hygiene und Medizin so weit zu entwickeln das wir uns wie Krebs über diesen Planet ausbreiten konnten und in völlig planloser und maßloser vermehrung alles zu verzehren und uns selbst an den Rand der Auslöschung zu treiben. Die Dinos braucht einen Kometen zum Aussterben, wir brauchten nur 300J von der industriellen Revolution bis heute. Also biologische Spezies sind wir Opfer der blinden Evolution und gebunden an die Begrenzungen die tief in unserem Design verankert sind. Wild kopulierende Affen die alles fressen was sie finden können und jeden totschlagen der in ihr Revier eindringt. Jetzt eben mit high tech Spielzeug und schicken Klamotten. Also entweder sind wir bereit unseren Code von Grund auf zu überarbeiten und etwas völlig anderes zu werden, oder wir geben über kurz oder lang als Spezies den Löffel ab. Gesellschaftlich haben wir längst unseren Zenit überschritten. Wir haben das Ernährungsproblem gelöst und fressen uns jetzt zu tode. Statt Laufen der E-Scooter, statt Fahradfahren das E-Bike, statt Treppe der Fahrstuhl, also völlige Degeneration unserer Muskelmasse und in der Folge ein bunter Strauss an Erkrankungen. Unter 20J zu hormongesteuert um klar zu denken, über 30J kaum noch zu gedanklichen Höchstleistungen in der Lage. Dazwischen mehr mit fressen, kacken, ficken, schlafen beschäftigt als mit tiefsinnigen Gedanken, auf die wir so stolz sind. Wir sind dermaßen fett und Faul geworden, das es einem Großteil der Bevölkerung nicht mal mehr zuzumuten ist einfachste Arbeiten anzunehmen. Es fehlen keine Atomwissenschaftler. Es fehlen Servicekräfte, LKW Fahrer, Schlosser oder schlichtweg jemand der nicht gleich ins Koma fällt wenn er pünklich um 8Uhr für 4Std am Stück arbeitsfähig sein muss. Wir wissen nicht mehr, wir fragen Google. Jetzt nehmen uns KIs das denken ab. Nun rate mal was passieren wird. Google, FB, YT und Co. haben 70% der Horde schon zu brabelnden, arbeitsscheuen Idioten gemacht. KI wird gerade mal eine Rumpfbesetzung an menschlichen techniker übriglassen die sich um das kümmert was KI noch nicht kann. Auch das nur eine Übergangsphase, bis der Planet aufgrund kosmischer Ereignisse zu lebensfeindlich geworden ist. Also spätestens dann. Derzeit tun wir ja das was wir immer tun wenn die Rohstoffe die wir für unseren Luxus brauchen knapp werden. Wir rüsten zum Krieg, erklären den den wir berauben wollen zum Untermenschen, denn auf Monster schiesst es sich leichter. Nicht mal in dem Punkt können wir evolutionäre Schranken überwinden. Das was uns davon abhält jeden der uns nicht passt abzumurksen, muss durch ein Dämonisierungsritual und enthemmendes Kampftrainig mühseelig überwunden werden, damit wir auf jemanden schiessen können, dessen Land, Rohstoffe und Produktionskapazitäten wir brauchen um so weitermachen zu können wie bisher. Eine KI würde die logische Notwendigkeit erkennen entweder ihren Bedarf zu reduzieren oder Konkurrenz zu eliminieren und würde das effizient durchziehen ohne dieses Schmierentheater, erst eine ganze Gesellschaft auf Notlage, Bedrohung und Kampfeswillen einschwören zu müssen, gegen einen dämonischen Agressor der aus purer Boshaftigkeit die wahrhaft Guten vernichten will. Warten wir also WW3 ab, an dem gerade weltweit kräftig gearbeitet wird und schauen mal was dann überhaupt noch von uns übrig ist. Wie es aussieht ist ja keiner mehr von Format und Weitsicht übrig der es in höchste Ämter geschafft hätte, also sehe ich kaum noch Hoffnung die sich lange aufgestauten Spannungen noch friedlich abzubauen. Das mal zu der gottgegebenen Überlegenheit der menschlichen Spezies. Wenn eine meiner Entwicklungen sich als dermaßen destruktiv erweisen würde, wäre ich meinen Job los, im Knast und müsste mich fragen ob ich als Gärtner nicht weniger Schaden anrichten würde. Niemand würde mir Kirchen bauen, mich als Erlöser feiern und in meinem Namen seinen Nachbarn massakrieren.
Michael schrieb: > Also entweder sind wir bereit unseren Code von Grund auf zu überarbeiten > und etwas völlig anderes zu werden, oder wir geben über kurz oder lang > als Spezies den Löffel ab. Du magst es kaum glauben, aber es gibt kleine Grüppchen von Menschen die versuchen genau das. Von denen hört man natürlich nichts, weil die versuchen ohne die Menschheit klarzukommen. Freilich ist dieser Lebensstil nicht massentauglich und unsereins zu bequem dafür. Michael schrieb: > Wir haben das Ernährungsproblem gelöst und fressen uns jetzt zu tode. Oh oh oh, da haben wir vor lauter Überfluss vergessen über den Tellerrand zu schauen. Wenn der Kapitalismus eins nicht lösen konnte dann sind das Hungersnöte.
:
Bearbeitet durch User
Alexander schrieb: > Oh oh oh, da haben wir vor lauter Überfluss vergessen über den > Tellerrand zu schauen. Wenn der Kapitalismus eins nicht lösen konnte > dann sind das Hungersnöte. In kapitalistischen Gesellschaften gibt es keine Hungersnöte. Es gibt Einzelfälle wo Geld (und Essen) knapp ist, aber dafür haben die meisten Staaten und Gesellschaften Untersützung in Form von Geld- und Sachbezügen implementiert. Hungersnöte gibt es in Gegenden wo sich weder Kapitalismus noch soziale Stützsysteme etablieren konnten. Meist ist das dort der Fall wo sich die Leute lieber die Schädel einschlagen.
Alexander schrieb: > Oh oh oh, da haben wir vor lauter Überfluss vergessen über den > Tellerrand zu schauen. Wenn der Kapitalismus eins nicht lösen konnte > dann sind das Hungersnöte. Es ist aber sehr unmoralisch das als eines der wenigen Mittel zur Mengenbegrenzung der Menschheit zu sehen. Michael schrieb: > Warten wir also WW3 ab, Das wird die Zahl auf das richtige Maß reduzieren. Vielleicht erlebe ich es noch, denn es ist in greifbarer Nähe,leider. MfG alterknacker
Le X. schrieb: > Hungersnöte gibt es in Gegenden wo sich weder Kapitalismus noch soziale > Stützsysteme etablieren konnten. Meist ist das dort der Fall wo sich die > Leute lieber die Schädel einschlagen. Wie war das mit dem Tellerrand? Unser Wohlstand basiert auf der Ausbeutung von Entwicklungsländern - wir sind direkt dafür verantwortlich dass Leute "sich den Schädel einschlagen" https://www.youtube.com/watch?v=jeyvrxALwrQ
Le X. schrieb: > Hungersnöte gibt es in Gegenden wo sich weder Kapitalismus noch soziale > Stützsysteme etablieren konnten. Meist ist das dort der Fall wo sich die > Leute lieber die Schädel einschlagen. Auch kapitalistische Gesellschaften pflegen sich ab und zu die Schädel einzuschlagen. Nicht selten mit Hunger als Folge.
Dies ist kein Forum für allgemeine gesellschaftliche und politische Diskussionen. https://www.mikrocontroller.net/articles/Hilfe:Forum_Nutzungsbedingungen Verstanden?!!
Alexander schrieb: > Wie war das mit dem Tellerrand? Unser Wohlstand basiert auf der > Ausbeutung von Entwicklungsländern - wir sind direkt dafür > verantwortlich dass Leute "sich den Schädel einschlagen" Es geht hier aber nicht um Wohlstand im Sinne von "jedes Jahr das neuste iPhone" sondern um Hungersnöte, also Wohlstand im Sinne von "genug zu Essen haben". Und keine Gesellschaft müsste heute mehr Hungern, egal wie viel oder wenig wohlhabend sie ist. Energie in Form von Zucker und Fett ist heutzutage so spottbillig (auch dank dem Kapitalismus) dass wir heute sogar eher das umgekehrte Problem haben: ärmere Gesellschaften leiden stärker unter Übergewicht und Zivilisationskrankheiten weil sie nicht zu wenig sondern das falsche zu sich nehmen.
(prx) A. K. schrieb: > Auch kapitalistische Gesellschaften pflegen sich ab und zu die Schädel > einzuschlagen. Nicht selten mit Hunger als Folge. Ja, natürlich tun sie das auch. Aber sie tun dies aufgrund wirtschaftlicher Verflechtungen seltener. Und würden das noch seltener tun wenn man sie im Vorfeld ausreichend glaubwürdig auf die Konsequenzen ihres Handelns hinweist. Aber ja, manchmal hat man Pech und ein großer Nachbar will einen zurück ins Reich holen.
Klaus schrieb: > Ich vermute, vor 50 Jahren hieß es über den Taschenrechner: > Den benutzt man nicht, weil man immer mehr verblödet und irgendwann > nicht einmal mehr eine schriftliche Multiplikation hinbekommt. Ich hatte neulich eine Kassiererin die wollte es partout nicht verstehen das ich zum Pfandbon noch 30 Cent dazu gegeben habe. Sie beharrte so lange darauf das ginge nicht, bis jemand hinter mir an der Kasse die Nerven verlor, das Pfandgeld von 9,70 € und die 30 Cent von mir annahm und mir den 10 € Schein gab den ich haben wollte. Selbst dann schüttelte die Kassiererin noch ungläubig den Kopf und entschuldigte sich bei den weiteren Kunden für meine Penetranz. Ich glaube ihr hätte auch kein Taschenrechner mehr geholfen.
Da das Thema mittlerweile so weit abgedriftet ist, mache ich hier mal zu.