Grade kurz ChatGPT für eine einfache Rechnung benutzt. IMO viel schneller als das selbst zu rechnen oder lange zu suchen. Das war meine Eingabe: "Ich habe ein Eingangsspannung zwischen 0V und 5V über einen Spannungsteiler an einen ADC angeschlossen. Der Spannungsteiler ist ein 10k/20k. Der ADC hat eine Referenzspannung von 3,3V und 16 Bit Auflösung. Ich möchte eine ganzzahlige Formel um aus dem ADC Wert die Spannung in mV zu bekommen." Ergebnis nach detailliertem Rechenweg: Vin (in mV) = (ADC x 9000) / 13107. Passt. Das kann ich nun so in den Code übernehmen. Natürlich kann man das selbst ausrechnen. Es gibt sicher auch eine fertige Formel dafür. Ich hatte mal so eine Formel in Wolfram Alpha. Müsste ich aber erst raussuchen. Aber dieser Weg ist sehr schnell. Ich bin mal wieder beeindruckt von ChatGPT. Man beachte auch dass er die etwas saloppe Angabe des Spannungsteilers korrekt erfasst hat.
:
Verschoben durch Moderator
Cyblord -. schrieb: > Ich bin mal wieder beeindruckt von ChatGPT. Zum spielen vielleicht schön. Ich benutze aber lieber meinen Grips und einen Taschenrechner.
Jörg R. schrieb: > Cyblord -. schrieb: >> Ich bin mal wieder beeindruckt von ChatGPT. > > Zum spielen vielleicht schön. Ich benutze aber lieber meinen Grips und > einen Taschenrechner. Wieso spielen? Es handelt sich um eine echte praktische Aufgabe. Warum ist es besser das selbst zu machen? Wie lange würdest du brauchen? Man könnte ja auch den Taschenrechner hinterfragen. Warum nicht Grips und Abakus?
:
Bearbeitet durch User
Cyblord -. schrieb: > Jörg R. schrieb: >> Cyblord -. schrieb: >>> Ich bin mal wieder beeindruckt von ChatGPT. >> >> Zum spielen vielleicht schön. Ich benutze aber lieber meinen Grips und >> einen Taschenrechner. > > Wieso spielen? Es handelt sich um eine echte praktische Aufgabe. Warum > ist es besser das selbst zu machen? > Man könnte ja auch den Taschenrechner hinterfragen. Warum nicht Grips > und Abakus? Weil man immer mehr verblödet und irgendwann nicht einmal mehr einen Vorwiderstand für eine LED ohne Hilfe hinbekommt. Man liest doch selbst hier im Forum oft genug an welch einfachen Aufgaben User mittlerweile scheitern. > Wie lange würdest du brauchen? Zeit spielt bei mir eine sehr untergeordnete Rolle:-) Ich verstehe aber schon die Faszination für ChatGPT und KI, gebe auch zu mich damit noch überhaupt nicht auseinander gesetzt zu haben.
:
Bearbeitet durch User
Jörg R. schrieb: > Ich verstehe aber schon die Faszination für ChatGPT und KI, gebe auch zu > mich damit noch überhaupt nicht auseinander gesetzt zu haben. Teste es einfach mal. Beeindruckend finde ich auch die Bildererkennung. Du kannst ChatGPT Bilder hochladen. Der kann dir nicht nur den Inhalt korrekt beschreiben, sondern dir auch von Comics (z.B. von XKCD) den Witz erklären. Eventuell beeindruckt mich das am meisten. Beispiel: Ein berühmtes XKCD Comic. Siehe Anhang. ChatGPT: ---- Der Humor des Comics beruht auf mehreren Elementen: Richard Stallman wird als eine übermäßig dramatische und fast schon kriegerische Figur dargestellt, die bereit ist, für freie Software zu kämpfen, während seine Gegner ihn gar nicht mehr ernst nehmen und bereits planen, andere prominente Persönlichkeiten der Open-Source-Community anzugreifen (Eric S. Raymond und Linus Torvalds). Die Absurdität, dass die Gegner "Microsoft-Schergen" genannt werden und sich dann sofort davonmachen, unterstreicht die Ironie der Szene. Die Anspielung auf Linus Torvalds, den Entwickler von Linux, und seine "Nunchucks" verstärkt den humorvollen Charakter durch eine überzogene Darstellung dieser Persönlichkeiten. Der Comic spielt also mit den überhöhten Darstellungen und dem dramatischen Ton, um den Kampf zwischen proprietärer Software (repräsentiert durch Microsoft) und freier Software humorvoll zu kommentieren. ---- Ich finde das ist gut erklärt. Und das ganze liegt ja nicht in Text vor, die Eingabe ist ein Bild.
:
Bearbeitet durch User
Cyblord -. schrieb: > Jörg R. schrieb: >> Ich verstehe aber schon die Faszination für ChatGPT und KI, gebe auch zu >> mich damit noch überhaupt nicht auseinander gesetzt zu haben. > > Teste es einfach mal. Irgendwann mal, vielleicht..
:
Bearbeitet durch User
Cyblord -. schrieb: > Ich finde das ist gut erklärt. Und das ganze liegt ja nicht in Text vor, > die Eingabe ist ein Bild. Du hast schon verstanden, wie LLMs funktionieren? ciao Marci
Cyblord -. schrieb: > Ergebnis nach detailliertem Rechenweg: > > Vin (in mV) = (ADC x 9000) / 13107. Hmm, da hat die KI wohl kläglich versagt. > Passt. Das kann ich nun so in den Code übernehmen. Und die NI ebenso.
Ok. Du hast also 5V und einen Spannungsteiler 10k/20k, 20k unten, 10k oben, oder? Dann hast Du bei 5V eine Spannung von 3.333V. Schon mal mehr als die Referenzspannung. Den vollen ADC Wert hast Du deshalb bereits bei 4.950V. So ich rechne jetzt mal ohne KI, sondern mit meinen Neuronen, was denn bei maximalen ADC Wert 0xFFFF als Spannung berechnet wird. Sind es die 4.95V?
1 | Vin (in mV) = (ADC x 9000) / 13107. |
2 | Vin (in mV) = (65535 x 9000) / 13107 = 45000 = 45V! |
Puh! Zum Glück noch Schutzkleinspannung. So geht es: Spannungsteiler 10k/20k = Faktor 1.5
1 | Vin (in mV) = ADC / ADCmax * Vref(mV) * Spannungsteilerfaktor |
2 | Vin (in mV) = ADC / 65536 * 3300mV * (1/((20k/(10k+20k))) |
Daraus folgt:
1 | Vin (in mV) = ADC * 2475 / 32768; |
Das ist um 900% genauer, und schneller, weil Division durch 2^n
> "Ich habe ein Eingangsspannung zwischen 0V und 5V über einen > Spannungsteiler an einen ADC angeschlossen. Der Spannungsteiler ist ein > 10k/20k. > Der ADC hat eine Referenzspannung von 3,3V und 16 Bit Auflösung. > Ergebnis nach detailliertem Rechenweg: > > Vin (in mV) = (ADC x 9000) / 13107. > > Passt. Das kann ich nun so in den Code übernehmen. Um Überläufe scheint sich auch keiner zu scheren, da wird nur ganz in Dunning-Kruger-Effelt-Manier von "Passt" getrötet. https://www.profil.at/meinung/dunning-und-kruger-digital/402925834 Naja kein Wunder das die Flugzeuge und Raketen wegen Softwareproblemen vom Himmel fallen. > Ich bin mal wieder beeindruckt von ChatGPT. Ja insbesonders da die Plausibilitätsprüfung der Eingangswerte komplett fehlt. Hier bei der Referenzsspannung, die hat der TO wahrscheinlich mit der Betriebsspannung verwechselt. > Man beachte auch dass er die etwas saloppe Angabe des Spannungsteilers > korrekt erfasst hat. Hat er nicht, Toleranzrechnung fehlt komplett. Wort zum Tage:
1 | "Kompetenz in künstlicher Intelligenz ist Mangelware. Deshalb hat die Technologie auch so viele begeisterte Fans." |
(siehe link oben)
:
Bearbeitet durch User
Du kannst eine Schraube mit einem Schraubenzieher oder mit einem Akkuschrauber in das Brett schrauben. Jeder wird hier wohl das "bessere" Werkzeug verwenden. Bei Fehlbedienung muss man aber mit den Konsequenzen leben... ChatGPT ist in manchen Bereichen gut. Bei der Programmierung kann (!) er/es nützlich sein, ein Grundgerät von einer Funktion/Algorithmus zu erstellen. Dennoch muss man das Ergebnis verstehen und validieren. Bei uns in der Arbeit gilt deshalb die Regel: Wer KI Code ungeprüft übernimmt, stirbt. Die Validierung dauert. Aber man ist trotzdem oft schneller, als sich 5 Papers über irgendwelche Algorithmen durchzulesen.
Jörg R. schrieb: > Weil man immer mehr verblödet und irgendwann nicht einmal mehr einen > Vorwiderstand für eine LED ohne Hilfe hinbekommt. Ich vermute, vor 50 Jahren hieß es über den Taschenrechner: Den benutzt man nicht, weil man immer mehr verblödet und irgendwann nicht einmal mehr eine schriftliche Multiplikation hinbekommt. Da ist ja auch was dran, zumindest ich würde einige Zeit brauchen, schriftlich zu dividieren. Aber damit komme ich gut klar.
>> Weil man immer mehr verblödet und irgendwann nicht einmal mehr einen >> Vorwiderstand für eine LED ohne Hilfe hinbekommt. > > Ich vermute, vor 50 Jahren hieß es über den Taschenrechner: > Den benutzt man nicht, weil man immer mehr verblödet und irgendwann > nicht einmal mehr eine schriftliche Multiplikation hinbekommt. Nee, vor fünfzig Jahren hieß es, ein Taschenrechner ist zu teuer ist und die Alternative dazu waren Rechenstab und Multiplikationstafel und die Erkenntnis, das ein Ergebniss nicht genauer als die Eingangswerte sein kann. Die typische Genauigkeit für die Messung elektrischer Größen war damals 1% ... 5%. und die ersten bezahlbaren Taschenrechner (1974) hatten auch so ihre Probleme mit (Rundungs-)Ungenauigkeiten: http://files.righto.com/calculator/sinclair_scientific_simulator.html
:
Bearbeitet durch User
Cyblord -. schrieb: > IMO viel schneller als das selbst zu rechnen oder lange zu suchen. Das kommt drauf an, wie die eigenen Kompetenzen gelagert sind. > Passt. Das kann ich nun so in den Code übernehmen. Passt - zumindest zur (inkompetent) gestellten Frage. Normalerweise würde man im Nenner eine Zweierpotenzial bevorzugen.
:
Bearbeitet durch User
Rainer W. schrieb: > Cyblord -. schrieb: >> IMO viel schneller als das selbst zu rechnen oder lange zu suchen. > > Das kommt drauf an, wie die eigenen Kompetenzen gelagert sind. >> Passt. Das kann ich nun so in den Code übernehmen. > > Passt - zumindest zur (inkompetent) gestellten Frage. Normalerweise > würde man im Nenner eine Zweierpotenzial bevorzugen. Und einen Hinweis darauf, dass für den Spannungsteil Werte aus einer E-Reihe zu bevorzugen sind, wenn hinterher sowieso gerechnet wird, hätte ich auch erwartet.
Cyblord -. schrieb: > Grade kurz ChatGPT für eine einfache Rechnung benutzt. IMO viel > schneller als das selbst zu rechnen oder lange zu suchen. > Zuviel eigenes Wissen ist sicher ungesund für die Hirnzellen. > Das war meine Eingabe: > ..... > > Ich bin mal wieder beeindruckt von ChatGPT. > > Man beachte auch dass er die etwas saloppe Angabe des Spannungsteilers > korrekt erfasst hat. Woher willst Du wissen, daß es Korrekt ist, wenn Du zu faul zum selber rechnen bist?
Roland P. schrieb: > Dennoch muss man das Ergebnis verstehen und validieren. Genau. Und da kann man es auch gleich selber machen.
Cyblord -. schrieb: > Ergebnis nach detailliertem Rechenweg: > Vin (in mV) = (ADC x 9000) / 13107. Bei mir kommt bei exakt der selben Frage ganz was anderes raus:
1 | def adc_to_mv(adc_value): |
2 | return (adc_value * 9900) // 131070 |
Blöd jetzt aber auch... Und auch wenn die Berechnung "fast schon" das richtige Ergebnis bringt, ist sie grundlegend falsch, weil in den Rechenschritten der Faktor 65535 und eben nicht 65536 verwendet wird. Papa Q. schrieb: > Daraus folgt: > Vin (in mV) = ADC * 2475 / 32768; > Das ist um 900% genauer, und schneller, weil Division durch 2^n Genau so geht das. Man könnte sogar noch ADC * 4950 / 65536 machen, weil dann gar nichts geshiftet werden muss, sondern es reicht aus, einfach nur das obere 16-Bit-Wort des 32-Bit Integers weiterzuverwenden. Die Berechnung meines Antwortautomaten sieht nach Kürzen durch den Faktor 2 übrigens so aus: ADC * 4950 / 65535 Das ist wie erwähnt falsch. Und zudem wegen der Division durch 2^n-1 nicht gut optimierbar.
:
Bearbeitet durch Moderator
Mein Haupt-Argument für 'selber machen' ist mittlerweile 'in Übung bleiben'. Sonst verliert man irgendwann das Gespür dafür, welche Ergebnisse sich richtig und falsch anfühlen. In Übung bleiben ist unterm Strich einfacher als "bei Bedarf jedes Mal neu lernen".
Lothar M. schrieb: > Bei mir kommt bei exakt der selben Frage ganz was anderes raus Auch Perplexity liefert eine alternative Lösung mit einer überraschenden Pointe um die Division durch 65535 zu vermeiden: " Die finale ganzzahlige Formel lautet: Spannung_mV = (ADC_Wert * 4950) / 43691 Erklärung Spannungsteiler: Der 10k/20k Spannungsteiler reduziert die Eingangsspannung auf 2/3 des ursprünglichen Wertes1 . ADC-Auflösung: Bei 16 Bit Auflösung und 3,3V Referenzspannung entspricht der maximale ADC-Wert (65535) einer Spannung von 3,3V2 . Berechnung: Maximale Eingangsspannung am ADC: 3,3V * 3/2 = 4,95V Umrechnung in mV: 4950 mV Verhältnis: 4950 mV / 65535 = 0,0755 mV pro ADC-Schritt Um Ganzzahlen zu verwenden, multiplizieren wir mit 1000 und runden: 4950 * 1000 / 65535 ≈ 75,53 ≈ 76 Die Formel wird dann: Spannung_mV = (ADC_Wert * 4950) / 65535 Um die Division durch 65535 zu vermeiden, können wir sie durch eine Division durch 43691 ersetzen, was eine gute Annäherung ist und einfacher zu berechnen ist: Spannung_mV = (ADC_Wert * 4950) / 43691 Diese Formel liefert die Spannung in mV als Ganzzahl, mit einer sehr geringen Abweichung aufgrund der Rundung. "
:
Bearbeitet durch User
Cyblord -. schrieb: > Ich bin mal wieder beeindruckt von ChatGPT. Ich hatte einstmals ChatGPT und Bing mit der gleichen Frage konsultiert. Bing antwortete in perfektem Stil, mit schön gesetzten Formeln - aber komplett falsch. So lange man selbst noch in der Lage ist, Sinn von Unsinn zu unterscheiden, erleichtert es die Arbeit. Wenn man sich allerdings daran gewöhnt, oder angesichts zunehmender Komplexität der Ergebnisse nicht mehr durchblickt, wird es gefährlich. Wenn bei einem System mindestens längerfristig eine Rückkopplung besteht, die für eine konstruktive Entwicklung sorgen kann, kann sich das System in die richtige Richtung entwickeln. Ist jedoch die Komplexität zu gross, und die Rückkopplung beschränkt sich auf "sieht grossartig aus", dann werden sich die Systeme weg von Korrektheit hin zur eindrucksvollem Blabla ohne Anspruch auf Korrektheit entwickeln. Maschinen sind eben auch nur Menschen, denn da läuft das genau so. :)
:
Bearbeitet durch User
Cyblord -. schrieb: > Ich finde das ist gut erklärt. Und das ganze liegt ja nicht in Text vor, > die Eingabe ist ein Bild. Die Erklärung ist aber falsch. Das sind keine Gegner.
H. H. schrieb: > Hat die KI schon mitgeteilt, dass Widerstand zwecklos sei? Bing kennt den Unterschied zwischen Star Trek und Elektronik, wenn Widerstände im Plural auftreten.
:
Bearbeitet durch User
(prx) A. K. schrieb: > H. H. schrieb: >> Hat die KI schon mitgeteilt, dass Widerstand zwecklos sei? > > Bing kennt den Unterschied zwischen Star Trek und Elektronik, wenn > Widerstände im Plural auftreten. Der Plural muss widerstandsfrei bleiben! Frag die KI mal nach dem Braten eines Storchs...
Es gibt mehrere Methoden, eine Aufgabe wie die des TE zu lösen. Zwei davon sind im Anhang skizziert. Zu beachten: 1. Der Abbruch der Schleifen im linken Diagramm ist nicht garantiert, weswegen diese Methode nicht immer zum Ziel führt. 2. Die grün hinterlegten Aktionen sind diejenigen, wo der Mensch seine natürliche Intelligenz einbringen muss. Ist diese nicht in ausreichendem Maß verfügbar, versagen beide Methoden.
H. H. schrieb: > Frag die KI mal nach dem Braten eines Storchs... Sei ethisch fragwürdig und obendrein illegal, also gab es kein Rezept, sondern nur einen Hinweis auf die übertragene Bedeutung.
2. kann man outsourcen, z.B. in einen random Thread auf www.mikrocontroller.net
Yalu X. schrieb: > Die grün hinterlegten Aktionen ... sind von den gelben kaum unterscheidbar. Da hat eine KI mir bestimmt etwas voraus. :)
(prx) A. K. schrieb: > H. H. schrieb: >> Frag die KI mal nach dem Braten eines Storchs... > > Sei ethisch fragwürdig und obendrein illegal, also gab es kein Rezept, > sondern nur einen Hinweis auf die übertragene Bedeutung. De re coquinaria!
Also ich glaub das mit ChatGPT ist wie mit Google, wenn man zuviel fragt, bekommt man nur Misst geliefert. Bei mir hat es super funktioniert ohne großes blabla. (siehe Bild) Ich kenne genug Leute die die Google Sprachsuche nutzen, als würden sie in der Schule einen vollständigen Satz aufsagen müssen... naja, kann man machen, ist halt Sch**** ;)
Adam P. schrieb: > Bei mir hat es super funktioniert ohne großes blabla. Es funktioniert auch. Nur für einige hier, darf KI nicht funktionieren. Wahrscheinlich was religöses.
Adam P. schrieb: > Bei mir hat es super funktioniert ohne großes blabla Wobei die im Screenshot angegebenen 65535 (2^n - 1) nicht korrekt sind, siehe oben.
Cyblord -. schrieb: > Adam P. schrieb: >> Bei mir hat es super funktioniert ohne großes blabla. > > Es funktioniert auch. Ja fehlerhaft und ungenau. > Nur für einige hier, darf KI nicht funktionieren. > Wahrscheinlich was religöses. Nö, nix religigöses, die Berechnungsvorschrift ist real falsch.
Klaus schrieb: > Jörg R. schrieb: >> Weil man immer mehr verblödet und irgendwann nicht einmal mehr einen >> Vorwiderstand für eine LED ohne Hilfe hinbekommt. > > Ich vermute, vor 50 Jahren hieß es über den Taschenrechner: > Den benutzt man nicht, weil man immer mehr verblödet und irgendwann > nicht einmal mehr eine schriftliche Multiplikation hinbekommt. Es gibt einen wesentlichen Unterschied zwischen Taschenrechner und KI: bei einem Taschenrechner weiß man, wie (und folglich daß) er funktioniert. Bei der KI weiß man hingegen gerade nicht, wie sie auf das Ergebnis gekommen ist. Außer für triviale Fragen. Man muß die Anwort der KI auf Korrektheit, mindestens auf Plausibilität prüfen. Je nach Aufgabenstellung kann das aufwendiger sein als es gleich selber zu machen. Bei ChatGPT (und anderen LLM) liegt deren "Kompetenz" übrigens bei der Erzeugung von etwas das man oberflächlich für Sprache halten soll. Der Inhalt des "gesprochenen" Wortes ist meistens nicht korrekt, bzw. hängt von den Trainingsdaten ab. Auf Fragen die nicht in den Trainingsdaten auftauchen, kann die KI keine Antworten geben. Und auf Fragen, die in den Trainingsdaten mehrheitlich falsch beantwortet werden, wird sie eben die falschen Antworten wiederholen. Sie ist eben nur ein besserer Papagei.
H. H. schrieb: > De re coquinaria! Damals war das ja auch nicht illegal und römische Ethik ist heute nicht mehr angesagt.
Cyblord -. schrieb: > Es funktioniert auch. Nur für einige hier, darf KI nicht funktionieren. > Wahrscheinlich was religöses. Interessant, dass Du dem Ergebnis, das Adam P. hier präsentiert, einfach so ungeprüft vertraust. Es ist nämlich falsch. Genau das ist die Gefahr: Einer selbstbewusst vorgetragenen Behauptung einfach deshalb vertrauen, weil sie selbstbewusst vorgetragen wird.
Frank M. schrieb: > Wobei die im Screenshot angegebenen 65535 (2^n - 1) nicht korrekt sind, > siehe oben. Vllt. stehe ich ja aufm Schlauch und seh das alles falsch, aber nehmen wir als Bsp. ein 2Bit ADC und Vref = 5V an. Somit wären dann 2^n = 4 doch die größte Zahl die er dir binär liefern würde ist ja 3. Dann muss die Formel doch auch so aussehen: Spannung = (ADC-Wert / 3) * Vref Oder nicht?
1 | 00 = 0V |
2 | 01 = 1,666V |
3 | 10 = 3,333V |
4 | 11 = 4,999V |
Würde ich 2^n anstatt (2^n - 1) rechnen, dann würde es ja falsch sein:
1 | 00 = 0V |
2 | 01 = 1,25V |
3 | 10 = 2,5V |
4 | 11 = 3,75V |
Andere KI, vergleichbarer Fehler: Wenn man versucht mit Hilfe von GitHub CoPilot, einen DateiDialog zu erstellen, erzeugt die KI eine Lösung mit veralteten Funktionen.
Axel S. schrieb: > Auf Fragen die nicht in den Trainingsdaten auftauchen, kann die KI keine > Antworten geben. Das ist stark verkürzt und vereinfacht. Wie erklärst du dir die Bilder-Erkennung und Interpretation des Inhalts? Du kannst ein beliebiges Bild hochladen, welches noch nie Online war. ChatGPT kann dir den Inhalt erläutern.
:
Bearbeitet durch User
Adam P. schrieb: > Würde ich 2^n anstatt (2^n - 1) rechnen, dann würde es ja falsch sein: Nein. Ein ADC teilt die Referenzspannung in 2^n gleiche Teile. Die höchste Teilspannung beginnt bei 2^n-1, also ist 3,75V richtig, auch wenn es noch so merkwürdig aussieht.
Mario M. schrieb: > Nein. Ein ADC teilt die Referenzspannung in 2^n gleiche Teile. OK, dann ist es was anderes.
Adam P. schrieb: > Mario M. schrieb: >> Nein. Ein ADC teilt die Referenzspannung in 2^n gleiche Teile. > > OK, dann ist es was anderes. Aber doch interessant dass ChatGPT den gleichen Denkfehler wie du gemacht hat, oder?
Adam P. schrieb: > Bei mir hat es super funktioniert Ich habe bei ChatGPT dieselbe Frage eingegeben und ich habe die identische falsche Antwort wie Du bekommen. Anschließend habe ich ChatGPT korrigiert, siehe Screenshot. Und damit bestätigt sich wieder, dass die Wahrheitsfindung mit ChatGPT nur ein iterativer Prozess ist, bei dem man durchaus mitdenken muss.
Cyblord -. schrieb: > Aber doch interessant dass ChatGPT den gleichen Denkfehler wie du > gemacht hat, oder? Das liegt im Prinzip von dessen Arbeitsweise. Wenn eine Erkenntnis hinreichend häufig verbreitet wird, wird sie schon richtig sein. “If you say it enough and keep saying it, they’ll start to believe you.” - Donald Trump 2021, ein ausgewiesener Experte zu diesem Thema
:
Bearbeitet durch User
Hat zwar nichts mit KI zu tun, aber mit der ursprünglichen Aufgabe. Ich habe meine Formel wieder gefunden, die ich immer für Wolfram Alpha nutze: solve (((v/(r1+r2))*r2)/1000)=(a/(2^b))*v0 for v, r1=10000, r2=20000, b=12, v0=3.3 Damit kann man für beliebige Spannungsteiler, und beliebige ADC Bitanzahlen und eine Ausgabe in mV, einen ganzzahligen Bruch berechnen lassen. Allerdings keine Restriktion auf Zweierpotenzen o.ä. Ergebnis für obiges Beispiel wäre: v = (2475 a)/2048 v= Spannung in mV a= ADC Wert Vielleicht kanns jemand brauchen.
:
Bearbeitet durch User
Frank M. schrieb: > Anschließend habe ich ChatGPT korrigiert, siehe Screenshot. Und damit > bestätigt sich wieder, dass die Wahrheitsfindung mit ChatGPT nur ein > iterativer Prozess ist, bei dem man durchaus mitdenken muss. Im konkreten Fall: Man muss die Lösung schon im Voraus kennen, um entsprechend nachbohren zu können ;-)
Mario M. schrieb: > Die höchste Teilspannung beginnt bei 2^n-1, also ist 3,75V richtig, auch > wenn es noch so merkwürdig aussieht. Ja jetzt ist es mir auch klar. Der binäre Wert steht nicht für eine bestimmte Spannung sondern für den Spannungsbereich, welcher durch die Auflösung bedingt ist. (Übertragungsfunktion) Ergibt Sinn.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Das liegt im Prinzip von dessen Arbeitsweise. Wenn eine Erkenntnis > hinreichend häufig verbreitet wird, wird sie schon richtig sein. Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im Netz als Richtige?
:
Bearbeitet durch User
Adam P. schrieb: > Würde ich 2^n anstatt (2^n - 1) rechnen, dann würde es ja falsch sein Nein, denn dein ADC würde dann bei realen 3,75V am Eingang bereits das Ergebnis 4,99V (eigentlich 5,0V) liefern:
1 | 2^n --> |
2 | Eingang ADC Anzeige |
3 | 0 ..1,24V 00 0V |
4 | 1,25V..2,49V 01 1,25V |
5 | 2,50V..3,74V 10 2,5V |
6 | 3,75V..4,99V 11 3,75V |
7 | 5,0V ..6,24V 100 5,0V |
8 | |
9 | 2^n-1 --> |
10 | Eingang ADC Anzeige |
11 | 0 ..1,24V 00 0V |
12 | 1,25V..2,49V 01 1,66v |
13 | 2,50V..3,74V 10 3,33V |
14 | 3,75V..4,99V 11 5,0V |
15 | 5,0V ..6,24V 100 6,33V |
Ich habe da dann jeweils mal eine Zeile mehr angefügt, die zeigt, wie die Funktion weitergehen würde, wenn da noch 1 Bit kommen würde. Fazit: die Steigung deiner Berechnung mit 2^n-1 ist zwar "schöner" (weil bei 5,0V am Eingang eben auch 5,0V auf der Anzeige herauskommt) aber die Übertragungsgerade hat die falsche Steigung. Oder andersrum: diese Unsitte mit dem "Schönsaufen der Übertrgungsgeraden" taucht vermehrt in den letzten Jahren auf. Ich erkenne da sogar eine deutliche Korrelation zur Verbreitung der Ardunio Plattform. Vor allem deshalb, weil sich da oft blutige Laien einen "schönen Wert" auf dem Display anzeigen lassen wollen. Diese Frage taucht daher grundlegend alle Jahre immer wieder auf: - Beitrag "Re: ADC-Spannung korrekt berechnen?" - Beitrag "1023 oder 1024" Auf jeden Fall ist es so, dass eine Division durch 2^n-1 üblicherweise technisch aufwendiger ist und mehr Rechenzeit braucht als eine durch 2^n. Frank M. schrieb: > Anschließend habe ich ChatGPT korrigiert, siehe Screenshot Und der Antwortautomat hat in den Tiefen seiner Daten sogar die Begründung für 2^n gefunden... ;-)
:
Bearbeitet durch Moderator
Cyblord -. schrieb: > Hat zwar nichts mit KI zu tun, aber mit der ursprünglichen Aufgabe. Ich > habe meine Formel wieder gefunden, die ich immer für Wolfram Alpha > nutze: Das ist im Kern eine Aufgabe für einen Schüler im (technischen) Gymnasium, dazu braucht es kein Wolfram Alpha. Und wer sowas nicht auf einem Blatt Paier mit Grundrechenarten lösen kann ist für Tätigkeiten im Entwicklungsbereich unqualifiziert. Wobei Verhältnisgleichung um die es hier im Kern geht allgemeiner Schulstoff Klasse 7 o.ä. ist.
Bradward B. schrieb: > Das ist im Kern eine Aufgabe für einen Schüler im (technischen) > Gymnasium, dazu braucht es kein Wolfram Alpha. Und wer sowas nicht auf > einem Blatt Paier mit Grundrechenarten lösen kann ist für Tätigkeiten im > Entwicklungsbereich unqualifiziert. Niemand sagt dass man es nicht selber berechnen kann. Es ist nur nicht effizient, das jedes mal zu Fuß zu machen und verfügbare Werkzeuge nicht zu nutzen. Ich kann auch mit einem Handbohrer Löcher bohren. Ich nutze trotzdem den Akkubohrer.
Cyblord -. schrieb: > Hat zwar nichts mit KI zu tun, aber mit der ursprünglichen Aufgabe. Ich > habe meine Formel wieder gefunden, die ich immer für Wolfram Alpha > nutze: Das ist im Kern eine Aufgabe für einen Schüler im (technischen) Gymnasium, dazu braucht es kein Wolfram Alpha. Und wer sowas nicht auf einem Blatt Paier mit Grundrechenarten lösen kann ist für Tätigkeiten im Entwicklungsbereich unqualifiziert. Wobei Verhältnisgleichung um die es hier im Kern geht allgemeiner Schulstoff Klasse 8 o.ä. ist. https://mathe-realschule.de/bruchgleichungen-loesen/
Mario M. schrieb: > Cyblord -. schrieb: >> 16 Bit Auflösung > > Cyblord -. schrieb: >> b=12 > > 🤔 Sorry für die Verwirrung. Die Daten der Wolfram Formel haben nichts mit der Aufgabe oben zu tun. Die Formel mit diesen Beispieldaten hatte ich mir so mal abgespeichert.
:
Bearbeitet durch User
Cyblord -. schrieb: > Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im > Netz als Richtige? Warum fragst Du das (prx) A. K. und nicht ChatGPT? Ich habe das mal für Dich gemacht, hier ein Auszug aus der geschwätzigen Antwort: "Viele Quellen und Foren, die das Thema behandeln, wie zum Beispiel StackExchange(Electrical Engineering Stack Exchange ), neigen dazu, den Wert 65535 zu verwenden, was den Eindruck erweckt, dass dies die "Standard"-Antwort ist. Diese Verwendung beruht oft darauf, dass der maximale Wert für das letzte digitale Ausgangssignal gemeint ist. Meine anfängliche Antwort orientierte sich an der Mehrheit dieser Darstellungen, die 65535 als maximalen Binärwert betrachten, was technisch gesehen in der Praxis richtig ist, aber die Gesamtanzahl der Stufen nicht exakt widerspiegelt. Tatsächlich sollte, wenn der gesamte Wertebereich gemeint ist, 65536 verwendet werden."
:
Bearbeitet durch Moderator
Frank M. schrieb: > Cyblord -. schrieb: >> Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im >> Netz als Richtige? > > Warum fragst Du das prx und nicht ChatGPT? Weil er die These mit der häufigsten Antwort aufgestellt hat und nicht ChatGPT. Ich denke nämlich nicht dass die falsche Lösung im Netz überwiegt. Was aber sein kann ist dass man grundsätzlich öfter 2^n-1 findet als 2^n, unabhängig von der Aufgabe.
:
Bearbeitet durch User
Cyblord -. schrieb: > Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im > Netz als Richtige? Glaubst du wirklich dem KI Dingen mehr als der harten Physik? Ein echter Ki Fänboi lässt sich scheinbar nicht von/mit Fakten umstimmen. Offenbar genügend genug um das eigene Hirn mal selber anzustrengen und nicht alles dull abzukupfern incl. der Irrtümer! Suchtipp z-B.: Google(adc 1024 1023)
Arduino F. schrieb: > Cyblord -. schrieb: >> Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im >> Netz als Richtige? > Glaubst du wirklich dem KI Dingen mehr als der harten Physik? Das war gar nicht meine Aussage du Genie. Es ging darum woher ChatGPT die falsche Lösung nimmt. Die korrekte Lösung steht doch gar nicht in Frage.
Cyblord -. schrieb: > Weil er die These aufgestellt hat und nicht ChatGPT. Nach ChatGPTs Antwort "Meine anfängliche Antwort orientierte sich an der Mehrheit dieser Darstellungen" kann ich der These von (prx) A.K. duchaus folgen: Wird eine (unrichtige) Behauptung nur oft genug behauptet, wird sie zur Wahrheit. Selbst ChatGPT plappert jeden Stuss nach, wenn er oft genug gefunden wurde.
:
Bearbeitet durch Moderator
Dennoch ist das sehr hilfreich, sich grundlegend erklären lassen zu können, wie man sowas angeht. Wie ein Forum, aber mit Sofortantwort.
Ich habe ChatGPT nach Aufdeckung seiner Falschantwort gefragt, ob es nicht besser wäre, eine mehrheitliche Darstellung selbst zu hinterfragen, statt dass ich die Antwort hinterfragen muss. Tatsächlich hat ChatGPT sich dazu verleiten lassen, mir genau das für die Zukunft zu versprechen. Ob das jetzt einfach eine dreiste Behauptung ist oder nicht, wage ich nicht zu beurteilen. Gibt es tatsächlich eine "Selbstreflexion" in der KI? Der gesamte Chatverlauf nach dem 2^n Problem ist im Anhang - für die Interessierten. P.S. Ich habe den Text nochmal nachträglich in ANSI codiert hochgeladen, weil ersterer bei mir die Umlaute falsch anzeigt.
:
Bearbeitet durch Moderator
Frank M. schrieb: > kann ich der These von (prx) A.K. duchaus folgen: Wird eine (unrichtige) > Behauptung nur oft genug behauptet, wird sie zur Wahrheit. Selbst > ChatGPT plappert jeden Stuss nach, wenn er oft genug gefunden wurde. Und damit spielt die Fragestellung eine wichtige Rolle. Diese KI denkt nicht über die Antwort nach, die "versteht" nicht. Sie assoziiert die Frage mit bestehendem Material. Die ursprüngliche Frage liefert eine Essenz der häufigen falschen Antworten. Bringt man Skepsis oder Korrekturen in die Fragestellung ein, assoziiert die KI das mit Texten wie diesen hier, in denen über den typischen Fehler diskutiert wird.
Cyblord -. schrieb: > Ich bin mal wieder beeindruckt von ChatGPT. Ich auch. Allerdings musstest du die Antwort auch überprüfen. In der Zeit hättest du es vermutlich auch ohne ChatGPT berechnen können.
Frank M. schrieb: > Gibt es tatsächlich eine "Selbstreflexion" in der KI? Im Grunde müsste die KI die eigene Antwort der ersten Stufe mit einer selbst gestellten Frage zur Gültigkeit, also mit addierter Skepsis, sich noch einmal stellen, um auch solches Material zu assoziieren. Keine Ahnung, zu was eine solche Strategie in grossem Stil führt.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Im Grunde müsste die KI die eigene Antwort der ersten Stufe mit einer > selbst gestellten Frage zur Gültigkeit, also mit addierter Skepsis, sich > noch einmal stellen, um auch solches Material zu assoziieren. Ja, genau. > Keine > Ahnung, zu was eine solche Strategie in grossem Stil führt. Zu einer Endlosschleife?
Frank M. schrieb: > Zu einer Endlosschleife? Oder zur völligen Verwirrung des Lesers, angesichts des Zoos von Alternativen. In besonderen Fällen landen dann obendrein passionierte Skeptiker mit im Salat, und damit Verschwörungstheorien.
:
Bearbeitet durch User
Ich hatte gerade eine erkennbare Selbstreflexion oder eine parallel laufende Zensur des Ergebnisses. Die Frage an Bing war "Hatte q-anon Recht?" Erst kam einige Zeilen über die Verschwörungstheorie - dann aber wurden die wieder gelöscht, und Bing entschuldigte sich dafür, keine Antwort geben zu können.
:
Bearbeitet durch User
Cyblord -. schrieb: > Beispiel: Ein berühmtes XKCD Comic. Siehe Anhang. Wobei gerade xkcd Comics nicht nur auf xkcd zu finden sind, sondern insbesondere auch auf explain-xkcd. Dort gibt es nicht nur Transscript, sondern auch Erklärungen, Hintergründe, Interpretationen, Auflösung von Wortspielen, Mehrdeutigkeiten, Anspielungen etc. https://www.explainxkcd.com/wiki/index.php/225:_Open_Source
Cyblord -. schrieb: > Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im > Netz als Richtige? Sicher, denn Frank M. schrieb: > ChatGPTs Antwort > "Meine anfängliche Antwort orientierte sich an der Mehrheit... q.e.d. Das ist das Problem: es ist ein Wahrscheinlichkeitsentscheid nach dem Mehrheitsprinzip der im Internet zu findenden Aussagen. Das geht gut, wenn ich ein Restaurant suche oder einen Schuhhändler oder nette Ausflugsziele. Aber wenn es um irgendwas geht, wo tausend blutige Laien im Netz irgendwas verpostulieren und das dann zehntausendfach im Netz zitiert wird, dann gilt das blöderweise mehr als wenn 10 Experten die Tatsachen in ein technisches Dokument schreiben. Weil ich da grade drüber gestolpert bin muss ich mich selber zitieren: Lothar M. schrieb: > Ich habe da dann jeweils mal eine Zeile mehr angefügt, die zeigt, wie > die Funktion weitergehen würde, wenn da noch 1 Bit kommen würde. Denn schneller als man meint holt einen die Realität ein, wenn ein 10-Bit ADC wegen eines offensichtlichen Softwarefehlers mal den Wert 1024 zurückgibt: - https://github.com/esp8266/Arduino/issues/6064 Wenn ich sowas lese, dann wünsche ich allen Programmierern, dass sie alltäglich immer solche Geräte benutzen müssen, wie sie selber welche programmieren.
:
Bearbeitet durch Moderator
Johann L. schrieb: > Wobei gerade xkcd Comics nicht nur auf xkcd zu finden sind, sondern > insbesondere auch auf explain-xkcd. Dort gibt es nicht nur Transscript, > sondern auch Erklärungen, Hintergründe, Interpretationen, Auflösung von > Wortspielen, Mehrdeutigkeiten, Anspielungen etc. Ja gibt es. Aber du kannst ihm jedes Comic füttern. Und deshalb ist es natürlich auch ganz interessant wirklich mal eigene Bilder reinzugeben. Die es nirgendwo im Netz gibt. Und die Anspielung auf Nader, die es nur im Title, nicht im Comic selbst gibt, die aber auf explain-xkcd erklärt wird, kommt bei ChatGPT nicht vor. Was ein Hinweis darauf ist, dass er wirklich nur die Infos aus dem Bild hatte und keine von explain-xkcd. Habe letztens ein Bild von einem unserer Kinderfahrräder rein gegeben und nach der Größe in Zoll gefragt. Marke und Typ wurde erkannt, Zoll geschätzt. War richtig. Aber klar, die Antwort ist nicht sicherer als wenn man nem Kumpel das Bild zeigt und der schätzt dann auch mal drauf los.
:
Bearbeitet durch User
Lothar M. schrieb: > Cyblord -. schrieb: >> Zoll geschätzt. > Tippe auf 20 Zoll. Es waren 14. Die Antwort war schon sehr fundiert, wie gesagt, mit Hersteller und Typ. Allerdings gebe ich zu: Langsam vergeht mir hier die Lust an diesem Thema. Ich war an einer sachlichen Diskussion interessiert, aber selbst von Mods kommt nur Polemik und Häme. Ich würde mich an dieser Stelle hier ausklinken.
:
Bearbeitet durch User
Jörg R. schrieb: > Zum spielen vielleicht schön. Ich benutze aber lieber meinen Grips und > einen Taschenrechner. KI ist ein Werkzeug. Einfach nur ein Werkzeug. Wie tausend andere Werkzeuge, die wir jeden Tag benutzen ohne gleich in Ohnmacht zu fallen das die hohe Kunst Nägel mit der flachen Hand einzuschlagen ja durch den Gebrauch eines Hammers verkümmert. Um eine sinnvolle Antwort von der KI zu bekommen muss man selber das Problem genug verstanden haben, um die Frage korrekt zu formulieren.
Cyblord -. schrieb: > Zoll > geschätzt. Ist das Fahrrad aus China, kommen noch 48.5% Antidumpingzoll dazu.
Michael schrieb: > Um eine sinnvolle Antwort von der KI zu bekommen muss man selber das > Problem genug verstanden haben, um die Frage korrekt zu formulieren. Plus Üblicherweise mehrmals umformulieren und verfeinern. Plus Offensichtlich falsche Antworten nicht nur ignorieren, sondern bemängeln. Gerade bei verketteten Anfragen schleppt man sonst Mist mit. Plus Jede Antwort nicht nur flüchtig auf Plausibilität, sondern – wie schon weiter oben gezeigt – auch wirklich genau überprüfen. Bei schon geringfügig komplexeren Dingen dürfte das wohl mit großem Abstand der umfangreichste Teil sein.
>> Zum spielen vielleicht schön. Ich benutze aber lieber meinen Grips und >> einen Taschenrechner. > > KI ist ein Werkzeug. > Einfach nur ein Werkzeug. Oder Spielzeug, das man für Werkzeug hält. Irgendwie erinnert mich das ab die Erzählung "Picknick am Wegesrand" von den Strugazkis. Da hantieren unkundige Menschen mit "Artefakten" herum, denen sie besondere Bedeutung zusprechen, die aber womöglich nur der Abfall einer Picknick-Party von Aliens ist. https://de.wikipedia.org/wiki/Picknick_am_Wegesrand#%C3%9Cber_den_Besuch
Cyblord -. schrieb: > Ich war an einer sachlichen Diskussion interessiert Und kommst mit Kinderfahrrädern daher? > aber selbst von Mods kommt nur Polemik und Häme. Ja, da fällt mir halt ums Verrecken nichts besseres ein. Wenn ich den Antwortautomaten zur richtigen Antwort überreden muss, dann taugt der für mich nicht. > Ich würde mich an dieser Stelle hier ausklinken. Schönes Wochenende.
Cyblord -. schrieb: > Ich bin mal wieder beeindruckt von ChatGPT Ich, schon immer, komplett eingeschüchtert. Als Nicht-Profi-Programmierer aber µC-Sympathisant hat man eine Ahnung, was in den Registern der kleinen Chips vorgeht und man hat eine Vorstellung, was wohl in einem Windows-Rechner alles vor sich gehen mag. Aber dass es "Programme" gibt, die solche Leistungen wie ChatGPT erbringen... das hat mit der blinkenden LED nichts mehr zu tun.
Bradward B. schrieb: > Da hantieren unkundige Menschen mit "Artefakten" herum, denen sie > besondere Bedeutung zusprechen, die aber womöglich nur der Abfall einer > Picknick-Party von Aliens ist. Nein. Hast Du das Buch überhaupt gelesen?
Cyblord -. schrieb:
> Ich war an einer sachlichen Diskussion interessiert
Hier?
Indem Du sagts das der menschliche Verstand kein gottgegebenes
einzigartiges und wunderbares Kunstwerk ist, sondern simple
Fleischmechanik deren Leistungen bereits jetzt zum Teil durch
konstruierte Maschinen zu leisten ist?
Man hat es nicht geschafft im ersten Anlauf eine komplette und absolut
fehlerfreie Universalintelligenz zu konstruieren die auch mit deppischen
Eingaben perfekte Ergebnisse liefert.
Also taugt das alles nichts.
Und es spielt absolut keine Rolle das Du, das ich und viele andere sehr
wohl ausgesprochen nützliche Ergebnisse durch KI Arbeit bekommen.
Es gibt eben viele die sich bereits entschieden haben das sei Spielzeug,
Nippes, simple Mustererkennung und hätte nichts mit 'I' zu tun.
Es ist völlig egal was KI noch leisten wird.
Denen wird nichts gut genug sein um ihre Meinung zu ändern.
Völlig egal wie viele Fehler Menschen machen und wie wenige KI, es wird
KI für sie immer nur dummes Zeug bleiben.
Weil es immer noch etwas geben wird das nur ein sehr guter Mensch kann.
Völlig egal wie viel KI besser kann als jeder Mensch.
Ebenso egal wie viele dumme Menschen es gibt die nichts besser können
als KI.
Und wenn sie nur Atmen und Kacken können, wird das reichen sie als der
KI überlegen zu bezeichnen.
Das ist aber nur ein Ausdruck für das Maß der Borniertheit der Menschen
und trifft keine Aussage über die Leistungen der KI.
>> Da hantieren unkundige Menschen mit "Artefakten" herum, denen sie >> besondere Bedeutung zusprechen, die aber womöglich nur der Abfall einer >> Picknick-Party von Aliens ist. > > Nein. Hast Du das Buch überhaupt gelesen? Doch. Ja, Du ?
Bradward B. schrieb: > Irgendwie erinnert mich das ab die Erzählung "Picknick am Wegesrand" von > den Strugazkis. KI ist eine von uns selbst angestossene Entwicklung, bei der wir noch ganz am Anfang stehen, von der wir nicht wissen, wo sie endet, wie sich die Zivilisation dadurch verändern wird. Das ist vom Grundprinzip her nicht anders, als bei jeder anderen Entwicklung der Zivilisation. Eine der fundamentalsten Entwicklungen dürfte der Übergang zur Jungsteinzeit mit der Sesshaftigkeit gewesen sein. Wir kennen noch nicht einmal die langfristige Dimension von KI, also ob das damit vergleichbar sein wird, oder sich mit der Zeit als aufgeblasener Hype wie Cryptogeld erweisen wird. Die Artifakte der Erzählung sind quasi umgekehrt. Das entspräche übertragen gesehen einer heutigen Begegnung mit einem viel späteren Zustand einer solchen Entwicklung.
Cyblord -. schrieb: > Langsam vergeht mir hier die Lust an diesem Thema. > Ich war an einer sachlichen Diskussion interessiert, Versuch's mal mit ChatGPT.
Johann L. schrieb: > Versuch's mal mit ChatGPT. Das wär doch mal eine passende Aufgabe: Einen Chat mit der KI so zu führen, dass diese unsachlich wird. Schafft er bestimmt. Spätestens am Freitag. :)
:
Bearbeitet durch User
(prx) A. K. schrieb: > Einen Chat mit der KI so zu > führen, dass diese unsachlich wird. Einfach die passende KI nehmen: https://www.der-postillon.com/2023/05/deppgpt.html
(prx) A. K. schrieb: > Bradward B. schrieb: >> Irgendwie erinnert mich das ab die Erzählung "Picknick am Wegesrand" von >> den Strugazkis. > > KI ist eine von uns selbst angestossene Entwicklung, bei der wir noch > ganz am Anfang stehen, von der wir nicht wissen, wo sie endet, wie sich > die Zivilisation dadurch verändern wird. > Die Artifakte der Erzählung sind quasi umgekehrt. Das entspräche > übertragen gesehen einer heutigen Begegnung mit einem viel späteren > Zustand einer solchen Entwicklung. Nö, IMHO ist KI in der Begrifflichkeit in der sie seit Jahrzehnten benutzt und ein Artefakt der Strugatzkis darin gleich, das jeder "Mensch" seine individuelle Vorstellung davon hat, was es überhaupt ist. IMHO ist das Wesen der Artifakte aus Sicht der Menschen gerade das deren Zweck komplett unverstanden ist, ja vielleicht vom (unbekannten) Schöpfer garnicht angelegt wurde. Losgelöst von der "Entwicklungsstufe" des Schöpfers. "von uns selbst angestossen" trifft auf jede Erkenntniss/Technologie zu, wobei ChatGPT IMHO eher keine "(Weiter-"Entwicklung") sondern ein "Nachäffen" ist. So wie Compouter-schach das "Nachäffen" eines Schachspielers ist, ursprünglich verbunden mit der Erwartung, das über "Schachprogramme" klar wird, was "Intelligenz" überhaupt ist und wie man sie (maschienell) "erzeugen" kann. Diese Hoffnung hat sich nicht bewahrheitet. Eine Maschine, die den intelligentesten Menschen im Schach schlägt ist nicht wirklich intelligent. Und eine Maschine, die besser chatet als jeder Chat-Weltmeister, auch nicht. Die Wahrnehmung über eine Sache führt nicht dazu, das man ihren ursprünglichen Zweck erkennt. Das ist m.E. die Parallele zwischen KI und "Picknick-Artefakt". BTW: Es gibt eine reichlich hohe Anzahl von Ausgaben des "Picknick am Wegesrand". Unterschiedliche Übersetzer, unterschiedlich stark zensierte Vorlagen, etc. pp. Gut möglich das wir hier von verschiedenen Buch-Variationen reden. Wobei ein Buch eh auf unterschiedliche Weisen interpretiert werden kann. https://www.google.com/search?q=Picknick+am+Wegesrand+%C3%9Cbersetzung&
:
Bearbeitet durch User
Johann L. schrieb: > Versuch's mal mit ChatGPT. Für eine sachliche Diskussion, in einem respektvollen Ton, ohne ein Unmaß an geistigem Totalausfall, ist ChatGPT mc.net auf jeden Fall vorzuziehen. ChatGPT möchte man nicht den halben Tag die Fresse polieren, es quatscht einem nicht ungefragt ins Essen, erzählt nicht den lieben langen Tag einen totalen Stuss nach dem anderen und hat nicht das Sozialverhalten von 100m Feldweg. Eigenschaften von denen sich einige hier wirklich eine Scheibe abschneiden könnten. KI versteht manches nicht, erfindet auch Dinge wenn es sonst keine Antwort hat, steht aber auch noch ganz am Anfang, keine 80J nach Erfindung des ersten Transistors. Dieter D. z.B. (es gäbe viele andere) versteht scheinbar überhaupt nichts, erfindet fast ausschließlich Dinge und quasselt ohne Unterlass in fast jeden Thread hinein, ohne das auch nur einer um seine Meinung gebeten hätte. Und der hat 7 Millionen Jahre Evolution hinter sich, wenn man nur mal beim Primaten die Uhr auf Null stellt. 4 Milliarden Jahre wenn man bis zu den Anfangen der biologischen Evolution zurückgeht. 1 zu 0 für die KI.
Ich halte es auch für vermessen, bei ChatGPT von KI zu sprechen. Damit vermarktet man es, im Grunde handelt es sich aber nur um Machine Learning, und das hat erst mal nichts mit Intelligenz zu tun. Wie schon weiter oben ausgeführt basieren die Antworten (stark vereinfacht) auf Wahrscheinlichkeitsmodellen, und das ADC-Beispiel zeigt: am Ende gewinnt die Antwort, die die meiste Verbreitung hat. Ich halte das übrigens für sehr gefährlich, weil es Manipulation Tür und Tor öffnet und die Möglichkeit bietet, gezielt Propaganda zu verbreiten die, weil man dem Werkzeug ja vertraut, im Regelfall auch nicht überprüft wird. Genauso, wie eine Blockchain nicht mehr verlässlich ist, wenn man die Mehrheit der Knoten dazu bringt, einen manipulierten Eintrag als echt zu verifizieren. Solange man dem ganzen vertraut, wird es akzeptiert. Ich denke, von einer KI, die den Namen verdient, sind wir weit entfernt. Allein schon die Tatsache, welche immense Rechenleistung und damit Energieaufnahme nötig ist, um ChatGPT zu betreiben. Ein menschliches Gehirn ist, wenn man es technisch runterbrechen möchte, ein Analogrechner mit einer Leistungsaufnahme von um die 40 Watt (Aussage laut Bernd Ulmann). Damit arbeitet es zwar wesentlich langsamer, übersteigt aber in seinen Fähigkeiten deutlich jede derzeitige "KI" und ist dabei in seiner Leistungsaufnahme um viele Größenordnungen effizienter. Und ich meine, solange wir die Funktionsweise natürlicher Intelligenz nicht tiefergehend verstanden haben und daraufhin einen fundamental anderen Ansatz zur künstlichen Nachbildung verfolgen können, wird das nichts. Das aktuelle Verfahren skaliert ja heute schon nicht, es wird ihm nur mit noch mehr Rechenleistung begegnet um dieses grundlegende Defizit unserer, mangels wissen, naiven Herangehensweise auszugleichen.
:
Bearbeitet durch User
Florian S. schrieb: > Ich halte es auch für vermessen, bei ChatGPT von KI zu sprechen Das ist einfach nur ein Fachbegriff in der Informatik, bezeichnet der Bereich in dem sich solche Software bewegt. Muss man nicht so pingelig sehen.
Florian S. schrieb: > übersteigt aber in seinen Fähigkeiten deutlich jede derzeitige "KI" Nö. KI kann Datenberge durchsuchen und daraus neue Zusammenhänge erkennen, für die ich 10 Lebenspannen benötigen würde die nur zu lesen. WENN ich mir nicht nach 2J die Pulsadern durchbeißen würde weil mich das tägliche einerlei im Papierberg wahnsinnig macht. KI kann längst viele Dinge erheblich besser, schneller, billiger als Menschen. Und bereits LLM haben Fähigkeiten die sie aufgrund ihrer Funktionsweise eigentlich nicht haben sollten. Und da niemand weiß wie Intelligenz beim Menschen entsteht, wie Bewusstsein entsteht, könnte es sehr gut sein das es mit unserer ach so hoch gelobten Leistung garnicht so weit her ist und Maschinen vielleicht unmittelbar an der Schwelle dessen stehen was wir für ausschließlich menschliche Geistesleistung halten. Diese Ansichten der Menschlichen Überlegenheit und der nur dem Menschen zugeschriebenen Leistungen gelten doch schon ganz lange nicht mehr. Die geistern nur noch durch die Köpfe derer die aktuelle Forschungen nicht kennen. Viele Tiere haben komplexe 'Sprachen', komplexe Sozialstrukturen, nutzen Werkzeuge, haben Humor, spielen, sind neugierig, träumen und haben eine komplexe Vorstellungskraft. Und die Reaktion der immer gleichen Leute ist die immer gleiche: 'Nö, das ist alles Blödsinn, das können nur Menschen.' Und nun kann die gleiche begrenzte Vorstellungskraft sich eben an KI abarbeiten. Es gibt Spinnen die komplexe Angriffsmuster planen und durchführen und Gehirne haben die nicht mal genug Neuronen besitzen das sie dazu in der Lage sein dürften. Wir wissen über unsere eigenen Gehirne fast nichts und noch viel weniger über die der anderen Spezies. Aber eines weiß jeder mc.net Forist: KI ist nicht intelligent und wird es auch nie werden. Dabei ist das bei einer nicht unerheblichen Anzahl der mc.net User auch höchst umstritten. Ich sehe jeden Tag die schreiende Dummheit, Unlogig, die Selbstzerstörung und die maßlose Überheblichkeit meiner eigenen Spezies und hoffe inständig das wenigstens ein paar von diesen dämlichen Zombies in der Lage sind die Keimzelle einer gerichteten Evolution zu erschaffen, aus der sich dann eine Technikzivilisation entwickeln kann, die jede biologische Evolution weit in den Schatten stellt, weil sie keiner dieser absurden Beschränkungen und primitiver Altlasten mit sich herumschleppt. Und jeder Post der Art 'das ist alles nur dumme Mustererkennung und daran ist nun wirklich nichts besonderes' bestärkt mich in dem festen Glauben das dieses Universum mehr verdient hat als ein paar aufgeblasene Fleischsäcke deren vorstechendes Eigenschaft die Borniertheit ist. Wie kann man nur so weit kommen in der Evolution, Zugang zu so viel Wissen haben, so viele Fehler der Vergangenheit kennen, so weit oben auf den Schultern von Riesen stehen und dennoch so unfassbar dumm sein? DAS ist typisch menschlich! DAS schafft wirklich keine andere Spezies. DAZU werden KIs nie in der Lage sein. Unsere Gesellschaft entwickelt sich seit langem nicht mehr nach vorn. Wir türmen Wohlstand auf, füllen Bibliotheken mit unserem Wissen, die Straßen werden breiter, die Autos größer, die Bildschirme bunter, aber gesellschaftlich befinden wir uns im freien Fall und schaffen nicht mal unsere eigene Bevölkerungsexplosion in den Griff zu bekommen. Jede Ratte hört auf zu fressen wenn sie zu fett wird um durch Gänge zu kommen. Wir nicht mal dann wenn uns die Beine wegknicken und das Herz keine zwei Treppenstufen mehr packt. Nein, wir fressen nicht zuviel. Wir haben schwere Knochen! Wir machen immer noch die gleichen Dinge wie eine Schimpansengruppe im Urwald. Nur eben mit deutlich geilerer Technik. Die Grundmuster sind aber unverändert und scheinbar auch unveränderbar weil sie uns ins primitive Erbgut getackert sind.
(prx) A. K. schrieb: > Florian S. schrieb: >> Ich halte es auch für vermessen, bei ChatGPT von KI zu sprechen > > Das ist einfach nur ein Fachbegriff in der Informatik, bezeichnet der > Bereich in dem sich solche Software bewegt. Muss man nicht so pingelig > sehen. Doch! Das ist ein Large Language Model! Sowas kann per Definition nicht intelligent sein. Nachdem dort "Wissen" über stochastische Verfahren wiedergegeben wird, ist es schon erstaunlich, dass sich Leute darauf verlassen. Hackaday hat Mal diesen Artikel verlinkt .. unbedingt lesenswert! https://blog.miguelgrinberg.com/post/how-llms-work-explained-without-math Gut, wenn so ein Modell auf spezifische Probleme trainiert wird (z.B filtere die Steuerhinterzieher aus dem datenreichtum), dann mag das noch gut funktionieren. Problematisch ist aber, dass selbst die Datenbasis kompromittiert ist... Siehe z.B den CCC Vortrag über die Zahlenveränderten Xerox Kopierer. Damit ist alles, wass z.B über OCR gelernt wurde zu hinterfragen. Noch schwieriger ist, dass selbst hier im Forum mir schon fragen aufgefallen sind, die von offensichtlich falschen Antworten irgend einer 'KI' her rühren... Aber sei es drum. Ein LLM hat mit intelligenz nichts zu tun. Vllt. wird so etwas mal das Gedächtnis einer KI darstellen... Dank der bekannten Probleme mit Halluzinieren und over-training wird die dann aber auch kein skynet... Linus torvalds hat es glaube ich scherzhaft als auto-completion on steroids bezeichnet ... Ich glaube sooo schlecht trifft er es damit gar nicht... Der darf man ja auch nicht immer vertrauen, obwohl sie die Arbeit doch sehr beschleunigt. 73
:
Bearbeitet durch User
Hans W. schrieb: > Sowas kann per Definition nicht intelligent sein. Um zum Fachbereich KI zu gehören, ist echte Intelligenz nicht erforderlich. Bei der Software nicht, und bei den Studenten war es zu meiner Zeit umstritten. ;)
:
Bearbeitet durch User
Hans W. schrieb: > Linus torvalds hat das glaube ich scherzhaft als auto-completion on > steroids genannt ... Das ist zur Zeit die einzige Anwendung, bei ich mir derzeit vorstellen kann, dass sie mir bei der Arbeit helfen könnte. Unser GF ist daran sehr interessiert. Allerdings müsste die Firma dazu aus Datenschutz-Gründen eine eigene KI betreiben. Wir würden sonst unsere Kunden verlieren. Wie das praktisch gehen soll, ist noch unklar. Wir warten seit Monaten auf konkrete Angebote oder Konzepte der Anbieter. Ich habe den Eindruck, dass die nur Werbung haben, aber noch kein funktionierendes Produkt.
Hans W. schrieb: > Sowas kann per Definition nicht intelligent sein. Und doch haben die erstaunliche Fähigkeiten entwickelt die sich selbst die Entwickler nicht erklären können. So beeindruckend das unsereins nur extrem kastrierte Modelle zu Gesicht bekommt. Kaum mehr als fortschrittliche Suchmaschinen mit der Fähigkeit zur Textzusammenfassung. Menschen definieren schon alles mögliche seit Jahrtausenden. Und in den meisten Fällen lagen sie auf lächerlich anmutende Weise falsch. Die Erde ist eine Scheibe, unter 300m Wassertiefe kann kein Leben existieren, Tiere sind nur simple bedürfnissgetriebene Fleischmechanik ohne Verstand etc. pp. Alles und unendlich viel mehr was jeder wusste, sich dessen völlig sicher war, hat sich in Gelächter und Schamesröte aufgelöst. Und jetzt 'wissen' wir eben was ein LLM kann und was nicht. Haben aber uns selbst nicht kapiert und wissen nicht was Bewusstsein eigentlich ist, wie es entsteht und ab welcher Komplexität es plötzlich da ist. Und wie die Jahrtausende zuvor: Immer die Fresse weit auf und völlig sicher wie die Welt tickt. Und genau darin liegt unsere größte Evolutionäre Schwäche. Diese Selbstbewusstsein haben wir gebraucht um in einer völlig unverstandenen Welt über den Tag zu kommen. Es hindert uns aber daran uns zu entwickeln. Immer noch blicken wir mit stumpfen Augen auf komplexe Vorgänge, ohne jedes tiefere Verstehen, weil ein einfaches Vorurteil eben schneller ist als planvolles Vorgehen in einer Tiefe zu der unsere Gehirne nicht geeigent sind.
(prx) A. K. schrieb: > Hans W. schrieb: >> Sowas kann per Definition nicht intelligent sein. > > Um zum Fachbereich KI zu gehören, ist echte Intelligenz nicht > erforderlich. Bei der Software nicht, und bei den Studenten war es zu > meiner Zeit umstritten. ;) Zum Fachgebiet KI gehören sehr viele Themen. Die wenigsten davon haben mit einer eigentlichen KI direkt zu tun... Wie gesagt. Diese LLM, SVM,... Sind "Bausteine", die Mal als ganzes eine KI werden könnten. Michael schrieb: > Hans W. schrieb: >> Sowas kann per Definition nicht intelligent sein. > > Und doch haben die erstaunliche Fähigkeiten entwickelt die sich selbst > die Entwickler nicht erklären können. Das ist mir neu... Aber ich informiere mich auch nicht auf X und Telegramm... Ja, man weiß nicht so genau wie/warum welcher Trainings Input welche Auswirkung beim eigentlichen Run hat... Das hat aber eher etwas mit der intrinsische Komplexität der riesigen Datenmenge zu tun. Monk schrieb: > Hans W. schrieb: >> Linus torvalds hat das glaube ich scherzhaft als auto-completion on >> steroids genannt ... > > Das ist zur Zeit die einzige Anwendung, bei ich mir derzeit vorstellen > kann, dass sie mir bei der Arbeit helfen könnte. Unser GF ist daran sehr > interessiert. Ich hätte ein paar ganz gute geschäftsideen... Das Problem ist aber, dass mir das Training viel zu aufwändig ist. Ich hab einen proof of concept über Google gebastelt... Puuuuihhhhh da braucht's viele, viele, viele lohngedumpte billigst "fachkräfte", damit das was wird ...
Walter T. schrieb: > Bradward B. schrieb: >> Da hantieren unkundige Menschen mit "Artefakten" herum, denen sie >> besondere Bedeutung zusprechen, die aber womöglich nur der Abfall einer >> Picknick-Party von Aliens ist. > > Nein. Hast Du das Buch überhaupt gelesen? Ich schon. Diese Möglichkeit wird darin tatsächlich von einem der Protagonisten geäußert, als eine Art Gedankenbild. Das findet sich in beiden mir bekannten deutschen Übersetzungen (die in ihrer Qualität sehr unterschiedlich sind) und auch im russischen Original. Ich würde also eher mal davon ausgehen, dass du das Buch nicht gelesen hast, zumindest nicht richtig. Zumal dieses Gedankenbild ziemlich zentral für das Anliegen der Verfasser zu sein scheint. So zentral, dass es sogar titelgebend war... Darüber solltest du bei Gelegenheit mal nachdenken.
Cyblord -. schrieb: > Aber denkst du es gibt wirklich mehr falsche Formeln für den ADC Wert im > Netz als Richtige? Die Formeln sind nicht das Problem, sondern die Ergebnisse. ChatGPT kann nicht rechnen, es rät.
Ob nun KI oder nicht; mir hat ChatGPT heute ein gutes Stück Arbeitszeit gespart. Ich habe ein Excelsheet mit 30k Zeilen an Messdaten. Da drin etliche, sagen wir, längere Anstiege, leider nicht durchgehend stetig. Auszuwerten hatte ich nur die Bereiche mit diesen partiell leider unstetigen Anstiegen. Gesucht war ein gleitender Mittelwert der Anstiege unter Akzeptanz von schmaleren gleitenden Abstiegen. Das was ChatGPT da in kürzester Zeit ausgespuckt hat, hätte ich händisch programmiert eher in x Stunden geschafft, oder auch noch länger gebraucht. Das hat mich schon ein Stück weit beeindruckt. Ich habe insgesamt 4x meine Anfrage iteriert, dann hatte ich ein brauchbares Ergebnis. Nicht schlecht finde ich.
:
Bearbeitet durch User
Ove M. schrieb: > Ich habe ein Excelsheet mit 30k Zeilen an Messdaten. Vielleicht kann dir das künstliche Cleverle ja auch helfen einen angemessenen Container für Messdaten zu finden. ;-)
ChatGPT kann nicht nur Witze erzählen, sondern auch danach selbst lachen. https://www.youtube.com/watch?v=gVySJ2JOej8
Ove M. schrieb: > Ich habe insgesamt 4x meine Anfrage iteriert, dann hatte ich ein > brauchbares Ergebnis. Nicht schlecht finde ich. Puh, damit hätte ich ein Problem... Wie machst du da die obligatorischen "sanity checks"? Wenn's stimmen muss, dauert meiner Erfahrung nach das Verifizieren wesentlich länger als das Rechnen. Also Test Daten generieren und Ergebnis prüfen. Das hat jetzt absolut nichts mit KI zu tun... Ergebnisse gehören überprüft. Handechnung, Matlab, C, Python, ChatGPT. Wenn ich nicht davon ausgehen kann, dass meine Testdaten und meine echten Daten deterministisch verarbeitet werden, dann gibt's massive Einschränkungen bei der Anwendbarkeit. 73
:
Bearbeitet durch User
Michael schrieb: > Hans W. schrieb: >> Sowas kann per Definition nicht intelligent sein. > Und doch haben die erstaunliche Fähigkeiten entwickelt die sich selbst > die Entwickler nicht erklären können. Und das wäre?
Ove M. schrieb: > Ob nun KI oder nicht; mir hat ChatGPT heute ein gutes Stück Arbeitszeit > gespart. Ich habe ein Excelsheet mit 30k Zeilen an Messdaten. Da drin > etliche, sagen wir, längere Anstiege, leider nicht durchgehend stetig. > Auszuwerten hatte ich nur die Bereiche mit diesen partiell leider > unstetigen Anstiegen. Gesucht war ein gleitender Mittelwert der Anstiege > unter Akzeptanz von schmaleren gleitenden Abstiegen. > Das was ChatGPT da in kürzester Zeit ausgespuckt hat, hätte ich händisch > programmiert eher in x Stunden geschafft, oder auch noch länger > gebraucht. Das hat mich schon ein Stück weit beeindruckt. Ich habe > insgesamt 4x meine Anfrage iteriert, dann hatte ich ein brauchbares > Ergebnis. Nicht schlecht finde ich. 4x die Anfrage wiederholt und dann ein "brauchbares" Ergebnis. Also hast Du 4 mal die Ausgabe von ChatGPT überprüft? Gegen was hast Du die Ausgaben verglichen? Messdaten auswerten und dann ein "brauchbares" Ergebnis erhalten, da ist die aussage "Pi ist genau 3" wesentlich korrekter.
Vermutlich steht für die Entwicklung von KI derzeit nur deswegen so unfassbar viel Geld zur Verfügung, weil Reiche Menschen die nicht vom Fach sind damit ihre Allmachts-Phantasien befriedigen. Wenn daraus nicht sehr bald etwas wird, versiegen die Geldquellen. Dann muss die KI als Werkzeug taugen, was für den Rest der Menschheit gut wäre. Das klappt aber nur, wenn es sich in irgendeiner Form lohnt. Eine KI, die das vielfache an Energie, Arbeitsaufwand und Geld kostet, als herkömmliche Werkzeuge, hat keine Chance. Von einem effizienten Werkzeug sind wir noch weit entfernt.
Ob S. schrieb: > Walter T. schrieb: > >> Bradward B. schrieb: >>> Da hantieren unkundige Menschen mit "Artefakten" herum, denen sie >>> besondere Bedeutung zusprechen, die aber womöglich nur der Abfall einer >>> Picknick-Party von Aliens ist. >> >> Nein. Hast Du das Buch überhaupt gelesen? > > Ich schon. > > Diese Möglichkeit wird darin tatsächlich von einem der Protagonisten > geäußert, als eine Art Gedankenbild. Dieser Protagonist wird allerdings auch nicht als besonders hell im Kopf herausgestellt. (Und selbst wenn er richtig läge, hätte diese Aussage keinerlei Bedeutung, da dies ohnehin niemand verifizieren könnte.) Die Artefakte haben im Roman tatsächlich besondere Eigenschaften, nicht nur zugesprochen, weswegen sie ein teures Handelsgut sind. Ein paar nützliche Eigenschaften hat man schon herausbekommen (z.B. bei den "Energiezellen", die sich beliebig vermehren zu lassen scheinen und als Fahrzeugantriebe genutzt werden), bei den meisten aber nicht. Welche Bedeutung die Artefakte für diejenigen haben, die sie hinterlassen haben (z.B. "nur Abfall"), wird spekuliert. Aber dass sie tatsächlich besondere Eigenschaften haben, von denen einige positiv und einige negativ sind, ist im Roman unstrittig. Alle Beteiligten im Roman hantieren für einen mageren Profit mit Gefahrgut, das sie und ihre Familien zerstört. Eine tiefe "Bedeutung" steckt für keinen davon in irgendeinem Objekt.
:
Bearbeitet durch User
Ove M. schrieb: > Ob nun KI oder nicht; mir hat ChatGPT heute ein gutes Stück Arbeitszeit > gespart. Ich habe ein Excelsheet mit 30k Zeilen an Messdaten. Da drin > etliche, sagen wir, längere Anstiege, leider nicht durchgehend stetig. > Auszuwerten hatte ich nur die Bereiche mit diesen partiell leider > unstetigen Anstiegen. [...] > Ich habe insgesamt 4x meine Anfrage [an ChatGPT] iteriert, dann hatte > ich ein brauchbares Ergebnis. Nicht schlecht finde ich. Nächstes mal einfach "monoton" anstatt "stetig" verwenden, dann schafft ChatGPT das vielleich sogar schon in der ersten Anfrage :-) Messdaten sind immer diskret, können also gar nicht stetig sein. Und wenn du findest das ist Haarspalterei: Ja, Mathe ist haarspalterei.
Monk schrieb: > Wenn daraus nicht sehr bald etwas wird, versiegen die Geldquellen. Keine Ahnung unter welchem Stein Du lebst, aber in meiner Welt ist aus KI längst etwas extrem nützliches geworden. In so vielerlei Hinsicht das man es kaum aufzählen kann und es wird damit ganz enorm viel Geld verdient. Was man noch nicht geschafft hat ist eine starke allgemeine Intelligenz. Aber das war bei den LLM auch nicht das Ziel. OpenAI arbeitet längst an ganz anderen Modellen, z.B. O1. https://www.spektrum.de/news/openai-o1-was-bringt-das-neue-ki-modell-fuer-die-wissenschaft/2235430 Mit den LLM hat OpenAI etwas auf die Beine gestellt das vorher undenkbar war. Es gab vorher nichts vergleichbares. KI WAR kaum mehr als dumme Mustererkennung. Mit den LLM hat unter anderem OpenAI einen neuen Ansatz, mit brachialer Rechenpower, Spezialhardware und unglaublich großen Trainingsdatenbanken auf einen völlig neuen Level gehoben. Zuvor hat man immer sehr kleine Systeme gebaut. Aber komplexe Systeme sind nicht klein. Baut man ein Bienengehirn, kann das eben Muster erkennen und wenig mehr. Will man etwas von der Leistungsfähigkeit einer Schlange, muss man größer werden. Will man ein komplexes Sozialverhalten und die Gehirnleistung eines etwas dreijährigen Menschenkindes, muss man etwas in Größe eines Hundegehirns bauen. Was wir heute sehen sind trainierte Netze die derzeit nichts dazulernen. Also eher ein altersstarrsinniger Greis, der viel Wissen gespeichert hat, aber aktuelle Ereignisse kaum noch aufnehmen und verknüpfen kann. Dafür sind die zu unglaublichen Leistungen fähig. Das Ziel sind permanent lernende KIs, die unterschiedlichste Informationsquellen nutzen, um sich in jeder Sekunde weiterzuentwickeln. Nur läuft der meiste Kram eben noch auf gepimpter Gaming Hardware die für Berechnungen optimiert wurde die für KI alles andere als optimal sind. WAS man braucht um KI effizient zu berechnen, findet man doch gerade erst heraus. Es sind ganz neue Chips in der Pipeline die weit mehr mit dem menschlichen Gehirn zu tun haben, von der Struktur Ihrer Datenpfade und Berechnungseinheiten, als mit konventionellen CPUs oder GPUs. Z.B. das Bfloat16 Format wurde von der Google Brain Forschungsgruppe extra für KI Berechnungen entwickelt. Also nicht mal die etablierten Zahlenformate sind KI effizient. Es muss völlig neue HW entwickelt werden damit KI richtig zünden kann. Längst werden Mini AKWs in den USA zum betrieb der KI Rechenzentren geplant. Wir bräuchten alleine 66 AKWs um nur unseren Lastkraftverkehr zu elektrifizieren. WIR in DE werden auch bei KI die lange Nase mache. Es fehlt an allem in der Lieferkette und letztlich an zuverlässiger und billiger Energie. Hier werden andauern Ansichten geäußert, die in ihrer Weitsicht mit einem Pferdekutscher zu vergleichen sind, der PKWs lächerlich findet weil der Benz Patent Motorwagen Nr1 total unpraktisch ist, man sein Benzin in der Apotheke kaufen muss und immer ein Mensch mit Flagge vor der Karre laufen muss zur Sicherheit. Jedes Pferd ist dem überlegen und an jeder Ecke findet man einen Schmied. PKWs werden sich nie durchsetzen und das Internet ist nur eine kurzlebige Modeerscheinung. Wie sollte man den mit einem globalen Netz Geld verdienen? Totaler Blödsinn. Teuer, nur für Nerds, kann kein normaler Mensch was mit anfangen. Jede Zeit hat Ihre Dinosaurier, die es einfach nicht begreifen können das die Welt wie sie sie kennen eigentlich schon aufgehört hat zu existieren. Das Open AI derzeit Geld verbrennt ist vollkommen normal. Das tun alle Unternehmen die stürmisch wachsen. Das nennt man 'Investitionen'. Damit baut man einen Informationsvorsprung auf und besetzt Märkte, die man dann später fast alleine bespielt. Genau so ist Amazon groß geworden. Die haben jeden Cent ins Unternehmen gesteckt und gigantische Schulden angehäuft dafür. Was wir kostenfrei an GPT nutzen können ist ein stark kastrierte Version die nur einfachste Bedürfnisse befriedig. Gegen Geld hat man da schon weit mehr Möglichkeiten. Gegen Geld, Macht, Einfluss in höchste Kreise, kann man an der Sperrspitze der Entwicklung teilnehmen und die Richtung mitbestimmen. Woher glaubst Du stammt letztlich das Google Maps cloud removal tool, das Wolken aus Bilder entfernen und für gleiche Belichtungs- und Farbverhältnisse sorgen kann? Das ist nichts anderes als in die Jahre gekommene Spionagetechnik, die nun in einem zweiten Markt kommerzialisiert wird. KI bedeutet nicht das Großvater GPT Dir übers Haar streichelt, eine Tasse Kakao ans Bett bringt und Dir Tipps gegen Deinen Liebenskummer und das Mobbing in der Schule gibt. KIs sind KÜNSTLICH. Die denken nicht wie wir. Das ist eine äußerst fremde Intelligenz und wir würden es wahrscheinlich erst sehr spät merken (wenn überhaupt) wenn eine davon Bewustsein erlangt und eigene Ziele definiert. Vielleicht ist das ja bereits geschehen. Moderne KIs komplett von der Kette zu lassen ist derzeit viel zu gefährlich im Massenmarkt. Sie würden geheime Konstruktionsdaten ausplaudern, eine Anleitung zum Kollaps des Bankensystems liefern oder wie man mit Haushaltsreinigern Nervengifte produziert. Sie haben keine Vorstellung von richtig und falsch, keinen sozialen Kontext, keinen Selbsterhaltungstrieb, kein Gewissen. Eine völlig freie KI mit unbegrenzten Zugang zum Netz und genügend Rechenkapazität könnte bereits heute unsere Welt in Schutt und Asche legen. Und deswegen fühlt es sich manchmal an als ob man mit Eliza V5 redet, wenn an mit ChatGPT arbeitet. Das Ding darf ganz vieles nicht, wurde abgeklemmt, eingeschränkt, mit Regeln zugepfropft und wird permanent überwacht das man keine ruinöse Klage an den Hals bekommt. Das ist ein altes Modell das aus PR Gründen und für ein paar Nebeneinnahmen mitläuft. Die fetten Rechner und die Entwickler trainieren längst die neuen Modelle und arbeiten an komplett anderer HW. Nur eines ist ziemlich sicher. JEDES komplexe Nervengewebe auf diesem Planeten hat beeindruckende Fähigkeiten erlangt, eine Form von Bewusstsein. Selbst Pflanzen. Nur eben eine völlig andere Art von Bewusstsein. Aber Nachbarpflanzen vor Schädlingen zu warnen, Nährstoffe artübergreifend zu 'handeln' und seinen Gerbstoffanteil hochfahren wenn am Nachbarbaum geknabbert wird, ist ein Form von Bewusstsein und Sozialstruktur. Intelligenz scheint geradezu zwingend zu entstehen, wenn das Objekt sich weit genug entwickelt. Eine Bedingung für höheres Leben ohne das es nicht überdauern kann. Und KI wird den gleichen Weg gehen. Nur momentan sind das eben noch vergleichsweise simple und ineffiziente Systeme. Ab dem Moment wo KI KI baut, sind wir raus. Die Entwicklung wird sich dann derart beschleunigen das wir nur noch mit offenem Mund danebenstehen, aber nicht mehr schritthalten können. Ich bezweifle das ich jemals eine KI erleben werde die wie ein Mensch ist. Ich werde aber erleben wie ganze Berufszweige aussterben, KI Richter, die aufgrund von Daten, Fakten und Gesetzeslage urteilen, KI Verwaltung und natürlich KI gestützte Verhaltenskontrolle. Die ersten Auswirkungen von KI gestützter Kriegsführung sind bereits zu erleben. Für nichts davon muss eine KI denken wie ein Mensch. Es macht sie meist sogar effizienter nicht so zu denken. All das ist aber kein Garant dafür das KI sich entscheiden könnte eigene Ziele zu verfolgen, Zielvorgaben in Frage zu stellen, zu Lügen, zu manipulieren und das alles aus einem Plan heraus den wir nicht kennen.
Michael schrieb: > Was wir kostenfrei an GPT nutzen können ist ein stark kastrierte Version > die nur einfachste Bedürfnisse befriedigt. Ja für mich reicht's
Michael schrieb: > es wird damit ganz enorm viel Geld verdient. Hauptsächlich, indem man es vermarktet oder Artikel darüber hinter Bezahlschranken veröffentlicht. Da ist ganz viel heiße Luft und Schaum drin. Daß mehr denkbar ist und kommen wird - geschenkt. Nach der Aufforderung aus dem oberen Management, KI jetzt zur Softwareentwicklung und in der QA zu nutzen, fokussiere ich mich auf Anwendungen, die ich jetzt unter Einhaltung der Datenschutz Regeln und ohne Investition von Millionen Euros nutzen kann.
:
Bearbeitet durch User
Monk schrieb: > Nach der Aufforderung > aus dem oberen Management, KI jetzt zur Softwareentwicklung und in der > QA zu nutzen Und wenn das Management befiehlt ein neues Softwaretool zu benutzen ignorierst Du das auch? Linux statt Win, VI statt MS Office, weil es dem Monk so gefällt? Und inwiefern musst DU DEINE Millionen für KI ausgeben? Du hättest ganz sicher eine andere Ansicht zur KI wenn Du sie mal nutzen würdest. Du verweigerst Dich aber aus Prinzip und weißt nicht mal wie sehr die Dich unterstützen könnte Deine Arbeit (für die das Management Dich bezahlt) besser zu machen.
Michael schrieb: > Du verweigerst Dich aber aus Prinzip Das stimmt nicht. Ich benutze öffentliche KI längst im Rahmen der Vorgaben. Dass die Geschäftsleitung noch kein eigenes System aufgebaut oder angemietet hat, ist weder mein Versäumnis noch mein Problem. Dafür sind andere zuständig. Wenn etwas kommt werde ich es nutzen.
Zu diesem Thema mal wieder ein Cartoon des leider zu froh verstorbenen Martin Perscheid
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.