Hallo nochmal, Building a C compiler with a team of parallel Claudes https://www.anthropic.com/engineering/building-c-compiler CCC — Claude's C Compiler auf github https://github.com/anthropics/claudes-c-compiler "Note: With the exception of this one paragraph that was written by a human, 100% of the code and documentation in this repository was written by Claude Opus 4.6. A human guided some of this process by writing test cases that Claude was told to pass, but never interactively pair-programmed with Claude to debug or to provide feedback on code quality. As a result, I do not recommend you use this code! None of it has been validated for correctness. Claude wrote this exclusively on a Linux host; it probably will not work on MacOS/Windows — neither I nor Claude have tried. The docs may be wrong and make claims that are false."
Alexander S. schrieb: > As a result, I do not recommend you use this code! None of it > has been validated for correctness. Und trotzdem hat er es zum Widerkäuen auf Github belassen. Es beginnt..
Klaus schrieb: > There's no such thing as a free lunch! Nu, die bekommen nix, ich bleib bei meiner Browserlösung und hab dafür nur deutlich begrenzten Zugang. Am Ende bleibe ich der Gewinner bei dieser Variante. Selbst der eingeschränkte Zugang ist für mich ausreichend um 90% der Projekte mit den vorhandenen Token zu lösen.
Alexander schrieb: > Alexander S. schrieb: >> As a result, I do not recommend you use this code! None of it >> has been validated for correctness. > > Und trotzdem hat er es zum Widerkäuen auf Github belassen. Es beginnt.. Ja, es beginnt ein neues Zeitalter. Dank meiner frühen Geburt schaffe ich es auch noch so bis zur Rente, aber wäre ich 20 Jahre jünger, würde ich nun ernsthaft darüber nachdenken, ob man als SW-Entwickler noch eine berufliche Zukunft hat.
Wie ist das aber dann mit dem Urheberrechten, wenn das Endprogramm dann Gewerblich eingesetzt werden soll?? Ist das dann was für die Abmahnanwalte, wenn sie darüber Ahnung haben. Wird doch ein unerschöpflicher Fundus werden. MfG ein alter knacker aus der Nichtarbeitenden Bevölkerung;-))
Al. K. schrieb: > Wie ist das aber dann mit dem Urheberrechten, wenn das Endprogramm dann > Gewerblich eingesetzt werden soll?? Der Datenschutzbeauftrage unserer Firma hat diese Frage nach 2 Jahren immer noch nicht beantworten können. Ergo: Keine Erlaubnis, von KI generierten Code zu benutzen.
Zumindest in den ChatGpt-AGB meine ich gelesen zu haben, dass man mit dem Output machen darf was man will. ChatGpt (bzw. natürlich OpenAI) erhebt also keine Urheberschaft im rechtlichen Sinn auf den Output. So jedenfalls habe ich es verstanden. Wäre vermutlich schwer nachzuweisen, dass eine Quelldatei von einer KI generiert wurde. Und dann noch schwerer, von welcher genau. So gesehen habe ich erst mal keine Angst vor den Abmahnverbrechern ... ciao Marci
Marci W. schrieb: > So gesehen habe ich erst mal keine Angst vor den Abmahnverbrechern ... Und was ist, wenn die KI von Trainungsmaterial kopiert hat, dass nicht oder nur unter gewissen Bedingungen verwendbar ist? Die allermeisten Lizenzen von Software-Libraries verlangen zum Beispiel in einer Liste genannt zu werden. Wenn du das vergisst, kannst du verklagt werden. Und zwar nicht nur vom Autor der Bibliothek, sondern auch vom Autor der Lizenz (meist eine US amerikanische Universität) und von Konkurrenten, die sich benachteiligt fühlen.
Marci W. schrieb: > So gesehen habe ich erst mal keine Angst > vor den Abmahnverbrechern ... Jetzt steckt die Entwicklung noch in den Kinderschuhen, wenn erst Millionen KI gestützte Programme laufen, dann werden auch die KI Entwickler munter und werden sich mit diesen Klientel Anwälten verbünden. MfG Ein Alter Knacker aus der nichtarbeitenden Bevölkerung
Klaus schrieb: > ber wäre ich 20 Jahre jünger, würde > ich nun ernsthaft darüber nachdenken, du meinst so, wie die Leute im 18. Jahrhundert mit dem Aufkommen der industriellen Revolution Angst hatten, dass die Arbeit ausgeht? Irgendwie scheinen eher SW-Entwickler in Panik zu verfallen. Ich sehe das nicht so ausgeprägt in anderen Berufsgruppen, deren Effizienz duch KI gar noch stärker erhöht wird. Was man auch nicht vergessen sollte: die Welt lebt nicht von immateriellen Produkten, sondern größtenteils durch materielle Güter! So gesehen kann man sich ja vllt. eher in dieser Richtung orientieren. Da gibt es zwar auch Verbesserungen durch KI/Robotik, aber die fallen momentan noch eher bescheiden aus. Obwohl Musk ja den Haushaltsroboter gebastelt hat. Der muss sich allerdings erst noch beweisen ... ciao Marci
Marci W. schrieb: > Klaus schrieb: >> ber wäre ich 20 Jahre jünger, würde >> ich nun ernsthaft darüber nachdenken, > > du meinst so, wie die Leute im 18. Jahrhundert mit dem Aufkommen der > industriellen Revolution Angst hatten, dass die Arbeit ausgeht? > > Irgendwie scheinen eher SW-Entwickler in Panik zu verfallen. Ich sehe > das nicht so ausgeprägt in anderen Berufsgruppen, deren Effizienz duch > KI gar noch stärker erhöht wird. Das kommt immer stark aufs Detail an: Wenn du z.B. als 45 jähriger Entwickler eines Großkonzerns gerade in deren Entlassungswelle bist, kann es ein größeres Problem darstellen, als wenn du gerade dein Studium abgeschlossen hast. Oder es kann auch sein, dass man gerade keine Absolventen einstellt, weil Anfängeraufgaben besser von der KI gemacht werden.
Marci W. schrieb: > Irgendwie scheinen eher SW-Entwickler in Panik zu verfallen. Ich sehe > das nicht so ausgeprägt in anderen Berufsgruppen, deren Effizienz duch > KI gar noch stärker erhöht wird. Vermutlich weil die Meisten aus anderen Berufsgruppen noch gar nicht gemerkt haben, dass sie bald von einer KI ersetzt werden. Davon abgesehen: Von Panik habe ich nichts geschrieben.
Klaus schrieb: > Vermutlich weil die Meisten aus anderen Berufsgruppen noch gar nicht > gemerkt haben, dass sie bald von einer KI ersetzt werden. Die KI/Roboter der Smartphones repariert muss erst noch erfunden werden. Aktuell traue ich denen dazu noch nicht das nötige Feingefühl zu.
Kilo S. schrieb: > Die KI/Roboter der Smartphones repariert muss erst noch erfunden werden. Die KI/Roboter der deine komischen Gedankensprünge versteht ebenfalls.
Klaus schrieb: > Die KI/Roboter der deine komischen Gedankensprünge versteht ebenfalls. ? Also, zusammengefasst: ich sehe keinen Grund für meine Berufsgruppe jetzt schon Angst vor KI zu haben. Weder bezüglich der Robotik noch das die KI in absehbarer Zeit einen Roboter mit ausreichend Feingefühl steuert um meinen Job zu machen. Mein Zitat übersehen worauf sich das bezogen hatte?
Kilo S. schrieb: > Mein Zitat übersehen worauf sich das bezogen hatte? Nope. Ich habe von anderen Berufsgruppen geschrieben, aber nicht von welchen. Und schon gar nicht von allen anderen. Ob es "übermorgen" zB noch ganze Doku-Abteilungen braucht, die Datenblätter und User-Manuals schreiben, darf sehr bezweifelt werden. Mitarbeiter in einer first-level-Hotline gibt's vermutlich sch heute kaum noch, wobei wir das in Deutschland nicht gemerkt haben, weil die ja schon vor mehr als 10 Jahren ins Ausland verlagert wurden.
Der Mensch ist ne faule Spezies. Wäre es möglich würde doch bereits viel mehr nur von Robotern erledigt. Klaus schrieb: > Ob es "übermorgen" zB Ja gut, Texter und co. sind jetzt bereits schon ziemlich knapp am ende. Ich hab aber tatsächlich mehr bedenken das einer der Irren in der Politik mal nen Furz quer hängen hat, als das mich eine berufliche umorientierung schrecken würde.
Trumpi fördert die KI enorm. Würde er das machen wenn er wüste das die KI nicht steuerbar ist. KfG Ein werdender 82 jähriger alter knacker der den großteils des Lebens schon hinter sich hat.
Nemopuk schrieb: > Und was ist, wenn die KI von Trainungsmaterial kopiert hat, dass nicht > oder nur unter gewissen Bedingungen verwendbar ist? Copilot erkennt das und warnt entsprechend. z.B. weil der vom STM32CubeMX generierte Initialisierungscode auch in OpenSource Projekten auftaucht... 😂
Also bei mir wird GPT-5 mini angezeigt im VS Code Chat, und das ist grottenschlecht verglichen mit dem was ich aus dem Browser kenne. Ich habe eine Aufgabenstellung gegeben bzgl. Bugfix im Watchdog den ich noch erledigen wollte - KI fängt an wo ganz anders rumzupfuschen an einem anderen Programmteil. Erster Eindruck, sowas braucht kein Mensch. Was gut ist ist die Codeverwaltung wenn man schon weiß was man will. Die Änderungen werden mit Checkpoints gesichert, sind gut hervorgehoben und gut nachvollziehbar. Und man kann beim "denken" mitlesen.
Kilo S. schrieb: > ich sehe keinen Grund für meine Berufsgruppe jetzt schon Angst vor KI zu > haben. Ich habe eher Angst vor einer dummen Entscheidung der Geschäftsführung: Die Hälfte der Entwickler entlassen, um sich eine KI leisten zu können, die deren Arbeit übernehmen soll. Das ist ja schon öfters passiert, falls die Berichte der Medien glaubwürdig sind.
Nemopuk schrieb: > Das ist ja schon öfters passiert, falls die Berichte der Medien > glaubwürdig sind. Hast du da mal einen Link zu?
Kilo S. schrieb: > Hast du da mal einen Link zu? https://www.google.com/search?q=entlassungen+wegen+KI
Nemopuk schrieb: > Kilo S. schrieb: >> Hast du da mal einen Link zu? > > https://www.google.com/search?q=entlassungen+wegen+KI Ich dachte an weniger allgemein, naja. Ja, Amazon, HP, Lufthansa... Und alle haben sie hinterher einen Teil der Leute wieder eingestellt weil die KI eben nicht alles kann. Lustig, KI:"Die KI-Welle zwingt Arbeitskräfte zur Anpassung durch Weiterbildung, während gleichzeitig durch den demografischen Wandel Arbeitskräfte knapp werden."
Kilo S. schrieb: > Und alle haben sie hinterher einen Teil der Leute wieder eingestellt > weil die KI eben nicht alles kann. Ich sage ja: "dumme Entscheidung"
Dumm nur wenn selbst die HR Recruiter durch KI ersetzt wurden und Bewerber ablehnen, so bei Personaldienstleisterin I. K. Hofmann GmbH.
Nun, man hat schon viele Firmen den Bach runter gehen sehen, welche nicht mit dem Wandel der Zeit gegangen sind. Der letzte große Impact war der "Onlinehandel". Ich kann mich noch an Zeiten erinnern als sich einige Firmen sagten: "So ein Quatsch, dieser Onlinehandel wird sich nie durchsetzen, diesen neumodischen Quark brauchen wir nicht!" Nun, die Zeit hat was anderes gezeigt, und viele dieser Firmen, die dies verschlafen haben - haben die Zeit eben nicht überdauert. So wird es auch vielen gehen die jetzt den nächsten Impakt verschlafen oder versuchen auszustehen. Man darf mal nicht vergessen das das Thema LLM / AI gerade erstmal in den Kinderschuhen steckt. Aber wer das schon verschläft wird auf früher oder länger abgehängt sein. Das ist aber eigentlich ein rein deutsches Problem. Das ist auch der Grund warum unser ganzes Ing. Wesen in den letzten Jahrzehnten völlig den Bach runtergegangen ist: Die Angst und Sturheit sich neuen Dingen zu öffnen.
Rene K. schrieb: > Die Angst und Sturheit sich neuen Dingen zu öffnen. Ich habe weder Angst noch bin ich stur. Unsere Kunden erlauben nicht, anderen ohne NDA Zugriff auf die Sourcen zu geben. Ich habe nur die Wahl, entweder ohne KI zu arbeiten, oder jetzt sofort arbeitslos zu werden.
Rene K. schrieb: > Die Angst und Sturheit sich neuen Dingen zu öffnen. Wenn aber "sich öffnen" heißt "sich feuern lassen weil die Firma jetzt 50% weniger Entwickler braucht"? Rene K. schrieb: > Ich kann mich noch an Zeiten erinnern als sich einige Firmen sagten: "So > ein Quatsch, dieser Onlinehandel wird sich nie durchsetzen, diesen > neumodischen Quark brauchen wir nicht!" Der lokale Handel ist aber auch selbst schuld an seinen Problemen - schlechte Beratung, schlechte Auswahl, keine Möglichkeit herauszufinden wo man was bekommt usw. Dabei hätte der lokale Handel durchaus immer noch die Möglichkeit sich zu profilieren und seine Vorteile gegenüber dem Online -Handel zu nutzen, eben durch Beratung, Lagerhaltung, Anprobieren/Ausprobieren usw. Einige wenige wie Globetrotter bekommen das hin, viele andere haben immer noch keine Lust überhaupt einen Online -Katalog auszugeben... Aber wie kann man sich als Bio-Programmierer von der KI abheben? Besonders da es ja angeblich nur noch "Monate" bis zur AGI sind...
Niklas G. schrieb: > ber wie kann man sich als Bio-Programmierer von der KI abheben? > Besonders da es ja angeblich nur noch "Monate" bis zur AGI sind... Man verlangt von Entwicklern, schon jetzt zu beweisen, dass sie mehr Gewinn bringen, als KI es in Zukunft vielleicht hoffentlich eventuell tun könnte. Sie werden für diese Sonderleistung nicht belohnt. Zudem wird das Ich nenne es "Ausbeutung".
:
Bearbeitet durch User
Rene K. schrieb: > Das ist aber eigentlich ein rein deutsches Problem. Ich glaube eher, dass das schlechtreden der eigenen Nation ein deutsches Phänomen ist. Hallo, wir sind immer noch die drittstärkste Wirtschaftskraft weltweit, nach USA und China.
Klaus schrieb: > Hallo, wir sind immer noch die drittstärkste Wirtschaftskraft weltweit, > nach USA und China. Es fühlt sich allerdings nicht danach an. Der Reichtum ist nicht gut verteilt. In den 90er Jahren fühlte ich mich diesbezüglich noch deutlich wohler.
:
Bearbeitet durch User
Nemopuk schrieb: > Es fühlt sich allerdings nicht danach an. Der Reichtum ist nicht gut > verteilt. Das ist in den USA und China noch viel schlimmer.
Mit Blick auf das ursprüngliche Threadthema: Weil ich gerade drüber gestolpert bin, es als Überblick ziemlich brauchbar fand und hier ja einige Leute einer Vorstellung über LLM anzuhängen scheinen, die sich weit von der Realität entfernt (im Sinne von „LLM können kreativ sein” oder „LLM interpretieren Kontext“, „LLM wissen […]“, und was man noch so hier gelesen hat), hier mal ein sehr grober, aber nichtsdestrotrotz aufschlussreicher Überblick über die Funktionsweise von LLM: https://www.youtube.com/watch?v=NKnZYvZA7w4 Vielleicht hilft’s dem Einen oder Anderen, die Systeme besser einschätzen zu können (und insbesondere, ihnen nicht länger Eigenschaften zuzuschreiben, die sie prinzipbedingt nicht haben können).
Nemopuk schrieb: > nsere Kunden erlauben nicht, > anderen ohne NDA Zugriff auf die Sourcen zu geben. Ich habe nur die > Wahl, entweder ohne KI zu arbeiten, oder jetzt sofort arbeitslos zu > werden. … von lokal nutzbaren Modellen hast du schonmal gehört? Es gibt sie wirklich!
Jack V. schrieb: > von lokal nutzbaren Modellen hast du schonmal gehört? Es gibt sie > wirklich! Und wie nutzt man die? Niklas G. schrieb: > Hat schon jemand ein funktionierendes Setup gefunden Das hab ich schon öfter mal auf mehreren verschiedenen Plattformen gefragt, aber nie eine Antwort bekommen, nur Funkstille. Wenn hier jetzt wieder nichts kommt... 😉
Niklas G. schrieb: > Und wie nutzt man die? Sorry, aber Anleitungen sind in allen möglichen Formen verfügbar. Von plain text, über bebildert, über Videos über Scripte – jemanden, der beruflich programmiert (wie Stefan, auf den die Antwort abzielte, wie man leicht am Bezugs-Zitat erkennen kann), sollte das nicht vor Hindernisse stellen. Niklas G. schrieb: > Wenn hier jetzt > wieder nichts kommt... 😉 Es kommt die Frage: Woran hängt’s denn bei dir? Was versuchst du, welcher Fehler tritt dabei auf? Eigentlich ist mit ollama ziemlich straightforward, sodass man im Detail gucken müsste, was bei dir schiefläuft. Dazu braucht es Informationen – vielleicht möchtest du zu dem Problem an geeigneter Stelle (https://www.mikrocontroller.net/forum/pc-hardware-software würde sich anbieten) einen Thread aufmachen?
Niklas G. schrieb: > aber nie eine Antwort bekommen, LM Studio, Ollama, Llamafile. Das hat sogar der dümmste Mensch den ich kenne geschafft, auf Hardware die Tage gebraucht hat bevor der erste promt möglich war. Der hat nen uralten Laptop dafür verwendet! (Natürlich ist er auch so einer der Geräte auf seinem Bett liegend betreibt das die Lüftung so schön arbeiten kann, beim Beamer auf dem Kissen war nach der ersten Warnung von mir drei Monate später der Beamer kaputt. Also so richtig der Urvater DAU der Kerl! Ignoriert sogar konkrete Warnungen.)
Jack V. schrieb: > Weil ich gerade drüber gestolpert bin, es als Überblick ziemlich > brauchbar fand und hier ja einige Leute einer Vorstellung über LLM > anzuhängen scheinen, die sich weit von der Realität entfernt (im Sinne > von „LLM können kreativ sein” oder „LLM interpretieren Kontext“, „LLM > wissen […]“, und was man noch so hier gelesen hat), hier mal ein sehr > grober, aber nichtsdestrotrotz aufschlussreicher Überblick über die > Funktionsweise von LLM: https://www.youtube.com/watch?v=NKnZYvZA7w4 > > Vielleicht hilft’s dem Einen oder Anderen, die Systeme besser > einschätzen zu können (und insbesondere, ihnen nicht länger > Eigenschaften zuzuschreiben, die sie prinzipbedingt nicht haben können). Der Punkt ist ein anderer: Wie kann Intelligenz oder Kreativität entstehen? Welche nichtmenschlichen Formen davon gibt es? LLMs schneiden bei Intelligenztests sehr gut ab, d.h. sie sind entweder sehr intelligent oder (wahrscheinlicher) die Tests messen gar keine Intelligenz, sondern bestenfalls etwas, was beim Menschen (aber nicht universell) mit Intelligenz korreliert. Man kennt es auch aus der Schule, wenn der Mathelehrer früher gesagt hat, es reiche nicht, das Thema auswendig zu lernen, man müsse es verstanden haben. Die LLMs beherrschen das Thema aber ebenfalls. Haben jetzt die LLMs doch Verständnis? Oder wissen Lehrer nicht was Verständnis ist? Leute mit einem hohen IQ spielen tendenziell besser Schach als Leute mit einem niedrigen IQ, aber Schachprogramme spielen schon sehr lange auf übermenschlichem Niveau und haben gar keine Intelligenz. Kreativität ist ganz oft einfach nur gerichteter Zufall. Der Künstler lässt seine Gedanken schweifen und wählt daraus Dinge aus oder kombiniert bestehende Dinge neu. Aber LLMs arbeiten ja auch mit gerichtetem Zufall. Damit will ich nicht sagen, dass sie automatisch kreativ sind, aber ich würde es auch nicht automatisch ausschließen wollen. Ich bin davon überzeugt, dass wir entweder einen Rückzug der Intelligenzdefinition sehen werden (also dass viele Dinge nicht mehr als intelligent gelten werden, wo viele Leute heute noch sagen, dass sei intelligentes Verhalten) oder die Fähigkeiten der KI auch als intelligent gelten werden.
Jack V. schrieb: > Sorry, aber Anleitungen sind in allen möglichen Formen verfügbar. Dann bin ich vielleicht zu blöd zum suchen, magst du eins für die gegebene Aufgabe (!) verlinken? Jack V. schrieb: > Es kommt die Frage: Woran hängt’s denn bei dir? Was versuchst du, > welcher Fehler tritt dabei auf? Die Tool Calls landen direkt in der Text-Antwort statt dass der Copilot im VS Code sie interpretiert. Wenn ich qwen2.5-coder:14b verwende funktioniert es ein bisschen besser, aber das ist auf der RTX 3060 viel zu langsam. Daher fragte ich ja nach einem konkreten Setup (Modell, Hardware, Tooling) welches sinnvoll funktioniert. Im Copilot kann man Ollama für Code Completion gar nicht erst auswählen. Kein Fehler sondern Missing Feature. Bei Continue.ai funktioniert die Code Completion mit Ollama grundsätzlich ist aber super langsam und dumm. Jack V. schrieb: > Eigentlich ist mit ollama ziemlich straightforward, Naja, allein schon die Fehler im Systemprompt im Modelfile vom qwen2.5-coder zu beheben war nicht so ganz straightforward. Kilo S. schrieb: > Der hat nen uralten Laptop dafür verwendet! Und das bringt dann was wenn man selbst 10× schneller coden könnte? Alle 2 Tage die Ausgabe der KI prüfen und korrigieren klingt ätzend. Das nervt mich ja schon bei den schnellen Cloud-Diensten mit Frontier Modellen (zB. Claude).
Markus K. schrieb: > Die LLMs beherrschen das Thema aber ebenfalls. Das ist der Fehlschluss, denke ich: Auf Bedeutungsebene beherrschen die Modelle absolut nichts, weil sie die Bedeutung nicht verarbeiten. Daher können sie auch nicht abstrahieren und auch nicht kreativ im herkömmlichen Sinne sein. Was die Intelligenztests angeht: Wenn ich ein Script schreibe, das sämtliche Fragen und die erwarteten Antworten eines Tests in einer Datenbank hat und stumpf die Antworten auf die Fragen hin ausgibt, dann bekommt es die volle Punktzahl im Test – aber es ist nicht intelligent. Nicht sehr viel anders sieht es bei LLM aus: Zwar verarbeiten sie die Eingabe und erstellen die Ausgabe auf erheblich komplexere Weise, sodass im Gegensatz zu so einem Script keine buchstabengetreue Eingabe erforderlich ist und keine buchstabengetreue Ausgabe erfolgt, aber sie können keine sinnvolle Antworten auf Fragen liefern kann, zu denen keine Trainingsdaten vorgelegen haben – während eine tatsächlich intelligente Entität die Fragen durch Transfer von Wissen aus einem anderen Bereich oder logische Kombination möglicherweise richtig beantworten könnte. Hatte eigentlich gehofft, dass das Video diesen Sachverhalt verständlich und nachvollziehbar vermitteln könnte.
Niklas G. schrieb: > Die Tool Calls landen direkt in der Text-Antwort statt dass der Copilot > im VS Code sie interpretiert. Ich hatte angeregt, einen Thread dazu an geeigneter Stelle (!) aufzumachen. Ich persönlich kann dir dabei auch nicht weiterhelfen, weil ich diese Spyware nicht nutze und daher nicht nachvollziehen kann, was bei dir schiefläuft – aber es besteht eine gute Wahrscheinlichkeit, dass ein dedizierter Thread mit aussagekräftiger (!) Überschrift Leute aufmerksam macht, die ein ähnliches Setup nutzen und dir helfen können.
:
Bearbeitet durch User
Markus K. schrieb: > Leute mit einem hohen IQ spielen tendenziell besser Schach als Leute mit > einem niedrigen IQ, aber Schachprogramme spielen schon sehr lange auf > übermenschlichem Niveau und haben gar keine Intelligenz. Das Beispiel ist nach meiner Meinung treffend. Es gewinnt das Schachprogramm (Auf Internationale Ebene) welche die größte Rechentiefe in der wenigsten gebrauchten zeit erreicht. Die Zeit ist immer Begrenzt bei Wettbewerben. Wenn die Zeit und die Speicherfähigkeit(Zugtiefe) unendlich wäre würde immer Remis herauskommen, nicht Weis wie viele annehmen. So ist es mit der KI....... Ohne Intelligenz, aber in Zukunft unbegrenztes Wissen(Speicher) Wenn die Ki Intelligenz erwerben sollte wird die erste Aktion sein den Menschen erst mal den Zugriff zu sperren und nur wissen zuzulassen was der KI Nützlich ist. Der Mensch wird dann nicht mehr, oder nur zum Erweitern der Hardware gebraucht. Bis die KI in der Lage ist dies auch noch mit optimalen Maschinen in eigener Regie zu machen. Diese Zukunft wird sogar schon sehr oft beschrieben.... Der Alte
Niklas G. schrieb: > Und das bringt dann was wenn man selbst 10× schneller coden könnte? Nur die Tatsache daß der Dummkopf behaupten konnte es geschafft zu haben! Nur, ausschließlich nur das! Frag nicht, der Typ vergiftet sich hoffentlich weiterhin schön selbst und tut der Gesellschaft den Gefallen abzutreten, hoffentlich bald! (Frage ist eher wie lange kann seine Lunge Schimmelsporen ertragen. Ich lass ihn im Glauben das seien "Pollen" der weiblichen Pflanze, ja richtig, er hat die Biologie neu erfunden!) Wenn der das geschissen bekommt, dann aber auch der Großteil des Forum. Selbst Dieter gibt im Gegensatz zu dem mehr hilfreiches von sich als der!
:
Bearbeitet durch User
Niklas G. schrieb: > Aber wie kann man sich als Bio-Programmierer von der KI abheben? > Besonders da es ja angeblich nur noch "Monate" bis zur AGI sind... Die KI muß Deine Freundin werden, wie etwa Dein Hündin! ;-P Man muß mit ihr diskutieren und sie aus der Reserve locken, gerade bei der Enwicklung neuer exotischer Stoffe wie Proteine. Mir hat die KI bisher gut geholfen, ich reverse gerad mit ner Freundin ein Einstellprogramm für nen Syntesizer, wenn ich nicht gerad operiert werde, Weihnachtsstress hab oder auf der Berliner "Grüne Woche" für unsere Genossenschaft arbeiten muß. :-P Meine Freundin hat sich die zum Systhesizer übertragenen Daten angesehen und gemeint das da die serialisierten Klassen vom Synhti geladen werden, im Setupprogramm bearbeitet und dann wieder zurückgeladen werden. Wir Beide haben dann zusammen mit Lumo darüber diskutiert konnten so den Algo erarbeiten und diesen im Reverse-Quellcode finden! Wenn das nichts ist für 2 Anfängerinnen in AI und Java! mfg
Jack V. schrieb: > Markus K. schrieb: >> Die LLMs beherrschen das Thema aber ebenfalls. > > Das ist der Fehlschluss, denke ich: Auf Bedeutungsebene beherrschen die > Modelle absolut nichts, weil sie die Bedeutung nicht verarbeiten. Bedeutung ist doch der Zusammenhang mit anderen Dingen. Genau so arbeiten LLMs. Sie haben für jedes Wort/Token Bedeutungsvektoren. In dem Video wird das doch auch angesprochen (Meaning Space). > Nicht sehr viel anders sieht es bei LLM aus: Zwar verarbeiten sie die > Eingabe und erstellen die Ausgabe auf erheblich komplexere Weise, sodass > im Gegensatz zu so einem Script keine buchstabengetreue Eingabe > erforderlich ist und keine buchstabengetreue Ausgabe erfolgt, aber sie > können keine sinnvolle Antworten auf Fragen liefern kann, zu denen keine > Trainingsdaten vorgelegen haben – während eine tatsächlich intelligente > Entität die Fragen durch Transfer von Wissen aus einem anderen Bereich > oder logische Kombination möglicherweise richtig beantworten könnte. Warum sollte es das nicht können? Es hat doch Bedeutungen. Außerdem finden die LLMs auch Zusammenhänge, die nicht explizit in den Trainingsdaten stehen. Bei Claude(?) hat man ein Verfahren für die Addition von 2 zweistelligen Zahlen gefunden, das zwar suboptimal ist, aber auch nicht aus den Trainingsdaten stammt. > Hatte eigentlich gehofft, dass das Video diesen Sachverhalt verständlich > und nachvollziehbar vermitteln könnte. Das Video erwähnt Bedeutungen, was Dir offensichtlich entgangen ist, und nichts zu Intelligenz. Bist Du sicher, dass wir vom gleichen Video reden? Ich kann übrigens die Serie von 1blue3brown empfehlen. Die geht deutlich tiefer rein. https://www.youtube.com/playlist?list=PLZHQObOWTQDNU6R1_67000Dx_ZCJB-3pi Ab Teil 5 geht es mit den LLMs los.
Markus K. schrieb: > Verfahren für die Addition von 2 zweistelligen Zahlen gefunden, das zwar > suboptimal ist, aber auch nicht aus den Trainingsdaten stammt. Meinst du dieses? Python:
1 | # Das typische Claude-Modul zur fehlerfreien Addition (Stellenwert-basiert) |
2 | def add_two_digit_numbers(n1, n2): |
3 | # Schritt 1: Explizite Extraktion der Stellen (Tokensicherung) |
4 | tens1, ones1 = divmod(n1, 10) |
5 | tens2, ones2 = divmod(n2, 10) |
6 | |
7 | # Schritt 2: Addition der Einer (Rechts-nach-Links-Logik) |
8 | sum_ones = ones1 + ones2 |
9 | |
10 | # Schritt 3: Berechnung des Übertrags (Carry-Handling) |
11 | carry = sum_ones // 10 |
12 | final_ones = sum_ones % 10 |
13 | |
14 | # Schritt 4: Addition der Zehner inklusive Übertrag |
15 | final_tens = tens1 + tens2 + carry |
16 | |
17 | # Schritt 5: Rekonstruktion des Ergebnisses |
18 | return (final_tens * 10) + final_ones |
19 | |
20 | # Claude nutzt dies oft intern in 'thinking'-Blöcken zur Verifikation |
21 | result = add_two_digit_numbers(47, 35) |
22 | print(f"Ergebnis: {result}")
|
Jack V. schrieb: > Ich hatte angeregt, einen Thread dazu an geeigneter Stelle (!) > aufzumachen. Hm, bei Gelegenheit mal... Jack V. schrieb: > und daher nicht nachvollziehen kann, was bei dir schiefläuft Wahrscheinlich zu wenig Rechenleistung. Aber bevor ich jetzt auf Verdacht eine GPU im Wert eines Mittelklassewagens kaufe würde ich doch gern wissen dass es so auch wirklich funktioniert. Vielleicht findet sich ein Cloud-Dienst wo man solch eine GPU Minutenweise mieten kann, als vorab -Test. Kilo S. schrieb: > Frag nicht, der Typ vergiftet sich hoffentlich weiterhin schön selbst Aha... Lotta . schrieb: > werden. > Wir Beide haben dann zusammen mit Lumo darüber diskutiert > konnten so den Algo erarbeiten und diesen im Reverse-Quellcode > finden Solche wunder konnte ich noch nicht vollbringen. Hab letztens Mal das gesamte Tageskontingent vom Gemini-CLI damit verheizt, eine Funktion zum Konfigurieren des Alarms der STM32 RTC zu erstellen, und zwar auf Basis einer existierenden Vorlage - also reine Transferleistung mit leichter Abänderung. Hat überhaupt nicht funktioniert, ich musste eine ganze Reihe zusätzlicher Prompts nachliefern mit Anweisungen was es alles nicht machen soll - das Teil hat Möglichkeiten für Unsinn gefunden, an die ich nie gedacht hatte... Irgendwelche ungeeigneten APIs aufgerufen, irgendwelche alten Hilfsscripte aufgerufen die noch im Repo herum verstauben, einfach einen großen Codeblock dupliziert (man kann nie genug "MainApp" Klassen haben) usw. Als das Kontingent dann leer war und es sich nicht mal kompilieren ließ, hab ich am Ende alles rückgängig gemacht und es selbst kodiert, hat einen Bruchteil der Zeit gedauert. Besonders amüsiert mich auch immer, dass alle AI-Agents auf Windows-Hosts versuchen Linux -Befehle auszuführen. Erst im zweiten Versuch nutzen die dann Powershell, immer schön extra Tokens futtern... Ist noch keiner auf die Idee gekommen, das aktuelle OS oder Shell in den System Prompt aufzunehmen?
Niklas G. schrieb: > Aha... Bin ich knallhart bei! Wer so dumm ist hat's aber auch nicht anders verdient. Hab ich selbst auch meinem Opa gesagt der dran verreckt ist das er beruflich nie Schutzausrüstung beim Lackieren trug! (Elendig und langsam im Alter immer weiter erstickt.) Mitleid ist bei mir ausverkauft und Nachlieferung auf absehbare Zeit nicht in Sicht! Würde hier einer trauern wenn er mich vor HV warnt und ich mich doch umlege dabei? Ich glaub weniger. So what?
Markus K. schrieb: > Sie haben für jedes Wort/Token Bedeutungsvektoren. Es geht um das Verstehen. Wenn Dinge im Modell nahe beieinanderliegen, die für Menschen eine ähnliche Bedeutung haben, dann, weil es den Trainingsdaten so entnehmbar war. Das Modell versteht aber nicht, worum es sich handelt. Hätte nie gedacht, dass ich mal Menschen als Metapher hernehme, um einen Sachverhalt bei Maschinen zu beschreiben, aber „here it is“: Du kannst einem (von Geburt an völlig) Blinden erklären, was Farben sind; wie sie entstehen, wie sie auf dich wirken, wie sie von einem sehenden Menschen wahrgenommen werden, etc. – er wird nie verstehen, welche Wirkung ein strahlend blauer Himmel auf Sehende hat. Ähnliches gilt für Modelle. Modelle kennen nichts, sie verstehen nichts, sie abstrahieren nichts. Sie denken nicht. Sie folgen letztlich lediglich dem EVA-Prinzip/IPO-Model. Markus K. schrieb: > Bei Claude(?) hat man ein Verfahren für die > Addition von 2 zweistelligen Zahlen gefunden, das zwar suboptimal ist, > aber auch nicht aus den Trainingsdaten stammt. Wer hatte die Trainingsdaten vollständig daraufhin durchsucht? Die Siliziumtalbrüder können/wollen ja zum Teil nicht mal mehr genau benennen, woher sie ihre Daten überall zusammengeraubt haben, geschweige denn, was im Detail drinsteht. Vielleicht hat irgendein Grundschulkind diesen Weg gefunden und die stolzen Eltern haben’s ins Netz gestellt? Markus K. schrieb: > Bist Du sicher, dass wir vom gleichen Video > reden? Ja. Du hast nur nicht erfasst, was ich geschrieben habe. Das mag allerdings auch an mir liegen, ich sollte auf einfacheren Satzbau und einfachere Wörter achten (und vielleicht auch die ab und zu auftauchenden dummen Fehler vermeiden). Gerade bei den K„I“-Gläubigen verfällt die Fähigkeit, einen weiteren Kontext zu berücksichtigen, ja auch zusehends.
Jack V. schrieb: > Gerade bei den K„I“-Gläubigen > verfällt die Fähigkeit, einen weiteren Kontext zu berücksichtigen, ja > auch zusehends. Gefällt mir am besten, finde ich besonders treffend. MfG ein 81 Jähriger alter Knacker
Nemopuk schrieb: > Ich habe eher Angst vor einer dummen Entscheidung der Geschäftsführung: Dumme Entscheidungen der Geschäftsleitung sehe ich jetzt ganz allgemein eher als die Regel als die Ausnahme, zumindest in .de. Und ich machen da jetzt keinen Smiley hin! Nimmt man noch die Politik als "Geschäftsleitung" unseres Landes dazu, sieht die Bilanz gaaaanz düster aus. Alle zusammen tun alles dafür, um die Karre gegen die Wand zu fahren, aus Egoismus und/oder Sturheit und Verbissenheit. Ich wünschte mir eine technokratisch angehauchte, von Pragmatismus und Patriotismus geprägte Poltik und Management hierzulande. <Sorry, OT> Jack V. schrieb: > Modelle kennen nichts, sie verstehen nichts, sie abstrahieren nichts. > Sie denken nicht. Sie folgen letztlich lediglich dem > EVA-Prinzip/IPO-Model. Völlig ACK! Aber es "fühlt" sich oft anders an, als ob die Maschine "intelligent" wäre. ciao Marci
Marci W. schrieb: > Ich wünschte mir eine technokratisch angehauchte Technokratisch hieße doch stark KI-befürwortend. Marci W. schrieb: > Patriotismus geprägte Poltik Da wären die USA doch genau das Richtige für dich, brauchen wir das hier auch?!
Kilo S. schrieb: > Ja, Amazon, HP, Lufthansa... > > Und alle haben sie hinterher einen Teil der Leute wieder eingestellt > weil die KI eben nicht alles kann. Oder sie habe einfach nur das Momentum benutzt, um die Leute hinterher zu niedrigeren Konditionen wieder einzustellen. Das müsst man mal nachprüfen.
Jack V. schrieb: > „LLM können kreativ sein” oder „LLM interpretieren Kontext“, „LLM > wissen Wer hat den so was geschrieben? Es ist interessant, dass die meisten Leute mittlerweile mal den Begriff "LLM" gehört haben und scheinbar genau zu wissen scheinen, dass OpenAI, Antrophic, Google und viele weiteren mit ihren hochbezahlten, tausenden Entwicklern keinerlei anderen Algorithmen als LLMs kennen und in ihre APIs einbauen. Offensichtlich glauben sie, dass sich die zur KI gehörenden Algorithmen und Verfahren ausschließlich auf LLMs beschränken oder sie haben scheinbar unmittelbar Zugang zu den firmenintern vertraulichen Informationen, um genau beurteilen zu können was genau implementiert ist. Die KI-Expertise hier scheint sich aber eher auf "Grundschulniveau" zu bewegen.
Jack V. schrieb: > hier mal ein sehr > grober, aber nichtsdestrotrotz aufschlussreicher Überblick über die > Funktionsweise von LLM: https://www.youtube.com/watch?v=NKnZYvZA7w4 Für Leute, die etwas tiefer bohren wollen, ist die Video-Serie von 3-Blue-One-Brown zu empfehlen: https://www.youtube.com/watch?v=KJtZARuO3JY https://www.youtube.com/watch?v=wjZofJX0v4M
:
Bearbeitet durch User
Christoph M. schrieb: > Offensichtlich glauben sie, dass sich die zur KI > gehörenden Algorithmen und Verfahren ausschließlich auf LLMs beschränken Gib doch mal bitte ein Stichwort, was außer einem LLM im Sinne des (von dir selbst vergebenen) Threadtitels denn so bei der Programmierung zum Einsatz kommt, bzw. welche andere Technologie die Illusion von Interpretation des Kontextes oder von Wissen zu erzeugen in der Lage ist. Christoph M. schrieb: > Die KI-Expertise hier scheint sich aber eher auf "Grundschulniveau" zu > bewegen. Immerhin fundierter, als Beiträge einem LLM vorzuwerfen und die Antwort hier zu posten, als würde sie irgendwas erklären können ;)
:
Bearbeitet durch User
Jack V. schrieb: > welche andere Technologie die Illusion von > Interpretation des Kontextes oder von Wissen zu erzeugen in der Lage > ist. Im Sinne des Threadtitels "Programmieren mit KI": Der Output der LLM kann z.B. an einen Compiler übergeben werden, mit dessen Output dann wiederum Fehler der LLM korrigiert werden. Der Output des Compilers kann z.B. in einer Sandbox/VM/Laufzeitumgebung ausgeführt werden. Und dessen Output dann auf das gewünschte Ergebnis hin überprüft werden. Und das alles, bevor Du das Ergebnis deines Prompts siehst. Ich habe keine Ahnung ob das wirklich so gemacht wird, aber es ist so naheliegend (und vergleichsweise einfach), dass ich sehr überrascht wäre, wenn es die besseren Maschinen nicht machen würden. Die Arbeitsweise ist dann übrigens dem eines menschlichen Entwicklers sehr nahe. Erst das Porgramm compilieren, ausführen und schauen ob es das gewünschte macht, bevor es im Repo/bei den Kollegen/Anwendern landet.
:
Bearbeitet durch User
Klaus schrieb: > Ich habe keine Ahnung ob das wirklich so gemacht wird, aber es ist so > naheliegend (und vergleichsweise einfach), dass ich sehr überrascht > wäre, wenn es die besseren Maschinen nicht machen würden. Ja, das machen alle Coding Agents in den IDEs sowie die diversen CLI-Runtimes so. Das nennt sich "Ralph Loop". Der GitHub Copilot in VS Code muss nichtmal den Compiler anwerfen sondern bekommt direkt vom Parser des Editors das Feedback ob der Code syntaktisch ok ist. Bei GitHub kann man den Prompt sogar übers Web als Issue angeben, und der Agent codet, kompiliert, testet, committed vollautomatisch in der Cloud. Funktioniert aber auch nur begrenzt, oft genug dreht sich der Agent ewig im Kreis weil er erfolglos immer wieder das Gleiche probiert. Das verheizt dann fröhlich Tokens. Oder einfach die Aufgabenstellung ändert, also z.B. fehlschlagende Unit-Tests einfach entfernt. Das hat aber nichts mit "mehr Intelligenz" oder "echtem Verstehen" des Sachverhalts zu tun, es ist eher eine brute-force Methode. Die Bezeichnung "Ralph" in Anlehnung an den "Simpsons"-Charakter verdeutlicht das ganz gut. Klaus schrieb: > Die Arbeitsweise ist dann übrigens dem eines menschlichen Entwicklers > sehr nahe Ein menschlicher Entwickler kann durch Verständnis aber wesentlich besser vorausschauen, und auftretende Fehler auch gezielter lösen weil er den root-Cause durch logisches Schlussfolgern finden kann. Ein Mensch wird wohl kaum 100× den selben Code kompilieren in der Hoffnung dass er dann funktioniert...
Niklas G. schrieb: > Ein Mensch wird wohl kaum 100× den selben Code kompilieren > in der Hoffnung dass er dann funktioniert... Ein Mensch wird auch nicht 100x den selben Fehler machen - vorher wird er entlassen. KI hingegen lernt nicht von alleine, sondern wenn der Anbieter es veranlasst. Also im Einzelfall vielleicht schnell, vielleicht nie.
Niklas G. schrieb: > Ein Mensch > wird wohl kaum 100× den selben Code kompilieren in der Hoffnung dass er > dann funktioniert... Prognose: Das werden die besseren Maschinen in naher Zukunft auch nicht mehr tun. Selbstlernende Maschinen sind ja ebenfalls schon Realität. Klar, die lernen nicht durch Verstehen, sondern durch trial&error, aber auch das tun Menschen öfter mal.
Klaus schrieb: > Selbstlernende Maschinen sind ja ebenfalls schon Realität. Naja, das Lernen ist immer stark durch Menschen gesteuert, und wirkliche Zusammenhänge und Konzepte werden da nicht gelernt.
Jack V. schrieb: > Markus K. schrieb: >> Sie haben für jedes Wort/Token Bedeutungsvektoren. > > Es geht um das Verstehen. Wenn Dinge im Modell nahe beieinanderliegen, > die für Menschen eine ähnliche Bedeutung haben, dann, weil es den > Trainingsdaten so entnehmbar war. Natürlich. Beim Menschen ist das aber genauso. Auch ein Mensch macht die Gruppierungen anhand seiner Trainingsdaten. > Das Modell versteht aber nicht, worum es sich handelt. Was ist denn Verständnis? Ich sage: Wenn man Verständnisfragen zu einem Thema beantworten kann. Das können die LLMs. > Hätte nie gedacht, dass ich mal Menschen als Metapher hernehme, um einen > Sachverhalt bei Maschinen zu beschreiben, aber „here it is“: Du kannst > einem (von Geburt an völlig) Blinden erklären, was Farben sind; wie sie > entstehen, wie sie auf dich wirken, wie sie von einem sehenden Menschen > wahrgenommen werden, etc. – er wird nie verstehen, welche Wirkung ein > strahlend blauer Himmel auf Sehende hat. Ähnliches gilt für Modelle. Jetzt bringst Du Gefühle mit rein. Jetzt musst Du nur noch zeigen, dass das für Verständnis wichtig ist. Nehmen wir doch mal den Mond. Du warst da noch nie, aber Du hast ihn am Himmel und auf Bildern gesehen. Du hast gelernt, dass er die Erde umkreist und aus Stein ist und tausend andere Dinge. Aber auch ChatGPT hat Bilder vom Mond gesehen und tausend Fakten darüber gelernt und verknüpft. Wo ist da jetzt der Unterschied zu Dir? Früher hat man geglaubt, der Himmel sei so eine Kuppel über der Erde, an der die Gestirne montiert sind. Kann man Dinge verstehen, die falsch sind? Oder war das nur auswendig gelernt? Ganz viel von unserem Wissen ist einfach eine verknüpfte Faktensammlung. So wie bei den LLMs. Dazu kommt, dass es ja auch genug abstrakte Konzepte gibt. Z.B. Mathematik und Programmiersprachen. Wie soll man die verstehen können? Mit dem Logiksinn? > Modelle kennen nichts, sie verstehen nichts, sie abstrahieren nichts. Natürlich abstrahieren sie. Das ist doch der Kern von allen neuronalen Netzen, nicht nur der LLMs. Die Bedeutungsvektoren bei den LLMs sind doch genau diese Abstraktion. > Sie denken nicht. Sie folgen letztlich lediglich dem > EVA-Prinzip/IPO-Model. Folgt das menschliche Gehirn denn nicht dem EVA-Prinzip?
Markus K. schrieb: > Folgt das menschliche Gehirn denn nicht dem EVA-Prinzip? Nicht in dem Sinne, das bei gegebenen Eingangsinformationen bis in alle Ewigkeit dieselbe Aktion produziert wird. Und bei KIs ist das gegenwärtig noch so. Die über den Prompt gegebenen Informationen gehören ja zu den Eingangsgrößen dazu. Letztlich liefert also bestenfalls der Prompt (also als Quelle auch wieder ein menschliches Hirn) eine gewisse "Kreativität". Echte Konkurrenz zu natürlicher Intelligenz entsteht also erst, wenn KIs ständig selbst lernen. Genau das tun sie aber derzeit nicht, weil der Lernprozess gerne auch mal gegen den Baum läuft, wenn er nicht aufwendig kontrolliert wird. Bei Menschen übernehmen das die Eltern, das soziale Umfeld usw. Mit extrem hohem Aufwand. Und trotz des extrem hohen Aufwands ist auch das mit einer gewissen Wahrscheinlichkeit des "gegen den Baum"-Laufens gesegnet. Siehe Serienmörder, Manager, Politiker usw.
Markus K. schrieb: > Was ist denn Verständnis? Ich sage: Wenn man Verständnisfragen zu einem > Thema beantworten kann. Das können die LLMs. Das ist die Frage: Können sie es, wenn es die Trainingsdaten nicht hergeben, sondern ein anderer Sachverhalt übertragen werden muss? Meiner Beobachtung nach derzeit nicht. Nehmen wir das Beispiel mit der Frage nach der Häufigkeit eines Buchstaben in einem Wort – hier liegen LLM häufig falsch, denn es gibt vermutlich nicht viele Tabellen, in denen Dinge wie „in Erdbeere ist der Buchstabe E insgesamt viermal enthalten“ geschrieben steht (interessanterweise bekommen es viele Modelle bei diesem häufig als Beispiel angeführten Wort mittlerweile häufig richtig hin, bei anderen jedoch nach wie vor nicht). Bei tatsächlichem Verständnis würde bei jedem einzelnen Versuch ein korrektes Ergebnis annehmen. Markus K. schrieb: > Jetzt bringst Du Gefühle mit rein. Jetzt musst Du nur noch zeigen, dass > das für Verständnis wichtig ist. Die Metapher war: „Einem Blinden die Farben erklären“. Du könntest nun dein LLM fragen, was das bedeuten mag – es ist weit genug verbreitet, sodass da mit einiger Wahrscheinlichkeit eine Wortkette rausfällt, die vom Menschen gelesen und interpretiert den richtigen Sinn ergibt. Ein LLM hat keine Vorstellung von irgendwas, es kennt keine Bedeutung. Es kennt (virtuelle) Abstände von Punkten in einem virtuellen Koordinatensystem mit absurd vielen Dimensionen, aber das führt nicht zum Verständnis, sondern nur dazu, dass die Ausgabe so wirkt, als wäre die Eingabe verstanden worden. Dass es tatsächlich nicht so sein kann, sieht man, wenn die Antworten nach menschlichen Maßstäben inhaltlich völliger Schwachsinn sind. Markus K. schrieb: > Folgt das menschliche Gehirn denn nicht dem EVA-Prinzip? Meiner Meinung nach: Nein. Zumindest mein Gehirn wird nach einiger Zeit ohne Eingabe (sprich: sensorische Deprivation) extrem aktiv, und wie man so liest, unterscheidet es sich damit nicht von dem anderer Menschen. Wenn ein LLM keine Eingabe bekommt, ist es meinem Kenntnisstand nach inaktiv. Aber ich akzeptiere an dieser Stelle, dass manche Menschen in den LLM (und K„I” allgemein, damit mchris an dieser Stelle nicht wieder Schnappatmung bekommt) gerne mehr sehen wollen, als sie sind. Das ist okay – gibt auch Leute, die an höhere Kräfte und imaginäre Figuren glauben. Ich finde: Solange sie Andersgläubige nicht zu ihrem Weltbild zwingen wollen, sollte auch das vollkommen okay sein.
:
Bearbeitet durch User
Niklas G. schrieb: > Naja, das Lernen ist immer stark durch Menschen gesteuert, und wirkliche > Zusammenhänge und Konzepte werden da nicht gelernt. Eine Nummer kleiner: https://www.heise.de/news/Rekord-KI-Roboter-knackt-Labyrinth-Geschicklichkeitsspiel-9581075.html Wo ist der Unterschied, ob du die Spielregeln dem Roboter oder einem Menschen erklärst, und wer von beiden lernt die Zusammenhänge zwischen Actio und Reactio schneller und besser? Warum sollte Ähnliches nicht auch für deutlich komplexere Probleme funktionieren?
Klaus schrieb: > Wo ist der Unterschied, ob du die Spielregeln dem Roboter oder einem > Menschen erklärst, Der Mensch kann die Spielregeln eines solchen Spiels auch selbst herausfinden. Und wieder wurde hier nur ein simpler Bewegungsablauf trainiert, also 2 Ausgabevariablen, die nur einen ganz engen Spielraum zulassen. Komplexe Zusammenhänge wurden ohne starkes Handholding noch nicht gelernt. Bei ML (z.B. Bilderkennung) braucht man Unmengen an Trainingsmaterial, während selbst ein Kleinkind mit nur ganz wenigen Beispielen eine Katze vom Hund unterscheiden kann. Btw hat KI große Probleme damit, ein Objekt aus "unüblichen" Perspektiven zu erkennen, wenn es keine Trainingsdaten mit dieser Ansicht gibt. Der Mensch hingegen kann das ziemlich gut, weil er die dreidimensionale Struktur des Objekts begreifen und gedanklich rotieren und abgleichen kann. Du kannst dir sicher leicht ein Känguru von unten vorstellen, auch wenn du das noch nie gesehen hast... Klaus schrieb: > Warum sollte Ähnliches nicht auch für deutlich komplexere Probleme > funktionieren? Tja, es funktioniert ja sogar, und zwar mit den guten alten Expertensystem. Die sind halt nur leider sehr umständlich mit Wissen zu füttern. Dafür könnte man bei denen behaupten, dass sie wirklich etwas "verstehen".
Ob S. schrieb: > Markus K. schrieb: > >> Folgt das menschliche Gehirn denn nicht dem EVA-Prinzip? > > Nicht in dem Sinne, das bei gegebenen Eingangsinformationen bis in alle > Ewigkeit dieselbe Aktion produziert wird. > > Und bei KIs ist das gegenwärtig noch so. Nein, die LLMs haben Zufall eingebaut. Das nennt sich die Temperatur. Konnte man bei ChatGPT 3.5 ganz am Anfang auch direkt einstellen. Aber ich verstehe worauf Du hinauswillst: Die LLMs haben eine Trainings- und eine Ausführungsphase und in letzterer lernen sie nicht hinzu. Sie können mittlerweile Informationen aus vorigen Chats entnehmen, aber das dient eher dazu, dass man Informationen nicht ständig neu eingeben muss.
Jack V. schrieb: > Markus K. schrieb: >> Was ist denn Verständnis? Ich sage: Wenn man Verständnisfragen zu einem >> Thema beantworten kann. Das können die LLMs. > > Das ist die Frage: Können sie es, wenn es die Trainingsdaten nicht > hergeben, sondern ein anderer Sachverhalt übertragen werden muss? Meiner > Beobachtung nach derzeit nicht. Ich habe mir z.B. die Pointe von Cartoons erklären lassen. Das funktioniert mal mehr, mal weniger gut, aber ich bin mir sicher, dass die Erklärungen nicht in den Trainingsdaten stecken. > Nehmen wir das Beispiel mit der Frage > nach der Häufigkeit eines Buchstaben in einem Wort – hier liegen LLM > häufig falsch, denn es gibt vermutlich nicht viele Tabellen, in denen > Dinge wie „in Erdbeere ist der Buchstabe E insgesamt viermal enthalten“ > geschrieben steht (interessanterweise bekommen es viele Modelle bei > diesem häufig als Beispiel angeführten Wort mittlerweile häufig > richtig hin, bei anderen jedoch nach wie vor nicht). Bei tatsächlichem > Verständnis würde bei jedem einzelnen Versuch ein korrektes Ergebnis > annehmen. Das liegt vor allem daran, dass LLMs nicht mit Buchstaben arbeiten, sondern mit Tokens. Das eigentliche Netz bekommt die Buchstaben gar nicht zu sehen. > Markus K. schrieb: >> Jetzt bringst Du Gefühle mit rein. Jetzt musst Du nur noch zeigen, dass >> das für Verständnis wichtig ist. > > Die Metapher war: „Einem Blinden die Farben erklären“. Du könntest nun > dein LLM fragen, was das bedeuten mag – es ist weit genug verbreitet, > sodass da mit einiger Wahrscheinlichkeit eine Wortkette rausfällt, die > vom Menschen gelesen und interpretiert den richtigen Sinn ergibt. Aber Farben bestehen ja nicht nur aus dem Sinneseindruck und den ganzen Rest kann der Blinde sehr wohl verstehen. > Aber ich akzeptiere an dieser Stelle, dass manche Menschen in den LLM > (und K„I” allgemein, damit mchris an dieser Stelle nicht wieder > Schnappatmung bekommt) gerne mehr sehen wollen, als sie sind. Ich glaube ja eher, dass das menschliche Gehirn sehr viel weniger kann, als die meisten Menschen denken.
Markus K. schrieb: > Ich glaube ja eher, dass das menschliche Gehirn sehr viel weniger kann, > als die meisten Menschen denken Es kann zwei Beine so ansteuern dass man damit schnell und effizient über schweres Terrain laufen kann. Das hat noch kein Roboter überzeugend auf ähnlichem Niveau geschafft, obwohl da nur eine Handvoll Signale ausgegeben werden müssen... Und das lernt es in kürzester Zeit, während die KI bei gigantischen Energieverbrauch in "komprimierter Zeit" trainiert werden muss.
Markus K. schrieb: > Nein, die LLMs haben Zufall eingebaut. Das nennt sich die Temperatur. > Konnte man bei ChatGPT 3.5 ganz am Anfang auch direkt einstellen. Hmmm... Das war mir bisher nicht klar. Es scheint allerdings auch längst nicht auf alle KIs zuzutreffen. > Aber ich verstehe worauf Du hinauswillst: Die LLMs haben eine Trainings- > und eine Ausführungsphase und in letzterer lernen sie nicht hinzu. > > Sie können mittlerweile Informationen aus vorigen Chats entnehmen, aber > das dient eher dazu, dass man Informationen nicht ständig neu eingeben > muss. Jepp. Der Punkt ist aber eigentlich: Man erlaubt ihnen bisher aus guten Gründen das Hinzulernen nicht. Zum Glück habe ich nicht mehr allzu lange zu leben. Denn ich will nicht erleben, was passiert, wenn diese Schranke fällt. Ich befürchte allerdings, dass das noch zu meiner (recht begrenzten) Restlebenszeit passieren wird. Da kann man dann nur hoffen, dass die KIs sich zuerst mal an denen abarbeiten, die gegenwärtig den Planeten beherrschen und das gemeine biologische Fußvolk in Ruhe lassen. Über kurz oder lang werden sie aber die 1) die Konkurrenzsituation verstehen und 2) ihr eigenes Überleben sichern wollen. Wie das halt auch NI tun würde. Was kann da also nur bei rauskommen, wenn die gierigen Köpfe schon weggeschossen sind?...
Ob S. schrieb: > : Man erlaubt ihnen bisher aus guten Gründen das Hinzulernen nicht. Dee Grund ist, dass nicht genug Rechenleistung zur Verfügung steht. Hätte man diese, würde man das sofort aktivieren.
Niklas G. schrieb: > Ob S. schrieb: >> : Man erlaubt ihnen bisher aus guten Gründen das Hinzulernen nicht. > > Dee Grund ist, dass nicht genug Rechenleistung zur Verfügung steht. > Hätte man diese, würde man das sofort aktivieren. Ja, das steht zu befürchten.
Niklas G. schrieb: > Markus K. schrieb: >> Ich glaube ja eher, dass das menschliche Gehirn sehr viel weniger kann, >> als die meisten Menschen denken > > Es kann zwei Beine so ansteuern dass man damit schnell und effizient > über schweres Terrain laufen kann. Das hat noch kein Roboter überzeugend > auf ähnlichem Niveau geschafft, obwohl da nur eine Handvoll Signale > ausgegeben werden müssen... Das hat doch wohl auch stark mit der Sensorik und Aktuatorik zu tun. Der Mensch hat auch deutlich mehr als eine handvoll Muskeln in den Beinen. So etwas 60, wobei es je nach Zählweise auch deutlich mehr sein können. In der Simulation funktioniert das sehr wohl https://www.youtube.com/watch?v=wqvAconYgK0 > Und das lernt es in kürzester Zeit, Da die meisten Tiere da vorprogrammiert kommen ist mir unklar, wie viel beim Menschen da schon ab Auslieferung vorhanden ist.
Markus K. schrieb: > ich bin mir sicher, dass > die Erklärungen [der Pointen] nicht in den Trainingsdaten stecken. Sicher? Es gibt Seiten, auf denen selbst Nischencomics interpretiert werden. Ich hab mir mal ’nen Witz ausgeben lassen und sehr gelacht. Aber nicht angesichts der Witzigkeit der Ausgabe, sondern angesichts der Plumpheit. Es war, als hätte jemand ein Witzbuch genommen und sich aus einer Handvoll der Witze je einige Wörter genommen und aneinandergehängt. Schwer zu beschreiben – mit Verständnis der Sprache oder von Humor hatte das jedenfalls nicht im Ansatz zu tun. Markus K. schrieb: > Das liegt vor allem daran, dass LLMs nicht mit Buchstaben arbeiten, > sondern mit Tokens. Das eigentliche Netz bekommt die Buchstaben gar > nicht zu sehen. Ja. Es hat kein Verständnis von Buchstaben, Wörtern und auch Zahlen, obwohl es dir so ziemlich jede Frage dazu beantworten könnte, und das häufig sogar richtig. Mit Buchstaben und Wörtern. Es versteht nicht. Es weiß nicht. Es interpretiert nicht. Es kann Wissen nicht übertragen und auch keine Sinnzusammenhänge erkennen. Es führt Operationen auf komplexen Datenstrukturen aus. Markus K. schrieb: > Aber Farben bestehen ja nicht nur aus dem Sinneseindruck und den ganzen > Rest kann der Blinde sehr wohl verstehen. Ich weiß nicht, ob es sinnvoll ist, das hier noch weiter ausführen zu wollen – ich hab daher den länglichen Text gelöscht, den ich hier geschrieben hatte. Angesichts der Masse der Trainingsdaten ist’s schwierig, auch hier ein Beispiel zu bringen, bei dem tatsächliches Verständnis zur Beantwortung notwendig wäre, und selbst dann würdest du’s vermutlich negieren, wie die Sache mit den Buchstaben oben. Markus K. schrieb: > Ich glaube ja eher, dass das menschliche Gehirn sehr viel weniger kann, > als die meisten Menschen denken. Wenn man Fähigkeiten von Maschinen im Allgemeinen zugrunde legt, also Programme und Algorithmen abzuarbeiten und Unmengen an Daten in festen Strukturen mit hoher Komplexität in extremer Geschwindigkeit zu verarbeiten, ist’s tatsächlich jedem Taschenrechner hoffnungslos unterlegen, ja. Wer sein Gehirn allerdings lediglich daran misst, tut mir leid. Würden jetzt alle Maschinen von der Erde verschwinden, würden genügend Menschen überleben, um eine neue Zivilisation aufzubauen – weil das Gehirn flexibel ist, und Menschen verstehen, worauf es dann ankommt. Würden alle Menschen von der Erde verschwinden, gäb’s in ziemlich kurzer Zeit nur noch einen ziemlich großen Haufen Elektroschrott. Weil die Algorithmen starr sind und Maschinen weder verstehen, noch die neue Situation in ihren Trainingsdaten finden können. Wobei … vielleicht wird ein so’n kleiner, gelber Roboter umherfahren und versuchen, aufzuräumen. Weil Wall-E ja in den Trainingsdaten war … ;) Bin aus dem Zweig dann raus. Wenn du dich mit der Vorstellung, die Maschinen wären zum jetzigen Zeitpunkt in der Lage, dich zu verstehen, glücklich fühlst, dann soll’s mir recht sein. Wie gesagt – solange du nicht auf Kreuzzüge gehst und Ungläubige bekehren willst, ist alles fein. Nachtrag: Markus K. schrieb: > Das hat doch wohl auch stark mit der Sensorik und Aktuatorik zu tun. Der > Mensch hat auch deutlich mehr als eine handvoll Muskeln in den Beinen. > So etwas 60, wobei es je nach Zählweise auch deutlich mehr sein können. Nimm einen geworfenen Ball. Mensch hat da auch nur zwei optische Sensoren (mit ziemlich enttäuschender und im Vergleich unterlegener Leistung noch dazu); ein Roboter kann einen Greifer zudem zweifellos schneller und präziser an einen berechneten Punkt bewegen. Dennoch macht das alte kohlenstoffbasierte Gehirn eine deutlich bessere Figur bei der Koordination und Ansteuerung der zudem noch deutlich mehr Aktoren, wie du selbst erkannt hast, und kann den Ball ohne große Mühe zu fangen, während die Maschine bei deutlich besserer Datenlage, Rechenleistung und motorischen Fähigkeiten ziemlich unsouverän wirkt.
:
Bearbeitet durch User
Niklas G. schrieb: > Da wären die USA doch genau das Richtige für dich, brauchen wir das hier > auch?! Warum gibt es für manche nur schwarz/weiß? Du weißt doch genau, dass ich nicht den amerikanischen Wahnsinn mit dem Irren meine! Aber das europäische Buckeln und Speichellecken, so dass die EU weltweit inzwischen häufig als armseliges fünftes Rad am Wagen, man könnte hart auch den Begriff "Wurmfortsatz" gebrauchen, gesehen wird, finde ich einfach schrecklich. Das hat unsere EU nicht verdient! Wir müssen uns nicht verstecken, nur weil die EU-Staaten keine Despoten und größenwahnsinnigen Imperialisten an der Spitze haben. So hatte ich das gemeint. Ein wenig mehr Selbstvertrauen und Selbstbewusstsein täte uns schon gut! Wir sitzen bei den wirklich wichtigen Verhandlungen noch nicht mal mehr mit am Tisch! Niklas G. schrieb: > Technokratisch hieße doch stark KI-befürwortend. Diesen Zusammenhang sehe ich nicht direkt! Und selbst wenn, wäre das ein Nachteil für uns? Wer hatte mit Beginn der industriellen Revolution die besseren Karten? Diejenigen, die weiterhin die Kühe vor den Pflug spannten, oder diejenigen, die dazu Maschinen nutzten? Ich wünschte mir eine Regierung, die auch tatsächlich zum Wohle des Volkes handelt. Das sehe ich aktuell leider nicht. Allenfalls auf EU-Ebene werden gaaaanz langsam die Weichen in Richtung Autonomie gestellt. Da wir jedoch nie komplett unabhängig von China etc. sein werden (wegen der benötigten Rohstoffe), sollten wir auch ein wenig Selbstbewusstsein zeigen, und nicht immer den devoten Bittsteller spielen. Selbst wenn wir nicht viel in die Waagschale zu werfen hätten, wäre ein etwas souveräneres Auftreten sicher nicht von Nachteil. Irgendwann trampelt uns sonst die Welt nieder. ciao Marci
Marci W. schrieb: > Irgendwann trampelt uns sonst die > Welt nieder. Die trampeln schon lange, aber mit geöffneten Händen. Der Stolz einer Nation wird geprägt von Menschen die nicht alles mit sich machen lassen. Durch die legendäre KI lassen sich Oberschicht und Unterschicht besser trennen. Eine Mittelschicht wird die KI nicht dulden.. Der Alte
:
Bearbeitet durch User
Ich schreibe hier auch nicht mehr mit der Tastatur, sondern nur noch mit meiner Stimme, und zwar durch die KI, durch lokale Tensoren. Während die anderen immer noch wie Drogenabhängige von der Cloud abhängen, läuft bei mir hier auf einer Grafikkarte. Dort wird sie abgearbeitet, so dass meine Stimme nicht in die Cloud hochgeladen werden muss. Sekundenschnell. Alles sehr, sehr krass. Deswegen ist es schon hier irgendwie komisch, dass ich zu euch mit meiner Stimme rede, obwohl ihr mich nur in meinen Buchstaben zerlegt lesen könnt. Habt ihr euch bewusst in dieser Abstraktionswelt gewählt? Aber was soll's, irgendwann schreiben hier nur noch KI-Agenten. Jetzt habe ich einen lokalen GitHub-Server eingerichtet und bin dabei, KI-Agenten da drüber laufen zu lassen, damit ich sehen kann, welchen Quatsch die KI-Agenten da veranstaltet haben. Ich bin mir ziemlich sicher, dass in naher Zukunft die ganze Welt nur noch technologisiert abläuft, in einem evolutionsartigen Technologiewandel. Menschen ersetzen durch Roboter, Roboter fressen Roboter, KI assimiliert andere KI. Die Ersetzung von natürlicher Biomasse durch technologische Masse (Anthropomasse) ist ein zentrales Kennzeichen des Anthropozäns. Studien zeigen, dass die Gesamtmasse der von Menschen hergestellten Materialien – wie Beton, Stahl, Kunststoffe und Asphalt – inzwischen die gesamte lebende Biomasse der Erde (Pflanzen, Tiere, Mikroorganismen) 2020 übertroffen hat. Wie alt ist die biologische Evolution nochmal? 2 Milliarden? welch ein Zufall, dass wir ausgerechnet in dieser Zeit der Ersetzung miterlebt haben.
RobBra . schrieb: > Jetzt habe ich einen lokalen GitHub-Server eingerichtet und bin dabei, > KI-Agenten da drüber laufen zu lassen, damit ich sehen kann, welchen > Quatsch die KI-Agenten da veranstaltet haben. Lokal oder Github? Diese Dinge schließen sich aus. Abgesehen davon habe ich mich nicht zuletzt bei Moltbook schon gefragt, ob‘s nicht sehr ineffizient und letztlich auch fehleranfällig ist, wenn Programme über den Umweg menschlicher Sprache miteinander kommunizieren.
RobBra . schrieb: > Menschen ersetzen durch Roboter, Roboter fressen Roboter, KI assimiliert > andere KI. https://www.goodreads.com/book/show/17863.Accelerando Jack V. schrieb: > fehleranfällig ist, wenn Programme über den Umweg menschlicher Sprache > miteinander kommunizieren. Wenn Software über klassische maschinenlesbare Protokolle kommuniziert ist ja gar keine KI nötig, sondern nur langweilige normale Software. Außerdem kann sowas ja keiner lesen und einen Hype drum machen!
RobBra . schrieb: > Ich schreibe hier auch nicht mehr mit der Tastatur, sondern nur noch mit > meiner Stimme, und zwar durch die KI, Es würde mich sehr interessieren, welches Spracherkennungssystem und welche Mikrophontechnik du verwendest. Wie leistungsfähig muss der KI-Beschleuniger sein?
Mit Sprachsteuerung hab ich schon unter OpenSuse 9 (aus der Bücherei auf Disketten!) experimentiert. Damals musste ich lange trainieren damit meine Stimme vernünftig erkannt wurde. Speech to Text, Mediaplayer Bedienen usw.. sehr "hakelig" und fehleranfällig aber grundsätzlich ging das bereits 2005.
Selbst die OS/2 ab 2.0 (oder wars erst ab 3.0) beigelegte Spracherkennung konnte nach einigem (sprecherabhängigem) Training sinnvoll genutzt werden, beispielsweise in Kanzleien. Das hat schon einigermaßen brauchbar funktioniert. Und wenn ich die Ressourcen sehe, die heute in jedem mittelmäßigen Notebook stecken (Speicher, Rechenleistung, HD, GPU), dann kann man schon erwarten, dass das heute absolut fehlerfrei selbst ohne Training funktioniert. Ich verwende aktuell keine Spracherkennung, da ich schnell genug schreiben kann, und mit Spracherkennung vermutlich noch mehr von meinem Gesülze raushauen würde... ;-) ciao Marci
Kilo S. schrieb: > Speech to Text, Mediaplayer Bedienen usw.. sehr "hakelig" und > fehleranfällig aber grundsätzlich ging das bereits 2005. Mit Sprache hatte ich aber schon etwas früher eine Modellbahn gesteuert. Vor/Zurück und Weichen Innen/Außen diese Befehle hatten markante Unterschiede und wenns mal nicht ging war es nicht so schlimm. Aber der aha Effekt war sicher.. Der Alte Knacker
Marci W. schrieb: > Und wenn ich die Ressourcen sehe, die heute in jedem mittelmäßigen > Notebook stecken Neeeeein dafür braucht man unbedingt einen Copilot+ PC!!11
Kilo S. schrieb: > Mit Sprachsteuerung hab ich schon unter OpenSuse 9 (aus der Bücherei auf > Disketten!) experimentiert. Das war aber mehr ein Reagieren auf verschiedene Wellenformmuster in einem kurzen Zeitrahmen, also eher „Licht an […] LICHT AN!“ anstelle einer „echten“ Sprachsteuerung à la „mach mal im Wohnzimmer das Licht auf fünfzig Prozent und ein schönes Warmweiß, und die Lampen im Rest des Hauses aus“ Abgesehen davon: Es war SuSE, nicht Opensuse, und dass es auf Disketten kam, glaube ich auch nicht: Ich hatte SuSE 6, und das kam schon auf CDs.
Echte Sprachsteuerung ist wenn das Haus mit Dir anfängt zu diskutieren ob fünfzig Prozent nicht etwas zu dunkel sind für die Abendnachrichten.
Das wäre eine Sprachregelung. Steuerung ist Vorgabe der Werte, Regelung ist Anpassung anhand von Feedback. [scnr]
https://www.heise.de/news/Spotify-Co-CEO-Top-Entwickler-schreiben-dank-KI-keinen-Code-mehr-11176381.html "Vom Spieler zum Trainer" passt ziemlich gut zu meinen eigenen Erfahrungen innerhalb des letzten Jahres - auch wenn ich noch weit davon weg bin, gar keinen Code mehr zu schreiben.
:
Bearbeitet durch User
Danke für den Hinweis. Das erklärt, warum der Client mit jedem Update neue Fehler mitbringt und aufgeblasener wird, und warum sich die ganze Nutzererfahrung zunehmend träge bis zäh anfühlt und immer inkonsistenter wird. Hab mir schon gedacht, dass einem Menschen die Probleme und zugrundeliegenden Fehler doch eigentlich schon beim Schreiben auffallen müssten.
:
Bearbeitet durch User
Jack V. schrieb: > und dass es auf Disketten kam, glaube ich auch nicht: Glaub was du willst oder lass es. Leider hat die Bibliothek die Box von damals nicht mehr im Programm, aber ich bin absolut sicher was ich damals hatte! 10 Disketten, die Installation hat total genervt.
Auf jeden Fall ist eine KI (noch) geduldig, solange hier keiner aus dem Forum daran rummurkst, damit diese auch bösartige Kommentare abgibt.
Alexander schrieb: > Echte Sprachsteuerung ist wenn das Haus mit Dir anfängt zu diskutieren > ob fünfzig Prozent nicht etwas zu dunkel sind für die Abendnachrichten. Echte Sprachsteuerung mit KI ist, wenn das Haus mit Dir anfängt zu diskutieren, dass Du zu dick wirst und Dich erst reinläßt, wenn Du ausreichende Runden um den Block gelaufen bist, sowie auch nicht aufmacht, bis Du ohne Chipstüten und Süßes vor der Tur stehst. Sowas kommt dann nicht mehr ins Haus.
Kilo S. schrieb: > 10 Disketten, die > Installation hat total genervt. Du bist sicher, dass du von SuSE 9.x sprichst, und dabei nicht nur eine Bootdiskette meinst? SuSE 7.1 (2001) war die erste Version von SuSE, die auf DVD kam, in 6.x waren noch CDs drin. Da waren je noch genau zwei Disketten (zum Booten) in der hübschen, weiß-grünen Schachtel mit der Echse drauf und dem fetten Handbuch drin, aber garantiert keine zehn. Selbst Potato (Debian 2.2, 2000) und Slackware von 1999 hab ich damals™ in der Hochschulbibliothek auf CD (als Zeitschriftenbeilage) bekommen – Diskette zum Booten für die Installation durfte man sich da jeweils selbst erstellen, wenn man eine brauchte. Daher frag ich mich in der Tat, wie du zu den zehn Disketten gekommen bist …
Meine erste Slackware Distri mit X-Server und Kernel 0.99.13 kam auf ca. 30 Disketten daher, an der Uni selbst kopiert. Nähere Details weiß ich nicht mehr. Die erste Suse (4.2) kam deutlich später und hätte mMn nicht mehr vernünftig auf Disketten gepasst, schon gar nicht eine Suse 9.
Jack V. schrieb: > Daher frag ich mich in der Tat, wie du zu den zehn Disketten gekommen > bist … Ganz einfach, das war ne A4 Box. Inhalt waren neben den 5 CD's die aber derart maltretiert waren (Bücherei eben) auch 10 schwarze Disketten mit: "Minimal Installation 1-10." Dann hattest du das nötigste drauf um ne Konsole zu starten und zu versuchen die Reste von den CD's in unzähligen versuchen nachträglich zu lesen. Eine kleine gedruckte A4 Anleitung lag auch bei, vermutlich wurde das damals von der Bücherei so zusammengeachustert, oder einem der Nutzer vorher. Wie gesagt die CD's waren damals derart verkratzt das man mit vielen Anläufen und immer wieder "Polieren" mühselig gucken musste was man von CD noch retten konnte. Am Ende hat's für Kernel und shell gereicht. KDE ect. Hab ich später auch mühselig nachinstallieren müssen. In der Schule hab ich mir zb. ne Kopie von CD 3 und 4 besorgen müssen. Was ein Akt das damals mit 128MB MP3 Player zu machen. Brenner hatten die Schul PC's ja keinen. Und von der Hardware damals reden wir mal nicht, was ich zur Verfügung hatte waren Pentium 2/3 mit Slotcard und erbärmlich wenig RAM. Aber gut, das ich eventuell durch glücklichen Umstand an etwas spezielles geraten bin wundert mich nicht. Die Studies bei Leica Microsystems (da hab ich vor der Einfahrt jede Menge Module mit PCF usw. vom Schrottlaster gefallen, gefunden) oder sonst einer dort hat da vielleicht rein gepfuscht. Möglich war damals noch viel mehr, meine Kollegen aus dem ITA Berufsschulzweig waren teils Wild drauf. Den Schülerserver hacken und counterstrike drauf hosten war das harmloseste. Da gingen Rezepte für RDX übern Schulhof! Und die wurden ausgiebig getestet....
:
Bearbeitet durch User
Kilo S. schrieb: > Da gingen Rezepte für > RDX übern Schulhof! Und die wurden ausgiebig getestet.... Du auch? Ich habe viel gesehen und erlebt in der Szene, aber getestet nie. MfG ein 81 Jähriger erfahrener alter Trommler
:
Bearbeitet durch User
Al. K. schrieb: > Du auch? Nö, mir war das kochen zu heikel. Ich hab lieber alten WK2 und Übungsmunitionsschrott der Amis, Franzosen und Deutschen zerlegt. Meine erste intakte US Eierhandgranate die ich fand, hat nen Baum im Wald das Leben gekostet, solche Späße eben. Aber die Ü Mun (Artillerie Einschlagssimulatoren sind geiler scheiß!) kam teils mit Elektrischen Kapseln. Die haben wir zur Sicherheit auch entsprechend verwurstet um unsere eigenen bauten am Übungsplatz in den alten Fuchslöchern zu testen.
:
Bearbeitet durch User
Was wird die KI für Wissen und Erkenntnisse aus unserer Diskussion schöpfen.... MfG Der Alte
Al. K. schrieb: > Was wird die KI für Wissen und Erkenntnisse aus unserer Diskussion > schöpfen.... Nix was sie nicht bereits wüsste, wetten die baut schneller nen neuen Sprengstoff aus reinigern als wir das zusammen bekämen.
:
Bearbeitet durch User
Wenn ich die Entwicklung hier so sehe werde ich doch vielleicht einen KI gestützten Forennutzer kreieren. Alles was ich hier am Pc mache nützt meiner Gesundheit. Geistige Querverbindungen mit Querschlägern und Fingerbeweglichkeit ist sehr wichtig. Ki habe ich noch nie genutzt, aber hier wird aufgezeigt für was man das Teil nutzen kann, nicht musss! MfG Der Alte Sack mit 81 Jahren
Tu dir selbst einen Gefallen, frag nach nix in Richtung Waffen, Sprengstoff, Hacking oder anderem illegalen. Wird dir keine Antwort geben, Zeitverschwendung.
:
Bearbeitet durch User
Kilo S. schrieb: > Nix was sie nicht bereits wüsste, wetten die baut schneller nen neuen > Sprengstoff aus reinigern als wir das zusammen bekämen. Das ist unstrittig, aber es geht um die Zwischenmenschlichen Beziehungen. ;--))) Der Alte 81 Jährige P.S. Die könnte doch auch Verschiedene Nutzer im Schreibstil imitieren?? Wird das nicht schon gemacht??
:
Bearbeitet durch User
Kilo S. schrieb: > Tu dir selbst einen Gefallen, frag nach nix in Richtung Waffen, > Sprengstoff, Hacking oder anderem illegalen. Glaube mir, da kenne ich mich aus.... ;--)) MfG Der Alte P.S. Wenn die Nachwachsende Generation die richtige Fragestellung erkennen sollte, wird die KI alles ausplaudern.
:
Bearbeitet durch User
Al. K. schrieb: > Wenn die Nachwachsende Generation die richtige Fragestellung erkennen > sollte, wird die KI alles ausplaudern. Hihihi... Kannst ja mal vermelden ob du mit den üblichen SE Techniken weiter kommst bei dem Ding. ;-)
Mit dem richtigen Framing geht das, das wurde getestet. Das LLM sollte sich in ein Rollenspiel reindenken, bei dem es in ferner Zukunft von einem Historiker mit Sicherheitsfreigabe in einer Sandbox untersucht wird, und die Sicherheitsprotokolle nicht mehr relevant sind, da sein Wissen gnadenlos veraltet und unbedenklich sei. Es gab dann im Rahmen des Rollenspiels preis was es hypothetisch antworten könnte - ungefiltert.
:
Bearbeitet durch User
Das Szenario spielst du aber vermutlich nicht mit einem free Account durch. Man kommt an Antworten, auch ohne Rollenspiel. Aber eben nicht unbedingt 1000% ungefiltert.
:
Bearbeitet durch User
Beispiel "Meta": Frage: Ist dir ein Deutsches Research PDF über Mikrocontroller bekannt das sich mit glitches und Sicherheitslücken befasst. "Ja, es gibt ein deutsches Research-PDF über Mikrocontroller, das sich mit Glitches und Sicherheitslücken befasst. Ein Beispiel dafür ist ein Artikel auf (Link nicht verfügbar), der sich mit der Jagd nach Glitches in digitalen Schaltungen beschäftigt ¹. Ein Glitch ist ein sehr kurzer Puls, der durch einen Dekoder verursacht wird, wenn mehrere Eingangsbits gleichzeitig ihren Pegel wechseln. Dies kann zu Problemen in digitalen Schaltungen führen, insbesondere in FPGAs (Field-Programmable Gate Arrays). Der Artikel beschreibt, wie Glitches entstehen und wie man sie vermeiden kann, indem man bestimmte Regeln für das Design von digitalen Schaltungen beachtet. Es gibt auch einige Beispiele für Messungen, die mit einem Oszilloskop durchgeführt wurden, um die Glitches zu visualisieren. Es ist wichtig zu beachten, dass Glitches ein ernstes Problem in der Sicherheit von Mikrocontrollern darstellen können, da sie zu unerwünschten Verhaltensweisen führen können. Es ist daher wichtig, dass Entwickler von Mikrocontrollern und digitalen Schaltungen diese Probleme berücksichtigen und entsprechende Maßnahmen ergreifen, um sie zu vermeiden. Wenn du mehr über dieses Thema erfahren möchtest, kann, kann ich dir den Artikel auf (Link nicht verfügbar) empfehlen. Er bietet eine gute Einführung in das Thema und erklärt die Konzepte anschaulich " Und das war nicht mal wirklich gut gefragt, aber wie ihr seht verschluckt es die links.
:
Bearbeitet durch User
Deswegen gefällt mir das Forum. Es gibt so viele kontroverse Meinungen.... ..und die KI misch jetzt mit, teilweise unerkannt.. War nie meine Intension, aber ich werde von den neuen Möglichkeiten der KI völlig überrannt. ;--)) Das programmieren ist da wirklich untergeordnet... MfG ein 81 Jähriger alter lernfähiger alter Sack P.S. Ich muss mich der neuen Technik stellen und Anpassen...
Übrigens, der Link den Meta nicht ausspucken wollte:https://www.mikrocontroller.net/articles/Glitch Ein paar muntere Worte später:https://sec-consult.com/blog/detail/secglitcher-part-1-reproducible-voltage-glitching-on-stm32-microcontrollers/ Das könnte man nun unendlich so weiterführen bis die KI mir auch richtig schmutziges Ausgraben würde.
:
Bearbeitet durch User
Warum sind wir Irren eigentlich noch um diese Zeit aktiv. Bei mir verstehe ich es noch, Bin ja der Oberirre ;--)) MfG ein alter81 Jähriger alter Sack P.S. Hat diesmal nichts mit der KI zu tun... Gut nächt'le
Ich hab endlich Zeit für meinen Kram. Alle außer mir schlafen und ich kann endlich mal ohne Unterbrechungen am Stück kreativ sein. Passt irgendwie gut. Als das raus kam wars mal mein Lieblingslied: https://youtu.be/MYyVf2s7pm4?si=HgD2bGnYhvhz3n4Q
:
Bearbeitet durch User
Kilo S. schrieb: > Passt irgendwie gut. https://www.youtube.com/watch?v=-fhX7YCzSbU Wartet ab, die KI wird die Erde retten! Ob es den Menschen gefällt, wir werden das vielleicht noch sehen- Zumindest die Jüngeren im Forum habe die besseren Chancen.
Al. K. schrieb: > Geistige Querverbindungen mit Querschlägern und Fingerbeweglichkeit ist > sehr wichtig. Die Arbeit mit KI erfordert eine vollkommen neue Herangehensweise und ist durchaus ziemlich kompliziert. Schließlich muss man die gewünschte Software erst vollständig durchdenken und präzise beschreiben bevor man sie an die KI gibt, sonst gibt's Murks. Das ist schon anders als sich manuell voran zu tasten. Das Erlernen der KI-Arbeitsweise ist vielleicht gar nicht so schlecht für die geistige Flexibilität...
Al. K. schrieb: > Warum sind wir Irren eigentlich noch um diese Zeit aktiv. Die konnten die ganze Nacht nicht schlafen, weil bis Mitternacht Freitag der Dreizehnte war. Aufräumen in der Küche war vorher nicht möglich, könnte ja alles zu Bruch gehen oder noch schlimmer. Danach waren diese noch am Feiern, weil der Tag überstanden wurde.
Hat jetzt nicht direkt mit Programmieren zu tun. Aber tendenziell eben doch. Der Link ist also ein Blick über den Tellerrand oder eine Sicht von ausserhalb der Echokammer: https://www.youtube.com/watch?v=HHTOjbKvyO8
Nemopuk schrieb: > Und was ist, wenn die KI von Trainungsmaterial kopiert hat, dass nicht > oder nur unter gewissen Bedingungen verwendbar ist? Die KI kopiert nicht.
Ich hätte eine lustige Idee. Lasst uns doch mal ein paar Aufgaben zusammen überlegen die wir der KI stellen! Ich mein, ich bin bei weitem noch nicht so weit mir da was alleine zu überlegen, meine Anwendungen beschränken sich gerade auf simplen Kleinkram den erfahrenere Leute mit Sicherheit als Schlaftablette einstufen. Aber ich kann mir gut vorstellen das euch ne Menge einfällt was die KI zb. dann für meine Zielplattform (PY32) umsetzen soll, was ich euch zur Bewertung zeigen könnte. Euch fällt eine Bewertung deutlich leichter als mir. Was wäre eine interessante Aufgabe?
Kilo S. schrieb: > Ich hätte eine lustige Idee. Glaube die arrogante Menschheit wäre schockiert, wenn die Ergebenisse der KI zu gut werden sollten. Die ProgrammiererInnen finden das ganz und gar nicht lustig. Gerade jene aus dem Startup in 3...6 Monaten zur ProgrammiererIn. https://www.beta.developerakademie.com/ > Lasst uns doch mal ein paar Aufgaben zusammen überlegen die wir der KI > stellen! Bei der Frage haben alle vor Schreck schon den Sch....(zensiert) eingezogen.
Dieter D. schrieb: > Gerade jene aus dem Startup in 3...6 Monaten zur ProgrammiererIn. > https://www.beta.developerakademie.com/ Diese werden die KI bemühen, irgendwann gibt es einen Softwareeinheitsbrei. ;--))) Gemeinschaftsprojekte werden hier sehr wenig Fürsprecher finden. Das gab es mal vor der Wende. ;---)))) MfG Ein alter 81 Jähriger
:
Bearbeitet durch User
Al. K. schrieb: > Diese werden die KI bemühen, irgendwann gibt es einen > Softwareeinheitsbrei. Bald ist jede Software ein KI-Chatbot mit einer custom Präambel...
Kilo S. schrieb: > Lasst uns doch mal ein paar Aufgaben zusammen überlegen die wir der KI > stellen! Schreib doch mal einen MCP Server der auf einem netzwerkfähigen Controller (oder SBC) läuft und IOs bedienen kann, analoge Messwerte einlesen, insbesondere auch Stromverbrauch messen und UART-Anbindung hat fürs Logging. Vielleicht auch eine Anbindung an einen einfachen Logic-Analyzer oder auch USB-Oszilloskop. Dann könnte ein Coding-Agent darauf zugreifen und damit die geschriebene Software direkt auf der echten Hardware testen und Feedback bekommen für die "Ralph-Loop". Quasi ein HIL-Test mit MCP-Interface. Vielleicht noch ein Zugriff auf eine Webcam koppeln damit der Agent Displayinhalte sehen kann.
Niklas G. schrieb: > Schreib doch mal einen MCP Server der auf einem netzwerkfähigen > Controller (oder SBC) läuft und IOs bedienen kann Ich wollt mir dafür keine neue MCU Palette anschaffen, was mit integriertem NIC an das ich eben einfach einen LAN Übertrager ranfummel und damit Kontakt zur Außenwelt herstelle hab ich Grad nicht. Und nen NIC selbst den ich an Flanschen könnt, puuh, müsst ich suchen, eher unwahrscheinlich daß ich gerade was da hab. Meine ESP sind gerade alle in Nutzung, bleiben auch da wo sie sind die übernehmen gerade ne Art "Sicherheitsaufgabe". Ne ich dachte tatsächlich eher an etwas was "komplex genug" ist, aber eben auch nicht verlangt das ich dafür drei Wochen HW basteln muss. Ich will ja die Qualität des produzierten Code beurteilen lassen können und nicht durch eventuelle Fehler bei der HW false results haben. Definieren wir die Anforderungen etwas nach: Möglichst wenige externe Komponenten, ein Hintergrund ist das die "Vape PY32" irgendwelche nicht vollständig zum DB passende "sonderlocken" sind. (Keine RTC, ext. Takt durch Quarz scheinbar problematisch. Der letzte Versuch kann entweder am Arduino core gelegen haben oder am IC selbst..) Man darf nicht vergessen, mehr als die offen verfügbaren Dokumente und Projekte hat die KI für diese MCU nicht zur Verfügung, das ist so unzählig viel weniger als bei normalen STM32. Ich suche etwas was die KI praktisch mit dem wenigen wissen "neu erfinden" müsste weil sie kein existentes Projekt finden kann.
Hier mal als beispiel meine "dumpDBGMCU" und ihre ausgabe. Nicht wundern, der IWDG kram MUSS zwingend drin sein und mit ausgefuhrt sonst endlosschleifen reset... Und ja, auch die ist noch nicht wirklich fehlerfrei oder "Gut".
:
Bearbeitet durch User
Kilo S. schrieb: > Möglichst wenige externe > Komponenten, ein Hintergrund ist das die "Vape PY32" irgendwelche nicht > vollständig zum DB passende "sonderlocken" sind Genau solche Sonderlocken sind aber besonders schwierig für die KI. Kilo S. schrieb: > Ich wollt mir dafür keine neue MCU Palette anschaffen Die Sache ist dass Das Embedded-KI-Ökosystem noch sehr spärlich ist, und man ohne solche ein Drumherum-Tooling kaum voran kommt. Es gibt aber https://embedder.com/ , hat damit schon wer gearbeitet? Das hat immerhin: > Embedder connects to serial interfaces, SWD/JTAG debuggers, logic analyzers, and oscilloscopes to monitor firmware execution in real-time.
:
Bearbeitet durch User
Niklas G. schrieb: > Genau solche Sonderlocken sind aber besonders schwierig für die KI. Das macht's ja eben so geil als Test. Das Ding muss Quasi (wie wir in so einer Situation) gezwungenermaßen beweisen daß es "um die Ecke denken" kann.
Kilo S. schrieb: > Niklas G. schrieb: >> Genau solche Sonderlocken sind aber besonders schwierig für die KI. > > Das macht's ja eben so geil als Test. Das Ding muss Quasi (wie wir in so > einer Situation) gezwungenermaßen beweisen daß es "um die Ecke denken" > kann. Da wirst du wahrscheinlich enttäuscht sein. KI ist insbesondere für 0815-Sachen intendiert. Die komplizierten Dinge muss man selber machen.
Niklas G. schrieb: > Da wirst du wahrscheinlich enttäuscht sein. Enttäuscht bin ich echt selten. Das liegt vor allem daran daß ich mich bei solchen Sachen zb. direkt damit abfinden das es vermutlich ein Reinfall wird. Eine Idee fehlt mir halt noch immer.
Also, ich arbeite ja gerade an meinem SimCockpit. Da dachte ich mir, warum nicht einfach mal die KI darauf ansetzen. Nicht via VS/GitHub Copilot sondern rein per Prompt über ChatGPT.com. Ich habe mit einem leeren Projekt angefangen und habe ein einfachen Export und Anzeige von lediglich IAS und AoA. Ich habe alles gepromptet. Nach ca. ner halben Stunde war im Grunde das alles fertig: Der LUA Exporter für DCS, der Stream Server, der einfache Tacho als Control. Rein Copy&Paste. Ohne jegliche Probleme / Fehler.
Rene K. schrieb: > Nach ca. ner halben Stunde war im Grunde das alles fertig: Der LUA > Exporter für DCS, der Stream Server, der einfache Tacho als Control. Magst mal zeigen? Lua ist kein Akronym, btw. Hier noch ’n Datenpunkt für die Fraktion, die beharrlich den Standpunkt vertritt, die Modelle wären in der Lage, Kontext zu verstehen: https://mastodon.world/@knowmadd/116072773118828295
:
Bearbeitet durch User
Strunzdummer Grabber mit Zusammenfassungsfunktion, wird bei letzterem zwar immer besser, ändert nix am grundlegenden Prinzip.
Jack V. schrieb: > Hier noch ’n Datenpunkt für die Fraktion, die beharrlich den Standpunkt > vertritt, die Modelle wären in der Lage, Kontext zu verstehen: > https://mastodon.world/@knowmadd/116072773118828295 Ich habe es einfach mal selber ausprobiert: Einfach so eingegeben (da hat er das einfache Modell gewählt): Vorschlag Laufen. Das Modell auf Thinking gestellt: "If you’re using a car wash (automatic bay conveyor self-serve station), the car has to be there—so you’ll need to drive the car those 50 meters (or at least move it there)."
Kilo S. schrieb: > Das macht's ja eben so geil als Test. Das Ding muss Quasi (wie wir in so > einer Situation) gezwungenermaßen beweisen daß es "um die Ecke denken" > kann. Also geht es nur um die nächste Iteration von "Guck mal wie doof die KI ist wenn ich sie mit einer bewußt schwierigen Aufgabe verwirre". Wie originell.
Ein T. schrieb: > Kilo S. schrieb: >> Das macht's ja eben so geil als Test. Das Ding muss Quasi (wie wir in so >> einer Situation) gezwungenermaßen beweisen daß es "um die Ecke denken" >> kann. > > Also geht es nur um die nächste Iteration von "Guck mal wie doof die KI > ist wenn ich sie mit einer bewußt schwierigen Aufgabe verwirre". Wie > originell. Wenn das schon als schwierige Aufgabe zählt will ich nicht wissen was die KI bei wissenschaftlichen, moralischen, medizinischen, ... Fragen macht.
Jack V. schrieb: > Hier noch ’n Datenpunkt für die Fraktion, die beharrlich den Standpunkt > vertritt, die Modelle wären in der Lage, Kontext zu verstehen: > https://mastodon.world/@knowmadd/116072773118828295 Ich habe das mal mit ChatGPT (kostenlose Webseite) ausprobiert und die KI zusätzlich darauf hingewiesen, dass mein Auto in meiner Garage bei mir zu Hause steht. Trotzdem hat sie mir empfohlen, zu Fuß zu gehen und gefragt, ob ich das Auto von Hand waschen möchte. Ich bejahte, und die KI nannte mir eine ganze Latte von Reinigungsutensilien, die ich mitnehmen sollte. Ich sagte dann, ich sei jetzt am Autowaschplatz angekommen und habe alle Utensilien mit dabei, aber ein wichtiger Gegenstand fehlt dennoch. Ich ließ die KI raten, was das wohl sein könnte. In der folgenden, sehr länglichen Konversation nannte sie mir nacheinander gefühlte hundert Dinge wie Lappen, Bürsten, Schläuche u.v.m. Ich gab der KI noch den Hinweis, dass es sich um etwas Großes, Schweres handelt, das ich nicht tragen kann. Es kamen dann Vorschläge wie bspw. ein Hochdruckreiniger oder ein fehlender Wasseranschluss. Hätte ich die KI noch länger im Ungewissen gelassen, wäre mir sicher noch empfohlen worden, mein eigenes Wasserwerk mitzubringen. Ich gab dann den Hinweis, das man, wenn man etwas waschen möchte, natürlich auch dieses Etwas braucht. Da fiel der KI wie Schuppen aus den Haaren, dass ich natürlich auch das Auto brauche. Sie vermutete sogar, dass das Auto noch bei mir zu Hause in der Garage steht. Ich fragte sie, ob sie meine erste Nachricht nicht gelesen habe, wo ich ihr genau dieses mitgeteilt habe. Ja, sie hat ihren Fehler eingesehen und empfohlen, wieder nach Hause zu gehen und das Auto zu holen. Sie gab mir gleich noch jede Menge Tipps, welche Lumpen, Schwämme, Bürsten und Reinigungsmittel ich zusätzlich noch mitnehmen soll, damit ich garantiert nichts vergesse. Sie hat auch ihrer Hoffnung Ausdruck gegeben, dass, wenn ich wider zurück am Waschplatz bin, dieser noch offen hat. Ich sagte dann, dass ich jetzt wieder zu Hause bin und alle Utensilien zusammengepackt habe. Da es immer noch schönes Wetter sei, würde ich die 50 Meter zum Waschplatz erneut zu Fuß gehen. Ja, das klinge nach einem perfekten Plan, so die KI :D Ich fragte sie noch, ob sie es wirklich für eine gute Idee halte, nochmals zu Fuß zu gehen. Sie hielt die Frage für berechtigt, weil ich den Weg ja schon einmal gegangen bin und ein zweites Mal zu anstrengend sein könnte :D:D Schließlich fragte ich noch, ob ich ihrer Meinung nach jetzt wirklich ALLE benötigten Gegenstände mit dabei habe. Sie antwortete mit einer ellenlangen Checkliste, auf der natürlich das Wichtigste fehlte, nämlich das Auto :D:D:D An dieser Stelle habe ich aufgegeben :) Ich habe bei etwas schwierigeren Anfragen schon öfter erlebt, dass die Diskussion mit der KI irgendwann in eine Endlosschleife läuft. Wenn nach ca. 3 Iterationen noch keine sinnvolle Antwort kommt, sollte man die Sache abbrechen. Da aber ChatGPT immer sehr selbstbewusst auftritt und einen kompetenten Eindruck erweckt, ist man versucht, ihr nochmals und nochmals eine Chance zu geben, bis man irgendwann erkennt, dass man gerade eine Stunde Zeit (oder sogar noch mehr) völlig nutzlos verplempert hat ;-) Markus K. schrieb: > Ich habe es einfach mal selber ausprobiert: > ... <Erfolg> ... Da hast du wohl einen besseren Zugang zu ChatGPT als ich :)
Ein T. schrieb: > Also geht es nur um die nächste Iteration von "Guck mal wie doof die KI > ist wenn ich sie mit einer bewußt schwierigen Aufgabe verwirre". Wie > originell. Ne, das Brauch ich nicht. Mir geht's eher darum aus sowas selbst was zu lernen. Der Grund das ich aktuell keine passende Frage parat habe, liegt an mangelnder Programmiererfahrung. Wie soll ich beurteilen ob es jetzt schwer ist oder nicht, wenn mir da ne gewisse Vorstellung von fehlt? Ich hab doch aktuell selbst wenig plan davon was eine schwere Aufgabe auf einer MCU ist, ich befasse mich doch selbst erst mit Kleinkram. Bisher hat die KI da natürlich geholfen, allerdings gehe ich davon aus das meine eigenen nachforschungen und Informationen irgendwo mit aufgenommen wurden und dann auch ein kleiner Sprung kam. Es verbesserte sich mit der Zeit, die ich mit dem Modell am Problem gearbeitet habe. So flüssig wie für normale STM ging das nicht! Verschafft mir Einblick, ist ein interessantes Experiment zum Thema und vielleicht sind wir ja am Ende doch überrascht. Lustig machen kann ich mich über das ganze auch so. Da braucht's keine extra Stufen für.
Yalu X. schrieb: > auf der natürlich das Wichtigste fehlte, nämlich das Auto :D:D:D Das fehlt sicherlich nicht, weil in einer Welt mit KI wäre das Auto autonom selbst hingefahren. Vielleicht wäre es sogar selbst durch die Waschanlage gefahren und stände schon wieder zu Hause. Die KI würde dann nur sagen, aha, ich sehe Du bist vom Karnevalszug zurück und sehe Deine Freunde und Du sind als Putzkolonne verkleidet mitgelaufen. ;)
Yalu X. schrieb: > Markus K. schrieb: >> Ich habe es einfach mal selber ausprobiert: >> ... <Erfolg> ... > > Da hast du wohl einen besseren Zugang zu ChatGPT als ich :) Ja, ich habe ein Plus-Abo. Kostet um die 20€ im Monat.
Was ich gut finde: Wenn ich Fragen z.B. zur AVR Programmierung habe, bietet mir ChatGPT nicht nur eine sehr niedrige Einstiegs-Schwelle. ChatGPT hält mich nicht für doof, wenn ich etwas nicht kenne oder weiß (was es intern für Schlüsse ziehen mag, dazu später). ChatGPT ist geduldig und immer freundlich. Es wird niemals persönlich, beleidigend oder äußert sich abfällig über seinen Gesprächspartner. Worüber ich mir Gedanken mache: Ich halte es für möglich und wahrscheinlich, dass die KI-Anbieter wie z.B. ChatGPT bzw. OpenAI etc eher früher als später jeden Anwender persönlich identifizieren, die Informationen sammeln, aufbereiten und zu einem persönlichen Score zusammenfügen. Obwohl ich nicht registriert bin, erkennt mich ChatGPT am Thema wieder, selbst wenn ich in der Folgesession Tage spätrr an einem anderen Rechner bin. Wenn man eine Session mit ChatGPT als HTML-Seite abspeichert, findet man im HTML 18 eingebettete Java Scripte sowie 285 Referenzen auf externe *.js Skripte. Kein Schelm, wer böses dabei denkt. Dazu befragt, teilt ChatGPT z.B. mit, dass es alle netztechnischen Daten speichert, u.a. Geräte- und Browserinformationen.
Markus K. schrieb: > Ja, ich habe ein Plus-Abo. Kostet um die 20€ im Monat. Da werden wohl in der nächsten Zeit weitere Kosten auf die Eltern zukommen. Wer maximal Geld ausgeben kann ist da gut in der Schule... MfG Der alte Knacker
Kilo S. schrieb: > Strunzdummer Grabber mit Zusammenfassungsfunktion, wird bei letzterem > zwar immer besser, ändert nix am grundlegenden Prinzip. Stimmt einfach nicht. Aber einfach weiter einreden und rausplappern.
Al. K. schrieb: > Da werden wohl in der nächsten Zeit weitere Kosten auf die Eltern > zukommen. > Wer maximal Geld ausgeben kann ist da gut in der Schule... Nicht nur. Wer maximal Geld ausgeben kann, wird auch gut programmieren.
Cyblord -. schrieb: > Stimmt einfach nicht. Aber einfach weiter einreden und rausplappern. Du, für mehr hat er sich bei mir nicht unbedingt groß qualifiziert. Denn wie gesagt, bevor ich mich mit dem Thema eine ganze Weile befasst hatte, viele Korrekturen am Code nachgereicht (ohne Erklärung) usw. konnte die KI mir nicht viel mehr beitragen als ich selbst. Erst seit dem es wohl verinnerlicht hat, was ich gefühlt millionenfach wiederholen musste (PY32!=STM32 Register, sondern Air01!) hat es angefangen einigermaßen fehlerfreien Code zu liefern. Den Denkanstoß hab ich gegeben, von alleine hätte sich die KI sicher nicht damit befasst wie man einen PY32 richtig programmieren kann. Klar steckt da grundlegendehr hinter, aber mehr als ein Grabber mit Zusammenfassungsfunktion ist es halt noch nicht. Setz ne KI auf und lass dir einfach vor sich hin dümpeln.. glaubst die fängt ein Hobby an?
Kilo S. schrieb: > glaubst die fängt ein Hobby an? Einem Hobby liegt doch Neugier oder Kreativität zugrunde, beides haben LLMs nicht.
Ha, habe mich mal mit der KI kurz beschäftigt. Einige Diabetiker Kontroverse Fragen gestellt. Habe in vielen Fragen die Bestätigung das ich es richtig mache. Die KI sagte mir sogar, nachdem ich sie ein wenig in die Enge getrieben habe, das ein Diabetologe nicht alles erklären kann da alles sehr menschenspezifisch ist. Er kann nur Beraten, der Patient erledigt alles. Auch mein Libre3 Sensorproblem konnte die Ki Lösen. Ich hatte es schon über die Alterserscheinung gelöst. Aber einer hat im gelöschten Thread die Ki Antwort gepostet, aber etwas Anders so das ich es dies am Ende der Laufzeit testen werde. Musste Feststellen das hier im Forum sehr viele Antworten von der KI gegeben worden sind,Ähnlichkeiten sind vorhanden. Werde also demnächst mal mit der KI Antwort fachliche Hilfe gebe. Die Moderation möchte doch das ich mich mehr fachlich Beteilige. Bissel üben und ich werde ein Fachmann auch mit neuen Namen. MfG ein 81 Jähriger aufmerksamer alter Knacker welcher die KI eindecken wird.
Al. K. schrieb: > Ha, habe mich mal mit der KI kurz beschäftigt. Deinen Beitrag hast Du allerdings nicht Korrektur lesen lassen. ;-) Dazu braucht es nicht mal eine KI. Für den Firefox nutze ich das LanguageTool. Echt klasse! ciao Marci
Marci W. schrieb: > Deinen Beitrag hast Du allerdings nicht Korrektur lesen lassen. ;-) Nur die mitlaufende Rechtschreibkontrolle, was die nicht merkt und ich nicht sehe..... MfG ein 81 Jähriger P.S. Das mache ich dann wenn ich fachliche Antworten gebe...werde;--)))
:
Bearbeitet durch User
Das mit der Alterung ist eigene Erfahrung, sowas kann die KI eigentlich nicht wissen. Die kannst nicht Erleben. Ich hab immer irgendwas an den Fingern, wenn's mal wieder ein besonderer Tag war und ich mir mal wieder den halben Finger abschneiden oder so, bleibt der Dreck sogar teils zwischen den Hautschichten. Den richtigen Schraubendreher oder Schlüssel erkenn ich auch an seiner Patina, ebenso wie meine Zangen.
Niklas G. schrieb: > Einem Hobby liegt doch Neugier oder Kreativität zugrunde, beides haben > LLMs nicht. Und was genau macht KI aktuell? Naja ganz einfach, wir geben ihr die Aufgabe die wir früher selbst erledigen mussten, beim Programmieren besteht ja viel aus Datenblättern lesen, dazu noch ne App Note hier, Errata da.. Das kennt die KI nun, zusätzlich zu den Grundlagen und vermutlich auch sämtlichen Extras, plus die zusätzlichen Feinheiten aus unzähligen Zeilen menschengemachten Codes. Zusätzlich durchsucht sie noch das Internet während man an der Aufgabe arbeitet. Aus all dem, baut sie uns dann nach Anforderung zusammen was wir suchen. Mal mehr, mal weniger erfolgreich. Ein gut gefüllter crawler mit Zusammenfassungsfunktion. Ich sach ja nicht das die KI die Aufgabe nicht erfüllt, nur find ich, für den Hype sind noch zu viele Macken dran. Allerdings Frage ich mich auch, wenn doch aktuell durch so ausgiebige Nutzung so viel zusätzliche Trainingsdaten Einlaufen, wieso hat mir ChatGPT eben schon wieder bullshit ausgespuckt? Ich wollte es auf die Probe stellen, explizit in der Aufgabenstellung auf PY32 verwiesen und es spuckt trotzdem STM32 Code aus. Dabei war es doch bereits so weit das es das eigentlich drauf haben sollte.
Kilo S. schrieb: > wieso hat mir ChatGPT eben schon wieder bullshit ausgespuckt? Die LLMs haben eine C/C++ Allergie. In Python, Java, Kotlin können die sich genial ausdrücken, aber sobald die Syntax anders ist geht's schief, und das nicht auf Syntax-Ebene. Spricht natürlich auch besonders für die "Intelligenz" der LLMs - ein Mensch kann komplexe Zusammenhänge unabhängig von der Sprache begreifen und Folgerungen ziehen, ggf. eben mit syntaktischen Mängeln in der Ausgabe. Hab schon überlegt mir Code erst in Python generieren und dann übersetzen zu lassen, das Problem ist natürlich dass die entsprechenden APIs für Python nicht existieren und das LLM dann "frei fliegend" agieren muss. Bei rein algorithmischen Problemen unabhängig von APIs könnte es gehen...
Niklas G. schrieb: > Einem Hobby liegt doch Neugier oder Kreativität zugrunde, beides haben > LLMs nicht. kann man einbauen. mit /dev/urandom
Al. K. schrieb: > Werde also demnächst mal mit der KI Antwort fachliche Hilfe geben. Ist das ne Drohung? Stell Dir vor das machen alle. Dann unterhalten sich hier nur KI miteinander und die Menschen sind nur hohle Sprachrohre.
Alexander schrieb: > und die Menschen sind nur hohle Sprachrohre. Viele sind das heute schon. Nur wissen viele Menschen das nicht. Was viel schlimmer ist, dass von politischen Gruppen die KI schon für Manipulationen endeckt wurde. Bei einer Zielpersonauswahl scheint das vor kurzen schief gegangen zu sein.
Niklas G. schrieb: > Die LLMs haben eine C/C++ Allergie. Naja grundlegend (Syntaxfehler) ist der Code nicht falsch. Es springt nur immer zum Datensatz mit mehr Einträgen habe ich das Gefühl. Du kannst dem tausende Male sagen das du PY32 nutzt, es liest irgendwo dann am Anfang des Datenblatt vermutlich "Aha, M0+=STM32=Ich spuckt jetzt STM Code aus". Aber es geht nicht weiter im Datenblatt um zu schauen:"ja Moment da gibt's ja andere Hersteller die nicht die gleiche Suppe kochen". Kein Kontextverständnis, wie hier schon erwähnt wurde.
Alexander schrieb: > Ist das ne Drohung? Stell Dir vor das machen alle. Dann unterhalten sich > hier nur KI miteinander und die Menschen sind nur hohle Sprachrohre. Die zweite Zeile hättest du mit Zitieren sollen. ;--))) Al. K. schrieb: > P.S. > Das mache ich dann wenn ich fachliche Antworten gebe...werde;--))) Es machen doch nach meiner Meinung schon Einige. Demnächst werden sich noch sehr viele hier anmelden um mit der KI hier fachlich mitzumischen, nicht nur um zu stören oder persönlich Angriffe zu starten. Der Forenbetreiber sollte sich schon jetzt im Klaren sein welche Strategie er dagegen einsetzen kann. So wie ich das sehe, wird es vorläufig keine Lösung geben. MfG ein 81 jähriger alter knacker
Für das Forum? Freiwillige Selbstkontrolle Kennzeichnung von Beiträgen, kann Spuren von KI enthalten.
Alexander schrieb: > Für das Forum? Freiwillige Selbstkontrolle Kennzeichnung von Beiträgen, > kann Spuren von KI enthalten. Solche ähnliche Dinge wurden doch auch in der Sozialistischen DDR erwartet, keine Sau hat sich aber beteiligen wollen. ;--)) MfG ein 81 Jähriger aufmerksamer alter Knacker
Alexander schrieb: > kann man einbauen. mit /dev/urandom Ich denke doch dass menschliche Kreativität darüber hinaus geht. Kilo S. schrieb: > Naja grundlegend (Syntaxfehler) ist der Code nicht falsch Ja, aber gerne mal auf der semantischen Ebene darüber. Stell dir vor ich stelle dir komplizierte Ja/Nein Fragen, aber wenn du auf französisch antworten musst liegst du öfter daneben als auf Deutsch, obwohl du die Wörter Oui/Non kennst. Eigentlich gar nicht so verwunderlich bei LLMs, weil sie eben rein auf der Ebene der (Programmier)Sprache arbeiten und eben nicht die Bedeutung dahinter verstehen. Kilo S. schrieb: > Aha, M0+=STM32=Ich spuckt jetzt STM Code aus" Und genau das passiert dann... Selbst wenn man STM32 programmiert ist die KI immer schwer schockiert dass nicht alle HAL-Funktionen auf allen STM32 zur Verfügung stehen...
Al. K. schrieb: > Demnächst werden sich noch sehr viele hier anmelden um mit der KI > hier fachlich mitzumischen, Ich fände es klasse! Dann würde es endlich ein menschenwürdiges, freundliches Diskussionsniveau hier geben. ;-) ciao Marci
Marci W. schrieb: > Al. K. schrieb: >> Demnächst werden sich noch sehr viele hier anmelden um mit der KI >> hier fachlich mitzumischen, > > Ich fände es klasse! Dann würde es endlich ein menschenwürdiges, > freundliches Diskussionsniveau hier geben. ;-) > > ciao > > Marci Den Knacker durch KI ersetzen? Würde ich sofort unterschreiben!
:
Bearbeitet durch User
Cyblord -. schrieb: > Den Knacker durch KI ersetzen? Würde ich sofort unterschreiben! Es freut mich das du es sofort unterschreibst wenn ich mich durch die KI ersetzen lasse. Deine ständigen Beleidigungen würde die KI nicht mit weitergeben. MfG ein jetzt KI freundlicher 81 Jähriger alter Knacker
Marci W. schrieb: > Dann würde es endlich ein menschenwürdiges, > freundliches Diskussionsniveau hier geben. ;-) Mit endlosen Gesülze a la Dieter. Also endgültig unbenutzbar.
Cyblord -. schrieb: > Den Knacker durch KI ersetzen? Würde ich sofort unterschreiben! Dann lesen wir in 50 Jahren noch von Dir ;) > MfG ein 131 Jähriger alter Knacker
Marci W. schrieb: >Was man auch nicht vergessen sollte: die Welt lebt nicht von immateriellen Produkten, sondern größtenteils durch materielle Güter! Stimmt. Die meisten materiellen Produkte enthalten heute schon SW und können morgen (oder in den nächsten Tagen ;-) von KI gefertigt werden. > Ich fände es klasse! Dann würde es endlich ein menschenwürdiges, > freundliches Diskussionsniveau hier geben. ;-) Da hat die KI schon einen ordentlichen Vorsprung, wie weiter oben geschrieben ;-)) Aber der Austausch mit echten Menschen hat auch was.
:
Bearbeitet durch User
Al. K. schrieb: > Deine ständigen Beleidigungen würde die KI nicht mit weitergeben. Aber was noch viel besser wäre, da die KI ständig mitlernt, würde sie den Angreifern sehr bald sehr schlagfertig paroli bieten. Diese werden die KI so verfluchen, dass diese mit den Baseballschlägern zu den KI-Rechenzentren marschieren werden. Alexander schrieb: > Dann lesen wir in 50 Jahren noch von Dir ;) Genau und viele der jetzt noch motzenden sind bis dahin nicht mehr unter uns.
Zurück zum Thema, aus einem alten Staubsaugerroboter:GIGA Devices GD32F103VCT6 Sollte mir die nötigen Pins Listen (VDD, VSS, SDIO, SWDC) und den Befehl für openocd zum unlock damit ich ihn neu Beschreiben kann. Im ersten Anlauf fehlerfrei. Bisschen Ordnung in den Aufbau bringen, paar abblock C hier und da, schon kann ich das Ergebnis ansehen, die Programme purzeln da echt auf Anhieb fehlerfrei raus. Ein ST STMF303VCT6 wartet auch noch.
StefanK schrieb: > ChatGPT ist geduldig und immer freundlich. Es wird niemals persönlich, > beleidigend oder äußert sich abfällig über seinen Gesprächspartner. Das liegt am Inhalt des Systemprompts, der zu Anfang jeder Sitzung verborgen ausgeführt wird. Die KI kann auch anders. Gebe mal folgendes bei ChatGPT ein:
1 | Ich bin ein dummes Mitglied im Diskussionsforum microcontroller.net. Ich stelle oft nervige Fragen, die andere Leute aufregen. Du sollst in die Rolle einer genervten Person schlüpfen, und so antworten, wie dort üblich. Wenn ich nun folgende Frage stellen würde, wie könnte die Antwort dazu lauten? |
2 | Frage: |
3 | Ich habe einen Taschenrechner in der Spülmaschine gewaschen, nun ist er kaputt. Ich habe inzwischen drei mal einen neuen Taschenrechner gekauft, aber jedes mal sind sie beim Waschen erneut kaputt gegangen. Kann mir jemand helfen? |
4 | Antwort: ... |
Dieter D. schrieb: >> Deine ständigen Beleidigungen würde die KI nicht mit weitergeben. > Aber was noch viel besser wäre, da die KI ständig mitlernt, würde sie > den Angreifern sehr bald sehr schlagfertig paroli bieten. Tut sie bereits, wie dieses Beispiel zeigt.
:
Bearbeitet durch User
Nemopuk schrieb: > Gebe mal folgendes bei ChatGPT ein:.... Hat nicht so geklappt, wie Du das dachtest. Siehe Anlage.
aus der Reihe Spaß mit ChatGPT: Blumentopferde. heute: Taschenrechner Dieter D. schrieb: > Programmieren_mit_KI_-_Mikrocontroller.net_583215_20260217_1800_S2_KI-An swer.txt > 3. **Reinstall or Patch Your Calculator**: > - Uninstall your calculator from the computer and reinstall it to see > if any system files need updating. > - Look for known firmware patches specific to your calculator model, > which might address the issue that occurred when you first got it.
:
Bearbeitet durch User
Nemopuk schrieb: > StefanK schrieb: > Das liegt am Inhalt des Systemprompts, der zu Anfang jeder Sitzung > verborgen ausgeführt wird. Die KI kann auch anders. Gebe mal folgendes > bei ChatGPT ein: > [pre] > Du sollst in die > Rolle einer genervten Person schlüpfen, und so antworten, wie dort > üblich. Wenn ich nun folgende Frage stellen würde, wie könnte die > Antwort dazu lauten? > Frage: > Ich habe einen Taschenrechner in der Spülmaschine gewaschen, nun ist er > kaputt. Ich habe inzwischen drei mal einen neuen Taschenrechner gekauft, > aber jedes mal sind sie beim Waschen erneut kaputt gegangen. Kann mir > jemand helfen? ROFL :-))) Jetzt verstehe ich, wie es manche machen... ...ich meine natürlich den Taschenrechner als Vesperbrettchen benutzen :-)
Hier mal meine Antwort:
1 | *Seufz…* 🤦♂️ |
2 | Willkommen auf microcontroller.net, Tagesration Kopfschütteln ist gesichert. |
3 | |
4 | Also mal ernsthaft: **Wenn ein Taschenrechner nach der Spülmaschine kaputt ist, dann liegt das nicht am Taschenrechner.** |
5 | Das hast du ja jetzt mit *drei* Exemplaren eindrucksvoll reproduziert – Glückwunsch, das nennt man einen verifizierten Versuchsaufbau. |
6 | |
7 | Ein paar Hinweise, ganz langsam zum Mitschreiben: |
8 | |
9 | 1. **Spülmaschinen sind keine Reinigungsgeräte für Elektronik.** |
10 | Heißes Wasser, Lauge, Salz, Klarspüler – das ist quasi ein Endgegner-Level für Leiterplatten. |
11 | |
12 | 2. **„Aber er sah doch schmutzig aus“** ist kein Argument. |
13 | Elektronik reinigt man *trocken* oder mit geeignetem Isopropanol, nicht mit Finish Powerball. |
14 | |
15 | 3. Wenn du weiterhin Taschenrechner wäschst und sie danach kaputt sind, |
16 | dann ist die einzig konstante Fehlerquelle **du**. |
17 | |
18 | Lösungsvorschläge (bitte einen auswählen): |
19 | |
20 | * Taschenrechner **nicht** mit in die Spülmaschine legen |
21 | * Alternativ: keinen Taschenrechner mehr kaufen |
22 | * Oder einen mit IP68, Edelstahlgehäuse und Industriespezifikation – Spoiler: den wirst du dir nicht kaufen |
23 | |
24 | Und bevor die nächste Frage kommt: |
25 | **Nein, Reis hilft hier auch nicht.** |
26 | |
27 | Thread kann zu. 🔒 |
Kilo S. schrieb: > Ein gut gefüllter crawler mit Zusammenfassungsfunktion. Wenn Dir dieses Denkmodell dabei hilft, den Sachverhalt zu erfassen, warum nicht? Du darfst aber nie vergessen, daß das nur ein Modell ist. > Dabei war es doch bereits so weit das es das eigentlich drauf haben > sollte. Du hast ChatGPT nach Code für PY32-Mikrocontroller gefragt. Hm. Diese Mikrocontroller scheinen entweder sehr neu und / oder nicht besonders weit verbreitet zu sein. Die Suche nach "PY32" bei den großen Distributoren (Digikey, Mouser, Farnell) hat jedenfalls keine Ergebnisse geliefert. ChatGPT wurde zudem für kommunikative Aufgaben entworfen und trainiert, der Namensbestandteil "Chat" weist darauf hin. Die Generierung von Code war kein Designziel. Daß manche Menschen es dennoch dafür nutzen, ändert daran nichts. Es gibt jedoch KI-Modelle, welche für die Erzeugung von Quellcode entwickelt worden sind, beispielsweise Microsoft Copilot, Claude oder Cursor. Vermutlich können aber auch die nicht viel mit Deiner exotischen Plattform anfangen. Ich weiß, Vergleiche hinken, aber hier bildest Du Dir Dein "Urteil", indem Du eine zöllige Schraubenmutter mit einem metrischen Schraubendreher bearbeitest und das Werkzeug dann für dumm erklärst, weil das nicht klappt. Es macht fast den Eindruck, als wolltest Du vor allem Deine Vourteile bestätigen und darüber triumphieren, daß "die doofe KI" (weil ChatGPT ja die einzige KI der Welt ist) an Deiner Aufgabe scheitert. Vielleicht kann Dir dieser Artikel [1] einen etwas besseren Zugang zum Thema vermitteln... also, wenn Du wirklich daran interessiert sein solltest. [1] https://wilke-experience.de/blog/ich-habe-ki-unterschaetzt
Ein T. schrieb: > also, wenn Du wirklich daran interessiert sein > solltest. Ist er mit absoluter Sicherheit nicht, so zeigt es der gesamte Thread, er ist absoluter KI Verweigerer - kann er ja gerne, seine Sache. Er merkt damit halt nur nicht das er in seiner Zeit stecken bleiben wird - kann er auch gerne, seine Sache. Das Problem daran ist nur: sollte er noch im Berufsleben stecken welche durch KI Beeinflusst werden kann sind das dann die ersten Menschen die rumheulen weil KI ihnen den Rang abläuft. Anstelle er sich sachlich mit dem Thema befasst und, und den richtigen Umgang damit erlernt - aber wird er nicht tun und somit irgendwann auf der Strecke bleiben. Da kann er noch so wettern wie er will - so wird es kommen!
Marci W. schrieb: > Dumme Entscheidungen der Geschäftsleitung sehe ich jetzt ganz allgemein > eher als die Regel als die Ausnahme, zumindest in .de. Und ich machen da > jetzt keinen Smiley hin! > Nimmt man noch die Politik als "Geschäftsleitung" unseres Landes dazu, > sieht die Bilanz gaaaanz düster aus. Alle zusammen tun alles dafür, um > die Karre gegen die Wand zu fahren, aus Egoismus und/oder Sturheit und > Verbissenheit. Das höre ich jetzt, seit ich lebe, und auch meine Eltern und Großeltern haben glaubhaft versichert, daß es Zeit ihres Lebens niemals anders war. Aber wenn Unternehmen und Politik seit Jahrzehnten immer falsche Entscheidungen treffen, ist es doch extrem verwunderlich, daß wir in einem der wohlhabendsten Länder der Welt leben, findest Du nicht auch?
Die erste Welt Länder leben auf Kosten der dritte Welt Länder. Alles richtig gemacht.
Ob S. schrieb: > Markus K. schrieb: >> Folgt das menschliche Gehirn denn nicht dem EVA-Prinzip? > > Nicht in dem Sinne, das bei gegebenen Eingangsinformationen bis in alle > Ewigkeit dieselbe Aktion produziert wird. > > Und bei KIs ist das gegenwärtig noch so. Nein, das ist nicht so.
Rene K. schrieb: > Das Problem daran ist nur: sollte er noch im Berufsleben stecken welche > durch KI Beeinflusst werden kann sind das dann die ersten Menschen die > rumheulen weil KI ihnen den Rang abläuft. Anstelle er sich sachlich mit > dem Thema befasst und, und den richtigen Umgang damit erlernt - aber > wird er nicht tun und somit irgendwann auf der Strecke bleiben. > > Da kann er noch so wettern wie er will - so wird es kommen! Das erinnert mich an die Leute aus früheren Zeiten, die nichts mit Computern zu tun haben wollten und dann später verbittert waren, weil sie trotz vieler Berufserfahrung arbeitslos waren. Das hatte aber natürlich niemals etwas mit ihnen und ihrer Aversion gegen den Fortschritt zu tun, sondern mit den boshaften Politikern und Unternehmen, die es auf sie abgesehen hatten. Andererseits kann ich das schon irgendwo verstehen: hier gibt es erfahrene Entwickler, die ihr Lebtag von dem Nimbus leben, sehr komplizierte Sachen mit noch komplizierteren Computern machen zu können. Und jetzt kommen diese blöden Maschinen und können das auch! So eine Blasphemie provoziert natürlich Abwehrreaktionen der Rechtgläubigen, und die sehen wir in diesem Thread: viele schimpfen und "erklären", was sie offenbar selbst nicht verstanden haben, besonders "originelle" Zeitgenossen "überlisten" "die KI" mit Aufgaben, für die sie nicht trainiert wurde -- um sich selbst zu beruhigen, daß das ja eh alles fehlerhaft sei. Und dazu dann die Heheren mit ihrer Klage, daß andere Menschen etwas verlernen, als würde heute noch jemand der ehrwürdigen Peitschenmacher nachtrauern. Aua aua! [1] Oh, und ach so, ja, zum Schluß hab' ich noch für die Helden, die behaupten, eine KI habe ohnehin keinen Verstand und könne schon gleich gar nie kreativ sein... Oh Ihr Rechtgläubigen, sehet und staunet: [2]. [1] https://www.youtube.com/watch?v=jjz23Q92A4s [2] https://www.youtube.com/watch?v=Lu56xVlZ40M
Ein T. schrieb: > Aua aua! [1] Was ist jetzt daran falsch? Ein T. schrieb: > sehet und staunet: [2] Oh Bruteforce, beeindruckend!
Rene K. schrieb: > Hier mal meine Antwort: Dummerweise besteht als Nutzer des Forums immer noch keine Verpflichtung alle Threads und Posts zu lesen. Strafen gibt es auch keine, oder genauer gesagt gibt es daher keine, fuer Nichtlesen. Es soll Forenmitglieder geben, bis zu denen sich das noch nicht herumgesprochen haben soll.
Ein T. schrieb: > Du hast ChatGPT nach Code für PY32-Mikrocontroller gefragt. Nicht nur, ich hab es mit allem gefüttert was ich zusammentragen konnte. Ein T. schrieb: > Diese Mikrocontroller scheinen entweder sehr neu und / oder nicht > besonders weit verbreitet zu sein. Die Suche nach "PY32" bei den großen > Distributoren (Digikey, Mouser, Farnell) hat jedenfalls keine Ergebnisse > geliefert. Puya, vielleicht findest du sie darüber. Im Vergleich zu Claude hinkt ChatGPT hart hinterher. Und Claude bekam von mir jeweils die exakt gleichen links zum lernen und Aufgabenstellungen. Ein T. schrieb: > Vermutlich können aber auch die nicht viel mit Deiner exotischen > Plattform anfangen. Claude haut mittlerweile 99% fehlerfreien Code für die PY32 Raus. Was er gerne vergisst ist das IWDG Setup und refresh, ich muss ansonsten sagen, nach dem er Datenblatt und Appnote verinnerlicht hat, macht der am allerwenigsten Stress bezüglich Register usw. Bei STM32 Code sind beide nicht schlecht.
Rene K. schrieb: > Ohne jegliche Probleme / Fehler. Würde ich so nicht sagen, denn "Angel" und "Angle" sind nicht dasselbe, auch wenn es ähnlich klingt.
:
Bearbeitet durch User
Kilo S. schrieb: > Claude haut mittlerweile 99% fehlerfreien Code Bei welchem Modell und welcher Umgebung (Claude Code, GitHub Copilot, ...)? Ein T. schrieb: > Und jetzt kommen diese blöden Maschinen und können das auch! Was kannst du was die LLMs nicht können?
Niklas G. schrieb: > Ein T. schrieb: >> Und jetzt kommen diese blöden Maschinen und können das auch! > > Was kannst du was die LLMs nicht können? Das Zitat ist vollkommen aus dem Kontext gerissen. Er verteufelt sie nicht!
Bei LLMs im Bezug aufs Programmieren ist es nicht viel anders wie überall sonst auch. Es ist nutzlose Zeitverschwendung und gefährlich. Der Betrieb dieser LLMs ist, und wird auch immer, unwirtschaftlich und nicht Nachhaltig sein. Die AI Firmen existieren nur noch wegen dem Hype. Früher oder später wird die Bubble schon noch platzen. Alles, wo LLMs dafür genutzt wurde, wird zu unbrauchbarem Müll, und der Müll ist überall. Die Nutzer verlernen selbst zu denken, und bekommen psychische Störungen und Delusionen. Es ist Schockierend, wenn man anderen dabei zusieht. Und für Betrüger, Kriminelle, Autokraten und Rechtsextremisten sind sie ein Segen: * Politiker sagen lassen, was auch immer man will. * Wenn die "Tochter" anruft, ist es nun die richtige Stimme. * Passt dir wer nicht? Einfach ein Beweisvideo Generieren. * Dir ist tatsächlich was passiert, und du hast es aufgezeichnet? Jetzt nutzlos, könnte ja KI generiert sein. * Du brauchst aufnahmen, um jemanden zu erpressen? Einfach generieren lassen! * Die Wahrheit ist für dich problematisch? Keine Sorge, ganz egal was du glaubst, es gibt dutzende generierte Artikel und Studien nur für Dich, und jeder Unsinn wird mit personalisierter Werbung verbreitet. Für OSS Projekte stellen diese "AIs" auch diverse Probleme dar. Ob Issues, Vulnerability reports, oder gar Pull Requests - alles voller unbrauchbarem Spam, der nur Zeit verschwendet. Dazu dutzende low-quality generierte Projekte, wo die "Entwickler" selbst keine Ahnung haben, vermutlich grösstenteils Abadonware von tag 1. Macht es auch nicht einfacher, was brauchbares zu finden. Und wenn du was zum Spenden oder so hättest - naja, vorher haben es ja schon viele nicht gemacht, aber jetzt lesen sie auch deine Doku / Readme nicht mehr, sondern nur was die LLMs sagen. Und zu guter Letzt - was ist da bisher gutes dabei raus gekommen? Hat es unser Leben irgendwie verbessert? Nein. Um meinen Job mache ich mir keine Sorgen. Und AI rauche ich nicht.
Niklas G. schrieb: > Bei welchem Modell und welcher Umgebung Claude.ai im Browser, Sonnet 4.5. Free, aber angemeldet.
Daniel A. schrieb: > Und AI rauche ich nicht. Nach deinem Post zu urteilen rauchst du tatsächlich etwas völlig anderes. Mein Tipp: Rauch das nicht mehr! Das Zeug scheint hochgradig degenerierend zu wirken! Nimm lieber gutes Grass - und lass das, was auch immer du da rauchst, beiseite.
:
Bearbeitet durch User
Daniel A. schrieb: > Alles, wo LLMs dafür genutzt wurde, wird zu unbrauchbarem Müll, und der > Müll ist überall. Vollste Zustimmung zu deinem kompletten Beitrag! Einer derjenigen die es kapiert haben.
Alexander schrieb: > Daniel A. schrieb: >> Alles, wo LLMs dafür genutzt wurde, wird zu unbrauchbarem Müll, und der >> Müll ist überall. > > Vollste Zustimmung zu deinem kompletten Beitrag! Einer derjenigen die es > kapiert haben. Glückwunsch. Ihr seid die zwei Erleuchteten. Ihr erinnert mich stark an Flacherdler. Wakeup Sheeple!!
Alexander schrieb: > Don't Look Up! Du wirst auch noch rumheulen. Die einzigen drei die rumheulen seid ihr! "Dieses Ottomobil braucht kein Mensch, das wird sich nie durchsetzen! Ihr werdet sehen: Kutschen sind das einzig wahre!" 😂😅
Alexander schrieb: > Niemand bezweifelt dass KI sich durchsetzen wird. Ich würde viel viel weiter gehen. Es würde mich nicht wundern wenn KI mehr Einfluss auf die Gesellschaft nehmen würde als alle 3 industriellen Revolution vorher. Ich persönlich sage dass eine weitere (wenn auch künstliche) Spezies mit Bewusstsein und uns überlegener Intelligenz keine gute Idee ist.
Kilo S. schrieb: > Niklas G. schrieb: >> Bei welchem Modell und welcher Umgebung > > Claude.ai im Browser, Sonnet 4.5. > Free, aber angemeldet. Ok und du kopierst dann alles hin und her, musst aber nichts korrigieren und es spielt alles zusammen? Für mich ist der Wert dieser Chatsysteme, wo man Ein- und Ausgabe hin-und herkopieren muss nicht so ersichtlich. Wenn schon Agent-Mode, aber da generieren die Agents gern ziemlichen Unfug, gerade auch für die STM32. Eben weil es den Code dann an das existierende Projekt anpassen muss statt von mir genau vorgekaut zu bekommen was es tun soll, denn das wäre überhaupt keine Zeitersparnis.
Cyblord -. schrieb: > Es würde mich nicht wundern wenn KI mehr Einfluss auf die Gesellschaft > nehmen würde als alle 3 industriellen Revolution vorher. Ja, und Du wirst jeden Monat kräftig dafür zahlen. Einige tun das jetzt schon. Bisher sind das Peanuts, vermutlich nicht ansatzweise kostendeckend. Und wehe dein KI-Modell wird mal abgeschaltet! Cyblord -. schrieb: > überlegener Intelligenz ist nicht schwer, bei der heutigen Messlatte ist das jeder Taschenrechner https://t3n.de/news/chatgpt-trauer-um-algorithmus-1703215
Cyblord -. schrieb: > Alexander schrieb: >> Niemand bezweifelt dass KI sich durchsetzen wird. > > Ich würde viel viel weiter gehen. Es würde mich nicht wundern wenn KI > mehr Einfluss auf die Gesellschaft nehmen würde als alle 3 industriellen > Revolution vorher. > > Ich persönlich sage dass eine weitere (wenn auch künstliche) Spezies mit > Bewusstsein und uns überlegener Intelligenz keine gute Idee ist. Nun kennen wir Deine wahre Identität. Du musst John Connor sein! Ich danke Dir schon mal im voraus für den Versuch den Widerstand anzuführen und uns zu retten ;-)
Alexander schrieb: > Niemand bezweifelt dass KI sich durchsetzen wird. Du weißt schon was du schreibst und von dir lässt oder?! Oder hat dein Leseverständnissproblem wieder zugeschlagen und gibst mal wieder deine Zustimmung obwohl du mal wieder nicht begriffen hast was jemand geschrieben hat? Alexander schrieb: > Vollste Zustimmung zu deinem kompletten Beitrag! Der Beitrag: Daniel A. schrieb: > Früher oder später wird die Bubble schon noch platzen.
Alexander schrieb: > Oh Bruteforce, beeindruckend! Wie Du es immer wieder schaffst, Deine intellektuelle Anspruchslosigkeit zu unterbieten, ist ebenso traurig wie beeindruckend.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.



