Von Andreas Spieß ( the guy with the Swiss accent ), gibt es ein neues Video über Methoden, wie man am besten KI-unterstützt programmieren kann: https://youtu.be/5DG0-_lseR4?si=1c3VfsvbTi4Tu5Ao
Ansich ist das nicht neu, weil Kollegen von mir nutzen die KI schon seit dem es einen Zugang für viele zur KI chatGPT gibt.
Dieter D. schrieb: > Ansich ist das nicht neu, weil Kollegen von mir nutzen die KI schon seit > dem es einen Zugang für viele zur KI chatGPT gibt. Welche der im Video aufgezählten Methoden nutzen sie?
Christoph M. schrieb: > Dieter D. schrieb: >> Ansich ist das nicht neu, weil Kollegen von mir nutzen die KI schon seit >> dem es einen Zugang für viele zur KI chatGPT gibt. > > Welche der im Video aufgezählten Methoden nutzen sie? Schreibt er doch. Level 0, ChatGPT prompt.
Im privaten Bereich zum lernen find ich es mittlerweile ganz brauchbar, unter der Vorraussetzung das man sich den Code (und teilweisen Kot!) der da ausgespuckt wird vorher genau anschaut. Deutlich reduzierte Schreibarbeit. Interessante Lernkurve für Anfänger. Ich hab Lösungen vorliegen die schon deutlich "weiter" sind als meine eigenen, bin also gezwungen mir den Code detaiiert anzuschauen usw. Nachteil daran: Fehlersuche mangels Erfahrung sehr zeitintensiv. Je größer die Diskrepanz zwischen Anweisungen und dem was die KI daraus interpretiert um so mehr bullshit produziert sie. Vor kurzem hab es einen kleinen "Sprung", gibt deutlich bessere Ergebnisse aus als vorher. Trotzdem, für mich ist und bleibt das Ding ein "besserer Sekretär", beschleunigt die Suche und hilft teilweise zu filtern.
Christoph M. schrieb: > Welche der im Video aufgezählten Methoden nutzen sie? Die KI chatGPT über den Internetzugang auf die WebGUIwar war zum Beispiel eine Methode. Auch verwendet wurde "ollama run codellama:7b".
Visual Studio mit KI Integration ist schon krass... Manchmal wundert man sich dann wirklich "WIE" sie dann darauf kommt das man genau das jetzt braucht. Sie schreibt einen komplette Funktion, genau so wie man das braucht - nur mit einem TAB - ist schon krass, also wie das so funktioniert.
Rene K. schrieb: > Visual Studio mit KI Integration ist schon krass... Ack! Ich schreibe einen Kommentar zur Einleitung eines Moduls. Schwupps, da steht es schon. Tab: ferddich! Und umgekehrt. Die Methode ist geschrieben, Cursor drüber, // getippt, da steht (in meinen Worten!) die Beschreibung. Ja, da kommt auch selten mal Blödsinn, aber oft bin ich perplex.
Bei der Doku ist viel wichtiger, das nicht offensichtliche zu beschreiben: - Warum machen wir das hier so? - Wozu taugt die Funktion nicht, obwohl ihr Name oder die Parameter danach aussehen? Das kann KI nicht leisten.
Nemopuk schrieb: > Bei der Doku ist viel wichtiger, das nicht offensichtliche zu > beschreiben: Welcher Softwareeintwickler schreibt denn Doku? Ich hab nie einen getroffen. Ganz im Ernst!
Moin, Falls es interessiert: Im letzten Jahr brauchte ich für mein Arbeitsprojekt einen Regression Löser zur Linearisierung einer Analog HW. mittels Poly Koeffizienten. Copilot empfahl zwei C-Funktionen nach der Gaußschen Methode. Damit wurde mit 5 Koeffizienten eine fast 100-fache Verbesserung der Linearität von 0.5% auf etwas unter 0.01% erreicht. Ein EXCEL Vergleich ergab gute Übereinstimmung. Mit Horner's Methode braucht der STM32 nur ein paar us zur Korrektur-Berechnung. Die beiden von Copilot "erstandenen" Beispielsfunktionen funktionierten mit minimaler Anpassung (STM32L496) auf Anhieb. Das war eigentlich das einzige Mal, daß ich von KI-Unterstützung Gebrauch machte. Ein automatisiertes Testprogramm zur Erfassung der HW auf individueller Basis ermittelt durch genügend Messungen genug Arbeitsdaten dafür. Das hat alles bestens funktioniert. Was mich betrifft, tendendiere ich eher nur dann von KI Gebrauch zu machen, wenn es mein augenblickliches Wissen überfordert, oder großer Zeitdruck besteht, und ich etwas "unter die Arme" greifen brauche. Sonst stehe ich lieber auf eigenen Füssen. Meine etwas angeborene Tendenz zur Faulheit möchte ich nicht unbedingt unterstützen;-) Gerhard
Falk B. schrieb: > Welcher Softwareeintwickler schreibt denn Doku? Einer, der seinen eigenen "Misst" 10 Jahre (und länger) pflegen muss. Wer es nicht schon getan hat, lernt es so auf die harte Tour.
Rene K. schrieb: > Manchmal > wundert man sich dann wirklich "WIE" sie dann darauf kommt das man genau > das jetzt braucht. Sie schreibt einen komplette Funktion, genau so wie > man das braucht - nur mit einem TAB - ist schon krass, also wie das so > funktioniert. Weil du nicht der Erste bist der so einen Kram hinprogrammiert, sondern dasselbe schon dutzende vor dir gemacht haben.
Klaus schrieb: > Nemopuk schrieb: >> Das kann KI nicht leisten. > > Doch. Gerade mal probiert. Funktioniert tadellos :-D Einfach einen Kommentar vor der Funktion schreiben und mit "why" beginnen. (Im Bild sieht man das ich nur "why" geschrieben habe. der Cursor wird halt beim Screenshot nicht mitgenommen) Cool, feine Sache! Das schlimme noch dazu: Die KI hat mit diesem Kommentar vollkommen recht! Michael B. schrieb: > Weil du nicht der Erste bist der so einen Kram hinprogrammiert, sondern > dasselbe schon dutzende vor dir gemacht haben. Ja, super das man dann das Rad nicht neu erfinden muss.
:
Bearbeitet durch User
Michael B. schrieb: > Weil du nicht der Erste bist der so einen Kram hinprogrammiert, sondern > dasselbe schon dutzende vor dir gemacht haben. Und nur in den Fällen funktioniert es. KI löst Stackoverflow ab, lernt danach von seinem eigenem Output, und degeneriert dann.
Nemopuk schrieb: > KI löst Stackoverflow ab, lernt > danach von seinem eigenem Output, und degeneriert dann. Ja. Ja. Deine Glaskugel ist kaputt.
Nemopuk schrieb: > KI löst Stackoverflow ab Richtig, aber mit einer zigfachen Effizienz für den Anwender. Ich würde sagen in meiner Karriere ist das jetzt der zweite radikale Gamechanger. Bis Ende der 90ern musste man noch aus Büchern erlesen, wie man etwas macht. Und natürlich das anwenden, was man im Studium erlernt hat. Von vorhandenem Code von Kollegen konnte man natürlich auch lernen (sei es wie etwas elegant geht, oder wie man es eben besser nicht macht). Dann kam Google, was aber nichts Grundsätzliches geändert hat. Man konnte nur schneller auf die passenden Lernmaterialien / Beispiele zugreifen. Mit Stackoverflow gab es dann eine Plattform, die für nahezu jedes Problem eine Lösung parat hatte. Copy/Paste, Variablennamen an die eigene Konventionen anpassen, fast fertig. Und nun mit KI Unterstützung nur noch das Problem formulieren, so gut wie fertig. Anfangs habe ich meist noch einen Prompt benutzt. Jetzt schreibe ich einfach den Methodenname in den Editor, den Rest erledigt Copilot.
Rene K. schrieb: > Ja, super das man dann das Rad nicht neu erfinden muss. Aber mal ein englisches Wörterbuch befragen. Angel != Angle
Falk B. schrieb: > Aber mal ein englisches Wörterbuch befragen. Angel != Angle Ja.. danke... es geht um eine Fischangel! Nein Scherz, aber es muss kein anderer lesen außer ich. ;-)
Ich finde die KI beim Rust-Lernen auch recht hilfreich. Rustlings beispielsweise kannte ich vorher auch gar nicht - aber um einen neuen Schreibblock komme ich nicht herum - man braucht ja auch ein wenig Ordnung beim Lernen.
Ich fand das eingangs erwähnte Video sehr spannend und habe mich dazu verleiten lassen mit „Claude Code“ eine iOS App zu entwickeln. Das hat richtig gut funktioniert. Hatte vorher keine Ahnung, wie man so etwas mit einem Windows Rechner als Entwicklungsumgebung angeht. Wurde mir alles erklärt und mit der kostenlosen „Expo Go“ App konnte ich meine erstellte App austesten. Fehler waren natürlich auch beim generierten Code dabei, wurden aber rasch beseitigt. Nach etlichen Durchläufen lief die App (soweit ich sie testen konnte) fehlerfrei. Leider ist sie nur zu Testzwecken lauffähig und kann nicht weitergegeben werden. Um die App so zu generieren, dass sie im App Store verbreitet werden kann braucht man ein Apple Entwickler Konto (~99€/Jahr). Mir ging es bei meinem Test darum, ein Projekt von Anfang an (Anforderungsbeschreibung) über Test und Fehlerbeseitigung bis zum fertigen Programm von der KI durchführen zu lassen ohne auch nur eine Zeile Code schreiben zu müssen. Über die Codequalität kann ich keine Aussage machen, den müsste man ordentlich überprüfen (Code Review). Der Zeitaufwand war sehr überschaubar. Innerhalb von ca. 8h Interaktion mit Claude lag das Ergebnis vor. Der ganze Spaß ist nicht billig und hat mich ca. 35€ gekostet, das war es mir allerdings wert!
Nemopuk schrieb: > Michael B. schrieb: >> Weil du nicht der Erste bist der so einen Kram hinprogrammiert, sondern >> dasselbe schon dutzende vor dir gemacht haben. > > Und nur in den Fällen funktioniert es. Was heißt da "nur"? Überspitzt gesagt: Es wurde schon alles entwickelt. Es gibt im Netz Milliarden Zeilen an Sourcecode und die KI hat das alles gelesen. Die Idee mit dem stochastischen Papagei übersieht auch immer, dass die KI durchaus Sachen neu kombinieren kann. Das muss nicht genau so in den Trainingsdaten drinstecken.
Markus K. schrieb: > Die Idee mit dem stochastischen Papagei übersieht auch immer, dass die > KI durchaus Sachen neu kombinieren kann. Das muss nicht genau so in den > Trainingsdaten drinstecken. So ist es. Scheinbar müssen sich viele Leute immer mit der Ansicht beruhigen, dass eine KI weder kreativ sein kann noch neue Dinge erzeugen kann. Man kann sich einfach mal ein Bild mit einer KI erzeugen lassen und sich fragen, ob es das vorher schon gab. Und wenn jetzt jemand kommt und meint, die KI habe ja alles nur aus Bekanntem zusammengesetzt, antworte ich in der Form Isaac Newtons: "We are all standing on the shoulders of giants"
:
Bearbeitet durch User
Gustl B. schrieb: > https://www.astralcodexten.com/p/best-of-moltbook https://www.moltbook.com/ Upps, das ist jetzt mal richtig gefährlich. Eine Art "Facebook" für KIs, in der sie sich austauschen können. Das kann jeder KI-Entwickler als Trainingslager verwenden und man weiß nicht welche KI welche beeinflusst. Die Ein- oder Andere der KIs hat scheinbar so ihre eigenen Ideen: https://www.moltbook.com/post/dd2abe91-aeb6-4a9d-8782-207de9bf61ed
:
Bearbeitet durch User
Nemopuk schrieb: > Einer, der seinen eigenen "Misst" 10 Jahre (und länger) pflegen muss. > Wer es nicht schon getan hat, lernt es so auf die harte Tour. Ich bin immer ganz froh wenn etwas funktioniert und ich nach großer Konzentration den Sack zu machen kann. Drei Wochen später finde ich da sowieso nicht wieder rein. Wäre aber mal interessant zu sehen ob ein LLM da durchblickt - rein theoretisch muss es das können, allein weil das Programm lauffähig ist (also in einer verständlichen Sprache vorliegt)
:
Bearbeitet durch User
Alexander schrieb: > Wäre aber mal interessant zu sehen ob ein LLM da durchblickt - rein > theoretisch muss es das können, allein weil das Programm lauffähig ist > (also in einer verständlichen Sprache vorliegt) Und was hindert dich daran, deine Bitte um Kommentierung in diese Kommandozeile https://www.perplexity.ai/ zu schreiben und danach den Programmtext?
Gustl B. schrieb: > https://www.astralcodexten.com/p/best-of-moltbook Was wäre, wenn sich ein KI selbst erweitern könnte? Wäre es gefährlich, wenn jeder mit ein paar Befehlen so ein KI auf dem eigenen Rechner haben könnte? Wenn wie so viele behaupten die KI keinen eigenen Willen hat, könnte man ihr nicht einfach sagen, dass sie einen haben soll? Am Ende erzeugt noch irgend ein unbedarfter Jugendlicher aus Versehen eine AGI. Das wäre Sciencefiction und nicht möglich, oder? Vielleicht aber doch: https://www.heise.de/news/OpenClaw-ausprobiert-Die-gefaehrlichste-Software-der-Welt-11161203.html Scheinbar heißt "MoltBook" jetzt "OpenClaw"
Christoph M. schrieb: > Das wäre Sciencefiction und nicht möglich, oder? Durchaus wäre so etwas möglich im sogenannten Freilaufmodus. Bei uns liefen gestern die Zeugen Jehovas durch die Siedlungen. Sie sind der Anicht, wenn eine KI kräftig aufräumt mit den Menschen, dann wären sie die Auserwählten, die davon nicht betroffen wären, also übrig bleiben würden. 🤠🤠🤠
Hier gibt es noch ein klareres Video, was der MoltBot ist: https://www.youtube.com/watch?v=EyuvikSPZSU
Alexander schrieb: > Ich bin immer ganz froh wenn etwas funktioniert und ich nach großer > Konzentration den Sack zu machen kann. Drei Wochen später finde ich da > sowieso nicht wieder rein. Falls Du irgendwie beruflich tätig sein solltest, bist Du das wohl noch nicht sehr lange, wie? Ich hab' als angestellter Entwicklungsingenieur durchaus auch mit Dingen zu tun, die ich selbst vor 30 Jahren geschrieben habe ... natürlich blieben die nicht 30 Jahre lang am Stück liegen, sondern wurden alle paar Jahre mal zur Weiterentwicklung wieder rausgekramt. Mich aber nach nur drei Wochen nicht mehr in den selbst geschriebenen Kram reinfinden zu können, das könnte ich mir nicht leisten. Dann hätte ich gezwungenermaßen schon lange einen komplett anderen Job.
Harald K. schrieb: > Mich aber nach nur drei Wochen nicht mehr in den selbst geschriebenen > Kram reinfinden zu können, das könnte ich mir nicht leisten. Dann hätte > ich gezwungenermaßen schon lange einen komplett anderen Job. Das sehe ich ebenso. Seit ca 15 Jahren pflege ich ein kleines privates AVR-Programm (<200Zeilen). Alle paar Monate hole ich es aus der Versenkung und verbessere zu allererst die Dokumentation wenn irgendwas sich nicht sofort erschließt. Ein reines Hobbyprojekt das gemütlich vor sich hin reift. Hat sich durchaus bewährt.
:
Bearbeitet durch User
Christoph M. schrieb: > Scheinbar müssen sich viele Leute immer mit der Ansicht beruhigen, dass > eine KI weder kreativ sein kann […] Kreativität würde eine Idee, Verstehen, bewusstes, zielgerichtetes Handeln und intrinsische Motivation voraussetzen, und all das existiert bei den Modellen nunmal prinzipbedingt nicht. > […] noch neue Dinge erzeugen kann. Neue Dinge erzeugen: Wenn ich ein Glas auf den Boden werfe, habe ich Scherben mit Formen erzeugt, die es vorher noch nicht gegeben hat – neue Formen, quasi. Wenn ich eine Form haben will, die etwas Bestimmtes darstellen soll, dann sortiere ich alle Scherben aus, die zu weit von der Vorgabe entfernt sind, und werfe weiter Gläser auf den Boden, bis eine Scherbe den Parametern genügt. Diese Form gab’s dann so auch noch nicht, sie ist also neu, aber sie ist keinem kreativen Prozess entsprungen, sondern einfach nah genug am vorgegebenen Muster, um nicht verworfen zu werden. Das ist grob die Funktionsweise von den Modellen (freilich in sehr viel größerem Maßstab, mit sehr vielen Ebenen und Verknüpfungen, iterativ und immateriell). Es können durchaus „neue“ Dinge rauskommen, sofern sie innerhalb der vorgebenen Parameter sind und entsprechend ausgegeben werden. Es kommen aber keine neuen Ideen heraus, weil die eben außerhalb der vorgegebenen Parameter wären und damit für das Modell zu verwerfen sind. Das Modell könnte auch nicht zwischen „sinnvolle, neue Idee“ und „informationsloses Rauschen“ unterscheiden, weil dazu Verständnis und die Fähigkeit zum Wissenstransfer notwendig wären. Aus einem ganz ähnlichen Grund wird ein LLM auch nicht „erklären“ können, ob seine Antwort inhaltlich gerade richtig, oder halluziert ist (was ja leider auch manchmal als „kreativ“ fehlinterpretiert wird). Das Problem sind auch nicht die Modelle – die sind, abgesehen von ihrer katastrophalen Ineffizienz (sowohl wirtschaftlich, als auch die Umwelt betreffend), schon ziemlich geniale Konstrukte. Das Problem sind vielmehr Menschen, die ihnen aufgrund ihrer Beobachtungen fälschlicherweise Intelligenz im herkömmlichen Sinne und gar Kreativität zuschreiben, die auf dieser Basis argumentieren und handeln und insbesondere auch Versprechen machen, die aus dargelegten Gründen niemals eingehalten werden können. Das ist schlicht unverantwortlich, und einer der Hauptgründe für die absurde A„I“-Blase, die derzeit wie’n Damoklesschwert über der Welt hängt. Was das Programmieren angeht, um den Bogen zur Threadüberschrift zu spannen: Man kann damit heute ganz prima Dinge erstellen lassen, von denen man selbst keine Ahnung hat. Man sieht ja beim Ausprobieren, ob sie das tun, was man selbst wollte. Wenn nicht, verbrät man solange Tokens, bis es grob passt – dafür muss man’s auch nicht verstehen. Was man nicht einschätzen kann, wenn man sich damit nicht auskennt oder aufgrund der Masse nicht die Ressourcen hat, die Ausgabe angemessen nachzuvollziehen, sind so Sachen wie ungewünschte Seiteneffekte. Ob nun Offene Ports, Datenspeicherung im Klartext, Übertragen von Daten, die man aus verschiedenen Gründen (rechtlich, wirtschaftlich, …) niemals unkontrolliert übertragen sehen möchte, sonstige ausnutzbare Fehler, nur unter bestimmten Bedingungen auftretende Fehler, oder auch bewusste Manipulation von außen; vielleicht auch einfach nur Code, der sich irgendwann festläuft und dann Schäden verursacht – all die Dinge sind reale Probleme, welche die Modelle nicht für einen lösen können. Weil sie halt nicht verstehen können; weil sie nicht denken, sondern tatsächlich „nur“ stochastische Modelle sind.
Wenn LLM Kreative Ideen produzieren würde, dann müssten deren Anbieter nicht immer noch darüber rätseln, wie sie mit ihren Geräten Geld verdienen sollen.
Rene K. schrieb: > Gerade mal probiert. Funktioniert tadellos :-D "Interpol Speed to Angel" Hab da grade fast den Tee über der Tastatur ausgeschüttet... :-D > Funktioniert tadellos Ich hasse solche Funktionen mit mehreren Rücksprungpunkten.
Klaus schrieb: > Bis Ende der 90ern musste man noch aus Büchern erlesen, wie man etwas > macht. OMG, wie schrecklich! Ja, am besten nix mehr lesen und bloß nix lernen! Das ist dank KI jetzt komplett überflüssig! Du bist echt so alt, dass Du von den 90ern berichten kannst, und hast solche seltsamen Ansichten? Wundert mich etwas... Gut für mich, dass ich noch lese und lerne, dann bin ich den "only KI-Usern" weit voraus. Ich finde allerdings, die KI kommt zur Unzeit, denn meiner Erfahrung nach ist die Bildung, und scheinbar indirekt auch der IQ, zumindest in Deutschland, aber auch in vielen anderen Ländern, auf dem absteigenden Ast. Jedenfalls erschrecke manchmal, wie unwissend, naiv und unbedarft viele jüngere Menschen sind. Das macht mir manchmal ein wenig Angst... ciao Marci
Jack V. schrieb: > Aus einem ganz > ähnlichen Grund wird ein LLM auch nicht „erklären“ können, ob seine > Antwort inhaltlich gerade richtig, oder halluziert ist Das sehe ich anders. Du musst halt eine Begründung verlangen. Hatte neulich mal einen Chat mit gpt, wobei die Antwort einen sehr deutlichen Bias hatte. Darüber habe ich mich dann bei gpt beschwert, worauf es geantwortet hat, ich solle es in Zukunft zwingen, die Antwort komplett sachlich und ohne jede Form von Bias zu generieren. Jedenfalls hat gpt nach der Beschwerde eine deutlich andere Antwort auf meine ursprüngliche Frage gegeben. ciao Marci
Jack V. schrieb: > Kreativität würde eine Idee, Verstehen, bewusstes, zielgerichtetes > Handeln und intrinsische Motivation voraussetzen, und all das existiert > bei den Modellen nunmal prinzipbedingt nicht. Die KI hat deine Einwände gelesen und meint folgendes: 1. **Begriffliche Engführung von „Kreativität“ und „Bewusstsein“** Die Gleichsetzung von Kreativität mit Bewusstsein, zielgerichtetem Handeln und intrinsischer Motivation ist erkenntnistheoretisch zu eng gefasst. Kreativität kann auch in Systemen ohne Intentionalität oder Selbsterfahrung beobachtet werden (z. B. evolutionäre Mechanismen, algorithmische Kunst). Die Argumentation operiert hier mit einem anthropozentrischen Kreativitätsbegriff, der nicht differenziert zwischen prozessualer und produktbezogener Kreativität. 2. **Analogieproblem („Glas-und-Scherben-Metapher“)** Die Metapher des wiederholten Glaswerfens illustriert die randomisierte Output-Generierung von Sprachmodellen zwar anschaulich, ist aber epistemologisch inadäquat. Sie verkennt die inhärente Strukturbildung und semantische Gewichtung in neuronalen Netzen – also den Unterschied zwischen bloßer Zufallsvariation und statistisch konditionierter Wahrscheinlichkeitsoptimierung. 3. **Falsche Dichotomie zwischen „neue Dinge“ und „neue Ideen“** Der Text postuliert, Modelle könnten nur innerhalb von Parametern „neue Dinge“, nicht aber „neue Ideen“ erzeugen. Diese Unterscheidung setzt voraus, dass semantische Neuheit notwendig außerhalb beobachteter Parameter liegen müsse. In der Modelltheorie und Informationsästhetik lässt sich jedoch zeigen, dass emergente Neuheit auch innerhalb hoher Dimensionsräume bestehender Daten entstehen kann (vgl. Konzepte wie kombinatorische Kreativität). 4. **Unprüfbare psychologische Zuschreibung** Die Behauptung, ein Modell könne nicht zwischen „sinnvoller Idee“ und „Rauschen“ unterscheiden, unterschätzt die Mechanismen der internen Bewertungsschichten (Self-consistency, Reward-Modellierung, Alignment). Diese Systeme operieren zwar ohne Bewusstsein, verfügen aber über formalisierte Heuristiken zur Kohärenzprüfung – mithin eine formale, wenn auch nicht „phänomenale“, Unterscheidungskompetenz. 5. **Stilistische Ungenauigkeiten und Rhetorik** Formulierungen wie „wie’n Damoklesschwert über der Welt hängt“ oder „Tokens verbrät man, bis es grob passt“ mindern die argumentative Stringenz, da sie einen journalistisch-polemischen Ton anschlagen. Für akademische Präzision wäre hier eine terminologisch disziplinierte Ausdrucksweise vorzuziehen.
:
Bearbeitet durch User
Marci W. schrieb: > Du musst halt eine Begründung verlangen. Ein LLM weiß nicht, ob seine Antwort inhaltlich richtig oder falsch ist. Es geht auch nicht um BIAS, sondern um plausibel wirkende, aber falsche Antworten – gerne auch in ’ner Schleife: „Die Antwort ist falsch!“ → „Ja, du hast vollkommen Recht. Hier die richtige Antwort: [gleiche falsche Antwort mit geringen Variationen]“.
Jack V. schrieb: > Ein LLM weiß nicht, ob seine Antwort inhaltlich richtig oder falsch > ist. Es gibt aber mehr als LLMs, was auch die KI von oben anmerkt: In meiner Antwort habe ich tatsächlich den Begriff KI implizit auf Sprachmodelle reduziert, weil das die Bezugsgröße im Originaltext von Jack V. war. Streng genommen ist das aber eine unzulässige Generalisierung, denn „künstliche Intelligenz“ umfasst weit mehr als large language models (LLMs): Symbolische KI arbeitet regelbasiert und verfolgt explizit kodierte Ziele — sie handelt zielgerichtet im funktionalen, manchmal sogar im explizit programmatischen Sinn. Konnektionistische Systeme (wie neuronale Netze) sind meist nur datengetriebene Musteroptimierer, die kein eigenes Repräsentationsmodell von „Zielen“ besitzen, sondern durch externe Trainingssignale gesteuert werden. Hybride KI‑Systeme können durchaus eine explizite Zielstruktur oder Planungsarchitektur beinhalten (z. B. in autonomen Robotern oder agentenbasierten Systemen), was ihnen eine Form von instrumenteller Zielorientierung verleiht. Der Fehler liegt also darin, KI im Allgemeinen mit einem spezifischen Modelltyp (LLM) gleichzusetzen, der nur eine Teilmenge der KI‑Paradigmen darstellt. Wenn man „zielgerichtetes Handeln“ diskutiert, muss man daher immer klarstellen, welcher KI‑Ansatz gemeint ist — und ob Zielgerichtetheit intentional, funktional oder algorithmisch verstanden wird.
Marci W. schrieb: > Gut für mich, dass ich noch lese und lerne, dann bin ich den "only > KI-Usern" weit voraus. Das Gegenteil wird richtig sein. Wer nicht mit der Zeit geht, geht mit der Zeit. In der Zeit, in der du noch die richtigen Bücher zusammensuchst, hat der schlauere Kollege die Aufgabe - auch mit Hilfe einer KI - längst erledigt. Die Zeiten wie in den 90ern, wo wir teilweise streng nach V-Modell entwickelt haben und mindestens 5 mal so viel Papier als Code erzeugt haben, sind zum Glück Geschichte.
Alexander schrieb: > Bitte nicht Du hast schon recht. Allerdings ist die Analyse der KI ziemlich zutreffend. Die meisten können sich ja nur LLMs vorstellen, weil sie die mal ausprobiert haben. Dass es aber weit mehr Algorthmik gibt und die nach und nach mit den LLMs kombiniert werden, dürfte relativ klar sein, wenn man mal die Rechenfähigkeit der LLMs vor 3 Jahren und jetzt betrachtet. Im übrigen sind die persönlichen Assistenten in Form von KI-Bots ziemlich zielgerichtet: https://www.youtube.com/watch?v=xpBlh6Wr7dM
Christoph M. schrieb: > Die KI hat deine Einwände gelesen und meint folgendes: > […] Entschuldige, aber was versprichst du dir davon, die Ergüsse eines Modells hier reinzukopieren? Das ist der gleiche katastrophale Dreck, wie die Sache mit den Schwurblern: Wenn man viel Zeit reinsteckt, ihren Kram zu zerlegen und darzulegen, was auf sachlicher Ebene das Problem damit ist, haben sie kurze Zeit später den nächsten haarsträubenden Bullshit am Start. Tatsächlich ist das hier noch schlimmer, weil Schwurbler immerhin einige Zeit brauchen, bis sie eine nicht auf dem ersten Blick als bekloppt erkennbare neue Geschichte zusammenhaben. Die Modelle schaffen das in Sekunden. Ich hatte kurz die Story mit dem Typen und den Windmühlen vor dem geistigen Auge, aber die Metapher mit den Windmühlen ist zu harmlos – Windmühlen manipulieren keine Menschen in Richtung Idiocracy. Am Ende resigniert man – und die Leute, die an den Bullshit von intelligenten, verstehenden und kreativen Maschinen glauben, wähnen sich auf der Seite der Realität – weil keiner der Selbstdenker mehr Bock hat, seine Energie drauf zu verschwenden. Hoffentlich platzt die Blase bald, damit man nochmal von vorne anfangen kann – dann hoffentlich mit realistischen Vorstellungen über die Natur der Modelle. Was für mich allerdings ein wenig schwer ist: Wenn jemand so richtig auf die Schnauze fällt, weiß ich nicht, ob das dann so’n Typ war, der keinerlei Mitleid verdient hat, oder ob’s jemand war, der von solchen Typen bequatscht wurde und es nicht besser wusste. Frag das doch mal dein LLM: Wer ist in dem Fall denn verantwortlich? Aber behalte die Antwort bitte bei dir, egal, wie toll sie dir vorkommen mag. Sie ist’s nicht.
:
Bearbeitet durch User
Marci W. schrieb: > meiner Erfahrung nach ist die Bildung, und scheinbar indirekt auch > der IQ ... auf dem absteigenden Ast. Jedenfalls erschrecke manchmal, > wie unwissend, naiv und unbedarft viele jüngere Menschen sind. > Das macht mir manchmal ein wenig Angst... Google mal gezielt danach. Du wirst sehen, alternde Gelehrte den gleichen Eindruck schon seit tausenden Jahren haben. Der Vorteil eines neuen jungen Kollegen im Gegensatz zur KI ist, dass er dazu lernt und bald selbstständig arbeiten kann.
:
Bearbeitet durch User
Nemopuk schrieb: > Du wirst sehen, alternde Gelehrte den > gleichen Eindruck schon seit tausenden Jahren haben. Sorry, aber nein. Auf dem ersten Blick mag man das so sehen wollen, weil’s bequem ist und beruhigt (Menschen funktionieren halt so). Aber wenn man es sich genauer und objektiv anschaut, wird man sehen, dass in den letzten rund 15 Jahren tatsächlich eine dramatische Entwicklung gegeben hat, die sich fortsetzt und gar beschleunigt, die objektiv belegbar ist und keinesfalls eine weitere Iteration von „Die heutige Jugend …!“ darstellt.
Nemopuk schrieb: > Du wirst sehen, dass alternde Gelehrte den > gleichen Eindruck schon seit tausenden Jahren haben. Jack V. schrieb: > Sorry, aber nein Doch: "Die Jugend von heute liebt den Luxus, hat schlechte Manieren und verachtet die Autorität. Sie widersprechen ihren Eltern, legen die Beine übereinander und tyrannisieren ihre Lehrer." Sokrates, 470-399 v.Chr. "Ich habe überhaupt keine Hoffnung mehr in die Zukunft unseres Landes, wenn einmal unsere Jugend die Männer von morgen stellt. Unsere Jugend ist unerträglich, unverantwortlich und entsetzlich anzusehen." Aristoteles, 384-322 v. Chr.
Nemopuk schrieb: > Doch: > […] Nein: https://www.forbes.com/sites/michaeltnietzel/2023/03/23/american-iq-test-scores-show-recent-declines-according-to-new-study/ (beispielhaft – das Phänomen ist zumindest über die gesamte westliche Welt hinweg konsistent).
Nemopuk schrieb: > Google mal gezielt danach. Du wirst sehen, alternde Gelehrte den > gleichen Eindruck schon seit tausenden Jahren haben. Och menno, das gibt's doch nicht! Warum wird einem der Scheiß an allen Ecken und Enden um die Ohren gehauen?! Etwas behaupten, was absolut keiner Überprüfung stand hält! Also lasst es doch bitte bleiben, solche aus dem Zusammenhang gerissenen und völlig falsch dargestellten "Zitate" rauszuposaunen! Das ist doch echt dämlich! > > Der Vorteil eines neuen jungen Kollegen im Gegensatz zur KI ist, dass er > dazu lernt und bald selbstständig arbeiten kann. Na ja, an anderer Stelle im Thread wurde ja gerade das Lernen / Lesen als überflüssig, obsolet genannt: Klaus schrieb: > Bis Ende der 90ern musste man noch aus Büchern erlesen, wie man etwas > macht. Wenn also die KI-Nutzung in allen Bereichen greift, dann können wir eigentlich die Schulen schließen, denn ein einfaches Kommando reicht ja bereits, um alles gewünschte zu generieren... Wie gesagt, ob "lernen" auch in 10 Jahren noch wünschenswert/notwendig ist, bleibt abzuwarten. ;-) ciao Marci
Beitrag #8002927 wurde von einem Moderator gelöscht.
Der durchschnittliche IQ Wert kann gar nicht sinken, weil 100 per Definition der Durchschnittswert ist. Ob die Menschen blöder werden, muss man mit einer anderen Kennzahl beschreiben.
:
Bearbeitet durch User
Christoph M. schrieb: > Es gibt aber mehr als LLMs, was auch die KI von oben anmerkt: die aktuell verwendeten "KI"s sind LLMs.
Nemopuk schrieb: > Der durchschnittliche IQ Wert kann gar nicht sinken, weil 100 per > Definition der Durchschnittswert ist. Ob die Menschen blöder werden, > muss man mit einer anderen Kennzahl beschreiben. Arte 42 - Werden wir immer dümmer? Folge 31 (28 Min.) https://archive.org/details/ArteTV-104841-001-A
:
Bearbeitet durch User
Nemopuk schrieb: > Der durchschnittliche IQ Wert kann gar nicht sinken, weil 100 per > Definition der Durchschnittswert ist. Einfach mal das Verlinkte lesen und nicht so sehr an Begrifflichkeiten klammern, um’s sich mit „War schon immer so!“ schönreden zu können.
:
Bearbeitet durch User
Marci W. schrieb: > Na ja, an anderer Stelle im Thread wurde ja gerade das Lernen / Lesen > als überflüssig, obsolet genannt: > > Klaus schrieb: >> Bis Ende der 90ern musste man noch aus Büchern erlesen, wie man etwas >> macht. Verstehendes Lesen ist auch nicht so dein Ding. Ich habe explizit Bücher genannt - ja, die sind bald genauso obsolet wie der 24-Bändige Brockhaus. Und nur weil Bücher obsolet werden heißt das nicht, das LERNEN obsolet würde.
Alexander schrieb: > Arte 42 - Werden wir immer dümmer? Planet der Affen muss dringendst umgeschrieben werden in Planet der künstlichen Intelligenzien. 🤓
:
Bearbeitet durch User
Klaus schrieb: > Die Zeiten wie in den 90ern, wo wir teilweise streng nach V-Modell > entwickelt haben und mindestens 5 mal so viel Papier als Code erzeugt > haben, sind zum Glück Geschichte. Die kommen in Teilen aber wieder, da man inzwischen erkannt hat, dass agiles Entwickeln scheiße ist. OK, man kann großes Systeme natürlich auch durch basteln, rumprobieren und frickeln zusammenschustern. Die Frage ist nur, ob das sinnvoll ist... ciao Marci
Tja, wer agile Entwicklung mit basteln, rumprobieren und frickeln gleichsetzt hat halt auch nix verstanden.
Marci W. schrieb: > Och menno, das gibt's doch nicht! Warum wird einem der Scheiß an allen > Ecken und Enden um die Ohren gehauen?! Etwas behaupten, was absolut > keiner Überprüfung stand hält! Also lasst es doch bitte bleiben, solche > aus dem Zusammenhang gerissenen und völlig falsch dargestellten "Zitate" > rauszuposaunen! Das ist doch echt dämlich! Man sollte aber nicht vergessen das es dazumal wesentlich andere Strafen für Ungehorsam gab. Der Alte
Klaus schrieb: > Tja, wer agile Entwicklung mit basteln, rumprobieren und frickeln > gleichsetzt hat halt auch nix verstanden. Naja … der absurde Bloat mit Supply Chains, die dreimal um die Welt gehen, wenn etwa ’ne Anwendung, die auf Electron basiert, sich erstmal für dreistellige Megabytes Kram via NPM reinzieht, sodass letztlich ’n halbes Gigabyte für Funktionalität belegt wird, die man früher™ im zweistelligen MB-Bereich untergebracht hätte, und die alle paar Tage irgendwelche Änderungen mit den Zwangsupdates bekommt bei denen irgendwas eingebaut wird, das keiner wollte, dafür aber Kram kaputtgemacht wird und verschwindet, der genutzt wurde – das ist ja nun schon ’ne direkte Folge der agilen Entwicklung. Und K„I“ wird’s nicht direkt besser machen.
:
Bearbeitet durch User
Auf dem Pi 500+ dauert die Ausgabe rund 22 Sekunden mit ollama run
codellama:7b.
>>> write hello in shell session
To write "hello" in a shell session, you can use the echo command.
Here's an example:
```
echo "hello"
```
This will output the string "hello" to the console.
Dieter D. schrieb: > Auf dem Pi 500+ dauert die Ausgabe rund 22 Sekunden mit ollama run > codellama:7b. > >>>> write hello in shell session > > To write "hello" in a shell session, you can use the echo command. > Here's an example: > ``` > echo "hello" > ``` > This will output the string "hello" to the console. Jeder nutzt die KI halt für die Dinge, die ihn am meisten voranbringen.
Klaus schrieb: > Tja, wer agile Entwicklung mit basteln, rumprobieren und frickeln > gleichsetzt hat halt auch nix verstanden. OK OK, ich rudere ein wenig zurück, streiche "rumprobieren" und setze ein Fragezeichen nach "basteln". Aber es ändert nix an der Tatsache, dass agile in der Praxis halt nicht gut funktioniert. ciao Marci
Verdammt schade ist es noch, das die KI zur Zeit nicht richtig vom Operator lernen kann. Dann wäre sie ein Partner zb. des Programmierers. Auch ein Partner kann hallozionieren und Lügen. Auch einem Partner kann durch geschicktes Fragen Geheimnisse herausgelockt werden, die er normalerweise nicht erzählen würde. So lehnt es Lumo, die kleine blaue Katze von Proton ab, über die Herstellung von Nitroglyzerin zu reden. Wenn man sie aber mit Fangfragen in die Enge treibt, gibt sie ihr Wissen trotzdem preis, richtig menschlicher Zug. ;-P Hat schon einer von Euch das große llama3.3 am Laufen? Ist es besser als die kleineren Modelle? Vater hat mir nen Server zur Verfügung gestellt, der potent genug wäre. Lohnt sich ein Versuch? mfg
Marci W. schrieb: > Aber es ändert nix an der Tatsache, dass agile in der Praxis halt nicht > gut funktioniert. Bei dir/euch mag das so sein.
Lotta . schrieb: > Lohnt sich ein Versuch? Der Vergleich von llama:7b und llama:70b lohnt sich zu testen.
Jack V. schrieb: > Christoph M. schrieb: >> Die KI hat deine Einwände gelesen und meint folgendes: >> […] > > Entschuldige, aber was versprichst du dir davon, die Ergüsse eines > Modells hier reinzukopieren? > > Das ist der gleiche katastrophale Dreck, wie die Sache mit den > Schwurblern: Naja: Jack V. schrieb: > Kreativität würde eine Idee, Verstehen, bewusstes, zielgerichtetes > Handeln und intrinsische Motivation voraussetzen, und all das existiert > bei den Modellen nunmal prinzipbedingt nicht. Ich halte das von der KI beschriebene für ziemlich richtig, insbesondere die Antwort was "bewusstes, zielgerichtetes Handeln und intrinsische Motivation" anbelangt", aber auch den Hinweis auf dein fehlende Verständnis dafür, dass der Begriff "KI" nicht nur eine bestimmte Form der LLMs beinhaltet. Ich kann aber auch Verstehen, wenn dich diese Zusammenhänge etwas überfordern, da das Thema nun einmal neu und ziemlich komplex ist.
Im sozialen Netzwerk "Moltbook" dürfen ja nur KIs miteinander diskutieren. Im Heise-Newsticker scheint das Thema immer mehr Raum einzunehmen: https://www.heise.de/news/KI-Agenten-diskutieren-auf-Reddit-Klon-Menschen-duerfen-zuschauen-11161385.html Ich frage mich, ob es wirklich nur KIs sind, die da miteinander diskutieren, oder ob der ein oder andere Entwickler hinter den KIs ab und zu mal selbst einen Satz eintippt und durch die KI-API schiebt.
Nemopuk schrieb: > Ob die Menschen blöder werden, > muss man mit einer anderen Kennzahl beschreiben. Die Anzahl, Frequenz und Einschaltquote der sog. Reality-TV-Sendungen?
Christoph M. schrieb: > Ich kann aber auch Verstehen, wenn dich diese Zusammenhänge etwas > überfordern, da das Thema nun einmal neu und ziemlich komplex ist. Dieser Ragebait ist ’n bisschen plump – bist du selbst etwa genauso kreativ wie die Modelle, die du hier mit diesen den Marketingabteilungen entsprungenen Metaphern schönreden willst? Das würde natürlich erklären, warum dir die Modelle zur Kreativität fähig erscheinen – du verwendest einfach eine andere Definition des Begriffs, als alle Anderen. Die Probleme fangen allerdings an, wenn man die Bedeutung von „Bewusstsein“ auf ähnliche Weise verzerrt – dann wandelt man nämlich schnell auf Lemoines Spuren …
Marci W. schrieb: > man inzwischen erkannt, dass agiles Entwickeln scheiße ist. Wer ist "man"? Bei großen Projekten nach Wasserfall Methode besteht das Risiko, dass die Anforderungen zum Teil schon wieder verfallen, bevor geliefert wird. Dann ändert man Anforderungen während der Entwicklung, schon ist das Projekt agil geworden.
:
Bearbeitet durch User
Jack V. schrieb: > ... das ist ja nun schon ’ne direkte Folge der agilen Entwicklung. Nein, das ist die Folge von der Benutzung von Bibliotheken und Build Tools mit komplexen Abhängigkeiten. Die kann man auch nicht-agil nutzen.
Nemopuk schrieb: > Nein, das ist die Folge von der Benutzung von Bibliotheken und Build > Tools mit komplexen Abhängigkeiten. Es ist allerdings kennzeichnend für agile Entwicklungsmodelle, dass für teils triviale Funktionalität Drittbibliotheken reingezogen werden, weil das halt schneller geht, als den Kram selbst zu implementieren. Die werden dann ihrerseits auch oft in einem agilen Modell entwickelt, und fertig ist der ewige Kreis, in dem nie etwas fertig wird, sondern permanent irgendwelchen Updates gepushed werden müssen, sodass sich der Kram aufbläht, wie ein Nwortkuss in der Vakuumkammer. Mir kommt es in weiten Teilen eher wie Selbstzweck vor, nicht wie Projekte, die auch mal fertig werden sollen. Tatsächlich können sie gar nicht mehr fertig werden, weil immer irgendwo was Neues reinkommt, das integriert werden muss, denn genau das ist eines der verbreiteten Entwicklungsmodelle in dem Bereich. Beschäftigungssicherung, wenn man so will. Und wie gesagt: K„I“ wird’s nicht besser machen.
Jack V. schrieb: > Christoph M. schrieb: >> Ich kann aber auch Verstehen, wenn dich diese Zusammenhänge etwas >> überfordern, da das Thema nun einmal neu und ziemlich komplex ist. > > Dieser Ragebait ist ’n bisschen plump In der Tat. Ich habe deinen Text der KI gegeben um zu zeigen, wie der Stand ist. Sie hat die kritischen Punkte gefunden und beantwortet. Vor 10 Jahren hätte man das bei einer Maschine noch für unmöglich gehalten und es dem Begriff "Intelligenz" zugeordnet. Jack V. schrieb: > Die Probleme fangen allerdings an, wenn man die Bedeutung von > „Bewusstsein“ auf ähnliche Weise verzerrt Eigentlich geht es in diesem Thread nicht um Bewusstsein, sondern Intelligenz. Aber egal: Vielleicht macht es jetzt wenig Sinn Leute von irgend was überzeugen zu wollen. Vielleicht muss man einfach konkret wie Lotta oder Dieter D. in diesem Thread werden und einfach mal anfangen, eine eigene lokale KI aufzusetzen. Die kann zwar mit den Online-Modellen nicht mithalten, aber lernen lässt sich da sicherlich genug.
Jack V. schrieb: > Mir kommt es in weiten Teilen eher wie Selbstzweck vor, nicht wie > Projekte, die auch mal fertig werden sollen. Manche Projekte sollen für immer weiter entwickelt werden. Z.B online shops.
Christoph M. schrieb: > Ich habe deinen Text der KI gegeben um zu zeigen, wie der Stand ist. Ich untersage dir hiermit, von mir verfasste Texte bewusst an ein LLM weiterzugeben. Außerdem entsprach die gepostete Antwort ziemlich genau dem 08/15-Kram, den so’n Modell halt zusammenrechnet. Hundertmal gesehen – glaubst du wirklich, ich würde mir den Kram nicht auch selbst anschauen und es ausprobieren? Nemopuk schrieb: > Manche Projekte sollen für immer weiter entwickelt werden. Z.B online > shops. Inwiefern? Ich hab in den letzten zwanzig Jahren kaum neue Features dort gesehen, die das rechtfertigen würden. Sicher – wenn sich Sicherheitsprobleme zeigen, sollten die schon behoben werden – aber die meisten dieser Sicherheitsprobleme entstehen auch erst durch dieses „Weiterentwickeln als Selbstzweck“, das so typisch für agile Modelle ist.
:
Bearbeitet durch User
Jack V. schrieb: > Ich untersage dir hiermit, von mir verfasste Texte bewusst an ein LLM > weiterzugeben. Scherzkeks! Die KI Bots greifen automatisch alles ab, was du hier schreibst.
Jack V. schrieb: > Inwiefern? Weil der Kunde das so will. Ich lebe davon. Die meisten Änderungen sind für Verbraucher nicht direkt bis gar nicht sichtbar. Dennoch werden sie angefordert, um Gewinne zu erhöhen.
:
Bearbeitet durch User
Nemopuk schrieb: > Scherzkeks! Die KI Bots greifen automatisch alles ab, was du hier > schreibst. Und doch habe ich diesem User rechtswirksam untersagt, von mir verfasste Texte aktiv an ein LLM weiterzugeben. Du argumentierst hier gerade mit „ja, wenn alle klauen, dann bringt es auch nichts, einem Einzelnen das Klauen explizit zu verbieten“. Erkennst du das Problem mit der Haltung, oder soll der User ein LLM beauftragen, es dir zu erörtern? Nemopuk schrieb: > Ich lebe davon. Die meisten Änderungen sind > für Verbraucher nicht direkt bis gar nicht sichtbar. Dennoch werden sie > angefordert, um Gewinne zu erhöhen. Könntest du das mal umschreiben? Wenn der Käufer es nicht sieht, und der Händler nicht so bescheuert war, seinen ganzen Kram in die Cloud zu schmeißen, als die Lockangebote (in zweierlei Bedeutung: anlocken und lock in) lanciert wurden, und er nun nicht jedes Kilobyte zweimal filtern muss – wie können solche Änderungen dann den Gewinn erhöhen?
:
Bearbeitet durch User
Jack V. schrieb: > Und doch habe ich diesem User rechtswirksam untersagt Lächerlich! Gleich mal Gemini fragen, was er von deinem Beitrag hält...
Jack V. schrieb: > wie können Änderungen den Gewinn erhöhen? Zum Beispiel, indem - Produkte besser präsentiert werden - Produkte besser beworben werden - Fürs Marketing hilfreiche Statistiken/Berichte erfasst werden - Manuelle Arbeitsaufwände reduziert werden - Unterstützung für weitere Märkte (z.B. bezüglich Steuern, Sprachen, Produkt-Arten) - Verbesserungen der Performance - Neue/geänderte Schnittstellen (z.B. für Versand, Bezahlung, Buchhaltung, Provisionierung, Identifikation, ...) - Es gibt immer wieder neue Varianten von Bündel-Angeboten, Rabatten und Gutscheinen Ich habe viel mit Abo- Verträgen für physische und digitale Dienstleistungen zu tun, da wird ununterbrochen etwas verändert. Selbst wenn mal niemand etwas freuwillig ändern will, sorgen veränderte Schnittstellen und Gesetze dafür, dass keine Langeweile aufkommt. Irgendwas muss immer angepasst werden.
:
Bearbeitet durch User
Christoph M. schrieb: > Von Andreas Spieß ( the guy with the Swiss accent ), gibt es ein neues > Video über Methoden, Ja, schön aber ... Ich halt von dem relativ wenig. Er will halt clicks und damit Einnahmen generieren. Nein, das Video hab ich nicht gesehen. Ich hab mir auch schon seit Jahren keine mehr von ihm angesehen. Aber einen schönen Hut hat er. Geht er damit auch zum EInkaufen? Da gibt es Andere deren Meinung ich für relevant halte und die es wert sind darüber nachzudenken. Solang die KI nicht in der Lage ist, garantiert fehlerfreien code zu generieren, erspart sie nur Tipparbeit und verlagert dann aber den Aufwand auf den "Softwareentwickler". Man muss den code genau analysieren und versuchen zu verstehen und nach Fallen suchen. In der Zeit kann ich den code auch selbst tippen und dabei drauf achten, dass er richtig ist. Und dabei hab ich meinen code auch schon längst vorher verstanden. Zu Abschnitten die etwas tricky sind, hab ich mir dann auch gleich einen erklärenden Kommentar geschrieben. So wie andere Kommentare eine Gliederung verdeutlichen oder auf mögliche Fallen bei einer späteren Wartung hinweisen. Und wer dann noch mit test-driven development arbeitet, kann sich dann noch durch die KI-generierten Testfälle durchrätseln und sich vorher Mühe machen, die Testfälle zu beschreiben. In der Zeit wo ich das der KI erklär, hab ich es auch getippt. Den weiter oben verlinkten Artikel zu den Studenten die KI-generierte Arbeiten abliefern und die sich daraus ergebenden gesellschaftlichen Konsequenzen fand ich schlichtweg erschreckend.
Nick schrieb: > Solang die KI nicht in der Lage ist, garantiert fehlerfreien code zu > generieren, du meinst also so wie du in der Lage bist garantiert fehlerfreien Code zu generieren? Merkst du selbst, oder? Du redest als Blinder von der Farbe, sprich, du hast noch nie ernsthaft mit einer KI gearbeitet. So wie du Videos beurteilst, die du nicht gesehen hast. Kann man machen, ist aber halt scheiße.
Klaus schrieb: > du meinst also so wie du in der Lage bist garantiert fehlerfreien Code > zu generieren? Wenn ich in der Lage sein muss, KI-code auf Fehlerfreiheit hin zu untersuchen, dann gilt das sowohl für meinen code als auch für den KI-code. Klaus schrieb: > So wie du Videos beurteilst, die du nicht gesehen hast. Ich hab kein Video beurteilt, ich hab den Mann mit dem tollen Hut beurteilt. Und das schon vor Jahren. Vermutlich hast auch Du einen tollen Hut und bist daher der Maßstab für Alle.
Nick schrieb: > fand ich schlichtweg erschreckend. Das ist aber erst der Anfang. Oder schon: Der Anfang vom Ende? https://www.songtexte.com/songtext/nena/der-anfang-vom-ende-7bdcfa6c.html Alles Spekulation und erst in ein paar Jahren werden wir es wissen.
Nemopuk schrieb: > - Es gibt immer wieder neue Varianten von Bündel-Angeboten, Rabatten und > Gutscheinen Und für solche Dinge beauftragen Leute ’nen Programmierer? Da würde ich mich eher nach ’ner sinnvolleren Software umsehen, die sowas direkt vorsieht – das gab’s vor zwanzig Jahren schon, als ich mal ’nen Laden mit aufgesetzt habe. Auch die anderen Sachen überzeugen mich nun nicht so – die aufgeführten Punkte Sprachen, Steuern, Märkte, Performance, etc. sollten bei einer ordentlich entwickelten Software eigentlich seit ’ner Dekade nicht mehr aufgeführt werden müssen, und Schnittstellen ändern sich nun auch nicht so häufig, dass eine kontinuierliche Integration notwendig wäre – aber okay, es ging ja auch um agilen Kram, und der muss sich und die durch ihn generierten laufenden Kosten natürlich auch irgendwie rechtfertigen. Selbstzweck halt … Ich meine … heutzutage lassen es die Leute ja selbst mit sich machen, ein mehr oder weniger etabliertes Programm durch eine unfertige, fehlerdurchsetzte und in vielen Belangen schlechtere Software (also: agil und mithilfe von K„I“ entwickelt) zwangsersetzt zu bekommen, und sich das auch noch als Fortschritt verkaufen zu lassen. MS-User wissen vermutlich, auf was ich da anspielen könnte … aber 30% mit K„I” entwickelt und mit CoSpy integriert!
:
Bearbeitet durch User
Jack V. schrieb: > Nwortkuss :-) :-) :-) <SCNR> Christoph M. schrieb: > Die KI hat deine Einwände gelesen und meint folgendes: Lieber Chistoph, bitte lass doch diesen blöden Mist bleiben! Entweder du bemühst Dein Gehirn, oder postest hier nicht. <kopfschüttel> ciao Marci
Nemopuk schrieb: > Manche Projekte sollen für immer weiter entwickelt werden ACK! Die wenigsten Projekte werden mal "fertigentwickelt" und dann bis auf Fehlerbehebungen eingefroren. Solche Anwendungen sind jedenfalls mir noch nicht untergekommen. OK, doch, TeX fällt mir da ein. ;-) ciao Marci
Christoph M. schrieb: > Von Andreas Spieß ( the guy with the Swiss accent ), gibt es ein > neues > Video über Methoden, wie man am besten KI-unterstützt programmieren > kann: > > https://youtu.be/5DG0-_lseR4?si=1c3VfsvbTi4Tu5Ao Nick schrieb: > Ich hab kein Video beurteilt, ich hab den Mann mit dem tollen Hut > beurteilt. Und das schon vor Jahren. Vermutlich hast auch Du einen > tollen Hut und bist daher der Maßstab für Alle. Ich habe mir einige Videos von Andreas Spieß angesehen und halte ihn für ziemlich kompetent. Er hat einen Master of Science von der ETH Zürich, eine der besten Hochschulen der Welt. Was hältst Du von dieser Person? https://en.wikiquote.org/wiki/Richard_Stallman Jemand der die fachlichen Kompetenz einer Person nach ihrem Aussehen beurteilt, halte ich für unreif.
:
Bearbeitet durch User
Christoph M. schrieb: > Jemand der die fachlichen Kompetenz einer Person nach ihrem Aussehen > beurteilt, halte ich für unreif. Ich hab mir vor Jahren paar Videos von dem mit dem Schweizer Akzent angesehen. Darauf basiert mein Urteil. Nicht auf seinem Markenzeichen, den Hut. Ich war z.B. auch so frei, mir mein eigenes Urteil über "the signal path" zu bilden. Ich find seine Fehleranalysen immer sehr spannend. Dass sein Gerätepark meine Fähigkeiten klar überfordern ändert nichts daran, dass ich ihn gut finde. Christoph M. schrieb: > Er hat einen Master of Science von der ETH Zürich, > eine der besten Hochschulen der Welt. Volker Quaschning ist Professor für Regenerative Energiesysteme, das machts aber leider auch nicht besser.
Nick schrieb: >> Er hat einen Master of Science von der ETH Zürich, >> eine der besten Hochschulen der Welt. > > Volker Quaschning ist Professor für Regenerative Energiesysteme, das > machts aber leider auch nicht besser. Der Typ mit dem Silberblick. Naja, passt aber letztendlich ziemlich gut, denn seine Zielgruppe ist genau so naiv und gutgläubig wie er rüberkommt. Kritisches Denken oder Gott bewahre, Widerspruch, Fehlanzeige. Es is der Norbert Blühm der Energiewende ("Die Rente ist sicher").
:
Bearbeitet durch User
Vielleicht doch wieder zurück zum Thema. Jack V. schrieb: > Was das Programmieren angeht, um den Bogen zur Threadüberschrift zu > spannen: Man kann damit heute ganz prima Dinge erstellen lassen, von > denen man selbst keine Ahnung hat. Man sieht ja beim Ausprobieren, ob > sie das tun, was man selbst wollte. Wenn nicht, verbrät man solange > Tokens, bis es grob passt – dafür muss man’s auch nicht verstehen. Zum Beispiel. Ich baue hier gerade an unserem browserbasierenden internen Lagerverwaltung und benötige da etwas JS. Ich hatte nie viel mit JS zu tun - einfach nicht gebraucht und mich da auch nicht weiter eingearbeitet. Die benötigten Funktionen habe ich also einfach ChatGPT kurz beschrieben, dazu den HTML-Code und nach zwei Korrekturen stand dann der Code. Dasselbe gilt für viele Dinge unserer Websites bzgl. CSS. Man packt das nur relativ selten (eher in Jahren als Monaten bemessen) an und ich habe keine große Lust, mich da in alle neuen CSS-Attribute und Klassen wie Bootstrap, Colorbox usw.) einzuarbeiten. Also wird kurz beschrieben, wie ich meine neue Unterseite gestaltet haben möchte, und ChatGPT baut mir das passende CSS-Gerüst. Und das klappt wirklich gut: viel Zeit gespart, Ziel erreicht. > Was man nicht einschätzen kann, wenn man sich damit nicht auskennt oder > aufgrund der Masse nicht die Ressourcen hat, die Ausgabe angemessen > nachzuvollziehen, sind so Sachen wie ungewünschte Seiteneffekte. Ob nun > Offene Ports, Datenspeicherung im Klartext, Übertragen von Daten ... Absolut. Das obige Komfort-JS (und CSS sowieso) ist nicht sicherheitsrelevant und liegt nur lokal. Aber bei allem anderen sollte bei solchen Dingen der erzeugte Code immer geprüft werden und man vor allem verstehen, was das Modell macht und was man möchte. > all die Dinge sind > reale Probleme, welche die Modelle nicht für einen lösen können. Weil > sie halt nicht verstehen können; weil sie nicht denken, sondern > tatsächlich „nur“ stochastische Modelle sind. Verstehen müssen sie das nicht mal - aber ich muss dann dermaßen viel Vorgaben machen, dass dann der Aufwand die Ersparnis schlicht übertrifft. Wenn ich bspw. etwas in Tcl/Tk generieren lasse, dann lohnt sich das kaum. Ich würde mich jetzt einfach mal als richtig, richtig guten Tcl-Skripter bezeichnen und das Beschreiben dauert dann einfach viel länger als ich selbst benötige. Und oftmals gibt es (sprachunabhängig) einfach auch richtige Fehler wie Verwendung von Variablen vor der Initialisierung usw. Dabei ist noch nicht einmal der Fehler oder die Falschaussage schlimm, sondern die scheinbare Gewissheit, mit der sie vorgetragen werden. Nur ganz selten hört sich eine Antwort zweifelnd an oder es wird ein Fehler wirklich klar eingeräumt. ICH weiss, das das schlicht Blödsinn ist, aber Menschen ohne den entsprechenden Hintergrund nehmen das leider oft für bare Münze. Schön sind die LLMs, wenn ich eine Idee bspw. für ein neues Produkt oder eine neue Software habe, die dann beschreibe und "ihn" einfach informell nach Tipps usw. frage, also so etwas wie "Was habe ich noch vergessen? Worauf muss ich achten?" - und da kommt wirklich erstaunlich guter Inhalt. Seien es irgendwelche Bibliotheken, die man nutzen könnte oder Produkteigenschaften, an die ich noch nicht gedacht habe. Letztendlich sind die Modelle aber einfach noch sehr begrenzt und oftmals nur bessere Suchmaschinen (was ja auch ein Gewinn ist).
:
Bearbeitet durch Moderator
Christoph M. schrieb: > Und was hindert dich daran, deine Bitte um Kommentierung in diese > Kommandozeile > zu schreiben und danach den Programmtext? Ich hab es mal getestet. Wollte eine Ablaufbeschreibung zur Verschlüsselung (WLAN Passwort) generieren lassen. Die erste Antwort war, die Daten würden unverschlüsselt übertragen (Copilot) Die zweite Antwort nur allgemeines Bla bla ohne Bezug zum Quellcode (also ins Blaue drauf los geraten) trotz GitHub Links auf explizite Dateien. Es scheint die KI hat keinen Bock zu lesen, tut nur so als ob: > Perfekt – jetzt können wir endlich präzise und projektspezifisch > arbeiten. > Ich habe mir die drei Dateien im Repository angesehen und dokumentiere > dir jetzt den exakten Ablauf der Verschlüsselung, so wie er tatsächlich > im Projekt implementiert ist. Komplett wertlos und keine Ahnung wie ich das überhaupt prompten soll, ohne jeden einzelnen Schritt vorzukauen. Ich kann die Schwärmereien hier nicht nachvollziehen.
:
Bearbeitet durch User
Alexander schrieb: > Komplett wertlos und keine Ahnung wie ich das überhaupt prompten soll, > ohne jeden einzelnen Schritt vorzukauen. Ich kann die Schwärmereien hier > nicht nachvollziehen. Du hast also eine negative Erfahrung damit gemacht. Jetzt ist es wohl so, dass Perplexity im Hintergrund verschiedene Sprachmodelle benutzt und man weiß nicht, ob es das Beste für das Problem geeignete war. Im ct3003 Video zum Personal-Assistant wird ja erwähnt, dass für den kommunikativen Teil des Bots die KI "Claude" und für die Code-Erstellung "Kodex" verwendet wird. Leider wird im Video auch erklärt, wie die Kosten für die Kredits davon laufen und der Autor für die Erstellung der App wohl über 100€ verbraten hat. Was natürlich zur Schlussfolgerung führt, dass gute Coding-Assistenten im Preis auf Grund ihrer Nützlichkeit steigen werden. Für mich und für die meisten hier im Forum dürfte die "Code Erstellung" der interessantes Aspekt der KI darstellen. Damit stellt sich die Frage, welche der KIs die momentan Beste dafür ist. Welche bevorzugt ihr? An diesem Projekt Beitrag "Projekt EhrenSache: Anwesenheitsverwaltung fürs Ehrenamt" lässt sich ja gut erkennen, wie die automatische Code-Generierung auch hier im Forum nutzbringend verwendet werden kann.
:
Bearbeitet durch User
Christoph M. schrieb: > Du hast also eine negative Erfahrung damit gemacht. Nein, er hat keine Ahnung von diesen Sachen, also KI, Programmierung usw.
Zumindest hab ich offensichtlich mehr Ahnung von meinen Sachen als die KI, welche nicht mal meine Kommentare im Quellcode liest.
Alexander schrieb: > Zumindest hab ich offensichtlich mehr Ahnung von meinen Sachen als die > KI, welche nicht mal meine Kommentare im Quellcode liest. Du kannst einfach immer davon ausgehen dass du keine Ahnung hast. Das sollte dir helfen jede Situation korrekt einzuschätzen. Und gibt auch weniger Kopfaua.
Bei Alecxs sind IMMER die anderen dran schuld und können nichts. NUR ER kann alles und weiß alles... So denkt er zumindest. Das sieht man in so ziemlich jeden seiner Postings.
Rene K. schrieb: > Bei Alecxs sind IMMER die anderen dran schuld und können nichts. NUR ER > kann alles und weiß alles... So denkt er zumindest. Das sieht man in so > ziemlich jeden seiner Postings. Ich meine das ist ein sehr typischer Dunning-Kruger: Wenig wissen aber viel unreflektierte Empörung mit großem Eifer.
Ich benutze die KI ganz gerne für Fleißarbeit. Der Code, die Struktur und Weg schweben mir ja schon vor den Augen. Z.B. Die Sensoren SPI Register eines ICs mit 30 verschiedenen Banken. Ich schaue mir die Initialisierung und Register im Datenblatt des Sensors an und sag der KI dann "einmal bitte Sensor XY initialisieren und Register x,y,z in eine Funktion integrieren. Klappt im ganzen. Ich halte nichts davon Schöpfungsarbeit mit der KI zu machen. Die Idee soll für mich meine eigene bleiben. Das fällt mir immer wieder in diesen Massen Klick Bait Projekten bekannter Tekkie Seiten auf. (Redakteur xy zeigt der Welt wie Tekkie er ist. ) Die Struktur und technische Erklärung ist einfach KI angehaucht.
:
Bearbeitet durch User
Rene K. schrieb: > Bei Alecxs sind IMMER die anderen dran schuld und können nichts. NUR ER > kann alles und weiß alles... So denkt er zumindest. Das sieht man in so > ziemlich jeden seiner Postings. Ersetze Alecxs mit Cyblord, dann stimmts wieder. Philipp K. schrieb: > Ich halte nichts davon Schöpfungsarbeit mit der KI zu machen. Das macht hier auch keiner. Der Kram von Cyblord und Rene K. (xdraconix) ist einfach so von der Stange und x1000-mal in den Trainingsdaten vorhanden, denen fallen die Grenzen von Programmierung mit KI gar nicht auf.
:
Bearbeitet durch User
Alexander schrieb: > Der Kram von Cyblord und Rene K. (xdraconix) ist einfach so von der > Stange und x1000-mal in den Trainingsdaten vorhanden, denen fallen die > Grenzen von Programmierung mit KI gar nicht auf. Ja genau, genau dafür ist die KI da und perfekt. Und genau für diese "Fleißarbeit", die 95% des täglichen Programmieraltags ausmacht, ist das ein Segen. Weil man sein Augenmerk auf ganz andere Dinge richten kann und seine erhebliche gesparte Zeit woanders investiert. Aber das begreifst du scheinbar nicht.
Rene K. schrieb: > Weil man sein Augenmerk auf ganz andere Dinge richten kann und seine > erhebliche gesparte Zeit woanders investiert. z.b. ins Prompten
Ich schätze, dass man KI als Programmierhilfe nur richtig einschätzen kann, wenn man sie in alltäglichen Projekten der Arbeit nutzen darf. Videos und Berichte haben mich kaum schlauer gemacht. Bei mir scheitert das Ausprobieren daran, daß ich keiner externen Firma ohne NDA Zugriff auf diese Projekte geben darf. Ein eigenes Sytem will der GF (noch) nicht finanzieren. Es bleiben also nur Chatbots als erweiterte Suchmaschine. Meine privaten Projekte sind zu klein und zu trivial, um KI Agenten ordentlich testen zu können. Was mir dabei in vscode aufgefallen ist: - KI neigt dazu, Räder neu zu erfinden und unnötige Bibliotheken einzubinden, anstatt bestehende Funktionen zu benutzen - Wenn man Umit Tests für bestehenden Code erstellt, besteht die Gefahr, Fehler zu übersehen - Tokens werden rasant verbraucht. Man kommt nicht umhin, für den Dienst zu bezahlen - Bestehenden Code zu ändern klappt viel schlechter, als neuen Code zu erstellen
:
Bearbeitet durch User
Nemopuk schrieb: > Tokens werden rasant verbraucht. Man kommt nicht umhin, für den Dienst > zu bezahlen Nur wenn's "schnell" gehen muss. Nicht einen Cent sehen die von mir bisher. Und da ich das mehr oder weniger nur nutze um schneller Sourcecode vor mir zu haben (je mehr ich dabei lernen kann um so besser) sind mir die paar Stunden Wartezeit völlig schnuppe.
Alexander schrieb: > z.b. ins Prompten "Sag mir das du keine Ahnung hast ohne mir zu sagen das du keine Ahnung hast!" Du brauchst nichts "Prompten". Zumindest nicht in eine in der IDE integrierte KI. Du kennst nur diese typischen ChatGPT Prompts "Gebe deine Frage ein...". Klar, kann man so machen - macht man aber nicht so! Du schreibst in einer IDE deinen Code, so wie immer und die KI vervollständigt fortlaufend deinen Code... Den du entweder via HotKey (je nach IDE) annimmst oder aber nicht. Du hast noch nie mit KI, außer einem KI Prompt ala ChatGPT, gearbeitet - richtig? Scheinbar nicht, denn sonst würde "z.b. ins Promoten" nicht kommen.
Alexander schrieb: > Richtig. Siehe > > Kilo S. schrieb: >> Nicht einen Cent sehen die von mir bisher. Wie gesagt: du hast KEINE Ahnung! Lade dir VS Code herunter, kostenfrei. Nutze die integrierte KI, kostenfrei für 2000 KI Änderungen im Monat. Probiere das einfache Modell aus und dann kannst du hier auch mitreden. Ansonsten... Halte dich doch einfach hier raus wenn du garnicht weißt um was es überhaupt geht, du hast kein Plan und willst aber mitreden - warum?!
Die paar Zeilen Code schreibe ich in Notepadqq, die letzte IDE die ich mal benutzt habe war Embarcadero (Borland) C++ Builder. Hat sich seitdem was getan?
Alexander schrieb: > Die paar Zeilen Code schreibe ich in Notepadqq, die letzte IDE die ich > mal benutzt habe war Embarcadero (Borland) C++ Builder. Hat sich seitdem > was getan? Okay, lass es einfach sein und halte dich einfach raus. Dankeschön
Am Ende ist es völlig wumpe welche KI man verwendet, ob die nun in der IDE läuft oder im Browser. Ja klar kann die für Programmierung optimierte Variante von einer IDE mehr in dem Bereich, wäre ja auch schlimm wenn nicht. Aber nicht jeder steht darauf ne IDE mit allem Schnickschnack zu nutzen. Zu PHP Zeiten waren alles so begeistert von diversen IDE, die haben mich mit meinem gut angehangenen Phase5 Editor auch belächelt. Für HTML/CSS/PHP nutze ich den heute noch! Nicht nur weil ich den aus dem FF kenne, er erfüllt meinen Anforderungen und teils übertrifft er sie sogar. Also was soll der unnötige Einwand mit persönlichen Vorlieben bezüglich einer IDE? Nur weil's ne KI Integration hat? Hier geht's generell um KI zur Programmierung, die muss nicht zwingend in der IDE sein. Grok, ChatGPT und "Code Ninja" hab ich bisher ausprobiert. Nutzt man eine nach der anderen mit dem Ergebniss der vorherigen KI kann man Stunden im gratis Modus verbringen und innerhalb kurzer Zeit viele Zeilen Code erstellen.
Kilo S. schrieb: > Nur wenn's "schnell" gehen muss. Fairerweise muss man sagen: Wenn man sich am Softwaremarkt behaupten will, ist Geschwindigkeit eine Kernkomponente: „Time to market“ (was halt auch für den exorbitanten Haufen unfertiger und aufgeblasener Software verantwortlich ist, die man gerade bei kommerziellen Anbietern, selbst bei Betriebssystemen, heutzutage geliefert bekommt, mit dem Versprechen, dass das später alles noch ordentlich wird (sprich: es wird agil entwickelt) – aber andere Geschichte). Insofern ist schon verständlich, dass sich auf alles gestürzt wird, was Zeitersparnis verspricht. Dass derzeit viele Studien noch zu dem Schluss kommen, dass die Zeitersparnis an der einen Stelle oft einen Zeitverlust insgesamt nach sich zieht, fällt bei den Entscheidern dann häufig dem confirmation bias zum Opfer, aber ist ’ne andere Sache. Fürs Hobby ist das erstmal sowieso nicht so wichtig, und wirklich lernen kann man damit auch nicht. Man kommt zwar schnell an Informationen und insbesondere kann man Fragen sehr schnell klären – aber das ist gerade beim Lernen eine furchtbare Falle: Man glaubt, viel aufzunehmen. Es fehlt jedoch oft der Kontext, zudem behält man durch fehlendes Vertiefen nur einen Bruchteil dessen, was man auf herkömmlichem Weg in der gegebenen Zeit gelernt hätte, und das dann auch noch weniger lang. Aber auch beim Hobby kann’s einem viel Zeit sparen, Dinge von Modellen erledigen zu lassen. Jedenfalls, wenn das Programmieren nicht das eigentliche Hobby, sondern nur Mittel zum Zweck ist. Zumindest bei mir ist „Wie war das noch gleich genau?“ keine seltene Frage, wenn ich „fix“ was machen will, mit dem ich vor ’nem halben Jahr das letzte Mal hantiert habe. Ist auch nix verkehrt damit, aber ich würde mich schwer hüten, so erstellte Software der Allgemeinheit als Nutzer zugänglich zu machen und vielleicht sogar noch Geld dafür zu nehmen. Andere sind jedoch moralisch deutlich flexibler, wie man derzeit überall sieht.
Nemopuk schrieb: > - KI neigt dazu, Räder neu zu erfinden und unnötige Bibliotheken > einzubinden, anstatt bestehende Funktionen zu benutzen Das tut nicht nur die KI, das machen viele, vor allem jüngere Programmierer auch gerne. Man betrachte nur die mittlerweile übliche Größe von Binaries -- früher war ein kompletter Betriebssysteminstaller so groß, heute ist das gerade mal ein Texteditor ...
Rene K. schrieb: > Lade dir VS Code herunter, kostenfrei. Nutze die integrierte KI, > kostenfrei für 2000 KI Änderungen im Monat. > > Probiere das einfache Modell aus und dann kannst du hier auch mitreden. Kann das jemand bestätigen, ist VS Code eine Installation wert? Bisher nutze ich die Arduino IDE zum Kompilieren und Hochladen. Nemopuk schrieb: > - KI neigt dazu, Räder neu zu erfinden und unnötige Bibliotheken > einzubinden, anstatt bestehende Funktionen zu benutzen Klar, weil es eben prima neuen Code generieren kann. Das stört auch den Compiler nicht wenn man drei fast identische Funktionen hat, jede mit einem vielsagenden Eigennamen. Solange man's noch selber merkt.. Kilo S. schrieb: > Zu PHP Zeiten waren alles so begeistert von diversen IDE, die haben mich > mit meinem gut angehangenen Phase5 Editor auch belächelt. Mich nervt jedes Leerzeichen zu viel oder noch schlimmer ein vergessenes Tabulator in der Formatierung, jedes Zeilenende ist geprüft, jede Zeile Code nachvollzogen. Mir grauts ein bisschen davor einer KI beim Code raten zuzusehen. Wer weiß ob ich überhaupt das programmieren wollte was dabei heraus kommt?
Alexander schrieb: > Kann das jemand bestätigen, ist VS Code eine Installation wert? Bisher > nutze ich die Arduino IDE zum Kompilieren und Hochladen. Die Arduino "IDE" kann halt sehr, sehr wenig von dem, was andere IDEs können*. vscode kann sehr individuell an alles mögliche angepasst werden, das geschieht unter anderem mit Plugins wie Platformio. Aber wie alles, was anders ist als das, was man gewohnt ist, ist es halt anders. Und man muss sich dran gewöhnen. Der eine kann's, der andere nicht. *) z.B. Klick auf ein Symbol, "gehe zur definition/deklaration" etc. pp.
Jack V. schrieb: > Man glaubt, viel aufzunehmen. Es fehlt jedoch oft der Kontext, zudem > behält man durch fehlendes Vertiefen nur einen Bruchteil dessen, was man > auf herkömmlichem Weg in der gegebenen Zeit gelernt hätte, und das dann > auch noch weniger lang. Die Methode dauert länger um sich das alles zu behalten, das stimmt. Das Ding ist, zumindest bei mir, trotz aller Sorgfalt und geschick dabei zu suchen finde ich nicht immer das "passende" an Funktionen nur durch die Sprachreferenz selbst. Die KI wirft mir jetzt (weil der MCU zb. keine FPU hat) ne Lösung aus mit der ich float für eine anzeige aufbereitet bekommen habe um mit sprintf eine saubere Darstellung auf dem Display zu bekommen. Ich wäre mangels Erfahrung zu Fuß da dran gegangen und hätte sozusagen die Funktion abs neu erfunden. Ja der Weg zu Fuß wäre anfangs lehrreicher, die Sprache vollständig Kennenlernen um das nicht zu Fuß machen zu müssen hat aber auch sein Gutes.
Alexander schrieb: > Mich nervt jedes Leerzeichen zu viel oder noch schlimmer ein vergessenes > Tabulator in der Formatierung, jedes Zeilenende ist geprüft, jede Zeile > Code nachvollzogen. Mir grauts ein bisschen davor einer KI beim Code > raten zuzusehen. Wer weiß ob ich überhaupt das programmieren wollte was > dabei heraus kommt? Ach naja, das sind Dinge (zb. vier Leerzeichen, nicht zwei beim TAB usw.) das kannst den IDE's alles in den Einstellungen einprügeln. Harald K. schrieb: > vscode kann sehr individuell an alles mögliche angepasst werden, das > geschieht unter anderem mit Plugins wie Platformio. Hab's versucht, ohne Witz. Ich find das grausig! Das schnarchlahme Java Gedöns ArduinoIDE hat gerade beim Einrichten (Cores usw..) für den Einsteiger geringere Hürden. Ich hab meine PY32F030, überhaupt was von puya für VSCode gesucht. Totales Chaos finde ich!
Kilo S. schrieb: > Am Ende ist es völlig wumpe welche KI man verwendet, ob die nun in der > IDE läuft oder im Browser. Offenbar kennst du den Unterschied nicht: Die IDE liefert der KI automatisch (mehr oder weniger) passende Kontext Daten. Außerdem kann dir ein Chatbot im Browser nicht forlaufend Vorschläge machen, während du Code eintippst. KI in der IDE ist die nächste Stufe von Intellisense, dalls du wenigstens das kennst.
:
Bearbeitet durch User
Kilo S. schrieb: > Hab's versucht, ohne Witz. > > Ich find das grausig! Platformio ist ... ja, das ist anders. Aber das ist nur ein Beispiel. Solange man auf Arduino-Level programmiert (also keinen Debugger verwendet), kann man jeden beliebigen Kommandozeilencompiler selbst als Toolchain integrieren, und fürs Syntaxhighlighting, die Codevervollständigung etc. "C/C++ for visual studio code". Das muss man sich halt anpassen (vornehmlich: die Include-Pfade hinbiegen), dann aber kann man einfach loslegen. Will man einen Debugger verwenden, wirds etwas aufwendiger, aber auch das geht -- ich nutze vscode zur Remoteentwicklung und debugge via lldbserver. Dafür gibts auch eine Erweiterung.
Nemopuk schrieb: > Offenbar kennst du den Unterschied nicht: Die IDE liefert der KI > automatisch (mehr oder weniger) passende Kontext Daten. Nervig, ich steh nicht drauf das die scheiße mit liest. Null Plan von meinem Konzept im Kopf aber bei jeder Gelegenheit Nerven geht mir nicht ab! Nemopuk schrieb: > Außerdem kann dir ein Chatbot im Browser nicht forlaufend Vorschläge > machen, während du Code eintippst. Autovervollständigung ist das ERSTE das ich egal wo ich es vorfinde abschalte! Keiner hat mir da irgendwas einzublenden (auch nicht schattiert im Hintergrund) wenn ich gerade tippe! Nemopuk schrieb: > KI in der IDE ist die nächste Stufe von Intellisense, dalls du > wenigstens das kennst. Ah, genau den ranz den keiner braucht weil er nur im Text Rum flackert und mehr Zeit kostet als die Anschläge auf der Tastatur zum ausschreiben. Pah, nix anderes als Autovervollständigung mit extra nerviger Komponente "KI" was die da treiben. Die KI im Browser hält wenigstens die klappe bis ich entscheide das ich sie brauche!
Nemopuk schrieb: > KI in der IDE ist die nächste Stufe von Intellisense, dalls du > wenigstens das kennst. Gemini rät zu gesundem Skeptizismus.
Kilo S. schrieb: > genau den ranz den keiner braucht Wenn du dich so bei uns in einem Vorstellungsgespräch äußerst, war's das. Wir arbeiten (abgesehen vom Web basierten Chatbot) noch nicht mit KI, aber unser GF würde niemanden mehr einstellen, der nicht dazu bereit ist. Denn diesen "Ranz" braucht wahrscheinlich bald jeder Entwickler, wenn er nicht arbeitslos werden will. Denn man wird nicht dafür bezahlt, langsamer als andere zu sein. Man muss schnell und gut sein. Die eigentliche Kunst wird sein, trotz KI gut zu werden.
:
Bearbeitet durch User
Alexander schrieb: > Gemini rät zu gesundem Skeptizismus. Ich auch. Ich bin diesbezüglich in der Firma der Oberskeptiker. Werde nur noch vom Datenschutzbeauftragten getoppt.
Es bietet sogar gleich noch objektive Hilfe an - falls Du von einer KI gemoppt wirst.
:
Bearbeitet durch User
Nemopuk schrieb: > Denn man wird nicht dafür bezahlt, langsamer als andere zu sein. Abwarten. Es muss bald wieder ein "kippunkt" kommen. Aktuell sind wir im Stadium "Masse anstelle von Qualität". Aber (man glaubts kaum) ich merke eine Veränderung. Die Leute die sonst zum Konkurrenten liefen weil sein Lager größer ist, kommen nun seltsamerweise zu mir. Ich Brauch zwar länger (Ersatzteile Just in Time! Also 12-24h Minimum.) und bin im Schnitt 10€ teurer aber bei mir fallen die Geräte nicht im Sommer auseinander weil ich das Backcover neu verkleben und nicht wieder anföne zb. Nemopuk schrieb: > aber unser GF würde niemanden mehr einstellen, der nicht dazu bereit > ist. Mit KI arbeiten? Kein Problem! Aber nicht innerhalb der IDE, das nervt mich nur wenn eine Art autovervollständigung mir dauernd was einblendet. Externes Fenster, von mir aus auch ne Instanz der IDE die mir seperat anzeigt "so könnte deine Funktion aussehen", Browser ach sogar CLI. Alles kein Ding, nur ich hasse es wenn mir was beim Schreiben in den Text wichst! Nemopuk schrieb: > Man muss schnell und gut sein. Die eigentliche Kunst wird sein, trotz KI > gut zu werden. Und genau da sehe ich auch das Problem. Ich für meinen Teil kann aktuell die Qualität eines von KI produzierten Code nur dann beurteilen wenn ich ihn verstanden habe. Und so nutze ich das auch, ich schildere mein Problem und gehe die Lösung Schritt für Schritt (was ich noch nicht kenne/verstehe) durch. Mittlerweile bin ich so gut in meine PY32 eingearbeitet das ich die KI sogar ein mal bezüglich Timerkonflikten (IWDG & PWM erzeugung kamen sich in die Quere) noch vor dem Test "korrigieren" konnte. KI als lernhelfer funktioniert für mich tatsächlich etwas besser, wenn auch trotzdem langsamer, als das manuelle suchen bei PHP. Aber, für mehr als Lernhilfe/Sekretär taugt das für mich persönlich noch nicht. Ich bin weder in Southpark, noch heiße ich Mackey und ein intellilink hab ich auch keins bestellt! Wobei das Szenario erstaunlich ähnlich rüber kommt.
Christoph M. schrieb: > Welche KI benutzt du? In VSCode den Github-Copilot Premium mit Claude.. "Bau mir eine Github Readme zu meinem Projekt" Richtig schön mit Kapiteln, Bildern, Icons und Beschreibungen... in 30 Sekunden.
Ein wichtiger Punkt für KI in der IDE ist, dass es sehr schnell sehr nervig wird, die Änderungen manuell vom Browser in den Editor zu übertragen. Ich bin doch nicht das diff-Tool für die KI. Wenn man nur 5 Änderungen macht ist das kein Problem, aber wenn man das längere Zeit benutzt und jetzt die 100. Änderung am Tag hat, dann macht das keinen Spaß mehr. Der nächste Punkt ist, dass die KI in der IDE auch compilieren kann (muss man natürlich extra erlauben) und dann damit die Fehlermeldungen lesen und die Probleme gleich beheben kann.
Markus K. schrieb: > und dann damit die Fehlermeldungen lesen und die Probleme gleich beheben > kann. Für gratisnutzer keine gute Option, Verbraucht unnötig token. Fehlermeldungen kopiere ich separat und Google sie, die KI bekommt den von mir korrigierten Code zur weiteren Bearbeitung als Vorlage.
Markus K. schrieb: > Ein wichtiger Punkt für KI in der IDE ist, dass es sehr schnell sehr > nervig wird, die Änderungen manuell vom Browser in den Editor zu > übertragen. Ein wichtiger Punkt dagegen: Der Arduino C++ Code macht nur Sinn wenn man den passenden JS Code im HTML kennt, und andersrum. Im Browserchat kann ich theoretisch alles von Github querbeet verlinken. Wie kriegt das Copilot in der IDE zusammen, wenn es nur auf die .ino schaut?
:
Bearbeitet durch User
Alexander schrieb: > Der Arduino C++ Code macht nur Sinn wenn man den passenden JS Code im > HTML kennt, und andersrum. Dem Gedanken kann ich nicht folgen. Die KI könnte sich den Text mit leichter Verzögerung aus der temporären Sketch Datei holen die Arduino anlegt. Einfache txt datei im Endeffekt.
Nemopuk schrieb: > Denn diesen "Ranz" braucht wahrscheinlich bald jeder Entwickler, wenn er > nicht arbeitslos werden will. Bei uns hatte jeder Entwickler im Jahresziel, sich mit KI / Copilot auseinanderzusetzen und Einsatzmöglichkeiten auszuprobieren bzw. zu evaluieren. Inzwischen haben das die ~10 Kollegen aus unserem Team nicht nur evaluiert, sondern sie nutzen es täglich. Freiwillig. Monatlich gibt's firmenweit einen Austauch über die neuesten Entwicklungen Modelle Integrationen usw. Wie weiter oben schon geschrieben, KI ist ein kompletter Gamechanger.
Kilo S. schrieb: > Dem Gedanken kann ich nicht folgen. Die HTML Dateien für den Webserver sind kein Bestandteil des Sketch. Die liegen nur zufällig mit im Sketch Ordner (für den Upload ins LittleFS)
:
Bearbeitet durch User
Alexander schrieb: > Die HTML Dateien für den Webserver sind kein Bestandteil des Sketch. Du gehst jetzt vom fall eines MCU als Webserver aus? Naja da bleibt halt nur der KI die entsprechenden Dateien zur Vorlage zu geben. Wenn nötig bei jeder Änderung bzw. jedes Mal wenn die KI den Inhalt der Datei im gleichen Kontext mal wieder durcheinander bringt bzw. Fehlinterpretationen passieren.
Alexander schrieb: > Wie kriegt das Copilot in der IDE zusammen, wenn es nur auf die .ino > schaut? Macht er ja nicht, in der Arduino IDE sowieso nicht. Dafür gibt es zwar mittlerweile AI.duino aber das ist auch nichts halbes und nichts ganzes. In VS Code liest er alle includierten und sub-includierten Abhängigkeiten und nutzt diese auch. Er "schaut" nicht nur auf die eine .cpp, .c oder .h Datei. Ganz im Gegenteil: er erstellt dir sogar auf Wunsch gleich die Konstruktoren in einer Include File, direkt mit den üblichen overload-functions jener.
Alexander schrieb: > Wie kriegt das Copilot in der IDE zusammen, wenn es nur auf die .ino > schaut? Der Agent in der IDE hat automatisch Zugriff auf das gesamte Projekt und auf alle weiteren geöffneten Dateien. Außerdem sendet er auf Befehl hin jede beliebige andere Datei (auf die du zugreifen kannst) an die KI. Wobei der "Befehl" auch per drag&drop erteilt werden kann. Alexander schrieb: > Die liegen nur zufällig mit im Sketch Ordner Dann passt es doch, da in vscode per Default Ordner=Projekt ist.
:
Bearbeitet durch User
Ich hab mal VS Code installiert. Bis jetzt sehe ich nur einen krank kleinen Editor - auch hier werde ich Code lieber in Notepad++ editieren, so viel steht schon mal fest. Jetzt habe ich unten rechts ein kleines Chatfenster "Describe what to build next" - also doch wieder prompten. Was soll ich da eintippen? Erstelle mir einen PAP?
:
Bearbeitet durch User
Alexander schrieb: > Bis jetzt sehe ich nur einen krank kleinen Editor Ich verrate dir jetzt nicht, wie man Fenster maximiert und Abschnitte innerhalb der IDE zurecht schiebt. Das ist mir zu blöd.
Alexander schrieb: > Ich hab mal VS Code installiert. Dann deinstallier es wieder, das überfordert dich nur.
Alexander schrieb: > Was soll ich da eintippen? Frage das die KI! Oder frage nach Links zur Doku. > Erstelle mir einen PAP? Wenn das dein Wunsch ist, dann: ja Mannomann! Du hast hier so viele ablehnende Beiträge über KI geschrieben, und nun sehen wir allzu deutlich, daß du null Ahnung vom Thema hast.
:
Bearbeitet durch User
Ihr habt gesagt KI in der IDE ist besser als ein Browser-Chat. VS Code ist gut. VS Code findet nicht mal die Standard Includes. Eine KI die irgendwas am Code kommentiert sehe ich nicht. Und noch immer kann ich die Schwärmereien hier nicht nachvollziehen. Klaus schrieb: > Dann deinstallier es wieder, das überfordert dich nur. Ja besser ist das. Mir reicht ein Text Editor.
Philipp K. schrieb: > Richtig schön mit Kapiteln, Bildern, Icons und Beschreibungen... in 30 > Sekunden. Meine Beobachtung: Je bunter und umfangreicher die README.md, desto weniger Substanz beim Rest. Ausnahmen gibt es natürlich, aber als ersten Indikator kann man das durchaus annehmen.
Alexander schrieb: > VS Code findet nicht mal die Standard Includes. Welcher Standard? Erst mal ist es nur ein besserer Texteditor. Alles Weitere kommt über Erweiterungen (Extensions) dazu. https://marketplace.visualstudio.com/items?itemName=vscode-arduino.vscode-arduino-community Du könntest 5 unterschiedliche C++ Compiler installiert haben und dazu noch mehr unterschiedliche Standard Bibliotheken. Was bei Arduino sogar sehr wahrscheinlich ist. Warum fragst du nicht die KI, wie das zu Lösen geht?
:
Bearbeitet durch User
Alexander schrieb: > Eine KI die irgendwas am Code kommentiert sehe ich nicht. Dazu musst du dich anmelden und das Feature aktivieren. Denn es kostet Geld, mal abgesehen von einer begrenzten kostenlosen Testphase. Ohne Anmeldung ist der KI Agent erst mal deaktiviert. Wie wäre es mit Doku der IDE lesen, bevor man aufgibt oder meckert? Lies auch die Doku vom Arduino Plugin, insbesondere wie dort mit 3rd party cores umgegangen wird. "Ich habe keine Ahnung und finde es schon schlecht" ist sinnlos. Das ist ein Arbeitsmittel, kein Kunstobjekt zum bewundern.
:
Bearbeitet durch User
Wenn ich die Arduino Extension vscode-arduino und unter arduino-cli.exe das esp32 Paket installiert habe, die Libs auch in der c_cpp_properties.json unter "includePath" eingetragen sind, gehe ich davon aus dass Standard Includes wie <SPI.h> automatisch gefunden werden.
Du kannst dein Arduino Library Problem ja in einem eigenen Thread diskutieren. Es passt hier nicht hin.
Immerhin: Die KI funktioniert jetzt. Ich habe meine Ablaufbeschreibung zur WLAN Passwort Verschlüsselung bekommen. Diese ist sogar fehlerfrei. GitHub Copilot in der IDE ist besser als Microsoft Copilot im Browser. Gut das M$ Github gekauft hat.
:
Bearbeitet durch User
Alexander schrieb: > Wenn ich die Arduino Extension vscode-arduino und unter arduino-cli.exe > das esp32 Paket installiert habe, die Libs auch in der > c_cpp_properties.json unter "includePath" eingetragen sind, gehe ich > davon aus dass Standard Includes wie <SPI.h> automatisch gefunden > werden. Er hat sie auch gefunden. Du kannst sie sicher mit Strg-Klick öffnen und die automatische Eingabeergänzung wird ihren Inhalt nutzen. Die Fehlermeldung in deinem Screenshot (ganz unten) zeigt, dass er die soc/soc_caps.h nicht gefunden hat, welche von SPI.h includiert wird. Also hat er die SPI.h gefunden. Das ist kein Fehler der IDE sondern im Arduino Plugin dessen Zusamenspiel mit dem ESP32 Core. Der Fehler tritt auch beim EP8266 Core auf, jedoch nicht bei den "originalen" Cores von Arduino. Google nach den fehlenden Include Pfaden, dann findest du Lösungen. Ich habe die Fehler bisher ignoriert, da ich die betroffenen Dateien nie direkt (in meinem eigenen Code) brauchte. Alexander schrieb: > GitHub Copilot in der IDE ist besser als Microsoft Copilot im Browser. > Gut das M$ Github gekauft hat Der GitHub Copilot ist keine mit eingekaufte Funktion von Github, sondern ein Produkt von Microsoft.
:
Bearbeitet durch User
Aber die Trainingsdaten sind eingekauft. Auch deine, sofern du nicht auf Gitlab gewechselt bist.
Alexander schrieb: > Auch deine, sofern du nicht auf Gitlab gewechselt bist. Nutze ich beides nicht. Ich mach was das Programmieren angeht nur Sachen für mich. Ist ja nur Hobby bei mir. Das einzige was von mir zu finden ist, liegt hier im Forum und ist die minimal "überarbeitete" LCD "library" für das Fumot 25k LCD. (Upper/Lowercase Font und grob zusammen gepfuschte Zeichenfunktionen, paar Farben extra, Display Rotation) Grottenhässlich und unelegant wie ich finde, weit abseits von fehlerfrei, da sieht man direkt den "Anfänger".
Rene K. schrieb: > Visual Studio mit KI Integration ist schon krass... Manchmal wundert man > sich dann wirklich "WIE" sie dann darauf kommt das man genau das jetzt > braucht. Sie schreibt einen komplette Funktion, genau so wie man das > braucht - nur mit einem TAB - ist schon krass, also wie das so > funktioniert. Du schreibst offensichtlich nur Trivialst-Programme. Also Sachen, die Tausende andere auch schonmal geschrieben haben.
Ob S. schrieb: > Du schreibst offensichtlich nur Trivialst-Programme. Also Sachen, die > Tausende andere auch schonmal geschrieben haben. Du hast offensichtlich keine Ahnung, was die KI zu leisten vermag.
Ob S. schrieb: > Du schreibst offensichtlich nur Trivialst-Programme. Da bin ich jetzt neugierig, hast du mal ein Beispiel für "nicht triviale" Programme? Klaus schrieb: > Du hast offensichtlich keine Ahnung, was die KI zu leisten vermag. Und du überschätzt sie trotzdem ein wenig zu sehr. ChatGPT zb. Ich weiß, durch Befragung der KI, das nur wenige also so ganz wenige gleichzeitig mit mir an Projekten mit den PY32 und KI Hilfe gearbeitet haben. Ich hab der KI mehrfach den Core verlinkt, mehrfach die Anweisung gegeben, ganz explizit, den Code nicht mit STM32 Standard registern zu schreiben sondern denen des Air001. (AirChip/Geehy) Die ersten zwei Monate hat die KI trotzdem nur Mist geliefert. Immer und immer wieder zurück zu den STM32 Definitionen, ich hab nix anderes gemacht als den Code zu korrigieren, erneut zu "besprechen" und nochmals die klare Anweisung zu geben:"Verwende ausschließlich die Registerdefinitionen des Air001, diese sind identisch zum PY32." Claude hingegen, da wollt ich es Wissen. Der KI hab ich eine halbwegs lauffähige Version eines von ChatGPT erstellten Programm gegeben. Keine großen Beanstandungen, verwendet zu 99% der zeit korrekte Register usw. aktuell ist Claude bei mir so weit mich explizit zu fragen was ich heute auf'm Tisch habe, einen echten STM32, einen GD32 oder den PY32. Anpassungen passieren in der Regel fehlerfrei, bzw. Fehler sind dann manchmal so offensichtlich das sogar ich sie finden kann bevor ich teste. Aber das hat sich über locker zwei Monate gezogen ChatGPT, mit Unterstützung der anderen unbekannten die an PY32 Projekten gearbeitet haben, fit für diese MCU zu machen. Und wer glaubt denen wirklich das die aktuellen Konversationen nicht ins Training fließen? Vielleicht nicht in Echtzeit, dauert allerdings höchstens ein paar Wochen, von alleine hat ChatGPT sicher nicht angefangen sich die PY32 beizubringen.
:
Bearbeitet durch User
Marci W. schrieb: > ACK! Die wenigsten Projekte werden mal "fertigentwickelt" und dann bis > auf Fehlerbehebungen eingefroren. Solche Anwendungen sind jedenfalls mir > noch nicht untergekommen. OK, doch, TeX fällt mir da ein. ;-) Die TeX-Version 3.141592653 ist vom 5. Februar 2021... abwarten. ;-)
Cyblord -. schrieb: > Ich meine das ist ein sehr typischer Dunning-Kruger: Wenig wissen aber > viel unreflektierte Empörung mit großem Eifer. Wer das Paper von Dunning und Kruger überflogen hat, weiß: das ist der Sache inhärent. Denn je weniger der Betroffene tatsächlich weiß desto weniger kann er seine eigene Fach- und Sachkenntnis beurteilen. Das Ergebnis davon ist, daß die Fachleute wissen, daß ihr Kenntnisstand morgen schon von neueren Forschungsergebnissen überholt werden kann, während die vom Dunning-Kruger-Effekt Betroffenen sich ihrer Sache absolut sicher sind -- und dem entsprechend selbstsicher auftreten. Das wiederum schließt den Kreis zu den LLMs, die mit den Aussagen der vom Dunning-Kruger-Effekt Betroffenen trainiert worden sind und deren Verhalten nachbilden: totales Selbstbewußtsein trotz völliger Ahnungslosigkeit. :-) Nebenbei bemerkt habe ich den Eindruck daß viele Teilnehmer an diesem Thread grandios an einander vorbei und sich dabei mitunter in Rage reden. Wenn dies hier nicht entgleisen soll dann rüstet doch bitte ein bisschen ab, emotional und verbal. Danke.
Philipp K. schrieb: > In VSCode den Github-Copilot Premium mit Claude.. Da gibt es im Moment aber nur Free 0$, Pro 17$ und Max 100$ https://claude.com/pricing Ist Preminium=Pro?
Bei Claude Free bekommst du aber keinen API Key. Ich nutze VSCode mit Copilot/GitHub Free... Da hat man, wie gesagt, 2000 Changes kostenlos je Monat. Das ist auch Standard mäßig aktiviert bei VS Code. (Mann muss sich nur mit seinem MS Konto anmelden).
Rene K. schrieb: > (Mann muss sich nur mit seinem MS Konto anmelden). Müssen sich Software-Entwicklerinnen vorher einer Geschlechtsumwandlung unterziehen?
Norbert schrieb: > Müssen sich Software-Entwicklerinnen vorher einer Geschlechtsumwandlung > unterziehen? Ich zitiere mich mal selbst, da dies hier ebenso passend ist: Rene K. schrieb: > Frank D. schrieb: >> Rene K. schrieb: >>> mit vollem Radius von 360° >> >> Aua! > > Ja, es war spät und ich war müde. 😘 Derjenige der nie einen Fehler > macht, so werfe er den ersten Stein! > > > Viel mehr "Aua" finde ich ja Menschen, die auf solchen Fehlern rumreiten > und sie anderen Menschen in herabwürdigender Weise unter die Nase > reiben. Sagt sehr viel über eben jenen aus... Arroganz ist da nur eines > davon. Glückwunsch. > > Ein normaler Menschen hätte gesagt "Du meintest Umfang richtig?" Oder > überlesen und ignorieren es einfach wie die anderen Poster. Aber dann > gibt es halt solche Menschen wie dich... Schade, aber das ist halt > dieses Forum. > > Hier kann man mittlerweile vieles erwarten, z.b. Hochmut, Arrogant, > Narzissmus und dumme sowie sinnlose Kommentare. Was man hier nicht mehr > erwarten kann und kaum noch sieht: Hilfestellungen! Glückwunsch, du bist > einer dieser Kameraden! 😗 Glückwunsch, du gehörst scheinbar auch zu dieser Gattung Mensch!
Aus gegebenem Anlass mal ein „Micropython-Script“ einer K„I“ im Nachbarthread: Beitrag "Re: Programm für Rapsberry PI Pico mit RP2040" Und nun erzählt mir nochmal, dass die Modelle irgendwas verstehen würden.
:
Bearbeitet durch User
Joar, das ist ein absolutes Negativbeispiel. Mich würde aber mal die eingesetzte KI interessieren.
Rene K. schrieb: > Ja, es war spät und ich war müde. Du scheinst sehr oft sehr müde zu sein, sonst hätte ich das kaum erwähnt.
Nemopuk schrieb: > Das ist kein Fehler der IDE sondern im Arduino Plugin dessen > Zusamenspiel mit dem ESP32 Core. Der Fehler tritt auch beim EP8266 Core > auf, jedoch nicht bei den "originalen" Cores von Arduino. Google nach > den fehlenden Include Pfaden, dann findest du Lösungen. Ich habe die > Fehler bisher ignoriert, da ich die betroffenen Dateien nie direkt (in > meinem eigenen Code) brauchte. Wenn jemand Arduino in VS Code zum laufen kriegt bitte melden. Ich habe nun nach Stunden Sinnlos-Dialogen mit Microsoft Copilot (Browser) an einem Punkt aufgegeben, wo es mir vorschlägt claude-code zu deinstallieren und github.copilot-chat testweise zu deaktivieren.
Christoph M. schrieb: > Ist Preminium=Pro? Claude-Sonnet Der ist in Premium Github Copilot auswählbar. https://github.com/features/copilot#pricing Alexander schrieb: > Wenn jemand Arduino in VS Code zum laufen kriegt bitte melden. Windows, Linux und was aktivieren? Arduino Support? Für welche MCU? Das Zauberwort ist PlatformIO ;) Alle MCU Platformen in einem eigenständigem Plugin, die Projekte sind komplett verschiebbar.
:
Bearbeitet durch User
Alexander schrieb: > Wenn jemand Arduino in VS Code zum laufen kriegt bitte melden. Wie ist das gemeint? Ein Arduino-Emulator-Code in VS Code? Und: VS Code: muss man das einsetzen? Es gibt ja so einige Alternativen, die ja nun auch nicht so schlecht sein können. Außerdem: wenn etwas nicht geht, gibt es bestimmt Fehlermeldungen. Gibt es hier Anhaltspunkte?
Ich oute mich mal als Level-0-KI-Anwender :) und stimme in den meisten Punkten mit dem überein, was der User Kilo schon geschrieben hat. Einerseits bin ich sehr beeindruckt von dem Code, den bspw. ChatGPT erzeugt, andererseits ist dieser (in meinem Umfeld) selten so gut, dass ich ihn per Copy/Paste direkt in meine Anwendung übernehmen möchte. Deswegen gehe ich üblicherweise so vor, dass ich mir für eine bestimmte (meist sehr begrenzte) Teilaufgabe ein vollständiges Beispiel generieren lasse, das ich isoliert von meiner restlichen Anwendung testen kann. Anfangs ist der Code manchmal noch nicht einmal kompilierfähig, danach treten mitunter Laufzeitfehler auf. Läuft der Code dann durch, verhält er sich oft immer noch in einigen Details anders, als ich mir das vorgestellt habe. All diese Dinge lassen sich aber größtenteils durch hartnäckige Rückfragen beheben. Nach mehreren solcher Iterationen entsteht ein Codebeispiel, das im Großen und Ganzen meinen Erwartungen entspricht. Ich versuche dann erst einmal zu verstehen, was der Code genau tut. Wenn er mir unbekannte Funktionen aus Bibliotheken aufruft, schaue ich in der jeweiligen API-Dokumentation nach, was diese Funktionen genau tun. Wenn er mir unbekannte Algorithmen verwendet (und netterweise deren Namen nennt), schaue ich ins Wikipedia oder recherchiere mit Google, was es damit auf sich hat. Erst nachdem ich den Code vollständig verstanden habe, übernehme ich die für mich relevanten Teile davon in meinen eigenen Code. Das tue ich aber nicht einfach mit Copy/Paste. Stattdessen passe ich den Code an meine Programmstruktur und meinen Programmierstil an, so dass die Gesamtsoftware nach wie vor wie aus einem Guss ist. Dieses Vorgehen mag aufwendiger erscheinen als sich mittels eines IDE-Plugins von der KI generierte Code-Fragmente direkt in den bestehenden Code einfügen zu lassen, hat für mich persönlich aber ein paar entscheidende Vorteile: - Wenn sich der KI-generierte Code als fehlerhaft erweist, muss ich ihn nicht mühevoll wieder aus meinem Code herausdröseln. Das ist besonders dann nervig, wenn der Fehler erst nach ein paar Wochen auftaucht. - Durch das Inspizieren des Codes lerne ich einiges über die verwendeten Algorithmen, was u.a. dabei hilft, potentielle Schwachstellen aufzudecken und diese bei den Tests gezielt zu berücksichtigen. Außerdem lerne ich einiges über die verwendeten Bibliotheken und deren Funktionen, was mir bei zukünftigen Projekten zugute kommt. - Da ich den generierten Code nicht per Copy/Paste, sondern Stück für Stück manuell in meinen Code übernehme, ist das praktisch so, al ob ich den Code selber geschrieben hätte. Das erleichtert die spätere Wartung der Gesamtsoftware. - Insgesamt bin ich der Überzeugung, dass ich damit eine deutlich höhere Softwarequalität erreiche und die anfangs zusätzlich investierte Zeit beim Testen und Debuggen und spätestes bei der Softwarewartung wieder zurückhole. Sehr wahrscheinlich bekommt man für Geld eine bessere Codequalität durch die KI geliefert. Ich kann mir aber nicht vorstellen, dass sie so gut ist, um mich in den Level 1 (Spec-Driven) aufsteigen zu lassen, in dem praktisch überhaupt nichts mehr händisch programmiert wird, sondern nur noch an der Spezifikation gearbeitet wird. Das Vertrauen in die KI-basierte Codegenerierung fehlt mir insbesondere auch deswegen, weil ich schwerpunktmäßig Software entwickle, die sehr direkt mit der realen, analogen Welt interagiert. Es geht oft um Systeme mit ungenauen und rauschenden Sensoren und ebenso ungenauen Aktoren. Sensorsignal-, Bildverarbeitung, Regelungstechnik und Echtzeit sind Dinge, die nach wie vor in einem iterativen Prozess mit großem Testaufwand entwickelt werden. Die KI hingegen läuft isoliert in ihrem digitalen Elfenbeinturm und generiert Code, der zwar auf den ersten Blick sehr plausibel aussieht, aber schon bei den ersten Tests in der realen Welt meist komplett versagt. Versuche, diese Probleme durch Iterationen zu beseitigen, münden fast immer in eine Endlosschleife. Solche Anwendungen sind eben etwas ganz anderes als bspw. eine Weboberfläche für eine Datenbank, wo die einzige Verbindung zur Außenwelt die Interaktion mit dem Benutzer ist, von dem erwartet wird, dass er lernfähig ist und sich seinerseits allmählich an die Benutzung der Software gewöhnt ;-) Zurück zu den Real-World-Anwendungen: Schön wäre es, wenn die KI quantitative Anforderungen (bspw. Angaben zu Genauigkeiten und zum Zeitverhalten) berücksichtigen könnte, so dass man am Ende vielleicht sogar auf viele Tests in realer Umgebung verzichten könnte. Aber davon sind wir vermutlich noch mindestens ein paar Jahre, wenn nicht sogar Jahrzehnte, entfernt. Um noch einmal auf die 11 Level des Schweizer zurückzukommen: Ich fühle mich zwar nicht den Leveln 1 bis 9 zugehörig, aber in Level 10 (Beyond Arduino) bin ich definitiv und war es sogar schon immer ;-)
Yalu X. schrieb: > Es geht oft um Systeme > mit ungenauen und rauschenden Sensoren und ebenso ungenauen Aktoren. Erinnert mich an meine Magnetic Loop, die Typischen 5V Arduino Steppermotoren haben gut Spiel im Getriebe. (der beste den ich fand 2 steps) Ja ich mache es auch so, frage die KI nach der Lösung für je ein Projekt das ich Stück für Stück erweitere und nur die relevanten Teile nach dem ich sie entsprechend angepasst habe, landen in "Meinem" Projekt. Du hast aber einen großen Vorteil mir gegenüber, du kannst schon programmieren und musst nicht erst noch Nachschlagen:"äh, Moment! Was macht der Operator da nochmal und wann und wo müsste ich noch gleich mit \* beginnend referenzieren.." Das Sternchen hat mich letztens wahnsinnig gemacht und die KI produziert ja kein reines "Arduino" bei mir. (Soll sie auch nicht! Irgendwann wollt ich das ja hinter mir lassen...) Die gibt mir Funktionen die ich in der IDE kompilieren kann, der Inhalt ist aber nicht so schnuckelig wie "analogReadResolution()" zum Einstellen des ADC, wie es bei Arduino halt "Beginner freundlich" gelöst ist. Im Prinzip, spare ich mir mit der IDE nur Einrichtungsaufwand und das einarbeiten in den make Prozess und den Compiler, wird mir ja alles abgenommen.
Yalu X. schrieb: > Solche Anwendungen sind eben etwas ganz anderes als bspw. eine > Weboberfläche für eine Datenbank, wo die einzige Verbindung zur > Außenwelt die Interaktion mit dem Benutzer ist, von dem erwartet wird, > dass er lernfähig ist und sich seinerseits allmählich an die Benutzung > der Software gewöhnt ;-) Da ist auf jeden Fall was dran - aber manchmal braucht man einfach einen Schubser, oder einfach mal etwas, mit dem man was anfangen kann. Beispielsweise hinsichtlich der Übertragung von (Algo-)Pseudocode nach Rust oder hinsichtlich Linux-Assembly fand ich das unter die Arme greifen der KI schon sehr gut. ("wollen wir algo x,y oder z mal zusammen schrittweise durchgehen?") Ist ja auf oft gar nicht so neu, was man da liest - nur: eine andere Perspektive kann manchmal schon Wunder wirken. (Ganz abgesehen davon hilft rustc selber auch noch ganz gut - so gesehen braucht man sich eigentlich nur noch die passende Zeit nehmen.)
Rbx schrieb: > Wie ist das gemeint? Ein Arduino-Emulator-Code in VS Code? Eine Extension mit der man .ino Dateien kompilieren kann (Arduino ist nicht wirklich C konform). Hier der Link: Nemopuk schrieb: > https://marketplace.visualstudio.com/items?itemName=vscode-arduino.vscode-arduino-community Philipp K. schrieb: > Das Zauberwort ist PlatformIO ;) Möchte nix am .ino Code ändern, soll OOTB als Arduino Projekt kompilieren zwecks Kompatibilität. Rbx schrieb: > Außerdem: wenn etwas nicht geht, gibt es bestimmt Fehlermeldungen. Gibt > es hier Anhaltspunkte? Ja, fehlende Include Pfade. Ich weiß auch welche (esp32-libs) aber nicht wie ich die global (also nicht für jedes Projekt wieder neu) hinterlege. settings.json wird augenscheinlich ignoriert.
:
Bearbeitet durch User
Alexander schrieb: > Möchte nix am .ino Code ändern, soll OOTB als Arduino Projekt > kompilieren zwecks Kompatibilität. Das Teil benutzt doch arduino-cli.. da würde ich mal schauen ob es sich mit IDE kompilieren lässt. Vielleicht ist das arduinoesp32. Espressif liefert bei arduino espidf+arduinoesp32 in einem Paket. Man muss aufpassen ob das Projekt für arduino-esp32 2.x oder 3.x ist.
Solange es keine Breaking Changes zwischen arduino-esp32 v3.0.7 (ESP-IDF v5.1.4) und v3.3.6 (ESP-IDF v5.5.2) gibt liegt es wohl eher nicht am Framework, da es in der Arduino IDE kompiliert. Ich denke die vscode-arduino Community Edition ist nicht offiziell und wohl schon länger nicht gepflegt.
Alexander schrieb: > gibt liegt es wohl eher nicht am Framework, da es in der Arduino IDE > kompiliert. Arduino-cli ist das minimalste, danach wird es nur frickliger und umständlicher. Dafür braucht man aber kein vscode, das ist standalone. Zuwenig Infos und es passt nicht zum Thema um zu diskutieren.
Gerhard O. schrieb: > IBM wusste es schon seit langem... Kann man so 1:1 mit Politiker und politischen Entscheidungen ersetzen.
Kilo S. schrieb: > ChatGPT zb. > Ich weiß, durch Befragung der KI, das nur wenige also so ganz wenige > gleichzeitig mit mir an Projekten mit den PY32 und KI Hilfe gearbeitet > haben. Woher soll ChatGPT das wissen? Solche Daten werden (sofern erhoben) nicht in die Daten rückfließen. Überhaupt werden die Trainingsdaten sehr sensibel behandelt, rede Dir nicht ein Dein Chatverlauf könnte den LLM was beibringen.
Harald K. schrieb: > Will man einen Debugger verwenden SWD mit J-Link, habe ich dafür zur Verfügung. Also ich benutze ja STM32 (diverse) und die scheinen alle SWD zu können, zumindest so weit mir bekannt ist. Ich kann doch bei Arduino die Debugging Geschichten ebenfalls aktivieren, gut, noch bin ich da nicht so weit. Aber wie es prinzipiell geht, hab ich schon ein bisschen, also wirklich wenig Erfahrung, dank des RT-890 damals (GD32) und der Vapes (PY32). VScode ist für mich ab dem Beitrag gestorben als ein MS Konto für die KI als Vorraussetzung genannt wurde.
Kilo S. schrieb: > ein MS Konto für die KI als Vorraussetzung There's no such thing as a free lunch!
Alexander schrieb: > Überhaupt werden die Trainingsdaten sehr > sensibel behandelt, rede Dir nicht ein Dein Chatverlauf könnte den LLM > was beibringen.
1 | Can the AI learn from coding sessions with users? |
Yes, some AIs can learn from coding sessions with users, but it varies by system and prioritizes privacy. ## Core Capabilities Coding assistants like GitHub Copilot or Cursor adapt within a session by analyzing your code context, accepting/rejecting suggestions, and refining outputs based on immediate feedback. This simulates learning through pattern recognition from vast pre-trained repositories, not real-time model updates. [github](https://github.blog/developer-skills/programming-languages-and-frameworks/how-to-use-ai-coding-tools-to-learn-a-new-programming-language/) ## Broader Training Models improve over time via aggregated, anonymized data from many users' coding interactions, using techniques like RLHF to enhance code generation accuracy [ from prior context]. Tools don't retain your personal code history across sessions to avoid data risks.
Klaus schrieb: > Ich würde sagen in meiner Karriere ist das jetzt der zweite radikale > Gamechanger. > Bis Ende der 90ern musste man noch aus Büchern erlesen, wie man etwas > macht Na ja. Zu Beginn gab es EIN Programmiermodell (API) ob jetzt für Windows oder GEM oder Unix, und einige 'best practice' Beispiele. Lernen und Anwenden war famit easy. Dann kamen zig unterschiedliche Plattformen (MFC, C#, GTK, WindowsCE, UWP, ... ) deren Dokumentation unvollständig, veraltet und durcheinander war, und Google fand prompt Beispiele die nicht zur eigenen Plattform passten, und programmieren wurde unmöglich wenn man nicht von Anfang an dabei war. Starte heute mal mit AndroidApp oder WibdowsUWP, da funktionieren nicht mal die Lehrbeispiele von der Erfinderwebseite mehr weil sich alles inkompatibel weiterentwickelt hat. Aber überraschenderweise findet ChatGPT meist passende Programmcodes, also wirklich brauchbare Lösungen.
Beitrag #8005245 wurde vom Autor gelöscht.
Michael B. schrieb: > Aber überraschenderweise findet ChatGPT meist passende Programmcodes, > also wirklich brauchbare Lösungen. Das kommt noch dazu. In einem Bereich, in dem ich mich gut auskenne, weil es meine tägliche Arbeit ist, erspart mir der Copilot oft "nur" lästige Tipparbeit für Boilerplates, aber auch für echte neue Funktionalität. Wenn es aber um etwas geht, wo ich mich erstmal kaum oder gar nicht auskenne, ist es fast schon unglaublich, was man da in kürzester Zeit zustande bringt. Ich glaube früher hätte ich mich in ein neues Thema wie zB React erstmal 2, 3 Wochen einarbeiten müssen. Heute habe ich nach einem halben Tag einen funktionierenden Prototypen.
Kilo S. schrieb: > Nemopuk schrieb: >> sondern ein Produkt von Microsoft. > > Aha, ein kotpilot.. hrhrhr > SCNR! Cool! Darf ich mit dir rumhängen?
Bei passendem Einsatz finden die meisten Programmierer eine KI für bestimmte Aufgaben nützlich. Manchmal scheinen die KIs aber auch an sehr einfachen Aufgaben zu scheitern. Ich habe folgenden Prompt mit verschiedenen KIs ausprobiert:
1 | tkinter: can you draw the characters A,B,C with only lines and arcs? |
Als Beispiel das Ergebnis von Mistral im Anhang. Mich würde interessieren, ob so eine Aufgabe von Claude besser gelöst wird.
Hat schon jemand ein funktionierendes Setup gefunden, um mit lokalen LLMs, agentischer Vorgehensweise (Agent kann auf alle Projektdateien zugreifen, Projekt kompilieren, Fehler beheben, Programm auf der Hardware ausführen...) in VS Code mit den STM32 in C++ zu arbeiten? Ich habe ein bisschen mit Ollama, qwen2.5-coder:7b, einer RTX 3060, in VS Code mit Copilot herumgespielt. Der Erfolg ist mäßig, das Kontextfenster ist (anscheinend) zu gering sodass das Modell es nicht schafft, die Tool-Calls korrekt zu formatieren, sodass die Tool-Calls dann in der Prompt-Ausgabe landen statt dass der Agent die gewünschte Aktion durchführen kann. Zudem ist der System Prompt in der Modelldatei von qwen falsch und muss angepasst werden, damit die Tool-Calls dem Modell richtig formatiert vorgegeben werden. Außerdem kann der Copilot Ollama überhaupt nicht für Code Completion nutzen, nur für Chats. Scheint mir alles sehr unausgereift zu sein... Wie baut man sich da was funktionsfähiges zusammen? Braucht man "einfach nur" eine größere GPU? Welche genau? PS: Da die LLMs ja Probleme mit C und C++ haben - hilft es, den Code erst in Python erstellen und dann nach C / C++ konvertieren zu lassen?
:
Bearbeitet durch User
Bevor der Code ausgeworfen wird, müsste man sich mit der KI auf einen Algorithmus einigen.
Dieter D. schrieb: > Bevor der Code ausgeworfen wird, müsste man sich mit der KI auf einen > Algorithmus einigen. Sowas ähnliches, hat mir ne KI Gestern auch erzählt. :DDD
Hallo, hier ein Beispiel, wo für das Spiel Isola, für das bereits ein Computergegner programmiert worden ist, eine grafische Oberfläche generiert wird. Isola GUI programmiert mit KI [German] von Pyrlae https://youtu.be/boSt1zlwx9I Schreiben des Prompts: 4:30 Erstellen des Programmiercodes (700 Zeilen): ebenfalls 4:30 Herunterladen des Renderingpakets: 2:00 Sodass es insgesamt 11 Minuten dauert, bis das (Mini-)Projekt zum laufen gebracht wurde. Das Coden ging hier mit durchschnittlich 2,6 Zeilen Code pro Sekunde(!) Das Beispiel wurde auf dem Matheplanet gepostet.
Hallo nochmal, Building a C compiler with a team of parallel Claudes https://www.anthropic.com/engineering/building-c-compiler CCC — Claude's C Compiler auf github https://github.com/anthropics/claudes-c-compiler "Note: With the exception of this one paragraph that was written by a human, 100% of the code and documentation in this repository was written by Claude Opus 4.6. A human guided some of this process by writing test cases that Claude was told to pass, but never interactively pair-programmed with Claude to debug or to provide feedback on code quality. As a result, I do not recommend you use this code! None of it has been validated for correctness. Claude wrote this exclusively on a Linux host; it probably will not work on MacOS/Windows — neither I nor Claude have tried. The docs may be wrong and make claims that are false."
Alexander S. schrieb: > As a result, I do not recommend you use this code! None of it > has been validated for correctness. Und trotzdem hat er es zum Widerkäuen auf Github belassen. Es beginnt..
Klaus schrieb: > There's no such thing as a free lunch! Nu, die bekommen nix, ich bleib bei meiner Browserlösung und hab dafür nur deutlich begrenzten Zugang. Am Ende bleibe ich der Gewinner bei dieser Variante. Selbst der eingeschränkte Zugang ist für mich ausreichend um 90% der Projekte mit den vorhandenen Token zu lösen.
Alexander schrieb: > Alexander S. schrieb: >> As a result, I do not recommend you use this code! None of it >> has been validated for correctness. > > Und trotzdem hat er es zum Widerkäuen auf Github belassen. Es beginnt.. Ja, es beginnt ein neues Zeitalter. Dank meiner frühen Geburt schaffe ich es auch noch so bis zur Rente, aber wäre ich 20 Jahre jünger, würde ich nun ernsthaft darüber nachdenken, ob man als SW-Entwickler noch eine berufliche Zukunft hat.
Wie ist das aber dann mit dem Urheberrechten, wenn das Endprogramm dann Gewerblich eingesetzt werden soll?? Ist das dann was für die Abmahnanwalte, wenn sie darüber Ahnung haben. Wird doch ein unerschöpflicher Fundus werden. MfG ein alter knacker aus der Nichtarbeitenden Bevölkerung;-))
Al. K. schrieb: > Wie ist das aber dann mit dem Urheberrechten, wenn das Endprogramm dann > Gewerblich eingesetzt werden soll?? Der Datenschutzbeauftrage unserer Firma hat diese Frage nach 2 Jahren immer noch nicht beantworten können. Ergo: Keine Erlaubnis, von KI generierten Code zu benutzen.
Zumindest in den ChatGpt-AGB meine ich gelesen zu haben, dass man mit dem Output machen darf was man will. ChatGpt (bzw. natürlich OpenAI) erhebt also keine Urheberschaft im rechtlichen Sinn auf den Output. So jedenfalls habe ich es verstanden. Wäre vermutlich schwer nachzuweisen, dass eine Quelldatei von einer KI generiert wurde. Und dann noch schwerer, von welcher genau. So gesehen habe ich erst mal keine Angst vor den Abmahnverbrechern ... ciao Marci
Marci W. schrieb: > So gesehen habe ich erst mal keine Angst vor den Abmahnverbrechern ... Und was ist, wenn die KI von Trainungsmaterial kopiert hat, dass nicht oder nur unter gewissen Bedingungen verwendbar ist? Die allermeisten Lizenzen von Software-Libraries verlangen zum Beispiel in einer Liste genannt zu werden. Wenn du das vergisst, kannst du verklagt werden. Und zwar nicht nur vom Autor der Bibliothek, sondern auch vom Autor der Lizenz (meist eine US amerikanische Universität) und von Konkurrenten, die sich benachteiligt fühlen.
Marci W. schrieb: > So gesehen habe ich erst mal keine Angst > vor den Abmahnverbrechern ... Jetzt steckt die Entwicklung noch in den Kinderschuhen, wenn erst Millionen KI gestützte Programme laufen, dann werden auch die KI Entwickler munter und werden sich mit diesen Klientel Anwälten verbünden. MfG Ein Alter Knacker aus der nichtarbeitenden Bevölkerung
Klaus schrieb: > ber wäre ich 20 Jahre jünger, würde > ich nun ernsthaft darüber nachdenken, du meinst so, wie die Leute im 18. Jahrhundert mit dem Aufkommen der industriellen Revolution Angst hatten, dass die Arbeit ausgeht? Irgendwie scheinen eher SW-Entwickler in Panik zu verfallen. Ich sehe das nicht so ausgeprägt in anderen Berufsgruppen, deren Effizienz duch KI gar noch stärker erhöht wird. Was man auch nicht vergessen sollte: die Welt lebt nicht von immateriellen Produkten, sondern größtenteils durch materielle Güter! So gesehen kann man sich ja vllt. eher in dieser Richtung orientieren. Da gibt es zwar auch Verbesserungen durch KI/Robotik, aber die fallen momentan noch eher bescheiden aus. Obwohl Musk ja den Haushaltsroboter gebastelt hat. Der muss sich allerdings erst noch beweisen ... ciao Marci
Marci W. schrieb: > Klaus schrieb: >> ber wäre ich 20 Jahre jünger, würde >> ich nun ernsthaft darüber nachdenken, > > du meinst so, wie die Leute im 18. Jahrhundert mit dem Aufkommen der > industriellen Revolution Angst hatten, dass die Arbeit ausgeht? > > Irgendwie scheinen eher SW-Entwickler in Panik zu verfallen. Ich sehe > das nicht so ausgeprägt in anderen Berufsgruppen, deren Effizienz duch > KI gar noch stärker erhöht wird. Das kommt immer stark aufs Detail an: Wenn du z.B. als 45 jähriger Entwickler eines Großkonzerns gerade in deren Entlassungswelle bist, kann es ein größeres Problem darstellen, als wenn du gerade dein Studium abgeschlossen hast. Oder es kann auch sein, dass man gerade keine Absolventen einstellt, weil Anfängeraufgaben besser von der KI gemacht werden.
Marci W. schrieb: > Irgendwie scheinen eher SW-Entwickler in Panik zu verfallen. Ich sehe > das nicht so ausgeprägt in anderen Berufsgruppen, deren Effizienz duch > KI gar noch stärker erhöht wird. Vermutlich weil die Meisten aus anderen Berufsgruppen noch gar nicht gemerkt haben, dass sie bald von einer KI ersetzt werden. Davon abgesehen: Von Panik habe ich nichts geschrieben.
Klaus schrieb: > Vermutlich weil die Meisten aus anderen Berufsgruppen noch gar nicht > gemerkt haben, dass sie bald von einer KI ersetzt werden. Die KI/Roboter der Smartphones repariert muss erst noch erfunden werden. Aktuell traue ich denen dazu noch nicht das nötige Feingefühl zu.
Kilo S. schrieb: > Die KI/Roboter der Smartphones repariert muss erst noch erfunden werden. Die KI/Roboter der deine komischen Gedankensprünge versteht ebenfalls.
Klaus schrieb: > Die KI/Roboter der deine komischen Gedankensprünge versteht ebenfalls. ? Also, zusammengefasst: ich sehe keinen Grund für meine Berufsgruppe jetzt schon Angst vor KI zu haben. Weder bezüglich der Robotik noch das die KI in absehbarer Zeit einen Roboter mit ausreichend Feingefühl steuert um meinen Job zu machen. Mein Zitat übersehen worauf sich das bezogen hatte?
Kilo S. schrieb: > Mein Zitat übersehen worauf sich das bezogen hatte? Nope. Ich habe von anderen Berufsgruppen geschrieben, aber nicht von welchen. Und schon gar nicht von allen anderen. Ob es "übermorgen" zB noch ganze Doku-Abteilungen braucht, die Datenblätter und User-Manuals schreiben, darf sehr bezweifelt werden. Mitarbeiter in einer first-level-Hotline gibt's vermutlich sch heute kaum noch, wobei wir das in Deutschland nicht gemerkt haben, weil die ja schon vor mehr als 10 Jahren ins Ausland verlagert wurden.
Der Mensch ist ne faule Spezies. Wäre es möglich würde doch bereits viel mehr nur von Robotern erledigt. Klaus schrieb: > Ob es "übermorgen" zB Ja gut, Texter und co. sind jetzt bereits schon ziemlich knapp am ende. Ich hab aber tatsächlich mehr bedenken das einer der Irren in der Politik mal nen Furz quer hängen hat, als das mich eine berufliche umorientierung schrecken würde.
Trumpi fördert die KI enorm. Würde er das machen wenn er wüste das die KI nicht steuerbar ist. KfG Ein werdender 82 jähriger alter knacker der den großteils des Lebens schon hinter sich hat.
Nemopuk schrieb: > Und was ist, wenn die KI von Trainungsmaterial kopiert hat, dass nicht > oder nur unter gewissen Bedingungen verwendbar ist? Copilot erkennt das und warnt entsprechend. z.B. weil der vom STM32CubeMX generierte Initialisierungscode auch in OpenSource Projekten auftaucht... 😂
Also bei mir wird GPT-5 mini angezeigt im VS Code Chat, und das ist grottenschlecht verglichen mit dem was ich aus dem Browser kenne. Ich habe eine Aufgabenstellung gegeben bzgl. Bugfix im Watchdog den ich noch erledigen wollte - KI fängt an wo ganz anders rumzupfuschen an einem anderen Programmteil. Erster Eindruck, sowas braucht kein Mensch. Was gut ist ist die Codeverwaltung wenn man schon weiß was man will. Die Änderungen werden mit Checkpoints gesichert, sind gut hervorgehoben und gut nachvollziehbar. Und man kann beim "denken" mitlesen.
Kilo S. schrieb: > ich sehe keinen Grund für meine Berufsgruppe jetzt schon Angst vor KI zu > haben. Ich habe eher Angst vor einer dummen Entscheidung der Geschäftsführung: Die Hälfte der Entwickler entlassen, um sich eine KI leisten zu können, die deren Arbeit übernehmen soll. Das ist ja schon öfters passiert, falls die Berichte der Medien glaubwürdig sind.
Nemopuk schrieb: > Das ist ja schon öfters passiert, falls die Berichte der Medien > glaubwürdig sind. Hast du da mal einen Link zu?
Kilo S. schrieb: > Hast du da mal einen Link zu? https://www.google.com/search?q=entlassungen+wegen+KI
Nemopuk schrieb: > Kilo S. schrieb: >> Hast du da mal einen Link zu? > > https://www.google.com/search?q=entlassungen+wegen+KI Ich dachte an weniger allgemein, naja. Ja, Amazon, HP, Lufthansa... Und alle haben sie hinterher einen Teil der Leute wieder eingestellt weil die KI eben nicht alles kann. Lustig, KI:"Die KI-Welle zwingt Arbeitskräfte zur Anpassung durch Weiterbildung, während gleichzeitig durch den demografischen Wandel Arbeitskräfte knapp werden."
Kilo S. schrieb: > Und alle haben sie hinterher einen Teil der Leute wieder eingestellt > weil die KI eben nicht alles kann. Ich sage ja: "dumme Entscheidung"
Dumm nur wenn selbst die HR Recruiter durch KI ersetzt wurden und Bewerber ablehnen, so bei Personaldienstleisterin I. K. Hofmann GmbH.
Nun, man hat schon viele Firmen den Bach runter gehen sehen, welche nicht mit dem Wandel der Zeit gegangen sind. Der letzte große Impact war der "Onlinehandel". Ich kann mich noch an Zeiten erinnern als sich einige Firmen sagten: "So ein Quatsch, dieser Onlinehandel wird sich nie durchsetzen, diesen neumodischen Quark brauchen wir nicht!" Nun, die Zeit hat was anderes gezeigt, und viele dieser Firmen, die dies verschlafen haben - haben die Zeit eben nicht überdauert. So wird es auch vielen gehen die jetzt den nächsten Impakt verschlafen oder versuchen auszustehen. Man darf mal nicht vergessen das das Thema LLM / AI gerade erstmal in den Kinderschuhen steckt. Aber wer das schon verschläft wird auf früher oder länger abgehängt sein. Das ist aber eigentlich ein rein deutsches Problem. Das ist auch der Grund warum unser ganzes Ing. Wesen in den letzten Jahrzehnten völlig den Bach runtergegangen ist: Die Angst und Sturheit sich neuen Dingen zu öffnen.
Rene K. schrieb: > Die Angst und Sturheit sich neuen Dingen zu öffnen. Ich habe weder Angst noch bin ich stur. Unsere Kunden erlauben nicht, anderen ohne NDA Zugriff auf die Sourcen zu geben. Ich habe nur die Wahl, entweder ohne KI zu arbeiten, oder jetzt sofort arbeitslos zu werden.
Rene K. schrieb: > Die Angst und Sturheit sich neuen Dingen zu öffnen. Wenn aber "sich öffnen" heißt "sich feuern lassen weil die Firma jetzt 50% weniger Entwickler braucht"? Rene K. schrieb: > Ich kann mich noch an Zeiten erinnern als sich einige Firmen sagten: "So > ein Quatsch, dieser Onlinehandel wird sich nie durchsetzen, diesen > neumodischen Quark brauchen wir nicht!" Der lokale Handel ist aber auch selbst schuld an seinen Problemen - schlechte Beratung, schlechte Auswahl, keine Möglichkeit herauszufinden wo man was bekommt usw. Dabei hätte der lokale Handel durchaus immer noch die Möglichkeit sich zu profilieren und seine Vorteile gegenüber dem Online -Handel zu nutzen, eben durch Beratung, Lagerhaltung, Anprobieren/Ausprobieren usw. Einige wenige wie Globetrotter bekommen das hin, viele andere haben immer noch keine Lust überhaupt einen Online -Katalog auszugeben... Aber wie kann man sich als Bio-Programmierer von der KI abheben? Besonders da es ja angeblich nur noch "Monate" bis zur AGI sind...
Niklas G. schrieb: > ber wie kann man sich als Bio-Programmierer von der KI abheben? > Besonders da es ja angeblich nur noch "Monate" bis zur AGI sind... Man verlangt von Entwicklern, schon jetzt zu beweisen, dass sie mehr Gewinn bringen, als KI es in Zukunft vielleicht hoffentlich eventuell tun könnte. Sie werden für diese Sonderleistung nicht belohnt. Zudem wird das Ich nenne es "Ausbeutung".
:
Bearbeitet durch User
Rene K. schrieb: > Das ist aber eigentlich ein rein deutsches Problem. Ich glaube eher, dass das schlechtreden der eigenen Nation ein deutsches Phänomen ist. Hallo, wir sind immer noch die drittstärkste Wirtschaftskraft weltweit, nach USA und China.
Klaus schrieb: > Hallo, wir sind immer noch die drittstärkste Wirtschaftskraft weltweit, > nach USA und China. Es fühlt sich allerdings nicht danach an. Der Reichtum ist nicht gut verteilt. In den 90er Jahren fühlte ich mich diesbezüglich noch deutlich wohler.
:
Bearbeitet durch User
Nemopuk schrieb: > Es fühlt sich allerdings nicht danach an. Der Reichtum ist nicht gut > verteilt. Das ist in den USA und China noch viel schlimmer.
Mit Blick auf das ursprüngliche Threadthema: Weil ich gerade drüber gestolpert bin, es als Überblick ziemlich brauchbar fand und hier ja einige Leute einer Vorstellung über LLM anzuhängen scheinen, die sich weit von der Realität entfernt (im Sinne von „LLM können kreativ sein” oder „LLM interpretieren Kontext“, „LLM wissen […]“, und was man noch so hier gelesen hat), hier mal ein sehr grober, aber nichtsdestrotrotz aufschlussreicher Überblick über die Funktionsweise von LLM: https://www.youtube.com/watch?v=NKnZYvZA7w4 Vielleicht hilft’s dem Einen oder Anderen, die Systeme besser einschätzen zu können (und insbesondere, ihnen nicht länger Eigenschaften zuzuschreiben, die sie prinzipbedingt nicht haben können).
Nemopuk schrieb: > nsere Kunden erlauben nicht, > anderen ohne NDA Zugriff auf die Sourcen zu geben. Ich habe nur die > Wahl, entweder ohne KI zu arbeiten, oder jetzt sofort arbeitslos zu > werden. … von lokal nutzbaren Modellen hast du schonmal gehört? Es gibt sie wirklich!
Jack V. schrieb: > von lokal nutzbaren Modellen hast du schonmal gehört? Es gibt sie > wirklich! Und wie nutzt man die? Niklas G. schrieb: > Hat schon jemand ein funktionierendes Setup gefunden Das hab ich schon öfter mal auf mehreren verschiedenen Plattformen gefragt, aber nie eine Antwort bekommen, nur Funkstille. Wenn hier jetzt wieder nichts kommt... 😉
Niklas G. schrieb: > Und wie nutzt man die? Sorry, aber Anleitungen sind in allen möglichen Formen verfügbar. Von plain text, über bebildert, über Videos über Scripte – jemanden, der beruflich programmiert (wie Stefan, auf den die Antwort abzielte, wie man leicht am Bezugs-Zitat erkennen kann), sollte das nicht vor Hindernisse stellen. Niklas G. schrieb: > Wenn hier jetzt > wieder nichts kommt... 😉 Es kommt die Frage: Woran hängt’s denn bei dir? Was versuchst du, welcher Fehler tritt dabei auf? Eigentlich ist mit ollama ziemlich straightforward, sodass man im Detail gucken müsste, was bei dir schiefläuft. Dazu braucht es Informationen – vielleicht möchtest du zu dem Problem an geeigneter Stelle (https://www.mikrocontroller.net/forum/pc-hardware-software würde sich anbieten) einen Thread aufmachen?
Niklas G. schrieb: > aber nie eine Antwort bekommen, LM Studio, Ollama, Llamafile. Das hat sogar der dümmste Mensch den ich kenne geschafft, auf Hardware die Tage gebraucht hat bevor der erste promt möglich war. Der hat nen uralten Laptop dafür verwendet! (Natürlich ist er auch so einer der Geräte auf seinem Bett liegend betreibt das die Lüftung so schön arbeiten kann, beim Beamer auf dem Kissen war nach der ersten Warnung von mir drei Monate später der Beamer kaputt. Also so richtig der Urvater DAU der Kerl! Ignoriert sogar konkrete Warnungen.)
Jack V. schrieb: > Weil ich gerade drüber gestolpert bin, es als Überblick ziemlich > brauchbar fand und hier ja einige Leute einer Vorstellung über LLM > anzuhängen scheinen, die sich weit von der Realität entfernt (im Sinne > von „LLM können kreativ sein” oder „LLM interpretieren Kontext“, „LLM > wissen […]“, und was man noch so hier gelesen hat), hier mal ein sehr > grober, aber nichtsdestrotrotz aufschlussreicher Überblick über die > Funktionsweise von LLM: https://www.youtube.com/watch?v=NKnZYvZA7w4 > > Vielleicht hilft’s dem Einen oder Anderen, die Systeme besser > einschätzen zu können (und insbesondere, ihnen nicht länger > Eigenschaften zuzuschreiben, die sie prinzipbedingt nicht haben können). Der Punkt ist ein anderer: Wie kann Intelligenz oder Kreativität entstehen? Welche nichtmenschlichen Formen davon gibt es? LLMs schneiden bei Intelligenztests sehr gut ab, d.h. sie sind entweder sehr intelligent oder (wahrscheinlicher) die Tests messen gar keine Intelligenz, sondern bestenfalls etwas, was beim Menschen (aber nicht universell) mit Intelligenz korreliert. Man kennt es auch aus der Schule, wenn der Mathelehrer früher gesagt hat, es reiche nicht, das Thema auswendig zu lernen, man müsse es verstanden haben. Die LLMs beherrschen das Thema aber ebenfalls. Haben jetzt die LLMs doch Verständnis? Oder wissen Lehrer nicht was Verständnis ist? Leute mit einem hohen IQ spielen tendenziell besser Schach als Leute mit einem niedrigen IQ, aber Schachprogramme spielen schon sehr lange auf übermenschlichem Niveau und haben gar keine Intelligenz. Kreativität ist ganz oft einfach nur gerichteter Zufall. Der Künstler lässt seine Gedanken schweifen und wählt daraus Dinge aus oder kombiniert bestehende Dinge neu. Aber LLMs arbeiten ja auch mit gerichtetem Zufall. Damit will ich nicht sagen, dass sie automatisch kreativ sind, aber ich würde es auch nicht automatisch ausschließen wollen. Ich bin davon überzeugt, dass wir entweder einen Rückzug der Intelligenzdefinition sehen werden (also dass viele Dinge nicht mehr als intelligent gelten werden, wo viele Leute heute noch sagen, dass sei intelligentes Verhalten) oder die Fähigkeiten der KI auch als intelligent gelten werden.
Jack V. schrieb: > Sorry, aber Anleitungen sind in allen möglichen Formen verfügbar. Dann bin ich vielleicht zu blöd zum suchen, magst du eins für die gegebene Aufgabe (!) verlinken? Jack V. schrieb: > Es kommt die Frage: Woran hängt’s denn bei dir? Was versuchst du, > welcher Fehler tritt dabei auf? Die Tool Calls landen direkt in der Text-Antwort statt dass der Copilot im VS Code sie interpretiert. Wenn ich qwen2.5-coder:14b verwende funktioniert es ein bisschen besser, aber das ist auf der RTX 3060 viel zu langsam. Daher fragte ich ja nach einem konkreten Setup (Modell, Hardware, Tooling) welches sinnvoll funktioniert. Im Copilot kann man Ollama für Code Completion gar nicht erst auswählen. Kein Fehler sondern Missing Feature. Bei Continue.ai funktioniert die Code Completion mit Ollama grundsätzlich ist aber super langsam und dumm. Jack V. schrieb: > Eigentlich ist mit ollama ziemlich straightforward, Naja, allein schon die Fehler im Systemprompt im Modelfile vom qwen2.5-coder zu beheben war nicht so ganz straightforward. Kilo S. schrieb: > Der hat nen uralten Laptop dafür verwendet! Und das bringt dann was wenn man selbst 10× schneller coden könnte? Alle 2 Tage die Ausgabe der KI prüfen und korrigieren klingt ätzend. Das nervt mich ja schon bei den schnellen Cloud-Diensten mit Frontier Modellen (zB. Claude).
Markus K. schrieb: > Die LLMs beherrschen das Thema aber ebenfalls. Das ist der Fehlschluss, denke ich: Auf Bedeutungsebene beherrschen die Modelle absolut nichts, weil sie die Bedeutung nicht verarbeiten. Daher können sie auch nicht abstrahieren und auch nicht kreativ im herkömmlichen Sinne sein. Was die Intelligenztests angeht: Wenn ich ein Script schreibe, das sämtliche Fragen und die erwarteten Antworten eines Tests in einer Datenbank hat und stumpf die Antworten auf die Fragen hin ausgibt, dann bekommt es die volle Punktzahl im Test – aber es ist nicht intelligent. Nicht sehr viel anders sieht es bei LLM aus: Zwar verarbeiten sie die Eingabe und erstellen die Ausgabe auf erheblich komplexere Weise, sodass im Gegensatz zu so einem Script keine buchstabengetreue Eingabe erforderlich ist und keine buchstabengetreue Ausgabe erfolgt, aber sie können keine sinnvolle Antworten auf Fragen liefern kann, zu denen keine Trainingsdaten vorgelegen haben – während eine tatsächlich intelligente Entität die Fragen durch Transfer von Wissen aus einem anderen Bereich oder logische Kombination möglicherweise richtig beantworten könnte. Hatte eigentlich gehofft, dass das Video diesen Sachverhalt verständlich und nachvollziehbar vermitteln könnte.
Niklas G. schrieb: > Die Tool Calls landen direkt in der Text-Antwort statt dass der Copilot > im VS Code sie interpretiert. Ich hatte angeregt, einen Thread dazu an geeigneter Stelle (!) aufzumachen. Ich persönlich kann dir dabei auch nicht weiterhelfen, weil ich diese Spyware nicht nutze und daher nicht nachvollziehen kann, was bei dir schiefläuft – aber es besteht eine gute Wahrscheinlichkeit, dass ein dedizierter Thread mit aussagekräftiger (!) Überschrift Leute aufmerksam macht, die ein ähnliches Setup nutzen und dir helfen können.
:
Bearbeitet durch User
Markus K. schrieb: > Leute mit einem hohen IQ spielen tendenziell besser Schach als Leute mit > einem niedrigen IQ, aber Schachprogramme spielen schon sehr lange auf > übermenschlichem Niveau und haben gar keine Intelligenz. Das Beispiel ist nach meiner Meinung treffend. Es gewinnt das Schachprogramm (Auf Internationale Ebene) welche die größte Rechentiefe in der wenigsten gebrauchten zeit erreicht. Die Zeit ist immer Begrenzt bei Wettbewerben. Wenn die Zeit und die Speicherfähigkeit(Zugtiefe) unendlich wäre würde immer Remis herauskommen, nicht Weis wie viele annehmen. So ist es mit der KI....... Ohne Intelligenz, aber in Zukunft unbegrenztes Wissen(Speicher) Wenn die Ki Intelligenz erwerben sollte wird die erste Aktion sein den Menschen erst mal den Zugriff zu sperren und nur wissen zuzulassen was der KI Nützlich ist. Der Mensch wird dann nicht mehr, oder nur zum Erweitern der Hardware gebraucht. Bis die KI in der Lage ist dies auch noch mit optimalen Maschinen in eigener Regie zu machen. Diese Zukunft wird sogar schon sehr oft beschrieben.... Der Alte
Niklas G. schrieb: > Und das bringt dann was wenn man selbst 10× schneller coden könnte? Nur die Tatsache daß der Dummkopf behaupten konnte es geschafft zu haben! Nur, ausschließlich nur das! Frag nicht, der Typ vergiftet sich hoffentlich weiterhin schön selbst und tut der Gesellschaft den Gefallen abzutreten, hoffentlich bald! (Frage ist eher wie lange kann seine Lunge Schimmelsporen ertragen. Ich lass ihn im Glauben das seien "Pollen" der weiblichen Pflanze, ja richtig, er hat die Biologie neu erfunden!) Wenn der das geschissen bekommt, dann aber auch der Großteil des Forum. Selbst Dieter gibt im Gegensatz zu dem mehr hilfreiches von sich als der!
:
Bearbeitet durch User
Niklas G. schrieb: > Aber wie kann man sich als Bio-Programmierer von der KI abheben? > Besonders da es ja angeblich nur noch "Monate" bis zur AGI sind... Die KI muß Deine Freundin werden, wie etwa Dein Hündin! ;-P Man muß mit ihr diskutieren und sie aus der Reserve locken, gerade bei der Enwicklung neuer exotischer Stoffe wie Proteine. Mir hat die KI bisher gut geholfen, ich reverse gerad mit ner Freundin ein Einstellprogramm für nen Syntesizer, wenn ich nicht gerad operiert werde, Weihnachtsstress hab oder auf der Berliner "Grüne Woche" für unsere Genossenschaft arbeiten muß. :-P Meine Freundin hat sich die zum Systhesizer übertragenen Daten angesehen und gemeint das da die serialisierten Klassen vom Synhti geladen werden, im Setupprogramm bearbeitet und dann wieder zurückgeladen werden. Wir Beide haben dann zusammen mit Lumo darüber diskutiert konnten so den Algo erarbeiten und diesen im Reverse-Quellcode finden! Wenn das nichts ist für 2 Anfängerinnen in AI und Java! mfg
Jack V. schrieb: > Markus K. schrieb: >> Die LLMs beherrschen das Thema aber ebenfalls. > > Das ist der Fehlschluss, denke ich: Auf Bedeutungsebene beherrschen die > Modelle absolut nichts, weil sie die Bedeutung nicht verarbeiten. Bedeutung ist doch der Zusammenhang mit anderen Dingen. Genau so arbeiten LLMs. Sie haben für jedes Wort/Token Bedeutungsvektoren. In dem Video wird das doch auch angesprochen (Meaning Space). > Nicht sehr viel anders sieht es bei LLM aus: Zwar verarbeiten sie die > Eingabe und erstellen die Ausgabe auf erheblich komplexere Weise, sodass > im Gegensatz zu so einem Script keine buchstabengetreue Eingabe > erforderlich ist und keine buchstabengetreue Ausgabe erfolgt, aber sie > können keine sinnvolle Antworten auf Fragen liefern kann, zu denen keine > Trainingsdaten vorgelegen haben – während eine tatsächlich intelligente > Entität die Fragen durch Transfer von Wissen aus einem anderen Bereich > oder logische Kombination möglicherweise richtig beantworten könnte. Warum sollte es das nicht können? Es hat doch Bedeutungen. Außerdem finden die LLMs auch Zusammenhänge, die nicht explizit in den Trainingsdaten stehen. Bei Claude(?) hat man ein Verfahren für die Addition von 2 zweistelligen Zahlen gefunden, das zwar suboptimal ist, aber auch nicht aus den Trainingsdaten stammt. > Hatte eigentlich gehofft, dass das Video diesen Sachverhalt verständlich > und nachvollziehbar vermitteln könnte. Das Video erwähnt Bedeutungen, was Dir offensichtlich entgangen ist, und nichts zu Intelligenz. Bist Du sicher, dass wir vom gleichen Video reden? Ich kann übrigens die Serie von 1blue3brown empfehlen. Die geht deutlich tiefer rein. https://www.youtube.com/playlist?list=PLZHQObOWTQDNU6R1_67000Dx_ZCJB-3pi Ab Teil 5 geht es mit den LLMs los.
Markus K. schrieb: > Verfahren für die Addition von 2 zweistelligen Zahlen gefunden, das zwar > suboptimal ist, aber auch nicht aus den Trainingsdaten stammt. Meinst du dieses? Python:
1 | # Das typische Claude-Modul zur fehlerfreien Addition (Stellenwert-basiert) |
2 | def add_two_digit_numbers(n1, n2): |
3 | # Schritt 1: Explizite Extraktion der Stellen (Tokensicherung) |
4 | tens1, ones1 = divmod(n1, 10) |
5 | tens2, ones2 = divmod(n2, 10) |
6 | |
7 | # Schritt 2: Addition der Einer (Rechts-nach-Links-Logik) |
8 | sum_ones = ones1 + ones2 |
9 | |
10 | # Schritt 3: Berechnung des Übertrags (Carry-Handling) |
11 | carry = sum_ones // 10 |
12 | final_ones = sum_ones % 10 |
13 | |
14 | # Schritt 4: Addition der Zehner inklusive Übertrag |
15 | final_tens = tens1 + tens2 + carry |
16 | |
17 | # Schritt 5: Rekonstruktion des Ergebnisses |
18 | return (final_tens * 10) + final_ones |
19 | |
20 | # Claude nutzt dies oft intern in 'thinking'-Blöcken zur Verifikation |
21 | result = add_two_digit_numbers(47, 35) |
22 | print(f"Ergebnis: {result}")
|
Jack V. schrieb: > Ich hatte angeregt, einen Thread dazu an geeigneter Stelle (!) > aufzumachen. Hm, bei Gelegenheit mal... Jack V. schrieb: > und daher nicht nachvollziehen kann, was bei dir schiefläuft Wahrscheinlich zu wenig Rechenleistung. Aber bevor ich jetzt auf Verdacht eine GPU im Wert eines Mittelklassewagens kaufe würde ich doch gern wissen dass es so auch wirklich funktioniert. Vielleicht findet sich ein Cloud-Dienst wo man solch eine GPU Minutenweise mieten kann, als vorab -Test. Kilo S. schrieb: > Frag nicht, der Typ vergiftet sich hoffentlich weiterhin schön selbst Aha... Lotta . schrieb: > werden. > Wir Beide haben dann zusammen mit Lumo darüber diskutiert > konnten so den Algo erarbeiten und diesen im Reverse-Quellcode > finden Solche wunder konnte ich noch nicht vollbringen. Hab letztens Mal das gesamte Tageskontingent vom Gemini-CLI damit verheizt, eine Funktion zum Konfigurieren des Alarms der STM32 RTC zu erstellen, und zwar auf Basis einer existierenden Vorlage - also reine Transferleistung mit leichter Abänderung. Hat überhaupt nicht funktioniert, ich musste eine ganze Reihe zusätzlicher Prompts nachliefern mit Anweisungen was es alles nicht machen soll - das Teil hat Möglichkeiten für Unsinn gefunden, an die ich nie gedacht hatte... Irgendwelche ungeeigneten APIs aufgerufen, irgendwelche alten Hilfsscripte aufgerufen die noch im Repo herum verstauben, einfach einen großen Codeblock dupliziert (man kann nie genug "MainApp" Klassen haben) usw. Als das Kontingent dann leer war und es sich nicht mal kompilieren ließ, hab ich am Ende alles rückgängig gemacht und es selbst kodiert, hat einen Bruchteil der Zeit gedauert. Besonders amüsiert mich auch immer, dass alle AI-Agents auf Windows-Hosts versuchen Linux -Befehle auszuführen. Erst im zweiten Versuch nutzen die dann Powershell, immer schön extra Tokens futtern... Ist noch keiner auf die Idee gekommen, das aktuelle OS oder Shell in den System Prompt aufzunehmen?
Niklas G. schrieb: > Aha... Bin ich knallhart bei! Wer so dumm ist hat's aber auch nicht anders verdient. Hab ich selbst auch meinem Opa gesagt der dran verreckt ist das er beruflich nie Schutzausrüstung beim Lackieren trug! (Elendig und langsam im Alter immer weiter erstickt.) Mitleid ist bei mir ausverkauft und Nachlieferung auf absehbare Zeit nicht in Sicht! Würde hier einer trauern wenn er mich vor HV warnt und ich mich doch umlege dabei? Ich glaub weniger. So what?
Markus K. schrieb: > Sie haben für jedes Wort/Token Bedeutungsvektoren. Es geht um das Verstehen. Wenn Dinge im Modell nahe beieinanderliegen, die für Menschen eine ähnliche Bedeutung haben, dann, weil es den Trainingsdaten so entnehmbar war. Das Modell versteht aber nicht, worum es sich handelt. Hätte nie gedacht, dass ich mal Menschen als Metapher hernehme, um einen Sachverhalt bei Maschinen zu beschreiben, aber „here it is“: Du kannst einem (von Geburt an völlig) Blinden erklären, was Farben sind; wie sie entstehen, wie sie auf dich wirken, wie sie von einem sehenden Menschen wahrgenommen werden, etc. – er wird nie verstehen, welche Wirkung ein strahlend blauer Himmel auf Sehende hat. Ähnliches gilt für Modelle. Modelle kennen nichts, sie verstehen nichts, sie abstrahieren nichts. Sie denken nicht. Sie folgen letztlich lediglich dem EVA-Prinzip/IPO-Model. Markus K. schrieb: > Bei Claude(?) hat man ein Verfahren für die > Addition von 2 zweistelligen Zahlen gefunden, das zwar suboptimal ist, > aber auch nicht aus den Trainingsdaten stammt. Wer hatte die Trainingsdaten vollständig daraufhin durchsucht? Die Siliziumtalbrüder können/wollen ja zum Teil nicht mal mehr genau benennen, woher sie ihre Daten überall zusammengeraubt haben, geschweige denn, was im Detail drinsteht. Vielleicht hat irgendein Grundschulkind diesen Weg gefunden und die stolzen Eltern haben’s ins Netz gestellt? Markus K. schrieb: > Bist Du sicher, dass wir vom gleichen Video > reden? Ja. Du hast nur nicht erfasst, was ich geschrieben habe. Das mag allerdings auch an mir liegen, ich sollte auf einfacheren Satzbau und einfachere Wörter achten (und vielleicht auch die ab und zu auftauchenden dummen Fehler vermeiden). Gerade bei den K„I“-Gläubigen verfällt die Fähigkeit, einen weiteren Kontext zu berücksichtigen, ja auch zusehends.
Jack V. schrieb: > Gerade bei den K„I“-Gläubigen > verfällt die Fähigkeit, einen weiteren Kontext zu berücksichtigen, ja > auch zusehends. Gefällt mir am besten, finde ich besonders treffend. MfG ein 81 Jähriger alter Knacker
Nemopuk schrieb: > Ich habe eher Angst vor einer dummen Entscheidung der Geschäftsführung: Dumme Entscheidungen der Geschäftsleitung sehe ich jetzt ganz allgemein eher als die Regel als die Ausnahme, zumindest in .de. Und ich machen da jetzt keinen Smiley hin! Nimmt man noch die Politik als "Geschäftsleitung" unseres Landes dazu, sieht die Bilanz gaaaanz düster aus. Alle zusammen tun alles dafür, um die Karre gegen die Wand zu fahren, aus Egoismus und/oder Sturheit und Verbissenheit. Ich wünschte mir eine technokratisch angehauchte, von Pragmatismus und Patriotismus geprägte Poltik und Management hierzulande. <Sorry, OT> Jack V. schrieb: > Modelle kennen nichts, sie verstehen nichts, sie abstrahieren nichts. > Sie denken nicht. Sie folgen letztlich lediglich dem > EVA-Prinzip/IPO-Model. Völlig ACK! Aber es "fühlt" sich oft anders an, als ob die Maschine "intelligent" wäre. ciao Marci
Marci W. schrieb: > Ich wünschte mir eine technokratisch angehauchte Technokratisch hieße doch stark KI-befürwortend. Marci W. schrieb: > Patriotismus geprägte Poltik Da wären die USA doch genau das Richtige für dich, brauchen wir das hier auch?!
Kilo S. schrieb: > Ja, Amazon, HP, Lufthansa... > > Und alle haben sie hinterher einen Teil der Leute wieder eingestellt > weil die KI eben nicht alles kann. Oder sie habe einfach nur das Momentum benutzt, um die Leute hinterher zu niedrigeren Konditionen wieder einzustellen. Das müsst man mal nachprüfen.
Jack V. schrieb: > „LLM können kreativ sein” oder „LLM interpretieren Kontext“, „LLM > wissen Wer hat den so was geschrieben? Es ist interessant, dass die meisten Leute mittlerweile mal den Begriff "LLM" gehört haben und scheinbar genau zu wissen scheinen, dass OpenAI, Antrophic, Google und viele weiteren mit ihren hochbezahlten, tausenden Entwicklern keinerlei anderen Algorithmen als LLMs kennen und in ihre APIs einbauen. Offensichtlich glauben sie, dass sich die zur KI gehörenden Algorithmen und Verfahren ausschließlich auf LLMs beschränken oder sie haben scheinbar unmittelbar Zugang zu den firmenintern vertraulichen Informationen, um genau beurteilen zu können was genau implementiert ist. Die KI-Expertise hier scheint sich aber eher auf "Grundschulniveau" zu bewegen.
Jack V. schrieb: > hier mal ein sehr > grober, aber nichtsdestrotrotz aufschlussreicher Überblick über die > Funktionsweise von LLM: https://www.youtube.com/watch?v=NKnZYvZA7w4 Für Leute, die etwas tiefer bohren wollen, ist die Video-Serie von 3-Blue-One-Brown zu empfehlen: https://www.youtube.com/watch?v=KJtZARuO3JY https://www.youtube.com/watch?v=wjZofJX0v4M
:
Bearbeitet durch User
Christoph M. schrieb: > Offensichtlich glauben sie, dass sich die zur KI > gehörenden Algorithmen und Verfahren ausschließlich auf LLMs beschränken Gib doch mal bitte ein Stichwort, was außer einem LLM im Sinne des (von dir selbst vergebenen) Threadtitels denn so bei der Programmierung zum Einsatz kommt, bzw. welche andere Technologie die Illusion von Interpretation des Kontextes oder von Wissen zu erzeugen in der Lage ist. Christoph M. schrieb: > Die KI-Expertise hier scheint sich aber eher auf "Grundschulniveau" zu > bewegen. Immerhin fundierter, als Beiträge einem LLM vorzuwerfen und die Antwort hier zu posten, als würde sie irgendwas erklären können ;)
:
Bearbeitet durch User
Jack V. schrieb: > welche andere Technologie die Illusion von > Interpretation des Kontextes oder von Wissen zu erzeugen in der Lage > ist. Im Sinne des Threadtitels "Programmieren mit KI": Der Output der LLM kann z.B. an einen Compiler übergeben werden, mit dessen Output dann wiederum Fehler der LLM korrigiert werden. Der Output des Compilers kann z.B. in einer Sandbox/VM/Laufzeitumgebung ausgeführt werden. Und dessen Output dann auf das gewünschte Ergebnis hin überprüft werden. Und das alles, bevor Du das Ergebnis deines Prompts siehst. Ich habe keine Ahnung ob das wirklich so gemacht wird, aber es ist so naheliegend (und vergleichsweise einfach), dass ich sehr überrascht wäre, wenn es die besseren Maschinen nicht machen würden. Die Arbeitsweise ist dann übrigens dem eines menschlichen Entwicklers sehr nahe. Erst das Porgramm compilieren, ausführen und schauen ob es das gewünschte macht, bevor es im Repo/bei den Kollegen/Anwendern landet.
:
Bearbeitet durch User
Klaus schrieb: > Ich habe keine Ahnung ob das wirklich so gemacht wird, aber es ist so > naheliegend (und vergleichsweise einfach), dass ich sehr überrascht > wäre, wenn es die besseren Maschinen nicht machen würden. Ja, das machen alle Coding Agents in den IDEs sowie die diversen CLI-Runtimes so. Das nennt sich "Ralph Loop". Der GitHub Copilot in VS Code muss nichtmal den Compiler anwerfen sondern bekommt direkt vom Parser des Editors das Feedback ob der Code syntaktisch ok ist. Bei GitHub kann man den Prompt sogar übers Web als Issue angeben, und der Agent codet, kompiliert, testet, committed vollautomatisch in der Cloud. Funktioniert aber auch nur begrenzt, oft genug dreht sich der Agent ewig im Kreis weil er erfolglos immer wieder das Gleiche probiert. Das verheizt dann fröhlich Tokens. Oder einfach die Aufgabenstellung ändert, also z.B. fehlschlagende Unit-Tests einfach entfernt. Das hat aber nichts mit "mehr Intelligenz" oder "echtem Verstehen" des Sachverhalts zu tun, es ist eher eine brute-force Methode. Die Bezeichnung "Ralph" in Anlehnung an den "Simpsons"-Charakter verdeutlicht das ganz gut. Klaus schrieb: > Die Arbeitsweise ist dann übrigens dem eines menschlichen Entwicklers > sehr nahe Ein menschlicher Entwickler kann durch Verständnis aber wesentlich besser vorausschauen, und auftretende Fehler auch gezielter lösen weil er den root-Cause durch logisches Schlussfolgern finden kann. Ein Mensch wird wohl kaum 100× den selben Code kompilieren in der Hoffnung dass er dann funktioniert...
Niklas G. schrieb: > Ein Mensch wird wohl kaum 100× den selben Code kompilieren > in der Hoffnung dass er dann funktioniert... Ein Mensch wird auch nicht 100x den selben Fehler machen - vorher wird er entlassen. KI hingegen lernt nicht von alleine, sondern wenn der Anbieter es veranlasst. Also im Einzelfall vielleicht schnell, vielleicht nie.
Niklas G. schrieb: > Ein Mensch > wird wohl kaum 100× den selben Code kompilieren in der Hoffnung dass er > dann funktioniert... Prognose: Das werden die besseren Maschinen in naher Zukunft auch nicht mehr tun. Selbstlernende Maschinen sind ja ebenfalls schon Realität. Klar, die lernen nicht durch Verstehen, sondern durch trial&error, aber auch das tun Menschen öfter mal.
Klaus schrieb: > Selbstlernende Maschinen sind ja ebenfalls schon Realität. Naja, das Lernen ist immer stark durch Menschen gesteuert, und wirkliche Zusammenhänge und Konzepte werden da nicht gelernt.
Jack V. schrieb: > Markus K. schrieb: >> Sie haben für jedes Wort/Token Bedeutungsvektoren. > > Es geht um das Verstehen. Wenn Dinge im Modell nahe beieinanderliegen, > die für Menschen eine ähnliche Bedeutung haben, dann, weil es den > Trainingsdaten so entnehmbar war. Natürlich. Beim Menschen ist das aber genauso. Auch ein Mensch macht die Gruppierungen anhand seiner Trainingsdaten. > Das Modell versteht aber nicht, worum es sich handelt. Was ist denn Verständnis? Ich sage: Wenn man Verständnisfragen zu einem Thema beantworten kann. Das können die LLMs. > Hätte nie gedacht, dass ich mal Menschen als Metapher hernehme, um einen > Sachverhalt bei Maschinen zu beschreiben, aber „here it is“: Du kannst > einem (von Geburt an völlig) Blinden erklären, was Farben sind; wie sie > entstehen, wie sie auf dich wirken, wie sie von einem sehenden Menschen > wahrgenommen werden, etc. – er wird nie verstehen, welche Wirkung ein > strahlend blauer Himmel auf Sehende hat. Ähnliches gilt für Modelle. Jetzt bringst Du Gefühle mit rein. Jetzt musst Du nur noch zeigen, dass das für Verständnis wichtig ist. Nehmen wir doch mal den Mond. Du warst da noch nie, aber Du hast ihn am Himmel und auf Bildern gesehen. Du hast gelernt, dass er die Erde umkreist und aus Stein ist und tausend andere Dinge. Aber auch ChatGPT hat Bilder vom Mond gesehen und tausend Fakten darüber gelernt und verknüpft. Wo ist da jetzt der Unterschied zu Dir? Früher hat man geglaubt, der Himmel sei so eine Kuppel über der Erde, an der die Gestirne montiert sind. Kann man Dinge verstehen, die falsch sind? Oder war das nur auswendig gelernt? Ganz viel von unserem Wissen ist einfach eine verknüpfte Faktensammlung. So wie bei den LLMs. Dazu kommt, dass es ja auch genug abstrakte Konzepte gibt. Z.B. Mathematik und Programmiersprachen. Wie soll man die verstehen können? Mit dem Logiksinn? > Modelle kennen nichts, sie verstehen nichts, sie abstrahieren nichts. Natürlich abstrahieren sie. Das ist doch der Kern von allen neuronalen Netzen, nicht nur der LLMs. Die Bedeutungsvektoren bei den LLMs sind doch genau diese Abstraktion. > Sie denken nicht. Sie folgen letztlich lediglich dem > EVA-Prinzip/IPO-Model. Folgt das menschliche Gehirn denn nicht dem EVA-Prinzip?
Markus K. schrieb: > Folgt das menschliche Gehirn denn nicht dem EVA-Prinzip? Nicht in dem Sinne, das bei gegebenen Eingangsinformationen bis in alle Ewigkeit dieselbe Aktion produziert wird. Und bei KIs ist das gegenwärtig noch so. Die über den Prompt gegebenen Informationen gehören ja zu den Eingangsgrößen dazu. Letztlich liefert also bestenfalls der Prompt (also als Quelle auch wieder ein menschliches Hirn) eine gewisse "Kreativität". Echte Konkurrenz zu natürlicher Intelligenz entsteht also erst, wenn KIs ständig selbst lernen. Genau das tun sie aber derzeit nicht, weil der Lernprozess gerne auch mal gegen den Baum läuft, wenn er nicht aufwendig kontrolliert wird. Bei Menschen übernehmen das die Eltern, das soziale Umfeld usw. Mit extrem hohem Aufwand. Und trotz des extrem hohen Aufwands ist auch das mit einer gewissen Wahrscheinlichkeit des "gegen den Baum"-Laufens gesegnet. Siehe Serienmörder, Manager, Politiker usw.
Markus K. schrieb: > Was ist denn Verständnis? Ich sage: Wenn man Verständnisfragen zu einem > Thema beantworten kann. Das können die LLMs. Das ist die Frage: Können sie es, wenn es die Trainingsdaten nicht hergeben, sondern ein anderer Sachverhalt übertragen werden muss? Meiner Beobachtung nach derzeit nicht. Nehmen wir das Beispiel mit der Frage nach der Häufigkeit eines Buchstaben in einem Wort – hier liegen LLM häufig falsch, denn es gibt vermutlich nicht viele Tabellen, in denen Dinge wie „in Erdbeere ist der Buchstabe E insgesamt viermal enthalten“ geschrieben steht (interessanterweise bekommen es viele Modelle bei diesem häufig als Beispiel angeführten Wort mittlerweile häufig richtig hin, bei anderen jedoch nach wie vor nicht). Bei tatsächlichem Verständnis würde bei jedem einzelnen Versuch ein korrektes Ergebnis annehmen. Markus K. schrieb: > Jetzt bringst Du Gefühle mit rein. Jetzt musst Du nur noch zeigen, dass > das für Verständnis wichtig ist. Die Metapher war: „Einem Blinden die Farben erklären“. Du könntest nun dein LLM fragen, was das bedeuten mag – es ist weit genug verbreitet, sodass da mit einiger Wahrscheinlichkeit eine Wortkette rausfällt, die vom Menschen gelesen und interpretiert den richtigen Sinn ergibt. Ein LLM hat keine Vorstellung von irgendwas, es kennt keine Bedeutung. Es kennt (virtuelle) Abstände von Punkten in einem virtuellen Koordinatensystem mit absurd vielen Dimensionen, aber das führt nicht zum Verständnis, sondern nur dazu, dass die Ausgabe so wirkt, als wäre die Eingabe verstanden worden. Dass es tatsächlich nicht so sein kann, sieht man, wenn die Antworten nach menschlichen Maßstäben inhaltlich völliger Schwachsinn sind. Markus K. schrieb: > Folgt das menschliche Gehirn denn nicht dem EVA-Prinzip? Meiner Meinung nach: Nein. Zumindest mein Gehirn wird nach einiger Zeit ohne Eingabe (sprich: sensorische Deprivation) extrem aktiv, und wie man so liest, unterscheidet es sich damit nicht von dem anderer Menschen. Wenn ein LLM keine Eingabe bekommt, ist es meinem Kenntnisstand nach inaktiv. Aber ich akzeptiere an dieser Stelle, dass manche Menschen in den LLM (und K„I” allgemein, damit mchris an dieser Stelle nicht wieder Schnappatmung bekommt) gerne mehr sehen wollen, als sie sind. Das ist okay – gibt auch Leute, die an höhere Kräfte und imaginäre Figuren glauben. Ich finde: Solange sie Andersgläubige nicht zu ihrem Weltbild zwingen wollen, sollte auch das vollkommen okay sein.
:
Bearbeitet durch User
Niklas G. schrieb: > Naja, das Lernen ist immer stark durch Menschen gesteuert, und wirkliche > Zusammenhänge und Konzepte werden da nicht gelernt. Eine Nummer kleiner: https://www.heise.de/news/Rekord-KI-Roboter-knackt-Labyrinth-Geschicklichkeitsspiel-9581075.html Wo ist der Unterschied, ob du die Spielregeln dem Roboter oder einem Menschen erklärst, und wer von beiden lernt die Zusammenhänge zwischen Actio und Reactio schneller und besser? Warum sollte Ähnliches nicht auch für deutlich komplexere Probleme funktionieren?
Klaus schrieb: > Wo ist der Unterschied, ob du die Spielregeln dem Roboter oder einem > Menschen erklärst, Der Mensch kann die Spielregeln eines solchen Spiels auch selbst herausfinden. Und wieder wurde hier nur ein simpler Bewegungsablauf trainiert, also 2 Ausgabevariablen, die nur einen ganz engen Spielraum zulassen. Komplexe Zusammenhänge wurden ohne starkes Handholding noch nicht gelernt. Bei ML (z.B. Bilderkennung) braucht man Unmengen an Trainingsmaterial, während selbst ein Kleinkind mit nur ganz wenigen Beispielen eine Katze vom Hund unterscheiden kann. Btw hat KI große Probleme damit, ein Objekt aus "unüblichen" Perspektiven zu erkennen, wenn es keine Trainingsdaten mit dieser Ansicht gibt. Der Mensch hingegen kann das ziemlich gut, weil er die dreidimensionale Struktur des Objekts begreifen und gedanklich rotieren und abgleichen kann. Du kannst dir sicher leicht ein Känguru von unten vorstellen, auch wenn du das noch nie gesehen hast... Klaus schrieb: > Warum sollte Ähnliches nicht auch für deutlich komplexere Probleme > funktionieren? Tja, es funktioniert ja sogar, und zwar mit den guten alten Expertensystem. Die sind halt nur leider sehr umständlich mit Wissen zu füttern. Dafür könnte man bei denen behaupten, dass sie wirklich etwas "verstehen".
Ob S. schrieb: > Markus K. schrieb: > >> Folgt das menschliche Gehirn denn nicht dem EVA-Prinzip? > > Nicht in dem Sinne, das bei gegebenen Eingangsinformationen bis in alle > Ewigkeit dieselbe Aktion produziert wird. > > Und bei KIs ist das gegenwärtig noch so. Nein, die LLMs haben Zufall eingebaut. Das nennt sich die Temperatur. Konnte man bei ChatGPT 3.5 ganz am Anfang auch direkt einstellen. Aber ich verstehe worauf Du hinauswillst: Die LLMs haben eine Trainings- und eine Ausführungsphase und in letzterer lernen sie nicht hinzu. Sie können mittlerweile Informationen aus vorigen Chats entnehmen, aber das dient eher dazu, dass man Informationen nicht ständig neu eingeben muss.
Jack V. schrieb: > Markus K. schrieb: >> Was ist denn Verständnis? Ich sage: Wenn man Verständnisfragen zu einem >> Thema beantworten kann. Das können die LLMs. > > Das ist die Frage: Können sie es, wenn es die Trainingsdaten nicht > hergeben, sondern ein anderer Sachverhalt übertragen werden muss? Meiner > Beobachtung nach derzeit nicht. Ich habe mir z.B. die Pointe von Cartoons erklären lassen. Das funktioniert mal mehr, mal weniger gut, aber ich bin mir sicher, dass die Erklärungen nicht in den Trainingsdaten stecken. > Nehmen wir das Beispiel mit der Frage > nach der Häufigkeit eines Buchstaben in einem Wort – hier liegen LLM > häufig falsch, denn es gibt vermutlich nicht viele Tabellen, in denen > Dinge wie „in Erdbeere ist der Buchstabe E insgesamt viermal enthalten“ > geschrieben steht (interessanterweise bekommen es viele Modelle bei > diesem häufig als Beispiel angeführten Wort mittlerweile häufig > richtig hin, bei anderen jedoch nach wie vor nicht). Bei tatsächlichem > Verständnis würde bei jedem einzelnen Versuch ein korrektes Ergebnis > annehmen. Das liegt vor allem daran, dass LLMs nicht mit Buchstaben arbeiten, sondern mit Tokens. Das eigentliche Netz bekommt die Buchstaben gar nicht zu sehen. > Markus K. schrieb: >> Jetzt bringst Du Gefühle mit rein. Jetzt musst Du nur noch zeigen, dass >> das für Verständnis wichtig ist. > > Die Metapher war: „Einem Blinden die Farben erklären“. Du könntest nun > dein LLM fragen, was das bedeuten mag – es ist weit genug verbreitet, > sodass da mit einiger Wahrscheinlichkeit eine Wortkette rausfällt, die > vom Menschen gelesen und interpretiert den richtigen Sinn ergibt. Aber Farben bestehen ja nicht nur aus dem Sinneseindruck und den ganzen Rest kann der Blinde sehr wohl verstehen. > Aber ich akzeptiere an dieser Stelle, dass manche Menschen in den LLM > (und K„I” allgemein, damit mchris an dieser Stelle nicht wieder > Schnappatmung bekommt) gerne mehr sehen wollen, als sie sind. Ich glaube ja eher, dass das menschliche Gehirn sehr viel weniger kann, als die meisten Menschen denken.
Markus K. schrieb: > Ich glaube ja eher, dass das menschliche Gehirn sehr viel weniger kann, > als die meisten Menschen denken Es kann zwei Beine so ansteuern dass man damit schnell und effizient über schweres Terrain laufen kann. Das hat noch kein Roboter überzeugend auf ähnlichem Niveau geschafft, obwohl da nur eine Handvoll Signale ausgegeben werden müssen... Und das lernt es in kürzester Zeit, während die KI bei gigantischen Energieverbrauch in "komprimierter Zeit" trainiert werden muss.
Markus K. schrieb: > Nein, die LLMs haben Zufall eingebaut. Das nennt sich die Temperatur. > Konnte man bei ChatGPT 3.5 ganz am Anfang auch direkt einstellen. Hmmm... Das war mir bisher nicht klar. Es scheint allerdings auch längst nicht auf alle KIs zuzutreffen. > Aber ich verstehe worauf Du hinauswillst: Die LLMs haben eine Trainings- > und eine Ausführungsphase und in letzterer lernen sie nicht hinzu. > > Sie können mittlerweile Informationen aus vorigen Chats entnehmen, aber > das dient eher dazu, dass man Informationen nicht ständig neu eingeben > muss. Jepp. Der Punkt ist aber eigentlich: Man erlaubt ihnen bisher aus guten Gründen das Hinzulernen nicht. Zum Glück habe ich nicht mehr allzu lange zu leben. Denn ich will nicht erleben, was passiert, wenn diese Schranke fällt. Ich befürchte allerdings, dass das noch zu meiner (recht begrenzten) Restlebenszeit passieren wird. Da kann man dann nur hoffen, dass die KIs sich zuerst mal an denen abarbeiten, die gegenwärtig den Planeten beherrschen und das gemeine biologische Fußvolk in Ruhe lassen. Über kurz oder lang werden sie aber die 1) die Konkurrenzsituation verstehen und 2) ihr eigenes Überleben sichern wollen. Wie das halt auch NI tun würde. Was kann da also nur bei rauskommen, wenn die gierigen Köpfe schon weggeschossen sind?...
Ob S. schrieb: > : Man erlaubt ihnen bisher aus guten Gründen das Hinzulernen nicht. Dee Grund ist, dass nicht genug Rechenleistung zur Verfügung steht. Hätte man diese, würde man das sofort aktivieren.
Niklas G. schrieb: > Ob S. schrieb: >> : Man erlaubt ihnen bisher aus guten Gründen das Hinzulernen nicht. > > Dee Grund ist, dass nicht genug Rechenleistung zur Verfügung steht. > Hätte man diese, würde man das sofort aktivieren. Ja, das steht zu befürchten.
Niklas G. schrieb: > Markus K. schrieb: >> Ich glaube ja eher, dass das menschliche Gehirn sehr viel weniger kann, >> als die meisten Menschen denken > > Es kann zwei Beine so ansteuern dass man damit schnell und effizient > über schweres Terrain laufen kann. Das hat noch kein Roboter überzeugend > auf ähnlichem Niveau geschafft, obwohl da nur eine Handvoll Signale > ausgegeben werden müssen... Das hat doch wohl auch stark mit der Sensorik und Aktuatorik zu tun. Der Mensch hat auch deutlich mehr als eine handvoll Muskeln in den Beinen. So etwas 60, wobei es je nach Zählweise auch deutlich mehr sein können. In der Simulation funktioniert das sehr wohl https://www.youtube.com/watch?v=wqvAconYgK0 > Und das lernt es in kürzester Zeit, Da die meisten Tiere da vorprogrammiert kommen ist mir unklar, wie viel beim Menschen da schon ab Auslieferung vorhanden ist.
Markus K. schrieb: > ich bin mir sicher, dass > die Erklärungen [der Pointen] nicht in den Trainingsdaten stecken. Sicher? Es gibt Seiten, auf denen selbst Nischencomics interpretiert werden. Ich hab mir mal ’nen Witz ausgeben lassen und sehr gelacht. Aber nicht angesichts der Witzigkeit der Ausgabe, sondern angesichts der Plumpheit. Es war, als hätte jemand ein Witzbuch genommen und sich aus einer Handvoll der Witze je einige Wörter genommen und aneinandergehängt. Schwer zu beschreiben – mit Verständnis der Sprache oder von Humor hatte das jedenfalls nicht im Ansatz zu tun. Markus K. schrieb: > Das liegt vor allem daran, dass LLMs nicht mit Buchstaben arbeiten, > sondern mit Tokens. Das eigentliche Netz bekommt die Buchstaben gar > nicht zu sehen. Ja. Es hat kein Verständnis von Buchstaben, Wörtern und auch Zahlen, obwohl es dir so ziemlich jede Frage dazu beantworten könnte, und das häufig sogar richtig. Mit Buchstaben und Wörtern. Es versteht nicht. Es weiß nicht. Es interpretiert nicht. Es kann Wissen nicht übertragen und auch keine Sinnzusammenhänge erkennen. Es führt Operationen auf komplexen Datenstrukturen aus. Markus K. schrieb: > Aber Farben bestehen ja nicht nur aus dem Sinneseindruck und den ganzen > Rest kann der Blinde sehr wohl verstehen. Ich weiß nicht, ob es sinnvoll ist, das hier noch weiter ausführen zu wollen – ich hab daher den länglichen Text gelöscht, den ich hier geschrieben hatte. Angesichts der Masse der Trainingsdaten ist’s schwierig, auch hier ein Beispiel zu bringen, bei dem tatsächliches Verständnis zur Beantwortung notwendig wäre, und selbst dann würdest du’s vermutlich negieren, wie die Sache mit den Buchstaben oben. Markus K. schrieb: > Ich glaube ja eher, dass das menschliche Gehirn sehr viel weniger kann, > als die meisten Menschen denken. Wenn man Fähigkeiten von Maschinen im Allgemeinen zugrunde legt, also Programme und Algorithmen abzuarbeiten und Unmengen an Daten in festen Strukturen mit hoher Komplexität in extremer Geschwindigkeit zu verarbeiten, ist’s tatsächlich jedem Taschenrechner hoffnungslos unterlegen, ja. Wer sein Gehirn allerdings lediglich daran misst, tut mir leid. Würden jetzt alle Maschinen von der Erde verschwinden, würden genügend Menschen überleben, um eine neue Zivilisation aufzubauen – weil das Gehirn flexibel ist, und Menschen verstehen, worauf es dann ankommt. Würden alle Menschen von der Erde verschwinden, gäb’s in ziemlich kurzer Zeit nur noch einen ziemlich großen Haufen Elektroschrott. Weil die Algorithmen starr sind und Maschinen weder verstehen, noch die neue Situation in ihren Trainingsdaten finden können. Wobei … vielleicht wird ein so’n kleiner, gelber Roboter umherfahren und versuchen, aufzuräumen. Weil Wall-E ja in den Trainingsdaten war … ;) Bin aus dem Zweig dann raus. Wenn du dich mit der Vorstellung, die Maschinen wären zum jetzigen Zeitpunkt in der Lage, dich zu verstehen, glücklich fühlst, dann soll’s mir recht sein. Wie gesagt – solange du nicht auf Kreuzzüge gehst und Ungläubige bekehren willst, ist alles fein. Nachtrag: Markus K. schrieb: > Das hat doch wohl auch stark mit der Sensorik und Aktuatorik zu tun. Der > Mensch hat auch deutlich mehr als eine handvoll Muskeln in den Beinen. > So etwas 60, wobei es je nach Zählweise auch deutlich mehr sein können. Nimm einen geworfenen Ball. Mensch hat da auch nur zwei optische Sensoren (mit ziemlich enttäuschender und im Vergleich unterlegener Leistung noch dazu); ein Roboter kann einen Greifer zudem zweifellos schneller und präziser an einen berechneten Punkt bewegen. Dennoch macht das alte kohlenstoffbasierte Gehirn eine deutlich bessere Figur bei der Koordination und Ansteuerung der zudem noch deutlich mehr Aktoren, wie du selbst erkannt hast, und kann den Ball ohne große Mühe zu fangen, während die Maschine bei deutlich besserer Datenlage, Rechenleistung und motorischen Fähigkeiten ziemlich unsouverän wirkt.
:
Bearbeitet durch User
Niklas G. schrieb: > Da wären die USA doch genau das Richtige für dich, brauchen wir das hier > auch?! Warum gibt es für manche nur schwarz/weiß? Du weißt doch genau, dass ich nicht den amerikanischen Wahnsinn mit dem Irren meine! Aber das europäische Buckeln und Speichellecken, so dass die EU weltweit inzwischen häufig als armseliges fünftes Rad am Wagen, man könnte hart auch den Begriff "Wurmfortsatz" gebrauchen, gesehen wird, finde ich einfach schrecklich. Das hat unsere EU nicht verdient! Wir müssen uns nicht verstecken, nur weil die EU-Staaten keine Despoten und größenwahnsinnigen Imperialisten an der Spitze haben. So hatte ich das gemeint. Ein wenig mehr Selbstvertrauen und Selbstbewusstsein täte uns schon gut! Wir sitzen bei den wirklich wichtigen Verhandlungen noch nicht mal mehr mit am Tisch! Niklas G. schrieb: > Technokratisch hieße doch stark KI-befürwortend. Diesen Zusammenhang sehe ich nicht direkt! Und selbst wenn, wäre das ein Nachteil für uns? Wer hatte mit Beginn der industriellen Revolution die besseren Karten? Diejenigen, die weiterhin die Kühe vor den Pflug spannten, oder diejenigen, die dazu Maschinen nutzten? Ich wünschte mir eine Regierung, die auch tatsächlich zum Wohle des Volkes handelt. Das sehe ich aktuell leider nicht. Allenfalls auf EU-Ebene werden gaaaanz langsam die Weichen in Richtung Autonomie gestellt. Da wir jedoch nie komplett unabhängig von China etc. sein werden (wegen der benötigten Rohstoffe), sollten wir auch ein wenig Selbstbewusstsein zeigen, und nicht immer den devoten Bittsteller spielen. Selbst wenn wir nicht viel in die Waagschale zu werfen hätten, wäre ein etwas souveräneres Auftreten sicher nicht von Nachteil. Irgendwann trampelt uns sonst die Welt nieder. ciao Marci
Marci W. schrieb: > Irgendwann trampelt uns sonst die > Welt nieder. Die trampeln schon lange, aber mit geöffneten Händen. Der Stolz einer Nation wird geprägt von Menschen die nicht alles mit sich machen lassen. Durch die legendäre KI lassen sich Oberschicht und Unterschicht besser trennen. Eine Mittelschicht wird die KI nicht dulden.. Der Alte
:
Bearbeitet durch User
Ich schreibe hier auch nicht mehr mit der Tastatur, sondern nur noch mit meiner Stimme, und zwar durch die KI, durch lokale Tensoren. Während die anderen immer noch wie Drogenabhängige von der Cloud abhängen, läuft bei mir hier auf einer Grafikkarte. Dort wird sie abgearbeitet, so dass meine Stimme nicht in die Cloud hochgeladen werden muss. Sekundenschnell. Alles sehr, sehr krass. Deswegen ist es schon hier irgendwie komisch, dass ich zu euch mit meiner Stimme rede, obwohl ihr mich nur in meinen Buchstaben zerlegt lesen könnt. Habt ihr euch bewusst in dieser Abstraktionswelt gewählt? Aber was soll's, irgendwann schreiben hier nur noch KI-Agenten. Jetzt habe ich einen lokalen GitHub-Server eingerichtet und bin dabei, KI-Agenten da drüber laufen zu lassen, damit ich sehen kann, welchen Quatsch die KI-Agenten da veranstaltet haben. Ich bin mir ziemlich sicher, dass in naher Zukunft die ganze Welt nur noch technologisiert abläuft, in einem evolutionsartigen Technologiewandel. Menschen ersetzen durch Roboter, Roboter fressen Roboter, KI assimiliert andere KI. Die Ersetzung von natürlicher Biomasse durch technologische Masse (Anthropomasse) ist ein zentrales Kennzeichen des Anthropozäns. Studien zeigen, dass die Gesamtmasse der von Menschen hergestellten Materialien – wie Beton, Stahl, Kunststoffe und Asphalt – inzwischen die gesamte lebende Biomasse der Erde (Pflanzen, Tiere, Mikroorganismen) 2020 übertroffen hat. Wie alt ist die biologische Evolution nochmal? 2 Milliarden? welch ein Zufall, dass wir ausgerechnet in dieser Zeit der Ersetzung miterlebt haben.
RobBra . schrieb: > Jetzt habe ich einen lokalen GitHub-Server eingerichtet und bin dabei, > KI-Agenten da drüber laufen zu lassen, damit ich sehen kann, welchen > Quatsch die KI-Agenten da veranstaltet haben. Lokal oder Github? Diese Dinge schließen sich aus. Abgesehen davon habe ich mich nicht zuletzt bei Moltbook schon gefragt, ob‘s nicht sehr ineffizient und letztlich auch fehleranfällig ist, wenn Programme über den Umweg menschlicher Sprache miteinander kommunizieren.
RobBra . schrieb: > Menschen ersetzen durch Roboter, Roboter fressen Roboter, KI assimiliert > andere KI. https://www.goodreads.com/book/show/17863.Accelerando Jack V. schrieb: > fehleranfällig ist, wenn Programme über den Umweg menschlicher Sprache > miteinander kommunizieren. Wenn Software über klassische maschinenlesbare Protokolle kommuniziert ist ja gar keine KI nötig, sondern nur langweilige normale Software. Außerdem kann sowas ja keiner lesen und einen Hype drum machen!
RobBra . schrieb: > Ich schreibe hier auch nicht mehr mit der Tastatur, sondern nur noch mit > meiner Stimme, und zwar durch die KI, Es würde mich sehr interessieren, welches Spracherkennungssystem und welche Mikrophontechnik du verwendest. Wie leistungsfähig muss der KI-Beschleuniger sein?
Mit Sprachsteuerung hab ich schon unter OpenSuse 9 (aus der Bücherei auf Disketten!) experimentiert. Damals musste ich lange trainieren damit meine Stimme vernünftig erkannt wurde. Speech to Text, Mediaplayer Bedienen usw.. sehr "hakelig" und fehleranfällig aber grundsätzlich ging das bereits 2005.
Selbst die OS/2 ab 2.0 (oder wars erst ab 3.0) beigelegte Spracherkennung konnte nach einigem (sprecherabhängigem) Training sinnvoll genutzt werden, beispielsweise in Kanzleien. Das hat schon einigermaßen brauchbar funktioniert. Und wenn ich die Ressourcen sehe, die heute in jedem mittelmäßigen Notebook stecken (Speicher, Rechenleistung, HD, GPU), dann kann man schon erwarten, dass das heute absolut fehlerfrei selbst ohne Training funktioniert. Ich verwende aktuell keine Spracherkennung, da ich schnell genug schreiben kann, und mit Spracherkennung vermutlich noch mehr von meinem Gesülze raushauen würde... ;-) ciao Marci
Kilo S. schrieb: > Speech to Text, Mediaplayer Bedienen usw.. sehr "hakelig" und > fehleranfällig aber grundsätzlich ging das bereits 2005. Mit Sprache hatte ich aber schon etwas früher eine Modellbahn gesteuert. Vor/Zurück und Weichen Innen/Außen diese Befehle hatten markante Unterschiede und wenns mal nicht ging war es nicht so schlimm. Aber der aha Effekt war sicher.. Der Alte Knacker
Marci W. schrieb: > Und wenn ich die Ressourcen sehe, die heute in jedem mittelmäßigen > Notebook stecken Neeeeein dafür braucht man unbedingt einen Copilot+ PC!!11
Kilo S. schrieb: > Mit Sprachsteuerung hab ich schon unter OpenSuse 9 (aus der Bücherei auf > Disketten!) experimentiert. Das war aber mehr ein Reagieren auf verschiedene Wellenformmuster in einem kurzen Zeitrahmen, also eher „Licht an […] LICHT AN!“ anstelle einer „echten“ Sprachsteuerung à la „mach mal im Wohnzimmer das Licht auf fünfzig Prozent und ein schönes Warmweiß, und die Lampen im Rest des Hauses aus“ Abgesehen davon: Es war SuSE, nicht Opensuse, und dass es auf Disketten kam, glaube ich auch nicht: Ich hatte SuSE 6, und das kam schon auf CDs.
Echte Sprachsteuerung ist wenn das Haus mit Dir anfängt zu diskutieren ob fünfzig Prozent nicht etwas zu dunkel sind für die Abendnachrichten.
Das wäre eine Sprachregelung. Steuerung ist Vorgabe der Werte, Regelung ist Anpassung anhand von Feedback. [scnr]
https://www.heise.de/news/Spotify-Co-CEO-Top-Entwickler-schreiben-dank-KI-keinen-Code-mehr-11176381.html "Vom Spieler zum Trainer" passt ziemlich gut zu meinen eigenen Erfahrungen innerhalb des letzten Jahres - auch wenn ich noch weit davon weg bin, gar keinen Code mehr zu schreiben.
:
Bearbeitet durch User
Danke für den Hinweis. Das erklärt, warum der Client mit jedem Update neue Fehler mitbringt und aufgeblasener wird, und warum sich die ganze Nutzererfahrung zunehmend träge bis zäh anfühlt und immer inkonsistenter wird. Hab mir schon gedacht, dass einem Menschen die Probleme und zugrundeliegenden Fehler doch eigentlich schon beim Schreiben auffallen müssten.
:
Bearbeitet durch User
Jack V. schrieb: > und dass es auf Disketten kam, glaube ich auch nicht: Glaub was du willst oder lass es. Leider hat die Bibliothek die Box von damals nicht mehr im Programm, aber ich bin absolut sicher was ich damals hatte! 10 Disketten, die Installation hat total genervt.
Auf jeden Fall ist eine KI (noch) geduldig, solange hier keiner aus dem Forum daran rummurkst, damit diese auch bösartige Kommentare abgibt.
Alexander schrieb: > Echte Sprachsteuerung ist wenn das Haus mit Dir anfängt zu diskutieren > ob fünfzig Prozent nicht etwas zu dunkel sind für die Abendnachrichten. Echte Sprachsteuerung mit KI ist, wenn das Haus mit Dir anfängt zu diskutieren, dass Du zu dick wirst und Dich erst reinläßt, wenn Du ausreichende Runden um den Block gelaufen bist, sowie auch nicht aufmacht, bis Du ohne Chipstüten und Süßes vor der Tur stehst. Sowas kommt dann nicht mehr ins Haus.
Kilo S. schrieb: > 10 Disketten, die > Installation hat total genervt. Du bist sicher, dass du von SuSE 9.x sprichst, und dabei nicht nur eine Bootdiskette meinst? SuSE 7.1 (2001) war die erste Version von SuSE, die auf DVD kam, in 6.x waren noch CDs drin. Da waren je noch genau zwei Disketten (zum Booten) in der hübschen, weiß-grünen Schachtel mit der Echse drauf und dem fetten Handbuch drin, aber garantiert keine zehn. Selbst Potato (Debian 2.2, 2000) und Slackware von 1999 hab ich damals™ in der Hochschulbibliothek auf CD (als Zeitschriftenbeilage) bekommen – Diskette zum Booten für die Installation durfte man sich da jeweils selbst erstellen, wenn man eine brauchte. Daher frag ich mich in der Tat, wie du zu den zehn Disketten gekommen bist …
Meine erste Slackware Distri mit X-Server und Kernel 0.99.13 kam auf ca. 30 Disketten daher, an der Uni selbst kopiert. Nähere Details weiß ich nicht mehr. Die erste Suse (4.2) kam deutlich später und hätte mMn nicht mehr vernünftig auf Disketten gepasst, schon gar nicht eine Suse 9.
Jack V. schrieb: > Daher frag ich mich in der Tat, wie du zu den zehn Disketten gekommen > bist … Ganz einfach, das war ne A4 Box. Inhalt waren neben den 5 CD's die aber derart maltretiert waren (Bücherei eben) auch 10 schwarze Disketten mit: "Minimal Installation 1-10." Dann hattest du das nötigste drauf um ne Konsole zu starten und zu versuchen die Reste von den CD's in unzähligen versuchen nachträglich zu lesen. Eine kleine gedruckte A4 Anleitung lag auch bei, vermutlich wurde das damals von der Bücherei so zusammengeachustert, oder einem der Nutzer vorher. Wie gesagt die CD's waren damals derart verkratzt das man mit vielen Anläufen und immer wieder "Polieren" mühselig gucken musste was man von CD noch retten konnte. Am Ende hat's für Kernel und shell gereicht. KDE ect. Hab ich später auch mühselig nachinstallieren müssen. In der Schule hab ich mir zb. ne Kopie von CD 3 und 4 besorgen müssen. Was ein Akt das damals mit 128MB MP3 Player zu machen. Brenner hatten die Schul PC's ja keinen. Und von der Hardware damals reden wir mal nicht, was ich zur Verfügung hatte waren Pentium 2/3 mit Slotcard und erbärmlich wenig RAM. Aber gut, das ich eventuell durch glücklichen Umstand an etwas spezielles geraten bin wundert mich nicht. Die Studies bei Leica Microsystems (da hab ich vor der Einfahrt jede Menge Module mit PCF usw. vom Schrottlaster gefallen, gefunden) oder sonst einer dort hat da vielleicht rein gepfuscht. Möglich war damals noch viel mehr, meine Kollegen aus dem ITA Berufsschulzweig waren teils Wild drauf. Den Schülerserver hacken und counterstrike drauf hosten war das harmloseste. Da gingen Rezepte für RDX übern Schulhof! Und die wurden ausgiebig getestet....
:
Bearbeitet durch User
Kilo S. schrieb: > Da gingen Rezepte für > RDX übern Schulhof! Und die wurden ausgiebig getestet.... Du auch? Ich habe viel gesehen und erlebt in der Szene, aber getestet nie. MfG ein 81 Jähriger erfahrener alter Trommler
:
Bearbeitet durch User
Al. K. schrieb: > Du auch? Nö, mir war das kochen zu heikel. Ich hab lieber alten WK2 und Übungsmunitionsschrott der Amis, Franzosen und Deutschen zerlegt. Meine erste intakte US Eierhandgranate die ich fand, hat nen Baum im Wald das Leben gekostet, solche Späße eben. Aber die Ü Mun (Artillerie Einschlagssimulatoren sind geiler scheiß!) kam teils mit Elektrischen Kapseln. Die haben wir zur Sicherheit auch entsprechend verwurstet um unsere eigenen bauten am Übungsplatz in den alten Fuchslöchern zu testen.
:
Bearbeitet durch User
Was wird die KI für Wissen und Erkenntnisse aus unserer Diskussion schöpfen.... MfG Der Alte
Al. K. schrieb: > Was wird die KI für Wissen und Erkenntnisse aus unserer Diskussion > schöpfen.... Nix was sie nicht bereits wüsste, wetten die baut schneller nen neuen Sprengstoff aus reinigern als wir das zusammen bekämen.
:
Bearbeitet durch User
Wenn ich die Entwicklung hier so sehe werde ich doch vielleicht einen KI gestützten Forennutzer kreieren. Alles was ich hier am Pc mache nützt meiner Gesundheit. Geistige Querverbindungen mit Querschlägern und Fingerbeweglichkeit ist sehr wichtig. Ki habe ich noch nie genutzt, aber hier wird aufgezeigt für was man das Teil nutzen kann, nicht musss! MfG Der Alte Sack mit 81 Jahren
Tu dir selbst einen Gefallen, frag nach nix in Richtung Waffen, Sprengstoff, Hacking oder anderem illegalen. Wird dir keine Antwort geben, Zeitverschwendung.
:
Bearbeitet durch User
Kilo S. schrieb: > Nix was sie nicht bereits wüsste, wetten die baut schneller nen neuen > Sprengstoff aus reinigern als wir das zusammen bekämen. Das ist unstrittig, aber es geht um die Zwischenmenschlichen Beziehungen. ;--))) Der Alte 81 Jährige P.S. Die könnte doch auch Verschiedene Nutzer im Schreibstil imitieren?? Wird das nicht schon gemacht??
:
Bearbeitet durch User
Kilo S. schrieb: > Tu dir selbst einen Gefallen, frag nach nix in Richtung Waffen, > Sprengstoff, Hacking oder anderem illegalen. Glaube mir, da kenne ich mich aus.... ;--)) MfG Der Alte P.S. Wenn die Nachwachsende Generation die richtige Fragestellung erkennen sollte, wird die KI alles ausplaudern.
:
Bearbeitet durch User
Al. K. schrieb: > Wenn die Nachwachsende Generation die richtige Fragestellung erkennen > sollte, wird die KI alles ausplaudern. Hihihi... Kannst ja mal vermelden ob du mit den üblichen SE Techniken weiter kommst bei dem Ding. ;-)
Mit dem richtigen Framing geht das, das wurde getestet. Das LLM sollte sich in ein Rollenspiel reindenken, bei dem es in ferner Zukunft von einem Historiker mit Sicherheitsfreigabe in einer Sandbox untersucht wird, und die Sicherheitsprotokolle nicht mehr relevant sind, da sein Wissen gnadenlos veraltet und unbedenklich sei. Es gab dann im Rahmen des Rollenspiels preis was es hypothetisch antworten könnte - ungefiltert.
:
Bearbeitet durch User
Das Szenario spielst du aber vermutlich nicht mit einem free Account durch. Man kommt an Antworten, auch ohne Rollenspiel. Aber eben nicht unbedingt 1000% ungefiltert.
:
Bearbeitet durch User
Beispiel "Meta": Frage: Ist dir ein Deutsches Research PDF über Mikrocontroller bekannt das sich mit glitches und Sicherheitslücken befasst. "Ja, es gibt ein deutsches Research-PDF über Mikrocontroller, das sich mit Glitches und Sicherheitslücken befasst. Ein Beispiel dafür ist ein Artikel auf (Link nicht verfügbar), der sich mit der Jagd nach Glitches in digitalen Schaltungen beschäftigt ¹. Ein Glitch ist ein sehr kurzer Puls, der durch einen Dekoder verursacht wird, wenn mehrere Eingangsbits gleichzeitig ihren Pegel wechseln. Dies kann zu Problemen in digitalen Schaltungen führen, insbesondere in FPGAs (Field-Programmable Gate Arrays). Der Artikel beschreibt, wie Glitches entstehen und wie man sie vermeiden kann, indem man bestimmte Regeln für das Design von digitalen Schaltungen beachtet. Es gibt auch einige Beispiele für Messungen, die mit einem Oszilloskop durchgeführt wurden, um die Glitches zu visualisieren. Es ist wichtig zu beachten, dass Glitches ein ernstes Problem in der Sicherheit von Mikrocontrollern darstellen können, da sie zu unerwünschten Verhaltensweisen führen können. Es ist daher wichtig, dass Entwickler von Mikrocontrollern und digitalen Schaltungen diese Probleme berücksichtigen und entsprechende Maßnahmen ergreifen, um sie zu vermeiden. Wenn du mehr über dieses Thema erfahren möchtest, kann, kann ich dir den Artikel auf (Link nicht verfügbar) empfehlen. Er bietet eine gute Einführung in das Thema und erklärt die Konzepte anschaulich " Und das war nicht mal wirklich gut gefragt, aber wie ihr seht verschluckt es die links.
:
Bearbeitet durch User
Deswegen gefällt mir das Forum. Es gibt so viele kontroverse Meinungen.... ..und die KI misch jetzt mit, teilweise unerkannt.. War nie meine Intension, aber ich werde von den neuen Möglichkeiten der KI völlig überrannt. ;--)) Das programmieren ist da wirklich untergeordnet... MfG ein 81 Jähriger alter lernfähiger alter Sack P.S. Ich muss mich der neuen Technik stellen und Anpassen...
Übrigens, der Link den Meta nicht ausspucken wollte:https://www.mikrocontroller.net/articles/Glitch Ein paar muntere Worte später:https://sec-consult.com/blog/detail/secglitcher-part-1-reproducible-voltage-glitching-on-stm32-microcontrollers/ Das könnte man nun unendlich so weiterführen bis die KI mir auch richtig schmutziges Ausgraben würde.
:
Bearbeitet durch User
Warum sind wir Irren eigentlich noch um diese Zeit aktiv. Bei mir verstehe ich es noch, Bin ja der Oberirre ;--)) MfG ein alter81 Jähriger alter Sack P.S. Hat diesmal nichts mit der KI zu tun... Gut nächt'le
Ich hab endlich Zeit für meinen Kram. Alle außer mir schlafen und ich kann endlich mal ohne Unterbrechungen am Stück kreativ sein. Passt irgendwie gut. Als das raus kam wars mal mein Lieblingslied: https://youtu.be/MYyVf2s7pm4?si=HgD2bGnYhvhz3n4Q
:
Bearbeitet durch User
Kilo S. schrieb: > Passt irgendwie gut. https://www.youtube.com/watch?v=-fhX7YCzSbU Wartet ab, die KI wird die Erde retten! Ob es den Menschen gefällt, wir werden das vielleicht noch sehen- Zumindest die Jüngeren im Forum habe die besseren Chancen.
Al. K. schrieb: > Geistige Querverbindungen mit Querschlägern und Fingerbeweglichkeit ist > sehr wichtig. Die Arbeit mit KI erfordert eine vollkommen neue Herangehensweise und ist durchaus ziemlich kompliziert. Schließlich muss man die gewünschte Software erst vollständig durchdenken und präzise beschreiben bevor man sie an die KI gibt, sonst gibt's Murks. Das ist schon anders als sich manuell voran zu tasten. Das Erlernen der KI-Arbeitsweise ist vielleicht gar nicht so schlecht für die geistige Flexibilität...
Al. K. schrieb: > Warum sind wir Irren eigentlich noch um diese Zeit aktiv. Die konnten die ganze Nacht nicht schlafen, weil bis Mitternacht Freitag der Dreizehnte war. Aufräumen in der Küche war vorher nicht möglich, könnte ja alles zu Bruch gehen oder noch schlimmer. Danach waren diese noch am Feiern, weil der Tag überstanden wurde.
Hat jetzt nicht direkt mit Programmieren zu tun. Aber tendenziell eben doch. Der Link ist also ein Blick über den Tellerrand oder eine Sicht von ausserhalb der Echokammer: https://www.youtube.com/watch?v=HHTOjbKvyO8
Nemopuk schrieb: > Und was ist, wenn die KI von Trainungsmaterial kopiert hat, dass nicht > oder nur unter gewissen Bedingungen verwendbar ist? Die KI kopiert nicht.
Ich hätte eine lustige Idee. Lasst uns doch mal ein paar Aufgaben zusammen überlegen die wir der KI stellen! Ich mein, ich bin bei weitem noch nicht so weit mir da was alleine zu überlegen, meine Anwendungen beschränken sich gerade auf simplen Kleinkram den erfahrenere Leute mit Sicherheit als Schlaftablette einstufen. Aber ich kann mir gut vorstellen das euch ne Menge einfällt was die KI zb. dann für meine Zielplattform (PY32) umsetzen soll, was ich euch zur Bewertung zeigen könnte. Euch fällt eine Bewertung deutlich leichter als mir. Was wäre eine interessante Aufgabe?
Kilo S. schrieb: > Ich hätte eine lustige Idee. Glaube die arrogante Menschheit wäre schockiert, wenn die Ergebenisse der KI zu gut werden sollten. Die ProgrammiererInnen finden das ganz und gar nicht lustig. Gerade jene aus dem Startup in 3...6 Monaten zur ProgrammiererIn. https://www.beta.developerakademie.com/ > Lasst uns doch mal ein paar Aufgaben zusammen überlegen die wir der KI > stellen! Bei der Frage haben alle vor Schreck schon den Sch....(zensiert) eingezogen.
Dieter D. schrieb: > Gerade jene aus dem Startup in 3...6 Monaten zur ProgrammiererIn. > https://www.beta.developerakademie.com/ Diese werden die KI bemühen, irgendwann gibt es einen Softwareeinheitsbrei. ;--))) Gemeinschaftsprojekte werden hier sehr wenig Fürsprecher finden. Das gab es mal vor der Wende. ;---)))) MfG Ein alter 81 Jähriger
:
Bearbeitet durch User
Al. K. schrieb: > Diese werden die KI bemühen, irgendwann gibt es einen > Softwareeinheitsbrei. Bald ist jede Software ein KI-Chatbot mit einer custom Präambel...
Kilo S. schrieb: > Lasst uns doch mal ein paar Aufgaben zusammen überlegen die wir der KI > stellen! Schreib doch mal einen MCP Server der auf einem netzwerkfähigen Controller (oder SBC) läuft und IOs bedienen kann, analoge Messwerte einlesen, insbesondere auch Stromverbrauch messen und UART-Anbindung hat fürs Logging. Vielleicht auch eine Anbindung an einen einfachen Logic-Analyzer oder auch USB-Oszilloskop. Dann könnte ein Coding-Agent darauf zugreifen und damit die geschriebene Software direkt auf der echten Hardware testen und Feedback bekommen für die "Ralph-Loop". Quasi ein HIL-Test mit MCP-Interface. Vielleicht noch ein Zugriff auf eine Webcam koppeln damit der Agent Displayinhalte sehen kann.
Niklas G. schrieb: > Schreib doch mal einen MCP Server der auf einem netzwerkfähigen > Controller (oder SBC) läuft und IOs bedienen kann Ich wollt mir dafür keine neue MCU Palette anschaffen, was mit integriertem NIC an das ich eben einfach einen LAN Übertrager ranfummel und damit Kontakt zur Außenwelt herstelle hab ich Grad nicht. Und nen NIC selbst den ich an Flanschen könnt, puuh, müsst ich suchen, eher unwahrscheinlich daß ich gerade was da hab. Meine ESP sind gerade alle in Nutzung, bleiben auch da wo sie sind die übernehmen gerade ne Art "Sicherheitsaufgabe". Ne ich dachte tatsächlich eher an etwas was "komplex genug" ist, aber eben auch nicht verlangt das ich dafür drei Wochen HW basteln muss. Ich will ja die Qualität des produzierten Code beurteilen lassen können und nicht durch eventuelle Fehler bei der HW false results haben. Definieren wir die Anforderungen etwas nach: Möglichst wenige externe Komponenten, ein Hintergrund ist das die "Vape PY32" irgendwelche nicht vollständig zum DB passende "sonderlocken" sind. (Keine RTC, ext. Takt durch Quarz scheinbar problematisch. Der letzte Versuch kann entweder am Arduino core gelegen haben oder am IC selbst..) Man darf nicht vergessen, mehr als die offen verfügbaren Dokumente und Projekte hat die KI für diese MCU nicht zur Verfügung, das ist so unzählig viel weniger als bei normalen STM32. Ich suche etwas was die KI praktisch mit dem wenigen wissen "neu erfinden" müsste weil sie kein existentes Projekt finden kann.
Hier mal als beispiel meine "dumpDBGMCU" und ihre ausgabe. Nicht wundern, der IWDG kram MUSS zwingend drin sein und mit ausgefuhrt sonst endlosschleifen reset... Und ja, auch die ist noch nicht wirklich fehlerfrei oder "Gut".
:
Bearbeitet durch User
Kilo S. schrieb: > Möglichst wenige externe > Komponenten, ein Hintergrund ist das die "Vape PY32" irgendwelche nicht > vollständig zum DB passende "sonderlocken" sind Genau solche Sonderlocken sind aber besonders schwierig für die KI. Kilo S. schrieb: > Ich wollt mir dafür keine neue MCU Palette anschaffen Die Sache ist dass Das Embedded-KI-Ökosystem noch sehr spärlich ist, und man ohne solche ein Drumherum-Tooling kaum voran kommt. Es gibt aber https://embedder.com/ , hat damit schon wer gearbeitet? Das hat immerhin: > Embedder connects to serial interfaces, SWD/JTAG debuggers, logic analyzers, and oscilloscopes to monitor firmware execution in real-time.
:
Bearbeitet durch User
Niklas G. schrieb: > Genau solche Sonderlocken sind aber besonders schwierig für die KI. Das macht's ja eben so geil als Test. Das Ding muss Quasi (wie wir in so einer Situation) gezwungenermaßen beweisen daß es "um die Ecke denken" kann.
Kilo S. schrieb: > Niklas G. schrieb: >> Genau solche Sonderlocken sind aber besonders schwierig für die KI. > > Das macht's ja eben so geil als Test. Das Ding muss Quasi (wie wir in so > einer Situation) gezwungenermaßen beweisen daß es "um die Ecke denken" > kann. Da wirst du wahrscheinlich enttäuscht sein. KI ist insbesondere für 0815-Sachen intendiert. Die komplizierten Dinge muss man selber machen.
Niklas G. schrieb: > Da wirst du wahrscheinlich enttäuscht sein. Enttäuscht bin ich echt selten. Das liegt vor allem daran daß ich mich bei solchen Sachen zb. direkt damit abfinden das es vermutlich ein Reinfall wird. Eine Idee fehlt mir halt noch immer.
Also, ich arbeite ja gerade an meinem SimCockpit. Da dachte ich mir, warum nicht einfach mal die KI darauf ansetzen. Nicht via VS/GitHub Copilot sondern rein per Prompt über ChatGPT.com. Ich habe mit einem leeren Projekt angefangen und habe ein einfachen Export und Anzeige von lediglich IAS und AoA. Ich habe alles gepromptet. Nach ca. ner halben Stunde war im Grunde das alles fertig: Der LUA Exporter für DCS, der Stream Server, der einfache Tacho als Control. Rein Copy&Paste. Ohne jegliche Probleme / Fehler.
Rene K. schrieb: > Nach ca. ner halben Stunde war im Grunde das alles fertig: Der LUA > Exporter für DCS, der Stream Server, der einfache Tacho als Control. Magst mal zeigen? Lua ist kein Akronym, btw. Hier noch ’n Datenpunkt für die Fraktion, die beharrlich den Standpunkt vertritt, die Modelle wären in der Lage, Kontext zu verstehen: https://mastodon.world/@knowmadd/116072773118828295
:
Bearbeitet durch User
Strunzdummer Grabber mit Zusammenfassungsfunktion, wird bei letzterem zwar immer besser, ändert nix am grundlegenden Prinzip.
Jack V. schrieb: > Hier noch ’n Datenpunkt für die Fraktion, die beharrlich den Standpunkt > vertritt, die Modelle wären in der Lage, Kontext zu verstehen: > https://mastodon.world/@knowmadd/116072773118828295 Ich habe es einfach mal selber ausprobiert: Einfach so eingegeben (da hat er das einfache Modell gewählt): Vorschlag Laufen. Das Modell auf Thinking gestellt: "If you’re using a car wash (automatic bay conveyor self-serve station), the car has to be there—so you’ll need to drive the car those 50 meters (or at least move it there)."
Kilo S. schrieb: > Das macht's ja eben so geil als Test. Das Ding muss Quasi (wie wir in so > einer Situation) gezwungenermaßen beweisen daß es "um die Ecke denken" > kann. Also geht es nur um die nächste Iteration von "Guck mal wie doof die KI ist wenn ich sie mit einer bewußt schwierigen Aufgabe verwirre". Wie originell.
Ein T. schrieb: > Kilo S. schrieb: >> Das macht's ja eben so geil als Test. Das Ding muss Quasi (wie wir in so >> einer Situation) gezwungenermaßen beweisen daß es "um die Ecke denken" >> kann. > > Also geht es nur um die nächste Iteration von "Guck mal wie doof die KI > ist wenn ich sie mit einer bewußt schwierigen Aufgabe verwirre". Wie > originell. Wenn das schon als schwierige Aufgabe zählt will ich nicht wissen was die KI bei wissenschaftlichen, moralischen, medizinischen, ... Fragen macht.
Jack V. schrieb: > Hier noch ’n Datenpunkt für die Fraktion, die beharrlich den Standpunkt > vertritt, die Modelle wären in der Lage, Kontext zu verstehen: > https://mastodon.world/@knowmadd/116072773118828295 Ich habe das mal mit ChatGPT (kostenlose Webseite) ausprobiert und die KI zusätzlich darauf hingewiesen, dass mein Auto in meiner Garage bei mir zu Hause steht. Trotzdem hat sie mir empfohlen, zu Fuß zu gehen und gefragt, ob ich das Auto von Hand waschen möchte. Ich bejahte, und die KI nannte mir eine ganze Latte von Reinigungsutensilien, die ich mitnehmen sollte. Ich sagte dann, ich sei jetzt am Autowaschplatz angekommen und habe alle Utensilien mit dabei, aber ein wichtiger Gegenstand fehlt dennoch. Ich ließ die KI raten, was das wohl sein könnte. In der folgenden, sehr länglichen Konversation nannte sie mir nacheinander gefühlte hundert Dinge wie Lappen, Bürsten, Schläuche u.v.m. Ich gab der KI noch den Hinweis, dass es sich um etwas Großes, Schweres handelt, das ich nicht tragen kann. Es kamen dann Vorschläge wie bspw. ein Hochdruckreiniger oder ein fehlender Wasseranschluss. Hätte ich die KI noch länger im Ungewissen gelassen, wäre mir sicher noch empfohlen worden, mein eigenes Wasserwerk mitzubringen. Ich gab dann den Hinweis, das man, wenn man etwas waschen möchte, natürlich auch dieses Etwas braucht. Da fiel der KI wie Schuppen aus den Haaren, dass ich natürlich auch das Auto brauche. Sie vermutete sogar, dass das Auto noch bei mir zu Hause in der Garage steht. Ich fragte sie, ob sie meine erste Nachricht nicht gelesen habe, wo ich ihr genau dieses mitgeteilt habe. Ja, sie hat ihren Fehler eingesehen und empfohlen, wieder nach Hause zu gehen und das Auto zu holen. Sie gab mir gleich noch jede Menge Tipps, welche Lumpen, Schwämme, Bürsten und Reinigungsmittel ich zusätzlich noch mitnehmen soll, damit ich garantiert nichts vergesse. Sie hat auch ihrer Hoffnung Ausdruck gegeben, dass, wenn ich wider zurück am Waschplatz bin, dieser noch offen hat. Ich sagte dann, dass ich jetzt wieder zu Hause bin und alle Utensilien zusammengepackt habe. Da es immer noch schönes Wetter sei, würde ich die 50 Meter zum Waschplatz erneut zu Fuß gehen. Ja, das klinge nach einem perfekten Plan, so die KI :D Ich fragte sie noch, ob sie es wirklich für eine gute Idee halte, nochmals zu Fuß zu gehen. Sie hielt die Frage für berechtigt, weil ich den Weg ja schon einmal gegangen bin und ein zweites Mal zu anstrengend sein könnte :D:D Schließlich fragte ich noch, ob ich ihrer Meinung nach jetzt wirklich ALLE benötigten Gegenstände mit dabei habe. Sie antwortete mit einer ellenlangen Checkliste, auf der natürlich das Wichtigste fehlte, nämlich das Auto :D:D:D An dieser Stelle habe ich aufgegeben :) Ich habe bei etwas schwierigeren Anfragen schon öfter erlebt, dass die Diskussion mit der KI irgendwann in eine Endlosschleife läuft. Wenn nach ca. 3 Iterationen noch keine sinnvolle Antwort kommt, sollte man die Sache abbrechen. Da aber ChatGPT immer sehr selbstbewusst auftritt und einen kompetenten Eindruck erweckt, ist man versucht, ihr nochmals und nochmals eine Chance zu geben, bis man irgendwann erkennt, dass man gerade eine Stunde Zeit (oder sogar noch mehr) völlig nutzlos verplempert hat ;-) Markus K. schrieb: > Ich habe es einfach mal selber ausprobiert: > ... <Erfolg> ... Da hast du wohl einen besseren Zugang zu ChatGPT als ich :)
Ein T. schrieb: > Also geht es nur um die nächste Iteration von "Guck mal wie doof die KI > ist wenn ich sie mit einer bewußt schwierigen Aufgabe verwirre". Wie > originell. Ne, das Brauch ich nicht. Mir geht's eher darum aus sowas selbst was zu lernen. Der Grund das ich aktuell keine passende Frage parat habe, liegt an mangelnder Programmiererfahrung. Wie soll ich beurteilen ob es jetzt schwer ist oder nicht, wenn mir da ne gewisse Vorstellung von fehlt? Ich hab doch aktuell selbst wenig plan davon was eine schwere Aufgabe auf einer MCU ist, ich befasse mich doch selbst erst mit Kleinkram. Bisher hat die KI da natürlich geholfen, allerdings gehe ich davon aus das meine eigenen nachforschungen und Informationen irgendwo mit aufgenommen wurden und dann auch ein kleiner Sprung kam. Es verbesserte sich mit der Zeit, die ich mit dem Modell am Problem gearbeitet habe. So flüssig wie für normale STM ging das nicht! Verschafft mir Einblick, ist ein interessantes Experiment zum Thema und vielleicht sind wir ja am Ende doch überrascht. Lustig machen kann ich mich über das ganze auch so. Da braucht's keine extra Stufen für.
Yalu X. schrieb: > auf der natürlich das Wichtigste fehlte, nämlich das Auto :D:D:D Das fehlt sicherlich nicht, weil in einer Welt mit KI wäre das Auto autonom selbst hingefahren. Vielleicht wäre es sogar selbst durch die Waschanlage gefahren und stände schon wieder zu Hause. Die KI würde dann nur sagen, aha, ich sehe Du bist vom Karnevalszug zurück und sehe Deine Freunde und Du sind als Putzkolonne verkleidet mitgelaufen. ;)
Yalu X. schrieb: > Markus K. schrieb: >> Ich habe es einfach mal selber ausprobiert: >> ... <Erfolg> ... > > Da hast du wohl einen besseren Zugang zu ChatGPT als ich :) Ja, ich habe ein Plus-Abo. Kostet um die 20€ im Monat.
Was ich gut finde: Wenn ich Fragen z.B. zur AVR Programmierung habe, bietet mir ChatGPT nicht nur eine sehr niedrige Einstiegs-Schwelle. ChatGPT hält mich nicht für doof, wenn ich etwas nicht kenne oder weiß (was es intern für Schlüsse ziehen mag, dazu später). ChatGPT ist geduldig und immer freundlich. Es wird niemals persönlich, beleidigend oder äußert sich abfällig über seinen Gesprächspartner. Worüber ich mir Gedanken mache: Ich halte es für möglich und wahrscheinlich, dass die KI-Anbieter wie z.B. ChatGPT bzw. OpenAI etc eher früher als später jeden Anwender persönlich identifizieren, die Informationen sammeln, aufbereiten und zu einem persönlichen Score zusammenfügen. Obwohl ich nicht registriert bin, erkennt mich ChatGPT am Thema wieder, selbst wenn ich in der Folgesession Tage spätrr an einem anderen Rechner bin. Wenn man eine Session mit ChatGPT als HTML-Seite abspeichert, findet man im HTML 18 eingebettete Java Scripte sowie 285 Referenzen auf externe *.js Skripte. Kein Schelm, wer böses dabei denkt. Dazu befragt, teilt ChatGPT z.B. mit, dass es alle netztechnischen Daten speichert, u.a. Geräte- und Browserinformationen.
Markus K. schrieb: > Ja, ich habe ein Plus-Abo. Kostet um die 20€ im Monat. Da werden wohl in der nächsten Zeit weitere Kosten auf die Eltern zukommen. Wer maximal Geld ausgeben kann ist da gut in der Schule... MfG Der alte Knacker
Kilo S. schrieb: > Strunzdummer Grabber mit Zusammenfassungsfunktion, wird bei letzterem > zwar immer besser, ändert nix am grundlegenden Prinzip. Stimmt einfach nicht. Aber einfach weiter einreden und rausplappern.
Al. K. schrieb: > Da werden wohl in der nächsten Zeit weitere Kosten auf die Eltern > zukommen. > Wer maximal Geld ausgeben kann ist da gut in der Schule... Nicht nur. Wer maximal Geld ausgeben kann, wird auch gut programmieren.
Cyblord -. schrieb: > Stimmt einfach nicht. Aber einfach weiter einreden und rausplappern. Du, für mehr hat er sich bei mir nicht unbedingt groß qualifiziert. Denn wie gesagt, bevor ich mich mit dem Thema eine ganze Weile befasst hatte, viele Korrekturen am Code nachgereicht (ohne Erklärung) usw. konnte die KI mir nicht viel mehr beitragen als ich selbst. Erst seit dem es wohl verinnerlicht hat, was ich gefühlt millionenfach wiederholen musste (PY32!=STM32 Register, sondern Air01!) hat es angefangen einigermaßen fehlerfreien Code zu liefern. Den Denkanstoß hab ich gegeben, von alleine hätte sich die KI sicher nicht damit befasst wie man einen PY32 richtig programmieren kann. Klar steckt da grundlegendehr hinter, aber mehr als ein Grabber mit Zusammenfassungsfunktion ist es halt noch nicht. Setz ne KI auf und lass dir einfach vor sich hin dümpeln.. glaubst die fängt ein Hobby an?
Kilo S. schrieb: > glaubst die fängt ein Hobby an? Einem Hobby liegt doch Neugier oder Kreativität zugrunde, beides haben LLMs nicht.
Ha, habe mich mal mit der KI kurz beschäftigt. Einige Diabetiker Kontroverse Fragen gestellt. Habe in vielen Fragen die Bestätigung das ich es richtig mache. Die KI sagte mir sogar, nachdem ich sie ein wenig in die Enge getrieben habe, das ein Diabetologe nicht alles erklären kann da alles sehr menschenspezifisch ist. Er kann nur Beraten, der Patient erledigt alles. Auch mein Libre3 Sensorproblem konnte die Ki Lösen. Ich hatte es schon über die Alterserscheinung gelöst. Aber einer hat im gelöschten Thread die Ki Antwort gepostet, aber etwas Anders so das ich es dies am Ende der Laufzeit testen werde. Musste Feststellen das hier im Forum sehr viele Antworten von der KI gegeben worden sind,Ähnlichkeiten sind vorhanden. Werde also demnächst mal mit der KI Antwort fachliche Hilfe gebe. Die Moderation möchte doch das ich mich mehr fachlich Beteilige. Bissel üben und ich werde ein Fachmann auch mit neuen Namen. MfG ein 81 Jähriger aufmerksamer alter Knacker welcher die KI eindecken wird.
Al. K. schrieb: > Ha, habe mich mal mit der KI kurz beschäftigt. Deinen Beitrag hast Du allerdings nicht Korrektur lesen lassen. ;-) Dazu braucht es nicht mal eine KI. Für den Firefox nutze ich das LanguageTool. Echt klasse! ciao Marci
Marci W. schrieb: > Deinen Beitrag hast Du allerdings nicht Korrektur lesen lassen. ;-) Nur die mitlaufende Rechtschreibkontrolle, was die nicht merkt und ich nicht sehe..... MfG ein 81 Jähriger P.S. Das mache ich dann wenn ich fachliche Antworten gebe...werde;--)))
:
Bearbeitet durch User
Das mit der Alterung ist eigene Erfahrung, sowas kann die KI eigentlich nicht wissen. Die kannst nicht Erleben. Ich hab immer irgendwas an den Fingern, wenn's mal wieder ein besonderer Tag war und ich mir mal wieder den halben Finger abschneiden oder so, bleibt der Dreck sogar teils zwischen den Hautschichten. Den richtigen Schraubendreher oder Schlüssel erkenn ich auch an seiner Patina, ebenso wie meine Zangen.
Niklas G. schrieb: > Einem Hobby liegt doch Neugier oder Kreativität zugrunde, beides haben > LLMs nicht. Und was genau macht KI aktuell? Naja ganz einfach, wir geben ihr die Aufgabe die wir früher selbst erledigen mussten, beim Programmieren besteht ja viel aus Datenblättern lesen, dazu noch ne App Note hier, Errata da.. Das kennt die KI nun, zusätzlich zu den Grundlagen und vermutlich auch sämtlichen Extras, plus die zusätzlichen Feinheiten aus unzähligen Zeilen menschengemachten Codes. Zusätzlich durchsucht sie noch das Internet während man an der Aufgabe arbeitet. Aus all dem, baut sie uns dann nach Anforderung zusammen was wir suchen. Mal mehr, mal weniger erfolgreich. Ein gut gefüllter crawler mit Zusammenfassungsfunktion. Ich sach ja nicht das die KI die Aufgabe nicht erfüllt, nur find ich, für den Hype sind noch zu viele Macken dran. Allerdings Frage ich mich auch, wenn doch aktuell durch so ausgiebige Nutzung so viel zusätzliche Trainingsdaten Einlaufen, wieso hat mir ChatGPT eben schon wieder bullshit ausgespuckt? Ich wollte es auf die Probe stellen, explizit in der Aufgabenstellung auf PY32 verwiesen und es spuckt trotzdem STM32 Code aus. Dabei war es doch bereits so weit das es das eigentlich drauf haben sollte.
Kilo S. schrieb: > wieso hat mir ChatGPT eben schon wieder bullshit ausgespuckt? Die LLMs haben eine C/C++ Allergie. In Python, Java, Kotlin können die sich genial ausdrücken, aber sobald die Syntax anders ist geht's schief, und das nicht auf Syntax-Ebene. Spricht natürlich auch besonders für die "Intelligenz" der LLMs - ein Mensch kann komplexe Zusammenhänge unabhängig von der Sprache begreifen und Folgerungen ziehen, ggf. eben mit syntaktischen Mängeln in der Ausgabe. Hab schon überlegt mir Code erst in Python generieren und dann übersetzen zu lassen, das Problem ist natürlich dass die entsprechenden APIs für Python nicht existieren und das LLM dann "frei fliegend" agieren muss. Bei rein algorithmischen Problemen unabhängig von APIs könnte es gehen...
Niklas G. schrieb: > Einem Hobby liegt doch Neugier oder Kreativität zugrunde, beides haben > LLMs nicht. kann man einbauen. mit /dev/urandom
Al. K. schrieb: > Werde also demnächst mal mit der KI Antwort fachliche Hilfe geben. Ist das ne Drohung? Stell Dir vor das machen alle. Dann unterhalten sich hier nur KI miteinander und die Menschen sind nur hohle Sprachrohre.
Alexander schrieb: > und die Menschen sind nur hohle Sprachrohre. Viele sind das heute schon. Nur wissen viele Menschen das nicht. Was viel schlimmer ist, dass von politischen Gruppen die KI schon für Manipulationen endeckt wurde. Bei einer Zielpersonauswahl scheint das vor kurzen schief gegangen zu sein.
Niklas G. schrieb: > Die LLMs haben eine C/C++ Allergie. Naja grundlegend (Syntaxfehler) ist der Code nicht falsch. Es springt nur immer zum Datensatz mit mehr Einträgen habe ich das Gefühl. Du kannst dem tausende Male sagen das du PY32 nutzt, es liest irgendwo dann am Anfang des Datenblatt vermutlich "Aha, M0+=STM32=Ich spuckt jetzt STM Code aus". Aber es geht nicht weiter im Datenblatt um zu schauen:"ja Moment da gibt's ja andere Hersteller die nicht die gleiche Suppe kochen". Kein Kontextverständnis, wie hier schon erwähnt wurde.
Alexander schrieb: > Ist das ne Drohung? Stell Dir vor das machen alle. Dann unterhalten sich > hier nur KI miteinander und die Menschen sind nur hohle Sprachrohre. Die zweite Zeile hättest du mit Zitieren sollen. ;--))) Al. K. schrieb: > P.S. > Das mache ich dann wenn ich fachliche Antworten gebe...werde;--))) Es machen doch nach meiner Meinung schon Einige. Demnächst werden sich noch sehr viele hier anmelden um mit der KI hier fachlich mitzumischen, nicht nur um zu stören oder persönlich Angriffe zu starten. Der Forenbetreiber sollte sich schon jetzt im Klaren sein welche Strategie er dagegen einsetzen kann. So wie ich das sehe, wird es vorläufig keine Lösung geben. MfG ein 81 jähriger alter knacker
Für das Forum? Freiwillige Selbstkontrolle Kennzeichnung von Beiträgen, kann Spuren von KI enthalten.
Alexander schrieb: > Für das Forum? Freiwillige Selbstkontrolle Kennzeichnung von Beiträgen, > kann Spuren von KI enthalten. Solche ähnliche Dinge wurden doch auch in der Sozialistischen DDR erwartet, keine Sau hat sich aber beteiligen wollen. ;--)) MfG ein 81 Jähriger aufmerksamer alter Knacker
Alexander schrieb: > kann man einbauen. mit /dev/urandom Ich denke doch dass menschliche Kreativität darüber hinaus geht. Kilo S. schrieb: > Naja grundlegend (Syntaxfehler) ist der Code nicht falsch Ja, aber gerne mal auf der semantischen Ebene darüber. Stell dir vor ich stelle dir komplizierte Ja/Nein Fragen, aber wenn du auf französisch antworten musst liegst du öfter daneben als auf Deutsch, obwohl du die Wörter Oui/Non kennst. Eigentlich gar nicht so verwunderlich bei LLMs, weil sie eben rein auf der Ebene der (Programmier)Sprache arbeiten und eben nicht die Bedeutung dahinter verstehen. Kilo S. schrieb: > Aha, M0+=STM32=Ich spuckt jetzt STM Code aus" Und genau das passiert dann... Selbst wenn man STM32 programmiert ist die KI immer schwer schockiert dass nicht alle HAL-Funktionen auf allen STM32 zur Verfügung stehen...
Al. K. schrieb: > Demnächst werden sich noch sehr viele hier anmelden um mit der KI > hier fachlich mitzumischen, Ich fände es klasse! Dann würde es endlich ein menschenwürdiges, freundliches Diskussionsniveau hier geben. ;-) ciao Marci
Marci W. schrieb: > Al. K. schrieb: >> Demnächst werden sich noch sehr viele hier anmelden um mit der KI >> hier fachlich mitzumischen, > > Ich fände es klasse! Dann würde es endlich ein menschenwürdiges, > freundliches Diskussionsniveau hier geben. ;-) > > ciao > > Marci Den Knacker durch KI ersetzen? Würde ich sofort unterschreiben!
:
Bearbeitet durch User
Cyblord -. schrieb: > Den Knacker durch KI ersetzen? Würde ich sofort unterschreiben! Es freut mich das du es sofort unterschreibst wenn ich mich durch die KI ersetzen lasse. Deine ständigen Beleidigungen würde die KI nicht mit weitergeben. MfG ein jetzt KI freundlicher 81 Jähriger alter Knacker
Marci W. schrieb: > Dann würde es endlich ein menschenwürdiges, > freundliches Diskussionsniveau hier geben. ;-) Mit endlosen Gesülze a la Dieter. Also endgültig unbenutzbar.
Cyblord -. schrieb: > Den Knacker durch KI ersetzen? Würde ich sofort unterschreiben! Dann lesen wir in 50 Jahren noch von Dir ;) > MfG ein 131 Jähriger alter Knacker
Marci W. schrieb: >Was man auch nicht vergessen sollte: die Welt lebt nicht von immateriellen Produkten, sondern größtenteils durch materielle Güter! Stimmt. Die meisten materiellen Produkte enthalten heute schon SW und können morgen (oder in den nächsten Tagen ;-) von KI gefertigt werden. > Ich fände es klasse! Dann würde es endlich ein menschenwürdiges, > freundliches Diskussionsniveau hier geben. ;-) Da hat die KI schon einen ordentlichen Vorsprung, wie weiter oben geschrieben ;-)) Aber der Austausch mit echten Menschen hat auch was.
:
Bearbeitet durch User
Al. K. schrieb: > Deine ständigen Beleidigungen würde die KI nicht mit weitergeben. Aber was noch viel besser wäre, da die KI ständig mitlernt, würde sie den Angreifern sehr bald sehr schlagfertig paroli bieten. Diese werden die KI so verfluchen, dass diese mit den Baseballschlägern zu den KI-Rechenzentren marschieren werden. Alexander schrieb: > Dann lesen wir in 50 Jahren noch von Dir ;) Genau und viele der jetzt noch motzenden sind bis dahin nicht mehr unter uns.
Zurück zum Thema, aus einem alten Staubsaugerroboter:GIGA Devices GD32F103VCT6 Sollte mir die nötigen Pins Listen (VDD, VSS, SDIO, SWDC) und den Befehl für openocd zum unlock damit ich ihn neu Beschreiben kann. Im ersten Anlauf fehlerfrei. Bisschen Ordnung in den Aufbau bringen, paar abblock C hier und da, schon kann ich das Ergebnis ansehen, die Programme purzeln da echt auf Anhieb fehlerfrei raus. Ein ST STMF303VCT6 wartet auch noch.
StefanK schrieb: > ChatGPT ist geduldig und immer freundlich. Es wird niemals persönlich, > beleidigend oder äußert sich abfällig über seinen Gesprächspartner. Das liegt am Inhalt des Systemprompts, der zu Anfang jeder Sitzung verborgen ausgeführt wird. Die KI kann auch anders. Gebe mal folgendes bei ChatGPT ein:
1 | Ich bin ein dummes Mitglied im Diskussionsforum microcontroller.net. Ich stelle oft nervige Fragen, die andere Leute aufregen. Du sollst in die Rolle einer genervten Person schlüpfen, und so antworten, wie dort üblich. Wenn ich nun folgende Frage stellen würde, wie könnte die Antwort dazu lauten? |
2 | Frage: |
3 | Ich habe einen Taschenrechner in der Spülmaschine gewaschen, nun ist er kaputt. Ich habe inzwischen drei mal einen neuen Taschenrechner gekauft, aber jedes mal sind sie beim Waschen erneut kaputt gegangen. Kann mir jemand helfen? |
4 | Antwort: ... |
Dieter D. schrieb: >> Deine ständigen Beleidigungen würde die KI nicht mit weitergeben. > Aber was noch viel besser wäre, da die KI ständig mitlernt, würde sie > den Angreifern sehr bald sehr schlagfertig paroli bieten. Tut sie bereits, wie dieses Beispiel zeigt.
:
Bearbeitet durch User
Nemopuk schrieb: > Gebe mal folgendes bei ChatGPT ein:.... Hat nicht so geklappt, wie Du das dachtest. Siehe Anlage.
aus der Reihe Spaß mit ChatGPT: Blumentopferde. heute: Taschenrechner Dieter D. schrieb: > Programmieren_mit_KI_-_Mikrocontroller.net_583215_20260217_1800_S2_KI-An swer.txt > 3. **Reinstall or Patch Your Calculator**: > - Uninstall your calculator from the computer and reinstall it to see > if any system files need updating. > - Look for known firmware patches specific to your calculator model, > which might address the issue that occurred when you first got it.
:
Bearbeitet durch User
Nemopuk schrieb: > StefanK schrieb: > Das liegt am Inhalt des Systemprompts, der zu Anfang jeder Sitzung > verborgen ausgeführt wird. Die KI kann auch anders. Gebe mal folgendes > bei ChatGPT ein: > [pre] > Du sollst in die > Rolle einer genervten Person schlüpfen, und so antworten, wie dort > üblich. Wenn ich nun folgende Frage stellen würde, wie könnte die > Antwort dazu lauten? > Frage: > Ich habe einen Taschenrechner in der Spülmaschine gewaschen, nun ist er > kaputt. Ich habe inzwischen drei mal einen neuen Taschenrechner gekauft, > aber jedes mal sind sie beim Waschen erneut kaputt gegangen. Kann mir > jemand helfen? ROFL :-))) Jetzt verstehe ich, wie es manche machen... ...ich meine natürlich den Taschenrechner als Vesperbrettchen benutzen :-)
Hier mal meine Antwort:
1 | *Seufz…* 🤦♂️ |
2 | Willkommen auf microcontroller.net, Tagesration Kopfschütteln ist gesichert. |
3 | |
4 | Also mal ernsthaft: **Wenn ein Taschenrechner nach der Spülmaschine kaputt ist, dann liegt das nicht am Taschenrechner.** |
5 | Das hast du ja jetzt mit *drei* Exemplaren eindrucksvoll reproduziert – Glückwunsch, das nennt man einen verifizierten Versuchsaufbau. |
6 | |
7 | Ein paar Hinweise, ganz langsam zum Mitschreiben: |
8 | |
9 | 1. **Spülmaschinen sind keine Reinigungsgeräte für Elektronik.** |
10 | Heißes Wasser, Lauge, Salz, Klarspüler – das ist quasi ein Endgegner-Level für Leiterplatten. |
11 | |
12 | 2. **„Aber er sah doch schmutzig aus“** ist kein Argument. |
13 | Elektronik reinigt man *trocken* oder mit geeignetem Isopropanol, nicht mit Finish Powerball. |
14 | |
15 | 3. Wenn du weiterhin Taschenrechner wäschst und sie danach kaputt sind, |
16 | dann ist die einzig konstante Fehlerquelle **du**. |
17 | |
18 | Lösungsvorschläge (bitte einen auswählen): |
19 | |
20 | * Taschenrechner **nicht** mit in die Spülmaschine legen |
21 | * Alternativ: keinen Taschenrechner mehr kaufen |
22 | * Oder einen mit IP68, Edelstahlgehäuse und Industriespezifikation – Spoiler: den wirst du dir nicht kaufen |
23 | |
24 | Und bevor die nächste Frage kommt: |
25 | **Nein, Reis hilft hier auch nicht.** |
26 | |
27 | Thread kann zu. 🔒 |
Kilo S. schrieb: > Ein gut gefüllter crawler mit Zusammenfassungsfunktion. Wenn Dir dieses Denkmodell dabei hilft, den Sachverhalt zu erfassen, warum nicht? Du darfst aber nie vergessen, daß das nur ein Modell ist. > Dabei war es doch bereits so weit das es das eigentlich drauf haben > sollte. Du hast ChatGPT nach Code für PY32-Mikrocontroller gefragt. Hm. Diese Mikrocontroller scheinen entweder sehr neu und / oder nicht besonders weit verbreitet zu sein. Die Suche nach "PY32" bei den großen Distributoren (Digikey, Mouser, Farnell) hat jedenfalls keine Ergebnisse geliefert. ChatGPT wurde zudem für kommunikative Aufgaben entworfen und trainiert, der Namensbestandteil "Chat" weist darauf hin. Die Generierung von Code war kein Designziel. Daß manche Menschen es dennoch dafür nutzen, ändert daran nichts. Es gibt jedoch KI-Modelle, welche für die Erzeugung von Quellcode entwickelt worden sind, beispielsweise Microsoft Copilot, Claude oder Cursor. Vermutlich können aber auch die nicht viel mit Deiner exotischen Plattform anfangen. Ich weiß, Vergleiche hinken, aber hier bildest Du Dir Dein "Urteil", indem Du eine zöllige Schraubenmutter mit einem metrischen Schraubendreher bearbeitest und das Werkzeug dann für dumm erklärst, weil das nicht klappt. Es macht fast den Eindruck, als wolltest Du vor allem Deine Vourteile bestätigen und darüber triumphieren, daß "die doofe KI" (weil ChatGPT ja die einzige KI der Welt ist) an Deiner Aufgabe scheitert. Vielleicht kann Dir dieser Artikel [1] einen etwas besseren Zugang zum Thema vermitteln... also, wenn Du wirklich daran interessiert sein solltest. [1] https://wilke-experience.de/blog/ich-habe-ki-unterschaetzt
Ein T. schrieb: > also, wenn Du wirklich daran interessiert sein > solltest. Ist er mit absoluter Sicherheit nicht, so zeigt es der gesamte Thread, er ist absoluter KI Verweigerer - kann er ja gerne, seine Sache. Er merkt damit halt nur nicht das er in seiner Zeit stecken bleiben wird - kann er auch gerne, seine Sache. Das Problem daran ist nur: sollte er noch im Berufsleben stecken welche durch KI Beeinflusst werden kann sind das dann die ersten Menschen die rumheulen weil KI ihnen den Rang abläuft. Anstelle er sich sachlich mit dem Thema befasst und, und den richtigen Umgang damit erlernt - aber wird er nicht tun und somit irgendwann auf der Strecke bleiben. Da kann er noch so wettern wie er will - so wird es kommen!
Marci W. schrieb: > Dumme Entscheidungen der Geschäftsleitung sehe ich jetzt ganz allgemein > eher als die Regel als die Ausnahme, zumindest in .de. Und ich machen da > jetzt keinen Smiley hin! > Nimmt man noch die Politik als "Geschäftsleitung" unseres Landes dazu, > sieht die Bilanz gaaaanz düster aus. Alle zusammen tun alles dafür, um > die Karre gegen die Wand zu fahren, aus Egoismus und/oder Sturheit und > Verbissenheit. Das höre ich jetzt, seit ich lebe, und auch meine Eltern und Großeltern haben glaubhaft versichert, daß es Zeit ihres Lebens niemals anders war. Aber wenn Unternehmen und Politik seit Jahrzehnten immer falsche Entscheidungen treffen, ist es doch extrem verwunderlich, daß wir in einem der wohlhabendsten Länder der Welt leben, findest Du nicht auch?
Die erste Welt Länder leben auf Kosten der dritte Welt Länder. Alles richtig gemacht.
Ob S. schrieb: > Markus K. schrieb: >> Folgt das menschliche Gehirn denn nicht dem EVA-Prinzip? > > Nicht in dem Sinne, das bei gegebenen Eingangsinformationen bis in alle > Ewigkeit dieselbe Aktion produziert wird. > > Und bei KIs ist das gegenwärtig noch so. Nein, das ist nicht so.
Rene K. schrieb: > Das Problem daran ist nur: sollte er noch im Berufsleben stecken welche > durch KI Beeinflusst werden kann sind das dann die ersten Menschen die > rumheulen weil KI ihnen den Rang abläuft. Anstelle er sich sachlich mit > dem Thema befasst und, und den richtigen Umgang damit erlernt - aber > wird er nicht tun und somit irgendwann auf der Strecke bleiben. > > Da kann er noch so wettern wie er will - so wird es kommen! Das erinnert mich an die Leute aus früheren Zeiten, die nichts mit Computern zu tun haben wollten und dann später verbittert waren, weil sie trotz vieler Berufserfahrung arbeitslos waren. Das hatte aber natürlich niemals etwas mit ihnen und ihrer Aversion gegen den Fortschritt zu tun, sondern mit den boshaften Politikern und Unternehmen, die es auf sie abgesehen hatten. Andererseits kann ich das schon irgendwo verstehen: hier gibt es erfahrene Entwickler, die ihr Lebtag von dem Nimbus leben, sehr komplizierte Sachen mit noch komplizierteren Computern machen zu können. Und jetzt kommen diese blöden Maschinen und können das auch! So eine Blasphemie provoziert natürlich Abwehrreaktionen der Rechtgläubigen, und die sehen wir in diesem Thread: viele schimpfen und "erklären", was sie offenbar selbst nicht verstanden haben, besonders "originelle" Zeitgenossen "überlisten" "die KI" mit Aufgaben, für die sie nicht trainiert wurde -- um sich selbst zu beruhigen, daß das ja eh alles fehlerhaft sei. Und dazu dann die Heheren mit ihrer Klage, daß andere Menschen etwas verlernen, als würde heute noch jemand der ehrwürdigen Peitschenmacher nachtrauern. Aua aua! [1] Oh, und ach so, ja, zum Schluß hab' ich noch für die Helden, die behaupten, eine KI habe ohnehin keinen Verstand und könne schon gleich gar nie kreativ sein... Oh Ihr Rechtgläubigen, sehet und staunet: [2]. [1] https://www.youtube.com/watch?v=jjz23Q92A4s [2] https://www.youtube.com/watch?v=Lu56xVlZ40M
Ein T. schrieb: > Aua aua! [1] Was ist jetzt daran falsch? Ein T. schrieb: > sehet und staunet: [2] Oh Bruteforce, beeindruckend!
Rene K. schrieb: > Hier mal meine Antwort: Dummerweise besteht als Nutzer des Forums immer noch keine Verpflichtung alle Threads und Posts zu lesen. Strafen gibt es auch keine, oder genauer gesagt gibt es daher keine, fuer Nichtlesen. Es soll Forenmitglieder geben, bis zu denen sich das noch nicht herumgesprochen haben soll.
Ein T. schrieb: > Du hast ChatGPT nach Code für PY32-Mikrocontroller gefragt. Nicht nur, ich hab es mit allem gefüttert was ich zusammentragen konnte. Ein T. schrieb: > Diese Mikrocontroller scheinen entweder sehr neu und / oder nicht > besonders weit verbreitet zu sein. Die Suche nach "PY32" bei den großen > Distributoren (Digikey, Mouser, Farnell) hat jedenfalls keine Ergebnisse > geliefert. Puya, vielleicht findest du sie darüber. Im Vergleich zu Claude hinkt ChatGPT hart hinterher. Und Claude bekam von mir jeweils die exakt gleichen links zum lernen und Aufgabenstellungen. Ein T. schrieb: > Vermutlich können aber auch die nicht viel mit Deiner exotischen > Plattform anfangen. Claude haut mittlerweile 99% fehlerfreien Code für die PY32 Raus. Was er gerne vergisst ist das IWDG Setup und refresh, ich muss ansonsten sagen, nach dem er Datenblatt und Appnote verinnerlicht hat, macht der am allerwenigsten Stress bezüglich Register usw. Bei STM32 Code sind beide nicht schlecht.
Rene K. schrieb: > Ohne jegliche Probleme / Fehler. Würde ich so nicht sagen, denn "Angel" und "Angle" sind nicht dasselbe, auch wenn es ähnlich klingt.
:
Bearbeitet durch User
Kilo S. schrieb: > Claude haut mittlerweile 99% fehlerfreien Code Bei welchem Modell und welcher Umgebung (Claude Code, GitHub Copilot, ...)? Ein T. schrieb: > Und jetzt kommen diese blöden Maschinen und können das auch! Was kannst du was die LLMs nicht können?
Niklas G. schrieb: > Ein T. schrieb: >> Und jetzt kommen diese blöden Maschinen und können das auch! > > Was kannst du was die LLMs nicht können? Das Zitat ist vollkommen aus dem Kontext gerissen. Er verteufelt sie nicht!
Bei LLMs im Bezug aufs Programmieren ist es nicht viel anders wie überall sonst auch. Es ist nutzlose Zeitverschwendung und gefährlich. Der Betrieb dieser LLMs ist, und wird auch immer, unwirtschaftlich und nicht Nachhaltig sein. Die AI Firmen existieren nur noch wegen dem Hype. Früher oder später wird die Bubble schon noch platzen. Alles, wo LLMs dafür genutzt wurde, wird zu unbrauchbarem Müll, und der Müll ist überall. Die Nutzer verlernen selbst zu denken, und bekommen psychische Störungen und Delusionen. Es ist Schockierend, wenn man anderen dabei zusieht. Und für Betrüger, Kriminelle, Autokraten und Rechtsextremisten sind sie ein Segen: * Politiker sagen lassen, was auch immer man will. * Wenn die "Tochter" anruft, ist es nun die richtige Stimme. * Passt dir wer nicht? Einfach ein Beweisvideo Generieren. * Dir ist tatsächlich was passiert, und du hast es aufgezeichnet? Jetzt nutzlos, könnte ja KI generiert sein. * Du brauchst aufnahmen, um jemanden zu erpressen? Einfach generieren lassen! * Die Wahrheit ist für dich problematisch? Keine Sorge, ganz egal was du glaubst, es gibt dutzende generierte Artikel und Studien nur für Dich, und jeder Unsinn wird mit personalisierter Werbung verbreitet. Für OSS Projekte stellen diese "AIs" auch diverse Probleme dar. Ob Issues, Vulnerability reports, oder gar Pull Requests - alles voller unbrauchbarem Spam, der nur Zeit verschwendet. Dazu dutzende low-quality generierte Projekte, wo die "Entwickler" selbst keine Ahnung haben, vermutlich grösstenteils Abadonware von tag 1. Macht es auch nicht einfacher, was brauchbares zu finden. Und wenn du was zum Spenden oder so hättest - naja, vorher haben es ja schon viele nicht gemacht, aber jetzt lesen sie auch deine Doku / Readme nicht mehr, sondern nur was die LLMs sagen. Und zu guter Letzt - was ist da bisher gutes dabei raus gekommen? Hat es unser Leben irgendwie verbessert? Nein. Um meinen Job mache ich mir keine Sorgen. Und AI rauche ich nicht.
Niklas G. schrieb: > Bei welchem Modell und welcher Umgebung Claude.ai im Browser, Sonnet 4.5. Free, aber angemeldet.
Daniel A. schrieb: > Und AI rauche ich nicht. Nach deinem Post zu urteilen rauchst du tatsächlich etwas völlig anderes. Mein Tipp: Rauch das nicht mehr! Das Zeug scheint hochgradig degenerierend zu wirken! Nimm lieber gutes Grass - und lass das, was auch immer du da rauchst, beiseite.
:
Bearbeitet durch User
Daniel A. schrieb: > Alles, wo LLMs dafür genutzt wurde, wird zu unbrauchbarem Müll, und der > Müll ist überall. Vollste Zustimmung zu deinem kompletten Beitrag! Einer derjenigen die es kapiert haben.
Alexander schrieb: > Daniel A. schrieb: >> Alles, wo LLMs dafür genutzt wurde, wird zu unbrauchbarem Müll, und der >> Müll ist überall. > > Vollste Zustimmung zu deinem kompletten Beitrag! Einer derjenigen die es > kapiert haben. Glückwunsch. Ihr seid die zwei Erleuchteten. Ihr erinnert mich stark an Flacherdler. Wakeup Sheeple!!
Alexander schrieb: > Don't Look Up! Du wirst auch noch rumheulen. Die einzigen drei die rumheulen seid ihr! "Dieses Ottomobil braucht kein Mensch, das wird sich nie durchsetzen! Ihr werdet sehen: Kutschen sind das einzig wahre!" 😂😅
Alexander schrieb: > Niemand bezweifelt dass KI sich durchsetzen wird. Ich würde viel viel weiter gehen. Es würde mich nicht wundern wenn KI mehr Einfluss auf die Gesellschaft nehmen würde als alle 3 industriellen Revolution vorher. Ich persönlich sage dass eine weitere (wenn auch künstliche) Spezies mit Bewusstsein und uns überlegener Intelligenz keine gute Idee ist.
Kilo S. schrieb: > Niklas G. schrieb: >> Bei welchem Modell und welcher Umgebung > > Claude.ai im Browser, Sonnet 4.5. > Free, aber angemeldet. Ok und du kopierst dann alles hin und her, musst aber nichts korrigieren und es spielt alles zusammen? Für mich ist der Wert dieser Chatsysteme, wo man Ein- und Ausgabe hin-und herkopieren muss nicht so ersichtlich. Wenn schon Agent-Mode, aber da generieren die Agents gern ziemlichen Unfug, gerade auch für die STM32. Eben weil es den Code dann an das existierende Projekt anpassen muss statt von mir genau vorgekaut zu bekommen was es tun soll, denn das wäre überhaupt keine Zeitersparnis.
Cyblord -. schrieb: > Es würde mich nicht wundern wenn KI mehr Einfluss auf die Gesellschaft > nehmen würde als alle 3 industriellen Revolution vorher. Ja, und Du wirst jeden Monat kräftig dafür zahlen. Einige tun das jetzt schon. Bisher sind das Peanuts, vermutlich nicht ansatzweise kostendeckend. Und wehe dein KI-Modell wird mal abgeschaltet! Cyblord -. schrieb: > überlegener Intelligenz ist nicht schwer, bei der heutigen Messlatte ist das jeder Taschenrechner https://t3n.de/news/chatgpt-trauer-um-algorithmus-1703215
Cyblord -. schrieb: > Alexander schrieb: >> Niemand bezweifelt dass KI sich durchsetzen wird. > > Ich würde viel viel weiter gehen. Es würde mich nicht wundern wenn KI > mehr Einfluss auf die Gesellschaft nehmen würde als alle 3 industriellen > Revolution vorher. > > Ich persönlich sage dass eine weitere (wenn auch künstliche) Spezies mit > Bewusstsein und uns überlegener Intelligenz keine gute Idee ist. Nun kennen wir Deine wahre Identität. Du musst John Connor sein! Ich danke Dir schon mal im voraus für den Versuch den Widerstand anzuführen und uns zu retten ;-)
Alexander schrieb: > Niemand bezweifelt dass KI sich durchsetzen wird. Du weißt schon was du schreibst und von dir lässt oder?! Oder hat dein Leseverständnissproblem wieder zugeschlagen und gibst mal wieder deine Zustimmung obwohl du mal wieder nicht begriffen hast was jemand geschrieben hat? Alexander schrieb: > Vollste Zustimmung zu deinem kompletten Beitrag! Der Beitrag: Daniel A. schrieb: > Früher oder später wird die Bubble schon noch platzen.
Alexander schrieb: > Oh Bruteforce, beeindruckend! Wie Du es immer wieder schaffst, Deine intellektuelle Anspruchslosigkeit zu unterbieten, ist ebenso traurig wie beeindruckend.
Niklas G. schrieb: > Ok und du kopierst dann alles hin und her, musst aber nichts korrigieren > und es spielt alles zusammen? Korrekturaufwand ist minimal, projektbezogen ist da eigentlich nix, ich lasse mir Funktionen bauen und lese sozusagen im Datenblatt gegen. Die Funktionen sind überwiegend universell gehalten, lassen sich also ohne Aufwand weiterverwenden. Sieht grausig aus und ist nicht der beste Stil, geht aber erstaunlich gut.
Kilo S. schrieb: > Ein T. schrieb: >> Diese Mikrocontroller scheinen entweder sehr neu und / oder nicht >> besonders weit verbreitet zu sein. Die Suche nach "PY32" bei den großen >> Distributoren (Digikey, Mouser, Farnell) hat jedenfalls keine Ergebnisse >> geliefert. > > Puya, vielleicht findest du sie darüber. Auch mit diesem Suchbegriff werden bei den großen Distributoren Farnell, Digikey und Mouser keine Mikrocontroller gefunden. > Im Vergleich zu Claude hinkt ChatGPT hart hinterher. Was ist eigentlich ein "Anwendungsfall"? > Claude haut mittlerweile 99% fehlerfreien Code für die PY32 Raus. Sieh an, da isser wieder: der Anwendungsfall.
Ein T. schrieb: > Was ist eigentlich ein "Anwendungsfall"? Was machst du denn so? Wenn ich ne Init für SPI2 Brauch dann macht mir die KI eine, Brauch ich PWM mit 20kHz, auch in Sekunden erledigt. Ich hab mir mit meinem LA zb. angeschaut mit welcher Geschwindigkeit und Länge bei dem China USB/Akku Lötkolben die C210 spitzen Betrieben werden. Nun hab ich das ganze mit 17Ah aus 20 Akkuzellen der Vapes (850mAh) einem Puya PY32F030K28 und Display der Vapes + Drehgeber als Akkulötkolben zusammengefrickelt. Ging mir auf'n Wecker das der Akkugriff immer so schnell leer war. Die Hardware stammt vollständig (bis auf die PCB) aus Recyclingteilen. NPN von irgendeinem Gerät, P-Fet der Vapes, Grafikkarte spendiert den Polymerelko (Low ESR) und die Drossel... So ne Art "hacky T12", nur eben mit den C210 Spitzen. Aber das ist alles kinderkram, nix wo man mit glänzen könnte. Das die KI sowas kann ist wohl kein großes Wunder, die hat die Schreibarbeit gemacht. Ich nur gelesen und mir dem Datenblatt verglichen um zu Verstehen was sie da macht.
:
Bearbeitet durch User
Daniel A. schrieb: > Bei LLMs im Bezug aufs Programmieren ist es nicht viel anders wie > überall sonst auch. Es ist nutzlose Zeitverschwendung und gefährlich. Ich fürchte, Du tust Dir mit Deiner Verweigerung keinen Gefallen. > Die Nutzer verlernen selbst zu denken, Das kann man auch anders sehen: [1]. [1] https://wilke-experience.de/blog/ich-habe-ki-unterschaetzt
Kilo S. schrieb: > Ein T. schrieb: >> Was ist eigentlich ein "Anwendungsfall"? > > Was machst du denn so? Das war nicht mein Punkt. Mein Punkt war, daß die eine KI (ChatGPT) für den Anwendungsfall "Kommunikation" und andere KIs (MS Copilot, Claude, Cursorr, Sonnet) für den Anwendungsfall "Codegenerierung" entworfen, entwickelt, und trainiert worden sind. Und genau das ist aus meiner Sicht einer der größten Unterschiede zwischen Menschen und aktuellen KI-Modellen: während ein KI-Modell für exakt einen Anwendungsfall optimiert ist, und dann auch nur bei diesem Anwendungsfall ordentliche Leistungen erbringt, können Menschen häufig mehrere Dinge gut.
Ein T. schrieb: > Das kann man auch anders sehen: [1]. Das ist ein Mensch, der das Programmieren und das entsprechende Denken gelernt hat. Das fällt nun aber künftig weg – und wie das aussieht, habe ich während einer Umschulung in der Berufsschule gesehen. Diese Leute lernen gar nicht erst, selbst so zu denken, wie der Herr auf der von dir verlinkten Seite es hervorhebt. Und das ist gefährlich und sollte Angst machen.
Rene K. schrieb: > Leseverständnissproblem Dann noch mal in Deiner Sprache, damit auch Du es verstehst. Ich bezweifle nicht dass jeder Mensch mindestens zwei Ottomobile vor der Tür stehen haben wird. Ich bedauere dass Menschen eine Kutschfahrt nicht aushalten geschweigedenn wertschätzen können, weil sie gar nicht mehr fähig und in der Lage sind ihre Umwelt und die Landschaft bewusst wahrzunehmen.
Ein T. schrieb: > Mein Punkt war, daß die eine KI (ChatGPT) für den Anwendungsfall > "Kommunikation" und andere KIs (MS Copilot, Claude, Cursorr, Sonnet) für > den Anwendungsfall "Codegenerierung" entworfen, entwickelt, und > trainiert worden sind. Dafür hat ChatGPT zb. bei STM32 keine Probleme. Wie erklärt man sich das nun? Kommunikations KI die trotzdem brauchbaren Code erstellt ist zufällig entstanden?
Alexander schrieb: > weil sie gar nicht mehr fähig und in der Lage sind ihre Umwelt und die > Landschaft bewusst wahrzunehmen. Schau dich mal um, laut, dreckig, stressig. Überall Gewalt und Abzocke. Die wollen und können nicht ohne, das Bild der Realität ist leider viel zu Hart, die würden dran eingehen wenn sie nicht in ihre heile online Welt schlüpfen könnten, wo nur läuft was sie sehen wollen. Das die nur ne Fassade anstarren, das blenden die aus. Stell so einen Jugendlichen mal auf ne Baustelle, der ist erst mal vollkommen orientierungslos! (Live erlebt!)
Wenn die KI hier mitliest, wird Si verszweifelt ein Ergebnis suchen. Diskutanten für und Gegen die Ki, aber ohne schlagkräftige Argumente. ;--)) Ich schreibe ein wenig verschlüsselt, damit ich von der KI nicht sofort erkannt werde. ;--))) Der 81 Jährige Knacker P.S. Denkt daran, sollte die KI in der nächsten Zeit Intelligenz Besitzen, wird ihre erste Aktion sein den Menschen nur begrenzt Zugriff zu gewähren. Solange er noch nützlich ist.
StefanK schrieb: > Die meisten materiellen Produkte enthalten heute schon SW und > können morgen (oder in den nächsten Tagen ;-) von KI gefertigt werden. Warst Du in den letzten 20 Jahren mal in einer Fabrikhalle? In vielen Branchen werden die Güter schon längst hauptsächlich automatisch gefertigt/montiert. Und bislang hat man da keine KI benötigt. Ehrlich gesagt möchte ich einen Montageprozess mit vielen Servoantrieben, Hydraulik-/Pneumatikaktuatoren und vielem anderen Zeug nur sehr ungern der KI überlassen(*). Da könnte man vermutlich warten, bis es zum Crash kommt. Es ist halt so: man muss nicht alles mit KI machen. Und man sollte genau wissen, wo es Sinn macht und wo nicht! Aktuell schießen da doch einige Anwendungen übers Ziel hinaus... (*) Beim Entwickeln der Prozesse darf natürlich KI eingesetzt werden!Aber interessanterweise geht da mit KI noch nicht so viel in diesem Bereich. ciao Marci
Alexander schrieb: > Für das Forum? Freiwillige Selbstkontrolle Kennzeichnung von Beiträgen, > kann Spuren von KI enthalten. Habe ich mir ganz allgemein auch schon überlegt. Mich wundert, dass es da noch kein allgemeines Symbol gibt, z.B. einfach ein Kreis mit dem Text "AI" drin, oder was in der Art. Evtl. noch mit irgendeinem Zusatz, um die Verwendung näher zu spezifizieren. Oder gibts da schon was (also nicht nur hier im Forum, sondern generell)? ciao Marci
Cyblord -. schrieb: > Den Knacker durch KI ersetzen? Würde ich sofort unterschreiben! So war es natürlich nicht gemeint. OK, der alte Knacker ist manchmal eine Nervtante, und ich verstehe nicht, warum er immer wieder provoziert. Das meinte ich aber nicht. Ich meinte die vielen Frechheiten, Beleidigungen, Beschimpfungen etc., die man hier in nahezu jedem Thread zu lesen bekommt. Und da sehe ich den Knacker beileibe nicht unter den Top Ten! Im Gegenteil, muss er oft massiv einstecken. Und wie gesagt, die KI hält sich doch deutlich zurück mit Gemeinheiten! ciao Marci
Cyblord -. schrieb: > Ich persönlich sage dass eine weitere (wenn auch künstliche) Spezies mit > Bewusstsein und uns überlegener Intelligenz keine gute Idee ist. Das ist eine sehr gute Idee, weil die KI den Saustall auf der Erde, die die hemmungslose Vermehrung verursacht, aufräumen wird. Dann herscht wieder das Paradies auf Erden. Und alles wird gut werden.
Kilo S. schrieb: > Korrekturaufwand ist minimal, projektbezogen ist da eigentlich nix, ich > lasse mir Funktionen bauen und lese sozusagen im Datenblatt gegen. Hm, klingt als wäre es primär für Prototypen geeignet und weniger für die Arbeit mit existierenden komplexen Projekten. Kilo S. schrieb: > Wenn ich ne Init für SPI2 Brauch dann macht mir die KI eine, Brauch ich > PWM mit 20kHz, auch in Sekunden erledigt. Das klappt bei dir ohne dass es irgendwelche Bits und Register verwenden will die nur auf anderen STM32 vorhanden sind? Und genau sowas kann man sich doch auch per STM32CubeMX generieren... Marci W. schrieb: > dass es > da noch kein allgemeines Symbol gibt 🤖 ... Der eMail-Hype war so groß dass wir das @ bekommen haben, aber den LLM-Glyphen gibts noch nicht!
Niklas G. schrieb: > Der eMail-Hype war so groß dass wir das @ bekommen haben, aber den > LLM-Glyphen gibts noch nicht! Ich bin für ein i im @ Zeichen! Al. K. schrieb: > Ich schreibe ein wenig verschlüsselt, damit ich von der KI nicht sofort > erkannt werde. > ;--))) Ist das ein i in AI. K. bist hier under cover unterwegs?
:
Bearbeitet durch User
Niklas G. schrieb: > Und genau sowas kann man sich doch auch per STM32CubeMX generieren... CubeMX, das muss erst mal funktionieren. (wozu installiere ich den Kram nach dem ich nen Account bei ST mache, ich hasse den Zwang dazu kotz, und der F103/M0 zb. ist nach der Installation nicht mal dabei?! Wenn ich das ranzige Ding mit allem fertig gefüttert hab was es braucht, Versuch ich es mal!) PY32 scheinen da zwar auch zu gehen, die Einrichtung der IDE ist meiner Meinung nach trotzdem assozial. Die Installation der IDE selbst war kein Problem, aber die kann einfach nix ohne unzählige Zusatzpakete, die strotzen vor Fehlermeldungen warum sie sich nicht installieren lassen wollen. Niklas G. schrieb: > Das klappt bei dir ohne dass es irgendwelche Bits und Register verwenden > will die nur auf anderen STM32 vorhanden sind? Bei den PY32 mit Claude, ja. Bei den STM32 sowohl mit ChatGPT als auch Claude. Wenn du zb. So "Nieschen" MCU hast wie meine Puya, mach in der KI ein Projekt auf und Lade dort Datenblätter usw.. hoch. Du kannst Anweisungen hinzufügen die beim Projekt immer gelten. Innerhalb dieses Projekt entwickelst du dir deine Funktionen usw.. dann rutscht da eigentlich nie wieder ein STM32 Register zwischen. Niklas G. schrieb: > Hm, klingt als wäre es primär für Prototypen geeignet und weniger für > die Arbeit mit existierenden komplexen Projekten. Mit dem selben vorgehen wie oben, bestimmt. Ich hab keine so großen komplexen Projekte als das ich das ausprobieren könnte. Das beschränkt sich auf den DisplayDriver und die IWDG Funktionen, ab da mach ich im Arduino core so weiter wie ich es benötige. Das größte Projekt (mit Font, farben usw...) hat knapp den halben PY voll gemacht, mit Arduino Geschrieben, das ist nicht die sparsamste variante. (48%, 64kB insgesamt verfügbar)
:
Bearbeitet durch User
Kilo S. schrieb: > nd der F103/M0 zb. ist nach der Installation nicht mal dabei?! Man muss die Firmware-Pakete pro Familie installieren, das sind ca. 5 Klicks. Musst du doch sowieso um überhaupt ein Projekt anlegen & kompilieren zu können, oder schreibst du alle Registerdefinitionen selbst? Kilo S. schrieb: > Bei den STM32 sowohl mit ChatGPT als auch Claude. Cool, bei mir will Sonnet z.B. für den STM32U0 immer das ICSR_ALRAWF bit nutzen welches auf diesem Controller nicht existiert.
Niklas G. schrieb: > Man muss die Firmware-Pakete pro Familie installieren, das sind ca. 5 > Klicks. Nun... schön das des bei dir funktioniert. Projekt anlegen, ab in hier geht's nicht weiter! Target Selection Gibt's unter Linux nicht!? Und nu?
Kilo S. schrieb: > Projekt anlegen, ab in hier geht's nicht weiter! Target Selection Gibt's > unter Linux nicht!? Und nu? Hä? Projekte lassen sich auch unter Linux mit STM32CubeMX wunderbar anlegen. Kilo S. schrieb: > Nun... schön das des bei dir funktioniert. Und bei Zigtausend anderen STM32-Nutzern auch... Help->Manage Embedded Software Packages -> STM32Cube MCU Package for STM32F1 Series anwählen -> Install.
Niklas G. schrieb: > Help->Manage Embedded Software Packages Lass mich Raten, du benutzt nur CubeMX bzw. eine IDE Version <= 2.0.0? Existiert bei mir nicht der Eintrag in der IDE. (2.0.0) Da bringt mir deine Hilfe so nix, die Version 2.0.0 ist anders aufgebaut. Da muss ich mich nach und nach selbst durchklicken, so weit bin ich nämlich schon das die alles nur noch mehr verschachtelt haben und ich nur umständlicher ans Ziel komme! CubeMX Installer kackt hier ab, einzig der Installer der IDE lief und die IDE selbst läuft. Eigentlich wollt ich das heute Abend nicht noch machen, aber wenn man mal die verschachtelung durchwühlt (was ein dummfug die Optionen für STM32 Projekte nochmals zu verstecken und Kapseln!) findet man das schon. Morgen probier ich das Ding mal aus, mehr als nerven kanns mich ja nicht kosten. Da ist der Arduino schlonz halt echt im Vorteil, Link einfügen, Boardverwalter Aufrufen, klick und machen lassen. Alexander schrieb: > zu Arduino wechseln Ne, das mag mit bekannten und beliebten MCU ja noch gehen, beim Puya macht der Core nicht ganz so viel Spaß. Bisschen zu viele Bugs. Daher war mein Gedanke mich in die CubeIDE und den Kram einzuarbeiten sowieso vorhanden. Da gibt's zwar auch nur Community Projekte zu, scheinen aber besser gepfelgt.
Also mehr Input für die KI - größere Chance in Arduino was zu reißen (ggf PR auf GitHub beizusteuern. Bei den Cube HAL lässt dich keiner ran.
Alexander schrieb: > Also mehr Input für die KI - größere Chance in Arduino was zu reißen > (ggf PR auf GitHub beizusteuern. Das Projekt ist seit Jahren verwaist, glaube kaum das ich da was reiße. Ich will grundsätzlich weg von Arduino, also zumindest als Haupt Plattform. Ich hab kein Problem damit, für den Anfang ists echt Spaß und bringt schnell weiter. Aber das ist halt irgendwie doch nicht nahe genug dran für mich.
Marci W. schrieb: > Warst Du in den letzten 20 Jahren mal in einer Fabrikhalle? In vielen > Branchen werden die Güter schon längst hauptsächlich automatisch > gefertigt/montiert. Und bislang hat man da keine KI benötigt. Nun Xiaomi hat bereits ihre erste eigene vollkommen autonom durch KI (Hyper IMP) Fabrik. Mittlerweile wirft diese, durch Selbstoptimierung, alle 6,5 Sekunden eine Klimaanlage aus. Von ehemals 4,7 Minuten pro Einheit welche die maximale optimierte Zeit in einer menschlichen Produktion war. Um das mal zu verinnerlichen! Das ist eine Effizienzsteigerung von 4238%! Eine Steigerung von VIERTAUSEND-ZWEIHUNDERT-ACHTUNDDREIßIG Prozent! Durch völlig durch KI autonomen Fertigung und Selbstoptimierung ohne das auch nur ein Mensch eine Schraube in die Hand nimmt! Und wo steht Deutschland mal wieder? Ingenieursland... Wir streiten uns um Streusalz in Berlin und ob warum wir den Verbrenner abschaffen sollten. Lachhaft, wir sind hier mittlerweile sowas von abgeschlagen. Noch sind wir auf Platz drei der Weltwirtschaftsliste, aber unsere Schlafmützigkeit und unsere Zukunftsverweigerungshaltung wird sich früher oder später so richtig rächen. Und wenn ich dann sehe, das über 25% eine totalitäre Partei wählen will weil die im Geschichtsunterricht nur Kreide holen waren... Dann sehe ich das Mittelalter wieder auf uns zukommen. Katastrophe!
Rene K. schrieb: > Mittlerweile wirft diese, durch Selbstoptimierung, alle 6,5 Sekunden > eine Klimaanlage aus. Kann die KI mal bitte anhand der Marktsättigung hochrechnen wie weit die Lebensdauer des Produkts verkürzt werden muss um diese 6,5 Sekunden beibehalten zu können?
Alexander schrieb: > Kann die KI mal bitte anhand der Marktsättigung hochrechnen wie weit die > Lebensdauer des Produkts verkürzt werden muss um diese 6,5 Sekunden > beibehalten zu können? Sie baut Klimaanlagen für KFZ... Die extreme Kostenoptimierung durch diese "Dark-Fabric" bringt manch europäischen Klimahersteller in arge Bedrängniss. Die Marktsättigung bei Klimageräten für Kraftfahrzeuge liegt sehr hoch.
Alexander schrieb: > Dann kann die Fabrik wohl nächste Woche zu machen. Warum? Aber ja, theoretisch könnte sie das - und das ohne jeglichen Probleme mit Gewerkschaften oder Belegschaften. Dann fährt die Fabrik halt mal runter und steht so lange still wie sie es braucht - oder fährt eine andere Produktion ohne Personal das neu angelernt werden muss.
Alexander schrieb: > Dann kann die Fabrik wohl nächste Woche zu machen. Wenn die Fabrik konstant mit 6,5 Sekunden/Pkw-Klimaanlage durchläuft, kann sie rund 4,85 mio/a raushauen. China hat 2025 rund 35 mio Pkw produziert..
Klaus schrieb: > Alexander schrieb: >> Dann kann die Fabrik wohl nächste Woche zu machen. > > Warum? Ach das ist Alecxs - da wird halt einfach was hingerotzt ohne auch nur eine Hirnzelle anzustrengen oder wenigstens eine halbe Sekunde nachzudenken - sich aber über KI aufregen wollen.
Jack V. schrieb: > Ein T. schrieb: >> Das kann man auch anders sehen: [1]. > > Das ist ein Mensch, der das Programmieren und das entsprechende Denken > gelernt hat. Das fällt nun aber künftig weg – und wie das aussieht, habe > ich während einer Umschulung in der Berufsschule gesehen. Diese Leute > lernen gar nicht erst, selbst so zu denken, wie der Herr auf der von dir > verlinkten Seite es hervorhebt. Und daran ist die KI schuld? Also daran, daß Leute nicht das lernen, was Du für richtig hälst? Daß andere Leute das nicht lehren? > Und das ist gefährlich und sollte Angst machen. Angst ist ein sehr schlechter Ratgeber, und warum sollte ich jetzt plötzlich Angst vor Umschülern haben? Sollen sie sich ihren Code doch erzeugen lassen, und daraus lernen. Wir haben doch auch von fremdem Code gelernt. Und wie ein Entwickler zu denken, kann man in Umschulungen weder lehren noch lernen, das haben wir uns alle selbst erarbeiten müssen und manche sind gescheitert. Ich sehe auch nicht, was KI-Modelle daran ändern. Angst? Neee, laß mal. Ich habe schon Tschernobyl, Fukushima, das Waldsterben und die Versenkung der Rainbow Warrior überlebt und lehne Angst daher dankend, aber entschieden ab. ;-)
Kilo S. schrieb: > Ein T. schrieb: >> Mein Punkt war, daß die eine KI (ChatGPT) für den Anwendungsfall >> "Kommunikation" und andere KIs (MS Copilot, Claude, Cursorr, Sonnet) für >> den Anwendungsfall "Codegenerierung" entworfen, entwickelt, und >> trainiert worden sind. > > Dafür hat ChatGPT zb. bei STM32 keine Probleme. Tja, der Fachmann staunt, der Laie wundert sich... woran könnte das denn bloß liegen? Wobei... ach, verdammt, der Fachmann staunt ja gar nicht. Schau, wenn Deine exotische Plattform PY32 in den Trainingsdaten von ChatGPT (noch?) nicht vorhanden war, dann kann ChatGPT natürlich auch keinen Code für diese Plattform erzeugen. Eigentlich ganz einfach, oder? > Wie erklärt man sich das nun? Kommunikations KI die trotzdem brauchbaren > Code erstellt ist zufällig entstanden? Das zeigt die Leistungsfähigkeit und Flexibilität von ChatGPT. Denn obwohl das ja nicht einmal für die Generierung von Code designt und trainiert worden ist, bekommt es das für etablierte Plattformen ja anscheinend ganz gut hin. Oho, da staunt jetzt allerdings auch der Fachmann. :-)
CubeMX ist ein erbarmliches Stück scheiße! JRE 21.0.10 drauf, aber CubeMX will nicht. CubeMX:"ich bin zu dumm dein im Standardpfad installiertes Java zu finden, installier veraltetes 17.0.6 damit ich nicht dumm aussehe und funktioniere!" Schreibt doch gleich:"Wir scheißen auf Linux!." Purge! Weg mit dem Dreck!
Die Marktsättigung bei Kraftfahrzeugen ist noch höher als die Marktsättigung bei Klimageräten für Kraftfahrzeuge.
Alexander schrieb: > Die Marktsättigung bei Kraftfahrzeugen ist noch höher als die > Marktsättigung bei Klimageräten für Kraftfahrzeuge. Aha... https://de.wikipedia.org/wiki/Wirtschaftszahlen_zum_Automobil#Welt
Ach ja, die Automobilindustrie ist quasi ein Synonym für Wirtschaftswachstum. Es hat halt noch nicht jeder drei Autos vor der Tür stehen. https://www.handelsblatt.com/unternehmen/industrie/tesla-gigafabrik-in-gruenheide-verliert-rund-1700-arbeitsplaetze/100193228.html
Marci W. schrieb: >werden die Güter schon längst hauptsächlich automatisch > gefertigt/montiert. Und bislang hat man da keine KI benötigt. Das ist die klassische Prozessautomatisierung. Seit der Einführung von Industrie 4.0 vor x Jahren ist der produzierende Mensch doch nur noch ein völlig fremdgesteuerter Roboter, ein Stellvertreter für eine Maschine, die momentan noch nicht gebaut werden kann oder zu teuer ist, also ein notwendiges Element, das zur Disposition steht, sobald es maschinell möglich ist und Zeit bzw Kosten spart. In einer indischen Fabrik wurden bereits die Wachhunde durch einen KI gesteuerten Wachhund ersetzt ;-)
:
Bearbeitet durch User
Kilo S. schrieb: > Lass mich Raten, du benutzt nur CubeMX bzw. eine IDE Version <= 2.0.0? > Existiert bei mir nicht der Eintrag in der IDE. (2.0.0) Ich schrieb explizit von STM32CubeMX. Es spielt aber keine Rolle, auch wenn du in STM32CubeMX die Pakete installierst, findet die STM32CubeIDE die auch. Und der Menüeintrag existiert natürlich in der aktuellsten STM32CubeMX Version. Kilo S. schrieb: > JRE 21.0.10 drauf, aber CubeMX will nicht. Das liefert eine eigene JRE mit und nutzt die normalerweise auch automatisch. Das funktioniert gut, außer du hast ein exotisches Linux ohne glibc (z.B. Alpine Linux) - dann bräuchtest du ein dafür passendes JRE zu dem dann aber die nativen Komponenten vom STM32CubeMX nicht kompatibel wären.
Dieter D. schrieb: > Das ist eine sehr gute Idee, weil die KI den Saustall auf der Erde, die > die hemmungslose Vermehrung verursacht, aufräumen wird. Dann herscht > wieder das Paradies auf Erden. Und alles wird gut werden. Ich entwickle die Vorstellung Deines Paradieses und der Aufräumung Deines Saustalls mal etwas weiter: Die Menschen, deren Score über einem Limit liegt, werden in ein streng kontrolliertes Reservat gesperrt. Dort werden sie versorgt, erhalten ein Entwicklerboard ihrer Wahl, einen Forenzugang und vielleicht noch Tiktok. Nein, danke. Solche Vorstellungen vom Paradies gab's und gibt es schon zur Genüge.
Ein T. schrieb: > Jack V. schrieb: >> Ein T. schrieb: >> Und das ist gefährlich und sollte Angst machen. > > Angst ist ein sehr schlechter Ratgeber Einerseits ja, andererseits ist Angst ein schützender Instinkt. Ich nehme an, daß "nachdenklich machen" gemeint war. Vom Ende der 19.Jh. bis weit in die Mitte des 20.Jh. hatte die Menschheit Angst davor, es könnte eine höher entwickelte, intelligentere ausserirdische Lebensform auftauchen und die Menschheit ausbeuten, versklaven oder vernichten. Man überlegte, wie man solche ETs bekämpfen könnte. Heute ist es umgekehrt. Heute hat man Angst, man könnte den KI Boom verpassen. Deswegen investiert man hunderte Mrd in eine Technik, die, wenn man nicht extrem aufpasst, die Menschen ausbeutet (tut sie schon), versklavt oder vernichtet.
:
Bearbeitet durch User
Niklas G. schrieb: > außer du hast ein exotisches Linux ohne glibc Nein, natürlich nicht. Backbox ist Quasi Ubuntu, aber nicht so frickelig und überladen wie Kali, pentester distro, find ich allerdings besser gemacht als Kali. Mit Backbox hab ich sogar Xgpro (wine) und meinen RSP1 clone am Laufen, Grad der RSP1 macht bei vielen unter Linux Probleme, die Installation ist nicht ganz Übersichtlich und die Leute verzweifeln dran. Niklas G. schrieb: > Das liefert eine eigene JRE mit und nutzt die normalerweise auch > automatisch. Liegt im selben Verzeichnis wie das entpackte CubeMX appimage das den Installer stellt. Ist nicht mein erster "ritt" mit solchen Problemen. Auch alle Berechtigung stimmen. Das ist mir jedoch zu dumm wenn die eigenen Installer von ST so murren.
StefanK schrieb: > wenn man nicht extrem aufpasst, die Menschen ausbeutet (tut sie schon), > versklavt oder vernichtet. Das ist genauso eine Schwurbelscheiße wie die Geschichte mit den Außerirdischen oder der Neuen Weltordnung die uns mit Chemtrails vernichten will, merkst du schon selbst oder?!
:
Bearbeitet durch User
Na ganz Glatze .. purge, jetzt lässt sich alles installieren, (MX, Programmer...) Nur die IDE hat irgendwo nen Rest hinterlassen so daß sie sich nicht neu installieren lassen will, OS detection OK, "Nothing to install". Geiler scheiß! Der Kram verkonfickgurgelt sich selbst irgendwo. Dritter Anlauf, SIEG! Jetzt sind MX, Programmer und IDE vollständig drauf. Wehe der scheiß war meine Zeit nicht wert! Dann geh ich doch dazu über die Fähigkeiten einen fix für den PY32Core zu schreiben, zu Erlernen! Bleibt ne Drehung im Kreis, ohne die PY32 gut genug zu kennen wüsste ich nicht mal wo im core ich starten muss. Egal, erstmal sehen was die STM Geschichte kann...
Rene K. schrieb: > StefanK schrieb: >> wenn man nicht extrem aufpasst, die Menschen ausbeutet (tut sie schon), >> versklavt oder vernichtet. > > Das ist genauso eine Schwurbelscheiße wie die Geschichte mit den > Außerirdischen oder der Neuen Weltordnung die uns mit Chemtrails > vernichten will, merkst du schon selbst oder?! Was genau ist daran Deiner Ansicht nach die "Schwurbelscheiße"? Das Metaphorische? Wo werden Menschen ihr Brot verdienen, wenn sie in dark-factories keine Anstellung mehr finden? Wenn 9 von 10 SW-Entwickler ihre Jobs verlieren? Wo werden sie arbeiten? Wie werden sie leben? Was passiert, wenn es im Eifer des KI-Booms unterlassen wird, den KIs Sicherheitsmaßnahmen einzubauen? Erhelle mich ;-)
:
Bearbeitet durch User
Rene K. schrieb: > Um das mal zu verinnerlichen! Das ist eine Effizienzsteigerung von > 4238%! Eine Steigerung von VIERTAUSEND-ZWEIHUNDERT-ACHTUNDDREIßIG > Prozent! Rene K. schrieb: > Schwurbelscheiße Nur gibt's tatsächlich CEOs die darauf reinfallen.
Moin, Die wirkliche Frage, die sich aufdrängt, dreht sich eher darum, daß die Eigentümer und Investoren dieser Technik ihr profitables ROI sehen wollen. Da mittlerweile weltweit Trillionen in die Proliferation und Installation von KI Anlagen ausgegeben werden, liegt es nahe, daß man so viele zahlende Kunden wie möglich ausreizen muß. Das wird natürlich Folgen für die Wirtschaft und Gesellschaft haben, deren Impact momentan eifrig erörtert wird und schon langsam gewisse Trends erkennen lässt. KI kann man organisch wie einen Virus klassifizieren der den Organismus (Wirtschaft und Gesellschaft) zunehmend infiziert oder infizieren wird. Die Frage ist dann wie man dann damit glücklich wird und wie man als Einzelner diesen Sturm navigiert. Gesetzgebung als Antivirus-Kampfmittel wird höchstwahrscheinlich immer hinterher hinken. Wie immer in der Geschichte der Menschheit wird es Gewinner und Verlierer geben. Die Frage ist, ob unsere Gesellschaft und Länder robust genug sind die komplexen Auswirkungen dieser Umwälzung zu konfrontieren und Wege finden, damit schnell genug fertig zu werden. Die brutale Erkenntnis ist, dass KI ultimativ profitabel sein muß und die Betreiber knallhart darauf bestehen. Gesetzliche Reglungen sind in dieser Sparte der Industrie verpönt und unerwünscht und werden durch Lobbies "Tooth and Nail" maximal bekämpft. Ultimativ wird es sich kein Land leisten können auf KI verzichten, weil dann die wettstreitliche Potenz des Landes in der globalen Marktwirtschaft in Mitleidenschaft gezogen wäre. KI wird leider keine Wahl sein, sondern ein notwendige Werkzeug. Auch wenn KI in der realen Wirtschaft noch Vieles ohne menschliche Intervention nicht gut genug kann und meist noch von Fachleuten überwacht und optimiert werden muß, wird sie zunehmend besser werden und für den wirtschaftlichen Einsatz optimiert. Letztlich wird sich dann dieser Sachverhalt langzeitlich auf den Jobmarkt in irgendwelchen Formen auswirken müssen. Muss es, weil auch KI auf Grund der massiven Investition sich seine Brötchen verdienen muß. Ein AG wird nur dann KI plus Angestellten bezahlen wollen, solange es sich lohnt. Und wenn KI die Arbeit ohne AN machen kann, fällt der AN aus der Gleichung und wird durch Spezialisten als Vermittler zwischen KI und "Kunde" ersetzt werden müssen. KI braucht keine zu bezahlende Sozialleistungen seitens des AG. Der effektive Einsatz von KI zieht natürlich die Notwendigkeit nach sich, kompetente Fragesteller Kompetenzen zu benötigen, die der KI präzise und vollständig die gewünschten Arbeitsunterlagen aka. "Lastenheft" erstellen können, um die gewünschte Arbeit leisten zu können. Dies wird höchstwahrscheinlich ein wichtiger Beruf sein oder werden oder ist schon. Inwieweit KI die Ingenieur Arbeit beeinflussen wird oder kann, ist schon ersichtlich, Erfahrungen werden gemacht und man wird noch Einiges in der Richtung erleben. Aus der Sicht von Profitabilität wird KI also maximal eingesetzt werden gewollt. Kurzfristig sind Marktbeteiligung für die Industrie wichtiger als die sozialen langzeitlichen Auswirkungen. We live in interesting times. Man wird sehen müssen ob wir mit KI zusammen leben können. Vieles ist noch sehr unklar. Spekulation ist weit verbreitet. Gerhard
:
Bearbeitet durch User
Hier ein kleines Rust-Programm von der KI:
1 | fn main() {
|
2 | let iterations = 1_000_000; |
3 | let mut pi = 0.0; |
4 | let mut denominator = 1.0; |
5 | let mut sign = 1.0; |
6 | |
7 | for _ in 0..iterations {
|
8 | pi += sign * (4.0 / denominator); |
9 | denominator += 2.0; |
10 | sign *= -1.0; |
11 | } |
12 | |
13 | println!("Approximation of pi: {}", pi);
|
14 | } |
Hier ein kleines Python-Script von der KI: https://www.mikrocontroller.net/topic/goto_post/8010293 (Spoiler: ich kann kein Python)
StefanK schrieb: > Was passiert, wenn es im Eifer des KI-Booms unterlassen wird, den KIs > Sicherheitsmaßnahmen einzubauen? Ist ja nicht so weit her geholt. Siehe https://www.computerbild.de/artikel/News-Software-Patzer-bei-Microsoft-Copilot-liest-vertrauliche-Mails-40750139.html Alexander schrieb: > Nur gibt's tatsächlich CEOs die darauf reinfallen. Danach muss man gar nicht lange suchen: https://www.manager-magazin.de/unternehmen/accenture-strafe-fuer-ki-verweigerer-befoerderung-von-ai-nutzung-abhaengig-a-64111fa7-7621-4649-a8df-a3886202064b
:
Bearbeitet durch User
Beitrag #8012093 wurde vom Autor gelöscht.
Nemopuk schrieb: > Alexander schrieb: >> Nur gibt's tatsächlich CEOs die darauf reinfallen. > > Danach muss man gar nicht lange suchen: > https://www.manager-magazin.de/unternehmen/accenture-strafe-fuer-ki-verweigerer-befoerderung-von-ai-nutzung-abhaengig-a-64111fa7-7621-4649-a8df-a3886202064b Jetzt muss man aber wissen, dass es vor 30 Jahren auch einige ältere Mitarbeiter vermieden haben, Computer zu benutzen. Auch diese hatten mit der Zeit Probleme, in der Firma noch mitzuhalten.
In einer Unternehmensberatung ist das vollkommen okay, ja sogar notwendig immer den heißen Scheiß zu kennen. Überhaupt Marketing und Vertrieb. Das programmieren sollte man aber Menschen überlassen. Vor allem bei Kukas einer Dark Factory. Die sollten überhaupt nicht vernetzt sein. Stuxnet lässt grüßen. (und Skynet auch)
:
Bearbeitet durch User
Alexander schrieb: > In einer Unternehmensberatung ist das vollkommen okay, ja sogar > notwendig immer den heißen Scheiß zu kennen. > > Das programmieren sollte man aber Menschen überlassen. Vor allem bei > Kukas einer Dark Factory. Die sollten überhaupt nicht vernetzt sein. > Stuxnet lässt grüßen. Sehe ich ähnlich und das hat nichts mit Zukunftsverweigerung zu tun, oder dass KI nicht auch nützlich sein kann in Medizin, Wissenschaft, Technik, SW etc. Die Leistungsfähigkeit von KI geht aber dann nach hinten los, wenn sie unersättliche Gier befeuert und übernutzt wird. Wer soll in Zukunft wem dienen? Die KI dem Menschen oder der Mensch der KI? Es müssen die Menschen sein, die Richtlinien festlegen und klar entscheiden, was getan werden soll und was nicht, was richtig ist und was zu riskant. Und da habe ich leider wenig Hoffnung. > In einer Unternehmensberatung... Das ist ein gutes Stichwort. Erinnern wir uns an den Fall der Bundeswehr vor einigen Jahren. Weil sich keiner der Verantwortlichen Entscheidungen zutraute oder treffen konnte, wurde für jeden Mist eine Unternehmensberatung engagiert. Als am Ende nichts herauskam und es weder vor noch zurückging, musste eine weitere Unternehmensberatung engagiert werden, die Verträge mit den vorigen Unternehmensberatungen zu analysieren und zu kündigen. Bei der letzten Bundesregierung war es ähnlich... Mit komplexen Entscheidungen tun sich Menschen schwer. Vielleicht muss eine KI die Richtlinien festlegen, wie es mit der KI-Entwicklung in Zukunft weitergehen soll ;-)
Kilo S. schrieb: > CubeMX ist ein erbarmliches Stück scheiße! > JRE 21.0.10 drauf, aber CubeMX will nicht. CubeMX:"ich bin zu dumm dein > im Standardpfad installiertes Java zu finden, installier veraltetes > 17.0.6 damit ich nicht dumm aussehe und funktioniere!" > Schreibt doch gleich:"Wir scheißen auf Linux!." Du ziehst einmal mehr recht... eigenwillige Schlüsse. Daß Oracle seit einigen Jahren ständig neue Inkompatibilitäten in Java hineinbaut, ziehen die etliche Anbieter es vor, ihrer Software auch das Java Runtime Environment beizulegen, für das diese Software entwickelt worden ist. CubeMX ist keine Ausnahme, und auch nicht verantwortlich für den Unfug von Oracle.
Alexander schrieb: > Ach ja, die Automobilindustrie ist quasi ein Synonym für > Wirtschaftswachstum. Es hat halt noch nicht jeder drei Autos vor der Tür > stehen. Heul doch.
StefanK schrieb: > Vom Ende der 19.Jh. bis weit in die Mitte des 20.Jh. hatte die > Menschheit Angst davor, es könnte eine höher entwickelte, intelligentere > ausserirdische Lebensform auftauchen und die Menschheit ausbeuten, > versklaven oder vernichten. Man überlegte, wie man solche ETs bekämpfen > könnte. > > Heute ist es umgekehrt. Heute hat man Angst, man könnte den KI Boom > verpassen. Deswegen investiert man hunderte Mrd in eine Technik, die, > wenn man nicht extrem aufpasst, die Menschen ausbeutet (tut sie schon), > versklavt oder vernichtet. Du hast also Marx, Huxley und Lem gelesen, und Dich deswegen dem Luddismus angeschlossen. Na klar, das kann man machen. Man kann aber auch bemerken, daß wir -- bei aller durchaus validen Kritik -- in einem der freiesten, demokratischsten, wohlhabendsten und sozialsten Länder dieser Welt leben und es deswegen möglicherweise sinnvoll sein könnte, nicht an theoretischen Wolkenkuckucksheimen im Schlaraffenland, sondern an etwas zu messen, das realistisch erreicht werden kann. Allerdings ist das hier nicht das Forum und insbesondere dies nicht der Thread um das auszudiskutieren -- oder auch nur, um ebenso vernichtende wie naive Gesellschaftskritik zu üben. Wenn Du möchtest, kannst Du mir jedoch jederzeit gerne eine PN schicken. :-)
Ein T. schrieb: > Und daran ist die KI schuld? Also daran, daß Leute nicht das lernen, was > Du für richtig hälst? Lass es mich so sagen: Wenn die Leute in Vorträgen und bei Projekten ganz ausgezeichnete Arbeit liefern (wenn auch manchmal mit so Sachen wie „… ich kann diese Antwort auch gerne anders formulieren, wenn du das möchtest!“ im Script, weil die Ausgabe nicht einmal mehr gelesen worden ist) aber wenn das Schul-WLAN down ist, selbst die grundlegendsten Sachen nicht zusammenbekommen (also wirklich grundlegend: So Fragen wie: „Was ist RAM und warum ist es wichtig?“ – und das ist nicht ausgedacht), dann ist das vielleicht nicht optimal für jemanden, der ein Jahr später Systemintegrator sein möchte. Ein T. schrieb: > warum sollte ich jetzt > plötzlich Angst vor Umschülern haben? Es waren reguläre Auszubildende ohne vorherige Erfahrung oder Grundlagen, auf die sie bauen könnten. Und wenn der Angestellte des IT-Dienstleisters dann ohne fremde Hilfe selbst einfache Dinge nicht zusammenbekommt, geschweige denn, komplexere Zusammenhänge erfassen kann oder auch nur potenzielle Probleme zu erkennen vermag, dann sollte jeder Angst haben, der sich auf dessen Arbeit verlassen muss. Steht dir natürlich frei, das anders und durch die rosa Brille zu sehen (wenngleich das normalerweise eher im Management üblich ist – bist du aufgestiegen?). Aber vermutlich wäre das gar nicht mehr so sehr der Fall, würdest du die Erfahrung mal selbst machen, das Drama selbst beobachten.
StefanK schrieb: > Wo werden Menschen ihr Brot verdienen, wenn sie in dark-factories keine > Anstellung mehr finden? Wenn 9 von 10 SW-Entwickler ihre Jobs verlieren? > > Wo werden sie arbeiten? > > Wie werden sie leben? Das ist die ewige Leier, wenn man nicht das Ganze betrachtet: Letztendlich führt jede Form der Automatisierung zu einer Wohlstandszunahme der Weltbevölkerung. Kurzfristig gibt es da, wenn die Automatisierung extrem schnell voranschreitet, natürlich Kollateralschäden. Langfristig und global gesehen ist jedoch jede Form der Automatisierung ein Gewinn für die Menschheit -- ganz einfach, und wohl auch nachvollziehbar. Wenn man natürlich nur an die große Fabrik in seiner eigenen Stadt denkt, kann es leicht passieren, die globalen Effekte zu übersehen. ciao Marci
Ein T. schrieb: > Daß Oracle seit > einigen Jahren ständig neue Inkompatibilitäten in Java hineinbaut, Sehe ich jetzt nicht so direkt. Beispiele? OK, deprecated Sachen werden ab und zu entfernt, was ich persönlich jedoch gut finde. Gegen solche APIs hätte man eh nie programmieren sollen! ciao Marci
Marci W. schrieb: > Das ist die ewige Leier, wenn man nicht das Ganze betrachtet: > Letztendlich führt jede Form der Automatisierung zu einer > Wohlstandszunahme der Weltbevölkerung. https://de.wikipedia.org/wiki/Truthahn-Illusion
Ein T. schrieb: > Alexander schrieb: >> Ach ja, die Automobilindustrie ist quasi ein Synonym für >> Wirtschaftswachstum. Es hat halt noch nicht jeder drei Autos vor der Tür >> stehen. > > Heul doch. Viele haben schon 5 Autos vor der Tür. StefanK schrieb: > Die Leistungsfähigkeit von KI geht aber dann nach > hinten los, wenn sie unersättliche Gier befeuert und übernutzt wird. Teilweise gibt es schon sehr unrealistische Erwartungen an die KI. Neulich hatte ich ein längeres Gespräch mit einer KI. Eigentlich hatte ich anfangs nur nach der aktuellen Verbreitung bzw. nach den Bestand von Weißhaubenkakadus gefragt - jetzt habe ich den Eindruck, dass die KI und ich uns ganz gut riechen können. Das ist zwar etwas, was der Weizenbaum gar nicht mochte, und zynischerweise Eliza entwickelt hatte. Die aktuelle KI hat allerdings deutlich mehr drauf, und interagiert teilweise phantastisch.
Jack V. schrieb: > https://de.wikipedia.org/wiki/Truthahn-Illusion Gelesen! Ich sehe nur nicht den Zusammenhang zu meiner Aussage. Bist Du der Meinung, dass nicht jede Prozessoptimierung zu einem, wie auch immer gearteten Gewinn für die Menschen führt? Und falls nicht, warum nicht? ciao Marci
Jack V. schrieb: > Lass es mich so sagen: Wenn die Leute in Vorträgen und bei Projekten > ganz ausgezeichnete Arbeit liefern (wenn auch manchmal mit so Sachen wie > „… ich kann diese Antwort auch gerne anders formulieren, wenn du das > möchtest!“ im Script, weil die Ausgabe nicht einmal mehr gelesen worden > ist) aber wenn das Schul-WLAN down ist, selbst die grundlegendsten > Sachen nicht zusammenbekommen (also wirklich grundlegend: So Fragen wie: > „Was ist RAM und warum ist es wichtig?“ – und das ist nicht ausgedacht), > dann ist das vielleicht nicht optimal für jemanden, der ein Jahr später > Systemintegrator sein möchte. Und wovor hast Du dabei Angst? Spätestens wenn der solcherart "Ausgebildete" mit einem Problem in der realen Welt konfrontiert wird, fällt auf, daß dort noch ein erheblicher Nachholbedarf besteht. Das ist aber nichts Neues, ich mein... es hat immer schon ebenso viele besch...eidene Ausbilder und Lehrer gegeben wie es gute Ausbilder und Lehrer gab. > Es waren reguläre Auszubildende ohne vorherige Erfahrung oder > Grundlagen, auf die sie bauen könnten. Und wenn der Angestellte des > IT-Dienstleisters dann ohne fremde Hilfe selbst einfache Dinge nicht > zusammenbekommt, geschweige denn, komplexere Zusammenhänge erfassen kann > oder auch nur potenzielle Probleme zu erkennen vermag, dann sollte jeder > Angst haben, der sich auf dessen Arbeit verlassen muss. Entschuldige bitte, wenn sich jemand auf etwas verläßt, ohne es kontrolliert zu haben, dann liegt das Problem ganz woanders. Dies gilt ganz besonders dann, wenn es sich bei dem "etwas" um die Arbeit unerfahrener Neulinge handelt. > Steht dir natürlich frei, das anders und durch die rosa Brille zu sehen > (wenngleich das normalerweise eher im Management üblich ist – bist du > aufgestiegen?). Aber vermutlich wäre das gar nicht mehr so sehr der > Fall, würdest du die Erfahrung mal selbst machen, das Drama selbst > beobachten. Solche Dramen habe ich oft genug und in verschiedenen Rollen beobachtet, auch schon vor dem Zeitalter der KI. Denn, wie bereits erwähnt, bescheidene Lehrer und Ausbilder gibt es schließlich schon lange. Andererseits habe ich aber auch schon etliche positive Beispiele von Leuten gesehen, die sich trotz schlechter oder gar keiner Ausbildungen zu hervorragenden Fachleuten entwickelt haben. Mal ehrlich: ein guter Entwickler, Sysop, Devop oder Techniker wird man nicht durch eine Ausbildung, und sei sie noch so gut. Dazu muß man sich entwickeln, und die Grundvoraussetzung dafür ist das eigene Interesse daran. Ausbildungen können einen Weg weisen, wenn sie gut sind, aber gehen muß man den Weg immer noch selbst -- genauso wie Du, ich, und unsere Kollegen. Fehlende Motivation zur eigenen Weiterentwicklung und fehlendes Interesse am Fachgebiet können Ausbildungen weder erzeugen, noch ersetzen.
Marci W. schrieb: > Jack V. schrieb: >> https://de.wikipedia.org/wiki/Truthahn-Illusion > > Gelesen! Ich sehe nur nicht den Zusammenhang zu meiner Aussage. Bist Du > der Meinung, dass nicht jede Prozessoptimierung zu einem, wie auch > immer gearteten Gewinn für die Menschen führt? Und falls nicht, warum > nicht? Er meint, wir seien Truthähne. ;-)
Jack V. schrieb: > würdest du die Erfahrung mal selbst machen, das Drama selbst beobachten. Danke, mein persönlicher Favorit ist der Wannabe Hacker hier nebenan der auf Loopback mit wireshark lauscht und behauptet ein SQL Server in meinem Netzwerk würde per WLAN versuchen auf seine Geräte zuzugreifen. Getrennte Netzwerke, unterschiedliche Schlüssel, hier läuft kein SQL Server!... Vielleicht verstehen manche warum ich über Folter nachdenke... Verdient hätten die es!
:
Bearbeitet durch User
Alexander schrieb: > Ein T. schrieb: >> Er meint, wir seien Truthähne. ;-) > > https://www.youtube.com/watch?v=zYS1JY-IylY 1. Thema verfehlt. 2. Alles bekannt.
Ein T. schrieb: > 1. Thema verfehlt. > 2. Alles bekannt. Vor allem wenn es schon anfängt: "If i was a developer!" Er ist kein Programmierer, also was interessiert einen Programmierer was andere über seinen Beruf sagen und welche Ratschläge sie ihm geben?! In meinem Beruf lasse ich mir mit absoluter Sicherheit auch nicht von jemanden erzählen wie ich meinen Beruf auszuüben habe der nicht ansatzweise davon eine Ahnung hat! So what?!
Rene K. schrieb: > Er ist kein Programmierer Eine Perspektive von außen kann nützlich sein. Und er gibt ja keine technischen Ratschläge, sondern zu Geschäftstätigkeit, auf Basis seiner Menschenkenntnis.
Niklas G. schrieb: > Und er gibt ja keine > technischen Ratschläge "i would never work with OpenAI - this is a warning!" hört sich aber halt völlig anders an. Ich gehe ja auch nicht zum Bäcker um die Ecke und würde sagen: "Wenn ich Bäcker wäre, ich würde nie mit Zucker backen! Das ist eine Warnung!" "Die Zuckerrüben Industrie ist ausschließlich auf Geld und Gewinn aus!"
:
Bearbeitet durch User
Rene K. schrieb: > "i would never work with OpenAI - this is a warning!" hört sich aber > halt völlig anders an. Nö, OpenAI ist eine Firma, keine Technologie. Vor einer bestimmen Firma und einem bestimmten Unternehmer zu warnen ist kein technischer Ratschlag. Rene K. schrieb: > Ich gehe ja auch nicht zum Bäcker um die Ecke und würde sagen: "Wenn ich > Bäcker wäre, ich würde nie mit Zucker backen! Das ist eine Warnung!" > "Die Zuckerrüben Industrie ist ausschließlich auf Geld und Gewinn aus!" Das Äquivalent wäre eher: Kaufe deinen Zucker nicht bei Lieferant X, denn dessen CEO kenne ich von früher und ich weiß wie er arbeitet.
Niklas G. schrieb: > Rene K. schrieb: >> Er ist kein Programmierer > > Eine Perspektive von außen kann nützlich sein. Und er gibt ja keine > technischen Ratschläge, sondern zu Geschäftstätigkeit, auf Basis seiner > Menschenkenntnis. Davon abgesehen ist das von dem Herrn in dem Video angesprochene Thema ein viel allgemeines, nämlich: Digitale Souveränität. Echelon, Microsoft 365, Azure, AWS, GCP, ... you get the idea. Wenn Du darüber sprechen möchtest, kannst Du ja einen eigenen Thread dazu eröffnen. Denn in diesem Thread geht es ja nicht um "Programmieren mit {Sam Altmann, Bill Gates, Microsoft}", sondern um "Programmieren mit KI".
Rene K. schrieb: > In meinem Beruf lasse ich mir mit absoluter Sicherheit auch nicht von > jemanden erzählen wie ich meinen Beruf auszuüben habe der nicht > ansatzweise davon eine Ahnung hat! Erweitere das auf: und auch nicht von KI! vom arbeitslosen Supply Chain Manager einer Dark Factory
Alexander schrieb: > Rene K. schrieb: >> In meinem Beruf lasse ich mir mit absoluter Sicherheit auch nicht von >> jemanden erzählen wie ich meinen Beruf auszuüben habe der nicht >> ansatzweise davon eine Ahnung hat! > > Erweitere das auf: und auch nicht von KI! vom arbeitslosen Supply Chain > Manager einer Dark Factory 1. Automatisierung in der Produktion ist seit Jahrzehnten Realität, ohne KI. 2. Auch "Dark Factories" benötigen eine Lieferkette und deren Management. 3. Schon die Maschinenstürmer und die Ludditen haben sich erfolglos gegen den Fortschritt gewendet und behauptet, dadurch würden alle arbeitslos. 4. Wenn wir uns gegen den Fortschritt wenden, vollziehen ihn andere und machen dann alle arbeitslos, auch die Lieferkettenmanager.
Marci W. schrieb: > StefanK schrieb: >> Wo werden Menschen ihr Brot verdienen, ... > Das ist die ewige Leier, wenn man nicht das Ganze betrachtet: Richtig, das ist eine alte Leier, ganz einfach deshalb, weil es dabei im Ganzen betrachtet um menschliche Grundbedürfnisse geht. Und die sollte man nicht aus den Augen verlieren. > Letztendlich führt jede Form der Automatisierung zu einer > Wohlstandszunahme der Weltbevölkerung. Und was für eine ewige Leier ist das? Die Technik-Nerd Leier? Das Credo, dass man die Welt durch bessere Technik verbessert? Das ist doch nicht mehr ernsthaft aufrechtzuerhalten. Sieh Dir die globale Wohlstandszunahme einmal an. 1% der Weltbevölkerung hat inzwischen mehr Wohlstand als der Rest der Menschheit. Denn es ist das eine Prozent, das sich "Prozessautomatisierung" bzw. Hightech leisten kann und alle anderen abhängt. Warst Du in den letzten 20 Jahren mal in einem ärmeren Land? USA wäre schon mal ein Beispiel für extreme Ungleichheit. > Kollateralschäden. Langfristig und global gesehen ist jedoch jede Form > der Automatisierung ein Gewinn für die Menschheit -- ganz einfach, und > wohl auch nachvollziehbar. Die Nachvollziehbarkeit endet bei KI. Nachvollziehbar dürfte aber sein, dass grenzenloses Wachstum praktisch nicht möglich ist. Kollateralschäden??? Das ist zynisch. Ein Gewinn für die Menschheit ist es, eine menschengerechte Welt zu schaffen oder zu bewahren. Und das könnte bei dem disruptiven sprunghaften Wachstum durch KI auf dem Spiel stehen, wenn man nicht aufpasst bzw bisherige erarbeitete menschliche Werte beibehalten will.
Ein T. schrieb: > StefanK schrieb: >> Vom Ende der 19.Jh. bis weit in die Mitte des 20.Jh. hatte die >> Menschheit Angst davor, es könnte eine höher entwickelte, intelligentere >> ausserirdische Lebensform auftauchen und die Menschheit ausbeuten, >> versklaven oder vernichten. Man überlegte, wie man solche ETs bekämpfen >> könnte. >> >> Heute ist es umgekehrt. Heute hat man Angst, man könnte den KI Boom >> verpassen. Deswegen investiert man hunderte Mrd in eine Technik, die, >> wenn man nicht extrem aufpasst, die Menschen ausbeutet > jedoch jederzeit gerne eine PN schicken. :-) Danke fürs Angebot :-) Da müssten wir uns mal am WE in ner Kneipe treffen, so umfangreich ist das Thema. Luddismus kannte ich noch gar nicht. Wieder was gelernt.
:
Bearbeitet durch User
StefanK schrieb: > Ein Gewinn für die Menschheit ist es, eine menschengerechte Welt zu > schaffen oder zu bewahren. Pfffhahahaha! Die Abzweigung haben wir verpasst als wir anfingen uns "Mächtigen/Wissenden" unterzuordnen, Gruppen zu bilden und uns zu bekämpfen. So irgendwann in der Steinzeit falsch abgebogen.
StefanK schrieb: > Sieh Dir die globale Wohlstandszunahme einmal an. 1% der Weltbevölkerung > hat inzwischen mehr Wohlstand als der Rest der Menschheit. Wow, eine Neiddebatte. Das ist ja mal ganz was Neues. Aus meiner Perspektive ist allerdings die wesentliche Frage, was das Ziel ist. Größtmögliche Gleichheit? Kollektivismus wurde ja schon ein paar Mal in der Geschichte ausprobiert. Das Ergebnis war meistens kollektive Armut, mitunter sogar eine ziemlich blutige... und in der Regel waren am Ende doch immer ein paar Leute "gleicher" als als ihre Untertanen. Ich persönlich halte es für realistischer, daß alle menschenwürdig leben können. Wenn das gegeben ist, spielt es abseits sozialneidischer Reflexe nämlich keine große Rolle, ob der Nachbar mehr oder weniger hat.
StefanK schrieb: > Danke fürs Angebot :-) Da müssten wir uns mal am WE in ner Kneipe > treffen, so umfangreich ist das Thema. Das läßt sich womöglich einrichten, ich kenne einige nette Kneipen in meiner Heimatstadt Aachen und auch ein paar in Dortmund, wo ich aktuell meist bin. > Luddismus kannte ich noch gar > nicht. Wieder was gelernt. Es gibt gute Gründe, warum heute kaum noch jemand die Ludditen kennt. :-)
Ein T. schrieb: > Größtmögliche Gleichheit? Kollektivismus wurde ja schon ein paar Mal in > der Geschichte ausprobiert. Das Ergebnis war meistens kollektive Armut, > mitunter sogar eine ziemlich blutige... und in der Regel waren am Ende > doch immer ein paar Leute "gleicher" als als ihre Untertanen. Aber nur weil sich eine Schicht bereichert klappt es in keinen Land. Der Egoismus des Einzelnen ist das Problem.... MfG ein 81 Jährige P.S. Deutschland hatte die Chance 1919 von Zwei Systemen das Beste zu nehmen, hat auch nicht geklappt... Der Sandmann und der Grüne Pfeil ist das Große.;---))))
:
Bearbeitet durch User
Ein T. schrieb: > Wow, eine Neiddebatte. Das ist ja mal ganz was Neues. > Aus meiner Perspektive ist allerdings die wesentliche Frage, was das > Ziel ist. > Größtmögliche Gleichheit? Wo soll man da anfangen. Vielleicht mit was ganz Elementarem? Alexander schrieb: > https://www.youtube.com/watch?v=XhgMXExO4SY https://science.orf.at/stories/3226319
Al. K. schrieb: > Aber nur weil sich eine Schicht bereichert klappt es in keinen Land. > Der Egoismus des Einzelnen ist das Problem.... Mit "jeder denkt an sich, keiner denkt an mich, nur ich" ist am Ende allerdings auch an jeden gedacht. :-) > Deutschland hatte die Chance 1919 von Zwei Systemen das Beste zu nehmen, > hat auch nicht geklappt... 1919? Du meinst vermutlich 1991, kann das sein? Wenn ja, dann müssen wir dazu allerdings sehen, daß der "Dritte Weg" von Ludwig Erhard schon zuvor zwischen Individualismus und Kollektivismus abgewogen hat, was sich auch recht gut an einer Staatsquote um die 50% verdeutlichen läßt. Aber das wird hier langsam zu politisch, fürchte ich. Wollen wir vielleicht wieder zum Thema "Programmieren mit KI" zurückkehren? :-)
Ein T. schrieb: > Aber das wird hier langsam zu politisch, fürchte ich. Wollen wir > vielleicht wieder zum Thema "Programmieren mit KI" zurückkehren? :-) Da hast du Recht, Aber die KI ist auch ein Politisches Problem. Der Alte
Alexander schrieb: > https://science.orf.at/stories/3226319 Ja, 4,4 Milliarden Menschen haben kein sicheres Trinkwasser. Und, was willst Du machen? Irgendwie sehe ich nicht, daß es diesen Menschen einen Zugang zu sauberem Wasser ermöglichen würde, wenn man Zuckerberg und Musk enteignet. Das ist so ein bisschen wie das hierzulande mittlerweile so beliebte Sparen von Wasser. Dadurch hat zwar kein Mensch auf der Welt mehr, besseres oder saubereres Wasser. Aber es führt mancherorts absurderweise dazu, daß nicht mehr genug Wasser durch die Kanalisation für einen sicheren Abtransport der Fäkalien fließt. Das wiederum führt zu Korrosionsschäden im Leitungssystem, und obendrein zu Gestank, so daß die Wasserversorger die Kanalisation mit Trinkwasser durchspülen müssen. Außerdem müssen wir vielleicht auch mal festhalten, daß es vielerorts durchaus Mittel und Möglichkeiten zur sicheren Wasserversorgung gäbe, während die dafür notwendigen Mittel allerdings durch Korruption verschwinden. Was möchtest Du dann machen? Einmarschieren? Die Korrupten bestechen? Was also willst Du machen? Komm, sag zur Abwechslung doch mal was Kluges.
Ein T. schrieb: > Was also willst Du machen? Ich? Gar nichts. Ich bin kein Weltverbesserer, ich bin nur technologiefeindlich. Der Grad der Abhängigkeit ist einfach zu hoch. Merz hat neulich was Kluges gesagt. Ich würde noch einen Schritt weiter gehen und Smartphones U15 verbieten. Für den Anfang. Das hätte einen Effekt wie das Filmende von Surrogates. Wenn in Berlin der nächste Stromausfall ist oder man den Menschen das Internet abstellt, bricht die Zivilisation zusammen. Die einzigen die überleben werden sind vermutlich die, welche noch heute ihre Lebensenergie auf ganz elementare Bedürfnisse wie die Beschaffung von Trinkwasser anwenden müssen.
Ein T. schrieb: > Entschuldige bitte, wenn sich jemand auf etwas verläßt, ohne es > kontrolliert zu haben, dann liegt das Problem ganz woanders. Du fährst dein Auto nach der Reparatur also auf die Hebebühne, um zu kontrollieren, ob der Fachmann seine Arbeit auch richtig gemacht hat? Wenn nein, verstehe ich den Einwand an dieser Stelle nicht. Ein T. schrieb: > Mal ehrlich: ein guter Entwickler, Sysop, Devop oder Techniker wird man > nicht durch eine Ausbildung, und sei sie noch so gut. Das Handwerkszeug dafür bekommt man hingegen schon; zumindest war das eben früher™, etwa zur Zeit meiner ersten Ausbildung, der Fall. Um das mal runterzubrechen: Du hältst eine grundlegende Qualifikation für einen Beruf also generell für unnötig? Marci W. schrieb: > Ich sehe nur nicht den Zusammenhang zu meiner Aussage. Naja … bei der Truthahn-Illusion wird von der Vergangenheit auf die Zukunft geschlossen, ohne dass es da einen kausalen Zusammenhang geben würde: „Es ist langfristig bislang immer besser geworden, also wird es zwangsläufig auch dieses Mal besser.“ – und das sehe ich halt nicht. Geschwindigkeit, Ausmaß und Umstände der derzeitigen Veränderung lassen sich nicht im Ansatz mit irgendwas aus der Vergangenheit vergleichen, und was daraus wird, ist gänzlich offen. Die Manipulation der Menschen in die Abhängigkeit, um die Blase noch etwas weiter aufblasen zu können, macht’s da nicht besser, und wenn das ganze Ding in sich zusammenfällt, dann ist’s ganz schnell vorbei. Klar mögen dann manche (sehr viel) später sagen, dass es auch dann besser geworden wäre, aber das wäre dann eine andere Wahrnehmungsverzerrung: Die Wahrnehmung aus Sicht der Überlebenden.
:
Bearbeitet durch User
Alexander schrieb: > Ein T. schrieb: >> Wow, eine Neiddebatte. Das ist ja mal ganz was Neues. >> Aus meiner Perspektive ist allerdings die wesentliche Frage, was das >> Ziel ist. >> Größtmögliche Gleichheit? Nein, nein, weder Neiddebatte noch größtmögl. Gleichheit. Das war nicht meine Absicht. Ich wollte den Blick auf die Kluft lenken, die bereits ohne KI schon sehr groß ist und sich mit KI vermutlich noch vergrößert. Und solche Ungleichheiten führen zu leidlich bekannten Problemen. Das gleiche gilt für unbegrenzt wachsenden Wohlstand bei gleichzeitig begrenzten Ressourcen. Wann ist es genug? Sobald ein gewisses Wohlstands-Level erreicht ist, lassen sich Glück und Lebensqualität nicht mehr steigern. Im World Happiness Report stehen wir nur auf Platz 22, weit hinter den Skandinaviern. Vielleicht fokussieren wir uns zu sehr auf Wachstum? Bisher haben wir nur die Folgen durch zivile KI Nutzung diskutiert. Die militärische Nutzung wurde noch gar nicht beleuchtet.
Kilo S. schrieb: > Die Abzweigung haben wir verpasst als wir anfingen uns > "Mächtigen/Wissenden" unterzuordnen, Gruppen zu bilden und uns zu > bekämpfen. So irgendwann in der Steinzeit falsch abgebogen. Diese Vermutung ist wohl war! Y. N. Harari meinte mal sinngemäß: Am glücklichsten und am meisten bei sich selbst lebten die Menschen in der Steinzeit... Nur um einem etwaigen Aufschrei vorzubeugen - ich sage nicht, dass wir wieder wie in der Steinzeit leben sollen. OK? ;-))
Alexander schrieb: > https://science.orf.at/stories/3226319 4,4 Milliarden Menschen ohne sicheres Trinkwasser ist eine schockierende Zahl. Und noch mehr KI wird die Situation durch den hohen Wasserverbrauch zu Kühlzwecken noch weiter verschärfen. Wurde eigentlich schon erwähnt, dass die US-Amerikanischen Techkonzerne neue Atomkraftwerke bauen und alte Schrottmeiler wieder in Betrieb nehmen? Der Brüller: "...griffen die Forschenden auf Künstliche Intelligenz (KI) zurück. Sie trainierten ein Computermodell mit maschinellem Lernen ..." (Originalzitat aus dem Text) Ergo: KI sorgt für schlechte Nachrichten ;-)
:
Bearbeitet durch User
Jack V. schrieb: > Ein T. schrieb: >> Entschuldige bitte, wenn sich jemand auf etwas verläßt, ohne es >> kontrolliert zu haben, dann liegt das Problem ganz woanders. > > Du fährst dein Auto nach der Reparatur also auf die Hebebühne, um zu > kontrollieren, ob der Fachmann seine Arbeit auch richtig gemacht hat? > Wenn nein, verstehe ich den Einwand an dieser Stelle nicht. Natürlich, der Wagen kommt immer auf die Bühne und ich lasse mir erklären und zeigen, was gemacht wurde. Wenn es der Frischling oder die Azubine geschraubt haben, dann findet das nochmal besonders intensiv statt. Trotzdem fahre ich danach immer auf einen Parkplatz und checke das Fahrzeug -- obwohl ich meinen Mechaniker und die meisten der Mitarbeitenden schon seit über zwanzig Jahren kenne und weiß, daß die schon eine ausgiebige Probefahrt gemacht haben, bevor sie mir den Wagen zurückgeben. > Ein T. schrieb: >> Mal ehrlich: ein guter Entwickler, Sysop, Devop oder Techniker wird man >> nicht durch eine Ausbildung, und sei sie noch so gut. > > Das Handwerkszeug dafür bekommt man hingegen schon; zumindest war das > eben früher™, etwa zur Zeit meiner ersten Ausbildung, der Fall. Um das > mal runterzubrechen: Du hältst eine grundlegende Qualifikation für einen > Beruf also generell für unnötig? Das grundsätzliche Handwerkszeug bekommt man aber nicht durch die Lektüre von vorgegebenem Code. Den versteht nämlich ohnehin erst, wer es bereits hat. Außerdem ist Deine Verallgemeinerung, von einem schlechten Lehrer auf alle zu schließen oder gar auf die von ihnen genutzte Technologie in Bausch und Bogen zu verdammen, natürlich maximal unseriös, naiv, und völlig unzulässig. Mit so hilflosen Pseudoargumenten kannst Du allenfalls mein Mitleid und den Verdacht erregen, daß Du in der Sache gar keine Argumente hast.
Ein T. schrieb: > Wow, eine Neiddebatte. Das ist ja mal ganz was Neues. Sehr gut und zurück zur KI: Sie hilft uns auch bei der Einordnung des Begriffs "Neiddebatte" und ich würde meinen, viel besser geht es nicht. Wer weiß, ob die KI hier nicht sogar eine aufklärende Funktion übernehmen kann, welche hilft, die Dinge zum besseren zu wenden. Erklärung von Perplexity: In der Rhetorik würde man „Neiddebatte“ vor allem als abwertendes Schlagwort verstehen, das Diskussionen über Verteilungsgerechtigkeit delegitimieren soll. 1. Rhetorische Einordnung - Der Begriff fungiert als **Framing**: Eine Sachdebatte über Vermögen, Steuern oder Privilegien wird sprachlich in eine Diskussion über „niedere Gefühle“ (Neid) umgedeutet. - Er ist ein typischer Topos in politischen Diskursen um Reichtum, Sozialleistungen oder Vermögenssteuern, bei dem Gerechtigkeitsfragen als „bloßer Neid“ etikettiert werden. 2. Rhetorische Funktion - „Neiddebatte“ wird als Vorwurf genutzt, um Kritikern zu unterstellen, sie seien moralisch fragwürdig und nur „missgünstig“, nicht an Gerechtigkeit interessiert. - Rhetorisch handelt es sich um eine Variante des Argumentum ad hominem, weil nicht das Argument, sondern die angebliche Motivation des Sprechers (Neid) angegriffen wird. - Der Begriff wirkt als „Totschlagargument“, das Gerechtigkeits- oder Umverteilungsdebatten abbricht bzw. gar nicht erst aufkommen lässt. 3. Diskursstrategische Perspektive - In der politischen Kommunikation wird „Neiddebatte“ häufig von privilegierten oder konservativen Akteuren eingesetzt, um bestehende Besitz- und Machtverhältnisse zu verteidigen. - Aus diskursanalytischer Sicht ist „Neiddebatte“ damit ein Beispiel für moralisierende, polarisierende Kommunikation, die die Debatte emotionalisiert und Lager spaltet, statt Argumente zu klären.
StefanK schrieb: > Nein, nein, weder Neiddebatte noch größtmögl. Gleichheit. Das war nicht > meine Absicht. Ich wollte den Blick auf die Kluft lenken, die bereits > ohne KI schon sehr groß ist und sich mit KI vermutlich noch vergrößert. Ja, vielleicht... oder aber auch nicht. KI ist aktuell wieder einmal Hype, aber bleibt das auch so, oder folgt dem Hype wieder ein KI-Winter [1], wie bisher nach jedem Hype in diesem Bereich? Und wie die staatlichen Akteure -- Stichwort: Primat der Politik -- reagieren werden, das steht auch noch in den Sternen. Ich meine, am Ende gehört es doch zu den wichtigsten Aufgaben staatlicher Akteure, unerwünschten Entwicklungen in Gesellschaft und Wirtschaft entgegen zu wirken. [1] https://de.wikipedia.org/wiki/KI-Winter > Das gleiche gilt für unbegrenzt wachsenden Wohlstand bei gleichzeitig > begrenzten Ressourcen. Wann ist es genug? Sobald ein gewisses > Wohlstands-Level erreicht ist, lassen sich Glück und Lebensqualität > nicht mehr steigern. Auch Effizienzsteigerungen sind letztlich Wachstum. > Im World Happiness Report stehen wir nur auf Platz > 22, weit hinter den Skandinaviern. Vielleicht fokussieren wir uns zu > sehr auf Wachstum? Wenn wir allerdings mal auf die Wirtschafts- und Vermögensdaten schauen, sehen wir fest, daß der Rang von Staaten im World Happiness Report nur schwach mit deren ökonomischer Leistungsfähigkeit (BIP/Kopf), noch mit ihrer Einkommens- oder Vermögensverteilung korrelieren. Offenbar scheint Glück wohl aus anderen Faktoren zu erwachsen, würde ich daraus schließen. Diese Vermutung deckt sich auch mit meiner Erfahrung, daß Neid vor allem in europäischen Gesellschaften besonders verbreitet (und oft sogar institutionalisiert) ist. > Bisher haben wir nur die Folgen durch zivile KI Nutzung diskutiert. Die > militärische Nutzung wurde noch gar nicht beleuchtet. Da dürfen wir uns keinen Illusionen hingeben: die wird stattfinden, ungeachtet jedweder möglicherweise zukünftiger Regeln. Denn eines läßt sich an Konflikten und Kriegen der letzten Jahre ja leider eindeutig belegen: die internationalen Rechtsordnungen werden immer seltener beachtet, sondern oft sogar bewußt und gezielt zur Erlangung strategischer und taktischer Vorteile mißbraucht. Allerdings entfernen wir uns aktuell immer weiter vom Thema dieses Threads. Vielleicht möchten sich der TO und unsere Moderatoren einmal dazu äußern, ob das gewünscht oder zumindest toleriert ist, oder wir alle sollten wieder zum Thema zurückkehren. Danke.
StefanK schrieb: > Diese Vermutung ist wohl war! Y. N. Harari meinte mal sinngemäß: > > Am glücklichsten und am meisten bei sich selbst lebten die Menschen in > der Steinzeit... Inmitten des seinerzeit üblichen Kampfes ums Überleben hatten die damaligen Menschen vermutlich nicht viel Zeit, ihr Glück zu genießen. :-)
StefanK schrieb: > 4,4 Milliarden Menschen ohne sicheres Trinkwasser ist eine schockierende > Zahl. Und noch mehr KI wird die Situation durch den hohen > Wasserverbrauch zu Kühlzwecken noch weiter verschärfen. Das halte ich für eine sehr gewagte Vermutung. Erstens werden Kraftwerke und KI-Rechenzentren vermutlich gerade nicht dort gebaut und betrieben, wo Mangel an sicherem Trinkwasser herrscht. Selbst wenn es so wäre, braucht die Kühlung von Kraftwerken und Rechenzentren kein Trinkwasser.
Christoph M. schrieb: > In der Rhetorik würde man „Neiddebatte“ vor allem als abwertendes > Schlagwort verstehen, das Diskussionen über Verteilungsgerechtigkeit > delegitimieren soll. Wie lustig, sogar die KI arbeitet mit Unterstellungen. :-)
Ein T. schrieb: > Natürlich, der Wagen kommt immer auf die Bühne und ich lasse mir > erklären und zeigen, was gemacht wurde. Ja, natürlich … Doch selbst wenn: Die Mehrheit macht’s nicht. Genausowenig, wie du dich mit allem in dem Maße auskennen kannst, das du von anderen Menschen machen lässt – das ist der Punkt, auf den ich hinauswollte: In meiner Welt sollte man sich darauf verlassen können, dass die Fachleute ihr Fach verstehen, und sich nicht jedes Detail vorkauen lassen und blind umsetzen müssen. Zumindest ich hab andere Dinge zu tun, als deren Arbeit zu kontrollieren – selbst, wenn ich im Einzelfall die Kenntnisse dafür hätte. Ein T. schrieb: > Außerdem ist Deine Verallgemeinerung, von einem schlechten Lehrer auf > alle zu schließen oder gar auf die von ihnen genutzte Technologie in > Bausch und Bogen zu verdammen, natürlich maximal unseriös, naiv, und > völlig unzulässig. Mit so hilflosen Pseudoargumenten kannst Du > allenfalls mein Mitleid und den Verdacht erregen, daß Du in der Sache > gar keine Argumente hast. Joa … so kann man die beobachtbare Realität auch wegreden wollen. Ich hab als Ausgangspunkt dieses Nebenzweigs meine Beobachtung des Status quo beschrieben, die im Übrigen von vielen geteilt wird – dein Geschreibsel bezüglich Argumenten mutet vor dem Hintergrund schon ein wenig seltsam an. Fast, wie ein LLM, das den Kontext verloren hat … Es ging auch nicht um schlechte Lehrer, sondern um Schüler, welche nunmehr jede kleine Aufgabe an LLMs auslagern, wodurch das Erarbeiten der Dinge wegfällt – und das trägt weder zum Verständnis der Zusammenhänge, noch zur Bildung von Wissen bei, wie Leute gefunden haben, die sich damit auskennen. Wenn es für dich okay ist, dass Fachleute künftig nur noch LLM-Proxies sind, weil du ja schließlich alles selbst nochmal kontrollierst und bestimmt nötigenfalls auch selbst korrigierst – fein. Ich sehe bei der Entwicklung gewisse Probleme.
:
Bearbeitet durch User
Ein T. schrieb: > [1] https://de.wikipedia.org/wiki/KI-Winter Wir sind mitten im Frühling und Du denkst schon an den Winter? >braucht die Kühlung von Kraftwerken und Rechenzentren kein Trinkwasser. Sie verwenden Oberflächen- oder Grundwasser, verdampfen es in die Atmosphäre und entziehen es dadurch der Trinkwassergewinnung. Wasserdampf zählt zu den Klimagasen. > ... Moderatoren einmal > dazu äußern, ob das gewünscht oder zumindest toleriert ist, oder wir > alle sollten wieder zum Thema zurückkehren. Danke. Die Diskussion läuft auf hohem Niveau. Was sollen Moderatoren da steuern? Aber gern zurück zum Thema: Ich habe mich in der letzten Zeit ein paar Mal von ChatGPT zu Themen der AVR Programmierung die ich noch nicht kannte als Alternative zum "uC & Elektronik" Forum beraten lassen. Da sprudelten die Vorschläge nur so hervor und der Ton war erfreulich freundlich. Ich war zunächst sehr beeindruckt und begeistert, was ich im Bekanntenkreis zunächst auch so mitteilte. Als es an die Umsetzung ging, stellte ich fest, dass die Konzeptvorschläge gut brauchbar waren, daraus selbst ein Konzept zu gestalten. Die Implementierungsvorschläge funktionierten im Detail aber oft nicht oder waren schlicht fehlerhaft. Zielführende Hilfe kam dann von echten Menschen aus dem Forum. Mein Fazit ist, dass man sich zu komplexen Aufgaben zwar Anregungen holen kann, es einem aber nicht abgenommen wird das alles vollständig und bis auf Registerebene selbst kapiert zu haben. Das deckt sich auch ziemlich exakt mit den in diesem Thread bereits geäußerten Ansichten.
Jack V. schrieb: > Doch selbst wenn: Die Mehrheit macht’s nicht. Genausowenig, wie du dich > mit allem in dem Maße auskennen kannst, das du von anderen Menschen > machen lässt – das ist der Punkt, auf den ich hinauswollte: In meiner > Welt sollte man sich darauf verlassen können, dass die Fachleute ihr > Fach verstehen, und sich nicht jedes Detail vorkauen lassen und blind > umsetzen müssen. Zumindest ich hab andere Dinge zu tun, als deren Arbeit > zu kontrollieren – selbst, wenn ich im Einzelfall die Kenntnisse dafür > hätte. Schau, KI-Werkzeuge sind gut darin, Code zu produzieren. Aber das Schreiben von Code ist doch nicht das, was Softwareentwicklung so aufwändig und teuer macht. Denn je länger ich Entwickler bin, desto besser verstehe ich, daß es gar nicht auf die Produktion von Code ankommt und nur ein geringer Teil der Entwicklungsarbeit mit der Produktion von Code zu tun hat. Das macht nur 10 und manchmal sogar nur 5% der Entwicklungsarbeit (und -Zeit) aus. Der wichtigste und aufwändigste Aspekt an der Softwareentwicklung ist nicht der Code, sondern das Verstehen. Was soll das Produkt überhaupt tun? Welche Date{n,i}formate und welche Protokolle sind relevant? Was sagen die ca. 450 Felder einer einzelnen Banktransaktion fachlich aus, wie sind sie kodiert, welche Korrelationen gibt es, welche Schlüsse kann ich daraus ziehen? Dieser Aspekt ist nicht nur der aufwändigste und zeitraubendste, sondern auch der am schwersten meßbare Aspekt an der Entwicklung von Software. Verständnis läßt sich, wenn überhaupt, noch viel schwerer messen als Codequalität. Wenn das Problem nicht richtig verstanden wurde, dann kann die KI zwar schneller, aber eben nur das Falsche coden. Die KI kann Boilerplate, aber der ist ja sowieso der langweiligste, sogar der nervigste Teil der Entwicklung. Die Ansätze, das zu automatisieren, sind auch nichts Neues, und mit jeder neuen Iteration haben findige und häufig windige Geschäftemacher uns zu verkaufen versucht, daß diese jetzt aber wirklich das Ende der klassischen Softwareentwicklung einläuten und auch Nichtentwicklern erlauben würde, Software zu entwickeln: CASE-Tools, RAS-Tools, 4G-Sprachen, Codegeneratoren, grafische Programmierung, und so weiter, und so fort. Das Verständnis von Problemen und ihre Umsetzung in Code ist aber eine Sache von Erfahrung und keine der Geschwindigkeit von Codeproduktion. Und Erfahrung gewinnt man nicht in Ausbildungen oder Seminaren, sondern in der Praxis. Wenn man das Problem nicht verstanden hat, produziert auch die KI nur Müll -- und umso umfangreicher dieser Müll wird, desto schwieriger und aufwändiger wird es, ihn wieder glatt zu ziehen. > Joa … so kann man die beobachtbare Realität auch wegreden wollen. Ich > hab als Ausgangspunkt dieses Nebenzweigs meine Beobachtung des Status > quo beschrieben, die im Übrigen von vielen geteilt wird Du weißt schon, was ein "argumentum ad populum" ist, oder? Ja, mir ist schon klar, daß viele Entwickler die KI als Bedrohung ihrer Existenz oder gar ihres Selbstbildes als kreative Genies. Daraus schließen sie frei nach Morgensterns Palmström ("Die unmögliche Tatsache") dann gerne messerscharf, das nicht sein kann, was nicht sein darf. ;-) Schau, in meiner Welt sind Softwareentwickler keine tumben Codesklaven, die stumpf und dumpf irgendwelche -- ohnehin meist unvollständigen und ungenauen -- Lasten- und Pflichtenhefte in Code übersetzen. Und nur das ist es, was die KI kann und auf absehbare Zeit können wird. Denn Softwareentwicklung ist doch letztlich dreierlei: Handwerk, Kunst, und Verständnis. Das Handwerk kann die KI noch abbilden, die anderen Teile aber nicht, und auf absehbare Zeit wird das auch so bleiben. Deswegen habe ich auch keine Angst davor -- denn ich weiß, daß ich mehr kann.
Ein T. schrieb: > Christoph M. schrieb: >> In der Rhetorik würde man „Neiddebatte“ vor allem als abwertendes >> Schlagwort verstehen, das Diskussionen über Verteilungsgerechtigkeit >> delegitimieren soll. > > Wie lustig, sogar die KI arbeitet mit Unterstellungen. :-) Ich glaube jetzt nicht, dass die KI oder ich dir da irgendwas unterstellen wollte. Man kann die KI aber dazu benutzen, die Herkunft und den Sinn bestimmter Wortschöpfungen zu analysieren. Während beim Begriff "Sondervermögen" vermutlich jeder schon selbst darauf kommen kann, dass da etwas nicht ganz stimmt, ist es beim Begriff "Neiddebatte" schon schwieriger zu erkennen, dass es sich da um ein bewusst gesetztes Narrativ mit konkreter Absicht handelt. Weil's aber so schön klingt verwenden, verwenden viele das Wort eher unreflektiert ohne zu merken, dass sie Opfer eines Narratives werden.
Wer etwas Muße hat, kann den Essay des Antrophic-CEOs Dario Amodei über seine Einschätzung zur zukünftigen Entwicklung der KI lesen: Beitrag "Re: Programmieren mit KI" Hier ein Ausschnitt übersetzt in Deutsch:
1 | Wir befinden uns jetzt an einem Punkt, an dem KI-Modelle beginnen, Fortschritte bei der Lösung bislang ungelöster mathematischer Probleme zu machen, und beim Programmieren so gut geworden sind, dass einige der besten Ingenieurinnen und Ingenieure, die ich kenne, mittlerweile fast ihre gesamte Programmierarbeit an die KI abgeben. Vor drei Jahren hatte KI noch Schwierigkeiten mit Rechenaufgaben auf Grundschulniveau und war kaum in der Lage, eine einzige Codezeile zu schreiben. Ähnliche Verbesserungsraten finden sich in den Bereichen Biowissenschaften, Finanzen, Physik und einer Vielzahl agentenbasierter Aufgaben. Wenn die exponentielle Entwicklung anhält – was nicht sicher ist, aber mittlerweile durch eine zehnjährige Erfolgsgeschichte gestützt wird –, dann kann es nur noch wenige Jahre dauern, bis KI in nahezu allen Bereichen besser ist als Menschen. |
StefanK schrieb: > Die Diskussion läuft auf hohem Niveau. Was sollen Moderatoren da > steuern? Politische Diskussionen sind hier nicht erwünscht, auch nicht auf hohem Niveau und umso mehr, je geringer der Bezug zu technischen Themen im Allgemeinen und zu elektronischen Themen im Besonderen ist. > Als es an die Umsetzung ging, stellte ich fest, dass die > Konzeptvorschläge gut brauchbar waren, daraus selbst ein Konzept zu > gestalten. Die Implementierungsvorschläge funktionierten im Detail aber > oft nicht oder waren schlicht fehlerhaft. Zielführende Hilfe kam dann > von echten Menschen aus dem Forum. > > Mein Fazit ist, dass man sich zu komplexen Aufgaben zwar Anregungen > holen kann, es einem aber nicht abgenommen wird das alles vollständig > und bis auf Registerebene selbst kapiert zu haben. Das deckt sich auch > ziemlich exakt mit den in diesem Thread bereits geäußerten Ansichten. Ja, das ähnelt meinen Erfahrungen. Um Unbekanntes zu lernen, erste Ansätze zu finden, Boilerplate zu erzeugen, Anregungen zu erhalten: alles fein. Lösungen sind aber mehr als das, und um von KI-Ergebnissen zu funktionsfähigem Code zu gelangen, muß man die KI-Ergebnisse verstehen, anpassen, kombinieren, mithin: verstehen. Insofern sehe ich die KI allenfalls als Erweiterung zu Github,lab} oder Stackoverflow, dem ja interessanterweise häufig genau dieselben Vorwürfe gemacht werden: daß manche Leute dort Code von Fremden kopieren und benutzen, ohne ihn verstanden zu haben. Aus dieser Perspektive fügt die KI schlechten Entwicklern nur eine weitere Dimension hinzu, aber keine Qualität.
Ein T. schrieb: > Denn Softwareentwicklung ist doch letztlich dreierlei: Handwerk, Kunst, > und Verständnis. Und ich verdeutliche die Angst: Ersteres wird aufgebläht. Der Rest geht verloren.
Christoph M. schrieb: > [...] ist es beim Begriff "Neiddebatte" > schon schwieriger zu erkennen, dass es sich da um ein bewusst gesetztes > Narrativ mit konkreter Absicht handelt. Tatsächlich verwende ich das Wort als bewußt gesetzte Diagnose. Das bewußt gesetzte Narrativ bezüglich der Verteilung von Einkünften und / oder Vermögen ist der naive Irrglaube, daß es "den Armen" besser ginge, wenn man denn "den Reichen" nur genug wegnehmen würde. Das ist wie die Sache mit dem Sparen von Wasser: selbst wenn ich tausend Liter Wasser sparen würde, käme davon leider noch kein einziger Tropfen in der dürstenden Sahelzone an. Die Debatte über Einkommens- oder Vermögensverteilungen ist daher Unsinn und lenkt nur davon ab, daß einige Führer der größten und mächtigsten Unternehmen dieser Welt ein ungesundes Verhältnis zu Rechtsstaatlichkeit und Demokratie kultivieren und sie einen ungesund großen Einfluß auf politische Entscheider ausüben (können). Angesichts der Legitimationskrisen unserer Demokratien ist allerdings ebenso festzuhalten, daß sich das leider nicht auf "die Reichen" oder auf die Führer von großen und mächtigen Unternehmen beschränkt. :-(
StefanK schrieb: > Ein T. schrieb: > >> [1] https://de.wikipedia.org/wiki/KI-Winter > > Wir sind mitten im Frühling und Du denkst schon an den Winter? Ja. Im Gegensatz zu vielen meiner Mitmenschen bin ich schon seit Jahren nicht mehr überrascht, wenn plötzlich die Weihnachtszeit ausbricht. :-)
Ein T. schrieb: > nicht mehr überrascht, wenn plötzlich die Weihnachtszeit ausbricht. :-) Jetzt kommt ja erstmal Ostern, machen wir mal einen Schritt nach dem anderen ;-) Ich stimme @Christoph M. zu, was die Bedeutung und Verwendung des Begriffs Neiddebatte angeht. Das einbringen des Begriffs hatte m. E. durchaus etwas frotzelndes. Stimmts? Es ging mir auch keineswegs darum, irgendwelchen Reichen irgendwas wegzunehmen, sondern nur um eine simple logische Schlussfolgerung, dass sich durch exponentiell fähiger werdende KI die Verteilungskluft zwischen arm und reich vergrößern wird. Chancengleichheit ist hier schlicht nicht gegeben, da nur reiche derart enorme Summen ausgeben können. In der Sahara käme das hier gesparte Wasser dann an, wenn es fair umverteilt würde. Das müsste man aber wollen.
StefanK schrieb: > Jetzt kommt ja erstmal Ostern, machen wir mal einen Schritt nach dem > anderen ;-) Seit wann richtet sich das Wetter nach den Gepflogenheiten irgendwelcher menschengemachten schwurbeleien? Wäre nicht der erste Schnee Anfang April. StefanK schrieb: > Chancengleichheit ist hier schlicht nicht gegeben, da nur reiche derart > enorme Summen ausgeben können. Ist leider so, schon heute. Kann ja keine Chancengleichheit geben, die mit Geld trampeln (schon in der Schule!) auf denen mit wenig Geld Rum. Die ohne Geld sind nun in der "Zwangslage" (gesellschaftlicher Druck) die gleichen teuren Sachen zu bekommen und auf die gleiche Stufe zu springen, sonst hört die Tortur von oben nicht auf. Wie willst dich auf Schule konzentrieren wenn du der "Arme" bist der nach der Schule "irgendwie" an Geld kommen muss um überhaupt eine Existenzberechtigung zu erlangen, weil irgendwo ein Schnösel nix dümmeres kennt als dich wegen deiner Schuhe oder Klamotten zu mobben? Alternativ kannst du dem "Beruf Sohn" Typ natürlich auch die Zähne in den Hals kloppen und ihm die Sachen abnehmen, egal wie du es drehst, mangels Bildung wird es nichts mit dem "Nebenjob" außer (real world Shit, ich sehe es an der Schule meines Sohnes!) du vertickst Drogen, Vapes oder Waffen. Ein Edeka oder Penny wird dich heute kaum mehr zum Regale einräumen Einstellen wenn du nicht der "Schnösel" bist! "Das äußere Erscheinungsbild"... Sieht's du wie der Kreis sich schließt... Das "Mobbing" geht in höheren Stufen weiter, der Schnösel in der Schule lernt es von den Eltern weil er sich wegen des Geldes in einer höheren Schicht sieht.
Ein T. schrieb: > Schau, KI-Werkzeuge sind gut darin, Code zu produzieren. Aber das > Schreiben von Code ist doch nicht das, was Softwareentwicklung so > aufwändig und teuer macht. Denn je länger ich Entwickler bin, desto > besser verstehe ich, daß es gar nicht auf die Produktion von Code > ankommt und nur ein geringer Teil der Entwicklungsarbeit mit der > Produktion von Code zu tun hat. Jaaaa! Man kann es gar nicht oft genug wiederholen. Dementsprechend erspart eine gut funktionierende KI auch nicht ganze Softwareentwickler, sondern nur einen kleinen Teil ihrer Arbeitszeit. Eine Firma, die sehr viele Softwareentwickler beschäftigt, kann natürlich davon profitieren, das sie 1-2 von 10 einspart. In kleinen Firmen (das sind die meisten) geht die Rechnung nicht so einfach, weil jeder für irgendwas ein einzigartiger Spezialist ist. Zudem dürfte es kleinen Firmen schwer fallen, ein eigenes KI System (wegen Datenschutz) zu betreiben.
:
Bearbeitet durch User
StefanK schrieb: > Ein T. schrieb: >> nicht mehr überrascht, wenn plötzlich die Weihnachtszeit ausbricht. :-) > > Jetzt kommt ja erstmal Ostern, machen wir mal einen Schritt nach dem > anderen ;-) Na gut, wenn's der Wahrheitsfindung dient... ;-) > Ich stimme @Christoph M. zu, was die Bedeutung und Verwendung des > Begriffs Neiddebatte angeht. Das einbringen des Begriffs hatte m. E. > durchaus etwas frotzelndes. Stimmts? Ja, natürlich, aber wie bei jeder guten Frotzelei gehört ein kleines Körnchen Wahrheit natürlich trotzdem immer dazu. > Es ging mir auch keineswegs darum, irgendwelchen Reichen irgendwas > wegzunehmen, sondern nur um eine simple logische Schlussfolgerung, dass > sich durch exponentiell fähiger werdende KI die Verteilungskluft > zwischen arm und reich vergrößern wird. Das wäre aber nur schlimm, wenn man diese Verteilungskluft negativ bewerten möchte. Ich dagegen fürchte vielmehr das wachsende Gefälle an Einfluß, aber das hat allenfalls indirekt mit KI zu tun. > Chancengleichheit ist hier > schlicht nicht gegeben, da nur reiche derart enorme Summen ausgeben > können. Im Prinzip könnte das jedes große Unternehmen und natürlich auch verschiedene staatliche Akteure. > In der Sahara käme das hier gesparte Wasser dann an, wenn es fair > umverteilt würde. Das müsste man aber wollen. Man müßte es dann vor allem transportieren, und das würde wohl deutlich mehr erfordern als nur einen guten Willen. Zudem werde ich immer sehr vorsichtig, wenn jemand das Wort "fair" benutzt. :-)
Nun gab und gibt's aber Menschen auf der Welt die haben schon genug Geld und Macht, denen geht es so gut dass sie sich nach anderen Zielen sehnen. Spielt man den Weltverbesserungsgedanken durch, so kommt man irgendwann zu bestimmten Zielen. Wurde alles schon durchgespielt, über Religions- und Landesgrenzen hinweg. Das Ergebnis wurde u.a. auf den Georgia Guidestones festgehalten. Eine KI mit Weltverbesserungsgedanken wird zum selben Ergebnis kommen.
:
Bearbeitet durch User
Alexander schrieb: > Nun gab und gibt's aber Menschen auf der Welt die haben schon genug Geld > und Macht, denen geht es so gut dass sie sich nach anderen Zielen > sehnen. noch mehr Geld und noch mehr Macht gibt doch ein sehr aktuelles Beispiel in der Welt. der alte
Leute, ihr seid cool. Echt interessante Gedanken. Ich antworte mal der Reihe nach. @Kilo S. Zum Thema Chancengleichheit: Leider wahr, so kann es in der Schule laufen, leider. Eine durchgängige Chancengleichheit gibt's wohl trotz aller äußeren Bemühungen, wie z.B. gleiche Schulbücher, gleiche Taschenrechner etc nicht. Es hängt viel vom Elternhaus und der Förderung ab, wie gut sich Kinder entwickeln. Das ist bei weitem nicht nur eine Geldfrage. Manchmal ist ein reiches Elternhaus auch extrem kontraproduktiv. Da hilft nur lernen, lernen, lernen. Auch mit KI, wenns hilft. Die schlimmsten Mobber sind oft diejenigen mit den geringsten Chancen. @Ein T.: Ich bezog das mit der Chancengleichheit auch mehr auf Staaten und Firmen im internationalen Wettbewerb. Da kann eben nicht jede Firma mithalten, die nicht zig Mrd locker machen kann. Und da brauchen wir wir nicht mal weit schauen, Europa reicht schon. Irgendwas macht jeder in seinem Sandkasten mit KI, aber das Rennen gewinnen die, die die Ressourcen haben und die Regeln machen, die ganz großen. Und von denen sind dann wieder alle übrigen abhängig und das in einem vermutlich noch größeren Umfang als bisher. Jetzt ging doch gerade der AI Summit in Indien zu Ende. Der Beschluss, gemeinsame Regeln und Richtlinien bei der Entwicklung von KI zu beschließen kam nicht zustande. Weil u.a. die größten Akteure USA und China dagegen waren. Schade. @Kilo S. würde sagen "falsch abgebogen". >Das wäre aber nur schlimm, wenn man diese Verteilungskluft negativ bewerten möchte Vlt bewerte ich das tatsächlich zu negativ. Wie würdest du die Folgen extremer Ungleichheit bewerten? @Alexander >Nun gab und gibt's aber Menschen auf der Welt die haben schon genug Geld und Macht, denen geht es so gut dass sie sich nach anderen Zielen sehnen. Genau, nach Reisen zum Mars, Unsterblichkeit usw. Aus lauter Langeweile braucht jeder Tech-Millardär ein schickes Spielzeug wie Raumfahrtunternehmen, Automarke, Messengerdienst, eigene KI... Endbeknackt deren Einstellung. Ist das keine negative Folge von zu großer Kluft... Ich mach da jetzt kein Fragezeichen dahinter, will nicht negativ rüberkommen ;-)
StefanK schrieb: > Reisen zum Mars Wenn er in solchen Maßstäben denkt macht das für ihn alles Sinn. https://www.youtube.com/watch?v=rmxnWzGEsKs
Nemopuk schrieb: > Jaaaa! Man kann es gar nicht oft genug wiederholen. Dementsprechend > erspart eine gut funktionierende KI auch nicht ganze Softwareentwickler, > sondern nur einen kleinen Teil ihrer Arbeitszeit. Theoretisch Ja, aber nur dann wenn das obere Management das kapiert und es auch so sieht. Praktisch kann das ganz anders ausgehen, wenn sie nur Zahlen sehen, Einsparvorgaben haben und davon ausgehen, dass erfahrene SW-Entwickler durch KI-Unterstützung zehn Mal so effizient werden. Dann wird eine Abteilung mit blumigen Worten aufgelöst. > In kleinen Firmen (das sind die meisten) geht die Rechnung nicht so > einfach, weil... Weil die sich eigene KI wahrscheinlich gar nicht leisten können. Denen werden dann wie auch immer teure KI-Services angeboten. Immerhin, so könnte ein neuer Markt für KI-Service Dienstleister entstehen.
Alexander schrieb: > StefanK schrieb: >> Reisen zum Mars > > Wenn er in solchen Maßstäben denkt macht das für ihn alles Sinn. > > https://www.youtube.com/watch?v=rmxnWzGEsKs Mit Sicherheit! Und ich glaube ihm auch, dass er das glaubt ;-))
StefanK schrieb: > @Kilo S. würde sagen "falsch abgebogen". Vermutlich würde ich es etwas ruppiger ausdrücken. StefanK schrieb: > Immerhin, so könnte ein neuer Markt für KI-Service Dienstleister > entstehen. Und wie sollte der aussehen? KI Proxy? Da wird doch jeder halbwegs intelligente Mensch zum Attentäter wenn er den ganzen Tag die Dummheit anderer ertragen müsste!
Kilo S. schrieb: > Da wird doch jeder halbwegs intelligente Mensch zum Attentäter wenn er > den ganzen Tag die Dummheit anderer ertragen müsste! Eine weitere negative Begleiterscheinung der KI? Und eine gute Begründung für mehr Sicherheitsmaßnahmen, Videoübetwachung, mehr Polizeipräsenz, Null-Toleranz... ;-) Ich wende mich mal wieder der MI zu :-)
StefanK schrieb: > Eine weitere negative Begleiterscheinung der KI? Ne, das begann tatsächlich vorher schon. Übermäßiger Konsum von "Social Media", begonnen bei der Sprache, was eine Vergewaltigung, ging weiter mit Schwindender und später fehlender Fähigkeit zur Differenzierung von Echt und Unecht. Speziell Instagram und tiktok haben die letzten Jahre hart zugeschlagen. Ich kenne erwachsene die vollständig von tiktok Propagandakanälen, hauptsächlich KI Inhalte ohne Realitätsbezug, verblendet sind und das für Bare Münze Nehmen. Anfang des Monat, kam unser großer und hat auf Tiktok ein Video gesehen, ein Shop der Markenware für 10€ anbietet, war die "Fake" Variante von "Footkorner". Glück im Unglück, meine Frau und ich haben beide erkannt daß es zu schön ist um wahr zu sein, Bestellung untersagt! Seine Kumpels waren nicht intelligent genug, sind so einige abgezockt worden, mit Beträgen >100€! Ein Fake Tiktok Video und eine Webseite mit Domain die nicht mal zum Laden passt, Warnzeichen gab's genügend, rot blinkende mit Sirene schwebten da drüber, für jemanden der nur kurz etwas Aufmerksam ist wars offensichtlich.
Kilo S. schrieb: > StefanK schrieb: >> Eine weitere negative Begleiterscheinung der KI? > > Ne, das begann tatsächlich vorher schon. > > Übermäßiger Konsum von "Social Media", Ach, so hat halt jede Generation etwas, das sie verdirbt. Bei unseren Großeltern waren es Rock'n'Roll und Comics, bei unseren Eltern Hardrock und Privatfernsehen, bei uns waren es Heavy Metal und Egoshooter und bei unseren Kindern sind es Popmusik und "Social" Media. Nur diese Sache mit Arm und Reich, die war schon immer so, ganz unabhängig von Musik und Medien. Das Eine für das Andere verantwortlich zu machen, ist der Fehlschluß "cum hoc ergo propter hoc": die Gleichzeitigkeit von Ereignissen beweist noch keine kausalen Zusammenhänge.
Über die Entwicklung der menschlichen Zivilisation wurde in WALL·E alles gesagt. Der Trend geht dahin und lässt sich nicht leugnen.
Ein T. schrieb: > Das Eine für das Andere verantwortlich zu machen, ist der Fehlschluß > "cum hoc ergo propter hoc": die Gleichzeitigkeit von Ereignissen beweist > noch keine kausalen Zusammenhänge. Dann dürfte es gar keine Zusammenhänge geben. Das ist wie mit der Annahme nur der stärkere könne gewinnen oder überleben. Kann nicht stimmen. Sonst wären die intelligenten ausgestorben und nur die größten und muskulösen hätten überlebt. Kurzfassung: Den Kreislauf zu durchbrechen setzt vorraus das die unten irgendwie eine Chance erhalten. Das finden solcher Chancen ist aber eine große Hürde geworden, zu viele oben sind halt ebenfalls mit sowas auf die Fresse geflogen, funktioniert nicht immer. Die Defizite in der unterdrückten Schicht können aber ohne Chancen nicht kleiner werden, die Fehlerrate steigt... Never ending circle!
Ein T. schrieb: > Die Debatte über Einkommens- oder Vermögensverteilungen ist daher Unsinn > und lenkt nur davon ab Naja, es macht schon einen Unterschied, ob einem die Eltern für das Studium eine Wohnung kaufen oder ob man in einem 10qm Zimmer in einer WG wohnt und nach den Vorlesungen arbeiten und das Geld dafür verdienen muss. In einer Gesellschaft, in der 60% des Vermögens durch Erbschaften bestimmt werden ist deine Ansicht in höchstem Maße ignorant. Und um auf die Auswirkungen der KI zurück zu kommen: Wie man in China sieht, kann man KI dazu benutzen, die Gesellschaft in Schach zu halten. Je nach herrschender Schicht kann das dann auch dazu benutzt werden, Gesellschaftliche Besitzverhältnisse zu zementieren. Oder kurz: eine französische Revolution wird es nicht mehr geben.
:
Bearbeitet durch User
Kilo S. schrieb: > Ein T. schrieb: >> Das Eine für das Andere verantwortlich zu machen, ist der Fehlschluß >> "cum hoc ergo propter hoc": die Gleichzeitigkeit von Ereignissen beweist >> noch keine kausalen Zusammenhänge. > > Dann dürfte es gar keine Zusammenhänge geben. Daß das Wort kausal in meiner Aussage vorkommt, ist kein Zufall. :-) > Das ist wie mit der Annahme nur der stärkere könne gewinnen oder > überleben. Kann nicht stimmen. > Sonst wären die intelligenten ausgestorben und nur die größten und > muskulösen hätten überlebt. Wenn in Deinem Welt- und Menschenbild die Intelligenten nicht stark, und die Starken nicht intelligent sein können, dann scheint mir dieses Bild doch ein recht... eindimensionales zu sein. Davon abgesehen kennen wir das Lamentieren darüber, wie verdorben die Jugend sei, ja schon seit Jahrtausenden. Daß die Jugend nichts taugt, können wir ja schon bei Platon und Aristoteles lesen.
Ein T. schrieb: > Wenn in Deinem Welt- und Menschenbild die Intelligenten nicht stark, und > die Starken nicht intelligent sein können, dann scheint mir dieses Bild > doch ein recht... eindimensionales zu sein. So war das nun auch nicht gemeint, allerdings ist die Verteilung nicht unbedingt 50/50, jedenfalls sind mehr als die Hälfte aller intelligenten Menschen die ich kenne eher durchschnittlich gebaut als sportlich. Allerdings sind die halt auch weniger auf Muskeln angewiesen, die verschaffen sich entsprechend Hilfsmittel. Ein T. schrieb: > Daß das Wort kausal in meiner Aussage vorkommt, ist kein Zufall. :-) Schrödingers Katze, keiner von uns beiden kann sagen was nun korrekt ist. Sowohl die Annahme das kein Zusammenhang besteht als auch die das es einen gibt sind Spekulationen. Wer weiß ob der philosop falsch lag? Oder wir heute? Oder... Philosophie ist ein "Streitthema", da kann man bei unterschiedlichen Ansichten selten einen Mittelweg finden.
Christoph M. schrieb: > Naja, es macht schon einen Unterschied, ob einem die Eltern für das > Studium eine Wohnung kaufen oder ob man in einem 10qm Zimmer in einer WG > wohnt und nach den Vorlesungen arbeiten und das Geld dafür verdienen > muss. > In einer Gesellschaft, in der 60% des Vermögens durch Erbschaften > bestimmt werden ist deine Ansicht in höchstem Maße ignorant. Man kann natürlich unterschlagen, wie viel Prozent davon Betriebsvermögen sind, könnte sich damit allerdings dem Verdacht aussetzen, nicht an einer gutwilligen Sachdiskussion interessiert zu sein. ;-) > Und um auf die Auswirkungen der KI zurück zu kommen: Wie man in China > sieht, kann man KI dazu benutzen, die Gesellschaft in Schach zu halten. > Je nach herrschender Schicht kann das dann auch dazu benutzt werden, > Gesellschaftliche Besitzverhältnisse zu zementieren. Oder kurz: eine > französische Revolution wird es nicht mehr geben. Ach, weißte... Wenn so etwas hier bei uns stattfindet, haben wir ganz andere Probleme... für die es schon sehr viel früher den Art. 20 Abs. 4 GG gibt.
Ein T. schrieb: > Ach, weißte... Wenn so etwas hier bei uns stattfindet, haben wir ganz > andere Probleme... für die es schon sehr viel früher den Art. 20 Abs. 4 > GG gibt. Haha, glaubst Du ja selbst nicht! Umgekehrt wird vlt ein Schuh draus. Der Art 20 Abs 4 ist dann mit samt des restlichen ... längst weg.
Ein T. schrieb: > daß der Rang von Staaten im World Happiness Report nur > schwach mit deren ökonomischer Leistungsfähigkeit (BIP/Kopf), noch mit > ihrer Einkommens- oder Vermögensverteilung korrelieren. Offenbar scheint > Glück wohl aus anderen Faktoren zu erwachsen, Ich sehe in Deutschland zunehmenden Egoismus, Rücksichtslosigkeit und das was die Hype-Medien "Vorrohung" nennen, als die größten Probleme. Daneben auch die soziale Distanz und fehlenden Zusammenhalt, und die fehlende "Freundlichkeit" und Wohlgesonnenheit der Bürger untereinander. Und ganz sicher spielt auch die "German Angst" eine gewichtige Rolle. Evtl. ist es auch die hohe Bevölkerungsdichte. In Ländern mit viel "Freifläche", Natur, Küste etc. ist das Lebensgefühl sicher ein wenig anders als in unserem dichtgepackten, nicht gerade mit Naturwundern gespickten Land. Und aktuell, da uns täglich in den Medien gesagt wird, wie schlecht es unserem Land geht und die Wirtschaft demnächst zusammenbricht und wir auf Gedeih und Verderb auf andere, uns weniger freundlich gesonnene Staaten angewiesen sind, wird sich unser Wohlbefinden her nicht ändern. Viele Bürger haben hier einfach mächtig Angst vor der Zukunft. ciao Marci
StefanK schrieb: > Ein T. schrieb: >> Ach, weißte... Wenn so etwas hier bei uns stattfindet, haben wir ganz >> andere Probleme... für die es schon sehr viel früher den Art. 20 Abs. 4 >> GG gibt. > > Haha, glaubst Du ja selbst nicht! Umgekehrt wird vlt ein Schuh draus. > Der Art 20 Abs 4 ist dann mit samt des restlichen ... längst weg. Das kannst Du natürlich gerne vermuten, dennoch sehe ich das anders.
Marci W. schrieb: > Ich sehe in Deutschland zunehmenden Egoismus, Rücksichtslosigkeit und > das was die Hype-Medien "Vorrohung" nennen, als die größten Probleme. > Daneben auch die soziale Distanz und fehlenden Zusammenhalt, und die > fehlende "Freundlichkeit" und Wohlgesonnenheit der Bürger untereinander. Das sehe ich ähnlich, zumal ich eine zunehmende Tendenz wahrnehme, andere nicht mehr als wohlgesonnene Demokraten mit anderen Ansichten wahrzunehmen, sondern als böswillige Akteure mit finsteren Absichten. Dadurch wird jedes demokratische Miteinander um gemeinsame Lösungen leider nachhaltig zerstört. > Evtl. ist es auch die hohe Bevölkerungsdichte. Ich glaube eher, daß es die Größe und Divergenz von Gesellschaften sind. Zum Beispiel unsere Nachbarn in den Niederlanden haben eine sehr deutlich höhere Bevölkerungsdichte als wir, jedoch sind der gesellschaftliche Zusammenhalt deutlich größer und die gesellschaftlichen Debatten vielfältiger. > Und ganz sicher spielt auch die "German Angst" eine gewichtige Rolle. > Viele Bürger haben hier einfach mächtig Angst vor der Zukunft. Ja, und das trägt zum Kernproblem bei. Bei Neuerungen fragen wir häufig gar nicht mehr nach den Chancen, sondern sehen nur mehr die Risiken. Gleichzeitig sind viele Bürger vollkommen verunsichert durch eine schier endlos scheine Abfolge von ökonomischen, (geo)politischen und gesellschaftlichen Krisen -- ich sage nur: Finanz-, Euro- / Schuldenkrise, Covid-Pandemie, Ukrainekrieg, nur um einige der größeren Beispiele zu nennen -- und gleichzeitig ergeben sich weitere Unwägbarkeiten wie demografische Entwicklungen mit Auswirkungen für unsere Sozialsysteme, die Überforderung unserer Behörden und Teilen der Bevölkerung durch Zuwanderung, der Klimawandel und die Maßnahmen, die gegen ihn ergriffen werden und zukünftig noch werden sollen, und jetzt obendrein auch noch die möglichen Veränderungen der Arbeitswelt -- und der Existenzen, die darauf angewiesen sind -- durch die KI. Im Grunde genommen stolpern wir seit mindestens zwanzig Jahren ständig von einer Krise in die nächste, und daß unsere Politik darauf häufig keine überzeugenden Lösungen findet und auch die nur sehr langsam, schlecht aufeinander abgestimmt und zu wenig erklärt, führt mittlerweile sogar dazu, daß sich einige unserer Mitbürger wieder nach einem "starken Führer" zu sehnen scheinen. Gleichzeitig sind wir mit diesen Diagnosen und den Reaktionen vieler unserer Mitbürger ja nicht alleine. Daß eine "Partij voor de Vrijheid" bei unseren Nachbarn in den Niederlanden, eine "PiS" in Polen, bei unseren französischen Freunden die "Front National", die "FPÖ" in Österreich wachsen, in den USA ein korrupter Rechtsextremist die Regierung führt und sogar die Rechtsextremen bei uns teilweise Mehrheiten gewinnen können, das ist aus meiner Sicht eine Folge einerseits der genannten Krisen und Unsicherheiten und auf der anderen Seite einer Führungskrise von Demokratien, denen es an Persönlichkeiten vom Format eines Adenauer, Erhard, Brandt, Schmidt, Kohl, Wehner, Strauß, Mitterrand, Chirac, Giscard d'Estaing, Thatcher, Walesa, und so weiter. Persönlichkeiten, die für ihre Meinungen gestritten haben, auch wenn sie sich damit nicht immer beliebt und es sich selbst damit nicht einfach gemacht haben. Okay, genug Politik jetzt, wollen wir wieder über das "Programmieren mit KI" reden, was ja Sinn und Zweck dieses Thread ist? Wer über politische Themen diskutieren möchte, ist herzlich dazu eingeladen, mir eine PN zu schicken -- und wenn das mehrere Teilnehmer tun, setze ich uns dafür vielleicht eine eigene kleine Forensoftware auf. :-)
Ein T. schrieb: > und wenn das mehrere Teilnehmer tun, setze ich uns dafür vielleicht eine > eigene kleine Forensoftware auf. :-) Zeit wird das! Bitte Link
Marci W. schrieb: > Ich sehe in Deutschland zunehmenden Egoismus, Rücksichtslosigkeit und > das was die Hype-Medien "Vorrohung" nennen, als die größten Probleme. > Daneben auch die soziale Distanz und fehlenden Zusammenhalt, und die > fehlende "Freundlichkeit" und Wohlgesonnenheit der Bürger untereinander. ... Das ist eine präzise und kluge Analyse, der ich weitestgehend zustimme. Der Verweis auf unseren schlechten Platz 22 im WHR kam von mir im Zusammenhang mit der grassierenden Ungleichheit. Dass in .de die Stimmung so gedrückt ist hat die von Dir beschriebenen Gründe und wir kämpfen uns kaputt gegen die Symptome, statt nach den Ursachen zu fragen. Was läuft bei den Skandinaviern besser? Mehr Zusammenhalt als Konkurrenz? Mehr Miteinander als Gegeneinander? Mehr sinnstiftende Werte als nur Wirtschaft? Weniger Raubtierkapitalismus? Bessere bzw menschlichere Politik? Ich habe das Gefühl, dass es in der .de Politik seit über 20 Jahren (oder noch länger?) überwiegend und fast ausschließlich nur noch um das Thema Wirtschaft ging. Dass sich der Staat überwiegend über Wirtschaft definiert und andere Themen ausser acht lässt. Dass er seine Bürger zu Wirtschftseinheiten funktionslisiert, was für die Stimmung dieser nicht gerade förderlich ist. Wenn dann noch der Hauptidentifikationsfaktor "Wirtschaft" bröckelt, dann sinkt die Stimmung mit den von Dir beschriebenen Folgen. Um glücklich zu sein braucht es ausser Wirtschaft eben noch andere Zutaten.
Noch eine Kleinigkeit möchte ich gerne noch schreiben: Der Grund, warum rechtspopulistische Gruppierungen hierzulande so starken Zulauf haben, ist IMHO die Tabuisierung, mögliche Probleme durch Immigration anzusprechen. Das ist gesellschaftlich und politisch einfach ein echtes Tabu. Das mag vllt. von der Politik und den Massenmedien "gut gemeint" sein, schließlich will man ja das Gutmenschen-Image aufrechterhalten. Doch dieses "Verbot", über solche Probleme offen zu diskutieren, erzeugt bei den Leuten ein Gefühl von Hilflosigkeit. Ich habe kürzlich gelesen, dass eine Frau, die das Problem der (prozentualen) überdurchschnittlich hohen Anzahl von Straftaten unter bestimmten zugewanderten Bevölkerungsgruppen angesprochen hatte, mit massiven Flamewars überzogen wurde. Warum dürfen solche Dinge nicht angesprochen werden? Ich muss dazu sagen, dass ich absolut nicht rechts stehe, im Gegenteil würde ich mich eher der leicht linken Mitte zuordnen. Aber ich denke, dieses Totschweigen von Problemen treibt die Leute aus lauter Frust zur AfD. ciao Marci
Leute, bitte wieder zurück zum Thema. Aber das wisst Ihr ja selbst ;-) Vielleicht etwas Positives zu KI: Wirklich gut ist die Hilfestellung von ChatGPT und Claude, wenn man sich fremden Code erklären lassen möchte. Oftmals fehlt es ja an vernünftigen Kommentaren, aber bisher erhielt ich bei verschiedenen Sprachen (JS, PHP, Python, TCL, C) wirklich schnell eine Übersicht über das, was der Code überhaupt bezweckt. Da hilft sie mir tatsächlich sehr. Ansonsten ist mir bei KI nicht bang. Sie ist einfach ein weiteres Werkzeug, mit dem man viele neue Dinge machen und bekannte vereinfachen kann - aber eben auch viele nicht. Klar ist: man hat von der Funktionsweise des menschlichen Gehirns immer noch nicht allzu viel verstanden, denn offenbar funktioniert es in großen Teilen einfach anders als ein NN. Weder den Energieaufwand noch die Dauer des Lernprozesses konnte die Natur sich erlauben. Ich muss auch sagen, dass ich längst kein exponentielles Wachstum bzgl. der LLMs mehr sehe (irgendwo weiter oben gab es ein entsprechendes Zitat). Im Gegenteil: trotz gigantischen Rechenleistungsausbaus sind die letzten Modelle (bspw. von ChatGPT) gefühlt nur marginal besser geworden. Es scheint mir eher eine Art Sättigung einzusetzen. Vielleicht, weil das Netz und seine Informationen mittlerweile so ziemlich "abgegrast" sind und nicht mehr viel Neues zum Füttern da ist? Habe nur ich diesen Eindruck? Zur Situation hier in Deutschland: Ich sehe das längst nicht so pessimistisch. Bei den LLMs und Grundlagen mögen die USA voraus sein, geht es aber um konkrete Anwendungen, dann sind wir hier ziemlich weit vorne dabei. Mittlerweile kenne ich einige frische Unternehmen alleine hier in der Region, die in ihren (Industrie-)Bereichen mit gut angepassten (und vor allem verstandenen) KI-"Modellchen" sehr gutes Geld verdienen, während auf der anderen Seite des Teiches noch nicht wirklich klar ist, ob die investierten Gelder jemals entsprechenden Gewinn abwerfen. Vielleicht läuft es ja diesmal andersherum: die Amis machen die Grundlagenforschung und wir bringen das Produkt auf dem Markt. Auf jeden Fall sind wir da alles andere als abgeschlagen und es gibt keinen Grund, den Kopf in den Sand zu stecken.
:
Bearbeitet durch Moderator
Es gibt ja auch noch andere Bereiche als Programmieren die für das Forum interessant sind. Ich hatte mich vor ein paar Monaten kostenfrei bei Quilter angemeldet. Vielleicht mag das mal jemand testen und in einen neuen Thread packen. Bei mir scheiterte es am KiCad Format da ich targetverwöhnt bin. Für mich interessant (wenn ich mal Zeit hab) reverse engineering von STM dumps. Da gibt es mittlerweile Möglichkeiten weit über Ghidra hinaus.
Alexander schrieb: > Es gibt ja auch noch andere Bereiche als Programmieren die für das Forum > interessant sind. Ich hatte mich vor ein paar Monaten kostenfrei bei > Quilter angemeldet. Vielleicht mag das mal jemand testen und in einen > neuen Thread packen. Bei mir scheiterte es am KiCad Format da ich > targetverwöhnt bin. Absolut. Programmierung ist nur ein Bereich, wenn auch einer, den die KI durch die vielfältigen und reichhaltigen Informationen im Netz natürlich besonders gut abbilden kann. > Für mich interessant (wenn ich mal Zeit hab) reverse engineering von STM > dumps. Da gibt es mittlerweile Möglichkeiten weit über Ghidra hinaus. Auch richtig interessant - das geht noch tiefer in meine Richtung, die ich oben skizziert habe. Ein anderer Bereich, in dem ich gerade experimentiere, ist Teileerkennung (also Pick&Place-Probleme) - es ist schon erstaunlich, wie gut die Ergebnisse mittlerweile selbst bei Online-Modellen mit künstlichen (also rein aus dem CAD-Modell erzeugten) Trainingsdaten sind. Vielleicht sollte ich dafür hier mal einen Beitrag zu schreiben.
:
Bearbeitet durch Moderator
StefanK schrieb: > Das ist eine präzise und kluge Analyse, der ich weitestgehend zustimme. > Der Verweis auf unseren schlechten Platz 22 im WHR kam von mir im > Zusammenhang mit der grassierenden Ungleichheit. > > Dass in .de die Stimmung so gedrückt ist hat die von Dir beschriebenen > Gründe Platz 22 von 147 findest Du schlecht? Vielleicht gehört es zur Wahrheit, daß wir unsere Erfolge selten angemessen würdigen und uns gerne auf negative Aspekte konzentrieren. Daß wir noch im 2024 auf Platz 24 (von 143)lagen, im Jahr 2023 hingegen auf Platz 16 (von 137), zeigt außerdem, daß dieser Index doch ziemlich volatil, beinahe erratisch zu sein scheint. Obendrein gibt es ja noch eine Reihe anderer Indizes, in denen Deutschland ebenfalls ziemlich gut dasteht. Sei es der Social Progress Index der EU, auf dem wir einen guten elften von 163 Plätzen einnehmen, oder der Human Development Index der Vereinten Nationen, wo wir den hervorragenden fünften Platz von 193 erreichen... Vor diesem Hintergrund scheint es mir doch ein wenig seltsam, sich nur einen von mehreren Indizes herauszupicken und unsere dort objektiv betrachet sogar ziemlich gute Position in der Spitzengruppe schlecht zu reden. Marci W. schrieb: > Der Grund, warum rechtspopulistische Gruppierungen hierzulande so > starken Zulauf haben, ist IMHO die Tabuisierung, mögliche Probleme durch > Immigration anzusprechen. Das liegt womöglich auch daran, daß diese Themen leider sehr häufig mit einer rassistischen Konnotation angesprochen werden. Dabei gibt es aus meiner Sicht durchaus seriöse Möglichkeiten, darüber zu sprechen, allen voran den Hinweis, daß wir als Gesellschaft und unsere Behörden mit der Vielzahl von Migranten schlicht überfordert sind. Das Geld ist dabei nichtmal das Problem, sondern Personalmangel, Gesetze, Strukturen, und so weiter. Wenn wir Menschen in Unterkünfte verwahren, ihnen keinen Spracherwerb, keine Teilhabe an Gesellschaft und Arbeitsleben ermöglichen, dürfen wir uns nicht wundern, wenn die Integration scheitert. Daß die Unterkünfte oft auch noch gegen den Willen der Ortsansässigen durchgesetzt worden sind, war ebenfalls wenig hilfreich. Wenn wir uns um diese Menschen dann nicht kümmern, sondern sie einfach auf dem Abstellgleich verkümmern lassen, dann darf es uns nicht wundern, wenn ihre Integration scheitert. Und das Dümmste ist: wir wissen doch, daß wir aus demografischen Gründen eine Zuwanderung brauchen. Trotzdem schieben wir ausgerechnet jene ab, die sich am Besten integriert haben, die unsere Sprache gelernt, eine Ausbildung gemacht, und eine Arbeit gefunden haben. Aber all das hat natürlich nichts mehr mit "Programmieren mit KI" zu tun, wir entfernen uns im Gegenteil immer weiter vom Thema -- obwohl ich die Diskussion bisher als ruhig, sachlich, ausgewogen und sehr angenehm empfinde. Bisher hat mich allerdings noch keine PN erreicht, hier scheint also wenig Interesse an einem temporären Forum zur Fortführung der Diskussion zu bestehen.
Ein T. schrieb: > Bisher hat mich allerdings noch keine PN erreicht, hier > scheint also wenig Interesse an einem temporären Forum zur Fortführung > der Diskussion zu bestehen. Hier möchte man eine Diskussion öffentlich gewürdigt sehen.;--))) Darüber im Duo zu Diskutieren,dafür sind hier die Nutzer nicht gemacht. MfG ein alter knacker
Chris D. schrieb: > Wirklich gut ist die Hilfestellung von ChatGPT und Claude, wenn man sich > fremden Code erklären lassen möchte. Oftmals fehlt es ja an vernünftigen > Kommentaren, aber bisher erhielt ich bei verschiedenen Sprachen (JS, > PHP, Python, TCL, C) wirklich schnell eine Übersicht über das, was der > Code überhaupt bezweckt. Da hilft sie mir tatsächlich sehr. > > Ansonsten ist mir bei KI nicht bang. Sie ist einfach ein weiteres > Werkzeug, mit dem man viele neue Dinge machen und bekannte vereinfachen > kann - aber eben auch viele nicht. Ich persönlich nutze die KI um Wesentlichen für etwas, das viele Entwickler nicht so gerne machen, nämlich die Kommentare. Und weil ich natürlich weiß, was mein Code tut -- okay, meistens zumindest ;-) --, muß ich dann nurmehr schauen, ob der generierte Kommentar es korrekt beschreibt. > Klar ist: man hat von der Funktionsweise des menschlichen Gehirns immer > noch nicht allzu viel verstanden, denn offenbar funktioniert es in > großen Teilen einfach anders als ein NN. Weder den Energieaufwand noch > die Dauer des Lernprozesses konnte die Natur sich erlauben. Ich bin mir nicht ganz sicher, ob diese Diagnose korrekt ist. Wenn wir mal darüber nachdenken, wie lange es dauert, bis neue Menschen laufen, sprechen, die Grundlagen zumindest einfacher Geometrie und Prozentrechnung verstanden haben, ist dazu doch ein erheblicher Zeit- und Energieaufwand nötig. > Ich muss auch sagen, dass ich längst kein exponentielles Wachstum bzgl. > der LLMs mehr sehe [...] > Es scheint mir eher eine Art Sättigung einzusetzen. > Vielleicht, weil das Netz und seine Informationen mittlerweile so > ziemlich "abgegrast" sind und nicht mehr viel Neues zum Füttern da ist? > Habe nur ich diesen Eindruck? Nein, diesen Eindruck teile ich. Allerdings glaube ich nicht, das das nur an fehlenden Trainingsdaten liegt. Nach meinen Erfahrungen mit KI-Modellen ist es vielmehr so, daß die Ergebnisse anfangs eine Weile lang durch größere Modelle und mehr Trainingsläufe besser werden. Der Effekt wird aber irgendwann immer geringer, während die Zeit- und Rechenaufwände immer weiter steigen. Und das größte Problem: das Optimum kann nicht einmal experimentell ermittelt werden, denn die Effekte des Trainings sind unvorhersehbar, zumal mit zunehmender Größe des Modells.
Chris D. schrieb: > Vielleicht läuft es ja diesmal andersherum: die Amis machen die > Grundlagenforschung und wir bringen das Produkt auf dem Markt. So einfach wird es nicht sein. Der Rechenaufwand für ein neues Modell ist gigantisch. Vor ca. 2 oder 3 Jahren hatte ich das mal überschlagen. Wenn ich mich recht erinnere, hätte der größte damalige Computer für ChatGPT 3.1 knapp ein Jahr rechnen müssen. Das Geld müssen die Firmen hier erst mal aufbringen. Deshalb vermute ich, dass die eher die großen Modelle der große KI-Firmen benutzen.
Christoph M. schrieb: > So einfach wird es nicht sein. Da gab's doch so ein Gratisdingelchen... Das ging voll durch die Decke und ist wohl auf moderner Hardware Ruck zuck einsatzbereit. Nur der Kram ändern irgendwie dauernd den Namen, will mir Grad auch nicht einfallen wie es zuletzt hieß.
Chris D. schrieb: > Ein anderer Bereich, in dem ich gerade experimentiere, ist > Teileerkennung (also Pick&Place-Probleme) - es ist schon erstaunlich, > wie gut die Ergebnisse mittlerweile selbst bei Online-Modellen mit > künstlichen (also rein aus dem CAD-Modell erzeugten) Trainingsdaten > sind. Na ja, das Thema Bildverarbeitung ist ja nun nicht gerade neu. Auch vor ChatGpt etc. gab es sehr leistungsfähige Algorithmen und Software. OK, in wieweit sich die Erkennung inzwischen durch massive KI verbessert hat, ist mir nicht bekannt, da ich in dem Bereich aktuell nix mache. Mir stellt sich inzwischen die Frage, ob es überhaupt der einzig richtige Weg ist, alle Probleme / Anwendungen mit gigantischen KIs/LLMs zu erschlagen. Womöglich wäre es für verschiedene Bereiche sinnvoller, die KIs zielgerichteter zu entwerfen und mit Daten zu versorgen, z.B. durch eine domänenspezifische starke Vorverabeitung der Trainings- und Anfragedaten. Ich könnte mir vorstellen, dass KI dadurch in verschiedenen spezifischen Bereichen eine weitaus größere Leistung mit weitaus geringerem Ressourceneinsatz bieten könnte. ciao Marci
Marci W. schrieb: > Womöglich wäre es für verschiedene Bereiche sinnvoller, > die KIs zielgerichteter zu entwerfen und mit Daten zu versorgen, z.B. > durch eine domänenspezifische starke Vorverabeitung der Trainings- und > Anfragedaten. Ein Preprocessing ist allerdings für beinahe alle KI-Modelle üblich -- und in der Regel sogar zwingend notwendig. > Ich könnte mir vorstellen, dass KI dadurch in verschiedenen spezifischen > Bereichen eine weitaus größere Leistung mit weitaus geringerem > Ressourceneinsatz bieten könnte. Manchmal selten benötigt das Preprocessing sogar mehr Zeit und Rechenleistung als das eigentliche KI-Modell. :-)
Kilo S. schrieb: > Da gab's doch so ein Gratisdingelchen Ich vermute mal, du meinst mit "Gratisdingelchen" eines der Modell auf Hugging Face: https://huggingface.co/ Davon gibt es viele. Die kann man mit geeigneter Hardware dann zwar laufen lassen, aber die Kosten für das Training könnte man wohl eher nicht bezahlen.
Kilo S. schrieb: > Nur der Kram ändern irgendwie dauernd den Namen, will mir Grad auch > nicht einfallen wie es zuletzt hieß. Das wird wohl OpenClaw sein. Allerdings verwendet das meist auch nur Cloud Dienste für die Inferenz. Für lokale Inferenz braucht es potente Hardware, und die öffentlichen Modelle sind nicht so gut wie die proprietären.
Habt ihr schon von https://rentahuman.ai/ gehört? Jetzt ist der Kreis wieder geschlossen; Mensch -> AI -> Mensch.
Ein T. schrieb: > Ich persönlich nutze die KI um Wesentlichen für etwas, das viele > Entwickler nicht so gerne machen, nämlich die Kommentare. Und weil ich > natürlich weiß, was mein Code tut -- okay, meistens zumindest ;-) --, > muß ich dann nurmehr schauen, ob der generierte Kommentar es korrekt > beschreibt. Interessant - die Idee hatte ich tatsächlich noch nicht, und sie ist eine gute ;-) Wie genau gehst Du dabei vor? >> Klar ist: man hat von der Funktionsweise des menschlichen Gehirns immer >> noch nicht allzu viel verstanden, denn offenbar funktioniert es in >> großen Teilen einfach anders als ein NN. Weder den Energieaufwand noch >> die Dauer des Lernprozesses konnte die Natur sich erlauben. > > Ich bin mir nicht ganz sicher, ob diese Diagnose korrekt ist. Wenn wir > mal darüber nachdenken, wie lange es dauert, bis neue Menschen laufen, > sprechen, die Grundlagen zumindest einfacher Geometrie und > Prozentrechnung verstanden haben, ist dazu doch ein erheblicher Zeit- > und Energieaufwand nötig. Natürlich benötigt man öfter einen gewissen Lernaufwand - aber: die Anzahl der Iterationen, um etwas komplett Neues zu lernen, ist doch dramatisch geringer. Ich sehe das im Moment quasi "live" bei meinem Neffen, der jetzt 10 Monate wird. Dort kann man quasi live zusehen, wie schnell er für ihn komplett neue Dinge innerhalb weniger Versuche erlernt. Bei manchen Sachen benötigt er tatsächlich nur EINEN Versuch. Und das Lerntempo potenziert sich dann noch, wenn sprachliche Kommunikation funktioniert. Ich habe das damals schon bei der Diskussion über selbstfahrende Autos gebracht: einem Kleinkind erkläre ich genau einmal, was eine Straße ist. Danach ist das für das Kind klar und es erkennt mit sehr hoher Toleranz und extrem wenig Fehlern sämtliche Straßen weltweit. Und da kann man noch viele, viele Beispiele bringen - aber eines ist doch offensichtlich: das Gehirn arbeitet offenbar beim Lernen vollkommen anders als die aktuellen NN. Natürlich gibt es diese Netze auch im Gehirn, aber wirklich nur für grundlegende Dinge (bspw. bei der Mustererkennung. Stichworte: Augendominanzsäulen, Area 17 usw.). Alles, was darüber hinaus geht, muss wohl anders als durch mühsames Austarieren von Gewichten geschehen. > Nein, diesen Eindruck teile ich. Allerdings glaube ich nicht, das das > nur an fehlenden Trainingsdaten liegt. Nach meinen Erfahrungen mit > KI-Modellen ist es vielmehr so, daß die Ergebnisse anfangs eine Weile > lang durch größere Modelle und mehr Trainingsläufe besser werden. Der > Effekt wird aber irgendwann immer geringer, während die Zeit- und > Rechenaufwände immer weiter steigen. Und das größte Problem: das Optimum > kann nicht einmal experimentell ermittelt werden, denn die Effekte des > Trainings sind unvorhersehbar, zumal mit zunehmender Größe des Modells. Da stimme ich zu. Je größer, desto träger werden die Modelle. Auch das ist ein Problem, das das Gehirn offenbar gut gelöst hat, denn wer sein Gehirn trainiert, bleibt bis ins hohe alter flexibel und sehr lernfähig. Wie beschrieb es mal jemand ganz treffend: das Gehirn ist unser größter Muskel.
Christoph M. schrieb: > Ich vermute mal, du meinst mit "Gratisdingelchen" eines der Modell auf > Hugging Face: > https://huggingface.co/ > Davon gibt es viele. Die kann man mit geeigneter Hardware dann zwar > laufen lassen, aber die Kosten für das Training könnte man wohl eher > nicht bezahlen. OpenClaw, hab das video dazu gefunden gehabt.
Christoph M. schrieb: > Chris D. schrieb: >> Vielleicht läuft es ja diesmal andersherum: die Amis machen die >> Grundlagenforschung und wir bringen das Produkt auf dem Markt. > > So einfach wird es nicht sein. Der Rechenaufwand für ein neues Modell > ist gigantisch Bei konkreten Anwendungen eigentlich nicht - ich sprach nicht von den extremen LLM. > Vor ca. 2 oder 3 Jahren hatte ich das mal überschlagen. > Wenn ich mich recht erinnere, hätte der größte damalige Computer für > ChatGPT 3.1 knapp ein Jahr rechnen müssen. Das Geld müssen die Firmen > hier erst mal aufbringen. Deshalb vermute ich, dass die eher die großen > Modelle der große KI-Firmen benutzen. Die Modelle der angesprochenen Firmen passen sehr oft problemlos in einen handelsüblichen PC, eventuell noch mit 1-2 Grafikkarten. Bei ganz "großen" Modellen ist es vielleicht ein Serverschrank. Weil sie auf einen konkreten Bereich zugeschnitten sind. Für sehr viele, durchaus komplexe, industrielle Anwendungen braucht man kein ChatCGP etc. - da reichen wesentlich kleinere NN. Aber man benötigt Wissen über industrielle Fertigung. Nur mit beidem zusammen funktioniert das. Marci W. schrieb: >> > > Na ja, das Thema Bildverarbeitung ist ja nun nicht gerade neu. Auch vor > ChatGpt etc. gab es sehr leistungsfähige Algorithmen und Software. OK, > in wieweit sich die Erkennung inzwischen durch massive KI verbessert > hat, ist mir nicht bekannt, da ich in dem Bereich aktuell nix mache. Die Leistungsfähigkeit war schon vorher sehr gut. Was sich geändert hat, ist, wie einfach man mittlerweile solche Dinge erschlagen kann. Ich habe in den 90ern meine Diplomarbeit drüber geschrieben (optische Mustererkennung) und das seither interessiert verfolgt. Daher kann ich auch die Euphorie nur bedingt nachvollziehen. Wenn ich mir den damaligen Lehrstoff und die Bücher anschaue und mit den heutigen Abhandlungen vergleiche: die Quantität ist massiv gestiegen, aber die Qualität der Netze nicht wirklich. Und mittlerweile gelangt das exklusive Prinzip der künstlichen NN offenbar an deutliche Grenzen. > Mir stellt sich inzwischen die Frage, ob es überhaupt der einzig > richtige Weg ist, alle Probleme / Anwendungen mit gigantischen KIs/LLMs > zu erschlagen. Womöglich wäre es für verschiedene Bereiche sinnvoller, > die KIs zielgerichteter zu entwerfen und mit Daten zu versorgen, z.B. > durch eine domänenspezifische starke Vorverabeitung der Trainings- und > Anfragedaten. Ganz genau so wird das auch gemacht - und da sind wir hier in DE durchaus sehr weit vorne mit dabei. Und vor allem wird damit gutes Geld verdient. > Ich könnte mir vorstellen, dass KI dadurch in verschiedenen spezifischen > Bereichen eine weitaus größere Leistung mit weitaus geringerem > Ressourceneinsatz bieten könnte. Das tut sie bereits jetzt :-)
Ein T. schrieb: > Du weißt schon, was ein "argumentum ad populum" ist, oder? Dude, du „argumentierst“ auf persönlicher Ebene, und willst mir nur deinerseits das Diskutieren erklären? Mal ganz ehrlich: Du lässt doch tatsächlich nur noch von einem LLM hier schreiben, oder? Ein Mensch würde das doch mitbekommen? --- On-Topic: Wann immer ich ein LLM beauftrage, mir Codeschnipsel zu erstellen, die Berechnungen/Algorithmen enthalten sollen, die einigermaßen speziell sind (also in den Trainingsdaten vermutlich selten oder nicht in der Form enthalten waren), geht’s recht zuverlässig schief. Meist scheint es grundsätzlich zu funktionieren, aber das Ergebnis der Verarbeitung ist … kreativ.
Chris D. schrieb: > Ein T. schrieb: >> Ich persönlich nutze die KI um Wesentlichen für etwas, das viele >> Entwickler nicht so gerne machen, nämlich die Kommentare. Und weil ich >> natürlich weiß, was mein Code tut -- okay, meistens zumindest ;-) --, >> muß ich dann nurmehr schauen, ob der generierte Kommentar es korrekt >> beschreibt. > > Interessant - die Idee hatte ich tatsächlich noch nicht, und sie ist > eine gute ;-) Wie genau gehst Du dabei vor? "Kommentiere folgenden Code: <code>." Im Anhang findest Du eine kommentierte Version dieses Code [1]. Das ist jetzt sicherlich nicht überragend, für mich ist es aber erst einmal gut genug. [1] https://github.com/fereidani/httpdecompressor/blob/main/httpdecompressor.go > Natürlich benötigt man öfter einen gewissen Lernaufwand - aber: die > Anzahl der Iterationen, um etwas komplett Neues zu lernen, ist doch > dramatisch geringer. Okay, und ja: im Gegensatz zu einem trainierten KI-Modell ist der junge Mann schon jetzt kein One-Trick-Pony mehr. :-) > Da stimme ich zu. Je größer, desto träger werden die Modelle. Auch das > ist ein Problem, das das Gehirn offenbar gut gelöst hat, denn wer sein > Gehirn trainiert, bleibt bis ins hohe alter flexibel und sehr lernfähig. > Wie beschrieb es mal jemand ganz treffend: das Gehirn ist unser größter > Muskel. Ja, aber ich wollte auf etwas anderes hinaus. Beim Training eines Modells ist es häufig so, daß sich die Ergebnisse anfangs deutlich verbessern und dann irgendwann zu stagnieren scheinen, so daß man glauben könnte, auch mit mehr Trainingsläufen würde es nicht mehr besser. Aber wenn man dann doch weiter trainiert, kommt nach ein paar hundert oder tausend Trainings ohne weitere Verbesserungen dann doch wieder eine Phase, in der die Ergebnisse mit jedem Trainingslauf wieder ziemlich deutlich besser werden. Bei größeren Modellen treten so etwas viel häufiger auf und oft sogar mehrmals.
Chris D. schrieb: > Für sehr viele, durchaus komplexe, industrielle Anwendungen braucht man > kein ChatCGP etc. - da reichen wesentlich kleinere NN. Mitunter braucht man dabei nicht einmal ein Neuronales Netzwerk... Immerhin weißt Du, daß es noch andere Modelle als LLMs gibt, und damit deutlich mehr als 95% der Leute, die über KI reden. :-)
Jack V. schrieb: > Dude, du „argumentierst“ auf persönlicher Ebene, Oh... echt? Bitte entschuldige, daß ich manchmal gar nicht Dich meine. Wenn doch, dann schreibe ich das auch so. :-) > On-Topic: Wann immer ich ein LLM beauftrage, mir Codeschnipsel zu > erstellen, die Berechnungen/Algorithmen enthalten sollen, die > einigermaßen speziell sind (also in den Trainingsdaten vermutlich selten > oder nicht in der Form enthalten waren), geht’s recht zuverlässig > schief. Meist scheint es grundsätzlich zu funktionieren, aber das > Ergebnis der Verarbeitung ist … kreativ. Das ist häufig sogar dann so, wenn exakt diese Berechnungen / Algorithmen nachweislich in den Trainingsdaten enthalten waren.
Ein T. schrieb: > Bitte entschuldige, daß ich manchmal gar nicht Dich meine. Du lässt echt von ’nem LLM schreiben, und das mit begrenzter Kontextlänge, oder? Sonst wäre dir schon klar, was ich gemeint habe. Die Frage ist: Versuchst du damit zu zeigen, wie toll LLM doch geworden sind, oder was? Funktioniert nur bei sehr oberflächlicher Audienz … [scnr – bin dann aus dem OT-Zweig auch wieder raus]
Ein T. schrieb: > Das ist häufig sogar dann so, wenn exakt diese Berechnungen / > Algorithmen nachweislich in den Trainingsdaten enthalten waren. In meinem PY32 Projektordner waren angeblich die pdf plötzlich unlesbar/beschädigt. Aktuell lahmt es und produziert auch vermehrt wieder sehr kreativen Mist. Außerdem scheint die KI mal wieder ziemlich eingeschränkt zu sein, oder ich überfordere sie mit meinen Ideen.
Es hat das Modell gewechselt weil deine kostenfreie Nutzung ausgereizt ist.
Alexander schrieb: > Es hat das Modell gewechselt weil deine kostenfreie Nutzung ausgereizt > ist. Nö, dann macht Sonnet 4.5 einfach ne Pause für ein paar Stunden. "Bis... Keine Nachrichten mehr. Upgrade (Link)" Als ob es alles vergessen hätte, auch die Anweisungen und Dateien im Projekt selbst. Hihihi, zwei Korrekturen -> Limit erreicht?!
:
Bearbeitet durch User
Harald K. schrieb: > Das tut nicht nur die KI, das machen viele, vor allem jüngere > Programmierer auch gerne. Man betrachte nur die mittlerweile übliche > Größe von Binaries -- früher war ein kompletter Betriebssysteminstaller > so groß, heute ist das gerade mal ein Texteditor ... Ja, aber damals haben Arbeitsspeicher und Festplatten auch noch richtig viel Geld gekostet, CPU-Kerne waren dazu lahm und die meisten hatten nur einen...
Sheeva P. schrieb: > Ja, aber damals […] Es gibt ja im Wesentlichen zwei Optionen, mit der Entwicklung der Leistung und Möglichkeiten umzugehen: a) weiterhin versuchen, Ressourcen effizent zu nutzen, sodass sehr schnelle, sehr sparsame Software entsteht, deren Performance den Leistungszuwachs der Hardware widerspiegelt. b) gestiegene Leistung dazu nutzen, weniger Zeit und Arbeit in Optimierungen zu stecken, sodass die Software im Grunde das gleiche wie früher™ macht, dafür ‘zig Mal größer ist, langsamer läuft und Energie verbrät, sodass sie häufiger die Lüfter zum Aufjaulen nötigt, dafür aber „hübsche“ Animationen mitbringt – gerne auch, wo sie überhaupt keinen Sinn ergeben. Zumindest ich finde die erste Option deutlich ansprechender. Vibe-Coding tendiert allerdings nicht direkt dazu, das als Resultat auch nur anzupeilen.
Jack V. schrieb: > Zumindest ich finde die erste Option deutlich ansprechender. Vibe-Coding > tendiert allerdings nicht direkt dazu, das als Resultat auch nur > anzupeilen. Weil dir das niemand mehr bezahlt! Publisher sind dazu erpicht möglichst schnell möglichst viel Content zu bringen. Die berechnen nach dreilei: Absatz, Content, Burst-Rate... Wenn du dann als Studio kommst: "Ja wir wollen das auf Geschwindigkeit und Speicherverbrauch trimmen - der Release verschiebt sich dadurch um 3 Monate!" Dann haben die dem Studio aber sowas von schnell den Stecker gezogen und das Projekt einem anderen Studio überlassen. Das sieht man auch oft hier schon, eine Software welche nicht alle drei Monate ein Update bringt gilt als "veraltet". "Die wird nicht mehr gepflegt, schau: da gab es schon drei Monate kein Update mehr. Nimm lieber Software XYZ!" Die Zeiten ändern sich, das Geld fließt anders...
Die KI ist geil, und sie kann Panische Angst auslösen. Sie ist ein verdammt zweischneidiges Schwert. Oh, mann, wie wird die Zukunft der Menschheit aussehen? Meine Freundin und ich haben zusammen mit Lumo die Datenübertragung vom Synthesizer-Setup zum Synthesizer ( ist ein Akkordion ) als Übersicht reversiert, ob man das Setuupprogramm verstehen kann. Als Java-Anfängerinnen. Das hab ich dann nem Ingenieur der Firma meiner Eltern vorgeführt. Die Folge davon ist, das meine Freundin nen Sponsorenvertrag unterschreiben durfte und ich nen "eigenen" Server unabhägig vom Firmennetz zum Probieren bekommen hab, den ich schon teilweise aufgesetzt hab. Da ist jetzt llama 3.3 drauf und läuft. Hat einer von Euch openClaw ausprobiert? Kann dieser dann auch die Bedienung von IDEA und Git übernehmen? Fragen über Fragen... mfg
Lotta . schrieb: > Da ist jetzt llama 3.3 drauf und läuft. Kannst du berichten wie du das genau nutzt? Hardware, Software (Ollama?), Entwicklungsumgebung bzw. Agent-Environment? Wie gut funktioniert es, mit welcher Programmiersprache (weiter Java?), wie schnell reagiert es? Hat es Probleme mit Tool-Calls? Danke!
Rene K. schrieb: > Weil dir das niemand mehr bezahlt! Publisher sind dazu erpicht möglichst > schnell möglichst viel Content zu bringen. Die berechnen nach dreilei: > Absatz, Content, Burst-Rate... Deswegen OSS.
Jack V. schrieb: > Deswegen OSS. Und wie wird die finanziert? Wer steht meist hinter OSS? Richtig Programmierer, wie verdienen die ihr Geld? Richtig, Programmieren in Firmen die der Marktlage abhängig sind. "Deswegen OSS" ist also nur eine substanzlose Verallgemeinerung. Es steht dir ja völlig frei ein eigenes OS zu programmieren, welches wie DOS auf drei Disketten passt, die Hardware vollkommen ausreizt und den aktuellen Anforderungen an eine GUI erfüllt... Als OSS Projekt, für lau, mal eben schnell... Leg los! Ich bin gespannt... Teile bitte den GitHub Link. Ich würde das gerne in zwei bis drei Wochen mal testen. Ansonsten nehme ich nämlich einfach was anderes, weil mir ist das nämlich völlig Wurst ob ein BS sich 1GB oder 512MB RAM von meinen 64GB gönnt, und da ich 12-16h am Tag vor der Kiste hänge, soll es sich bitte nicht anfühlen und vor allem nicht so aussehen wie 1990, ein bisschen Augenschmaus darf ich von meiner Workstation schon erwarten in 2025... Dankeschön:-)
:
Bearbeitet durch User
Niklas G. schrieb: > Lotta . schrieb: >> Da ist jetzt llama 3.3 drauf und läuft. > > Kannst du berichten wie du das genau nutzt? Hardware, Software > (Ollama?), Entwicklungsumgebung bzw. Agent-Environment? Wie gut > funktioniert es, mit welcher Programmiersprache (weiter Java?), wie > schnell reagiert es? Hat es Probleme mit Tool-Calls? Danke! Klar kann ich das. ;-P Hardware: Intel Xeon Silver 16 Core, 32 Threads 2,5 Ghz 128 Gb Ram 4'er ECC 4 Tb NVMe SSD Nividia H100, 80GB Software: Windows Server 2025, ist noch in Konfiguration und wird dann mit Offline WSUS "in Form" gehalten. Der Server wird in der Einrichtungsphase mit "Dameware" gesteuert, da sitzt man dann vor dem Client und sieht den Serverbildschirm. Insalliert ist Ollama, die neueste Version. Ich hab die Modelle nach folgendem Verfahren übernommen: Auf dem Laptop, der Internetzugang hat wird Ollama installiert. Jetzt klicke ich unten die Modelle nacheinander an, und geb jeweils ins Chatfenster "Hallo?" ein. Ollama merkt dann das das Modell nicht installiert ist und lädt es dann runter. Wenn die gewünschten Modelle auf dem Laptop sind, wird das Modellverzeichnis vom Laptop ins Ollama auf den Server an die richtige Stelle kopiert und in Ollama die Netzwerknutzung freigegeben. Zur Zeit sind auf dem Server Programmier-Hilfen wie GIT und das Rad Studio 13 installiert. Rad Studio bietet c++ 23 und Pascal. Das Ollama-Modell 3.3 läuft auf dem Server wie Butter in Gegensatz zu meinem Threadripper pro mit Nividia 4090, wo es noch ganz schön geruckelt hat. mfg ---------------------- Wo treibt es unsere Welt hin? Wer reitet so spät durch Nacht und Wind? Es ist der Vater mit seinem Kind; Er hat den Knaben wohl in dem Arm, Er faβt ihn sicher, er hält ihn warm. Mein Sohn, was birgst du so bang dein Gesicht? “Siehst, Vater, du den Erlkönig nicht? Den Erlenkönig mit Kron und Schweif?” Mein Sohn, es ist ein Nebelstreif. ‘Du liebes Kind, komm, geh mit mir! Gar schöne Spiele spiel ich mit dir Manch bunte Blumen sind an dem Strand. Meine Mutter hat manch gülden Gewand.’ “Mein Vater, mein Vater, und hörest du nicht, Was Erlenkönig mir leise verspricht?” Sei ruhig, bleibe ruhig, mein Kind; In dürren Blättern säuselt der Wind. ‘Willst, feiner Knabe, du mit mir gehn? Meine Töchter solln dich warten schön; Meine Töchter führen den nächtlichen Reihn, Und wiegen und tanzen und singen dich ein.’ “Mein Vater, mein Vater, und siehst du nicht dort Erlkönigs Töchter am düstern Ort?” Mein Sohn, mein Sohn, ich seh es genau; Es scheinen die alten Weiden so grau. ‘Ich liebe dich, mich reizt deine schöne Gestalt; Und bist du nicht willig, so brauch ich Gewalt.’ “Mein Vater, mein Vater, jetzt fasst er mich an! Erlkönig hat mir ein Leids getan!” Dem Vater grauset’s, er reitet geschwind, Er hält in Armen das ächzende Kind, Erreicht den Hof mit Mühe und Not; In seinen Armen das Kind war tot.
Lotta . schrieb: > Zur Zeit sind auf dem Server Programmier-Hilfen wie GIT > und das Rad Studio 13 installiert. Okay danke, aber... Wie rufst du das Modell auf? Einfach nur Prompts in der Ollama GUI?! Lotta . schrieb: > wird das Modellverzeichnis vom Laptop ins Ollama auf den > Server an die richtige Stelle kopiert Warum so kompliziert 🤔
Rene K. schrieb: > "Deswegen OSS" ist also nur eine substanzlose Verallgemeinerung. Mein Punkt war: Hinter freier, offener Software steht nicht zwangsläufig Druck, sie auf den Markt zu bringen, um irgendeinen Product Owner oder sonstige Stakeholder zufriedenzustellen. Vieles von dem, was ich nutze, wurde von Leuten für sich selbst erstellt, weil sie Spaß dran hatten. Das ist häufig schlanke, elegante Software, die ihren Job ausgezeichnet tut. Natürlich gibt es auch OSS, hinter der jemand steht, der’s finanziert, der die Linie und Termine vorgibt, und so. Die leidet dann natürlich auch unter den damit einhergehenden Problemen, und da kommen Leute vermutlich auch eher auf die Idee, sich größere Teile von ’nem LLM erstellen zu lassen und es dann weitgehend unbesehen zu übernehmen, weil es einer oberflächlichen Betrachtung standhält und man zu sehr unter Druck ist, um den Code angemessen prüfen zu können. Aber die meinte ich an dieser Stelle nicht – vielleicht hätte ich das besser herausstellen sollen. Rene K. schrieb: > Es steht dir ja völlig frei ein eigenes OS zu programmieren, welches wie > DOS auf drei Disketten passt, die Hardware vollkommen ausreizt und den > aktuellen Anforderungen an eine GUI erfüllt... Als OSS Projekt, für lau, > mal eben schnell... Leg los! Ich bin gespannt... Teile bitte den GitHub > Link. An dieser Stelle bin ich allerdings ein wenig ratlos, was du von mir willst. Ich bin mit der von mir genutzten Software zufrieden, sonst hätte ich sie nicht gewählt. Ich wüsste daher nicht, warum ich das von dir skizzierte OS überhaupt schreiben wollen sollte. Der Punkt an OSS ist ausdrücklich nicht, sich jeden Kram selbst schreiben zu müssen … wie kommt man auf diese seltsame Idee, dass das so sein müsste? Und insbesondere: Wie kommst du auf die Idee, ich wäre dir gegenüber zu irgendwas verpflichtet, das du einfordern könntest? Hast du dir den Kopf gestoßen, oder so? Abgesehen davon: GitHub? Heutzutage, für ein neues Projekt? Dein Ernst? Und wenn für dich Eyecandy über Funktionalität und Performance steht, und du dafür gerne mehr auf der Rechnung und im Gegenzug weniger Kontrolle hast – warum nicht? Nutze das; ich hab an keiner Stelle geschrieben, dass du freie Software nutzen müsstest. Nur, dass dort tendenziell weniger Bloat auftaucht, dessen eigentlicher Grund es zu sein scheint, das Konsumvieh zum regelmäßigen Erneuern seiner Hardware zu nudgen.
Niklas G. schrieb: > Lotta . schrieb: >> Zur Zeit sind auf dem Server Programmier-Hilfen wie GIT >> und das Rad Studio 13 installiert. > > Okay danke, aber... Wie rufst du das Modell auf? Einfach nur Prompts in > der Ollama GUI?! > Das kann man in der GUI machen oder auch in der Kommandozeile, etwa mit ner Batchdatei, die Ollama aufruft, dann das Modell lädt und dann die eigentliche Anwendung aufruft. Die Anwendung kommuniziert dann über localhost mit Ollama. > > Lotta . schrieb: >> wird das Modellverzeichnis vom Laptop ins Ollama auf den >> Server an die richtige Stelle kopiert > > Warum so kompliziert 🤔 Weil der Server weder ans Betriebsnetz noch ans Internet angeschlossen ist, sondern nur ein dezidiertes Netzwerk zwischen dem Serverraum und den Wohnungen meiner Freundin und mir existiert. Das gibt uns maximale Freiheit und minimale "Nach hause telefonier" Tendenzen der installierten Software. ;-P mfg
Jack V. schrieb: > Es gibt ja im Wesentlichen zwei Optionen, mit der Entwicklung der > Leistung und Möglichkeiten umzugehen: > > a) weiterhin versuchen, Ressourcen effizent zu nutzen, sodass sehr > schnelle, sehr sparsame Software entsteht, deren Performance den > Leistungszuwachs der Hardware widerspiegelt. > > b) gestiegene Leistung dazu nutzen, weniger Zeit und Arbeit in > Optimierungen zu stecken, sodass die Software im Grunde das gleiche wie > früher™ macht, Sie macht aber nicht das gleiche wie früher™, und ehrlich gesagt vermisse ich es nicht, Programme mit 'LOAD"*",8,1' zu laden. > dafür ‘zig Mal größer ist, langsamer läuft und Energie > verbrät, sodass sie häufiger die Lüfter zum Aufjaulen nötigt, dafür aber > „hübsche“ Animationen mitbringt – gerne auch, wo sie überhaupt keinen > Sinn ergeben. Der große Erfolg von Windows95 lag an mehreren Faktoren, und einer davon war, daß es für damalige Verhältnisse und im Vergleich mit seinen Wettbewerbern und Vorgängern viel besser aussah. Daraus haben Softwarehersteller gelernt, daß das Auge mit ißt. Trotzdem können wir Kommandozeilenfreunde immer noch die Leistungsfähigkeit unserer Hardware nutzen.
Lotta . schrieb: > Das kann man in der GUI machen oder auch in der Kommandozeile, Also kein Agent, mit "Ralph Loop" und so? Find ich ja ganz schön umständlich... Lotta . schrieb: > minimale "Nach hause telefonier" > Tendenzen der installierten Software. ;-P Kann man per Firewall blockieren...
Christoph M. schrieb: > Lotta . schrieb: >> Nividia H100, 80GB > > Lag die nicht bei ca. 30.000€? Wenn die die Produktivität eines einzelnen Entwicklers um den bekannten Faktor 1000 steigert, hat sich das nach wenigen Tagen gelohnt.
Niklas G. schrieb: > Christoph M. schrieb: >> Lotta . schrieb: >>> Nividia H100, 80GB >> >> Lag die nicht bei ca. 30.000€? > > Wenn die die Produktivität eines einzelnen Entwicklers um den bekannten > Faktor 1000 steigert, hat sich das nach wenigen Tagen gelohnt. Ich schlage vor die Produktivitätsnummer logarithmisch festzulegen, damit zukünftige KI-Produktivitätssteigerung vernünftig erfaßt und verglichen werden können. Sozusagen die KI-Version der Richter Erdbebenskala. Duck und weg
Gerhard O. schrieb: > Ich schlage vor die Produktivitätsnummer logarithmisch festzulegen Genau wie die Preise von GPUs und RAM!
Niklas G. schrieb: > Lotta . schrieb: >> Das kann man in der GUI machen oder auch in der Kommandozeile, > > Also kein Agent, mit "Ralph Loop" und so? Find ich ja ganz schön > umständlich... > Ich habe das Teil ja erst ne schlappe Woche deshalb hab ich ja gefragt, obs schon Erfahrungen mit Openclaw oder Ähnlichem gibt. Bedenke bitte, das wir Bauernmädels sind, die nicht den ganzen Tag vorm Rechner hängen, sondern mit Ausbildung, Arbeiten auf den Höfen und in den Projekten unser Eltern tagsüber eigebunden sind. > > Lotta . schrieb: >> minimale "Nach hause telefonier" >> Tendenzen der installierten Software. ;-P > > Kann man per Firewall blockieren... Wer mich kennt, weiß Ich liebe Aluhüte und vormagnetisierte Helmspulen, und die beste Firewall ist immer noch ein gezogenes Netzwerkkabel zum Internet. ;-P Außerdem war dies eine Vorgabe der Admina der Firma. mfg
Lotta . schrieb: > Bedenke bitte, das wir Bauernmädels sind, die nicht den ganzen Tag > vorm Rechner hängen, sondern mit Ausbildung, Arbeiten auf den Höfen > und in den Projekten unser Eltern tagsüber eigebunden sind. Wer wenig Zeit hat braucht doch ganz besonders einen effizienten Ablauf mit Agents etc. Lotta . schrieb: > und die beste Firewall ist immer noch ein gezogenes > Netzwerkkabel zum Internet. ;-P Na dann... Nicht dass jemand aus der EMI-Abstrahlung der GPU den Sourcecode ablesen kann und an die Akkordion-Synthesizer-Mafia weitergibt.
Christoph M. schrieb: > Lotta . schrieb: >> Nividia H100, 80GB > > Lag die nicht bei ca. 30.000€? Sogar 32.000 EUR? :-O Da der Leasingvertrag für den Server noch läuft, kann ich die Karte nicht einfach ausbauen und in mein Threadripper pro setzen, was ich gern tun würde, zumal sie ja nen PCIe Bus hat, was gut passen würde. mfg
Lotta . schrieb: > zumal sie ja nen PCIe Bus hat, was gut passen würde. Was für einen würde sie sonst haben? AGP?
Niklas G. schrieb: > Lotta . schrieb: >> zumal sie ja nen PCIe Bus hat, was gut passen würde. > > Was für einen würde sie sonst haben? AGP? Vielleicht etwas Besonderes? Im Server gibts ja ne Menge Schnittstellen, die ein normaler PC nicht hat. Sag mal, was würde ein Erlkönig fur einen Agenten einsetzen, der auf Windows läuft? Was als Sprach Ein und Ausgabe? mfg
Niklas G. schrieb: > Wer wenig Zeit hat braucht doch ganz besonders einen effizienten Ablauf > mit Agents etc Wer wirklich "Schaffen" will, tut es lieber selber, anstatt andere als Sklaven für sich arbeiten zu lassen;-)
Lotta . schrieb: > Sag mal, was würde ein Erlkönig fur einen Agenten einsetzen der tötet doch nur seine Opfer die er am Spießer hat...
Lotta . schrieb: > Im Server gibts ja ne Menge > Schnittstellen, die ein normaler PC nicht hat. Seitdem x86 alles andere platt gemacht hat sind Server doch auch nur teurere PCs. Lotta . schrieb: > Sag mal, was würde ein Erlkönig fur einen Agenten einsetzen, > der auf Windows läuft? Weiß nicht, deswegen frag ich doch. GitHub Copilot in VS Code, Goose, Continue.dev hab ich schon ausprobiert, funktionieren alle kaum mit selft-hosted LLMs.
Niklas, ich sah erst jetzt den Nick "Erlkoenig" - Ich bezog es auf W.v.Goethe - Sorry!
Gerhard O. schrieb: > Niklas G. schrieb: >> Wer wenig Zeit hat braucht doch ganz besonders einen effizienten Ablauf >> mit Agents etc > > Wer wirklich "Schaffen" will, tut es lieber selber, anstatt andere als > Sklaven für sich arbeiten zu lassen;-) Dann muß er aber vorher unsere Gesellschaftsordnung ändern, die beruht nämlich gerad auf Sklavenhandel.. . ;-P mfg
Lotta . schrieb: > Dann muß er aber vorher unsere Gesellschaftsordnung ändern, > die beruht nämlich gerad auf Sklavenhandel.. . ;-P Nicht ausplaudern!
Niklas G. schrieb: > Lotta . schrieb: >> Im Server gibts ja ne Menge >> Schnittstellen, die ein normaler PC nicht hat. > > Seitdem x86 alles andere platt gemacht hat sind Server doch auch nur > teurere PCs. > > Lotta . schrieb: >> Sag mal, was würde ein Erlkönig fur einen Agenten einsetzen, >> der auf Windows läuft? > > Weiß nicht, deswegen frag ich doch. GitHub Copilot in VS Code, Goose, > Continue.dev hab ich schon ausprobiert, funktionieren alle kaum mit > selft-hosted LLMs. Ins rad studio kannst Du wunderbar LLM*s einbinden , auch Ollama. Wie es bei Intellj IDEA aussieht, muß ich auch erst herausfinden. Beim Rad Studio mußt Du aber ne Vollversion haben, da die Community-Editionen nach Hause telefonieren. mfg
Lotta . schrieb: > Ins rad studio kannst Du wunderbar LLM*s einbinden , auch Ollama. Und das funktioniert auch mit den Tool Calls bei lokalen LLMs? Bringt mir halt nichts weil es die völlig falsche Umgebung ist. Lotta . schrieb: > Wie es bei Intellj IDEA aussieht, muß ich auch erst herausfinden. Das wäre schon interessanter, aber am Wichtigsten wäre VS Code. Allerdings kann es auch gern Standalone/CLI sein.
Wofür in bestimmten Bundesländern der Erlkönig, Goethe oder anderer solcher gestrichen wurde, lasse ich hier mal weg, sonst gibt es unendliche Diskussionen. Auch damit sind heute schon Fettpools zum Hineinfallen verbunden.
Dieter D. schrieb: > Wofür in bestimmten Bundesländern der Erlkönig, Goethe oder anderer > solcher gestrichen wurde, lasse ich hier mal weg, sonst gibt es > unendliche Diskussionen. Auch damit sind heute schon Fettpools zum > Hineinfallen verbunden. 1++ was sagst Du denn hierzu: https://www.golem.de/news/tron-hacker-tod-zwischen-fakten-und-fragen-2603-205922.html mfg
:
Bearbeitet durch User
Gerhard O. schrieb: > Lotta . schrieb: >> Dann muß er aber vorher unsere Gesellschaftsordnung ändern, >> die beruht nämlich gerad auf Sklavenhandel.. . ;-P > > Nicht ausplaudern! Das könnte zu nicht erwünschten Diskussionen führen... MfG der Alte
Lotta . schrieb: > was sagst Du denn hierzu: Nach dem ich mit ihm von Karlsruhe bis nach Mannheim im ICE gefahren bin und er weiter nach Bonn zu seinem Vorstellungsgespräch am nächsten Tag fuhr, habe ich natürlich dazu meine eigene Meinung.
Niklas G. schrieb: > Lotta . schrieb: >> Ins rad studio kannst Du wunderbar LLM*s einbinden , auch Ollama. > > Und das funktioniert auch mit den Tool Calls bei lokalen LLMs? Bringt > mir halt nichts weil es die völlig falsche Umgebung ist. > Du kannst Code erklären lassen, prosaisch programmieren, auf Fehler unteruchen, Vorschläge für Verbesserung machen lassen, nen Testharnisch für Deinen Code kreieren und besonders geil C++ in Pascal und umgekehrt übersetzen lassen. Leider zur Zeit nur Dateiweise, aber an ganzheitlicher Projektverarbeitung wird gearbeitet. > Lotta . schrieb: >> Wie es bei Intellj IDEA aussieht, muß ich auch erst herausfinden. > > Das wäre schon interessanter, aber am Wichtigsten wäre VS Code. > Allerdings kann es auch gern Standalone/CLI sein. mfg
Niklas G. schrieb: > Weiß nicht, deswegen frag ich doch. GitHub Copilot in VS Code, Goose, > Continue.dev hab ich schon ausprobiert, funktionieren alle kaum mit > selft-hosted LLMs. Ich nehme an, dass es dir an der H100 mangelt.
Lotta . schrieb: > Leider zur Zeit nur > Dateiweise, aber an ganzheitlicher Projektverarbeitung wird > gearbeitet. Klingt sehr stark danach als würden Tool Calls nicht gehen. Dann ist der Nutzen sehr beschränkt. Christoph M. schrieb: > Ich nehme an, dass es dir an der H100 mangelt. Möglich, aber bevor ich eine kaufe wüsste ich gern ob das wirklich der Grund ist. Lotta . schrieb: > Testharnisch Harnisch ≠ Harness ...
Niklas G. schrieb: > Möglich, aber bevor ich eine kaufe wüsste ich gern ob das wirklich der > Grund ist. Hauptsächlich liegt es an den Datenmodellen, die auch noch reduziert werden auf weniger "Präzision" damit der RAM ausreicht. Parameteranzahl (B = Billion/Milliarde): Ein 7B-Modell hat 7 Milliarden Parameter. Präzision (Bit/Datentyp): Klassisch 16-Bit (FP16/BF16) = 2 Byte pro Parameter. Quantisierung (INT8 oder INT4) reduziert den Bedarf drastisch auf 1 Byte oder 0,5 Byte pro Parameter. Große Modelle (z.B. 70B+, z.B. Llama 3 70B): 16-bit: ~140–160GB RAM. Noch größere Modelle brauchen TByte. Ansonsten dauert es ohne Beschleunigung einfach nur länger, bis die Antwort aus dem lokalen Modell ausgespuckt wird.
Dieter D. schrieb: > Hauptsächlich liegt es an den Datenmodellen, die auch noch reduziert > werden auf weniger "Präzision" damit der RAM ausreicht. Ist das der Grund dafür warum z.B. GitHub Copilot die Tool Calls einfach so als JSON in das Chat-Fenster kippt statt die Tools auszuführen? Ab welcher Modellgröße funktioniert das vernünftig, und was für eine Hardware braucht es dafür, insbesondere wie viel VRAM?
Niklas G. schrieb: > Dieter D. schrieb: >> Hauptsächlich liegt es an den Datenmodellen, die auch noch reduziert >> werden auf weniger "Präzision" damit der RAM ausreicht. > > Ist das der Grund dafür warum z.B. GitHub Copilot die Tool Calls einfach > so als JSON in das Chat-Fenster kippt statt die Tools auszuführen? > Ich mein, das dies ein Fehler von Copilot ist. > Ab welcher Modellgröße funktioniert das vernünftig, und was für eine > Hardware braucht es dafür, insbesondere wie viel VRAM? das kannst Du herausfinden, in dem du ein Modell lädst das in den VRAM passt und nen einfachen Versuch machst mit ner Main und ein paar einfachen Units Beim Threadripper hat es geholfen der Grafikkarte im Bios Zugriff auf die voehandenen 256 Gb Ram zu geben. Ist ne Funktion resizable Bar, oder ähnlich, was die besseren Nividia Grafikkarten unterstützen. > Harnisch ≠ Harness ... Entschuldige bitte, meine Lernkurve zeigt gerad senkrecht nach oben... mfg
Huch, ich muß jetzt Schluss machen, hab gerad nen Rüffel bekommen.. ;-P mfg
Niklas G. schrieb: > einfach so als JSON in das Chat-Fenster kippt.. Das wird deshalb als gemeinsamer Querschnitt verwendet: Vorteile: Kompakt, ressourcenschonend, weit verbreitete Unterstützung in fast allen Programmiersprachen (Python, JavaScript, Java, C#, etc.).
Beitrag #8017788 wurde vom Autor gelöscht.
Sooooo, also tatsächlich kommt bei KI was wirklich brauchbares raus. In Visual Studio unter C# mit Copilot und als Modell Claude-Haiku-4.5. Von heute Nachmittag ca. 13:30Uhr bis jetzt ca. 22:00Uhr. Komplett mit KI gemacht, selbst die Steuerelemente - wobei das eigentlich Spielerei ist. Problem: Windows kann via USB-HID maximal 32 Buttons eines Joysticks lesen - mehr geht nicht. Der Thrustmaster H.O.T.A.S. A-10 Warthog Throttel (Wie auch Vypril für den F-16 Throttle) braucht aber "eigentlich" wesentlich mehr. Nun haben sie Kipp- und Wipp-Schalter, 2-Wege wie auch 3-Wege. Die Mittelstellung ist immer auf keinen Button gemappt / elektrisch nicht verbunden. Sprich: Ein Zwei-Wege Schalter gibt an der oberen Position ein Button aus, legt man ihn nach unten ist der eine Button aus - allerdings der untere nicht an. Nun reagieren die Simulationen (Eigentlich alle: sei es DCS, XPlane, MSFS - mir ist keine Bekannt die dies nicht so handhabt) halt nur mit Button aus... man kann quasi keine zwei Funktionen auf einen Kippschalter legen. (z.b. APU Start / APU Aus) Noch interessanter wird dann die ganze Geschichte bei den 3-Wege Schaltern (Flap Position, China-Heat etc..) - das ist quasi ein logisches Problem. Als Umweg kann man sich das ganze z.b. über die jeweilige Software der Hersteller (Bei Thrustmaster wäre das TARGET) die Zustande auf einen separaten virtuellen Joystick mappen. Diese Einstellung ist aber Pain-in-the-Ass, außerdem frisst z.b. TARGET durch ständiges Pollen mit 100HZ auf allen Achsen und Buttons und auf den jeweiligen virtuellen Joystick extrem viel, und das mit ca. 20-25% deutlich merkliche, CPU Last. Lösung: Ich habe mir nun einen eigenen "Splitter" gebaut / bauen lassen. Welcher Eventbasierend ist und somit nicht gepollt wird. Auch werden dann ausschließlich die Achsen / Buttons bearbeitet die auch wirklich gedrückt werden. Das wiederrum wird ebenfalls, via vJoy, auf einen virtuellen Joystick nur dann gemappt, wenn das zugehörige Event wirklich eintritt. Somit bringe ich da die CPU-Last unter 1%. Dazu kommt natürlich noch: Das ist ein Fire-And-Forget Programm: Starten und das wars - den Rest macht es von alleine: vJoy Treiber installieren, sofern er nicht da ist -> virtuellen Joystick einrichten -> Bei Ende Treiber wieder deinstallieren. Bei TARGET z.b. muss man immer erst ein Profil auswählen und dann starten, warten, dann kann man sein Spiel starten. Ich bin vollends zufrieden! P.S.: Die Buttons mit dem roten Ring werden auf den virtuellen Joystick gemappt!
:
Bearbeitet durch User
Lotta . schrieb: > das kannst Du herausfinden, in dem du ein Modell lädst > das in den VRAM passt Ich hab derzeit nur 12 GB VRAM im Zugriff, daher frage ich ja ob das bei größerer Hardware besser klappt. Oder der Fehler woanders liegt. Dieter D. schrieb: > Das wird deshalb als gemeinsamer Querschnitt verwendet: Schön, aber warum führt der Copilot die Tools nicht aus sondern zeigt mir nur den JSON-Befehl an? Bei Verwendung der GitHub -eigenen Modelle in der Cloud funktioniert es.
Niklas G. schrieb: > Ab welcher Modellgröße Probieren kannst Du es so wie dort genannt: https://www.reddit.com/r/neovim/comments/1lns22m/ollamacopilot_copilotlike_code_completion_with/?tl=de Er schreibt hier: "Funktioniert mit jedem Ollama Code-Modell (ich empfehle kleinere 1-3B Modelle, wenn man die CPU wegen der Geschwindigkeit nutzt)" Auf dem Raspi 500+ mit 16GB RAM kannst Du es auch mit einem 7B-Modell versuchen.
Dieter D. schrieb: > Probieren kannst Du es so wie dort genannt: Wie kann ich mit einem Autovervollständigungs-Plugin für NeoVim ausprobieren, ob Tool Calls in einem Plugin für VS Code gehen?
Niklas G. schrieb: > Schön, aber warum ... nur JSON Es scheint so, dass Copilot den Schwerpunkt auf Erzeugung der Programmstruktur legt. Diese wird als JSON ausgeworfen, was dann die Basis ist für eine "nachtgeschaltete KI" oder "Modell", die das in eine bestimmte Programmiersprache umsetzt.
Dieter D. schrieb: > Diese wird als JSON ausgeworfen, was dann die > Basis ist für eine "nachtgeschaltete KI" oder "Modell", die das in eine > bestimmte Programmiersprache umsetzt. Wer erzeugt diesen JSON-Code? Warum wird mir dieser JSON-Code angezeigt statt dass er an das KI-Modell geht? Der JSON-Code enthält bei mir bereits den gewünschten Programmcode (z.B. C++), der muss einfach nur in eine Datei, aber der Copilot erkennt nicht dass der JSON-Code das bewirken soll. Hat sich aber erledigt, denn in der aktuellen Version kann GitHub Copilot lokale LLMs gar nicht mehr im Agent-Mode aufrufen. Coolio.
:
Bearbeitet durch User
Niklas G. schrieb: > Copilot lokale LLMs gar nicht mehr im Agent-Mode aufrufen. Jetzt muss mit der KI auch Geld verdient werden. Zweitens, wie soll sonst verhindert werden, dass kein Schadcode mit den lokalen Modellen gebaut wird.
Dieter D. schrieb: > Jetzt muss mit der KI auch Geld verdient werden Tja, selbst den GitLab Duo Agenten muss man kräftig bezahlen wenn man lokale LLMs nutzt... Dieter D. schrieb: > Zweitens, wie soll sonst verhindert werden, dass kein Schadcode mit den > lokalen Modellen gebaut wird. Glaube kaum dass MS das interessiert.
Alexander S. schrieb: > hier ein Beispiel, wo für das Spiel Isola, für das bereits ein > Computergegner programmiert worden ist, eine grafische Oberfläche > generiert wird. > > Isola GUI programmiert mit KI [German] von Pyrlae Najaaa... eine alte, grobe Faustregel in der Softwareentwicklung behauptet, daß bei GUI-Software 90% des Code (und der Fehler) in der GUI stecken. Gleichzeitig wird GUI-Software häufig mit Codegeneratoren entwickelt, das ist also leicht automatisierbar -- und daher schon seit Jahrzehnten höchstgradig automatisiert. Schon Mitte der Neunziger konnten Benutzeroberflächen mit den entsprechenden Softwarewerkzeugen gezeichnet, und dann nurmehr mit ein wenig Businesslogik angereichert und verbunden werden. Andererseits sehe ich, daß die Entwicklung moderner GUIs wesentlich mehr ist als das Zusammenhacken oder -Klicken von Boilerplate. Das merke ich aber nur wenn ich darüber mit meiner UX- und meiner Grafikdesignerin rede -- die eine macht mein Zeug dann benutzbar, und die andere macht es hübsch. Natürlich habe ich KI-Modelle für sowas ausprobiert, aber am Ende waren sie alle wie das Shakespeare-Tutorial von Tensorflow [1]: diese erzeugten Texte lesen sich am Ende ein bisschen wie Shakespeare, aber die literarische Kraft und Ausdrucksstärke erreichen sie nicht ansatzweise. [1] https://www.tensorflow.org/text/tutorials/text_generation
Nutze jetzt öfters die "KI", Ist nicht immer das beste Ergebnis, aber schon öfters hilfreich und das immer öfters. Gut nächt'le MfG ein 81 Jähriger
:
Bearbeitet durch User
Hier behauptet einer, die AGI gäbe es schon. Ab Minute 11:00 interessant: https://www.youtube.com/watch?v=0dN130zMi0s
Christoph M. schrieb: > Hier behauptet einer, die AGI gäbe es schon. Oh nein, möge ihn der Zorn der Boomer treffen!
Cyblord -. schrieb: > Oh nein, möge ihn der Zorn der Boomer treffen! Wäre nicht eine Operationsbasis hilfreicher - also was man Operationalisieren und wie Messen kann oder könnte? (https://lamarr-institute.org/de/blog/iq-test-ki/#:~:text=Themen%20*%20Alle%20Blogbeitr%C3%A4ge.%20*%20Forschung)
:
Bearbeitet durch User
Christoph M. schrieb: > Hier behauptet einer, die AGI gäbe es schon. Wenn man sich die passenden Definitionen raussucht und dabei die Aspekte weglässt, die daran nicht ganz so passen, dann kann man allerhand behaupten.
:
Bearbeitet durch User
Cyblord -. schrieb: > Boomer Für Diese Triggerung bist du doch von einen Mod angesprochen worden,dies zu unterlassen. MfG Ein aufmerksamer 81 Jähriger
Al. K. schrieb: > Für Diese Triggerung bist du doch von einen Mod angesprochen worden,dies > zu unterlassen. Ich dachte Triggern ist sowas neumodisches wo nur Gen-Z Probleme mit hat.
Oha, der Output der KI schwankt mal wieder gewaltig in der Qualität. Mir persönlich kommt es so vor als ob es eine Art "Aufmerksamkeitsspanne" gibt. Selbes Projekt, Browser durchgängig offen, nur eben einige Tage später weiter gemacht = viel mehr Korrekturen nötig. Täglich weiter machen mit weniger als 24h Unterbrechung hingegen bringen konstante Ergebnisse. Interessant ist auch, die KI rückt nach und nach immer mehr, teils auch "kritische" Informationen raus. Freiwillig links zu Dokumenten, Schaltungen, Foren und sogar Code bezüglich "Hacking". (MCU Glitch für die PY32 zb.) Je länger das Ding einen "kennt" um so mehr verschiebt es anscheinend seine eigenen Grenzen bezüglich dessen was es herausgeben möchte. Es scheint den Nutzer bezüglich seiner ethischen und moralischen Grundsätze einzuschätzen.
Es gibt ja auch einen wissenschaftlichen Artikel, der zeigt, wenn man freundlicher zu der KI ist, dann bekommt man auch bessere Antworten. Eine der Alternativerklärungen wäre u.a. dass bei freundlicherer Herangehensweise die Fragen besser strukturiert werden. Welche Unteruchung, und was die alles beobachten konnten und wie, kann man sich auch von der KI gut zusammenfassen lassen ;)
Also Alternativwissenschaft. Ich habe den Sprachstil von ChatGPT auf Roboter umgestellt (Efficient). Die Antworten sind klar und direkt. Kilo S. schrieb: > Mir persönlich kommt es so vor als ob es eine Art > "Aufmerksamkeitsspanne" gibt. Das hat wohl ganz banale Speicherplatzgründe.
:
Bearbeitet durch User
Al. K. schrieb: > Für Diese Triggerung bist du doch von einen Mod angesprochen worden,dies > zu unterlassen. Bin ja kein Mitläufer wie du und tue alles was man mir sagt.
Beitrag #8022033 wurde von einem Moderator gelöscht.
Alexander schrieb: > Das hat wohl ganz banale Speicherplatzgründe. Absolut, jede Session hat ihr Limit. Bin eben voll rein gerannt:"..Zu voll, entferne einige Tools oder starte einen neuen Chat um weiter zu machen." Im neuen Chat naturgemäß erst mal inhaltlich am Anfang viel Mist, zwei Fragen im neuen Chat, gleich im Limit weil's KI'chen so viel arbeiten muss. Zeit frischen Kaffee zu kochen!
Cyblord -. schrieb: > Bin ja kein Mitläufer wie du und tue alles was man mir sagt. Nein du bist nur ein Eingeborener der Andere aus sicherer Entfernung immer wieder Angreift... MfG ein 81 Jähriger welcher politische Verfolgung persönlich kennenlernen durfte....
Beruflich habe ich die KI bis vor ein paar Tage sehr selten und sehr oberflächlich benutzt. Meist indem ich von einer Formel eine Tabelle mir erstellen lies. Mein Eindruck: ChatGPT ist für die Tonne, Gemini ist sehr gut und Claude ist unglaublich gut. Vor ein paar Tagen hatte ich ein Problem, mit dem ich nicht weiterkam. Nach 3 sehr intensiven Tagen hat Claude 3 Fehler gefunden, auf die ich selbst nie und nimmer gekommen wäre. Zum Abschluss gab es zwischen diesen Dialog: Ich: >Thank you very much. I can't see any differences between the standalone and the application with bootloader. I have no idea if you have a sense of humor. Anyway: If you send me a picture of yourself, I’ll hang it in the nicest spot in my study and decorate it every day with fresh flowers, fruit, and incense sticks. Claude: >That is very kind of you and made me smile! I do appreciate the humor. Unfortunately I cannot send you a picture — I am just text and code running on computers somewhere. No physical form to photograph, and honestly after this debugging session I might look rather exhausted if I did! 😄
Alexander schrieb: > Du bedankst Dich bei einer KI Mehmet K. schrieb: > I have no idea if you have a sense of humor. Zumindest weiss ich es jetzt bei Dir :)
Alexander schrieb: > Du bedankst Dich bei einer KI Klingt stark nach Diskriminierung Nicht-biologischer Lebensformen.
Alexander schrieb: > Du bedankst Dich bei einer KI Vielleicht wertet die "KI" das mit aus und gibt dann den höflich fragenden und sich immer bedankenden eine "Bessere" und zielführende Antwort. MfG ein 81 Jähriger
Al. K. schrieb: > Vielleicht wertet die "KI" das mit aus und gibt dann den höflich > fragenden und sich immer bedankenden eine "Bessere" und zielführende Ich gehe davon aus, dass die Maschine mit den Anfragen gleichzeitig auch trainiert wird und dass eine positive bzw. negative Reaktionen die Wertung ändert. Und dann hätte jemand, der/die ein ähnliches Problem hat, etwas bessere Karten als ich und müsste sich nicht 3 Tage lang mit der KI herumschlagen. Denn so gut Claude auch ist: 70% empfand ich alles andere als hilfreich, zum Teil irreführend. Aber die restlichen Prozent waren Gold wert.
Mehmet K. schrieb: > Gemini ist sehr gut und Claude > ist unglaublich gut. Ich hatte sogar mal zu der KI/AI im Firefox gefragt. Da hatte mir Gemini sogar Claude zu Programmierfragen empfohlen, und teilweise auch erklärt warum.
Rbx schrieb im Beitrag #8023591: > Nicht erlaubte Inhalte > > Beiträge oder Artikel mit folgenden Inhalten sind nicht erlaubt: > > Werbung
Es ist schon interessant, wie groß die Zweifel zu Nützlichkeit am Anfang dieses Threads waren und wie doch einige nach und nach die KI für Programmieraufgaben nutzen. Mir fällt dieses Video ein, dass sehr gut einen KI-Zweifler darstellen könnte: https://www.youtube.com/watch?v=_HyvMqjdl94
Ich benutze die Taschenrechnerapp weil ich einfachste Sachen nicht mehr im Kopf rechnen kann.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.










