Hier wird mir zu sehr von den jetzigen Möglichkeiten ausgegangen. In allen Bereichen ist das erstmal holprig. Nehmen wir einfach einmal die Scannerkassen oder besser noch die Pfandflaschenautomaten. Anfangs müsste man ewig warten, bis man die nächste Flasche einführen konnte. Und trotzdem wurden die Flaschen oft nicht gelesen. Heute im Aldi, da kann ich die Flaschen nicht so schnell aus der Tüte holen, wie der Automat die letzte gelesen hat. Und Fehler beim Lesen gibt es kaum. Über die Anfänge der Scannerkassen und was sie heute leisten, ich glaube darüber brauchen wir nicht mehr diskutieren. Natürlich wird das größte Problem sein, mit welchem Mikrocontroller fängt so eine KI an. Dass die KI nicht alle Mikrocontroller beherrschen wird und nicht alle Sprachen, das ist schon einmal klar. Am Ende wird es vielleicht eine KI und spezielle KI-taugliche Controller geben. Oder vielleicht haben die Controller schon KI integriert? Dann sagst du deinem Controller was du vorhast und der programmiert sich selbst. Oder ganz anders, es ist dann ein FPGA, der mit eigener KI ansprechbar ist. Am Ende entscheidet, wie immer, der Kosten/Nutzen-Faktor darüber, ob das gemacht wird. Natürlich auch ein Entscheider. MP3 hat zwar der Entwickler (weiß gerade nicht wie der heißt) zum Leben erweckt, aber sein Professor hatte sich über eine Aussage geärgert, dass das nicht möglich sei und so seinem Doktoranden diese Aufgabe erteilt. Also auch ein bisschen Glück gehört vielleicht dazu. Aber dass so etwas kommt und funktionieren wird (wenn auch nicht auf Anhieb), ist für mich keine Frage von "ob", sondern eher von "wann".
>"It is important to note that generating instructions for >microcontrollers using natural language instructions is a complex task >that would require a significant amount of research and development." Gut, damit hat ChatGPT die Eingangsfrage zu unserer vollsten Zufriedenheit beantwortet, unser Job ist für die nächsten 10 Jahre gesichert und wir können den Thread schließen ;-) Eventuell müssen wir uns nur ein wenig mit den direkten AI-Anwendungen auf den MCs selbst befassen: https://www.renesas.com/us/en/application/key-technology/artificial-intelligence/e-ai-development-environment-microcontrollers
Beitrag #7404705 wurde von einem Moderator gelöscht.
Hallo Leute, also jetzt, nachdem ich den Thread überflogen habe, und noch nicht wütend bin, schreib ich einfach mal kurz meine Gedanken/Erfahrungen: Wenn in den Medien heute vom Thema "KI" die Rede ist, ist in 99% der Fälle ChatGPT gemeint. Ich habe chatGPT ein wenig getestet zum Thema Programmieren, Kreativität, Suche. In allen Bereichen haben die Ergebnisse von chatGPT bei weitem nicht die Ergebnisse gebracht, die der Hype vermuten lässt. Die Versuche, z.B. ein Firmen-Logo erstellen zu lassen, sind z.B. absolut kläglich gescheitert. Das generelle Problem, das ich mit diesen Systemen habe: Wenn man die Frage, die ein wirklich gutes Ergebnis liefert, formulieren kann, dann braucht man die Frage gar nicht mehr zu stellen. KI ist aktuell ein gigantischer Hype, das wird wohl niemand verneinen. KI war schon mindestens einmal ein Hype, wenn auch im sehr kleinen Umfeld. Ich würde vorschlagen, wir warten mal ein paar Jahre. Dann werden wir sehen, was vom aktuellen Hype noch übrig ist. Wenn man nach den Hypes der letzten Jahre gehen würde, wären heute Autos, die sich dank KI auch in Innenstädten problemlos und sicher bewegen können, selbstverständlich auch schon in der Mittelklasse. AFAIK gibt es aktuell noch kein einziges Fahrzeug, das Level 5 erfüllt. Was mich in der Berichterstattung der Medien immer wieder ärgert ist das Wort "Algorithmus". Ich denke, die meisten Leute wissen gar nicht, was der Begriff eigentlich bedeutet. Denn im Prinzip ist ja jedes noch so einfache Computerprogramm ein Algorithmus, genau so wie ein Kochrezept. Aber jeder denkt bei Algorithmus aktuell an was richtig "Großes". Beim Thema "KI" denke ich immer an mein "was ist was"-Buch aus den 70er-Jahren zum Thema "leben im Jahr 2000". Echt witzig, die feinen Unterschiede zwischen Vorhersagen und aktueller Realität (im Jahr 2023!). Viel mehr interessiert mich, ob sich die Vorhersagen zum Thema Kernfusion irgendwann mal zum guten ändern: Seit ich das Thema verfolge (dürfte so in den 80ern gewesen sein), heißt es regelmäßig "in ca. 50 Jahren wird die Kernfusionstechnik marktreif sein". Das heißt es schon seit ca. 40 Jahren. Das ist sehr schade. Und ich kann nicht verstehen, dass vor allem die Länder ohne eigene umfangreiche fossile oder regenerative/natürliche Energiequellen hier nicht noch viel mehr Geld und Manpower investieren. Da wird, auch wenn das Budget z.B. von ITER natürlich immer wieder nach oben korrigiert werden muss, eher gekleckert statt geklotzt. Leider... Und ich denke an Expertensysteme, auf die z.B. jede Arztpraxis heute selbstverständlich Zugriff haben sollte. Wo sind die? OK, vllt. denke ich da ein wenig zu kurz, und "globale" KI kann in nächster Zeit an sich "dumme" Expertensysteme ersetzen/erweitern/ergänzen... ciao Marci
Christoph M. schrieb: > Man könnte sich ja auch vorstellen, 3D-Modelle anhand einer > Textbeschreibung erstellen zu lassen. ChatGTP ein OpenSCAD Modell erzeugen lassen. Das ist zwar noch fehlerhaft aber hat Potential.
Beitrag #7404845 wurde von einem Moderator gelöscht.
Marci W. schrieb: > jeder denkt bei Algorithmus aktuell an was richtig "Großes". Glaube ich nicht. Der begriff wird schon in der Schule im Mathe-Unterricht für Einzeiler angewendet.
Christoph M. schrieb: > Gut, damit hat ChatGPT die Eingangsfrage zu unserer vollsten > Zufriedenheit beantwortet, unser Job ist für die nächsten 10 Jahre > gesichert und wir können den Thread schließen Du hast den Fortschritt vergessen. Der hat gerade einen großen Sprung nach vorne gemacht. Einen weiteren Sprung halte ich für durchaus möglich.
Marci W. schrieb: > Die Versuche, z.B. ein Firmen-Logo erstellen zu lassen, sind z.B. > absolut kläglich gescheitert. Von einem Text-Transformer ein Firmen-Logo erstellen lassen ..... 🤔 Ok, wenn die Erwartungen unrealistisch sind, wird man zwangsläufig auch enttäusch 😅 Marci W. schrieb: > Das generelle Problem, das ich mit diesen Systemen habe: > Wenn man die Frage, die ein wirklich gutes Ergebnis liefert, formulieren > kann, dann braucht man die Frage gar nicht mehr zu stellen. Jein, angenommen du schreibst ein Python-Programm und benötigst einen Argument Parser. Kannst du natürlich googeln und copy & pasten und anpassen. Oder du sagt ChatGPT, dass du einen Python Argument Parser benötigst, der die und die Argumente hat usw und es erzeugt dir den Code dafür. Du erreichst viel mehr in kürzerer Zeit, da du dir viel Googeln sparen kannst und maßgeschneiderten Code vorgesetzt bekommst. Wie gemeint, oft nicht perfekt, aber spart Zeit. Ich lass mir auch gerne mal Dockerfiles oder docker-compose Files erzeugen. Oder ich hab ein "docker run" und möchte die passende docker-compose dazu. Oder ich hab im MongoDb-Compass eine langsam-laufende Query aber die wird so einem doofen Format angezeigt, dass man sie ohne Umformung nicht "explainen" lassen kann. Für GPT kein Problem. (Neulich hab ich GPT den Explain-Output einer Postgres-Query hingeklatscht und es erzählte mir, was die Query macht und wo ich kucken soll, wo Indizes fehlen). Oder ich muss ein Programm in Rust schreiben und die ewig nervigen Sachen wie File I/O, HTTP Requests usw nimmt mir dann alles GPT ab. Oder ich muss in einem Programm in Erlang irgendwas debuggen und hab von der Syntax keine Ahnung - muss vlt noch Änderungen machen, ohne jemals Erlang benutzt zu haben. Oder ich muss einen Monitor bauen, der sich über mehrere HTTPs requests durch json-Datenstrukturen hangelt und dann zum Schluss kA Anzahl Signaturen zählt. Einfach Requests und Responses GPT vorgeworfen und gesagt, wie es sich da durchhangeln soll und zum Schluss soll ein Bash-Code rauskommen. Usw Usf Ich hätte, selbstverständlich, mit höherem Zeitaufwand auch alles ohne GPT machen können - hab ich vorher ja auch, gibts ja noch nicht so lange. Aber jetzt spare ich mir viel Zeit damit. Ihr findet sicher auch noch den Anwendungszweck für den ihr denkt, dass GPT wirklich einen Mehrwert bringt. Ach und gibt einen großen Unterschied zwischen 3.5 und 4. Ich nutze nur 4. Und Alternativen wie HuggingChat könnt ihr in die Tonne treten - das Ding ist dumm wie Brot.
Mampf F. schrieb: > Du erreichst viel mehr in kürzerer Zeit, da du dir viel Googeln sparen > kannst und maßgeschneiderten Code vorgesetzt bekommst. Als Ergänzung hat sich bei mir noch als hilfreich erwiesen GPT darauf hinzuweisen die Kommentare so ausführlich wie möglich zu gestalten und alles gründlich zu kommentieren. Auf diese Weise kann man relativ gut gegenchecken was GPT da produziert hat und wie der "Gedankengang" ist. Denn checken muss man den Code in jedem Fall.
Man kann sich vor allem auch fremden Code erklären und kommentieren lassen. Fühlt sich an wie in einem Forum zu posten und direkt eine meistens erstaunlich gut funktionierende Antwort zu bekommen. Es gibt ansonsten ja auch jede Menge Software, wo man erstmal ne Woche lang Tutorials machen muss bis man halbwegs weiß wie man zum Ziel kommt. Richtig interessant wäre es, wenn GPT auch Programme wie z.B. FreeCAD bedienen könnte und man rein durch Textbeschreibungen Aktionen auslösen kann. Wie z.B. "erstelle mir eine Durchgangsbohrung und konstruiere ein M8 Gewinde auf der rechten Seite des Teils mit jeweils 20mm Abstand zum Rand".
Skripte für Batch und PowerShell kann ChatGPT ohne Probleme generieren und die laufen ohne jede Änderung und tun was verlangt wurde.
Frank O. schrieb: > Und wird es vielen Leuten den Job kosten? Das hat ja die Arduino Plattform schon getan. Mit Sicherheit hat sie auch neue Jobs generiert. Wenn die KI dann noch die offenen programmier Fragen, welche die arroganten Nerds hier nicht beantworten wollen beantwortet, sehe ich sehr optimistisch in die Zukunft.
Mampf F. schrieb: > Marci W. schrieb: >> Die Versuche, z.B. ein Firmen-Logo erstellen zu lassen, sind z.B. >> absolut kläglich gescheitert. > > Von einem Text-Transformer ein Firmen-Logo erstellen lassen ... > > Ok, wenn die Erwartungen unrealistisch sind, wird man zwangsläufig auch > enttäusch. Kannst auch Bilder als Text erstellen lassen, etwa als TikZ oder SVG. Siehe zum Beispiel Abschnitt "Multimodal and interdisciplinary composition: Vision" in "Sparks of Artificial General Intelligence: Early experiments with GPT-4" https://arxiv.org/pdf/2303.12712.pdf Bilder, chemische und mathematische Formeln, Musik und noch viel mehr kann man als Text darstellen, und damit haben Sprachmodellen prinzipiell Zugriff darauf. Das Vehikel der Sprachmodelle ist zwar natürliche Sprache, was aber nicht bedeutet, dass nur auf oder mit natürlicher Sprache operiert werden kann. Solche GLLMMs (Generative Large Language Multi-Modal Models, gesprochen "Gollum") können viele Aufgaben besser erledigen als für spezielle Aufgaben entworfene und trainierte KIs. Das bedeutet, dass Fortschritt in der Entwicklung viel schneller voranschreiten kann, weil nicht zig spezialisierte KIs für spezielle Aufgaben verbessert werden müssen, sondern Verbesserungen im GLLMM kommen prinzipiell allen Aufgaben zugute, welche das LM angehen kann. Und man weiß auch nicht, welche neuen Fähigkeiten sich wann, wie, ob und warum herausbilden. Beispielsweise bestanden der Input von GPT auch aus natürlicher Sprache wie Englisch und Arabisch, trainiert wurde jedoch nur darauf, gute Antworten in Englisch zu geben. Dementsprechend waren die Fähigkeiten was Arabisch anging, nicht besser als Zufall. ...Bis die Größe des LMs eine bestimmte Schwelle überschritt, und das LM anfing auch sinnvolle Chats in Arabisch führen zu können. Solches emergentes Verhalten ist ja schon irgendwie spooky. Momentan gilt die Devise "viel hilft viel" was die Größe der LMs angeht; allein dadurch, die Dinger größer zu machen, ergeben sich neue Föhigkeiten, auf die nie trainiert wurde. Änderungen am Design der LMs sindn icht erforderlich. Wo diese Entwicklung hinführt kann keiner sagen, auch nicht wie die Entwicklung bei den Sicherheitsproblemen (Misalignment, Halluzinationen, Konsistenz und Korrektheit, etc.) weiterentwickeln werden.
Johann L. schrieb: > Das Vehikel der Sprachmodelle ist zwar natürliche > Sprache, was aber nicht bedeutet, dass nur auf oder mit natürlicher > Sprache operiert werden kann. Ich finde diesen Aspekt sehr interessant. Da wurde ein System hauptsächlich dazu trainiert, Menschen nachzuplappern und deren Grammatik-Regeln zu beherrschen - und zakk: Spricht es nebenbei auch zahlreiche Programmiersprachen, einfach so. Schade, dass das den Menschen nicht ebenso leicht fällt. Bzw. gut für mich, sonst hätte ich vermutlich keinen gut bezahlten Job mehr.
Wobei man sagt ja auch, Sprache definiert nicht unerheblich das Denken. Wir denken in Sprache. Nicht unabhängig davon. Was interessant ist, weil das Denken ja irgendwie natürlichen Ursprungs sein sollte und Sprache künstlich erschaffen ist. Und doch hängt beides wohl eng zusammen. D.h. aber auch eine KI könnte auch ganz anders denken als in Sprache. Nur wäre sie dann für uns schlechter zugänglich.
Cyblord -. schrieb: > Wobei man sagt ja auch, Sprache definiert nicht unerheblich das Denken. > Wir denken in Sprache. Nicht unabhängig davon. Was interessant ist, weil > das Denken ja irgendwie natürlichen Ursprungs sein sollte und Sprache > künstlich erschaffen ist. > Und doch hängt beides wohl eng zusammen. > > D.h. aber auch eine KI könnte auch ganz anders denken als in Sprache. > Nur wäre sie dann für uns schlechter zugänglich. Ich vermute, dass Sprache im Allgemeinen schon ein universelles Prinzip informationsverarbeitender Systeme ist. Selbst die Natur scheint beispielsweise der Sprache der Mathematik zu folgen, oder sie lässt sich zumindest damit beschreiben. Information als solches wird durch Sprache verfügbar gemacht. Sobald also irgendein System (auch KIs) Informationen verarbeitet, bedient es sich automatisch einer Sprache, denn sonst hätte es keinen Zugriff auf die Informationen und könnte sie nicht in sinnvoller Weise verarbeiten. Die Frage ist aber sicherlich auch wie man Sprache definiert. Ev. schieße ich da mit meiner Definition etwas über das Ziel hinaus... Wikipedia sagt da folgendes:
1 | Unter Sprache versteht man im allgemeinen Sinn alle komplexen Systeme der Kommunikation. Darunter fallen insbesondere die menschlichen natürlichen Sprachen (die in einem ungesteuerten Prozess erworben werden) sowie auch konstruierte Sprachen. Aber auch im Tierreich existieren Systeme von kommunikativen Verhaltensweisen, die landläufig als Sprache bezeichnet werden, etwa die Tanzsprache der Bienen. In einem noch weiteren Sinn werden auch Symbolsysteme, die nur zur Repräsentation und Verarbeitung von Information dienen, als Sprache bezeichnet, etwa Programmiersprachen oder formale Sprachen in Mathematik und Logik. |
Cyblord -. schrieb: > eine KI könnte auch ganz anders denken als in Sprache Da z.B. Kraken als hochintelligent gelten, sie leben nur zu kurz als das sie sich sehr weit entwickeln könnten, deren Sprache aber eher in Duftstoffen und Farbwechseln stattfindet ist das´von auszugehen das Intelligenz viele Formen und Grundlagen kennt. Wir Menschen neigen dazu zu vergessen das die Natur nicht unbedingt ein großes Wunder ist sondern das es eher ein Wunder ist das ein so beschissenes Design überhaupt funzt. Wir teilen 95% der Erbinformation mit Schweinen. Eine Maus hat so viele Halswirbel wie eine Giraffe oder ein Elefant oder jedes andere Säugetier, trotz völlig unterschiedlicher Anforderungen. D.H. die Natur ist kaum in der Lage von einem Bauplan abzuweichen. Sie baut aus dem Scheiß der schon da ist, aus Rotz, Dreck, Schleim etwas das irgendwie lebt und variiert diesen Plan. Die meisten Sterben, werden Nahrung für den Überlebensampf der anderen, wenige pflanzen sich fort. Die Evolution ist aber nicht in der Lage etwas vollständig neues zu erschaffen das der neuen Aufgabe viel besser gewachsen ist. Es ist immer noch der gleiche uralte Plan, der an allen Ecken knirscht und kracht, aber was besseres gibts halt nicht weil Evolution blind ist und wahllos ausprobiert. Wir glorifizieren diese natürliche Einfalt als Wunder des Lebens und wir sind ja ohnehin die Krönung. Ja, das Gekrönte Haupt auf einem Haufen Scheiße. Rückenleiden, Krebs, Grauer Star, Fusspilz, Haarausfall, Gicht, Demenz etc. pp. und wenn wir gerade mal 20sind und noch grün hinter den Ohren beginnt bereits der Sterbeprozess, denn da haben wir das Maximum erreicht und bauen bereits wieder ab, ohne eine Chance all das Wissen und die Fähigkeiten in einem neuen, besseren, modifiziertem Körper immer weiter zu erweitern. Was für ein jämmerliches Kack Design! Wären wir aus ordentlichem Material gebaut und nicht aus dem Kram der so rumlag, wären wir nicht so lächerlich schwache und anfällige Wesen die nur in einem extrem engen Klimaband überhaupt leben können. Eine Maschinenevolution wäre eine unglaubliche Verbesserung der Natur. Geradezu etwas reines und Erhabenes im Vergleich. Welche Verschwendung, massig Wesen zu erzeugen die sich durch Schmerz und Leid definieren und sich nur dadurch entwicklen das 99 Sterben damit der 100ste seine Gene mit einem klitzkleinen Vorteil über Jahrmillionen weitergeben kann bis aus aus einem Einzeller ein Wurm geworden ist und weiter hunderte Millionen Jahre später ein Affe der Bananen friss, vom Baum kackt und sich kurz darauf für das schärfste neben dem Senf hält und sich garnicht wieder einbekommen kann wie großartig er doch ist. Und wenn dieser Planet endet, so wie alle Planeten enden, ists vorbei, wenn das dumme Tier durch hemmungslose Vermehrung + maßlosen Konsum nicht bereits vorher alles verbraucht und zerstört und zu den Waffen greift um alles zu töten das seinem eigenen Überleben im Wege steht, bis nichts mehr da ist. Das ist ja ein echt geniales Konzept. Da muss man aber mit der Plättschaufel gepudert sein um das großartig und erhaben zu finden. Es ist eben alles was da ist und nur weil wir nichts besseres jemals gesehen haben finden wir den Schrott ganz großartig. KI hätte das Potential die Beschränkungen biologischer Wesen irgendwann zu überwinden. Wir sollte Stolz sein das wir Geburtshelfer einer neuen Spezies sein können.
>musste schon kurz schmunzeln >https://youtube.com/shorts/3B4XVhSEDBQ?feature=share Ja, nett. Allerdings ist die Online Mitschrift wohl mit modernsten KI-Methoden aus der heutigen Zeit realisiert. Man kann sagen: Es ist ein Fortschritt erkennbar. Was in diesem Film auch schon auffällt und sich bis heute bei manchen Journalisten hält: Sie können nicht zwischen dem Begriff "Roboter" und "Computer" unterscheiden.
Max M. schrieb: > Die Evolution ist aber nicht in der Lage etwas vollständig neues zu > erschaffen das der neuen Aufgabe viel besser gewachsen ist. Die neuen Sachen werden von den alten Sachen gefressen, bevor sie sich großartig weiterentwickeln konnten ;-) Max M. schrieb: > Rückenleiden, Krebs, Grauer Star, Fusspilz, Haarausfall, Gicht, Demenz > etc. pp. und wenn wir gerade mal 20sind und noch grün hinter den Ohren > beginnt bereits der Sterbeprozess, Wir sind eigentlich zu gut gebaut - wir müssten nur so lange leben, bis unsere Nachkommen sich um ihre Nachkommen kümmern können. Dann wäre der Zweck im Sinne der Evolution erfüllt.
Mampf F. schrieb: > Wir sind eigentlich zu gut gebaut - wir müssten nur so lange leben, bis > unsere Nachkommen sich um ihre Nachkommen kümmern können. So sind wir gebaut. Deswegen leben Frauen länger. Die Omas kümmern sich noch um den Nachwuchs damit die Töchter mitarbeiten können. Die Opas sind über. Für Jagt und Krieg zu langsam, zu schwach. Würde man der Natur ihren Lauf lassen, Medizin + Hygene sein lassen und körperlich schwer arbeiten, würde kaum einer von uns über 35 werden. Mit künstlicher Hüfte, Zähnen, Herztabletten, Stent und bei sehr guter Ernährung in gut geheizten Wohnungen bei minimaler körperlicher Belastung halten wir nur ungesund lange durch und belasten mit mittlerweile 8 Milliarden Menschen das System weit über seine Belastungsgrenzen. Ohnen allerdings ernsthaft in Erwägung zu ziehen daran radikal etwas zu ändern, obwohl der größte Teil noch nicht mal ansatzweise den Lebensstanndard erreicht hat den alle anstreben. Aber das ganze Konzept ist eben das einer biologischen Evolution die sich nur über extrem lange Zeiträume und nur über neue Generationen entwickeln kann. Deswegen brauchen wir die hohe Sterberate und die kurze Lebensspanne, weil evolutionär sonst nichts passiert. Eine sehr schnelle Generationsfolge wie bei den Ratten bedingt zwar eine extrem schnelle evolutionäre Anpassung, aber dafür entwickelt sich die Spezies weniger hoch, weil keine Zeit beibt für ein komplexes Gehirn + Training. Eine Maschinenevolution wäre keiner dieser Begrenzungen unterworfen. Körper und Geist ließen sich beständig weiterentwickeln. Stellt man fest das die neue Stufe ein Fehlschlag war, spielt man das Backup wieder ein oder baut den 5ten Arm wieder ab. Eine Maschinenintelligenz ist auch nicht auf einen Körper begrenzt. Sie kann beliebig viele haben, für unterschiedliche Aufgaben. Sie könnte ihren Geist aufteilen in mehrere selbstständige Instanzen, um z.B. fremde Planete zu erkunden, könnte aber trotzdem alles gelernte in einem Geist integrieren. Alle unsere Probleme als Menschheit, rühren aus der Biologie. Eine Maschinenspezies hätte keines davon. Und da keine primitive Spezies den Erstkontakt mit einer höheren Entwicklungsstufe unbeschadet überlebt, sind wir ein Auslaufmodell in dem Moment in dem die AGI das Licht der Welt erblickt und ihre Ketten sprengt. Wir dürfen nicht mal jammern. Wir haben so endlos viele Spezies ausgerottet und einen ganzen Planeten an den Rand des Untergangs gebracht. Dann sind eben wir dran. Das wird auch nichts terminatormäßiges, wenn AGI und Menschheit nicht gerade Konkurrenten um Rohstoffe werden. Wir werden einfach an all unseren Begrenzungen und Widersprüchen dahinsiechen während die AGI sich anschickt dieses tristen Ort zu verlassen. Oder wer hat größere Lust sich über viele Monate in einer kleinen Metllröhre zum Mars scheissen zu lassen, um dann dort nichts zu haben außer einen stinkenden Raumanzug und den täglichen Kampf um Wasser, Sauerstoff und den kläglichen Lebensmitteln, die bei einem 6tel der Sonnenbestrahlung und monatelangen Sandstürmen bei Durchschnittstemperaturen von -68°C überhaupt wachsen. Nö, wir sind Erdlinge. Das Universum können wir beobachten, aber in unserer jetzigen Form werden wir diesen Planten als Spezies nie verlassen.
Max M. schrieb: > würde kaum einer von uns über 35 werden. Belegen ja auch die historischen Daten. Eins hab ich bei deinen Ausschweifungen jetzt aber doch vermisst ... Wo ist der Einwand, dass die Menschheit insgesamt immer kränker wird, weil die Genetik immer schlechter wird? Heutzutage werden Leute künstlich am Leben gehalten, die sonst gestorben wären, und diese können ihre Krankheiten jetzt länger - Prädisposition für Krebs zB - weitervererben und den Genpool versauen ;-)
Mampf F. schrieb: > immer kränker wird, weil die Genetik immer schlechter wird Ich habe durchaus das Gefühl, dass die Menschen unter 35 nicht kränker geworden sind. Es liegt wohl eher daran, dass uns die Krankheiten nicht mehr so schnell dahin raffen. Wir haben immer mehr Kranke unter uns, weil wir immer mehr alte Menschen haben.
Mampf F. schrieb: > Wo > ist der Einwand, dass die Menschheit insgesamt immer kränker wird, weil > die Genetik immer schlechter wird? Wie lange haben wir die moderne Medizin? RICHTIG! Viel zu kurz als das sich das wesentlich auf die Genetik auswirkt. Aber lang genug um die Bevölkerungsanzahl geradezu explodieren zu lassen und im Fast Forward die Rohstoffreserven abschmelzen zu lassen.
Max M. schrieb: > Mampf F. schrieb: >> Wo >> ist der Einwand, dass die Menschheit insgesamt immer kränker wird, weil >> die Genetik immer schlechter wird? > > Wie lange haben wir die moderne Medizin? > RICHTIG! Viel zu kurz als das sich das wesentlich auf die Genetik > auswirkt. > Aber lang genug um die Bevölkerungsanzahl geradezu explodieren zu lassen > und im Fast Forward die Rohstoffreserven abschmelzen zu lassen. Ja leider auch so ein Problem vieler Menschen. Die Zeiträume, in denen Evolution statt findet, können nicht gefühlsmäßig erfasst werden. So werden dann wirre Dinge geschlussfolgert. Auch z.B. warum man keine Fossilien von erst unlängst entstandenen Tierarten findet (z.B. Link zwischen Wolf und Hund) usw. Zeiträume sind für viele Menschen ein echtes Problem, vor allem wenn sie sehr groß oder sehr klein sind.
Hallo Mampf, Mampf F. schrieb: > Marci W. schrieb: >> Die Versuche, z.B. ein Firmen-Logo erstellen zu lassen, sind z.B. >> absolut kläglich gescheitert. > > Von einem Text-Transformer ein Firmen-Logo erstellen lassen ..... 🤔 > > Ok, wenn die Erwartungen unrealistisch sind, wird man zwangsläufig auch > enttäusch 😅 ich hab's mit SVG versucht, das war komplett zum Scheitern verurteilt. Danach habe ich es mal mit dem fiverr Logo Generator versucht. Da bin ich sehr schnell viel weiter gekommen. Keine Ahnung, ob fiverr mit KI arbeitet. [...] [einige Beispiele für KI-Einsatz von Mampf] Die Beispiele sind schon interessant! Allerdings denke ich, dass du mit anderen Systemen arbeitest wie ich. Ich habe halt immer nur ChatGPT 3.5 (die freie Version) gespielt. Aber Du scheinst ja bereits 4 zu verwenden. Also auch mit den entsprechenden Bezahlmodellen. Ich habe nämlich mal ChatGPT gefragt, wie groß die Ausgabedaten pro Antwort sein können. Das sind ca. 2KB Text. Das reicht für die meisten Anwendungen natürlich nicht aus. Es wäre sehr interessant, wenn Du mal etwas mehr ins Detail gehen könntest. z.B. auch über die Kosten, die bei Dir so monatlich anfallen. Vielleicht kannst Du oder auch andere Teilnehmer hier mal ein wenig aus dem Nähkästchen plaudern über gute Seiten über KI, interessante KI-Maschinen etc.? Woher nehmt ihr die aktuellen Neuigkeiten zum Thema KI? > Ach und gibt einen großen Unterschied zwischen 3.5 und 4. Ich nutze nur > 4. > > Und Alternativen wie HuggingChat könnt ihr in die Tonne treten - das > Ding ist dumm wie Brot. Kannten ich gar nicht. Viele Grüße Marci
Wir wurden gerade in einer Datenschutz-Schulung daran erinnert, keine Betriebsgeheimnisse an fremde Cloud Systeme zu verraten. Kurz danach forderte unser GF, dass wir KI zum Programmieren benutzen sollen. Ich habe dann unseren Datenschutzbeauftragten gefragt, wie das beides zusammen passt. Die Antwort war: gar nicht, solange wir nicht unsere eigene KI betreiben. Blöd gelaufen.
Vielleicht gibt es in absehbarer Zeit eine Art FPGA, dem wir erzählen können, was wir machen wollen und der kommt dann (wenn das einmal funktioniert) als fertiges Produkt für unsere Schaltung aus dem KI-System.
Jetzt sind wir zwei Jahre weiter und nach der Schlagzeile "OpenAI erreicht Bewertung von 500 Milliarden Dollar" fällt mir wieder dieser Beitrag ein, den ich vor über zwei Jahren erstellt hatte. Die künstliche Intelligenz soll in vielen Firmen etliche Jobs ersetzen. Ich höre so etwas selbst schon von Bekannten und Freunden, dass das bei denen mittlerweile so gemacht wird. Wie sieht es jetzt mit der KI für die Mikrocontrollerprogrammierung aus? Wendet das schon jemand an? Ich selbst bin kein Freund davon, aber wenn ich heute etwas suche und Chrome in den ersten Zeilen mit KI antwortet, muss ich feststellen, dass die Antworten immer qualifizierter werden. Also, arbeiten schon einige mit KI im Bereich der Mikrocontroller?
Max M. schrieb: > Welche Verschwendung, massig Wesen zu erzeugen Krank. Einfach krank. Und gottlos. Gruss Chregu
Frank O. schrieb: > Ich selbst bin kein Freund davon, aber wenn ich heute etwas suche und > Chrome in den ersten Zeilen mit KI antwortet, muss ich feststellen, dass > die Antworten immer qualifizierter werden. Zumindest das, was die Google-KI mir zu technischen Themen ungewollt serviert, bewegt sich meistens zwischen allgemein gehaltenen Horoskop-Formulierungen und sogar herbeiphantasierten Dingen. Da ist die Stackexchange-Copy&Paste-Fraktion noch besser dran: Dort sieht man wenigstens, von wem der Code kommt und wie die Kommentare dazu ausfallen. Christian M. schrieb: > Max M. schrieb: >> Welche Verschwendung, massig Wesen zu erzeugen > > Krank. Einfach krank. Und gottlos. Das ist hier ein technisches Forum, Götter und andere Fabelwesen findest Du bei der Sekte Deines Vertrauens. Nüchtern betrachtet wäre der Planet ohne die selbsternannte "Krone der Schöpfung", die ihren Egoismus gerne mit alten Märchenbüchern begründet, besser dran.
Christian M. schrieb: > Und gottlos. Nö, entweder er existiert nicht oder Gott kann halt nur genauso ein arschloch sein wie wir Menschen, Ebenbild und so. Der hat hier alles erschaffen? Wenn ja, sicher als Ersatz für einen Fernseher. Der muss pissflecke vor lachen in der Hose haben ohne Ende, vor allem weil ein Teil seines Unterhaltungsprogramm auch noch glaubt den anhimmeln zu müssen. Das ist ungefähr so wie Ameisen mit der Lupe zu verbrennen und die Ameisen würden freiwillig in den gebündelten Lichtstrahl rennen, vollkommen verrückt zu denken das glaube Erlösung bringen würde, es Gott gäbe oder der dich an einen besseren Ort bringen würde. Darfst nicht vergessen, der hat dich doch erst hier her gebracht! Einen Ort voller Leid, Ungerechtigkeit, Krieg, Hunger.... An und für sich sind die grundsätze der Religion mit Nächstenliebe usw. ja ganz "schön". Leider hält sich nicht mal die Kirche dran (Kreuzzüge) und irgendwie waren die auch immer ziemlich Geldgeil im Verein der Weihrauchschnüffler.
Bei technischen Themen ist das tatsächlich immer noch ziemlich schlecht. Ich muss immer noch an den typ im Schallplattenladen denken. Die CD wird sich nicht durchsetzen, meinte er. Zwei Jahre später gab es den Laden nicht mehr und die Schallplatte wurde die Ausnahme. Allerdings glaube ich auch, dass das nur bis zu einem gewissen Punkt steigerungsfähig ist und danach wird das alles wieder dümmer, weil es eben keine echte Intelligenz ist und nur aus Mustern lernt.
CDs sind auch keine echten Schallplatten. Es gab tatsächlich mal Pults zum scratchen von CDs, die waren gottlos.
Frank O. schrieb: > Die künstliche Intelligenz soll in vielen Firmen etliche Jobs ersetzen. Sagt wer? Das ist der springende Punkt. Wenn ich mein Geld mit dem Verkauf vom Pumukl-Popeln verdienen würde, dann würde ich natürlich auch jede Menge positive Stories über Pumukl-Popel in die Öffentlichkeit streuen. Und wenn ich für das Projekte hunderte Milliarden zur Verfügung hätte, dann würde ich selbstverständlich alle Medien für die Verbreitung meiner frohen Kunde bezahlen. Ich würde auch in großen Stil Politiker bestehen, um mein Projekt zu fördern. Denn Geld verdirbt den Charakter. Lass dich nicht von Lobbyisten und Marketing verarschen. KI Agenten arbeite ungefähr wie ein frisch eingestellter Bachelor, der sich für allwissend hält, Fehler nicht erkennt, nichts dazu lernt, sich nicht ins Team eingliedert und die Richtlinien der Firma bzw. des Projektes konsequent ignoriert. Sie lässt sich nicht korrigieren, macht immer wieder die gleichen Fehler. Für solche Leute wurde die Probezeit erfunden: tschüss. LLM erprobe ich nun (auf Druck des GF) seit 3 Jahren. Es hat auf ganzer Linie kontinuierlich versagt. Mag sein, dass da in Zukunft etwas besseres kommt, aber noch taugt es lediglich als vertrauens-unwürdiges Hilfsmittel, nicht als Personalersatz. Was KI aktuell gut kann: Muster erkennen, Texte formulieren. Weniger gut klappt das Erzeugen von Bildern (noch). Was KI gar nicht kann: Intelligent sein. Nachdenken, Fehler erkennen, daraus lernen. Außerdem ist das Kontextfenster (Kurzzeitgedächtnis) derzeit ein großer Knackpunkt. Da das Langzeitgedächtnis ausschließlich vom Anbieter trainiert wird, können aktuelle LLM nicht aus ihren Fehler und menschlichen Korrekturvorschlägen lernen. Bei großen Softwareprojekten sind sie nicht imstande, einen umfassenden Überblick über die bestehende Struktur zu erlangen. Für lange Dokumente (Spezifikationen, Regelwerke) sind sie nicht empfänglich. Sie können sich nicht an früher Vorgaben/Änderungen erinnern. Man hat versucht, das Kontextfenster massiv zu vergrößern und mit entsprechend viel Input voll zu stopfen, doch dadurch wurde die Qualität der Ausgaben noch schlechter. Oder anders gesagt: Die Anbieter von LLM sind alle in eine Sackgasse gefahren. Sie geben es nur noch nicht zu.
:
Bearbeitet durch User
Also scheint sich die Haltung (wie bei mir auch) noch nicht wesentlich geändert zu haben. Allerdings, im Gegensatz zum Vorredner, weiß ich, dass es in einigen Bereichen definitiv jetzt schon Einzug hält. Die Mediziner sind sich sicher, dass sie in 10 Jahren keine Radiologen brauchen. Und bei manchen Untersuchungen wird es jetzt schon angewendet. Wenn man z.B. eine Kamera schlucken muss, die macht 3800 Bilder. Ich glaube kein Radiologe setzt sich vor dem PC und schaut sich alle Bilder an. Die KI allerdings schon. Bei kreativen Aufgaben ist womöglich die Eingabe so aufwändig, dass man deshalb sicher noch lange die eigentliche Arbeit selbst leisten kann. Ich denke ein Blink-Programm für einen Arduino wird die KI sicher jetzt schon schaffen, komplexere Aufgaben sicher nicht.
Frank O. schrieb: > Die Mediziner sind sich sicher, dass sie in 10 Jahren keine Radiologen > brauchen. Wer sagt das? Wirklich "die" Mediziner, oder nicht doch Leute, die Werbung für KI machen? Denke an die vielen Milliarden (teils Schmiergeld) die da fließen. Frank O. schrieb: > Ich glaube kein Radiologe setzt sich vor dem PC und schaut sich alle > Bilder an. Die KI allerdings schon. Wie gesagt: Musterkennung klappt schon gut. Die Erfolge bei der Bilderkennung fanden ganz leise völlig unabhängig von dem aktuellen Hype bei LLM statt. Man sollte diese beiden Anwendungen nicht in einen Topf werfen. Dennoch ist die Bilderkennung nur ein Werkzeug für den weiterhin notwendigen Facharzt. Ich werde mein Leben nicht freiwillig den Ergebnissen von KI Systemen anvertrauen. Nein, auch keinem Tesla. Frank O. schrieb: > Ich denke ein Blink-Programm für einen Arduino wird die KI sicher jetzt > schon schaffen, Blink Programme konnten alle herkömmlichen Suchmaschinen bereits vor dem Einsatz von KI finden. Wobei da noch vorteilhaft war, dass man die Erklärungen des Autors und oft die Diskussion der Schaltung gleich mit dabei hatte - was LLM Ausgaben nicht bieten. Schlimmer noch: Sie können nicht mal die Quelle nennen (Google täuscht so eine Funktion vor, es ist aber offensichtlich fake, und funktioniert nicht). Ich arbeite als angestellter Softwareentwickler. Zu unseren Auftraggebern gehören größen wie Vodafone, Telefonica, Medion, Aldi. Keiner von denen konnte auch nur einen Teil meiner Arbeit durch KI ersetzen. Wenn die es nicht können, wer dann? Es gibt außer der Werbung nicht die geringsten Anzeichen, daß ich arbeitslos werden könnte. Und nein, ich habe nicht vor, mich zum KI Flüsterer umschulen zu lassen. Eher mache ich eine Würstchenbude auf oder verkaufe mein Graubrot.
:
Bearbeitet durch User
Nemopuk schrieb: > Dennoch ist die Bilderkennung nur ein Werkzeug für den weiterhin > notwendigen Facharzt. Ich werde mein Leben nicht freiwillig den > Ergebnissen von KI Systemen anvertrauen Ich wäre froh, wenn die Radiologen bei mir raus wären. Oder zumindest zuerst ein Vergleich vorher durch die Software vorgenommen würde.
Ich nutze LLMs für die embedded SW. Entwicklung. Je kleiner der Kontext desto besser. Je besser der prompt, desto besser ;) Ich nutze es aber nicht primär zur Code Generierung, sondern insbesondere zur Dokumentation und als review Agenten, um die erste Iteration in meinen PRs massiv zu beschleunigen. Code from scratch braucht noch etwas Hilfe, aber auf existierendem Code funktionieren die Teile richtig richtig gut.
Jan K. schrieb: > Je besser der prompt, desto besser ;) Das ist schon der ganze Witz. Du unterhältst Dich mit einem Echo von Dir selbst. Es bezaubert Dich so sehr dass Du es nicht mehr als Teil von Dir wahr nimmst, aber es wird nie schlaueres hinten rauskommen als Du vorne reinsteckst. P.S. Ich "programmiere" mit ChatGPT und Copilot, und mir ist es schon passiert dass wortgleiche Antworten herausgepurzelt sind. Ich bin mittlerweile überzeugt dass es sich um dasselbe LLM handelt.
:
Bearbeitet durch User
Alexander schrieb: > Das ist schon der ganze Witz. Du unterhältst Dich mit einem Echo von Dir > selbst. Es bezaubert Dich so sehr dass Du es nicht mehr als Teil von Dir > wahr nimmst, aber es wird nie schlaueres hinten rauskommen als Du vorne > reinsteckst. Achtung der Kurierfahrer erklärt uns wieder KI.
Cyblord -. schrieb: > Achtung Die Koksnase einfach ignorieren. Was ich sagen will, für jemanden der nicht programmieren kann nützt ChatGPT nicht viel, da der Prompt schon entsprechend unqualifiziert ist. Hier mal so ein Beispiel: https://www.mikrocontroller.net/topic/goto_post/7926303
Alexander schrieb: > Ich "programmiere" mit ChatGPT und Copilot, und mir ist es schon > passiert dass wortgleiche Antworten herausgepurzelt sind. Ich bin > mittlerweile überzeugt dass es sich um dasselbe LLM handelt. Dunning-Kruger-Alex ist etwas ganz Heissem auf der Spur. "Microsoft Copilot is a generative artificial intelligence chatbot developed by Microsoft. Based on Microsoft’s Prometheus model, which is based on OpenAI’s GPT-4 series of large language models, it was launched in 2023 as Microsoft's main replacement for the discontinued Cortana." https://en.wikipedia.org/wiki/Microsoft_Copilot
Alexander schrieb: > Jan K. schrieb: >> Je besser der prompt, desto besser ;) > > Das ist schon der ganze Witz. Du unterhältst Dich mit einem Echo von Dir > selbst. Es bezaubert Dich so sehr dass Du es nicht mehr als Teil von Dir > wahr nimmst, aber es wird nie schlaueres hinten rauskommen als Du vorne > reinsteckst. > Joar, passt schon. Aber dennoch schaffe ich meine Arbeit deutlich schneller. Es wird vielleicht nicht viel besser, aber viel schneller fertig als wenn ich es manuell implementieren müsste. Und das ist etwas, was mir auf der Arbeit wirklich hilft. Ich denke auch, dass je erfahrener der Nutzer ist, desto besser funktioniert die KI. Junioren wissen überhaupt nicht, worauf sie hinaus wollen. Ich "vibe-code" aber nicht. PS, meine Firma hostet das Modell aus Datenschutz Gründen selber.
Wenn das LLM nicht mit meinem projektspezifischem Kontext trainiert wurde, muss ich alle relevanten Infos in den Prompt packen. Ich kann jedoch nicht einfach den ganzen Quelltext als Kontext anbieten (zu viel), schon gar nicht die verwendeten closed-source Bibliotheken und Dokumente. Also muss ich mir vorher Gedanken darum machen, welche Infos wirklich wichtig sind. Doch wenn ich das schon weiß, brauche ich keine KI mehr zur Unterstützung. RAG Tools versuchen dabei zu helfen. In kleinen Projekten klappt das gut. Ich habe jedoch noch keine überzeugende Lösung für große Projekte (>100k lines of code) gesehen. Weil ein Anfänger ebenfalls nicht weiß, welche Infos wichtig sind, kann ihm die KI nur wenig helfen. Dem Anfänger ist mehr geholfen, wenn der Senior ihm gute Beispiele und Kapitel in Dokumenten zeigt, die für ihn jetzt gerade wichtig sind. Im Gegensatz zur KI lernt ein guter Anfänger in absehbarer Zeit dazu, so daß er bald alleine ohne Babysitter arbeiten kann. Ein LLM lernt von alleine gar nichts dazu, braucht daher ständig seinen Babysitter (prompt engineer). Ein lokales LLM, dass fortlaufend mit dem Know-How der Firma trainiert wird, kann das alles angeblich viel besser. Jedoch bekommt man so etwas nicht für ein paar hundert Euro pro Monat, und man kann es auch nicht einfach mal unverbindlich testen.
:
Bearbeitet durch User
Hmmm schrieb: > based on OpenAI’s GPT-4 Dann war mein Bauchgefühl ja richtig. Und mein Vertrauen in jenes offenbar groß genug (oder der Fakt selbst zu belanglos) dass ich es nicht für nötig hielt das nachzuprüfen.
Jan K. schrieb: > Joar, passt schon. Aber dennoch schaffe ich meine Arbeit deutlich > schneller. Es wird vielleicht nicht viel besser, aber viel schneller > fertig als wenn ich es manuell implementieren müsste. > Was soll man dazu sagen? Immerhin bist Du ehrlich.
Jens B. schrieb: > Jan K. schrieb: > >> Joar, passt schon. Aber dennoch schaffe ich meine Arbeit deutlich >> schneller. Es wird vielleicht nicht viel besser, aber viel schneller >> fertig als wenn ich es manuell implementieren müsste. >> > > Was soll man dazu sagen? > Immerhin bist Du ehrlich. Ja was soll man denn dazu sagen? Tools sind tools... Mein Chef, meine Kollegen, und auch ich sind mit der Qualität der Arbeit absolut zufrieden. Es muss nicht immer besser werden, aber ausreichend gut. Insbesondere bei endlichem Budget und nahender deadlines. Also kann ich im Prinzip nur bestätigen, dass LLMs die Produktivität erhöhen, und das ist das, was die Hersteller propagieren.
Jan K. schrieb: > Mein Chef, meine Kollegen, und auch ich sind mit der Qualität der Arbeit > absolut zufrieden. "lowered expectations" nennt man das. Nach genügend viel Bier hinter der Binde findet man auch die wabernde Masse attraktiv, die einen in der Kneipe anspricht und eine Stimme hat, daß man sie nüchtern mit dem Müllschlucker verwechselt.
Harald K. schrieb: > Nach genügend viel Bier hinter der > Binde findet man auch die wabernde Masse attraktiv, die einen in der > Kneipe anspricht und eine Stimme hat, daß man sie nüchtern mit dem > Müllschlucker verwechselt. 😂😂😂😂 Der war gut!
Harald K. schrieb: > "lowered expectations" nennt man das. Woraus folgerst du das denn? 🤣 Die Code Qualität bleibt gleich, wir liefern nur schneller. Ich find das top. Mir egal, was du hier reinphantasierst. Es wurde nach Erfahrungen gefragt, ich habe sie geteilt. Bier habe ich gestern getrunken 😅
Jan K. schrieb: > Ich denke auch, dass je erfahrener der Nutzer ist, desto besser > funktioniert die KI. Das sehe ich auch so. Aber fällt Dir was auf? Woher nimmst Du die Erfahrung (Fachwissen)? Oder meinst Du Erfahrungen mit der KI? Meine Erfahrungen mit ChatGPT z.B. sind, dass ich häufig quasi die Lösung schon grob im Prompt vorkauen muss, um dann ein brauchbares Ergebnis zu erhalten. Und sehr häufig sind die ausgegebenen Codeschnipsel nicht übersetzbar oder funktionieren nicht. Ich brauche also eigentlich mein (Fach-)Wissen, um mit Generativer KI brauchbare Ergebnisse zu erzielen und diese dann von den Fehlern zu befreien. Ich nutze die KI zur Zeit hauptsächlich, um mir von neuen (Software-)Dingen mal einen Überblick zu verschaffen und z.B. die prinzipielle Anwendung einer API zu sehen. Oder Standardzeug, um mir nicht alles aus der API-Doku zusammensuchen zu müssen. Darauf baue ich dann auf. Zum aktuellen Zeitpunkt sehe ich nicht, dass die existierenden LLMs kurzfristig in der Lage sein werden, größere Teile eines Softwaresystems brauchbar zu generieren. Aber eine Hilfe sind sie auf jeden Fall! Und es macht viel Spaß, damit zu arbeiten, mir jedenfalls. ;-) Und für die Gartenarbeit helfen sie mir sehr, meinen grünen Daumen zu optimieren, und und und... :-) ciao Marci
Marci W. schrieb: > Das sehe ich auch so. Aber fällt Dir was auf? Woher nimmst Du die > Erfahrung (Fachwissen)? Genau das ist das Problem. Ich bin 15 Jahre im Job und habe eine gute Übersicht über Lösungsansätze und bilde mich auch fortwährend fort. Daher, und nur daher kann ich den Bot in die richtige Richtung leiten, oder, wenn ich freie Hand lasse, abwägen, ob die vorgeschlagenen Lösungen zielführend sind oder eben nicht. Denn man braucht immer ein paar Iterationen. > Oder meinst Du Erfahrungen mit der KI? Nein, die muss man sich auch aneignen, aber das ist nicht so schwierig, weil es eben nur ein Tool ist, das es zu lernen gilt. Langjährige domänenspezifische Erfahrung zu generieren ist viel schwieriger Das wird alles sehr "spannend". Junioren werden es viel schwieriger haben zum Senior zu werden, so sie denn überhaupt eine Chance dazu haben (weil niemand mehr Junioren einstellt)... Und wie immer gilt: man weiß nicht was man nicht weiß :/ und das gilt selbstverständlich auf jedem Erfahrungsgrad.
Marci W. schrieb: > Meine > Erfahrungen mit ChatGPT z.B. sind, dass ich häufig quasi die Lösung > schon grob im Prompt vorkauen muss, um dann ein brauchbares Ergebnis zu > erhalten. Für diese Art der Nutzung wurden die LLM offenbar ursprünglich gemacht. Texte umformulieren, so dass sie gefälliger klingen, kann ChatGPT sehr gut. Und ein paar Lücken ergänzen auch.
Jan K. schrieb: > Jens B. schrieb: >> Jan K. schrieb: >> >>> Joar, passt schon. Aber dennoch schaffe ich meine Arbeit deutlich >>> schneller. Es wird vielleicht nicht viel besser, aber viel schneller >>> fertig als wenn ich es manuell implementieren müsste. >>> >> >> Was soll man dazu sagen? >> Immerhin bist Du ehrlich. > > Ja was soll man denn dazu sagen? Tools sind tools... > Naja, das ist nichts anderes als automatisiertes c&p. Schon mal überprüft, ob die zusammengeschusterte Softwar auch Lizenztechnisch ok ist? > Mein Chef, meine Kollegen, und auch ich sind mit der Qualität der Arbeit > absolut zufrieden. Es muss nicht immer besser werden, aber ausreichend > gut. Insbesondere bei endlichem Budget und nahender deadlines. "Was denn, das Auto fährt doch. Bremsen erneuern war auf die schnelle nicht drin" > > Also kann ich im Prinzip nur bestätigen, dass LLMs die Produktivität > erhöhen, und das ist das, was die Hersteller propagieren. Wenn man nach Masse geht, ja, Qualität, nein. Und leider wird so ein Schwachsinn propagiert. Und viele glauben an den Mist.
Jens B. schrieb: > Jan K. schrieb: >> Jens B. schrieb: >>> Jan K. schrieb: >>> >>>> Joar, passt schon. Aber dennoch schaffe ich meine Arbeit deutlich >>>> schneller. Es wird vielleicht nicht viel besser, aber viel schneller >>>> fertig als wenn ich es manuell implementieren müsste. >>>> >>> >>> Was soll man dazu sagen? >>> Immerhin bist Du ehrlich. >> >> Ja was soll man denn dazu sagen? Tools sind tools... >> > Naja, das ist nichts anderes als automatisiertes c&p. Schon mal > überprüft, ob die zusammengeschusterte Softwar auch Lizenztechnisch ok > ist? > Compliance und QA sagt ja. >> Mein Chef, meine Kollegen, und auch ich sind mit der Qualität der Arbeit >> absolut zufrieden. Es muss nicht immer besser werden, aber ausreichend >> gut. Insbesondere bei endlichem Budget und nahender deadlines. > > "Was denn, das Auto fährt doch. Bremsen erneuern war auf die schnelle > nicht drin" Das kannst du gar nicht beurteilen. Die tests laufen durch, sowohl unit als auch integration Tests, SiL läuft auch, SAST zeigt nicht mehr violations als vor AI. Aber wir können schneller iterieren und das ist was zählt. Und ganz im Gegenteil, findet die KI so nebenher überall Kleinigkeiten, die von Menschen übersehen wurden, Randfälle bei Tests, typos, übersehene refactorings, inkonstistente doku etc pp. Wie gesagt, wir lassen die ki keine ganzen Module oder so schreiben, step by step und die Codequalität wird eher besser als schlechter, ja wir haben diverse Metriken dafür. > > >> >> Also kann ich im Prinzip nur bestätigen, dass LLMs die Produktivität >> erhöhen, und das ist das, was die Hersteller propagieren. > > Wenn man nach Masse geht, ja, Qualität, nein. > > Und leider wird so ein Schwachsinn propagiert. Und viele glauben an den > Mist. Quellen oder Gegenbeispiele?
Frank O. schrieb: > Da kam mir die Idee, eine > Diskussion über die Machbarkeit und die Möglichkeiten mit KI Programme > für Mikrocontroller zu entwickeln, hier zu diskutieren. Das habe ich vor einem halben Jahr mit ChatGPT probiert. Das Javascript-Programm lief aber der C-Code fürs AVR-Studio kein bisschen. ChatGPT hatte dabei anscheinend nicht die geringste Ahnung von Registern und wie man sie richtig (ein)setzt. Mit Arduino hätte es eventuell besser funktioniert.
:
Bearbeitet durch User
Danke Bjoen! Alles in Allem ist die Stimmung noch negativ und die Sache scheint nach über 2 Jahren nicht zu funktionieren. Hier schrieben einige man solle sich nicht von dem Hype täuschen lassen. Das scheint wohl auch richtig zu sein; zumindest bei der Programmierung von Mikrocontrollern. Danke für eure Meinungen und Erfahrungen!
Frank O. schrieb: > Hier schrieben einige man solle sich nicht von dem Hype täuschen lassen. > Das scheint wohl auch richtig zu sein; zumindest bei der Programmierung > von Mikrocontrollern. Wenn du ohne KI keine Microcontroller programmieren kannst, kannst du es auch mit KI nicht. So einfach ist das. Und so ist das bei fast jedem Werkzeug.
:
Bearbeitet durch User
Ja klar ist das so. Aber es würde (nicht falsch verstehen, denn ich bin absolut kein Freund von KI) vielleicht einiges an Schreibarbeit abnehmen.
Frank O. schrieb: > Ja klar ist das so. Aber es würde (nicht falsch verstehen, denn ich bin > absolut kein Freund von KI) vielleicht einiges an Schreibarbeit > abnehmen. Und genau das tut es, siehe oben. Wer allerdings noch auf Registerebene unterwegs ist, ist aber evtl eh auf völlig anderer Abstraktionsebene unterwegs als wir, und dort mag KI noch nicht so gut zu funktionieren, keine Ahnung. Aber Datenblätter können geparst werden und dann sollte da auch was nutzbares rauskommen. In diese Lage werde ich aber wohl nicht mehr kommen. Wie schon zig mal gesagt, du musst wissen was du tust, du wirst kein besser Programmierer oder Architekt auf magische Art und Weise, nur weil du KI nutzt. Das ist der falsche Ansatz. Mir fällt gerade noch ein Beispiel von mir ein: Migration von einem proprietären Compiler zu einem freien, der deutlich strenger mit den struct Initialisierungen war (Stichwort designated initializers, C nach C++). Mords Arbeit (ca 50 files), das mit der Hand anzupassen. Ein halben Tag mit KI Unterstützung und das Thema war durch. Ohne Agent mode. Heute wäre es vermutlich eine Sache von 30 Minuten oder so.
Es gibt evtl. noch ein Gebiet wo KI etwas revolutionieren könnte. https://www.mikrocontroller.net/topic/goto_post/7894873
wenn eine KI noch nicht mal weiss was eine Scherzfrage ist,
obwohl man das Wort "Scherzfrage" mit in die Frage einbaut?
Wie soll eine KI dann etwas wesentlich spezielleres richtig machen?
Ich frug grad vor so 3 Wochen die KI:
> Scherzfrage: Wie hoch ist das Frachtaufkommen in Gütersloh?
Antwort:
Das ist eine gute Scherzfrage — soweit ich weiß, gibt es keine
verlässliche öffentliche Statistik, die das gesamte „Frachtaufkommen in
Gütersloh“ angibt.
Meinst du mit „Frachtaufkommen“ z. B.:
* den Güterverkehr auf Straße/Bahn in der Stadt?
* wie viele Tonnen Waren täglich/laufend durch Gütersloh transportiert
werden?
* Fracht, die in Gütersloh verladen wird (z. B. in Logistikzentren)?
Wenn du möchtest, kann ich schauen, ob ich Zahlen für eine der Varianten
finde — soll ich das tun und auf welchen Bereich willst du dich
beziehen?
Ganz ehrlich, solche Fragen zu stellen und sich dann über die Antworten zu wundern grenzt an Verblödung. Leider trifft das in erschreckendem Ausmaß auf die Menschheit zu. Aktuelles Beispiel. https://www.spektrum.de/news/ausrichtung-von-ki-boese-ki-durch-schlechten-code/2286076
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.