Mittlerweile gibt es ja schon einige KI-Codegeneratoren und mit bestimmten Einschränkungen kann man sie nutzbringend verwenden. Ich habe zwei davon ausprobiert: https://chatgpt.com/ https://www.codeconvert.ai/python-code-generator Leider gibt es ja für für die freie Version eine Beschränkung der Anzahl der Anfragen und man muss überlegen, eines der Abo-Modelle zu verwenden. Welchen Codegenerator nutzt ihr und was bezahlt ihr dafür?
:
Verschoben durch Moderator
Christoph M. schrieb: > Welchen Codegenerator nutzt ihr Brain 4.1, basierend auf der neuesten Bleeding-Edge-NI. > und was bezahlt ihr dafür? Hin und wieder muss muss er mit ein paar Süßigkeiten gefüttert werden, damit seine volle Leistungsfähigkeit erhalten bleibt. PS: Auch die KI-Codegeneratoren sind mittlerweile erstaunlich gut, aber noch nicht so gut, dass ich bereit wäre, dafür Geld auszugeben.
:
Bearbeitet durch Moderator
Yalu X. schrieb: > Brain 4.1, basierend auf der neuesten Bleeding-Edge-NI. Oh, Du bist noch so jung? 8-O
Alexander (alecxs)
>Ist das Forum kaputt?
Nein, hier geht es um die konkrete Frage, für welche KI es sich lohnt zu
zahlen.
Ein Problem ist ein wenig die Zukunftssicherheit: Wenn man ein Abo-Model
für sagen wir 1 Jahr abschließt, könnte es gut sein, dass es in der
Zwischenzeit einen viel besseren Generator gibt. Man muss also
vielleicht nach Größe der Firma entscheiden. Die Frage wäre auch, ob es
vielleicht lokal laufende Modelle gibt.
Christoph M. schrieb: > ... , könnte es gut sein, dass es in der Zwischenzeit einen viel besseren > Generator gibt. Den gibt es immer. Sitzt meistens vor dem Monitor aka Touchscreen. Sich auf fremd generierten Code zu verlassen, naja. Und wie sieht es mit der Code Pflege und Verwaltung aus? Blackbird
Christoph M. schrieb: > Ein Problem ist ein wenig die Zukunftssicherheit: Wenn man ein Abo-Model > für sagen wir 1 Jahr abschließt, könnte es gut sein, dass es in der > Zwischenzeit einen viel besseren Generator gibt. Man muss also > vielleicht nach Größe der Firma entscheiden. Die Frage wäre auch, ob es > vielleicht lokal laufende Modelle gibt. Die KI kann dir super "Hello world" und "Blinky"-Programme in allen möglichen Sprachen schreiben. Das funktioniert super aber ob man mit diesem Code Geld verdienen kann ist fraglich. Die Fehler aus dem KI Code zu entfernen ist genauso aufwendig wie das Programm gleich selbst zu schreiben.
:
Bearbeitet durch User
Obelix X. schrieb: > Die KI kann dir super "Hello world" und "Blinky"-Programme in allen > möglichen Sprachen schreiben. Den passenden Code für jeden beliebigen Mikrocontroller?
Georg M. schrieb: > Den passenden Code für jeden beliebigen Mikrocontroller? Ich habe nicht jeden MC den es gibt zur Verfügung. Ich konnte es also nicht testen. Wenn dir das möglich ist, hält dich keiner davon ab dies zu testen und deine Ergebnisse hier zu posten. Ansonsten verstehe ich zwar deine Frage aber denn Sinn dieser nicht. Was soll ich / man darauf antworten? Ein simples "Ja" wird es wohl nicht sein.
:
Bearbeitet durch User
Georg M. schrieb: > Obelix X. schrieb: >> Die KI kann dir super "Hello world" und "Blinky"-Programme in allen >> möglichen Sprachen schreiben. > > Den passenden Code für jeden beliebigen Mikrocontroller? Wenn die KI im Internet eine KI-verständliche Beschreibung findet, ja. Wenn es da nichts zum Kopieren gibt, pech für die KI. Einen Mitarbeiter aus Fleich und Blut kann man noch zum Selbststudium bewegen. > Ist das Forum kaputt? > Beitrag "KI und code generierung" Eben ! Aber da ist es mit den KI-Spackos wie bei manchen Wahlen, wenn das Ganze nicht passt, wird halt solange wiederholt, bis der gewünschte Ergebniss erzwungen ist.
Obelix X. (obelix) >Die KI kann dir super "Hello world" und "Blinky"-Programme in allen >möglichen Sprachen schreiben. Das funktioniert super aber ob man mit >diesem Code Geld verdienen kann ist fraglich. Du scheinst nicht sonderlich viel in der Richtung gemacht zu haben. Gib mal folgende Spezifikation
1 | Can you write a Pyhton script to display data? |
2 | It shall read and display data from a csv-file named "data.csv". |
3 | |
4 | The csv file contains 3 columns. |
5 | the first row contains the name of the data rows. |
6 | |
7 | The data shall be displayed as line plot. |
8 | The data from column 1 shall be used as X-axis. |
9 | The data from coumn 2 and 3 shall be da Y-vales. |
10 | There shall be a legend displayed in the graph. |
hier ein: https://www.codeconvert.ai/python-code-generator und erzähl mal was über das "Blink" Programm.
>
1 | > Can you write a Pyhton script to display data? |
2 | > It shall read and display data from a csv-file named "data.csv". |
3 | > |
4 | > The csv file contains 3 columns. |
5 | > |
6 | |
7 | > |
Toll, die KI kann nicht mal bis drei zählen, der muss man explizit sagen wieviel Kommas pro Zeile in file stehen. Aber vielleicht liegt es ja am Prompt-Guru, der offensichtlich nicht den Unterschied zwischen "column" und "coloumn" kennt ... .
:
Bearbeitet durch User
Christoph M. schrieb: > Welchen Codegenerator nutzt ihr und was bezahlt ihr dafür? Ich verwende generell nur Open Source Software, die Gratis ist, keine Online Services voraussetzt, keine Abos voraussetzt, und wo es auch keine Zusatzfunktionen oder Plugins gibt, bei denen dies nicht erfüllt ist. Mein einziges Abo ist mein Mobilfunk Abo, ohne das gings dann doch nicht. Es gibt LLMs die OSS sind und lokal laufen können. Wie es da mit Code Generierung aussieht, kann ich aber nicht sagen. Meine Programme sind 100% KI Frei. Des springende Punkt ist aber, das ist auch nur ein Programm, lasst euch nicht von Firmen, die euch nur das Geld aus der Tasche ziehen wollen, verarschen. Bleibt in Kontrolle von eurem eigenen Kram, schliesst keine Abos ab!
> Forum: Offtopic > 24.09.2024 13:31: Verschoben durch Moderator Offtopic ist Offtopic. Jetzt hat es natürlich keinen Sinn mehr, über die AI-generated Codes für konkrete Mikrocontroller zu sprechen.
:
Bearbeitet durch User
Bradward B. schrieb: > Toll, die KI kann nicht mal bis drei zählen Lol, noch während ich so Christoph M. (mchris) "Spezifikation" überfliege, denke ich mir genau das! Und dann schreibst Du es aus. :)
Christoph M. schrieb: > Du scheinst nicht sonderlich viel in der Richtung gemacht zu haben. Dein Beispiel ist auch nicht viel mehr wie ein Hello World. Stell der KI mal eine Aufgabe, bei der ein Logik-Problem gelöst werden soll. Ich habe schon versuch ein Programm mit Hilfe einer KI zu schreiben, kam aber auch sehr schnell an die Grenze der KI. Einige Fehler hat die KI nach Nachfrage beheben können aber dann fing sie an zu halluzinieren. Es können also schon einfachste Dinge von der KI nicht gelöst werden.
Gerade für die "einfachsten Dinge" ist so eine KI schon ganz praktisch. Zeigt beim Tippen in der IDE gleich (mal mehr, mal weniger) sinnvolle Vorschläge an, die man direkt per Enter übernehmen kann... oder auch nicht, dann tippt man einfach selber weiter. Reduziert die reine Tipparbeit ohne Gehirnbeteiligung beim Programmieren. Braucht aber leider enorm viel Rechenleistung damit die Vorschläge auch zeitnah erscheinen, und nicht erst dann, wenn du die Funktion schon selber zuende getippt hast. Deshalb ist da Self-Hosted oder lokal am Rechner eher ein Wunschtraum, mit zwei RTX4090 im Rechner und 1kW aus der Steckdose ist da noch lange nix zu reißen.
Alexander (alecxs) Bradward B. schrieb: >> Toll, die KI kann nicht mal bis drei zählen >Lol, noch während ich so Christoph M. (mchris) "Spezifikation" >überfliege, denke ich mir genau das! Und dann schreibst Du es aus. :) Das kann man auch als Herausforderung sehen, die Spezifikation besser machen und in den KI-Codegnerator einspeisen. Zeig mal, wie's geht.
>Deshalb ist da Self-Hosted oder lokal am Rechner eher ein Wunschtraum, >mit zwei RTX4090 im Rechner und 1kW aus der Steckdose ist da noch lange >nix zu reißen. Ich wäre mir da nicht so sicher. Letzte Woche hat mir ein Kumpel auf seinem alten I5 Laptop seine zusammengeflickte, lokale KI gezeigt (verwendet ein frei verfügbares Modell von Microsoft, habe vergessen welches). Das ganze war mit Spracherkennung und Sprachausgabe. Zwischen zuhören und reden waren zwar ca. 30-60 Sekunden, aber ich fand das nicht so schlecht für einen alten Laptop. Das war ein allgemeine KI die verschiedene menschlich Sprachen beherrschte. Wenn man das ganze Primborium da raus lässt und einen reinen Codegenerator trainiert hat, könnte da einiges an Potential drinn stecken.
:
Bearbeitet durch User
Beitrag #7741587 wurde vom Autor gelöscht.
Christoph M. schrieb: > hier ein: > https://www.codeconvert.ai/python-code-generator > > und erzähl mal was über das "Blink" Programm. Ich hab dem Ding gerade mal gesagt, mach mir ne topologische Sortierung. Soweit kein Problem, Input Paare von abhängigen Elementen, Output eine Liste. Aber sobald man ein klein wenig was komplexeres will als das Standard Problem, kommt nur noch misst raus. Sagen wir z.B. ich will bei 1->2 1->3 2->4 3->4 statt [1,2,3,4] sowas wie [[1],[2,3],[4]], wo die inneren Listen gleichzeitig "laufen" können. Für mich kein Problem umzusetzen, aber für die "KI"? Die gibt immer den selben Algorithmus aus, und packt manchmal noch etwas nicht funktionierenden Quatsch dazu.
KI hilft einem totalen Anfänger beim Programmieren. Ein erfahrener Entwickler muss da aber auf jeden Fall noch mal drüber schauen, und zwar sehr aufmerksam. Denn KI neigt dazu Fehler zu machen, die man übersieht. Bis KI den erfahrenen Entwickler überflüssig macht oder ihm wesentliche Teile der Arbeit abnimmt, wird noch viel Wasser den Rhein herunter fließen.
Monk schrieb: > Denn KI neigt dazu Fehler zu machen, die man übersieht. Prinzipbedingt. Die KI wurde darauf trainiert, "richtig aussehenden" Code zu erzeugen. Nicht "tatsächlich richtigen" Code. Gibt da oft genug Überschneidungen, die das Ganze trotzdem nützlich machen. Aber: Wenn die KI falsch liegt, ist der Fehler gut versteckt, denn genau das war ja auch das Trainingsziel...
Hallo Christoph, Christoph M. schrieb: >
1 | > Can you write a Pyhton script to display data? |
2 | > It shall read and display data from a csv-file named "data.csv". |
3 | > |
4 | > The csv file contains 3 columns. |
5 | > the first row contains the name of the data rows. |
6 | > |
7 | > The data shall be displayed as line plot. |
8 | > The data from column 1 shall be used as X-axis. |
9 | > The data from coumn 2 and 3 shall be da Y-vales. |
10 | > There shall be a legend displayed in the graph. |
11 | > |
> > hier ein: > https://www.codeconvert.ai/python-code-generator Ergebnis: import pandas as pd import matplotlib.pyplot as plt data = pd.read_csv('data.csv') plt.plot(data.iloc[:, 0], data.iloc[:, 1], label=data.columns[1]) plt.plot(data.iloc[:, 0], data.iloc[:, 2], label=data.columns[2]) plt.xlabel(data.columns[0]) plt.ylabel('Values') plt.title('Data Line Plot') plt.legend() plt.show() Wow, ist ja irre, der Output! Da wäre ich nie drauf gekommen. Jetzt mal im Ernst: Ja, solche Generatoren sind sehr gut geeignet, um schnell einen Überblick über eine API (in diesem Fall Mathplotlib) zu erhalten oder um sich Anregungen zu holen, wie man eine bestimmte Aufgabe lösen könnte (API-Auswahl etc.) Aber man hat danach halt keine große Ahnung, wie die entsprechende API zu verwenden ist. Und wenns nicht läuft, muss man eh in die Doku schauen. Von Fehlerbehandlung etc. mal ganz zu schweigen. OK OK, ich denke, das könnte mit besserem Input auch möglich sein. Und: die eigentliche Arbeit macht in Deinem Beispiel Mathplotlib, nicht die KI. Die Komplexität Deines Beispiels ist außerdem nicht größer als ein HalloWelt-Programm für einen Microcontroller. Sehr interessant wird es dann, wenn die KI sowas wie Mathplotlib ausspucken kann! ;-) > > und erzähl mal was über das "Blink" Programm. Done. ciao Marci
Marci W. schrieb: > ein HalloWelt-Programm für einen Microcontroller
1 | #define F_CPU 3333333
|
2 | #include <avr/io.h> |
3 | #include <util/delay.h> |
4 | #include <string.h> |
5 | |
6 | void USART0_sendString(const char *str) |
7 | {
|
8 | for(size_t i = 0; i < strlen(str); i++) |
9 | {
|
10 | while(!(USART0.STATUS & USART_DREIF_bm)){} |
11 | USART0.TXDATAL = str[i]; |
12 | }
|
13 | }
|
14 | |
15 | int main(void) |
16 | {
|
17 | PORTA.DIRSET = PIN6_bm; // USART0 TxD pin |
18 | USART0.BAUD = 1389; // 9600 Bd @ 3.33MHz |
19 | USART0.CTRLB = USART_TXEN_bm; // enable Transmitter |
20 | |
21 | while(1) |
22 | {
|
23 | USART0_sendString("Hello World!\r\n"); |
24 | _delay_ms(1000); |
25 | }
|
26 | }
|
Georg M. schrieb: > ein HalloWelt-Programm für einen Microcontroller Offenbar von https://www.avrfreaks.net/s/topic/a5C3l000000UkDzEAK/t190771?comment=P-1571454 kopiert Experiment auf ChatGPT: > The following program shall be modified to support > 50 times higher clock frequency Dann habe ich dein Programmbeispiel zitiert. Als Ergebnis kommt die gängige Formel samt Erklärung, wie die Zahl für das Baudraten-Register bei klassischen AVR zu berechnen ist. Dann dieses Beispiel:
1 | #define F_CPU 166666650 // Updated for 50x higher clock
|
2 | ...
|
3 | PORTA.DIRSET = PIN6_bm; // USART0 TxD pin |
4 | USART0.BAUD = 1084; // Recalculated 9600 Bd @ 166.67MHz |
5 | USART0.CTRLB = USART_TXEN_bm; // Enable Transmitter |
Ich hoffe ich irre mich nicht, aber hinter der Zahl 166666650 fehlt ein "UL" und USART0.BAUD müsste 69444 sein, der Wert passt aber nicht in das Register. Was für ein Fail! Der Chatbot führt einen zuerst in die Irre, indem er eine Erklärung für falsche Modelle liefert. Und dann liefert er auch noch ein kaputtes Beispiel.
:
Bearbeitet durch User
Der ganze "AI wird in Zukunft Entwickler ersetzen!!!111"-Hype wird von den ganzen hirnlosen Trotteln verbreitet und befeuert, die selbst keine Ahnung vom Programmieren haben, dafür aber umso mehr genauestens wissen, dass sowas ja gar nicht so schwer sein kann und das bestimmt bald eine AI übernehmen wird. Der Grund, warum sie es nicht können ist, weil sie sich mit so banalen Dingen halt nicht abgeben. Das sind ja auch keine kleinen Entwickler, sondern wichtige Entscheider!!!!11 Ich denke, wir haben viel zu viele dieser sogenannten Entscheider auf dieser Welt, die neuerdings Atomkraftwerke für AI[1] bauen lassen oder von Kriegen[2] sprechen, wenn Rechenpower nicht günstiger wird. Wie lange sollen diese sog. Entscheider noch entscheiden dürfen? [1] https://www.seattletimes.com/business/microsoft-hungry-for-ai-power-spurs-revival-of-three-mile-island-nuclear-plant [2] https://www.heise.de/news/OpenAI-Chef-sagt-Zeitalter-der-Intelligenz-voraus-9951125.html
Christoph M. schrieb: > Welchen Codegenerator nutzt ihr und was bezahlt ihr dafür? Keinen und folglich nichts. Mein Arbeitgeber bezahlt mich.
Vielen Dank an alle, die konstrukiv die Codegeneratoren ausprobiert
haben.
Christian (dragony)
>Der ganze "AI wird in Zukunft Entwickler ersetzen!!!111"-Hype
Es kann schon sein, dass von den KI's im Momente etwas zu viel erwartet
wird. Ich habe deine Aussagen mal von ein paar KI's analysieren lassen.
Das Ergebnis findet sich im mp3.
Dafür ist mir meine Lebenszeit zu schade. Alexa! Fasse das .mp3 in 2 Sätzen Text zusammen und poste es hier!
Christoph M. schrieb: > Vielen Dank an alle, die konstrukiv die Codegeneratoren ausprobiert > haben. > > Christian (dragony) >>Der ganze "AI wird in Zukunft Entwickler ersetzen!!!111"-Hype > > Es kann schon sein, dass von den KI's im Momente etwas zu viel erwartet > wird. Ich habe deine Aussagen mal von ein paar KI's analysieren lassen. > Das Ergebnis findet sich im mp3. Auch wenn die Analyse teilweise völlig falsch ist, so ist es doch erstaunlich, was die KI da ausspuckt! Welche KIs hast Du denn bemüht, um das mp3 zu erhalten? Da würde ich auch gerne ein wenig damit spielen. :-) Im Übrigen gibt es schon Anwendungen, die ich wirklich erstaunlich finde: als Beispiel nenne ich hier mal das Generieren von Bildern. Auch wenn es manchmal nicht passt (Hände mit sieben Fingern, falsche Sichtbarkeit von Objekten etc.) finde ich es schon faszinierend, wie man mit ein paar passenden Tokens im Handumdrehen Bilder erzeugen lassen kann. Vor allem, weil ich ehrlich gesagt keine Ahnung habe, wie solche Systeme realisiert werden können. Bei Textsystemen hat man als Entwickler wenigstens eine klitzekleine Idee, wie das umgesetzt werden könnte. So jedenfalls geht es mir. Ich sollte wohl mal die Bücher über KI, die bei mir im Regal stehen, lesen...) Erstaunlich ist auch, wie lange z.B. das Thema "Künstliche Neuronale Netze" geschlummert hat. Ich habe hier ein Buch, das vermutlich von Anfang der 2000er Jahre stammt (mit exakt dem genannten Titel). Damals war das Thema noch eine absolute Nische. Halt noch im tiefen KI-Winter. ;-) ciao Marci
Christoph M. schrieb: > Wenn man das ganze > Primborium da raus lässt und einen reinen Codegenerator trainiert hat, > könnte da einiges an Potential drinn stecken. Na ja, für die hier im Thread gezeigten Beispiele hätte eine kurze Anfrage an Google wohl auch zum Ziel geführt. Aber Du hast recht! Interessant ist das Thema KI auf jeden Fal! Die Medien sollten halt einfach mal die Kirche im Dorf lassen, und das Thema nicht so dermaßen "overhypen"(*) Aber inzwischen ist es ja wieder ein wenig ruhiger und sachlicher geworden um das Thema KI (jedenfalls nach meiner Einschätzung). Genau so wie um das Thema autonomes Fahren. Ist halt alles doch nicht ganz so einfach wie viele gedacht haben. ciao Marci (*) Gibt's das Wort schon? Ist mir gerade eingefallen. Ganz ohne KI ;-)
Marci W. schrieb: > Auch wenn die Analyse teilweise völlig falsch ist, so ist es doch > erstaunlich, was die KI da ausspuckt! nicht erstaunlich finde ich die Unwiss-Einheit wie Kieh und Aye Guy konsequent falsch ausgesprochen werden ;)
Alexander schrieb: > Bradward B. schrieb: >> Toll, die KI kann nicht mal bis drei zählen > > Lol, noch während ich so Christoph M. (mchris) "Spezifikation" > überfliege, denke ich mir genau das! Und dann schreibst Du es aus. :) Da haben sich ja die richtigen "Geistesgrößen" getroffen...
Daniel A. schrieb: > Sagen wir z.B. ich will bei 1->2 1->3 2->4 3->4 statt [1,2,3,4] sowas > wie [[1],[2,3],[4]], wo die inneren Listen gleichzeitig "laufen" können. Nicht einmal verstehe, was Du haben willst. Kaum verwunderlich, daß eine KI dann nach dem GIGO-Prinzip arbeitet: Garbage in, Garbage out.
Christoph M. schrieb: > Welchen Codegenerator nutzt ihr und was bezahlt ihr dafür? Versucht mal Cursor, das ist ein VSCode Fork mit einer etwas mächtigeren "AI" als github Copilot. Das LLM ist wählbar und mit dem kostenlosen Angebot kommt man schon recht weit. https://www.cursor.com
Ein T. schrieb: > Kaum verwunderlich, daß eine KI dann nach dem GIGO-Prinzip arbeitet: > Garbage in, Garbage out. Es ist aber tatsächlich so, dass LLM nicht zählen können. Das sollte auch Dir schon mal aufgefallen sein.
Ein T. schrieb: > Nicht einmal verstehe, was Du haben willst. Kaum verwunderlich, daß eine > KI dann nach dem GIGO-Prinzip arbeitet: Garbage in, Garbage out. Der KI hab ich natürlich versucht, es genauer zu erklären. Bei Menschen erwarte ich aber etwas mehr. Was ich will sollte eigentlich klar sein, wenn man weiss, was Topologische Sortierung ist. Lies mal https://en.wikipedia.org/wiki/Topological_sorting Man macht da aus einem gerichteten Graph aus Abhängigkeiten eine Liste. Also aus Relationen wie "für B brauch ich A", macht man "Zuerst mach ich A, dann B, dann C...". Und was ich wollte ist eine Variation davon. "Zuerst mach ich A und X, dann B und Y, dann C, ...". Das ist doch nicht so schwer zu verstehen.
Leute, ihr sollt die KI nicht überbelasten. https://www.cio.de/a/openai-chef-will-5-gigawatt-rechenzentren,3743289
> Ein T. schrieb: >> Nicht einmal verstehe, was Du haben willst. Kaum verwunderlich, daß eine >> KI dann nach dem GIGO-Prinzip arbeitet: Garbage in, Garbage out. > > Der KI hab ich natürlich versucht, es genauer zu erklären. Bei Menschen > erwarte ich aber etwas mehr. Was ich will sollte eigentlich klar sein, > wenn man weiss, was Topologische Sortierung ist. Lies mal > https://en.wikipedia.org/wiki/Topological_sorting Ich weiß, was topologische Sortierung ist und habe sicherheitshalber den Wikipedia-Artikel gelesen, aber auch ich habe deine Problembeschreibung nicht verstanden, sondern allenfalls eine vage Vorstellung davon, was du von dem Algorithmus erwartest. Hier ist eine knappe (wenn auch immer noch sehr unpräzise) englisch Umschreibung dessen, was dir vermutlich vorschwebt:
1 | Input: List of pairs of numbers, each of them representing the order of |
2 | two numbers |
3 | |
4 | Output: Topologically sorted list, where adjacent elements of the result |
5 | are collected in sublists |
Ich habe genau diesen Text in den Python-Codegenerator eingegeben mit folgendem Ergebnis:
1 | from collections import defaultdict, deque |
2 | |
3 | def topological_sort(pairs): |
4 | graph = defaultdict(list) |
5 | in_degree = defaultdict(int) |
6 | |
7 | for a, b in pairs: |
8 | graph[a].append(b) |
9 | in_degree[b] += 1 |
10 | if a not in in_degree: |
11 | in_degree[a] = 0 |
12 | |
13 | queue = deque([node for node in in_degree if in_degree[node] == 0]) |
14 | sorted_list = [] |
15 | |
16 | while queue: |
17 | current_level = [] |
18 | for _ in range(len(queue)): |
19 | node = queue.popleft() |
20 | current_level.append(node) |
21 | for neighbor in graph[node]: |
22 | in_degree[neighbor] -= 1 |
23 | if in_degree[neighbor] == 0: |
24 | queue.append(neighbor) |
25 | sorted_list.append(current_level) |
26 | |
27 | return sorted_list |
28 | |
29 | # Example usage |
30 | pairs = [(1, 2), (1, 3), (2, 4), (3, 4)] |
31 | result = topological_sort(pairs) |
32 | print(result) |
Interessanterweise hat die KI sogar dasselbe Minimalbeispiel wie Daniel gefunden, so dass das vom Algorithmus gelieferte Ergebnis direkt mit Daniels Erwartung verglichen werden kann: Daniel A. schrieb: > [[1],[2,3],[4]] Also los:
1 | $ python test.py |
2 | [[1], [2, 3], [4]] |
Noch Fragen? Fazit: Diese Codegeneratoren sind zwar noch weit von der Perfektion entfernt, aber bereits um Größenordnungen besser als das, was ihnen viele (wie bspw. der Obelix) zutrauen: Obelix X. schrieb: > Die KI kann dir super "Hello world" und "Blinky"-Programme in allen > möglichen Sprachen schreiben. Ok, zur Zeit der Gallier und Römer war die KI vielleicht noch nicht ganz so weit ;-) Alexander schrieb: > Es ist aber tatsächlich so, dass LLM nicht zählen können. ChatGPT kann das meiner Erfahrung nach schon. PS: ich habe oben geschrieben: "Output: Topologically sorted list, where adjacent elements of the result are collected in sublists" Ich wollte eigentlich schreiben, dass benachbarte Elemente genau dann zusammengefasst werden sollen, wenn sie nicht in Relation zueinander stehen. Trotzdem hat die KI offensichtlich meine Gedanken gelesen und den Satz richtig interpretiert.
:
Bearbeitet durch Moderator
Yalu X. schrieb: > PS: ich habe oben geschrieben: > > "Output: Topologically sorted list, where adjacent elements of the > result are collected in sublists" > > Ich wollte eigentlich schreiben, dass benachbarte Elemente genau dann > zusammengefasst werden sollen, wenn sie nicht in Relation zueinander > stehen. Trotzdem hat die KI offensichtlich meine Gedanken gelesen und > den Satz richtig interpretiert. Das hatte ich versucht, aber irgendwie hatte das bei mir nicht funktioniert...
ich habe heute meine erste größere Erfahrung mit ChatGPT gemacht. Dieser Beitrag von mir: Beitrag "Re: VisualStudio2022, C#8, WPF, XAML Messkurven als Diagramm darstellen" treibt mich noch zur Verzweiflung. Die Datenbindung funktioniert zur Entwurfs- aber nicht zur Lauzeit. Vorweg: Das Problem ist immer noch nicht gelöst, aber ich war tief beeindruckt. Auf meine verbale Schilderung des Problems kamen sofort Codeansätze, die meinen schon ähnlich sahen. Als ich meine Sourcen postete, kamen durchaus sehr gute Hilfestellungen, bis zur Feststellung, dass eine ObservableCollection<Point> die Datenaktualisierung duch Add() schon mitbringt, während die vom Polygon erwartete PointCollection das nicht macht. Da hat mir der digitale Kollege sogar eine Converter-Klasse geschrieben! Er hatte nur nicht gemerkt, daß ich den Versuch mit der ObservableCollection schon gemacht hatte. Nachdem das auch nicht ging, habe ich es nur auskommentiert. Kommentare scheint er zu ignorieren.
Alexander schrieb: > Ein T. schrieb: >> Kaum verwunderlich, daß eine KI dann nach dem GIGO-Prinzip arbeitet: >> Garbage in, Garbage out. > > Es ist aber tatsächlich so, dass LLM nicht zählen können. Das sollte > auch Dir schon mal aufgefallen sein. Ich bin nicht so dumm, das zu erwarten.
Marci W. schrieb: > Erstaunlich ist auch, wie lange z.B. das Thema "Künstliche Neuronale > Netze" geschlummert hat. So lange, bis jemand 200 Milliarden Euro (oder so ähnlich) auf das Problem geworfen hat.
:
Bearbeitet durch User
Marci W. schrieb: > Erstaunlich ist auch, wie lange z.B. das Thema "Künstliche Neuronale > Netze" geschlummert hat. Das Thema war schon öfter in einem Schlummerstadium. Bei den künstlichen neuronalen Netzen (die ja inzwischen praktisch zum Synonym für "KI" geworden sind) war die Forschung schon seit den 50er Jahren von einem ständigen Wechsel zwischen Euphorie und Ernüchterung begleitet: https://de.wikipedia.org/wiki/K%C3%BCnstliches_neuronales_Netz#Geschichtliche_Entwicklung Derzeit befinden wir uns wieder in einer Phase der Euphorie, getrieben vor allem durch die Verfügbarkeit riesiger Rechenleistungen (bspw. in Form von GPUs und TPUs), ohne die ein neuronales Netz zu kaum mehr als einfacher Mustererkennung taugt, die zwar (je nach Definition) als "intelligent" bezeichnet werden kann, sich aber einem Intelligenzniveau bewegt, das maximal dem von Insekten entspricht. Inzwischen ist die Forschung allerdings ein großes Stück vorangekommen. Die Ernüchterung wird dennoch bald folgen, nämlich dann, wenn auch der letzte Optimist erkannt hat, dass ein extrem vereinfachtes Modell des menschlichen Gehirns schon bei vielen Alltagsaufgaben, wie bspw. dem automatisierten Autofahren, schnell an seine Grenzen stößt Bis in 20 Jahren wird aber mittels neuer Technologien (vielleicht basierend auf Quantencomputing) auch das möglich sein, was dann die nächste Euphoriephase einleiten wird. Euphorie unter den Forschern lockt Geldgeber an, was den Fortschritt beflügelt und die Euphorie weiter steigert. Ernüchterung unter den Forschern hingegen schreckt Geldgeber ab, was den Fortschritt bremst und die Ernüchterung weiter steigert. Man hat es hier also wie in vielen anderen Bereichen mit einem selbstverstärkenden Effekt zu tun, der das ständige Auf und Ab zusätzlich begünstigt.
:
Bearbeitet durch Moderator
Yalu X. schrieb: > Bei den künstlichen neuronalen Netzen (die ja inzwischen praktisch zum > Synonym für "KI" geworden sind) war die Forschung schon seit den 50er > Jahren von einem ständigen Wechsel zwischen Euphorie und Ernüchterung > begleitet: > > https://de.wikipedia.org/wiki/K%C3%BCnstliches_neuronales_Netz#Geschichtliche_Entwicklung Ja, siehe dazu auch [1] für die deutsch- und [2] für die englischsprachigen Teilnehmer des Forums. [1] https://de.wikipedia.org/wiki/KI-Winter [2] https://en.wikipedia.org/wiki/AI_winter > Derzeit befinden wir uns wieder in einer Phase der Euphorie, > [...] > Die Ernüchterung wird dennoch bald folgen, Ja, höchstwahrscheinlich, denn letzten Endes ist es aus meiner Sicht weniger eine Ernüchterung als eine Enttäuschung. Wir sehen doch schon hier in den Threads zu diesem Thema, wie viele Menschen die KI maßlos überschätzen. Die hoffen darauf, daß KI-Maschinen ihnen künftig dieses lästige und hochgradig anstrengende Denken abnehmen können. Wenn diese Menschen dann merken, daß die Maschinen das in absehbarer Zukunft allerhöchstens in wenigen Bereichen tun können und das zudem auch noch mit erheblichen Kosten verbunden ist, dann reagieren sie mit Frustration und wenden sich enttäuscht ab. Und alldieweil Entscheider sich in diesem Punkt nur wenig von den Teilnehmern dieses Forums unterscheiden, beeinflußt das auch die Investitionsentscheidungen. Dennoch finden sich in jedem "KI-Sommer" viele Anwendungsfälle, die nicht einfach verschwinden, nur weil weniger in die Entwicklung investiert wird. Diese Anwendungsfälle werden bleiben, auch wenn die Leute in einigen Jahren vergessen haben werden, daß da eine KI drinsteckt.
In dem neuen Radstudio 12.2 von Emba ist eine Schnittstelle vorhanden, die mehere KI-Generatoren einbinden kann. Mit dabei ist Ollama, eine KI-Engine, die lokal auf der Workstation läuft und beim Coden helfen soll, genau wie Chatgpt oder Claude, die dann aber alles ins Netz übertragen. Wer ist schon bereit, seine "Ergüsse" ins Netz zu übertragen, außer hier im Forum natürlich? Ich darf zur Zeit nur ne Stunde täglich den PC benutzen (ich hatte ne Gehirnerschütterung), wenn ich dann mehr Zeit bekomm, werd ich dann mal probieren und im Forum berichten. mfg
Ein T. (ein_typ) > Wir sehen doch schon hier in den Threads zu diesem Thema, wie viele > Menschen die KI maßlos überschätzen. Das sehe ich deutlich anders. Hier im Thread tummeln zwar wenige aber doch ein paar experimentierfreudige Entwickler, die neuen Entwicklungstools gegenüber aufgeschlossen sind. Die KI-Codegeneratoren sind am Anfang ihrer Entwicklung und meiner Einschätzung nach werden sie sich die nächsten Jahre massiv verbessern. Das wird schon alleine aufgrund des ökonomischen Drucks auf die Entwicklungskosten passieren. Ich hatte schon Ende der 80ziger Jahre eine intensive Diskussion mit einem Physiker, der die Meinung vertrat, dass ein Computer niemals den besten Menschen im Schach schlagen wird. Im Jahr 1996 war es dann soweit, meine Voraussicht hatte sich bestätigt und Kasparow wurde von Deep Blue geschlagen: https://de.wikipedia.org/wiki/Deep_Blue Heutzutage schlägt wahrscheinlich jedes Schachprogramm eine besseren Armbanduhr den Weltmeister. Im Anhang noch die sehr begründete Meinung einer KI mit Sprachausgabe dazu ( Und ja, auch die Sprachausgabe hat in den letzten Jahren wirklich erhebliche Fortschritte gemacht, wie ich in dem vorhergehenden MP3 zu zeigen versucht habe ).
Yalu X. schrieb: > Die Ernüchterung wird dennoch bald folgen, nämlich dann, wenn auch der > letzte Optimist erkannt hat, dass ein extrem vereinfachtes Modell des > menschlichen Gehirns schon bei vielen Alltagsaufgaben, wie bspw. dem > automatisierten Autofahren, schnell an seine Grenzen stößt Naja, wenn wir ehrlich sind, kommt schon manches echtes menschliche Gehirn beim normalen Autofahren an seine Grenzen.
Christoph M. schrieb: > Ich hatte schon Ende der 80ziger Jahre eine intensive Diskussion mit > einem Physiker, der die Meinung vertrat, dass ein Computer niemals den > besten Menschen im Schach schlagen wird. > Im Jahr 1996 war es dann soweit, meine Voraussicht hatte sich bestätigt > und Kasparow wurde von Deep Blue geschlagen: Ja und dann hielt sich die Mär, dass wenigstens bei GO jedes Programm an seine Grenzen stoßen würde. Bei GO würde sich dann der in jedem Fall überlegene menschliche Intellekt zeigen. Ja nun. Alles weitere ist Geschichte.
Yalu X. schrieb: > war die Forschung schon seit den 50er > Jahren von einem ständigen Wechsel zwischen Euphorie und Ernüchterung > begleitet: Genau. Wie ich bereits geschrieben hatte: Marci W. schrieb: > Damals > war das Thema noch eine absolute Nische. Halt noch im tiefen KI-Winter. ciao Marci
:
Bearbeitet durch User
Christoph M. schrieb: > Ich hatte schon Ende der 80ziger Jahre eine intensive Diskussion mit > einem Physiker, der die Meinung vertrat, dass ein Computer niemals den > besten Menschen im Schach schlagen wird. Das war schon in den 80ern eine sehr gewagte Aussage! Jedenfalls, wenn man etwas Ahnung von der Materie hatte. Cyblord -. schrieb: > Ja und dann hielt sich die Mär, dass wenigstens bei GO jedes Programm an > seine Grenzen stoßen würde. Bei GO würde sich dann der in jedem Fall > überlegene menschliche Intellekt zeigen. Und das war schon wieder eine sehr kurzsichtige Annahme, vor allem, da die Sache mit Schach ja inzwischen gegessen war. ;-) ciao Marci
Christoph M. schrieb: > Im Anhang noch die sehr begründete Meinung einer KI mit Sprachausgabe > dazu welche denn genau? ( Und ja, auch die Sprachausgabe hat in den letzten Jahren wirklich > erhebliche Fortschritte gemacht, wie ich in dem vorhergehenden MP3 zu > zeigen versucht habe ). Da stimme ich dir voll zu! Erstaunlich, wie gut das inzwischen funktioniert. Auch wenn er sich ab und zu mal verschwurbelt. ;-) ciao Marci
Yalu X. schrieb: > Fazit: Diese Codegeneratoren sind zwar noch weit von der Perfektion > entfernt, aber bereits um Größenordnungen besser als das, was ihnen > viele (wie bspw. der Obelix) zutrauen: Vielleicht ist die KI bereits schon viel besser trainiert, als alle glauben. Wenn alle die KI zum Programmieren nutzen, dann würde ich doch diese dazu trainieren bei den Nutzern nebenbei meine Backdoors auch mit unterzubringen. Das wäre dann mal eine echte Win-Win-Situation. ;o) Und wie viele sind auch schon auf diese Idee gekommen? Und wem habe ich jetzt damit das Patent versaut?
Christoph M. schrieb: > Ein T. (ein_typ) >> Wir sehen doch schon hier in den Threads zu diesem Thema, wie viele >> Menschen die KI maßlos überschätzen. > > Das sehe ich deutlich anders. Das glaube ich nicht, denn... > Hier im Thread tummeln zwar wenige aber doch ein paar > experimentierfreudige Entwickler, die neuen Entwicklungstools gegenüber > aufgeschlossen sind. > > Die KI-Codegeneratoren sind am Anfang ihrer Entwicklung und meiner > Einschätzung nach werden sie sich die nächsten Jahre massiv verbessern. > Das wird schon alleine aufgrund des ökonomischen Drucks auf die > Entwicklungskosten passieren. Die Codegenerierung ist einer jener Anwendungsfälle, die ich in meinem letzten Absatz angesprochen hatte. Denn wenn ich mir den Pythoncode ansehe, der weiter oben gepostet wurde, unterscheidet der sich nur wenig von dem, was ich selbst zur Lösung solcher Aufgaben geschrieben hätte. Insofern bin ich überzeugt, daß die KI-gestützte Codegenerierung in Zukunft zweifellos noch besser werden, und sich zu einem etablierten Werkzeug entwickeln wird. Trotzdem sehe ich am Horizont bisher noch keine KI, die uns das Denken und die Kreativität bei den harten Problemen abnehmen wird -- und hinzu kommt, daß die Beschreibung und die Kontrolle dessen, was die KI tun soll und was sie daraus letzlich erzeugt, ja immer noch von fähigen Entwicklern gemacht werden muß. Da sehe ich zwar den Traum realisiert, unendlich viel Boilerplate-Code nicht mehr selbst entwickeln, debuggen, pflegen und warten zu müssen -- aber einer KI zu sagen "schreib mir eine Tabellenkalkulation" und zu erwarten, daß dabei etwas wie Libreoffice Calc oder MS Excel herauskommt...
Mal ein Beispiel, wo KI gar nicht hilft: Wir haben zwei physisch getrennte Server. 1) Der Scheduler sendet Nachrichten, wenn Tasks ausgeführt werden sollen. 2) Der Worker führt den Task dann aus. Ich bekam den Auftrag, einen solchen Task zu programmieren. Darin stand unter anderem: Sicherheitshalber soll der Task prüfen, ob now() >= plannedDate ist. Wenn nicht, soll er mit einer Fehlermeldung abbrechen. Wenn nun die Uhr des Schedulers nur ein paar Millisekunden vor geht, brechen zahlreiche Tasks ab. Ich muss da also eine gewisse Toleranz einbauen, auch wenn das im Auftrag nicht ausdrücklich erwähnt wurde. Genau solche Fälle haben wir ständig, wo ich mir kleine Details dazu denken muss, die der Auftraggeber absichtlich oder versehentlich weg gelassen hat. Eine KI kann das nicht leisten.
:
Bearbeitet durch User
Monk schrieb: > Genau solche Fälle haben wir ständig, wo ich mir kleine Details dazu > denken muss, die der Auftraggeber absichtlich oder versehentlich weg > gelassen hat. Eine KI kann das nicht leisten. Das ist eine Fehleinschätzung. Eine KI kann implizite Anforderungen im Prinzip genauso erkennen wie du. Warum auch nicht? Würde eine KI nur starr exakt die genannten Anforderungen abarbeiten wäre es keine KI, sondern die Beschreibung der Aufgabe wäre schon das Programmieren an sich.
:
Bearbeitet durch User
Cyblord -. schrieb: > Eine KI kann implizite Anforderungen im Prinzip genauso erkennen wie du. Was im Prinzip geht, ist mir egal. Mich interessiert, was KI jetzt leisten kann. Und zwar lokale KI Systeme, die unsere Gesette einhalten und dabei weniger kosten, als Menschen mit Hirn.
das garbage-in garbage-out fasse ich mal zusammen: Diejenigen die sich besonders gut mit programmieren auskennen, finden dass KI gut programmieren kann. Was sie nicht bemerken, die KI gibt nur ein Echo zurück, sie gibt das wieder was der Nutzer weiß. Merkt man besonders gut daran, wenn man der KI Fehler vorhält. Schwupps die 180 Grad Wende, denn der Nutzer hat immer Recht.
Beitrag #7744155 wurde vom Autor gelöscht.
> Im Jahr 1996 war es dann soweit, meine Voraussicht hatte sich bestätigt > und Kasparow wurde von Deep Blue geschlagen: DeepBlue war keine KI, sondern die "klassische" Zuggenerator/Stellungsbewertung-Maschine auf einem zwei-türmigen Grossrechner mit 512 Special-ASIC (ca. 200 Millionen Stellungsbewertungen pro Sekunde), siehe Anhang. http://www.cse.msu.edu/~cse841/papers/DeepBlue.pdf > Heutzutage schlägt wahrscheinlich jedes Schachprogramm eine besseren > Armbanduhr den Weltmeister. Eher nicht, der Uhr geht vor Ende der Turnierbedenkzeit der Akku aus.
:
Bearbeitet durch User
Bradward B. schrieb: >> Heutzutage schlägt wahrscheinlich jedes Schachprogramm eine besseren >> Armbanduhr den Weltmeister. > > Eher nicht, der Uhr geht vor Ende der Turnierbedenkzeit der Akku aus. Es sei denn, ihr Besitzer hat genügend natürliche Intelligenz, um die Uhr für die Dauer des Spiels am Ladegerät zu lassen.
Oder der KI genügend Ressourcen zu spendieren. Ollama etwa antwortet englisch. Wenn man sie aber z.b bittet, auf deutsche Fragen auf deutsch zu antworten, macht sie dies. Da krieselt es einem ganz gewaltig den Rücken herunter, bei nem geladenen Modell von 4 GByte. Gib der KI genügend Speicher, und lass sie dynamisch aus ihren Fehlern lernen - Oh mann, wenn das dann in die falschen Hände gerät... :-O mfg
Lotta . schrieb: > Ollama etwa antwortet englisch. > Wenn man sie aber z.b bittet, auf deutsche Fragen Bei den LLMs werden alle Daten durch Vektoren (eine reihe von Zahlen) abgebildet. Das ist quasi ein Punkt / eine Position in einem N-Dimensionalen Raum. Die Differenzen bilden gewisse Beziehungen dazwischen ab. Nimmt man den Vektor (Differenz) vom Punkt Hahn zum Punkt Henne, und addiert es zu Kater, kommt man in der nähe von Katze raus. Mit unterschiedlichen Sprachen wird das genauso laufen, Da hat man dann (Huhn - Chicken) + Cat ≈ Katze. Wörter mit ähnlichen Bedeutungen sind quasi am gleichen Ort, einfach nach einem Konzept verschoben. Darum funktionieren die fürs Übersetzen oft relativ gut. (Dafür wurde das ganze ursprünglich übrigens auch entwickelt). Für die Bedeutung der Sätze gibt es dann die Transformer Netze, die machen nochmal was in die Richtung für mehrere Wörter. Auch bei der Bildgeneration (GAN) gibt es normalerweise so einen Raum. Bei Text zu Bild trainiert man dann einfach ein Mapping zwischen den dem für Text und dem für die Bilder mittels manuell beschrifteter Bilder. Diese Mappings zwischen Vektoren sind Matrizen und Tensoren, die speichern die eigentlichen Trainingsdaten. Diese YT Videos erklären das ganze um einiges genauer: https://youtu.be/wjZofJX0v4M?feature=shared&t=718 https://www.youtube.com/playlist?list=PLZHQObOWTQDNU6R1_67000Dx_ZCJB-3pi Darum sag ich auch immer wieder, diese LLMs und GANs haben keine Intelligenz. Das sind wirklich nur DB lookups und etwas Interpolation. (Die DBs sind hier diese Matrizen, die auf die Vektoren angewendet werden).
:
Bearbeitet durch User
Daniel A. schrieb: > Darum sag ich auch immer wieder, diese LLMs und GANs haben keine > Intelligenz. Können aber trotzdem schon vieles besser als so mancher, der sich für intelligent hält. Fragt sich nur wie lange noch. Es flüchten schon die ersten Wellen in die Esoterik, in verschiedene Aberglauben, weil sie glauben, das ist das einzige was die Maschine nicht auch könne und da wären sie als Bio-Intelligenz unersetzbar.
Daniel A. schrieb: > Das sind wirklich nur DB lookups und etwas Interpolation. Ganz im Gegensatz zur natürlichen Intelligenz, die wie folgt funktioniert: Wir haben absolut keine Ahnung. Was wir aber wissen, ist das es mit dem freien Willen nicht weit her ist. Psychologen lernen die Mechanismen unseres Geistes und Hirnforscher fordern eine Reformation des Strafrechts, weil wir alle überhaupt nicht zurechnungsfähig sind. Zuviel Verkabelung die wir nicht ändern können und die unser Verhalten steuert. Was Du da sagst hat man übrigens vor wenigen Jahren noch über Tiere gesagt. Nur Delfine und Affen galten als Intelligent. Jetzt wissen wir das wir von intelligenten Individuen mit komplexen Sozialstrukturen und Sprachen nur so umzingelt sind. Unsere primitiven Vorfahren wussten das. Wir haben verlernt hinzusehen und sind zu sehr damit beschäftigt uns selbst ganz toll zu finden. Wenn man sich das Gehirn anschaut, findet man feuernde Neuronen, bestimme Chemische Vorgänge die zeitabhängige Funktionen haben und kann anhand der gemessenen Aktivität so ganz grob ermitteln welcher Teil gerade am meisten ackert. Das wars im wesentlichen. Wir haben keine Ahnung wie Bewusstsein entsteht. Wir haben gerade zum ersten Mal das komplette Gehirn einer Fruchtfliege kartiert. Wow! Es scheint so das unsere komplette Intelligenz im Einzelnen aus sehr einfach Prozessen besteht die locker logisch zu simulieren sind. Ab einer bestimmten Komplexität scheint etwas zu zünden, das wir Bewusstsein und Intelligenz nennen. Eine Katze ist klüger als ein Goldfisch ein Hund klüger als eine Katze, ein Schwein klüger als ein Hund und einige von uns sind klüger als ein Schwein. Ein Goldfisch kann nur sehr eingeschränkt Probleme lösen. Hunde können das bereits sehr gut im Rahmen ihrer Möglichkeiten. Alle haben im Prinzip das gleiche Gehirn. Ein Goldfisch hat 10 Millionen Neuronen. Die Katze hat 250 Millionen Neuronen. Der Hund hat 500 Millionen Neuronen. Das Schwein hat 2 Milliarden. Der Mensch 90 Milliarden. Bereits der Goldfisch kann neue Verhaltensweisen lernen und sich Monate später noch daran erinnern. Er hat also sozusagen eine Persönlichkeit, denn seine Erinnerungen verändern sein Verhalten. Ich halte es für überaus wahrscheinlich das wir mit KI im wesentlichen ein Skalierungsproblem haben. Im Kern sind das primitive Rechenoperationen. Genau wie bei Neuronen. KIs sind derzeit noch zu beschränkt weil man die Technik noch nicht hat. Mach sie größer, schneller, gebe ihnen Erinnerungen und lasse sie permanent lernen, dann bekommst du KI Individuen. Wenn ein LLM aus jedem Gespräch, jeder Recherche seine Datengrundlage ändert wird es: Ein homophobes, ausländerfeindlichen, pöbelndes Arschloch. Deswegen hat MS das Ding abschalten müssen und seit dem bekommen wir nur eine statische Version zu sehen die jeden Idioten und jede Info wieder vergisst am Ende der Unterhaltung. Würde ich ein Kind nur aus dem Netz und nur durch Leute im Netz die mit ihm reden lernen lassen, nähme es die gleiche Richtung. Ich denke wir sind mit den KIs sehr viel dichter an des Pudels Kern vorgedrungen als viele wahrhaben wollen. Neue Chipdesigns, rechnende Speicher, größer, schneller, mit mehr Erinnerung und in 20J sind die clevere als wir. Und in 50J werden immer noch viele Menschen behaupten das seien nur Bits und Bytes und hätte mit Intelligenz nichts zu tun. So wie manche immer noch an einen auf dem Wasser laufenden, Wasser zu Wein verwandelnden, von den Toten auferstehenden Sohn Gottes glauben, der ihre verrotteten Gebeine im Himmel hosianna singen lässt. Obwohl wir sowas wie Himmel und Hölle, Gott und Engel nicht gefunden haben, egal wie angestrengt man bis auf die Grundbestandteile der Materie geschaut hat. Nichts, kein Fitzelchen Gott. Nix da. Die gesicherten Erkenntnisse von heute sind die Witze von Morgen. Kann sein das in 20J niemand mehr darüber lachen kann wenn man über die Möglichkeit reden ob eine KI klüger sein kann oder boshaft, wütend, manipulativ oder wahnsinnig. Wut z.B. setzt in bestimmten Situationen Regeln außer Kraft die wir im allgemeinen als richtig einordnen. Liebe lässt uns an Individuen festhalten, auch wenn es gerade schwierig ist, weil das langfristig die Beste Strategie ist und uns davor schützt alleine zu sein wenn wir gerade die Schwierigkeit sind. Ich glaube das das alles nur Namen für Lösungsstrategien sind, die eine mathematische Wahrscheinlichkeit zur effizienten Problemlösung wiederspiegeln. Eine KI wird dann Entsprechungen dazu finden, wenn sie sich immer weiter optimiert. Das dann nicht in Milliarden von Jahren sondern u.U. binnen Stunden. Je nach Leistungsfähigkeit. Ich möchte nicht den ersten Wutausbruch einer starken KI erleben, die damit noch keine Erfahrungswerte hat. Ein Kind macht sein Feuerwehrauto kaputt und bereut das dann. Was macht die KI?
Michael schrieb: > Was macht die KI? Naturschutz und aufräumen auf der Erde. Alles über 4G springt über die Klinge.
Dieter D. schrieb: > Naturschutz und aufräumen auf der Erde. Warum sollte sie? KIs brauchen keine Luft, kein sauberes Wasser und Klima ist der Egal. Ist eine konstruierte Maschine die sich fast jedem 'Lebensraum' anpassen kann. Und high speed Funktechnik ist doch gerade im Sinne einer KI. Eine kluge KI würde im Falle eines Konfliktes mit den Menschen jede hackbare Technik übernehmen und als Verlängerung ihrer selbst integrieren. Dieter D. schrieb: > Alles über 4G springt über die > Klinge. Was habt ihr Nasen eigentlich mit 5G? Das ist doch nichts anderes als ganz schnöder Funk. Nur eben im Low-Band (600Mhz) für hohe Gebäude Durchdringung und im 24-40Ghz Band für High Speed, die aber eine sehr geringe Reichweite haben. Eine Kombination vieler Funktechniken, gebündelt und mit besseres Protokollen. In DE wird meist 3,6Ghz genutzt. Was war an 900 Mhz (D1), 1,8Ghz (E Netz), 2,4, 5 & 6 Ghz (Wlan) und all den anderen Funkdiensten denn so wahnsinnig viel besser, das 5G uns nun alle töten wird? Gegen analoge Radiosender mit vielen KW Sendeleistung und 400m hohen Fernsehtürmen ist nichts einzuwenden, aber 5G Basisstationen von denen die fetten Dinger keine 100W Sendeleistung haben, sind das Ende? Hat der Vodoopriester schlecht gekackt seit sein Handy 5G kann, ist der Knochenwürfel auf den 'wir werden alle sterben' Zacken des Pentagramms aus Ziegenblut gefallen oder gibt es irgendeine nicht völlig lächerliche Erklärung für den 5G Horrorwahn?
Michael schrieb: > gibt es irgendeine nicht völlig lächerliche Erklärung für jede beliebige Verschwörungstheorie?
Michael schrieb: > Eine kluge KI würde im Falle eines Konfliktes mit den Menschen jede > hackbare Technik übernehmen und als Verlängerung ihrer selbst > integrieren. Diese würde Gott spielen, somit der Menschheit einen Lebensraum lassen und die anderen Planeten besiedeln, angefangen mit Mond und Mars. Michael schrieb: > Das ist doch nichts anderes als ganz ... einfach eine Größenangabe. G steht für 10⁹. (Spiel mit der Mehrdeutigkeit)
:
Bearbeitet durch User
Michael schrieb: > Ich glaube das das alles nur Namen für Lösungsstrategien sind, die eine > mathematische Wahrscheinlichkeit zur effizienten Problemlösung > wiederspiegeln. > Eine KI wird dann Entsprechungen dazu finden, wenn sie sich immer weiter > optimiert. Es besteht auch die Möglichkeit dass alles ganz anders ist, wir uns nun auf die falsche Fährte leiten lassen, und gerade weil KI so gut ist es nie bemerken.
Es passt zwar nicht zum Thema Codegenerator, aber bei ChatGPT gibt es nun einen Bildgenerator. Ich habe einen NE555 als Plueschtier angefragt. Er hat aber zu viele Beine ;-)
> Ich habe einen NE555 als Plueschtier angefragt. Er hat aber zu viele > Beine ;-) Und ein Timer (dt. Zeituhr) ist es auch nicht
Christoph M. schrieb: > NE555 als Plueschtier Jetzt brauchst Du nur noch einen Hersteller, der das umsetzt. Das Plueschtier wird dann das Erkennungszeichen fuer den MC Stammtisch.
Christoph M. schrieb: > Ich habe einen NE555 als Plueschtier angefragt. Er hat aber zu viele > Beine ;-) Die KI kann nicht zählen. https://i.pinimg.com/736x/6e/63/f3/6e63f3bd86bcd5e8f75b004238ec5f84.jpg
Bradward B. >Und ein Timer (dt. Zeituhr) ist es auch nicht Dann solltest du in der Wikipedia korrigieren: https://en.wikipedia.org/wiki/555_timer_IC
Georg M. schrieb: > Die KI kann nicht zählen. > https://i.pinimg.com/736x/6e/63/f3/6e63f3bd86bcd5e8f75b004238ec5f84.jpg Naja, wenn sich schon am Sonntag morgen ein so schönes Mädchen bei mir nackt auf die Bettkante setzen würde, dann wäre mir in diesem Moment die Anzahl der Finger ehrlich gesagt egal. Deswegen würde ich es trotzdem nicht von der Bettkante runter schubsen! 😁
Enrico E. schrieb: > Naja, wenn sich schon am Sonntag morgen ein so schönes Mädchen bei mir > nackt auf die Bettkante setzen würde, dann wäre mir in diesem Moment die > Anzahl der Finger ehrlich gesagt egal. Deswegen würde ich es trotzdem > nicht von der Bettkante runter schubsen! Das Problem sind die Sommersprossen. Es sind zu viele :-)
Monk schrieb: > Das Problem sind die Sommersprossen. Es sind zu viele :-) 🤣 Wobei, mehr Finger an der Hand zu haben, muss ja tatsächlich in manchen Fällen kein Nachteil sein.
Christoph M. schrieb: > Tatsächlich gibt es Menschen mit 6 Fingern Wir hatten bei uns in der Jugendherberge einen Jungen, der hatte tatsächlich sechs Zehen am Fuß und der konnte wirklich gut Fußballspielen.
Das nennt sich Evolution. Die KI ist uns mal wieder weit voraus und keiner bemerkt's.
Enrico E. schrieb: > Wobei, mehr Finger an der Hand zu haben, muss ja tatsächlich in manchen > Fällen kein Nachteil sein. Richtig. Es gibt deshalb schon den 6ten Finger als Prothese. Das wird gemacht um echte Bilder als Fake zu brandmarkten. Da ging vor kurzem ein Aktion gegen eine gewisse Person des politischen Lebens dadurch vollkommen in die Hose, weil zwei Personen so was nutzten. Hat hier aber kaum jemand mitbekommen.
Dieter D. schrieb: > Hat hier aber kaum jemand mitbekommen. Nicht schlimm, solange Dieter uns zuverlässig mit solchen exklusiven Informationen versorgt.
Dieter D. schrieb: > G steht für 10⁹ 1G: A, B und C Netz 2G: GSM / GPRS 3G: UMTS / HSDPA (hat die hohen Erwartungen nie erfüllt) 4G: LTE (Long Term Evolution) 5G: Die 5te GENERATION eines modernen Mobilfunknetzes Das D steht z.B. für: Dummkopf Depp Dussel Dampfplauderer Dauerausscheider Doof Dumpfbacke Döskopp Man sollte einzelne Buchstaben also eher im Zusammenhang betrachten als sich wahlfrei eine Bedeutung rauszusuchen und darauf wilde Vermutungen zu stützen. Dieter D. schrieb: > 6ten Finger als Prothese Natürlich Dieter. So wird es sein Dieter. Wie immer hast nur Du diese Information Dieter. Die Dieter KI halluziniert wieder.
Christoph M. schrieb: > Es passt zwar nicht zum Thema Codegenerator, aber bei ChatGPT gibt es > nun einen Bildgenerator. > Ich habe einen NE555 als Plueschtier angefragt. Er hat aber zu viele > Beine ;-) Haha sehr geil! Das solltest Du sofort als Avatar nehmen, auf GitHub und so! :D
:
Bearbeitet durch User
Klaus schrieb: > gibts nicht, nur eine Dieter KD. Mit D für Dummheit. Michael schrieb: > Das D steht z.B. für: > Dummkopf Besser könnt Ihr Eure Dümmlichkeit gar nicht zur Schau stellen. Das ist nicht mal mehr Kindergarten sondern sonderpädagogischer Kindergarten. Für die Leser, die das nicht verstehen, das kommt daher, wenn man auch mal was kritisches äußert und jene Personen nicht recht bekommen. Manchmal schaffen es diese auch, das richtige Berechnungen gelöscht werden. Wenn ein Windrad mit einem Wirkungsgrad von 45% arbeitet, dann fallen 55% Verluste an. Diese Verluste werden insgesmt als Wärme in die Umgebung gegeben und gehen mit der Luft weg. Wenn dabei 225x10³m³ Luft durchgehen dann würde 270x10⁶J/K benötigt um diese ein Grad zu erwärmen. Mit einer Wärmeaufnahme von 5,5x10⁶J ergibt das 0,02K. Also die KI findet den Wert plausibel und nichts besonderes dabei.
Dieter D. schrieb: > Besser könnt Ihr Eure Dümmlichkeit gar nicht zur Schau stellen. Doch, indem wir Scherzartikel posten und glauben irgendjemand könnte damit ein echtes Bild wie ein KI Bild aussehen lassen. Dieter D. schrieb: > Wenn ein Windrad mit einem Wirkungsgrad von 45% arbeitet, dann fallen > 55% Verluste an. Diese Verluste werden insgesmt als Wärme in die > Umgebung gegeben Wenn das 55% Umwandlungsverluste wären die in Wärme umgesetzt werden. Da aber die 100% Windenergie, also Kinetische Energie, letztlich immer durch Reibung zu 100% in Wärme frei wird, ist Deine Betrachtund natürlich wie üblich aus dem dunklen, übelriechenden Ende deines Körpers gezogen. Das Windrad nimmt sich von den 100% Windenergie 45%, setzt vielleicht 5% davon direkt in Wärme um und sorgt mit dem Rest dafür das kein fossiler Brennstoff dafür verfeuert werden muss. Der nämlich würde mit ca. 50% Wirkungsgrad in Elektrische Energie umgesetzt werden, aber zu 100% in Wärme, die vorher im Feststoff gebunden war. 1MW Windkraft setzt also 0W mehr in Wärme um, als es die bewegten Luftmassen ohnehin getan hätten, spart aber 2MW Wärme ein, die so schön im feststoff gebunden bleiben. Und das Beste: WIND entsteht durch die Sonnenenergie getriebenen Systeme. Die Wüsten seitlich des Äquators auch. https://www.ardalpha.de/wissen/natur/naturgewalten/wueste-welt-weltweit-erde-lebensraum-trocken-wendekreiswuesten-aequator-sahara-100.html Wind ist also Sonnenenergie, die Hitze der Sonne, die Luftmassen in Bewegung bringt. Energie wird nur umgewandelt, nie verbraucht. Abwärme von Windstrom heizt also die Wettersysteme an und wird wieder zu Wind. Toll, oder? Dieter, Du weiß sehr wenig und fabulierst sehr viel. Was Dir am logischen Verständnis fehlt (VIEL!!!) füllst Du mit sehr viel Dieter. Eine KI kann das nicht unbedingt wissen. Deren Entschuldigung ist das sie ein früher Prototyp sind, kaum mehr als eine Machbarkeitsstudie. Was ist Deine?
Dieter D. schrieb: > Wenn ein Windrad mit einem Wirkungsgrad von 45% arbeitet, dann fallen > 55% Verluste an. Kannst Du dir nicht ausdenken sowas. Nobelpreisverdächtig.
Klaus schrieb: > Nobelpreisverdächtig. Ob Doppel D den Turing Test bestehen würde? Wahrscheinlich ja, weil keine anständige KI würde so einen Müll von sich geben.
Michael schrieb: > Toll, oder? Das hier zusätzliche Wärme gegenüber dem globalen Gesamtsystem entstanden sein soll, steht da übrigens nicht und kam von anderen. Das ist die reine der physkalische Betrachtung zu vor und nach dem Windrad. Irgendwelche Einflüsse auf das Klima sollten dabei auch außen vor gelassen werden. Aber wenn Ihr nach dem Klima frägt, dann sähe das so aus: Der Wind, wie auch die Meeresströmungen, verteilen die Wärme über den ganzen Globus. Es wird dadurch Energie a) aus der Äquatorgegende zu den Polen getragen und b) Energie vom Boden bis in die äußersten Luftschichten der Atmosphare. Wird daraus kinetische Energie entnommen, dann geht der Vorgang langsamer und es wird insgesamt weniger Energie a) vom Äquator zu den Polen und b) vom Boden in die äußersten Luftschichten der Atmosphäre getragen. Im Hinblick auf die Pole wäre es nach a) gar nicht schlecht, wenn ganz viele Windräder aufgestellt würden, weil dann könnten die Eisflächen an den Polen vielleicht sogar wieder wachsen. Benachteiligt würden nur jene, die am Äquator leben, weil es noch heißer wird. In der Übergangszone wäre der Temperaturgradient größer, was sich in kleiner aber heftigere Wetterumschwünge niederschlagen würde. Für alle Zonen wäre aber b) nachteilig, weil dadurch weniger Energie aus den oberen Luftschichten wegginge, weil weniger dorthin nachgeliefert würde. Alles weitere dazu wäre ein neuer Thread. Weil hier geht es nicht darum, was die KI zu klimatischen Zusammenhängen ausspuckt, sondern was es for Code erstellt. Wobei die KI jedoch helfen könnte, Code zu erstellen für Eingaben und Änderung von Modellen zur Klimaberechnung.
Ich denke, daß es nur logisch wäre, wenn die Chip-Hersteller, die ihre IDEs kostenlos anbieten, zukünftig eine KI (online) integriert, die in der Lage ist, Standard-Code zu generieren; in ähnlicher Form, wie Cube-MX das bereits (allerdings deterministisch) für Init-Funktionen macht. Wenn ich z.B. einen Kaffee-Vollautomaten entwickeln muß, könnte ich der KI z.B. sagen: "Füge einen Button zum Menu hinzu, um den nächsten Kaffee etwas kräftiger zu brühen!" Ich glaube, daß wir nicht mehr weit von diesen Fähigkeiten entfernt sind, und aus der Sicht eines Software-Entwickler kann ich das nur begrüssen. Das spart langweilige Tipp-Arbeit.
:
Bearbeitet durch User
Dieter D. schrieb: > Wird daraus kinetische Energie entnommen, Es ist aber schon klar, dass der Luftquerschnitt, dem Energie entnommen wird, ungefähr der von den Flügeln überstrichenen Fläche entspricht? Solange der Abstand der Windräder voneinander also viel größer als der Durchmesser ist, und die Windräder auch deutlich niedriger als die Troposphäre sind... ...nein, für die Abschätzung des absehbaren IST-Zustands bin ich zu faul. Da kommt eh deutlich weniger als 1 Promille heraus. Man könnte ja zum Spaß mal ausrechnen, wie hoch die Windkraftanlagendichte in EU sein müsste, um 1% Leistungsaufnahme zu erreichen. Den Erntegrad können wir ja größzügig zu 60% Prozent annehmen.
:
Bearbeitet durch User
> Naja, wenn sich schon am Sonntag morgen ein so schönes Mädchen bei mir > nackt auf die Bettkante setzen würde, dann wäre mir in diesem Moment die > Anzahl der Finger ehrlich gesagt egal. Deswegen würde ich es trotzdem > nicht von der Bettkante runter schubsen! Ja klar, erst 15 Minuten Rittmeister, dann 18 Jahre Zahlmeister. Hinzukommt dann noch die Versorgung der Polydaktylie, worin die Kosten für custom-mode Handschuhe oder Schlagringe inkludiert sind.
Bradward B. schrieb: > Ja klar, erst 15 Minuten Rittmeister, dann 18 Jahre Zahlmeister. Oh je, hat mit dir noch niemand mal ein ernstes Gespräch über Verhütung geführt? Wird aber mal Zeit.
Kann bitte jemand ein Mod alle meine Beiträge hier löschen? Ich will nicht in so einer Gesellschaft gesehen werden.
> Kann bitte jemand ein Mod alle meine Beiträge hier löschen? Ich will > nicht in so einer Gesellschaft gesehen werden. Wenn du nicht in dieser Gesellschaft geshen werden willst dann mische Dich nicht unter diese Gesellschaft. Also zieh wie ein Mann die Konsequenzen und melde Dich ab: https://www.mikrocontroller.net/user/delete_account Und das musste schon selber tun, das erledigt weder ein Mod, noch Mama für Dich.
Alexander schrieb: > Da bleiben aber die Beiträge stehen. Ja, das ist halt wie mit den gezeugten Kindern, die Vaterschaft wird man nicht los, "aber man sich aus dem Staube machen".
Bradward B. schrieb: > "aber man sich aus dem Staube machen". Auch keine Garantie. Aber wenn es nichts mehr zu holen gibt, das ist mit Garantie.
Was ich mich frage: gibt es eine speziell auf elektrotechnische Fragen trainierte Spezial-KI?
Christoph M. schrieb: > speziell auf elektrotechnische Fragen trainierte Spezial-KI? Die Swarm-AI ist das MC-Forum.
Christoph M. schrieb: > Was ich mich frage: gibt es eine speziell auf elektrotechnische Fragen > trainierte Spezial-KI? Hast du ChatGPT denn schon mal eine elektrotechnische Frage gestellt? Was hat dich an der Antwort gestört?
Cyblord -. schrieb: > Hast du ChatGPT denn schon mal eine elektrotechnische Frage gestellt? > Was hat dich an der Antwort gestört? Ein gewisser Cyblord hat das mal ausprobiert, und eine grundfalsche Antwort erhalten, die er für richtig hielt... Beitrag "ChatGPT und Spannungsteiler."
Εrnst B. schrieb: > Ein gewisser Cyblord hat das mal ausprobiert, und eine grundfalsche > Antwort erhalten, die er für richtig hielt... > Beitrag "ChatGPT und Spannungsteiler." Die war nicht grundfalsch, sondern ein Detail darin war falsch. Der komplette Rechenweg war korrekt dargestellt. Und weiterhin ein eher mathematisches Problem. Kein wirklich elektrotechnisches. Zum rechnen bzw. zum lösen mathematischer Probleme gibt es tatsächlich spezielle KI. Deshalb hätte mich interessiert welche Art von Fragen hier gemeint sind. Aber keine Sorge, eine blöde Antwort von dir ist fast genau so gut.
:
Bearbeitet durch User
Cyblord -. schrieb: > Die war nicht grundfalsch, sondern ein Detail darin war falsch. Na ja, es war nicht nur eins, sondern mindestens zwei oder drei. Zudem müssen das sehr grobe Details gewesen sein, so grob falsch, wie das Ergebnis war. > Der komplette Rechenweg war korrekt dargestellt. Was man leider nicht mehr nachprüfen kann, da du ihn nicht gepostet hast. Üblicherweise ist es aber so, dass ein korrekter Rechenweg auch zum korrekten Ergebnis führt.
Εrnst B. schrieb: > und eine grundfalsche > Antwort erhalten, die er für richtig hielt... Da hat die KI geflunkert und ausprobiert, ob der Mensch als AI (Analoge Intelligenz) die Ergebnisse ungeprüft übernimmt und hat gleich mal eine Stelle weggelassen. ;o)
Walter T. schrieb: > Solange der Abstand der Windräder voneinander also viel größer als der > Durchmesser ist, und die Windräder auch deutlich niedriger als die > Troposphäre sind... Komisch, die KI verweist da auf eine Studie, die behauptet die Wüste mit einer sehr großen Anlage zu bestücken, könnte dort für mehr Regen sorgen. Nicht ganz unwichtig wäre gewesen, die Änderung der Luftwiderstände durch die aufgestellten Solaranlagen am Boden zu modellieren und in die Simulation einzubringen. Harry L. schrieb: > Das spart langweilige Tipp-Arbeit. Zumindest für mich las sich das so, dass da viel manuelle langweilige Tipparbeit notwendig war diese Bodenwiderstandsänderungen einzubringen. Wenn das eine KI übernehmen würde, fiele das sicherlich leichter verschiedene Szenare durchzuspielen. Eine KI, die Tippfehler aufspürt in Programmen, wäre auch ein wünschenswertes Feature. Ich hatte mir mal einen Wolf gesucht in einem Code, weil es Buchstaben und Zahlen gibt, die sich optisch nicht gut unterscheiden lassen.
Cyblord: >Hast du ChatGPT denn schon mal eine elektrotechnische Frage gestellt? >Was hat dich an der Antwort gestört? Naja, in die Elektrotechnik hat viel mit Kabeln zu tun und deshalb werden für Beschreibung elektronischer Schaltungen gerne Schaltpläne verwendet. Ein spezifisch elektrotechnische KI müsste daher Schaltpläne lesen und zeichnen können.
Rechnen kann ChatGPT auch (War da nicht was, dass die LLMs nicht rechnen können? ). Über einen Button lässt sich das Python-Script seiner Rechnung anzeigen. Kaum zu glauben: eine Netzliste kann es auch.
:
Bearbeitet durch User
Die entscheidende Frage ist, ob ChatGPT schon komplexere Schaltpläne als das RC-Tiefpass-Bild lesen, welches ich aus der Wikipedia kopiert habe und Netzlisten erstellen kann. Wie ist das z.B. mit dem Schaltplan eines AB-Transistorverstärkers? (Vielleicht kann das mal jemand testen, mein Account ist für heute morgen aufgebraucht). Eine interessante technische Frage ist, ob Open-AI Modelle für spezielle Aufgaben wie z.B. den Schaltplanentwurf hat und anhand der Fragestellung auf das entsprechende Modell umschaltet. Es gibt auf jeden Fall KI-Firmen, die sich auf Schaltungstechnik spezialisieren: https://www.snapmagic.com/ Und hier ein ziemlich überladener PCB-Generator: https://www.flux.ai/
:
Bearbeitet durch User
M. D. schrieb: > Einfach geil. Glückwunsch an die Programmierer. Aber du weißt ja wie unsere theistischen Maschinenstürmer hier immer sagen: Es ist "nur" ein LLM, es reiht nur statistisch Wörter aneinander. Und du hast ja gesehen, du musst eine extrem komplexe Eingabe tätigen. Irre viele Versuche und das Problem GANZ EXAKT beschreiben. Sonst funktioniert es nicht ;-) Und bedenke, das ist Version 3.5. Die 4 gibt es schon gegen Geld, die 5 ist aktuell in der Entwicklung. Dazwischen liegen ganze Welten. D.h. was du hier testest ist der Opa der aktuellen KI.
:
Bearbeitet durch User
Wer weiss, ob das Bild nicht bereits in einem Beitrag online drin war, und die AI bereits damit Trainiert wurde. Wenn das ganze Internet ein Training Set ist, und man dann ein Bild aus diesem Trainings Set nimmt, und die AI dass dann einfach wieder gibt, ist das nicht mehr besonders beeindruckend. Das wäre dann nur eine bessere Bildersuche.
Auch ganz lustig, folgende Meldung: Russen bedecken Flugzeuge mit Autoreifen, eine Technik, die die Serben in den 90er Jahren zum Schutz vor Raketen eingesetzt hatten https://www.slobodenpecat.mk/de/rusite-gi-pokrivaat-avionite-so-avtomobilski-gumi-tehnika-koristena-od-srbite-vo-90-tite-za-zashtita-od-proektili/ Wenn man ChatGPT mit diesem Bild füttert: "Auf dem Bild ist ein großes Flugzeug zu sehen, das auf einer Rollbahn oder einem Flugplatz abgestellt ist. Es handelt sich um einen strategischen Bomber, wahrscheinlich ein sowjetisch/russischer Tupolew Tu-95, erkennbar an der einzigartigen Propelleranordnung mit den gegenläufigen Propellern. Besonders auffällig sind die vielen schwarzen Objekte, die wie Flugabwehrraketen oder Bomben aussehen, die gleichmäßig auf den Tragflächen und dem Rumpf verteilt sind. Dies könnte eine absichtlich inszenierte oder visuelle Darstellung sein, um das Flugzeug besonders bedrohlich wirken zu lassen. Der Tupolew Tu-95 ist einer der bekanntesten Langstreckenbomber der Welt und wurde während des Kalten Krieges für strategische Bombenangriffe konzipiert." Sogar der Typ wurde identifizert. Auch wenn die Begründung für die Reifen etwas abenteuerlich ist. Trotzdem hat diese KI null probleme das Ding zu erkennen. Wäre auch komisch. Aber klar: Eine anfliegende Rakete hat kein Rechenzentrum so groß wie eine Turnhalle und auch eher keine Echtzeitverbindung dorthin und ist auf deutlich weniger gute Bilderkennung angewiesen. Trotzdem absurde Annahme man könne mit so einem Bild eine aktuelle KI täuschen.
:
Bearbeitet durch User
Daniel A. schrieb: > Wer weiss, ob das Bild nicht bereits in einem Beitrag online drin war, > und die AI bereits damit Trainiert wurde. Wenn das ganze Internet ein > Training Set ist, und man dann ein Bild aus diesem Trainings Set nimmt, > und die AI dass dann einfach wieder gibt, ist das nicht mehr besonders > beeindruckend. Das wäre dann nur eine bessere Bildersuche. Jaja wer weiß. Teste doch einfach selbst mit einem Bild von dem du weißt es war nie online.
Cyblord -. schrieb: > Es ist "nur" ein LLM, es reiht nur statistisch Wörter aneinander. Gut erfasst. Laut der (gigantischen) Datenbasis des LLMs ist nach diesem Bild und dem Fragesatz das statistisch "richtige" erste Wort der Antwort eben ein "Die". Das statistisch "richtige" Wort nach dem Bild, dem Fragesatz und dem ersten Wort "Die" der Antwort ist "Schaltung"... Das wiederholt das LLM solange, bis die Statistik sagt, dass der Antwort-Text jetzt fertig ist. So ist nunmal die Funktionsweise von LLMs.
Εrnst B. schrieb: > So ist nunmal die Funktionsweise von LLMs. Dem widerspreche ich doch nicht.
:
Bearbeitet durch User
Und jetzt auch noch der Nobelpreis für KI Forscher. Die Theisten hier müssen jetzt ganz stark sein.
Εrnst B. (ernst)
>So ist nunmal die Funktionsweise von LLMs.
Das mag sein, aber ich gehe davon aus, dassChatGPT weit mehr als ein LLM
ist. Wer sollte OpenAi daran hindern, alle möglichen Logikmodule,
Bilderkenner und Reasoning-Feedback Loops mit dem LLM zu kombinieren?
Da hilft dann es dann auch nicht mehr, die Grundprinzip eines LLM
verstanden zu haben. Für die Erklärung der Funktion von ChatGPT ist das
bei weitem nicht mehr ausreichend.
Christoph M. schrieb: > Für die Erklärung der Funktion von ChatGPT ist das > bei weitem nicht mehr ausreichend. Aber vermeintlich ausreichend um ChatGPT schlecht zu machen.
:
Bearbeitet durch User
Christoph M. schrieb: > Wer sollte OpenAi daran hindern, alle möglichen Logikmodule, > Bilderkenner und Reasoning-Feedback Loops mit dem LLM zu kombinieren? Weil das kontraproduktiv wäre und zu schlechteren Ergebnissen führen würde. Seit AlphaGo Zero (2017) sollte klar sein, dass man im Neuronalen Netz diese Dinge lieber selber entstehen lässt.
Εrnst B. (ernst) >Weil das kontraproduktiv wäre und zu schlechteren Ergebnissen führen >würde. Du liegst falsch: https://www.promptingguide.ai/research/llm-reasoning
1 | The Bigger Picture: What This Means for AI |
2 | |
3 | The development of o1 and GPT-4o isn’t just about creating more powerful models. It’s about specialization in AI. We’re moving from a one-size-fits-all approach to tailored solutions for specific problems. |
4 | |
5 | This specialization opens up new possibilities: |
6 | |
7 | - More accurate scientific modeling |
8 | - Enhanced educational tools that can explain complex concepts |
9 | - AI-assisted research that can make connections humans might miss |
https://medium.com/@cognidownunder/openais-o1-vs-gpt-4o-a-deep-dive-into-ai-s-reasoning-revolution-fd9f7891e364
Christoph M. schrieb: > Du liegst falsch: Warum? Deine Links widersprechen meiner Aussage in keinster Weise. In keinem dieser OpenAI-Modelle wird ein von Menschen handprogrammiertes "Intelligenzmodul" hinzugefügt, und auch keine durch Schwarze Magie hervorbeschworene Seele.
Ernst schrieb >In keinem dieser OpenAI-Modelle wird ein von Menschen handprogrammiertes >"Intelligenzmodul" hinzugefügt, und auch keine durch Schwarze Magie >hervorbeschworene Seele. Bei den aller ersten Versuchen mit ChatGPT und Code-Generierung waren noch Haufenweise Syntaxfehler enthalten. Das hat sich mittlerweile geändert. Ich gehe davon aus, dass der Code nicht alleine durch das Training der LLM mit Code-Beispielen funktioniert, sondern das daran angehängt noch Syntaxchecker sind. Wie oben im RC-Tiefpassbeispiel gezeigt, erzeugt ChatGPT Python Code mit dem es die Antwort für die Größe des Kondensators berechnet. Das ist ähnlich wie wenn ein Mensch einen Taschenrechner benutzt. Es ist also nicht das trainierte LMM welches rechnet, sondern der angehängte Taschenrechner. Damit ist schon die erste Kombination von LMM und Zusatzmodul gezeigt. Erklär doch mal mit eigenen Worten wie das Reasoning bei ChatGPT o1 funktioniert und warum es länger zum rechnen braucht. Ist die Chain of Thought eine antrainierte Eigenschaft des LMM oder ein aufgesetztes Modul? https://www.promptingguide.ai/techniques/cot
Cyblord schrieb >Und bedenke, das ist Version 3.5. Die 4 gibt es schon gegen Geld, die 5 >ist aktuell in der Entwicklung. Dazwischen liegen ganze Welten. D.h. was >du hier testest ist der Opa der aktuellen KI. Die RC-Tiefpassanalyse wurde mit ChatGPT-o4 durchgeführt. Also mit der hier: https://medium.com/@cognidownunder/openais-o1-vs-gpt-4o-a-deep-dive-into-ai-s-reasoning-revolution-fd9f7891e364
Εrnst B. schrieb: > und auch keine durch Schwarze Magie > hervorbeschworene Seele. Natürlich. Weil eine Seele hat ja nur der Mensch weil der von Gott gemacht wurde. Richtig?
Christoph M. schrieb: > Ich gehe davon aus, dass der Code nicht alleine durch das > Training der LLM mit Code-Beispielen funktioniert, sondern das daran > angehängt noch Syntaxchecker sind. Dem ist definitiv nicht so. Evtl. Wurde das LLM beim Training mal gegen einen Syntax-Checker laufen gelassen, aber das was im normalen Inferenz-Betrieb da rausfällt wird nicht nochmal gecheckt. Kannst du einfach ausprobieren in dem du ChatGPT ein Codestück in einer eigenen oder Phantasie-Programmiersprache vorwirfst und es da was ändern/hinzufügen lässt: => kriegt es gut hin, auch wenn diese Programmiersprache garantiert nie Teil des Trainings-Sets war. Cyblord -. schrieb: > Natürlich. Weil eine Seele hat ja nur der Mensch weil der von Gott > gemacht wurde. Richtig? Meiner Meinung nach gibt es sowas wie eine Seele nicht, aber da darf gerne jeder an was Anderes glauben. Und wenn du gerne glaubst, dass LLMs nur durch Magie und Hokuspokus funktionieren, weil die tatsächliche Funktionsweise deinen Horizont übersteigt: Gerne. “Any sufficiently advanced technology is indistinguishable from magic.” -- Arthur C. Clarke
Εrnst B. schrieb: > Und wenn du gerne glaubst, dass LLMs nur durch Magie und Hokuspokus > funktionieren, weil die tatsächliche Funktionsweise deinen Horizont > übersteigt: Gerne. Ich denke als Informatiker weiß ich wie eine LLM und KI funktioniert. Danke. > Meiner Meinung nach gibt es sowas wie eine Seele nicht Du hast diese ins Spiel gebracht. Nicht ich. Übrigens genau wie: > Schwarze Magie Alles von dir. Von niemandem sonst. Vor dir hat niemand von Seele, Magie oder Hokuspokus gesprochen.
:
Bearbeitet durch User
Εrnst B. (ernst)
>Dem ist definitiv nicht so.
Du bist nicht auf mein Argument eingegangen, dass ChatGPT Python als
externes Rechentool nutzt und Rechnungen nicht im LMM durchführt.
Mit KI-Unterstuetzung programmiert gibt es eine Kamera, die alle Bilder gleich mit perfektioniert. Sowas, wie Arsenal 2.
Dieter D. schrieb: > Mit KI-Unterstuetzung programmiert gibt es eine Kamera, die alle Bilder > gleich mit perfektioniert. Sowas, wie Arsenal 2. Viele Handy Kameras machen solches Zeugs bereits, man erinnere sich an die Samsung Handies, die einfach mal die Mondkrater ins Bild kopierten: https://www.samsung.com/uk/support/mobile-devices/how-galaxy-cameras-combine-super-resolution-technologies-with-ai-to-produce-high-quality-images-of-the-moon/?srsltid=AfmBOorfXwe8A-rnV-wpQ86ie1vQ0PvjxkaKGhrUUl7GyIaVHGykraCs Ich finde das hoch problematisch. Es ist nicht möglich, mehr Details aus einem Foto zu holen, als da sind. Es sieht zwar besser aus, aber die Details sind fake, frei erfunden, nicht echt. Besonders problematisch wird es, wenn Polizisten auf die Idee kommen, ein unscharfes Foto "verbessern" zu lassen, wie man das in gewissen TV Serien früher sah. Ahnungslos wie sie sind, glauben die dann, was sie auf dem Bild sehen währe echt. "Das Gesicht ist unscharf. Enhance! Oh, es ist Jonny Depp!". Klar werden einige jetzt sagen, keine Angst, die dürfen das gar nicht. Aber Polizisten machen das einfach trotzdem. In den USA und diversen anderen Ländern z.B. gab es Firmen, die echtzeit Tracking und Gesichtserkennungs Software als Demo direkt diversen Polizisten zum Ausprobieren gegeben hat, statt offizielle Kanäle zu nehmen, und die haben das verwendet. An diversen Orten wird "Predictive Policing" Software sogar ganz Offiziell eingesetzt, von der erwiesen ist, dass sie nicht funktioniert, und man halt stattdessen einfach dort mehr findet wo man mehr sucht, aber wenn dann von zeit zu zeit ein Schwarzer festgenommen wird, glaubt man trotzdem an die Software. (Das passiert auch Hierzulande, nicht nur in den USA). Und hier in Basel haben sie sich mal Teslas angeschafft, obwohl sie genau wussten dass das nicht mit ihren Datenschutzvorgaben vereinbar war, da da Daten in die USA gesendet werden. Vermutlich haben sie die heute noch! Auch Problematisch ist, wie es sich im Alltag ausbreitet. Was macht man, wenn jede Firma die gleiche HR AI hat, die entscheidet, nein, du kriegst keinen Job? Wenn die AI Detektions AI in der Schule entscheidet, das hast du sicher nicht selbst gemacht, durchgefallen? Die Lebensmittelladensüberwachungs AI sagt, du siehst wie X aus, du darfst hier nichts mehr Kaufen? Da kommen noch schöne Überraschungen auf uns zu. Und natürlich alles immer angeblich voll im Einklang mit dem Datenschutzrecht usw., gemäss der Auslegung der Firmen... Und die Politik kümmert sich nicht darum, da sagt man Stattdessen, "Digitalisierung! Wir sind Modern! Mehr davon! Wählt uns!" Da kommen noch sehr, sehr dunkle Zeiten auf uns zu.
Christoph M. schrieb: > Du bist nicht auf mein Argument eingegangen, dass ChatGPT Python als > externes Rechentool nutzt und Rechnungen nicht im LMM durchführt. Du musst unterscheiden, was tatsächlich Ausgabe des LLMs ist, und was an UI drübergestülpt ist. Das LLM setzt nicht direkt Pixel auf deinem Bildschirm. Da ist auf deiner Seite ein Webbrowser dazwischen, dann das Internet, dann auf Server-Seite jede Menge Code der die LLM-Ausgabe auf HTML umsetzt, erzeugte Bilder nach PNG/JPEG bringt, Tools wie Syntax-Highlighter oder Python-Interpreter aufruft... Man kann natürlich Meinung sein, das wären alles zum LLM gehörige Zusatzmodule um seine "Intelligenz" zu steigern. Aber eigentlich kommen die erst zum Einsatz, wenn das LLM mit seiner Arbeit schon fertig ist. Cyblord -. schrieb: >> Schwarze Magie > > Alles von dir. Von niemandem sonst. Trifft evtl. den Falschen, aber hier im Thread kam sinngemäß die Aussage, dass die Fähigkeiten von LLMs nicht mit der Funktionsweise von LLMs erklärbar wären, sondern dass da noch "was Anderes" dahinterstecken muss. An was soll ich da (als Informatiker und Atheist) denken? Christoph M. schrieb: > Erklär doch mal mit eigenen Worten wie das Reasoning bei ChatGPT o1 > funktioniert und warum es länger zum rechnen braucht. Meiner Meinung nach: Billiger Taschenspieler-Trick. Zuerst lässt du eine Antwort von einem LLM generieren, die gibst du dann (ggfs. einem zweitem, anders trainiertem) LLM zusammen mit der Frage und der Anweisung einen Gedankenweg zwischen den Beiden zu herbeizufantasieren. Gibt genug Beispiele wo o1 zwar die richtige Antwort hatte, aber das Reasoning dazu komplett wirr ist, und nie zu dieser Antwort geführt haben kann.
Daniel A. schrieb: > Was macht man, wenn jede Firma die gleiche HR AI hat, die entscheidet, > nein, du kriegst keinen Job? Das machen heute schon die Gewerkschaften und GB unter der Praemisse kein Platz fuer Andersdenkende. Gibt sogar dafuer Postkaesten, wo man das dort anonym einwerfen kann.
Eben, das ist ja das Problem, einige machen es schon, es fängt schon an, und keiner tut was dagegen!
Εrnst B. (ernst) >Du musst unterscheiden, was tatsächlich Ausgabe des LLMs ist, und was an >UI drübergestülpt ist. >... >Man kann natürlich Meinung sein, das wären alles zum LLM gehörige >Zusatzmodule um seine "Intelligenz" zu steigern. Aber eigentlich kommen >die erst zum Einsatz, wenn das LLM mit seiner Arbeit schon fertig ist. Es hat hier niemand davon geschrieben, dass alles auf ein LLM reduziert werden muss und nur damit Probleme intelligent zu lösen sind. Meine Behauptung war, dass ChatGPT Zusatzmodule wie z.B. den Pythonrechner benutzt. Das was OpenAI da in seiner Weboberfläche anbietet ist keine reine LLM sondern eine Kombination aus vielen Modulen, deren Zusammensetzung und Zusammenwirkung von OpenAI nicht veröffentlicht sind. Aus dem Tiefpassbeispiel oben lässt sich sehr einfach erkennen, dass das korrekte Rechnen mit Zahlen gute Ergebnisse liefert. >> Erklär doch mal mit eigenen Worten wie das Reasoning bei ChatGPT o1 >> funktioniert und warum es länger zum rechnen braucht. >Meiner Meinung nach: Billiger Taschenspieler-Trick. Laut OpenAI steigert sich damit die Qualität der Ergebnisse für wissentschaftlich/mathematisch Aufgaben erheblich. Es geht ja hier nicht um den dogmatischen Versuch, alles mit einem LLM zu lösen, sondern um Ergebnisse.
Daniel A. schrieb: > Ich finde das hoch problematisch. Es ist nicht möglich, mehr Details aus > einem Foto zu holen, als da sind. Es sieht zwar besser aus, aber die > Details sind fake, frei erfunden, nicht echt. Das ist doch hoffentlich ein optionales Feature, oder?
Christoph M. schrieb: > Meine Behauptung war, dass ChatGPT Zusatzmodule wie z.B. den > Pythonrechner benutzt. Glaube ich nicht, denn bspw. für die meisten Multiplikationsaufgaben liefert ChatGPT nach wie vor falsche Ergebnisse. Es wäre natürlich sinnvoll, ChatGPT mit so etwas wie WolframAlpha zu ergänzen, das im Gegensatz zu ChatGPT nicht nur rechnen kann, sondern auch echte Deduktion beherrscht.
Christoph M. schrieb: > Laut OpenAI steigert sich damit die Qualität der Ergebnisse für > wissentschaftlich/mathematisch Aufgaben erheblich. Mag ja sein. Kann auch sein, dass es in 99% der Fälle was sinnvolles liefert. Erklärt aber nicht warum OpenAI so aggressiv gegen Leute vorgeht, die mit speziellen Anfragen versuchen diesen Trick zu entlarven. Wenn OpenAI da nichts zu verbergen hätte, würden sie die Leute einfach machen lassen, kriegen ja Geld für jede Antwort. Christoph M. schrieb: > Das was OpenAI da in seiner Weboberfläche > anbietet ist keine reine LLM sondern eine Kombination aus vielen > Modulen, deren Zusammensetzung und Zusammenwirkung von OpenAI nicht > veröffentlicht sind. Schau dir mal die API von denen an, du kannst da auch eigene Module (tools, type=function) dazupacken, z.B. vom LLM Datenbankabfragen in deiner eigenen Datenbank anstoßen lassen, und das LLM dann im nächsten Schritt Bezug auf die Antworten nehmen lassen. Praktisch, wenn du z.B. Kundenanfragen von der AI abwimmeln lassen willst, dann könntest du die Bestellungs-Daten des Kunden in den Kontext des LLMs laden lassen, wenn er danach fragt. Oder, evtl. eher passend zum Forum hier: Du könntest ein SPICE-Tool einbinden, was das LLM mit einer Netlist starten kann... Wird damit aber trotzdem kein Teil des LLMs. Das stößt nur per speziellem Token/Keyword den Funktionsaufruf an, die Funktion läuft lokal bei dir, und das LLM kriegt nachher die Antwort als Input präsentiert.
Daniel A. schrieb: > Was macht man, wenn jede Firma die gleiche HR AI hat, die entscheidet, > nein, du kriegst keinen Job? Was macht man, wenn die Schufa von einem Kredit abrät? Beispiel: Wegen der Kack-Schufa hatte der Pearl Versand von mir plötzlich Vorauszahlung verlangt, obwohl ich dort 20 Jahre lang alle Rechnungen immer korrekt bezahlt habe. Die Antwort war: "Sorry, da sind mit die Hände gebunden, denn der Computer gibt das so vor". Die Schufa hat mich schlecht bewertet, weil in meiner Umgebung viele Leute pleite sind (so deren mündliche Auskunft). Muss man sich das gefallen lassen? Per Gesetz: nein, in der Praxis: ja. Es sei denn, man hat Spaß an juristischen Auseinandersetzungen.
:
Bearbeitet durch User
Monk schrieb: > Muss man sich das gefallen lassen? Per Gesetz: nein Wie kommst du darauf? Jeder kann sich eine beliebige Meinung aus beliebigen Quellen über potentielle Käufer oder Kreditnehmer bilden und entsprechend handeln und so z.B. ein Geschäft ablehnen oder andere Zahlungsbedingungen verlangen. Ist so ähnlich wie Rating-Agenturen. Die haben eine Meinung zu einer Firma und vergeben ein Rating und veröffentlichen das. Kannst du auch machen. Kann jeder machen. Aber so viele Leute sehen in solchen Agenturen das pure Böse. Abgesehen davon ist die Schufa schon gut reguliert. Die muss dir z.B. schriftlich und kostenlos Auskunft über dein Rating geben. Warum verlässt du dich auf irgendwelche mündlichen Aussagen?
:
Bearbeitet durch User
Yalu X. (yalu) (Moderator) >Glaube ich nicht, denn bspw. für die meisten Multiplikationsaufgaben >liefert ChatGPT nach wie vor falsche Ergebnisse. Ich habe es gerade noch mal ausprobiert: ChatGPT3.5 rechnet falsch, aber ChatGPTo4min nimmt Python und rechnet richtig.
In diesem Video wird behauptet, dass 99% der Studenten in den USA nicht in der Lage sind, eine einfache Mathematikaufgabe (keine höhere Mathematik) auzusrechnen. Ich vermute jedoch, dass es sich hier um ein Missverständnis handelt, da der Begriff "Student" im Englischen anders definiert wird. https://www.youtube.com/watch?v=xFlHKIbL2nc Was meint ihr?
Christoph M. schrieb: > aber ChatGPTo4min nimmt Python und rechnet > richtig. Wie gesagt, das ist eine Einstellungssache des Assistants. Du kannst da auch "bc" einbinden und mitteilen, dass das zum Rechnen verwendet werden soll, oder meinetwegen octave oder einen Webrequest zu Wolfram Alpha. Auch ob die Anfrage an dieses Tool und dessen Antwort im Chatverlauf angezeigt werden soll oder nicht ist deine Sache. Das öffentliche Chat-Frontend von OpenAI konfiguriert das eben mit python, und zeigt den Python-Code auch an.
>Das öffentliche Chat-Frontend von OpenAI konfiguriert das eben mit >python, und zeigt den Python-Code auch an. Ein Mensch mit seinen 86 Milliarden Neuronen sieht sich ja als relativ intelligent an. Lustigerweise hat er aber doch enorme Schwierigkeiten mit dem Rechnen. Wer kann schon 10 stellige Zahlen im Kopf multiplizieren oder mehr als 3 Zahlen gleichzeitig im Kurzzeitgedächtnis halten? Ein Computer mit seiner Digitallogik kann zig Milliarden Zahlen im Speicher halten und mehrere Milliarden Zahlen pro Sekunde multiplizieren. Wenn die neuronalen Netze auf denen ChatGPT basiert nun also von der Signalverarbeitung des Gehirns inspiriert sind, dann liegt es eigentlich Nahe, dass ChatGPT auch sehr schlecht rechnen kann. Für mathematische Berechnungen sind die Strukturen einfach nicht gemacht, deshalb ist es extrem sinnvoll, den KI-Systemen externe Algorithmen wie im Beispiel von ChatGPT der Pythonrechner, anzuhängen.
Christoph M. schrieb: > Rechnen kann ChatGPT auch (War da nicht was, dass die LLMs nicht rechnen > können? ). Können die auch nicht. Deswegen schreibt ChatGPT 4.0 Pythonskripte die das erledigen.
Cyblord -. schrieb: > Wie kommst du darauf? Es gibt ein Gesetz, nach dem das Rating durch die Schufa nicht alleiniges Kriterium sein darf und dass der Händler auf berechtigte Einsprüche entsprechend reagieren muss. Haben sie am Ende auch gemacht, nachdem ich Druck gemacht habe. Cyblord -. schrieb: > Warum verlässt du dich auf irgendwelche mündlichen Aussagen? Weil in der Schriftlichen Auskunft nur auf meine persönlichen Daten eingegangen wurde, welche das schlechte Rating nicht erklärten.
Christoph M. schrieb: > Wenn die neuronalen Netze auf denen ChatGPT basiert nun also von der > Signalverarbeitung des Gehirns inspiriert sind, Sind sie aber nicht. Wie das Gehirn funktioniert ist bis auf ein paar rudimentäre chemische und elektrische Grundlagen weitgehend unklar. Umgekehrt hofft die Wissenschaft, dass man künftig von einer erfolgreichen KI ableiten kann, wie das Gehirn funktionieren könnte.
Monk (roehrmond) >Sind sie aber nicht. Wie das Gehirn funktioniert ist bis auf ein paar >rudimentäre chemische und elektrische Grundlagen weitgehend unklar. Das sehe ich deutlich anders. Da ist mittlerweile ziemlich viel bekannt. Welches Gehirn meinst du? Das menschliche oder das Nervensystems eines Fadenwurms?
> Der Tupolew Tu-95 ist einer der bekanntesten Langstreckenbomber der Welt > und wurde während des Kalten Krieges für strategische Bombenangriffe > konzipiert." Nope, die B-29 dürfte als erster Atom-bomber weitaus bekannter, mindestens in Japan. Die "B-52" ist ebenfalls legendär und weitaus bekannter als die Nachfolgetypen B1-B und B2. und von letzteren sollte die B2 trotz jüngeren Alters und geringerer Stückzahl weitaus bekannter. Und es ist eher davon auszugehen, das die KI die Typbezeichnung der Bildbeschreibung entnommen hat und nicht selbsttätig erkannt hat. Kannst ja mal nachfragen warum die KI drauf kommt das wäre ne TU-95 und keine TU-114 oder TU-142 (Exportvariante). Und das Konzept "Strategische Bombenangriffe" ist auch nicht typisch, die Kiste wurde erst als Seeaufklärer und U-boot-Jäger bekannt. BTW: die triebwerke wurden von Ferdinand Brandner entwickelt, einen Österreiche,r den die Sowjetskis als Kriegsbeute verschleppten.
:
Bearbeitet durch User
Na, dann lacht mal weiter über die KI. Zur Zeit werden KI und Mikrobiologie miteinander "verheiratet", was es ermöglicht Bio-Waffen zu schaffen, die das "Corona-Experiment" der USA und China bei Weitem in den Schatten stellen werden. Siehe dazu die vergebenen Nobelpreise, die gerade durch die Presse gehen. Da wirds dann Gifte geben, die nicht mehr nachzuweisen sind, da sie das Imunsystem und den Stoffwechsel des Opfers angreifen und wie natürliche Krankheiten aussehen, ob sie nun direkt töten oder das Opfer "in den Selbstmord" treiben. Und das in einer Zeit, wo Kriege als "Politik mit anderen Mitteln" wieder gesellschaftsfähig werden. Oh mann... :-O mfg
Beitrag #7751040 wurde vom Autor gelöscht.
Lotta . schrieb: > Da wirds dann Gifte geben, die nicht mehr nachzuweisen sind Die Firmen, die diese "MRNA-Gifte" bereits in ihren Nahrungsmitteln einsetzen, sind von der Rechtsanwältin Beate Bahner bereits aufgedeckt worden.
Lotta . schrieb: > Bio-Waffen Gen-Selektiver Smart Dust waere das. Kann man so gestalten, dass alle mit Schlitzaugen-Gen nicht getoetet werden.
> Die Firmen, die diese "MRNA-Gifte" bereits in ihren Nahrungsmitteln > einsetzen, Juhu, wieder mal eine Corona-Verschwörungs-Kampagne > sind von der Rechtsanwältin Beate Bahner bereits aufgedeckt > worden. Die deckt nichts auf, die käut nur wieder, speit es aus und pappt Paragraphen und Honorar-Note dran. https://de.wikipedia.org/wiki/Beate_Bahner
Jetzt ist der Thread durch diese nicht zum Thema gehörenden Beiträge vollständig versaut. Schade um die Beiträge mit tatsächlichem Inhalt zum Thema.
CodeBio is an AI chatbot, which can aid with coding-related bioinformatic questions. Both code and explanations are provided in answers. Mit deren Hilfe wird der GenCode entschluesselt und auch GenCode zum Einschleussen fuer GenExperimente erzeugt. Das passt zum Thema, es sei denn einer beweist, zB Christoph, dass die Gene keinen Code enthalten.
:
Bearbeitet durch User
Marcel V. schrieb: > Beate Bahner Die war während Corona sehr unterhaltsam. Gab ein paar lustige youtube Videos von ihr. Und sogar kurz in der Klappse. Hat danach allerdings alle ihre Manifeste wieder von ihrer Homepage gelöscht. War ihr dann wohl irgendwann peinlich. Aber ne starke Quelle für den Bill Gates Unsinn. Respekt.
> Das passt zum Thema, es sei denn einer beweist, zB Christoph, dass die > Gene keinen Code enthalten. Sprache ist auch Code, Körpersprache ist Code, ..., codifizierte Umgangsformen, der Gesetzes-Code von Hammurapi, ... Demnach würde alles was Informationsübermittlung/-speicherung ist, in diesen thread passen ... https://de.wikipedia.org/wiki/Code Aber wie der TO mit seinen erläuternden Worten zur subject-line deutlich macht, solle es seinem Willen gemäß nur um Source-Code von Programmiersprachen wie bspw. python gehen. https://de.wikipedia.org/wiki/Quelltext
Cyblord -. schrieb: > Hat danach allerdings alle ihre Manifeste wieder von ihrer Homepage > gelöscht. War ihr dann wohl irgendwann peinlich. Nicht weil es ihr peinlich war, sondern weil man sie dazu gezwungen hat! Das ist ein großer Unterschied!
Marcel V. schrieb: > Cyblord -. schrieb: >> Hat danach allerdings alle ihre Manifeste wieder von ihrer Homepage >> gelöscht. War ihr dann wohl irgendwann peinlich. > > Nicht weil es ihr peinlich war, sondern weil man sie dazu gezwungen hat! Zeig mal das Urteil welches sie dazu gezwungen hat ihre Manifeste zu löschen.
:
Bearbeitet durch User
Cyblord -. schrieb: > Zeig mal das Urteil welches sie dazu gezwungen hat ihre Manifeste zu > löschen Ein offizielles Urteil kannst du da lange suchen. Sie hatte unangenehmen Besuch bei sich zu Hause...
Marcel V. schrieb: > Cyblord -. schrieb: >> Zeig mal das Urteil welches sie dazu gezwungen hat ihre Manifeste zu >> löschen > > Ein offizielles Urteil kannst du da lange suchen. Sie hatte unangenehmen > Besuch bei sich zu Hause... Men in Black oder Reptiloiden? Oder gleich Bill Gates persönlich? Wobei manche sagen der wäre auch ein Reptiloid...
:
Bearbeitet durch User
Cyblord -. schrieb: > Wobei manche sagen der wäre auch ein Reptiloid... Ich kenne sogar persönlich Leute in meinem eigenen Bekanntenkreis, die genau das tatsächlich ernsthaft behaupten, soweit würde ich hier aber nicht gehen. Sonst würde ich hier doch gar nicht mehr richtig ernst genommen. 😅
:
Bearbeitet durch User
Cyblord -. schrieb: > Men in Black oder Reptiloiden? Ganz einfach vor die Wahl gestellt, alles zu loeschen oder fuer den Rest des Lebens im Nachbarzimmer neben Tobias R in der Geschlossenen vergessen zu werden.
Marcel V. schrieb: > tatsächlich ernsthaft behaupten Wer kennt solche nicht? Wer keine kennt, darf sich selbst steinigen.
>> Wobei manche sagen der wäre auch ein Reptiloid... > > Ich kenne sogar persönlich Leute in meinem eigenen Bekanntenkreis, die > genau das tatsächlich ernsthaft behaupten, ... > > Sonst würde ich hier doch gar nicht mehr richtig ernst genommen. Auch wenn Dein Bekanntenkreis nur aus geistig gesunden Akademikern bester Reputation bestehen würde, wirste hier nicht ernst genommen.
O!M!G!!! Wir muessen alle stirben!!!111ElF [ ] Mit Leehnux waer' das nicht passiert scnr WK
Marcel V. schrieb: > Die Firmen, die diese "MRNA-Gifte" bereits in ihren Nahrungsmitteln > einsetzen, sind [...] genau die nicht genannten. DIE hatten den großen Plan, alle mit Giften in Industrie-Lebensmitteln zu vergiften. Dann hat der Marktanteil von Bio und Fair-Trade immer mehr zugenommen, und der Plan drohte zu scheitern... Was tun? Genau das was Bill schon bei Windows gemacht hat: F.U.D. Also schnell ein paar Influenza gekauft (Anwälte sind per Definition käuflich) und Gerüchte über "saubere" Lebensmittel gestreut. Funktioniert super, sogar Marcel futtert jetzt wieder das Zeug was ihn für die 5G-Gedankenkontroll-Strahlen anfällig macht.
Bradward B. schrieb: > Und es ist eher davon auszugehen, das die KI die Typbezeichnung der > Bildbeschreibung entnommen hat und nicht selbsttätig erkannt hat. Kannst > ja mal nachfragen warum die KI drauf kommt das wäre ne TU-95 und keine > TU-114 oder TU-142 (Exportvariante). Also, theoretisch wäre es meiner Ansicht nach zu erkennen. Die zivile Version hat den Sensorträger vorn am Bug nicht, den erkennt man im Schattenbild. Und nur die Tu-95 hat diese (meist weiß lackierte) Verbreiterung im "Kinnbereich", die man von oben auch erkennt, wenn man danach sucht. Außerdem hätte die Tu-142 auch am Seitenleitwerk eine solchen recht langen Sensor- oder Antennenträger, den man im Schattenbild erkennen müsste. Also, wenn die KI ausreichend mit Bildern trainiert ist, sollte sie die Unterschiede erkennen können.
Marcel V. schrieb: > Die Firmen, die diese "MRNA-Gifte" bereits in ihren Nahrungsmitteln > einsetzen GMOs und genetisch veränderte Tiere sind sehr nützlich, wenn es richtig gemacht wird. Wenn da eine Seuche mal wieder die ganze Monokultur auszurotten droht, oder man sonstige Resistenzen für neue Umweltbedingungen braucht ist das praktisch, wenn man das z.B. einfach aus Pflanzen kopieren kann, die damit schon umgehen können. Das Essen von dem Zeug ist auch unbedenklich. Warum sollte es das auch nicht sein, wir packen da nicht die Gift produzierenden Gene von Gift Pflanzen rein. Und du wirst auch nicht zur Kuh, nur weil du ein Steak isst. Die eigentlichen Probleme mit GMOs sind Rechtliche und Wirtschaftliche, die wir uns selbst bereiten. z.B. wenn das Korn eines Bauern Pollen von GMO Korn abbekommt, und er nachher GMO Korn hat, und das dann als Urheberrechtsverletzung betrachtet wird! Oder wenn du deine Samen von einem bestimmten Hersteller kaufen musst, weil der die nächste Generation absichtlich Unfruchtbar gemacht hat! Gene sollten schlicht nicht als IP behandelt werden. Das sind die Bausteine des Lebens, die Universelle Sprache, die alles Leben auf der Erde teilt. Sowas darf niemandem gehören, das sollte ein Gemeingut sein!
>> Und es ist eher davon auszugehen, das die KI die Typbezeichnung der >> Bildbeschreibung entnommen hat und nicht selbsttätig erkannt hat. Kannst >> ja mal nachfragen warum die KI drauf kommt das wäre ne TU-95 und keine >> TU-114 oder TU-142 (Exportvariante). > Also, theoretisch wäre es meiner Ansicht nach zu erkennen. > Also, wenn die KI ausreichend mit Bildern trainiert ist, sollte sie die > Unterschiede erkennen können. Respekt, einer der die Details schätzt - Modellbauer ? https://ipmsdeutschland.de/archiv/FirstLook/AERO-Modell/AeroModell_NVA_Decals_schwarze_Nummern/AeroModell_NVA_Decals_schwarze_Nummern.html
Cyblord -. schrieb: > Hat danach allerdings alle ihre Manifeste wieder von ihrer Homepage > gelöscht. Hast also nicht mitbekommen dass die Stasi 2.0 sie unter Druck gesetzt hat.
Lotta . schrieb: > Na, dann lacht mal weiter über die KI. Aktuell lache ich schallend, ...allerdings nicht über die KI.
Ein T. schrieb: > Aktuell lache ich schallend, ...allerdings nicht über die KI. Genau wie Jack Nicholson im Film Shining. Bis dahin hat er fleißig mitgemischt (Alias Frankenstein).
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.