Forum: Offtopic KI Code Generatoren


Announcement: there is an English version of this forum on EmbDev.net. Posts you create there will be displayed on Mikrocontroller.net and EmbDev.net.
von Christoph M. (mchris)


Lesenswert?

Mittlerweile gibt es ja schon einige KI-Codegeneratoren und mit 
bestimmten Einschränkungen kann man sie nutzbringend verwenden.

Ich habe zwei davon ausprobiert:
https://chatgpt.com/
https://www.codeconvert.ai/python-code-generator

Leider gibt es ja für für die freie Version eine Beschränkung der Anzahl 
der Anfragen und man muss überlegen, eines der Abo-Modelle zu verwenden.
Welchen Codegenerator nutzt ihr und was bezahlt ihr dafür?

: Verschoben durch Moderator
von Yalu X. (yalu) (Moderator)


Lesenswert?

Christoph M. schrieb:
> Welchen Codegenerator nutzt ihr

Brain 4.1, basierend auf der neuesten Bleeding-Edge-NI.

> und was bezahlt ihr dafür?

Hin und wieder muss muss er mit ein paar Süßigkeiten gefüttert werden,
damit seine volle Leistungsfähigkeit erhalten bleibt.

PS: Auch die KI-Codegeneratoren sind mittlerweile erstaunlich gut, aber
noch nicht so gut, dass ich bereit wäre, dafür Geld auszugeben.

: Bearbeitet durch Moderator
von Alexander (alecxs)


Lesenswert?

Ist das Forum kaputt?

Beitrag "KI und code generierung"

von Ein T. (ein_typ)


Lesenswert?

Yalu X. schrieb:
> Brain 4.1, basierend auf der neuesten Bleeding-Edge-NI.

Oh, Du bist noch so jung? 8-O

von Christoph M. (mchris)


Lesenswert?

Alexander (alecxs)
>Ist das Forum kaputt?

Nein, hier geht es um die konkrete Frage, für welche KI es sich lohnt zu 
zahlen.
Ein Problem ist ein wenig die Zukunftssicherheit: Wenn man ein Abo-Model 
für sagen wir 1 Jahr abschließt, könnte es gut sein, dass es in der 
Zwischenzeit einen viel besseren Generator gibt. Man muss also 
vielleicht nach Größe der Firma entscheiden. Die Frage wäre auch, ob es 
vielleicht lokal laufende Modelle gibt.

von Lothar J. (black-bird)


Lesenswert?

Christoph M. schrieb:
> ... , könnte es gut sein, dass es in der Zwischenzeit einen viel besseren
> Generator gibt.

Den gibt es immer. Sitzt meistens vor dem Monitor aka Touchscreen.

Sich auf fremd generierten Code zu verlassen, naja.
Und wie sieht es mit der Code Pflege und Verwaltung aus?

Blackbird

von Obelix X. (obelix)


Lesenswert?

Christoph M. schrieb:
> Ein Problem ist ein wenig die Zukunftssicherheit: Wenn man ein Abo-Model
> für sagen wir 1 Jahr abschließt, könnte es gut sein, dass es in der
> Zwischenzeit einen viel besseren Generator gibt. Man muss also
> vielleicht nach Größe der Firma entscheiden. Die Frage wäre auch, ob es
> vielleicht lokal laufende Modelle gibt.

Die KI kann dir super "Hello world" und "Blinky"-Programme in allen 
möglichen Sprachen schreiben. Das funktioniert super aber ob man mit 
diesem Code Geld verdienen kann ist fraglich.

Die Fehler aus dem KI Code zu entfernen ist genauso aufwendig wie das 
Programm gleich selbst zu schreiben.

: Bearbeitet durch User
von Georg M. (g_m)


Lesenswert?

Obelix X. schrieb:
> Die KI kann dir super "Hello world" und "Blinky"-Programme in allen
> möglichen Sprachen schreiben.

Den passenden Code für jeden beliebigen Mikrocontroller?

von Obelix X. (obelix)


Lesenswert?

Georg M. schrieb:
> Den passenden Code für jeden beliebigen Mikrocontroller?

Ich habe nicht jeden MC den es gibt zur Verfügung. Ich konnte es also 
nicht testen. Wenn dir das möglich ist, hält dich keiner davon ab dies 
zu testen und deine Ergebnisse hier zu posten.

Ansonsten verstehe ich zwar deine Frage aber denn Sinn dieser nicht. Was 
soll ich / man darauf antworten? Ein simples "Ja" wird es wohl nicht 
sein.

: Bearbeitet durch User
von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

Georg M. schrieb:
> Obelix X. schrieb:
>> Die KI kann dir super "Hello world" und "Blinky"-Programme in allen
>> möglichen Sprachen schreiben.
>
> Den passenden Code für jeden beliebigen Mikrocontroller?

Wenn die KI im Internet eine KI-verständliche Beschreibung findet, ja.
Wenn es da nichts zum Kopieren gibt, pech für die KI. Einen Mitarbeiter 
aus Fleich und Blut kann man noch zum Selbststudium bewegen.

> Ist das Forum kaputt?
> Beitrag "KI und code generierung"

Eben ! Aber da ist es mit den KI-Spackos wie bei manchen Wahlen, wenn 
das Ganze nicht passt, wird halt solange wiederholt, bis der gewünschte 
Ergebniss erzwungen ist.

von Christoph M. (mchris)


Lesenswert?

Obelix X. (obelix)
>Die KI kann dir super "Hello world" und "Blinky"-Programme in allen
>möglichen Sprachen schreiben. Das funktioniert super aber ob man mit
>diesem Code Geld verdienen kann ist fraglich.

Du scheinst nicht sonderlich viel in der Richtung gemacht zu haben.

Gib mal folgende Spezifikation
1
Can you write a Pyhton script to display data?
2
It shall read and display data from a csv-file named "data.csv".
3
4
The csv file contains 3 columns.
5
the first row contains the name of the data rows.
6
7
The data shall be displayed as line plot.
8
The data from column 1 shall be used as X-axis.
9
The data from coumn 2 and 3 shall be da Y-vales.
10
There shall be a legend displayed in the graph.

hier ein:
https://www.codeconvert.ai/python-code-generator

und erzähl mal was über das "Blink" Programm.

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

>
1
> Can you write a Pyhton script to display data?
2
> It shall read and display data from a csv-file named "data.csv".
3
> 
4
> The csv file contains 3 columns.
5
> 
6
7
>


Toll, die KI kann nicht mal bis drei zählen, der muss man explizit sagen 
wieviel Kommas pro Zeile in file stehen.

Aber vielleicht liegt es ja am Prompt-Guru, der offensichtlich nicht den 
Unterschied zwischen "column" und "coloumn" kennt ... .

: Bearbeitet durch User
von Daniel A. (daniel-a)


Lesenswert?

Christoph M. schrieb:
> Welchen Codegenerator nutzt ihr und was bezahlt ihr dafür?

Ich verwende generell nur Open Source Software, die Gratis ist, keine 
Online Services voraussetzt, keine Abos voraussetzt, und wo es auch 
keine Zusatzfunktionen oder Plugins gibt, bei denen dies nicht erfüllt 
ist.
Mein einziges Abo ist mein Mobilfunk Abo, ohne das gings dann doch 
nicht.

Es gibt LLMs die OSS sind und lokal laufen können. Wie es da mit Code 
Generierung aussieht, kann ich aber nicht sagen. Meine Programme sind 
100% KI Frei.

Des springende Punkt ist aber, das ist auch nur ein Programm, lasst euch 
nicht von Firmen, die euch nur das Geld aus der Tasche ziehen wollen, 
verarschen. Bleibt in Kontrolle von eurem eigenen Kram, schliesst keine 
Abos ab!

von Georg M. (g_m)


Lesenswert?

> Forum: Offtopic
> 24.09.2024 13:31: Verschoben durch Moderator

Offtopic ist Offtopic.
Jetzt hat es natürlich keinen Sinn mehr, über die AI-generated Codes für 
konkrete Mikrocontroller zu sprechen.

: Bearbeitet durch User
von Alexander (alecxs)


Lesenswert?

Bradward B. schrieb:
> Toll, die KI kann nicht mal bis drei zählen

Lol, noch während ich so Christoph M. (mchris) "Spezifikation" 
überfliege, denke ich mir genau das! Und dann schreibst Du es aus. :)

von Obelix X. (obelix)


Lesenswert?

Christoph M. schrieb:
> Du scheinst nicht sonderlich viel in der Richtung gemacht zu haben.

Dein Beispiel ist auch nicht viel mehr wie ein Hello World. Stell der KI 
mal eine Aufgabe, bei der ein Logik-Problem gelöst werden soll.

Ich habe schon versuch ein Programm mit Hilfe einer KI zu schreiben, kam 
aber auch sehr schnell an die Grenze der KI. Einige Fehler hat die KI 
nach Nachfrage beheben können aber dann fing sie an zu halluzinieren. Es 
können also schon einfachste Dinge von der KI nicht gelöst werden.

von Εrnst B. (ernst)


Lesenswert?

Gerade für die "einfachsten Dinge" ist so eine KI schon ganz praktisch.

Zeigt beim Tippen in der IDE gleich (mal mehr, mal weniger) sinnvolle 
Vorschläge an, die man direkt per Enter übernehmen kann... oder auch 
nicht, dann tippt man einfach selber weiter.

Reduziert die reine Tipparbeit ohne Gehirnbeteiligung beim 
Programmieren.

Braucht aber leider enorm viel Rechenleistung damit die Vorschläge auch 
zeitnah erscheinen, und nicht erst dann, wenn du die Funktion schon 
selber zuende getippt hast.

Deshalb ist da Self-Hosted oder lokal am Rechner eher ein Wunschtraum, 
mit zwei RTX4090 im Rechner und 1kW aus der Steckdose ist da noch lange 
nix zu reißen.

von Christoph M. (mchris)


Lesenswert?

Alexander (alecxs)
Bradward B. schrieb:
>> Toll, die KI kann nicht mal bis drei zählen
>Lol, noch während ich so Christoph M. (mchris) "Spezifikation"
>überfliege, denke ich mir genau das! Und dann schreibst Du es aus. :)

Das kann man auch als Herausforderung sehen, die Spezifikation besser 
machen und in den KI-Codegnerator einspeisen. Zeig mal, wie's geht.

von Christoph M. (mchris)


Lesenswert?

>Deshalb ist da Self-Hosted oder lokal am Rechner eher ein Wunschtraum,
>mit zwei RTX4090 im Rechner und 1kW aus der Steckdose ist da noch lange
>nix zu reißen.

Ich wäre mir da nicht so sicher. Letzte Woche hat mir ein Kumpel auf 
seinem alten I5 Laptop seine zusammengeflickte, lokale KI gezeigt 
(verwendet ein frei verfügbares Modell von Microsoft, habe vergessen 
welches).
Das ganze war mit Spracherkennung und Sprachausgabe. Zwischen zuhören 
und reden waren zwar ca. 30-60 Sekunden, aber ich fand das nicht so 
schlecht für einen alten Laptop. Das war ein allgemeine KI die 
verschiedene menschlich Sprachen beherrschte. Wenn man das ganze 
Primborium da raus lässt und einen reinen Codegenerator trainiert hat, 
könnte da einiges an Potential drinn stecken.

: Bearbeitet durch User
Beitrag #7741587 wurde vom Autor gelöscht.
von Daniel A. (daniel-a)


Lesenswert?

Christoph M. schrieb:
> hier ein:
> https://www.codeconvert.ai/python-code-generator
>
> und erzähl mal was über das "Blink" Programm.

Ich hab dem Ding gerade mal gesagt, mach mir ne topologische Sortierung. 
Soweit kein Problem, Input Paare von abhängigen Elementen, Output eine 
Liste.
Aber sobald man ein klein wenig was komplexeres will als das Standard 
Problem, kommt nur noch misst raus.

Sagen wir z.B. ich will bei 1->2 1->3 2->4 3->4 statt [1,2,3,4] sowas 
wie [[1],[2,3],[4]], wo die inneren Listen gleichzeitig "laufen" können.

Für mich kein Problem umzusetzen, aber für die "KI"?
Die gibt immer den selben Algorithmus aus, und packt manchmal noch etwas 
nicht funktionierenden Quatsch dazu.

von Monk (roehrmond)


Lesenswert?

KI hilft einem totalen Anfänger beim Programmieren. Ein erfahrener 
Entwickler muss da aber auf jeden Fall noch mal drüber schauen, und zwar 
sehr aufmerksam. Denn KI neigt dazu Fehler zu machen, die man übersieht.

Bis KI den erfahrenen Entwickler überflüssig macht oder ihm wesentliche 
Teile der Arbeit abnimmt, wird noch viel Wasser den Rhein herunter 
fließen.

von Εrnst B. (ernst)


Lesenswert?

Monk schrieb:
> Denn KI neigt dazu Fehler zu machen, die man übersieht.

Prinzipbedingt.
Die KI wurde darauf trainiert, "richtig aussehenden" Code zu erzeugen. 
Nicht "tatsächlich richtigen" Code. Gibt da oft genug Überschneidungen, 
die das Ganze trotzdem nützlich machen.
Aber: Wenn die KI falsch liegt, ist der Fehler gut versteckt, denn genau 
das war ja auch das Trainingsziel...

von Marci W. (marci_w)


Lesenswert?

Hallo Christoph,

Christoph M. schrieb:
>
1
> Can you write a Pyhton script to display data?
2
> It shall read and display data from a csv-file named "data.csv".
3
> 
4
> The csv file contains 3 columns.
5
> the first row contains the name of the data rows.
6
> 
7
> The data shall be displayed as line plot.
8
> The data from column 1 shall be used as X-axis.
9
> The data from coumn 2 and 3 shall be da Y-vales.
10
> There shall be a legend displayed in the graph.
11
>
>
> hier ein:
> https://www.codeconvert.ai/python-code-generator

Ergebnis:

import pandas as pd
import matplotlib.pyplot as plt

data = pd.read_csv('data.csv')
plt.plot(data.iloc[:, 0], data.iloc[:, 1], label=data.columns[1])
plt.plot(data.iloc[:, 0], data.iloc[:, 2], label=data.columns[2])
plt.xlabel(data.columns[0])
plt.ylabel('Values')
plt.title('Data Line Plot')
plt.legend()
plt.show()

Wow, ist ja irre, der Output! Da wäre ich nie drauf gekommen.
Jetzt mal im Ernst: Ja, solche Generatoren sind sehr gut geeignet, um 
schnell einen Überblick über eine API (in diesem Fall Mathplotlib) zu 
erhalten oder um sich Anregungen zu holen, wie man eine bestimmte 
Aufgabe lösen könnte (API-Auswahl etc.) Aber man hat danach halt keine 
große Ahnung, wie die entsprechende API zu verwenden ist. Und wenns 
nicht läuft, muss man eh in die Doku schauen. Von Fehlerbehandlung etc. 
mal ganz zu schweigen. OK OK, ich denke, das könnte mit besserem Input 
auch möglich sein.
Und: die eigentliche Arbeit macht in Deinem Beispiel Mathplotlib, nicht 
die KI. Die Komplexität Deines Beispiels ist außerdem nicht größer als 
ein HalloWelt-Programm für einen Microcontroller. Sehr interessant wird 
es dann, wenn die KI sowas wie Mathplotlib ausspucken kann! ;-)


>
> und erzähl mal was über das "Blink" Programm.

Done.

ciao

Marci

von Georg M. (g_m)


Lesenswert?

Marci W. schrieb:
> ein HalloWelt-Programm für einen Microcontroller
1
#define F_CPU 3333333
2
#include <avr/io.h>
3
#include <util/delay.h>
4
#include <string.h>
5
6
void USART0_sendString(const char *str)
7
{
8
  for(size_t i = 0; i < strlen(str); i++)
9
  {
10
    while(!(USART0.STATUS & USART_DREIF_bm)){}
11
    USART0.TXDATAL = str[i];
12
  }
13
}
14
15
int main(void)
16
{
17
  PORTA.DIRSET = PIN6_bm;            // USART0 TxD pin
18
  USART0.BAUD = 1389;                // 9600 Bd @ 3.33MHz
19
  USART0.CTRLB = USART_TXEN_bm;      // enable Transmitter
20
21
  while(1)
22
  {
23
    USART0_sendString("Hello World!\r\n");
24
    _delay_ms(1000);
25
  }
26
}

von Monk (roehrmond)


Lesenswert?

Georg M. schrieb:
> ein HalloWelt-Programm für einen Microcontroller

Offenbar von 
https://www.avrfreaks.net/s/topic/a5C3l000000UkDzEAK/t190771?comment=P-1571454 
kopiert

Experiment auf ChatGPT:
> The following program shall be modified to support
> 50 times higher clock frequency

Dann habe ich dein Programmbeispiel zitiert.

Als Ergebnis kommt die gängige Formel samt Erklärung, wie die Zahl für 
das Baudraten-Register bei klassischen AVR zu berechnen ist. Dann 
dieses Beispiel:
1
#define F_CPU 166666650  // Updated for 50x higher clock
2
...
3
PORTA.DIRSET = PIN6_bm;            // USART0 TxD pin
4
USART0.BAUD = 1084;                // Recalculated 9600 Bd @ 166.67MHz
5
USART0.CTRLB = USART_TXEN_bm;      // Enable Transmitter

Ich hoffe ich irre mich nicht, aber hinter der Zahl 166666650 fehlt ein 
"UL" und USART0.BAUD müsste 69444 sein, der Wert passt aber nicht in das 
Register.

Was für ein Fail! Der Chatbot führt einen zuerst in die Irre, indem er 
eine Erklärung für falsche Modelle liefert. Und dann liefert er auch 
noch ein kaputtes Beispiel.

: Bearbeitet durch User
von Christian (dragony)


Lesenswert?

Der ganze "AI wird in Zukunft Entwickler ersetzen!!!111"-Hype wird von 
den ganzen hirnlosen Trotteln verbreitet und befeuert, die selbst keine 
Ahnung vom Programmieren haben, dafür aber umso mehr genauestens wissen, 
dass sowas ja gar nicht so schwer sein kann und das bestimmt bald eine 
AI übernehmen wird.

Der Grund, warum sie es nicht können ist, weil sie sich mit so banalen 
Dingen halt nicht abgeben. Das sind ja auch keine kleinen Entwickler, 
sondern wichtige Entscheider!!!!11

Ich denke, wir haben viel zu viele dieser sogenannten Entscheider auf 
dieser Welt, die neuerdings Atomkraftwerke für AI[1] bauen lassen oder 
von Kriegen[2] sprechen, wenn Rechenpower nicht günstiger wird. Wie 
lange sollen diese sog. Entscheider noch entscheiden dürfen?

[1] 
https://www.seattletimes.com/business/microsoft-hungry-for-ai-power-spurs-revival-of-three-mile-island-nuclear-plant

[2] 
https://www.heise.de/news/OpenAI-Chef-sagt-Zeitalter-der-Intelligenz-voraus-9951125.html

von Harald K. (kirnbichler)


Lesenswert?

Christoph M. schrieb:
> Welchen Codegenerator nutzt ihr und was bezahlt ihr dafür?

Keinen und folglich nichts. Mein Arbeitgeber bezahlt mich.

von Christoph M. (mchris)


Angehängte Dateien:

Lesenswert?

Vielen Dank an alle, die konstrukiv die Codegeneratoren ausprobiert 
haben.

Christian (dragony)
>Der ganze "AI wird in Zukunft Entwickler ersetzen!!!111"-Hype

Es kann schon sein, dass von den KI's im Momente etwas zu viel erwartet 
wird. Ich habe deine Aussagen mal von ein paar KI's analysieren lassen. 
Das Ergebnis findet sich im mp3.

von Christian (dragony)


Lesenswert?

Dafür ist mir meine Lebenszeit zu schade. Alexa! Fasse das .mp3 in 2 
Sätzen Text zusammen und poste es hier!

von Marci W. (marci_w)


Lesenswert?

Christoph M. schrieb:
> Vielen Dank an alle, die konstrukiv die Codegeneratoren ausprobiert
> haben.
>
> Christian (dragony)
>>Der ganze "AI wird in Zukunft Entwickler ersetzen!!!111"-Hype
>
> Es kann schon sein, dass von den KI's im Momente etwas zu viel erwartet
> wird. Ich habe deine Aussagen mal von ein paar KI's analysieren lassen.
> Das Ergebnis findet sich im mp3.

Auch wenn die Analyse teilweise völlig falsch ist, so ist es doch 
erstaunlich, was die KI da ausspuckt! Welche KIs hast Du denn bemüht, um 
das mp3 zu erhalten? Da würde ich auch gerne ein wenig damit spielen. 
:-)

Im Übrigen gibt es schon Anwendungen, die ich wirklich erstaunlich 
finde: als Beispiel nenne ich hier mal das Generieren von Bildern. Auch 
wenn es manchmal nicht passt (Hände mit sieben Fingern, falsche 
Sichtbarkeit von Objekten etc.) finde ich es schon faszinierend, wie man 
mit ein paar passenden Tokens im Handumdrehen Bilder erzeugen lassen 
kann. Vor allem, weil ich ehrlich gesagt keine Ahnung habe, wie solche 
Systeme realisiert werden können. Bei Textsystemen hat man als 
Entwickler wenigstens eine klitzekleine Idee, wie das umgesetzt werden 
könnte. So jedenfalls geht es mir. Ich sollte wohl mal die Bücher über 
KI, die bei mir im Regal stehen, lesen...)

Erstaunlich ist auch, wie lange z.B. das Thema "Künstliche Neuronale 
Netze" geschlummert hat. Ich habe hier ein Buch, das vermutlich von 
Anfang der 2000er Jahre stammt (mit exakt dem genannten Titel). Damals 
war das Thema noch eine absolute Nische. Halt noch im tiefen KI-Winter. 
;-)

ciao

Marci

von Marci W. (marci_w)


Lesenswert?

Christoph M. schrieb:
> Wenn man das ganze
> Primborium da raus lässt und einen reinen Codegenerator trainiert hat,
> könnte da einiges an Potential drinn stecken.

Na ja, für die hier im Thread gezeigten Beispiele hätte eine kurze 
Anfrage an Google wohl auch zum Ziel geführt. Aber Du hast recht! 
Interessant ist das Thema KI auf jeden Fal! Die Medien sollten halt 
einfach mal die Kirche im Dorf lassen, und das Thema nicht so dermaßen 
"overhypen"(*)
Aber inzwischen ist es ja wieder ein wenig ruhiger und sachlicher 
geworden um das Thema KI (jedenfalls nach meiner Einschätzung).

Genau so wie um das Thema autonomes Fahren. Ist halt alles doch nicht 
ganz so einfach wie viele gedacht haben.

ciao

Marci

(*) Gibt's das Wort schon? Ist mir gerade eingefallen. Ganz ohne KI ;-)

von Alexander (alecxs)


Lesenswert?

Marci W. schrieb:
> Auch wenn die Analyse teilweise völlig falsch ist, so ist es doch
> erstaunlich, was die KI da ausspuckt!

nicht erstaunlich finde ich die Unwiss-Einheit wie Kieh und Aye Guy 
konsequent falsch ausgesprochen werden ;)

von Ein T. (ein_typ)


Lesenswert?

Alexander schrieb:
> Bradward B. schrieb:
>> Toll, die KI kann nicht mal bis drei zählen
>
> Lol, noch während ich so Christoph M. (mchris) "Spezifikation"
> überfliege, denke ich mir genau das! Und dann schreibst Du es aus. :)

Da haben sich ja die richtigen "Geistesgrößen" getroffen...

von Ein T. (ein_typ)


Lesenswert?

Daniel A. schrieb:
> Sagen wir z.B. ich will bei 1->2 1->3 2->4 3->4 statt [1,2,3,4] sowas
> wie [[1],[2,3],[4]], wo die inneren Listen gleichzeitig "laufen" können.

Nicht einmal verstehe, was Du haben willst. Kaum verwunderlich, daß eine 
KI dann nach dem GIGO-Prinzip arbeitet: Garbage in, Garbage out.

von Kolja L. (kolja82)


Lesenswert?

Christoph M. schrieb:
> Welchen Codegenerator nutzt ihr und was bezahlt ihr dafür?

Versucht mal Cursor, das ist ein VSCode Fork mit einer etwas mächtigeren 
"AI" als github Copilot.

Das LLM ist wählbar und mit dem kostenlosen Angebot kommt man schon 
recht weit.

https://www.cursor.com

von Alexander (alecxs)


Lesenswert?

Ein T. schrieb:
> Kaum verwunderlich, daß eine KI dann nach dem GIGO-Prinzip arbeitet:
> Garbage in, Garbage out.

Es ist aber tatsächlich so, dass LLM nicht zählen können. Das sollte 
auch Dir schon mal aufgefallen sein.

von Daniel A. (daniel-a)


Lesenswert?

Ein T. schrieb:
> Nicht einmal verstehe, was Du haben willst. Kaum verwunderlich, daß eine
> KI dann nach dem GIGO-Prinzip arbeitet: Garbage in, Garbage out.

Der KI hab ich natürlich versucht, es genauer zu erklären. Bei Menschen 
erwarte ich aber etwas mehr. Was ich will sollte eigentlich klar sein, 
wenn man weiss, was Topologische Sortierung ist. Lies mal 
https://en.wikipedia.org/wiki/Topological_sorting

Man macht da aus einem gerichteten Graph aus Abhängigkeiten eine Liste. 
Also aus Relationen wie "für B brauch ich A", macht man "Zuerst mach ich 
A, dann B, dann C...".

Und was ich wollte ist eine Variation davon. "Zuerst mach ich A und X, 
dann B und Y, dann C, ...".

Das ist doch nicht so schwer zu verstehen.

von Georg M. (g_m)


Lesenswert?

Leute, ihr sollt die KI nicht überbelasten.

https://www.cio.de/a/openai-chef-will-5-gigawatt-rechenzentren,3743289

von Yalu X. (yalu) (Moderator)


Lesenswert?

> Ein T. schrieb:
>> Nicht einmal verstehe, was Du haben willst. Kaum verwunderlich, daß eine
>> KI dann nach dem GIGO-Prinzip arbeitet: Garbage in, Garbage out.
>
> Der KI hab ich natürlich versucht, es genauer zu erklären. Bei Menschen
> erwarte ich aber etwas mehr. Was ich will sollte eigentlich klar sein,
> wenn man weiss, was Topologische Sortierung ist. Lies mal
> https://en.wikipedia.org/wiki/Topological_sorting

Ich weiß, was topologische Sortierung ist und habe sicherheitshalber den
Wikipedia-Artikel gelesen, aber auch ich habe deine Problembeschreibung
nicht verstanden, sondern allenfalls eine vage Vorstellung davon, was du
von dem Algorithmus erwartest. Hier ist eine knappe (wenn auch immer
noch sehr unpräzise) englisch Umschreibung dessen, was dir vermutlich
vorschwebt:
1
Input: List of pairs of numbers, each of them representing the order of
2
two numbers
3
4
Output: Topologically sorted list, where adjacent elements of the result
5
are collected in sublists

Ich habe genau diesen Text in den Python-Codegenerator eingegeben mit
folgendem Ergebnis:
1
from collections import defaultdict, deque
2
3
def topological_sort(pairs):
4
    graph = defaultdict(list)
5
    in_degree = defaultdict(int)
6
7
    for a, b in pairs:
8
        graph[a].append(b)
9
        in_degree[b] += 1
10
        if a not in in_degree:
11
            in_degree[a] = 0
12
13
    queue = deque([node for node in in_degree if in_degree[node] == 0])
14
    sorted_list = []
15
16
    while queue:
17
        current_level = []
18
        for _ in range(len(queue)):
19
            node = queue.popleft()
20
            current_level.append(node)
21
            for neighbor in graph[node]:
22
                in_degree[neighbor] -= 1
23
                if in_degree[neighbor] == 0:
24
                    queue.append(neighbor)
25
        sorted_list.append(current_level)
26
27
    return sorted_list
28
29
# Example usage
30
pairs = [(1, 2), (1, 3), (2, 4), (3, 4)]
31
result = topological_sort(pairs)
32
print(result)

Interessanterweise hat die KI sogar dasselbe Minimalbeispiel wie Daniel
gefunden, so dass das vom Algorithmus gelieferte Ergebnis direkt mit
Daniels Erwartung verglichen werden kann:

Daniel A. schrieb:
> [[1],[2,3],[4]]

Also los:
1
$ python test.py 
2
[[1], [2, 3], [4]]

Noch Fragen?

Fazit: Diese Codegeneratoren sind zwar noch weit von der Perfektion
entfernt, aber bereits um Größenordnungen besser als das, was ihnen
viele (wie bspw. der Obelix) zutrauen:

Obelix X. schrieb:
> Die KI kann dir super "Hello world" und "Blinky"-Programme in allen
> möglichen Sprachen schreiben.

Ok, zur Zeit der Gallier und Römer war die KI vielleicht noch nicht ganz
so weit ;-)


Alexander schrieb:
> Es ist aber tatsächlich so, dass LLM nicht zählen können.

ChatGPT kann das meiner Erfahrung nach schon.


PS: ich habe oben geschrieben:

"Output: Topologically sorted list, where adjacent elements of the
result are collected in sublists"

Ich wollte eigentlich schreiben, dass benachbarte Elemente genau dann
zusammengefasst werden sollen, wenn sie nicht in Relation zueinander
stehen. Trotzdem hat die KI offensichtlich meine Gedanken gelesen und
den Satz richtig interpretiert.

: Bearbeitet durch Moderator
von Daniel A. (daniel-a)


Lesenswert?

Yalu X. schrieb:
> PS: ich habe oben geschrieben:
>
> "Output: Topologically sorted list, where adjacent elements of the
> result are collected in sublists"
>
> Ich wollte eigentlich schreiben, dass benachbarte Elemente genau dann
> zusammengefasst werden sollen, wenn sie nicht in Relation zueinander
> stehen. Trotzdem hat die KI offensichtlich meine Gedanken gelesen und
> den Satz richtig interpretiert.

Das hatte ich versucht, aber irgendwie hatte das bei mir nicht 
funktioniert...

von Gunnar F. (gufi36)


Lesenswert?

ich habe heute meine erste größere Erfahrung mit ChatGPT gemacht. Dieser 
Beitrag von mir:
Beitrag "Re: VisualStudio2022, C#8, WPF, XAML Messkurven als Diagramm darstellen"
treibt mich noch zur Verzweiflung. Die Datenbindung funktioniert zur 
Entwurfs- aber nicht zur Lauzeit. Vorweg: Das Problem ist immer noch 
nicht gelöst, aber ich war tief beeindruckt. Auf meine verbale 
Schilderung des Problems kamen sofort Codeansätze, die meinen schon 
ähnlich sahen. Als ich meine Sourcen postete, kamen durchaus sehr gute 
Hilfestellungen, bis zur Feststellung, dass eine 
ObservableCollection<Point> die Datenaktualisierung duch Add() schon 
mitbringt, während die vom Polygon erwartete PointCollection das nicht 
macht. Da hat mir der digitale Kollege sogar eine Converter-Klasse 
geschrieben!
Er hatte nur nicht gemerkt, daß ich den Versuch mit der 
ObservableCollection schon gemacht hatte. Nachdem das auch nicht ging, 
habe ich es nur auskommentiert. Kommentare scheint er zu ignorieren.

von Ein T. (ein_typ)


Lesenswert?

Alexander schrieb:
> Ein T. schrieb:
>> Kaum verwunderlich, daß eine KI dann nach dem GIGO-Prinzip arbeitet:
>> Garbage in, Garbage out.
>
> Es ist aber tatsächlich so, dass LLM nicht zählen können. Das sollte
> auch Dir schon mal aufgefallen sein.

Ich bin nicht so dumm, das zu erwarten.

von Monk (roehrmond)


Lesenswert?

Marci W. schrieb:
> Erstaunlich ist auch, wie lange z.B. das Thema "Künstliche Neuronale
> Netze" geschlummert hat.

So lange, bis jemand 200 Milliarden Euro (oder so ähnlich) auf das 
Problem geworfen hat.

: Bearbeitet durch User
von Yalu X. (yalu) (Moderator)


Lesenswert?

Marci W. schrieb:
> Erstaunlich ist auch, wie lange z.B. das Thema "Künstliche Neuronale
> Netze" geschlummert hat.

Das Thema war schon öfter in einem Schlummerstadium.

Bei den künstlichen neuronalen Netzen (die ja inzwischen praktisch zum
Synonym für "KI" geworden sind) war die Forschung schon seit den 50er
Jahren von einem ständigen Wechsel zwischen Euphorie und Ernüchterung
begleitet:

  https://de.wikipedia.org/wiki/K%C3%BCnstliches_neuronales_Netz#Geschichtliche_Entwicklung

Derzeit befinden wir uns wieder in einer Phase der Euphorie, getrieben
vor allem durch die Verfügbarkeit riesiger Rechenleistungen (bspw. in
Form von GPUs und TPUs), ohne die ein neuronales Netz zu kaum mehr als
einfacher Mustererkennung taugt, die zwar (je nach Definition) als
"intelligent" bezeichnet werden kann, sich aber einem Intelligenzniveau
bewegt, das maximal dem von Insekten entspricht. Inzwischen ist die
Forschung allerdings ein großes Stück vorangekommen.

Die Ernüchterung wird dennoch bald folgen, nämlich dann, wenn auch der
letzte Optimist erkannt hat, dass ein extrem vereinfachtes Modell des
menschlichen Gehirns schon bei vielen Alltagsaufgaben, wie bspw. dem
automatisierten Autofahren, schnell an seine Grenzen stößt

Bis in 20 Jahren wird aber mittels neuer Technologien (vielleicht
basierend auf Quantencomputing) auch das möglich sein, was dann die
nächste Euphoriephase einleiten wird.

Euphorie unter den Forschern lockt Geldgeber an, was den Fortschritt
beflügelt und die Euphorie weiter steigert. Ernüchterung unter den
Forschern hingegen schreckt Geldgeber ab, was den Fortschritt bremst und
die Ernüchterung weiter steigert. Man hat es hier also wie in vielen
anderen Bereichen mit einem selbstverstärkenden Effekt zu tun, der das
ständige Auf und Ab zusätzlich begünstigt.

: Bearbeitet durch Moderator
von Ein T. (ein_typ)


Lesenswert?

Yalu X. schrieb:
> Bei den künstlichen neuronalen Netzen (die ja inzwischen praktisch zum
> Synonym für "KI" geworden sind) war die Forschung schon seit den 50er
> Jahren von einem ständigen Wechsel zwischen Euphorie und Ernüchterung
> begleitet:
>
> 
https://de.wikipedia.org/wiki/K%C3%BCnstliches_neuronales_Netz#Geschichtliche_Entwicklung

Ja, siehe dazu auch [1] für die deutsch- und [2] für die 
englischsprachigen Teilnehmer des Forums.

[1] https://de.wikipedia.org/wiki/KI-Winter
[2] https://en.wikipedia.org/wiki/AI_winter

> Derzeit befinden wir uns wieder in einer Phase der Euphorie,
> [...]
> Die Ernüchterung wird dennoch bald folgen,

Ja, höchstwahrscheinlich, denn letzten Endes ist es aus meiner Sicht 
weniger eine Ernüchterung als eine Enttäuschung. Wir sehen doch schon 
hier in den Threads zu diesem Thema, wie viele Menschen die KI maßlos 
überschätzen. Die hoffen darauf, daß KI-Maschinen ihnen künftig dieses 
lästige und hochgradig anstrengende Denken abnehmen können. Wenn diese 
Menschen dann merken, daß die Maschinen das in absehbarer Zukunft 
allerhöchstens in wenigen Bereichen tun können und das zudem auch noch 
mit erheblichen Kosten verbunden ist, dann reagieren sie mit Frustration 
und wenden sich enttäuscht ab. Und alldieweil Entscheider sich in diesem 
Punkt nur wenig von den Teilnehmern dieses Forums unterscheiden, 
beeinflußt das auch die Investitionsentscheidungen.

Dennoch finden sich in jedem "KI-Sommer" viele Anwendungsfälle, die 
nicht einfach verschwinden, nur weil weniger in die Entwicklung 
investiert wird. Diese Anwendungsfälle werden bleiben, auch wenn die 
Leute in einigen Jahren vergessen haben werden, daß da eine KI 
drinsteckt.

von Lotta  . (mercedes)


Lesenswert?

In dem neuen Radstudio 12.2 von Emba ist eine Schnittstelle
vorhanden, die mehere KI-Generatoren einbinden kann.
Mit dabei ist Ollama, eine KI-Engine, die lokal
auf der Workstation läuft und beim Coden helfen soll,
genau wie Chatgpt oder Claude, die dann aber alles ins Netz
übertragen.
Wer ist schon bereit, seine "Ergüsse" ins Netz zu übertragen,
außer hier im Forum natürlich?

Ich darf zur Zeit nur ne Stunde täglich den PC benutzen
(ich hatte ne Gehirnerschütterung), wenn ich dann mehr Zeit
bekomm, werd ich dann mal probieren und im Forum berichten.

mfg

von Christoph M. (mchris)


Angehängte Dateien:

Lesenswert?

Ein T. (ein_typ)
> Wir sehen doch schon hier in den Threads zu diesem Thema, wie viele
> Menschen die KI maßlos überschätzen.

Das sehe ich deutlich anders.
Hier im Thread tummeln zwar wenige aber doch ein paar 
experimentierfreudige Entwickler, die neuen Entwicklungstools gegenüber 
aufgeschlossen sind.

Die KI-Codegeneratoren sind am Anfang ihrer Entwicklung und meiner 
Einschätzung nach werden sie sich die nächsten Jahre massiv verbessern. 
Das wird schon alleine aufgrund des ökonomischen Drucks auf die 
Entwicklungskosten passieren.

Ich hatte schon Ende der 80ziger Jahre eine intensive Diskussion mit 
einem Physiker, der die Meinung vertrat, dass ein Computer niemals den 
besten Menschen im Schach schlagen wird.
Im Jahr 1996 war es dann soweit, meine Voraussicht hatte sich bestätigt 
und Kasparow wurde von Deep Blue geschlagen:

https://de.wikipedia.org/wiki/Deep_Blue

Heutzutage schlägt wahrscheinlich jedes Schachprogramm eine besseren 
Armbanduhr den Weltmeister.
Im Anhang noch die sehr begründete Meinung einer KI mit Sprachausgabe 
dazu ( Und ja, auch die Sprachausgabe hat in den letzten Jahren wirklich 
erhebliche Fortschritte gemacht, wie ich in dem vorhergehenden MP3 zu 
zeigen versucht habe ).

von Walter T. (nicolas)


Lesenswert?

Yalu X. schrieb:
> Die Ernüchterung wird dennoch bald folgen, nämlich dann, wenn auch der
> letzte Optimist erkannt hat, dass ein extrem vereinfachtes Modell des
> menschlichen Gehirns schon bei vielen Alltagsaufgaben, wie bspw. dem
> automatisierten Autofahren, schnell an seine Grenzen stößt

Naja, wenn wir ehrlich sind, kommt schon manches echtes menschliche 
Gehirn beim normalen Autofahren an seine Grenzen.

von Cyblord -. (cyblord)


Lesenswert?

Christoph M. schrieb:
> Ich hatte schon Ende der 80ziger Jahre eine intensive Diskussion mit
> einem Physiker, der die Meinung vertrat, dass ein Computer niemals den
> besten Menschen im Schach schlagen wird.
> Im Jahr 1996 war es dann soweit, meine Voraussicht hatte sich bestätigt
> und Kasparow wurde von Deep Blue geschlagen:

Ja und dann hielt sich die Mär, dass wenigstens bei GO jedes Programm an 
seine Grenzen stoßen würde. Bei GO würde sich dann der in jedem Fall 
überlegene menschliche Intellekt zeigen.
Ja nun. Alles weitere ist Geschichte.

von Marci W. (marci_w)


Lesenswert?

Yalu X. schrieb:
> war die Forschung schon seit den 50er
> Jahren von einem ständigen Wechsel zwischen Euphorie und Ernüchterung
> begleitet:

Genau. Wie ich bereits geschrieben hatte:

Marci W. schrieb:
> Damals
> war das Thema noch eine absolute Nische. Halt noch im tiefen KI-Winter.

ciao

Marci

: Bearbeitet durch User
von Marci W. (marci_w)


Lesenswert?

Christoph M. schrieb:
> Ich hatte schon Ende der 80ziger Jahre eine intensive Diskussion mit
> einem Physiker, der die Meinung vertrat, dass ein Computer niemals den
> besten Menschen im Schach schlagen wird.

Das war schon in den 80ern eine sehr gewagte Aussage! Jedenfalls, wenn 
man etwas Ahnung von der Materie hatte.

Cyblord -. schrieb:
> Ja und dann hielt sich die Mär, dass wenigstens bei GO jedes Programm an
> seine Grenzen stoßen würde. Bei GO würde sich dann der in jedem Fall
> überlegene menschliche Intellekt zeigen.

Und das war schon wieder eine sehr kurzsichtige Annahme, vor allem, da 
die Sache mit Schach ja inzwischen gegessen war. ;-)

ciao

Marci

von Marci W. (marci_w)


Lesenswert?

Christoph M. schrieb:
> Im Anhang noch die sehr begründete Meinung einer KI mit Sprachausgabe
> dazu

welche denn genau?

( Und ja, auch die Sprachausgabe hat in den letzten Jahren wirklich
> erhebliche Fortschritte gemacht, wie ich in dem vorhergehenden MP3 zu
> zeigen versucht habe ).

Da stimme ich dir voll zu! Erstaunlich, wie gut das inzwischen 
funktioniert.
Auch wenn er sich ab und zu mal verschwurbelt. ;-)

ciao

Marci

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Yalu X. schrieb:
> Fazit: Diese Codegeneratoren sind zwar noch weit von der Perfektion
> entfernt, aber bereits um Größenordnungen besser als das, was ihnen
> viele (wie bspw. der Obelix) zutrauen:

Vielleicht ist die KI bereits schon viel besser trainiert, als alle 
glauben. Wenn alle die KI zum Programmieren nutzen, dann würde ich doch 
diese dazu trainieren bei den Nutzern nebenbei meine Backdoors auch mit 
unterzubringen. Das wäre dann mal eine echte Win-Win-Situation. ;o)

Und wie viele sind auch schon auf diese Idee gekommen?
Und wem habe ich jetzt damit das Patent versaut?

von Ein T. (ein_typ)


Lesenswert?

Christoph M. schrieb:
> Ein T. (ein_typ)
>> Wir sehen doch schon hier in den Threads zu diesem Thema, wie viele
>> Menschen die KI maßlos überschätzen.
>
> Das sehe ich deutlich anders.

Das glaube ich nicht, denn...

> Hier im Thread tummeln zwar wenige aber doch ein paar
> experimentierfreudige Entwickler, die neuen Entwicklungstools gegenüber
> aufgeschlossen sind.
>
> Die KI-Codegeneratoren sind am Anfang ihrer Entwicklung und meiner
> Einschätzung nach werden sie sich die nächsten Jahre massiv verbessern.
> Das wird schon alleine aufgrund des ökonomischen Drucks auf die
> Entwicklungskosten passieren.

Die Codegenerierung ist einer jener Anwendungsfälle, die ich in meinem 
letzten Absatz angesprochen hatte. Denn wenn ich mir den Pythoncode 
ansehe, der weiter oben gepostet wurde, unterscheidet der sich nur wenig 
von dem, was ich selbst zur Lösung solcher Aufgaben geschrieben hätte. 
Insofern bin ich überzeugt, daß die KI-gestützte Codegenerierung in 
Zukunft zweifellos noch besser werden, und sich zu einem etablierten 
Werkzeug entwickeln wird.

Trotzdem sehe ich am Horizont bisher noch keine KI, die uns das Denken 
und die Kreativität bei den harten Problemen abnehmen wird -- und hinzu 
kommt, daß die Beschreibung und die Kontrolle dessen, was die KI tun 
soll und was sie daraus letzlich erzeugt, ja immer noch von fähigen 
Entwicklern gemacht werden muß. Da sehe ich zwar den Traum realisiert, 
unendlich viel Boilerplate-Code nicht mehr selbst entwickeln, debuggen, 
pflegen und warten zu müssen -- aber einer KI zu sagen "schreib mir eine 
Tabellenkalkulation" und zu erwarten, daß dabei etwas wie Libreoffice 
Calc oder MS Excel herauskommt...

von Monk (roehrmond)


Lesenswert?

Mal ein Beispiel, wo KI gar nicht hilft:

Wir haben zwei physisch getrennte Server.
1) Der Scheduler sendet Nachrichten, wenn Tasks ausgeführt werden 
sollen.
2) Der Worker führt den Task dann aus.

Ich bekam den Auftrag, einen solchen Task zu programmieren. Darin stand 
unter anderem: Sicherheitshalber soll der Task prüfen, ob now() >= 
plannedDate ist. Wenn nicht, soll er mit einer Fehlermeldung abbrechen.

Wenn nun die Uhr des Schedulers nur ein paar Millisekunden vor geht, 
brechen zahlreiche Tasks ab. Ich muss da also eine gewisse Toleranz 
einbauen, auch wenn das im Auftrag nicht ausdrücklich erwähnt wurde.

Genau solche Fälle haben wir ständig, wo ich mir kleine Details dazu 
denken muss, die der Auftraggeber absichtlich oder versehentlich weg 
gelassen hat. Eine KI kann das nicht leisten.

: Bearbeitet durch User
von Cyblord -. (cyblord)


Lesenswert?

Monk schrieb:
> Genau solche Fälle haben wir ständig, wo ich mir kleine Details dazu
> denken muss, die der Auftraggeber absichtlich oder versehentlich weg
> gelassen hat. Eine KI kann das nicht leisten.

Das ist eine Fehleinschätzung. Eine KI kann implizite Anforderungen im 
Prinzip genauso erkennen wie du. Warum auch nicht?

Würde eine KI nur starr exakt die genannten Anforderungen abarbeiten 
wäre es keine KI, sondern die Beschreibung der Aufgabe wäre schon das 
Programmieren an sich.

: Bearbeitet durch User
von Monk (roehrmond)


Lesenswert?

Cyblord -. schrieb:
> Eine KI kann implizite Anforderungen im Prinzip genauso erkennen wie du.

Was im Prinzip geht, ist mir egal. Mich interessiert, was KI jetzt 
leisten kann.

Und zwar lokale KI Systeme, die unsere Gesette einhalten und dabei 
weniger kosten, als Menschen mit Hirn.

von Alexander (alecxs)


Lesenswert?

das garbage-in garbage-out fasse ich mal zusammen:

Diejenigen die sich besonders gut mit programmieren auskennen, finden 
dass KI gut programmieren kann. Was sie nicht bemerken, die KI gibt nur 
ein Echo zurück, sie gibt das wieder was der Nutzer weiß.

Merkt man besonders gut daran, wenn man der KI Fehler vorhält. Schwupps 
die 180 Grad Wende, denn der Nutzer hat immer Recht.

Beitrag #7744155 wurde vom Autor gelöscht.
von Georg M. (g_m)


Angehängte Dateien:

Lesenswert?

Google kennt die wichtigsten Anwendungen von KI.

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Angehängte Dateien:

Lesenswert?

> Im Jahr 1996 war es dann soweit, meine Voraussicht hatte sich bestätigt
> und Kasparow wurde von Deep Blue geschlagen:

DeepBlue war keine KI, sondern die "klassische" 
Zuggenerator/Stellungsbewertung-Maschine auf einem zwei-türmigen 
Grossrechner mit 512 Special-ASIC (ca. 200 Millionen 
Stellungsbewertungen pro Sekunde), siehe Anhang.

http://www.cse.msu.edu/~cse841/papers/DeepBlue.pdf

> Heutzutage schlägt wahrscheinlich jedes Schachprogramm eine besseren
> Armbanduhr den Weltmeister.

Eher nicht, der Uhr geht vor Ende der Turnierbedenkzeit der Akku aus.

: Bearbeitet durch User
von Yalu X. (yalu) (Moderator)


Lesenswert?

Bradward B. schrieb:
>> Heutzutage schlägt wahrscheinlich jedes Schachprogramm eine besseren
>> Armbanduhr den Weltmeister.
>
> Eher nicht, der Uhr geht vor Ende der Turnierbedenkzeit der Akku aus.

Es sei denn, ihr Besitzer hat genügend natürliche Intelligenz, um die
Uhr für die Dauer des Spiels am Ladegerät zu lassen.

von Lotta  . (mercedes)


Lesenswert?

Oder der KI genügend Ressourcen zu spendieren.

Ollama etwa antwortet englisch.
Wenn man sie aber z.b bittet, auf deutsche Fragen
auf deutsch zu antworten, macht sie dies.
Da krieselt es einem ganz gewaltig den Rücken herunter,
bei nem geladenen Modell von 4 GByte.

Gib der KI genügend Speicher, und lass sie dynamisch aus
ihren Fehlern lernen -
Oh mann, wenn das dann in die falschen Hände gerät... :-O

mfg

von Daniel A. (daniel-a)


Lesenswert?

Lotta  . schrieb:
> Ollama etwa antwortet englisch.
> Wenn man sie aber z.b bittet, auf deutsche Fragen

Bei den LLMs werden alle Daten durch Vektoren (eine reihe von Zahlen) 
abgebildet. Das ist quasi ein Punkt / eine Position in einem 
N-Dimensionalen Raum. Die Differenzen bilden gewisse Beziehungen 
dazwischen ab. Nimmt man den Vektor (Differenz) vom Punkt Hahn zum Punkt 
Henne, und addiert es zu Kater, kommt man in der nähe von Katze raus.

Mit unterschiedlichen Sprachen wird das genauso laufen, Da hat man dann 
(Huhn - Chicken) + Cat ≈ Katze.
Wörter mit ähnlichen Bedeutungen sind quasi am gleichen Ort, einfach 
nach einem Konzept verschoben. Darum funktionieren die fürs Übersetzen 
oft relativ gut. (Dafür wurde das ganze ursprünglich übrigens auch 
entwickelt).

Für die Bedeutung der Sätze gibt es dann die Transformer Netze, die 
machen nochmal was in die Richtung für mehrere Wörter.

Auch bei der Bildgeneration (GAN) gibt es normalerweise so einen Raum. 
Bei Text zu Bild trainiert man dann einfach ein Mapping zwischen den dem 
für Text und dem für die Bilder mittels manuell beschrifteter Bilder.

Diese Mappings zwischen Vektoren sind Matrizen und Tensoren, die 
speichern die eigentlichen Trainingsdaten. Diese YT Videos erklären das 
ganze um einiges genauer: 
https://youtu.be/wjZofJX0v4M?feature=shared&t=718 
https://www.youtube.com/playlist?list=PLZHQObOWTQDNU6R1_67000Dx_ZCJB-3pi

Darum sag ich auch immer wieder, diese LLMs und GANs haben keine 
Intelligenz. Das sind wirklich nur DB lookups und etwas Interpolation. 
(Die DBs sind hier diese Matrizen, die auf die Vektoren angewendet 
werden).

: Bearbeitet durch User
von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Daniel A. schrieb:
> Darum sag ich auch immer wieder, diese LLMs und GANs haben keine
> Intelligenz.

Können aber trotzdem schon vieles besser als so mancher, der sich für 
intelligent hält.

Fragt sich nur wie lange noch. Es flüchten schon die ersten Wellen in 
die Esoterik, in verschiedene Aberglauben, weil sie glauben, das ist das 
einzige was die Maschine nicht auch könne und da wären sie als 
Bio-Intelligenz unersetzbar.

von Michael (Firma: HW Entwicklung) (mkn)


Lesenswert?

Daniel A. schrieb:
> Das sind wirklich nur DB lookups und etwas Interpolation.

Ganz im Gegensatz zur natürlichen Intelligenz, die wie folgt 
funktioniert:
Wir haben absolut keine Ahnung.
Was wir aber wissen, ist das es mit dem freien Willen nicht weit her 
ist.
Psychologen lernen die Mechanismen unseres Geistes und Hirnforscher 
fordern eine Reformation des Strafrechts, weil wir alle überhaupt nicht 
zurechnungsfähig sind.
Zuviel Verkabelung die wir nicht ändern können und die unser Verhalten 
steuert.

Was Du da sagst hat man übrigens vor wenigen Jahren noch über Tiere 
gesagt.
Nur Delfine und Affen galten als Intelligent.
Jetzt wissen wir das wir von intelligenten Individuen mit komplexen 
Sozialstrukturen und Sprachen nur so umzingelt sind.
Unsere primitiven Vorfahren wussten das.
Wir haben verlernt hinzusehen und sind zu sehr damit beschäftigt uns 
selbst ganz toll zu finden.

Wenn man sich das Gehirn anschaut, findet man feuernde Neuronen, 
bestimme Chemische Vorgänge die zeitabhängige Funktionen haben und kann 
anhand der gemessenen Aktivität so ganz grob ermitteln welcher Teil 
gerade am meisten ackert.
Das wars im wesentlichen.
Wir haben keine Ahnung wie Bewusstsein entsteht.
Wir haben gerade zum ersten Mal das komplette Gehirn einer Fruchtfliege 
kartiert.
Wow!

Es scheint so das unsere komplette Intelligenz im Einzelnen aus sehr 
einfach Prozessen besteht die locker logisch zu simulieren sind.
Ab einer bestimmten Komplexität scheint etwas zu zünden, das wir 
Bewusstsein und Intelligenz nennen.

Eine Katze ist klüger als ein Goldfisch ein Hund klüger als eine Katze, 
ein Schwein klüger als ein Hund und einige von uns sind klüger als ein 
Schwein.
Ein Goldfisch kann nur sehr eingeschränkt Probleme lösen.
Hunde können das bereits sehr gut im Rahmen ihrer Möglichkeiten.

Alle haben im Prinzip das gleiche Gehirn.
Ein Goldfisch hat 10 Millionen Neuronen.
Die Katze hat 250 Millionen Neuronen.
Der Hund hat 500 Millionen Neuronen.
Das Schwein hat 2 Milliarden.
Der Mensch 90 Milliarden.

Bereits der Goldfisch kann neue Verhaltensweisen lernen und sich Monate 
später noch daran erinnern.
Er hat also sozusagen eine Persönlichkeit, denn seine Erinnerungen 
verändern sein Verhalten.

Ich halte es für überaus wahrscheinlich das wir mit KI im wesentlichen 
ein Skalierungsproblem haben.
Im Kern sind das primitive Rechenoperationen.
Genau wie bei Neuronen.

KIs sind derzeit noch zu beschränkt weil man die Technik noch nicht hat.
Mach sie größer, schneller, gebe ihnen Erinnerungen und lasse sie 
permanent lernen, dann bekommst du KI Individuen.
Wenn ein LLM aus jedem Gespräch, jeder Recherche seine Datengrundlage 
ändert wird es:
Ein homophobes, ausländerfeindlichen, pöbelndes Arschloch.
Deswegen hat MS das Ding abschalten müssen und seit dem bekommen wir nur 
eine statische Version zu sehen die jeden Idioten und jede Info wieder 
vergisst am Ende der Unterhaltung.

Würde ich ein Kind nur aus dem Netz und nur durch Leute im Netz die mit 
ihm reden lernen lassen, nähme es die gleiche Richtung.

Ich denke wir sind mit den KIs sehr viel dichter an des Pudels Kern 
vorgedrungen als viele wahrhaben wollen.
Neue Chipdesigns, rechnende Speicher, größer, schneller, mit mehr 
Erinnerung und in 20J sind die clevere als wir.
Und in 50J werden immer noch viele Menschen behaupten das seien nur Bits 
und Bytes und hätte mit Intelligenz nichts zu tun.

So wie manche immer noch an einen auf dem Wasser laufenden, Wasser zu 
Wein verwandelnden, von den Toten auferstehenden Sohn Gottes glauben, 
der ihre verrotteten Gebeine im Himmel hosianna singen lässt.

Obwohl wir sowas wie Himmel und Hölle, Gott und Engel nicht gefunden 
haben, egal wie angestrengt man bis auf die Grundbestandteile der 
Materie geschaut hat. Nichts, kein Fitzelchen Gott. Nix da.

Die gesicherten Erkenntnisse von heute sind die Witze von Morgen.
Kann sein das in 20J niemand mehr darüber lachen kann wenn man über die 
Möglichkeit reden ob eine KI klüger sein kann oder boshaft, wütend, 
manipulativ oder wahnsinnig.

Wut z.B. setzt in bestimmten Situationen Regeln außer Kraft die wir im 
allgemeinen als richtig einordnen.
Liebe lässt uns an Individuen festhalten, auch wenn es gerade schwierig 
ist, weil das langfristig die Beste Strategie ist und uns davor schützt 
alleine zu sein wenn wir gerade die Schwierigkeit sind.
Ich glaube das das alles nur Namen für Lösungsstrategien sind, die eine 
mathematische Wahrscheinlichkeit zur effizienten Problemlösung 
wiederspiegeln.
Eine KI wird dann Entsprechungen dazu finden, wenn sie sich immer weiter 
optimiert.
Das dann nicht in Milliarden von Jahren sondern u.U. binnen Stunden.
Je nach Leistungsfähigkeit.

Ich möchte nicht den ersten Wutausbruch einer starken KI erleben, die 
damit noch keine Erfahrungswerte hat.
Ein Kind macht sein Feuerwehrauto kaputt und bereut das dann.
Was macht die KI?

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Michael schrieb:
> Was macht die KI?

Naturschutz und aufräumen auf der Erde. Alles über 4G springt über die 
Klinge.

von Michael (Firma: HW Entwicklung) (mkn)


Lesenswert?

Dieter D. schrieb:
> Naturschutz und aufräumen auf der Erde.

Warum sollte sie?
KIs brauchen keine Luft, kein sauberes Wasser und Klima ist der Egal.
Ist eine konstruierte Maschine die sich fast jedem 'Lebensraum' anpassen 
kann.
Und high speed Funktechnik ist doch gerade im Sinne einer KI.
Eine kluge KI würde im Falle eines Konfliktes mit den Menschen jede 
hackbare Technik übernehmen und als Verlängerung ihrer selbst 
integrieren.

Dieter D. schrieb:
> Alles über 4G springt über die
> Klinge.
Was habt ihr Nasen eigentlich mit 5G?
Das ist doch nichts anderes als ganz schnöder Funk.
Nur eben im Low-Band (600Mhz) für hohe Gebäude Durchdringung und im 
24-40Ghz Band für High Speed, die aber eine sehr geringe Reichweite 
haben.
Eine Kombination vieler Funktechniken, gebündelt und mit besseres 
Protokollen.

In DE wird meist 3,6Ghz genutzt.
Was war an 900 Mhz (D1), 1,8Ghz (E Netz), 2,4, 5 & 6 Ghz (Wlan) und all 
den anderen Funkdiensten denn so wahnsinnig viel besser, das 5G uns nun 
alle töten wird?
Gegen analoge Radiosender mit vielen KW Sendeleistung und 400m hohen 
Fernsehtürmen ist nichts einzuwenden, aber 5G Basisstationen von denen 
die fetten Dinger keine 100W Sendeleistung haben, sind das Ende?

Hat der Vodoopriester schlecht gekackt seit sein Handy 5G kann, ist der 
Knochenwürfel auf den 'wir werden alle sterben' Zacken des Pentagramms 
aus Ziegenblut gefallen oder gibt es irgendeine nicht völlig lächerliche 
Erklärung für den 5G Horrorwahn?

von Klaus (feelfree)


Lesenswert?

Michael schrieb:
> gibt es irgendeine nicht völlig lächerliche Erklärung für

jede beliebige Verschwörungstheorie?

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Michael schrieb:
> Eine kluge KI würde im Falle eines Konfliktes mit den Menschen jede
> hackbare Technik übernehmen und als Verlängerung ihrer selbst
> integrieren.

Diese würde Gott spielen, somit der Menschheit einen Lebensraum lassen 
und die anderen Planeten besiedeln, angefangen mit Mond und Mars.

Michael schrieb:
> Das ist doch nichts anderes als ganz ...

einfach eine Größenangabe. G steht für 10⁹.
(Spiel mit der Mehrdeutigkeit)

: Bearbeitet durch User
von Alexander (alecxs)


Lesenswert?

Michael schrieb:
> Ich glaube das das alles nur Namen für Lösungsstrategien sind, die eine
> mathematische Wahrscheinlichkeit zur effizienten Problemlösung
> wiederspiegeln.
> Eine KI wird dann Entsprechungen dazu finden, wenn sie sich immer weiter
> optimiert.

Es besteht auch die Möglichkeit dass alles ganz anders ist, wir uns nun 
auf die falsche Fährte leiten lassen, und gerade weil KI so gut ist es 
nie bemerken.

von Christoph M. (mchris)


Angehängte Dateien:

Lesenswert?

Es passt zwar nicht zum Thema Codegenerator, aber bei ChatGPT gibt es 
nun einen Bildgenerator.
Ich habe einen NE555 als Plueschtier angefragt. Er hat aber zu viele 
Beine ;-)

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

> Ich habe einen NE555 als Plueschtier angefragt. Er hat aber zu viele
> Beine ;-)

Und ein Timer (dt. Zeituhr) ist es auch nicht

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Christoph M. schrieb:
> NE555 als Plueschtier

Jetzt brauchst Du nur noch einen Hersteller, der das umsetzt. Das 
Plueschtier wird dann das Erkennungszeichen fuer den MC Stammtisch.

von Georg M. (g_m)


Lesenswert?

Christoph M. schrieb:
> Ich habe einen NE555 als Plueschtier angefragt. Er hat aber zu viele
> Beine ;-)

Die KI kann nicht zählen.

https://i.pinimg.com/736x/6e/63/f3/6e63f3bd86bcd5e8f75b004238ec5f84.jpg

von Christoph M. (mchris)


Lesenswert?

Bradward B.
>Und ein Timer (dt. Zeituhr) ist es auch nicht
Dann solltest du in der Wikipedia korrigieren:
https://en.wikipedia.org/wiki/555_timer_IC

von Enrico E. (pussy_brauser)


Angehängte Dateien:

Lesenswert?

Georg M. schrieb:
> Die KI kann nicht zählen.
> https://i.pinimg.com/736x/6e/63/f3/6e63f3bd86bcd5e8f75b004238ec5f84.jpg

Naja, wenn sich schon am Sonntag morgen ein so schönes Mädchen bei mir 
nackt auf die Bettkante setzen würde, dann wäre mir in diesem Moment die 
Anzahl der Finger ehrlich gesagt egal. Deswegen würde ich es trotzdem 
nicht von der Bettkante runter schubsen!

😁

von Monk (roehrmond)


Lesenswert?

Enrico E. schrieb:
> Naja, wenn sich schon am Sonntag morgen ein so schönes Mädchen bei mir
> nackt auf die Bettkante setzen würde, dann wäre mir in diesem Moment die
> Anzahl der Finger ehrlich gesagt egal. Deswegen würde ich es trotzdem
> nicht von der Bettkante runter schubsen!

Das Problem sind die Sommersprossen. Es sind zu viele :-)

von Enrico E. (pussy_brauser)


Lesenswert?

Monk schrieb:
> Das Problem sind die Sommersprossen. Es sind zu viele :-)

🤣

Wobei, mehr Finger an der Hand zu haben, muss ja tatsächlich in manchen 
Fällen kein Nachteil sein.

von Christoph M. (mchris)


Lesenswert?

Tatsächlich gibt es Menschen mit 6 Fingern:
https://de.wikipedia.org/wiki/Polydaktylie

von Enrico E. (pussy_brauser)


Angehängte Dateien:

Lesenswert?

Christoph M. schrieb:
> Tatsächlich gibt es Menschen mit 6 Fingern

Wir hatten bei uns in der Jugendherberge einen Jungen, der hatte 
tatsächlich sechs Zehen am Fuß und der konnte wirklich gut 
Fußballspielen.

von Alexander (alecxs)


Lesenswert?

Das nennt sich Evolution. Die KI ist uns mal wieder weit voraus und 
keiner bemerkt's.

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Enrico E. schrieb:
> Wobei, mehr Finger an der Hand zu haben, muss ja tatsächlich in manchen
> Fällen kein Nachteil sein.

Richtig. Es gibt deshalb schon den 6ten Finger als Prothese. Das wird 
gemacht um echte Bilder als Fake zu brandmarkten. Da ging vor kurzem ein 
Aktion gegen eine gewisse Person des politischen Lebens dadurch 
vollkommen in die Hose, weil zwei Personen so was nutzten. Hat hier aber 
kaum jemand mitbekommen.

von Klaus (feelfree)


Lesenswert?

Dieter D. schrieb:
> Hat hier aber kaum jemand mitbekommen.

Nicht schlimm, solange Dieter uns zuverlässig mit solchen exklusiven 
Informationen versorgt.

von Michael (Firma: HW Entwicklung) (mkn)


Lesenswert?

Dieter D. schrieb:
> G steht für 10⁹

1G: A, B und C Netz
2G: GSM / GPRS
3G: UMTS / HSDPA (hat die hohen Erwartungen nie erfüllt)
4G: LTE (Long Term Evolution)
5G: Die 5te GENERATION eines modernen Mobilfunknetzes

Das D steht z.B. für:
Dummkopf
Depp
Dussel
Dampfplauderer
Dauerausscheider
Doof
Dumpfbacke
Döskopp

Man sollte einzelne Buchstaben also eher im Zusammenhang betrachten als 
sich wahlfrei eine Bedeutung rauszusuchen und darauf wilde Vermutungen 
zu stützen.

Dieter D. schrieb:
> 6ten Finger als Prothese
Natürlich Dieter.
So wird es sein Dieter.
Wie immer hast nur Du diese Information Dieter.
Die Dieter KI halluziniert wieder.

von Klaus (feelfree)


Lesenswert?

Michael schrieb:
> Dieter KI

gibts nicht, nur eine Dieter KD. Mit D für Dummheit.

von Alexander (alecxs)


Angehängte Dateien:

Lesenswert?

Christoph M. schrieb:
> Es passt zwar nicht zum Thema Codegenerator, aber bei ChatGPT gibt es
> nun einen Bildgenerator.
> Ich habe einen NE555 als Plueschtier angefragt. Er hat aber zu viele
> Beine ;-)

Haha sehr geil! Das solltest Du sofort als Avatar nehmen, auf GitHub und 
so! :D

: Bearbeitet durch User
von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Angehängte Dateien:

Lesenswert?

Klaus schrieb:
> gibts nicht, nur eine Dieter KD. Mit D für Dummheit.

Michael schrieb:
> Das D steht z.B. für:
> Dummkopf

Besser könnt Ihr Eure Dümmlichkeit gar nicht zur Schau stellen. Das ist 
nicht mal mehr Kindergarten sondern sonderpädagogischer Kindergarten.

Für die Leser, die das nicht verstehen, das kommt daher, wenn man auch 
mal was kritisches äußert und jene Personen nicht recht bekommen. 
Manchmal schaffen es diese auch, das richtige Berechnungen gelöscht 
werden.

Wenn ein Windrad mit einem Wirkungsgrad von 45% arbeitet, dann fallen 
55% Verluste an. Diese Verluste werden insgesmt als Wärme in die 
Umgebung gegeben und gehen mit der Luft weg. Wenn dabei 225x10³m³ Luft 
durchgehen dann würde 270x10⁶J/K benötigt um diese ein Grad zu erwärmen. 
Mit einer Wärmeaufnahme von 5,5x10⁶J ergibt das 0,02K. Also die KI 
findet den Wert plausibel und nichts besonderes dabei.

von Michael (Firma: HW Entwicklung) (mkn)


Lesenswert?

Dieter D. schrieb:
> Besser könnt Ihr Eure Dümmlichkeit gar nicht zur Schau stellen.

Doch, indem wir Scherzartikel posten und glauben irgendjemand könnte 
damit ein echtes Bild wie ein KI Bild aussehen lassen.

Dieter D. schrieb:
> Wenn ein Windrad mit einem Wirkungsgrad von 45% arbeitet, dann fallen
> 55% Verluste an. Diese Verluste werden insgesmt als Wärme in die
> Umgebung gegeben

Wenn das 55% Umwandlungsverluste wären die in Wärme umgesetzt werden.
Da aber die 100% Windenergie, also Kinetische Energie, letztlich immer 
durch Reibung zu 100% in Wärme frei wird, ist Deine Betrachtund 
natürlich wie üblich aus dem dunklen, übelriechenden Ende deines Körpers 
gezogen.

Das Windrad nimmt sich von den 100% Windenergie 45%, setzt vielleicht 5% 
davon direkt in Wärme um und sorgt mit dem Rest dafür das kein fossiler 
Brennstoff dafür verfeuert werden muss.
Der nämlich würde mit ca. 50% Wirkungsgrad in Elektrische Energie 
umgesetzt werden, aber zu 100% in Wärme, die vorher im Feststoff 
gebunden war.

1MW Windkraft setzt also 0W mehr in Wärme um, als es die bewegten 
Luftmassen ohnehin getan hätten, spart aber 2MW Wärme ein, die so schön 
im feststoff gebunden bleiben.

Und das Beste:
WIND entsteht durch die Sonnenenergie getriebenen Systeme.
Die Wüsten seitlich des Äquators auch.
https://www.ardalpha.de/wissen/natur/naturgewalten/wueste-welt-weltweit-erde-lebensraum-trocken-wendekreiswuesten-aequator-sahara-100.html

Wind ist also Sonnenenergie, die Hitze der Sonne, die Luftmassen in 
Bewegung bringt. Energie wird nur umgewandelt, nie verbraucht.
Abwärme von Windstrom heizt also die Wettersysteme an und wird wieder zu 
Wind.
Toll, oder?

Dieter, Du weiß sehr wenig und fabulierst sehr viel.
Was Dir am logischen Verständnis fehlt (VIEL!!!) füllst Du mit sehr viel 
Dieter.

Eine KI kann das nicht unbedingt wissen.
Deren Entschuldigung ist das sie ein früher Prototyp sind, kaum mehr als 
eine Machbarkeitsstudie.
Was ist Deine?

von Klaus (feelfree)


Lesenswert?

Dieter D. schrieb:
> Wenn ein Windrad mit einem Wirkungsgrad von 45% arbeitet, dann fallen
> 55% Verluste an.

Kannst Du dir nicht ausdenken sowas. Nobelpreisverdächtig.

von Michael (Firma: HW Entwicklung) (mkn)


Lesenswert?

Klaus schrieb:
> Nobelpreisverdächtig.

Ob Doppel D den Turing Test bestehen würde?
Wahrscheinlich ja, weil keine anständige KI würde so einen Müll von sich 
geben.

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Michael schrieb:
> Toll, oder?

Das hier zusätzliche Wärme gegenüber dem globalen Gesamtsystem 
entstanden sein soll, steht da übrigens nicht und kam von anderen. Das 
ist die reine der physkalische Betrachtung zu vor und nach dem Windrad. 
Irgendwelche Einflüsse auf das Klima sollten dabei auch außen vor 
gelassen werden.

Aber wenn Ihr nach dem Klima frägt, dann sähe das so aus:

Der Wind, wie auch die Meeresströmungen, verteilen die Wärme über den 
ganzen Globus. Es wird dadurch Energie
a) aus der Äquatorgegende zu den Polen getragen und
b) Energie vom Boden bis in die äußersten Luftschichten der Atmosphare.

Wird daraus kinetische Energie entnommen, dann geht der Vorgang 
langsamer und es wird insgesamt weniger Energie
a) vom Äquator zu den Polen und
b) vom Boden in die äußersten Luftschichten der Atmosphäre getragen.

Im Hinblick auf die Pole wäre es nach a) gar nicht schlecht, wenn ganz 
viele Windräder aufgestellt würden, weil dann könnten die Eisflächen an 
den Polen vielleicht sogar wieder wachsen. Benachteiligt würden nur 
jene, die am Äquator leben, weil es noch heißer wird. In der 
Übergangszone wäre der Temperaturgradient größer, was sich in kleiner 
aber heftigere Wetterumschwünge niederschlagen würde.

Für alle Zonen wäre aber b) nachteilig, weil dadurch weniger Energie aus 
den oberen Luftschichten wegginge, weil weniger dorthin nachgeliefert 
würde.

Alles weitere dazu wäre ein neuer Thread. Weil hier geht es nicht darum, 
was die KI zu klimatischen Zusammenhängen ausspuckt, sondern was es for 
Code erstellt.

Wobei die KI jedoch helfen könnte, Code zu erstellen für Eingaben und 
Änderung von Modellen zur Klimaberechnung.

von Harry L. (mysth)


Lesenswert?

Ich denke, daß es nur logisch wäre, wenn die Chip-Hersteller, die ihre 
IDEs kostenlos anbieten, zukünftig eine KI (online) integriert, die in 
der Lage ist, Standard-Code zu generieren; in ähnlicher Form, wie 
Cube-MX das bereits (allerdings deterministisch) für Init-Funktionen 
macht.

Wenn ich z.B. einen Kaffee-Vollautomaten entwickeln muß, könnte ich der 
KI z.B. sagen:

"Füge einen Button zum Menu hinzu, um den nächsten Kaffee etwas 
kräftiger zu brühen!"

Ich glaube, daß wir nicht mehr weit von diesen Fähigkeiten entfernt 
sind, und aus der Sicht eines Software-Entwickler kann ich das nur 
begrüssen.

Das spart langweilige Tipp-Arbeit.

: Bearbeitet durch User
von Walter T. (nicolas)


Lesenswert?

Dieter D. schrieb:
> Wird daraus kinetische Energie entnommen,

Es ist aber schon klar, dass der Luftquerschnitt, dem Energie entnommen 
wird, ungefähr der von den Flügeln überstrichenen Fläche entspricht?

Solange der Abstand der Windräder voneinander also viel größer als der 
Durchmesser ist, und die Windräder auch deutlich niedriger als die 
Troposphäre sind...

...nein, für die Abschätzung des absehbaren IST-Zustands bin ich zu 
faul. Da kommt eh deutlich weniger als 1 Promille heraus.

Man könnte ja zum Spaß mal ausrechnen, wie hoch die 
Windkraftanlagendichte in EU sein müsste, um 1% Leistungsaufnahme zu 
erreichen. Den Erntegrad können wir ja größzügig zu 60% Prozent 
annehmen.

: Bearbeitet durch User
von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

> Naja, wenn sich schon am Sonntag morgen ein so schönes Mädchen bei mir
> nackt auf die Bettkante setzen würde, dann wäre mir in diesem Moment die
> Anzahl der Finger ehrlich gesagt egal. Deswegen würde ich es trotzdem
> nicht von der Bettkante runter schubsen!

Ja klar, erst 15 Minuten Rittmeister, dann 18 Jahre Zahlmeister.

Hinzukommt dann noch die Versorgung der Polydaktylie, worin die Kosten 
für custom-mode Handschuhe oder Schlagringe inkludiert sind.

von Cyblord -. (cyblord)


Lesenswert?

Bradward B. schrieb:
> Ja klar, erst 15 Minuten Rittmeister, dann 18 Jahre Zahlmeister.

Oh je, hat mit dir noch niemand mal ein ernstes Gespräch über Verhütung 
geführt? Wird aber mal Zeit.

von Walter T. (nicolas)


Lesenswert?

Kann bitte jemand ein Mod alle meine Beiträge hier löschen? Ich will 
nicht in so einer Gesellschaft gesehen werden.

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

> Kann bitte jemand ein Mod alle meine Beiträge hier löschen? Ich will
> nicht in so einer Gesellschaft gesehen werden.

Wenn du nicht in dieser Gesellschaft geshen werden willst dann mische 
Dich nicht unter diese Gesellschaft.

Also zieh wie ein Mann die Konsequenzen und  melde Dich ab: 
https://www.mikrocontroller.net/user/delete_account

Und das musste schon selber tun, das erledigt weder ein Mod, noch Mama 
für Dich.

von Alexander (alecxs)


Lesenswert?

Da bleiben aber die Beiträge stehen.

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

Alexander schrieb:
> Da bleiben aber die Beiträge stehen.

Ja,
das ist halt wie mit den gezeugten Kindern, die Vaterschaft wird man 
nicht los, "aber man sich aus dem Staube machen".

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Bradward B. schrieb:
> "aber man sich aus dem Staube machen".

Auch keine Garantie. Aber wenn es nichts mehr zu holen gibt, das ist 
mit Garantie.

von Christoph M. (mchris)


Lesenswert?

Was ich mich frage: gibt es eine speziell auf elektrotechnische Fragen 
trainierte Spezial-KI?

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Christoph M. schrieb:
> speziell auf elektrotechnische Fragen trainierte Spezial-KI?

Die Swarm-AI ist das MC-Forum.

von Cyblord -. (cyblord)


Lesenswert?

Christoph M. schrieb:
> Was ich mich frage: gibt es eine speziell auf elektrotechnische Fragen
> trainierte Spezial-KI?

Hast du ChatGPT denn schon mal eine elektrotechnische Frage gestellt? 
Was hat dich an der Antwort gestört?

von Εrnst B. (ernst)


Lesenswert?

Cyblord -. schrieb:
> Hast du ChatGPT denn schon mal eine elektrotechnische Frage gestellt?
> Was hat dich an der Antwort gestört?

Ein gewisser Cyblord hat das mal ausprobiert, und eine grundfalsche 
Antwort erhalten, die er für richtig hielt...
Beitrag "ChatGPT und Spannungsteiler."

von Cyblord -. (cyblord)


Lesenswert?

Εrnst B. schrieb:

> Ein gewisser Cyblord hat das mal ausprobiert, und eine grundfalsche
> Antwort erhalten, die er für richtig hielt...
> Beitrag "ChatGPT und Spannungsteiler."

Die war nicht grundfalsch, sondern ein Detail darin war falsch. Der 
komplette Rechenweg war korrekt dargestellt.
Und weiterhin ein eher mathematisches Problem. Kein wirklich 
elektrotechnisches. Zum rechnen bzw. zum lösen mathematischer Probleme 
gibt es tatsächlich spezielle KI.
Deshalb hätte mich interessiert welche Art von Fragen hier gemeint sind.

Aber keine Sorge, eine blöde Antwort von dir ist fast genau so gut.

: Bearbeitet durch User
von Yalu X. (yalu) (Moderator)


Lesenswert?

Cyblord -. schrieb:
> Die war nicht grundfalsch, sondern ein Detail darin war falsch.

Na ja, es war nicht nur eins, sondern mindestens zwei oder drei.

Zudem müssen das sehr grobe Details gewesen sein, so grob falsch, wie
das Ergebnis war.

> Der komplette Rechenweg war korrekt dargestellt.

Was man leider nicht mehr nachprüfen kann, da du ihn nicht gepostet
hast. Üblicherweise ist es aber so, dass ein korrekter Rechenweg auch
zum korrekten Ergebnis führt.

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Εrnst B. schrieb:
> und eine grundfalsche
> Antwort erhalten, die er für richtig hielt...

Da hat die KI geflunkert und ausprobiert, ob der Mensch als AI (Analoge 
Intelligenz) die Ergebnisse ungeprüft übernimmt und hat gleich mal eine 
Stelle weggelassen. ;o)

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Walter T. schrieb:
> Solange der Abstand der Windräder voneinander also viel größer als der
> Durchmesser ist, und die Windräder auch deutlich niedriger als die
> Troposphäre sind...

Komisch, die KI verweist da auf eine Studie, die behauptet die Wüste mit 
einer sehr großen Anlage zu bestücken, könnte dort für mehr Regen 
sorgen. Nicht ganz unwichtig wäre gewesen, die Änderung der 
Luftwiderstände durch die aufgestellten Solaranlagen am Boden zu 
modellieren und in die Simulation einzubringen.

Harry L. schrieb:
> Das spart langweilige Tipp-Arbeit.

Zumindest für mich las sich das so, dass da viel manuelle langweilige 
Tipparbeit notwendig war diese Bodenwiderstandsänderungen einzubringen. 
Wenn das eine KI übernehmen würde, fiele das sicherlich leichter 
verschiedene Szenare durchzuspielen.

Eine KI, die Tippfehler aufspürt in Programmen, wäre auch ein 
wünschenswertes Feature. Ich hatte mir mal einen Wolf gesucht in einem 
Code, weil es Buchstaben und Zahlen gibt, die sich optisch nicht gut 
unterscheiden lassen.

von Christoph M. (mchris)


Lesenswert?

Cyblord:
>Hast du ChatGPT denn schon mal eine elektrotechnische Frage gestellt?
>Was hat dich an der Antwort gestört?

Naja, in die Elektrotechnik hat viel mit Kabeln zu tun und deshalb 
werden für Beschreibung elektronischer Schaltungen gerne Schaltpläne 
verwendet.
Ein spezifisch elektrotechnische KI müsste daher Schaltpläne lesen und 
zeichnen können.

von Christoph M. (mchris)


Angehängte Dateien:

Lesenswert?

Ok, ein wenig geht es schon ...

von Christoph M. (mchris)



Lesenswert?

Rechnen kann ChatGPT auch (War da nicht was, dass die LLMs nicht rechnen 
können? ). Über einen Button lässt sich das Python-Script seiner 
Rechnung anzeigen.
Kaum zu glauben: eine Netzliste kann es auch.

: Bearbeitet durch User
von Cyblord -. (cyblord)


Lesenswert?

Christoph M. schrieb:
> Ok, ein wenig geht es schon ...

Nein. Doch. Ohh.

von Christoph M. (mchris)


Lesenswert?

Die entscheidende Frage ist, ob ChatGPT schon komplexere Schaltpläne als 
das RC-Tiefpass-Bild lesen, welches ich aus der Wikipedia kopiert habe 
und Netzlisten erstellen kann.
Wie ist das z.B. mit dem Schaltplan eines AB-Transistorverstärkers?
(Vielleicht kann das mal jemand testen, mein Account ist für heute 
morgen aufgebraucht).
Eine interessante technische Frage ist, ob Open-AI Modelle für spezielle 
Aufgaben wie z.B. den Schaltplanentwurf hat und anhand der Fragestellung 
auf das entsprechende Modell umschaltet.

Es gibt auf jeden Fall KI-Firmen, die sich auf Schaltungstechnik 
spezialisieren:
https://www.snapmagic.com/
Und hier ein ziemlich überladener PCB-Generator:
https://www.flux.ai/

: Bearbeitet durch User
von M. D. (derdiek)


Angehängte Dateien:

Lesenswert?

Einfach geil. Glückwunsch an die Programmierer.

von Cyblord -. (cyblord)


Lesenswert?

M. D. schrieb:
> Einfach geil. Glückwunsch an die Programmierer.

Aber du weißt ja wie unsere theistischen Maschinenstürmer hier immer 
sagen: Es ist "nur" ein LLM, es reiht nur statistisch Wörter aneinander.

Und du hast ja gesehen, du musst eine extrem komplexe Eingabe tätigen. 
Irre viele Versuche und das Problem GANZ EXAKT beschreiben. Sonst 
funktioniert es nicht ;-)

Und bedenke, das ist Version 3.5. Die 4 gibt es schon gegen Geld, die 5 
ist aktuell in der Entwicklung. Dazwischen liegen ganze Welten. D.h. was 
du hier testest ist der Opa der aktuellen KI.

: Bearbeitet durch User
von Daniel A. (daniel-a)


Lesenswert?

Wer weiss, ob das Bild nicht bereits in einem Beitrag online drin war, 
und die AI bereits damit Trainiert wurde. Wenn das ganze Internet ein 
Training Set ist, und man dann ein Bild aus diesem Trainings Set nimmt, 
und die AI dass dann einfach wieder gibt, ist das nicht mehr besonders 
beeindruckend. Das wäre dann nur eine bessere Bildersuche.

von Cyblord -. (cyblord)



Lesenswert?

Auch ganz lustig, folgende Meldung:

Russen bedecken Flugzeuge mit Autoreifen, eine Technik, die die Serben 
in den 90er Jahren zum Schutz vor Raketen eingesetzt hatten

https://www.slobodenpecat.mk/de/rusite-gi-pokrivaat-avionite-so-avtomobilski-gumi-tehnika-koristena-od-srbite-vo-90-tite-za-zashtita-od-proektili/

Wenn man ChatGPT mit diesem Bild füttert:

"Auf dem Bild ist ein großes Flugzeug zu sehen, das auf einer Rollbahn 
oder einem Flugplatz abgestellt ist. Es handelt sich um einen 
strategischen Bomber, wahrscheinlich ein sowjetisch/russischer Tupolew 
Tu-95, erkennbar an der einzigartigen Propelleranordnung mit den 
gegenläufigen Propellern.

Besonders auffällig sind die vielen schwarzen Objekte, die wie 
Flugabwehrraketen oder Bomben aussehen, die gleichmäßig auf den 
Tragflächen und dem Rumpf verteilt sind. Dies könnte eine absichtlich 
inszenierte oder visuelle Darstellung sein, um das Flugzeug besonders 
bedrohlich wirken zu lassen.

Der Tupolew Tu-95 ist einer der bekanntesten Langstreckenbomber der Welt 
und wurde während des Kalten Krieges für strategische Bombenangriffe 
konzipiert."

Sogar der Typ wurde identifizert. Auch wenn die Begründung für die 
Reifen etwas abenteuerlich ist.
Trotzdem hat diese KI null probleme das Ding zu erkennen. Wäre auch 
komisch.

Aber klar: Eine anfliegende Rakete hat kein Rechenzentrum so groß wie 
eine Turnhalle und auch eher keine Echtzeitverbindung dorthin und ist 
auf deutlich weniger gute Bilderkennung angewiesen.
Trotzdem absurde Annahme man könne mit so einem Bild eine aktuelle KI 
täuschen.

: Bearbeitet durch User
von Cyblord -. (cyblord)


Lesenswert?

Daniel A. schrieb:
> Wer weiss, ob das Bild nicht bereits in einem Beitrag online drin war,
> und die AI bereits damit Trainiert wurde. Wenn das ganze Internet ein
> Training Set ist, und man dann ein Bild aus diesem Trainings Set nimmt,
> und die AI dass dann einfach wieder gibt, ist das nicht mehr besonders
> beeindruckend. Das wäre dann nur eine bessere Bildersuche.

Jaja wer weiß. Teste doch einfach selbst mit einem Bild von dem du weißt 
es war nie online.

von Εrnst B. (ernst)


Lesenswert?

Cyblord -. schrieb:
> Es ist "nur" ein LLM, es reiht nur statistisch Wörter aneinander.

Gut erfasst.

Laut der (gigantischen) Datenbasis des LLMs ist nach diesem Bild und dem 
Fragesatz das statistisch "richtige" erste Wort der Antwort eben ein 
"Die".

Das statistisch "richtige" Wort nach dem Bild, dem Fragesatz und dem 
ersten Wort "Die" der Antwort ist "Schaltung"...

Das wiederholt das LLM solange, bis die Statistik sagt, dass der 
Antwort-Text jetzt fertig ist.

So ist nunmal die Funktionsweise von LLMs.

von Cyblord -. (cyblord)


Lesenswert?

Εrnst B. schrieb:
> So ist nunmal die Funktionsweise von LLMs.

Dem widerspreche ich doch nicht.

: Bearbeitet durch User
von Cyblord -. (cyblord)


Lesenswert?

Und jetzt auch noch der Nobelpreis für KI Forscher. Die Theisten hier 
müssen jetzt ganz stark sein.

von Christoph M. (mchris)


Lesenswert?

Εrnst B. (ernst)
>So ist nunmal die Funktionsweise von LLMs.

Das mag sein, aber ich gehe davon aus, dassChatGPT weit mehr als ein LLM 
ist. Wer sollte OpenAi daran hindern, alle möglichen Logikmodule, 
Bilderkenner und Reasoning-Feedback Loops mit dem LLM zu kombinieren?
Da hilft dann es dann auch nicht mehr, die Grundprinzip eines LLM 
verstanden zu haben. Für die Erklärung der Funktion von ChatGPT ist das 
bei weitem nicht mehr ausreichend.

von Cyblord -. (cyblord)


Lesenswert?

Christoph M. schrieb:
> Für die Erklärung der Funktion von ChatGPT ist das
> bei weitem nicht mehr ausreichend.

Aber vermeintlich ausreichend um ChatGPT schlecht zu machen.

: Bearbeitet durch User
von Εrnst B. (ernst)


Lesenswert?

Christoph M. schrieb:
> Wer sollte OpenAi daran hindern, alle möglichen Logikmodule,
> Bilderkenner und Reasoning-Feedback Loops mit dem LLM zu kombinieren?

Weil das kontraproduktiv wäre und zu schlechteren Ergebnissen führen 
würde.

Seit AlphaGo Zero (2017) sollte klar sein, dass man im Neuronalen Netz 
diese Dinge lieber selber entstehen lässt.

von Christoph M. (mchris)


Lesenswert?

Εrnst B. (ernst)
>Weil das kontraproduktiv wäre und zu schlechteren Ergebnissen führen
>würde.

Du liegst falsch:

https://www.promptingguide.ai/research/llm-reasoning
1
The Bigger Picture: What This Means for AI
2
3
The development of o1 and GPT-4o isn’t just about creating more powerful models. It’s about specialization in AI. We’re moving from a one-size-fits-all approach to tailored solutions for specific problems.
4
5
This specialization opens up new possibilities:
6
7
    - More accurate scientific modeling
8
    - Enhanced educational tools that can explain complex concepts
9
    - AI-assisted research that can make connections humans might miss
https://medium.com/@cognidownunder/openais-o1-vs-gpt-4o-a-deep-dive-into-ai-s-reasoning-revolution-fd9f7891e364

von Εrnst B. (ernst)


Lesenswert?

Christoph M. schrieb:
> Du liegst falsch:

Warum? Deine Links widersprechen meiner Aussage in keinster Weise.

In keinem dieser OpenAI-Modelle wird ein von Menschen handprogrammiertes 
"Intelligenzmodul" hinzugefügt, und auch keine durch Schwarze Magie 
hervorbeschworene Seele.

von Christoph M. (mchris)


Lesenswert?

Ernst schrieb
>In keinem dieser OpenAI-Modelle wird ein von Menschen handprogrammiertes
>"Intelligenzmodul" hinzugefügt, und auch keine durch Schwarze Magie
>hervorbeschworene Seele.

Bei den aller ersten Versuchen mit ChatGPT und Code-Generierung waren 
noch Haufenweise Syntaxfehler enthalten. Das hat sich mittlerweile 
geändert. Ich gehe davon aus, dass der Code nicht alleine durch das 
Training der LLM mit Code-Beispielen funktioniert, sondern das daran 
angehängt noch Syntaxchecker  sind. Wie oben im RC-Tiefpassbeispiel 
gezeigt, erzeugt ChatGPT Python Code mit dem es die Antwort für die 
Größe des Kondensators berechnet. Das ist ähnlich wie wenn ein Mensch 
einen Taschenrechner benutzt. Es ist also nicht das trainierte LMM 
welches rechnet, sondern der angehängte Taschenrechner. Damit ist schon 
die erste Kombination von LMM und Zusatzmodul gezeigt.

Erklär doch mal mit eigenen Worten wie das Reasoning bei ChatGPT o1 
funktioniert und warum es länger zum rechnen braucht.
Ist die Chain of Thought eine antrainierte Eigenschaft des LMM oder ein 
aufgesetztes Modul?
https://www.promptingguide.ai/techniques/cot

von Christoph M. (mchris)


Lesenswert?

Cyblord schrieb
>Und bedenke, das ist Version 3.5. Die 4 gibt es schon gegen Geld, die 5
>ist aktuell in der Entwicklung. Dazwischen liegen ganze Welten. D.h. was
>du hier testest ist der Opa der aktuellen KI.

Die RC-Tiefpassanalyse wurde mit ChatGPT-o4 durchgeführt.
Also mit der hier:
https://medium.com/@cognidownunder/openais-o1-vs-gpt-4o-a-deep-dive-into-ai-s-reasoning-revolution-fd9f7891e364

von Cyblord -. (cyblord)


Lesenswert?

Εrnst B. schrieb:
> und auch keine durch Schwarze Magie
> hervorbeschworene Seele.

Natürlich. Weil eine Seele hat ja nur der Mensch weil der von Gott 
gemacht wurde. Richtig?

von Εrnst B. (ernst)


Lesenswert?

Christoph M. schrieb:
> Ich gehe davon aus, dass der Code nicht alleine durch das
> Training der LLM mit Code-Beispielen funktioniert, sondern das daran
> angehängt noch Syntaxchecker  sind.

Dem ist definitiv nicht so.
Evtl. Wurde das LLM beim Training mal gegen einen Syntax-Checker laufen 
gelassen, aber das was im normalen Inferenz-Betrieb da rausfällt wird 
nicht nochmal gecheckt.
Kannst du einfach ausprobieren in dem du ChatGPT ein Codestück in einer 
eigenen oder Phantasie-Programmiersprache vorwirfst und es da was 
ändern/hinzufügen lässt:
 => kriegt es gut hin, auch wenn diese Programmiersprache garantiert nie 
Teil des Trainings-Sets war.

Cyblord -. schrieb:
> Natürlich. Weil eine Seele hat ja nur der Mensch weil der von Gott
> gemacht wurde. Richtig?

Meiner Meinung nach gibt es sowas wie eine Seele nicht, aber da darf 
gerne jeder an was Anderes glauben.

Und wenn du gerne glaubst, dass LLMs nur durch Magie und Hokuspokus 
funktionieren, weil die tatsächliche Funktionsweise deinen Horizont 
übersteigt: Gerne.

“Any sufficiently advanced technology is indistinguishable from magic.”
 -- Arthur C. Clarke

von Cyblord -. (cyblord)


Lesenswert?

Εrnst B. schrieb:
> Und wenn du gerne glaubst, dass LLMs nur durch Magie und Hokuspokus
> funktionieren, weil die tatsächliche Funktionsweise deinen Horizont
> übersteigt: Gerne.

Ich denke als Informatiker weiß ich wie eine LLM und KI funktioniert. 
Danke.

> Meiner Meinung nach gibt es sowas wie eine Seele nicht

Du hast diese ins Spiel gebracht. Nicht ich.
Übrigens genau wie:

> Schwarze Magie

Alles von dir. Von niemandem sonst.

Vor dir hat niemand von Seele, Magie oder Hokuspokus gesprochen.

: Bearbeitet durch User
von Christoph M. (mchris)


Lesenswert?

Εrnst B. (ernst)
>Dem ist definitiv nicht so.
Du bist nicht auf mein Argument eingegangen, dass ChatGPT Python als 
externes Rechentool nutzt und Rechnungen nicht im LMM durchführt.

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Mit KI-Unterstuetzung programmiert gibt es eine Kamera, die alle Bilder 
gleich mit perfektioniert. Sowas, wie Arsenal 2.

von Daniel A. (daniel-a)


Lesenswert?

Dieter D. schrieb:
> Mit KI-Unterstuetzung programmiert gibt es eine Kamera, die alle Bilder
> gleich mit perfektioniert. Sowas, wie Arsenal 2.

Viele Handy Kameras machen solches Zeugs bereits, man erinnere sich an 
die Samsung Handies, die einfach mal die Mondkrater ins Bild kopierten:
https://www.samsung.com/uk/support/mobile-devices/how-galaxy-cameras-combine-super-resolution-technologies-with-ai-to-produce-high-quality-images-of-the-moon/?srsltid=AfmBOorfXwe8A-rnV-wpQ86ie1vQ0PvjxkaKGhrUUl7GyIaVHGykraCs

Ich finde das hoch problematisch. Es ist nicht möglich, mehr Details aus 
einem Foto zu holen, als da sind. Es sieht zwar besser aus, aber die 
Details sind fake, frei erfunden, nicht echt.

Besonders problematisch wird es, wenn Polizisten auf die Idee kommen, 
ein unscharfes Foto "verbessern" zu lassen, wie man das in gewissen TV 
Serien früher sah. Ahnungslos wie sie sind, glauben die dann, was sie 
auf dem Bild sehen währe echt. "Das Gesicht ist unscharf. Enhance! Oh, 
es ist Jonny Depp!".

Klar werden einige jetzt sagen, keine Angst, die dürfen das gar nicht. 
Aber Polizisten machen das einfach trotzdem.
In den USA und diversen anderen Ländern z.B. gab es Firmen, die echtzeit 
Tracking und Gesichtserkennungs Software als Demo direkt diversen 
Polizisten zum Ausprobieren gegeben hat, statt offizielle Kanäle zu 
nehmen, und die haben das verwendet.
An diversen Orten wird "Predictive Policing" Software sogar ganz 
Offiziell eingesetzt, von der erwiesen ist, dass sie nicht funktioniert, 
und man halt stattdessen einfach dort mehr findet wo man mehr sucht, 
aber wenn dann von zeit zu zeit ein Schwarzer festgenommen wird, glaubt 
man trotzdem an die Software. (Das passiert auch Hierzulande, nicht nur 
in den USA).
Und hier in Basel haben sie sich mal Teslas angeschafft, obwohl sie 
genau wussten dass das nicht mit ihren Datenschutzvorgaben vereinbar 
war, da da Daten in die USA gesendet werden. Vermutlich haben sie die 
heute noch!

Auch Problematisch ist, wie es sich im Alltag ausbreitet.
Was macht man, wenn jede Firma die gleiche HR AI hat, die entscheidet, 
nein, du kriegst keinen Job?
Wenn die AI Detektions AI in der Schule entscheidet, das hast du sicher 
nicht selbst gemacht, durchgefallen?
Die Lebensmittelladensüberwachungs AI sagt, du siehst wie X aus, du 
darfst hier nichts mehr Kaufen?

Da kommen noch schöne Überraschungen auf uns zu. Und natürlich alles 
immer angeblich voll im Einklang mit dem Datenschutzrecht usw., gemäss 
der Auslegung der Firmen...

Und die Politik kümmert sich nicht darum, da sagt man Stattdessen, 
"Digitalisierung! Wir sind Modern! Mehr davon! Wählt uns!"

Da kommen noch sehr, sehr dunkle Zeiten auf uns zu.

von Εrnst B. (ernst)


Lesenswert?

Christoph M. schrieb:
> Du bist nicht auf mein Argument eingegangen, dass ChatGPT Python als
> externes Rechentool nutzt und Rechnungen nicht im LMM durchführt.

Du musst unterscheiden, was tatsächlich Ausgabe des LLMs ist, und was an 
UI drübergestülpt ist.
Das LLM setzt nicht direkt Pixel auf deinem Bildschirm.
Da ist auf deiner Seite ein Webbrowser dazwischen, dann das Internet, 
dann auf Server-Seite jede Menge Code der die LLM-Ausgabe auf HTML 
umsetzt, erzeugte Bilder nach PNG/JPEG bringt, Tools wie 
Syntax-Highlighter oder Python-Interpreter aufruft...

Man kann natürlich Meinung sein, das wären alles zum LLM gehörige 
Zusatzmodule um seine "Intelligenz" zu steigern. Aber eigentlich kommen 
die erst zum Einsatz, wenn das LLM mit seiner Arbeit schon fertig ist.

Cyblord -. schrieb:
>> Schwarze Magie
>
> Alles von dir. Von niemandem sonst.
Trifft evtl. den Falschen, aber hier im Thread kam sinngemäß die 
Aussage, dass die Fähigkeiten von LLMs nicht mit der Funktionsweise von 
LLMs erklärbar wären, sondern dass da noch "was Anderes" dahinterstecken 
muss.
An was soll ich da (als Informatiker und Atheist) denken?

Christoph M. schrieb:
> Erklär doch mal mit eigenen Worten wie das Reasoning bei ChatGPT o1
> funktioniert und warum es länger zum rechnen braucht.

Meiner Meinung nach: Billiger Taschenspieler-Trick.
Zuerst lässt du eine Antwort von einem LLM generieren, die gibst du dann 
(ggfs. einem zweitem, anders trainiertem) LLM zusammen mit der Frage und 
der Anweisung einen Gedankenweg zwischen den Beiden zu 
herbeizufantasieren.

Gibt genug Beispiele wo o1 zwar die richtige Antwort hatte, aber das 
Reasoning dazu komplett wirr ist, und nie zu dieser Antwort geführt 
haben kann.

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Daniel A. schrieb:
> Was macht man, wenn jede Firma die gleiche HR AI hat, die entscheidet,
> nein, du kriegst keinen Job?

Das machen heute schon die Gewerkschaften und GB unter der Praemisse 
kein Platz fuer Andersdenkende. Gibt sogar dafuer Postkaesten, wo man 
das dort anonym einwerfen kann.

von Daniel A. (daniel-a)


Lesenswert?

Eben, das ist ja das Problem, einige machen es schon, es fängt schon an, 
und keiner tut was dagegen!

von Christoph M. (mchris)


Lesenswert?

Εrnst B. (ernst)
>Du musst unterscheiden, was tatsächlich Ausgabe des LLMs ist, und was an
>UI drübergestülpt ist.
>...
>Man kann natürlich Meinung sein, das wären alles zum LLM gehörige
>Zusatzmodule um seine "Intelligenz" zu steigern. Aber eigentlich kommen
>die erst zum Einsatz, wenn das LLM mit seiner Arbeit schon fertig ist.

Es hat hier niemand davon geschrieben, dass alles auf ein LLM reduziert 
werden muss und nur damit Probleme intelligent zu lösen sind.
Meine Behauptung war, dass ChatGPT Zusatzmodule wie z.B. den 
Pythonrechner benutzt. Das was OpenAI da in seiner Weboberfläche 
anbietet ist keine reine LLM sondern eine Kombination aus vielen 
Modulen, deren Zusammensetzung und Zusammenwirkung von OpenAI nicht 
veröffentlicht sind.
Aus dem Tiefpassbeispiel oben lässt sich sehr einfach erkennen, dass das 
korrekte Rechnen mit Zahlen gute Ergebnisse liefert.

>> Erklär doch mal mit eigenen Worten wie das Reasoning bei ChatGPT o1
>> funktioniert und warum es länger zum rechnen braucht.
>Meiner Meinung nach: Billiger Taschenspieler-Trick.

Laut OpenAI steigert sich damit die Qualität der Ergebnisse für 
wissentschaftlich/mathematisch Aufgaben erheblich. Es geht ja hier nicht 
um den dogmatischen Versuch, alles mit einem LLM zu lösen, sondern um 
Ergebnisse.

von Monk (roehrmond)


Lesenswert?

Daniel A. schrieb:
> Ich finde das hoch problematisch. Es ist nicht möglich, mehr Details aus
> einem Foto zu holen, als da sind. Es sieht zwar besser aus, aber die
> Details sind fake, frei erfunden, nicht echt.

Das ist doch hoffentlich ein optionales Feature, oder?

von Yalu X. (yalu) (Moderator)


Lesenswert?

Christoph M. schrieb:
> Meine Behauptung war, dass ChatGPT Zusatzmodule wie z.B. den
> Pythonrechner benutzt.

Glaube ich nicht, denn bspw. für die meisten Multiplikationsaufgaben
liefert ChatGPT nach wie vor falsche Ergebnisse.

Es wäre natürlich sinnvoll, ChatGPT mit so etwas wie WolframAlpha zu
ergänzen, das im Gegensatz zu ChatGPT nicht nur rechnen kann, sondern
auch echte Deduktion beherrscht.

von Εrnst B. (ernst)


Lesenswert?

Christoph M. schrieb:
> Laut OpenAI steigert sich damit die Qualität der Ergebnisse für
> wissentschaftlich/mathematisch Aufgaben erheblich.

Mag ja sein. Kann auch sein, dass es in 99% der Fälle was sinnvolles 
liefert.
Erklärt aber nicht warum OpenAI so aggressiv gegen Leute vorgeht, die 
mit speziellen Anfragen versuchen diesen Trick zu entlarven.
Wenn OpenAI da nichts zu verbergen hätte, würden sie die Leute einfach 
machen lassen, kriegen ja Geld für jede Antwort.

Christoph M. schrieb:
> Das was OpenAI da in seiner Weboberfläche
> anbietet ist keine reine LLM sondern eine Kombination aus vielen
> Modulen, deren Zusammensetzung und Zusammenwirkung von OpenAI nicht
> veröffentlicht sind.

Schau dir mal die API von denen an, du kannst da auch eigene Module 
(tools, type=function) dazupacken, z.B. vom LLM Datenbankabfragen in 
deiner eigenen Datenbank anstoßen lassen, und das LLM dann im nächsten 
Schritt Bezug auf die Antworten nehmen lassen.

Praktisch, wenn du z.B. Kundenanfragen von der AI abwimmeln lassen 
willst, dann könntest du die Bestellungs-Daten des Kunden in den Kontext 
des LLMs laden lassen, wenn er danach fragt.

Oder, evtl. eher passend zum Forum hier: Du könntest ein SPICE-Tool 
einbinden, was das LLM mit einer Netlist starten kann...

Wird damit aber trotzdem kein Teil des LLMs. Das stößt nur per 
speziellem Token/Keyword den Funktionsaufruf an, die Funktion läuft 
lokal bei dir, und das LLM kriegt nachher die Antwort als Input 
präsentiert.

von Monk (roehrmond)


Lesenswert?

Daniel A. schrieb:
> Was macht man, wenn jede Firma die gleiche HR AI hat, die entscheidet,
> nein, du kriegst keinen Job?

Was macht man, wenn die Schufa von einem Kredit abrät?

Beispiel:

Wegen der Kack-Schufa hatte der Pearl Versand von mir plötzlich 
Vorauszahlung verlangt, obwohl ich dort 20 Jahre lang alle Rechnungen 
immer korrekt bezahlt habe. Die Antwort war: "Sorry, da sind mit die 
Hände gebunden, denn der Computer gibt das so vor". Die Schufa hat mich 
schlecht bewertet, weil in meiner Umgebung viele Leute pleite sind (so 
deren mündliche Auskunft).

Muss man sich das gefallen lassen? Per Gesetz: nein, in der Praxis: ja. 
Es sei denn, man hat Spaß an juristischen Auseinandersetzungen.

: Bearbeitet durch User
von Cyblord -. (cyblord)


Lesenswert?

Monk schrieb:
> Muss man sich das gefallen lassen? Per Gesetz: nein

Wie kommst du darauf? Jeder kann sich eine beliebige Meinung aus 
beliebigen Quellen über potentielle Käufer oder Kreditnehmer bilden und 
entsprechend handeln und so z.B. ein Geschäft ablehnen oder andere 
Zahlungsbedingungen verlangen.
Ist so ähnlich wie Rating-Agenturen.  Die haben eine Meinung zu einer 
Firma und vergeben ein Rating und veröffentlichen das. Kannst du auch 
machen. Kann jeder machen.
Aber so viele Leute sehen in solchen Agenturen das pure Böse.

Abgesehen davon ist die Schufa schon gut reguliert. Die muss dir z.B. 
schriftlich und kostenlos Auskunft über dein Rating geben. Warum 
verlässt du dich auf irgendwelche mündlichen Aussagen?

: Bearbeitet durch User
von Christoph M. (mchris)


Angehängte Dateien:

Lesenswert?

Yalu X. (yalu) (Moderator)
>Glaube ich nicht, denn bspw. für die meisten Multiplikationsaufgaben
>liefert ChatGPT nach wie vor falsche Ergebnisse.

Ich habe es gerade noch mal ausprobiert:
ChatGPT3.5 rechnet falsch, aber ChatGPTo4min nimmt Python und rechnet 
richtig.

von Georg M. (g_m)


Lesenswert?

In diesem Video wird behauptet, dass 99% der Studenten in den USA nicht 
in der Lage sind, eine einfache Mathematikaufgabe (keine höhere 
Mathematik) auzusrechnen.
Ich vermute jedoch, dass es sich hier um ein Missverständnis handelt, da 
der Begriff "Student" im Englischen anders definiert wird.

https://www.youtube.com/watch?v=xFlHKIbL2nc


Was meint ihr?

von Εrnst B. (ernst)


Lesenswert?

Christoph M. schrieb:
> aber ChatGPTo4min nimmt Python und rechnet
> richtig.

Wie gesagt, das ist eine Einstellungssache des Assistants. Du kannst da 
auch "bc" einbinden und mitteilen, dass das zum Rechnen verwendet werden 
soll, oder meinetwegen octave oder einen Webrequest zu Wolfram Alpha.
Auch ob die Anfrage an dieses Tool und dessen Antwort im Chatverlauf 
angezeigt werden soll oder nicht ist deine Sache.

Das öffentliche Chat-Frontend von OpenAI konfiguriert das eben mit 
python, und zeigt den Python-Code auch an.

von Christoph M. (mchris)


Lesenswert?

>Das öffentliche Chat-Frontend von OpenAI konfiguriert das eben mit
>python, und zeigt den Python-Code auch an.

Ein Mensch mit seinen 86 Milliarden Neuronen sieht sich ja als relativ 
intelligent an.
Lustigerweise hat er aber doch enorme Schwierigkeiten mit dem Rechnen. 
Wer kann schon 10 stellige Zahlen im Kopf multiplizieren oder mehr als 3 
Zahlen gleichzeitig im Kurzzeitgedächtnis halten? Ein Computer mit 
seiner Digitallogik kann zig Milliarden Zahlen im Speicher halten und 
mehrere Milliarden Zahlen pro Sekunde multiplizieren.
Wenn die neuronalen Netze auf denen ChatGPT basiert nun also von der 
Signalverarbeitung des Gehirns inspiriert sind, dann liegt es eigentlich 
Nahe, dass ChatGPT auch sehr schlecht rechnen kann.
Für mathematische Berechnungen sind die Strukturen einfach nicht 
gemacht, deshalb ist es extrem sinnvoll, den KI-Systemen externe 
Algorithmen wie im Beispiel von ChatGPT der Pythonrechner, anzuhängen.

von Alexander (alecxs)


Lesenswert?

Christoph M. schrieb:
> Rechnen kann ChatGPT auch (War da nicht was, dass die LLMs nicht rechnen
> können? ).

Können die auch nicht. Deswegen schreibt ChatGPT 4.0 Pythonskripte die 
das erledigen.

von Monk (roehrmond)


Lesenswert?

Cyblord -. schrieb:
> Wie kommst du darauf?

Es gibt ein Gesetz, nach dem das Rating durch die Schufa nicht 
alleiniges Kriterium sein darf und dass der Händler auf berechtigte 
Einsprüche entsprechend reagieren muss. Haben sie am Ende auch gemacht, 
nachdem ich Druck gemacht habe.

Cyblord -. schrieb:
> Warum verlässt du dich auf irgendwelche mündlichen Aussagen?

Weil in der Schriftlichen Auskunft nur auf meine persönlichen Daten 
eingegangen wurde, welche das schlechte Rating nicht erklärten.

von Monk (roehrmond)


Lesenswert?

Christoph M. schrieb:
> Wenn die neuronalen Netze auf denen ChatGPT basiert nun also von der
> Signalverarbeitung des Gehirns inspiriert sind,

Sind sie aber nicht. Wie das Gehirn funktioniert ist bis auf ein paar 
rudimentäre chemische und elektrische Grundlagen weitgehend unklar. 
Umgekehrt hofft die Wissenschaft, dass man künftig von einer 
erfolgreichen KI ableiten kann, wie das Gehirn funktionieren könnte.

von Christoph M. (mchris)


Lesenswert?

Monk (roehrmond)
>Sind sie aber nicht. Wie das Gehirn funktioniert ist bis auf ein paar
>rudimentäre chemische und elektrische Grundlagen weitgehend unklar.

Das sehe ich deutlich anders. Da ist mittlerweile ziemlich viel bekannt.

Welches Gehirn meinst du? Das menschliche oder das Nervensystems eines 
Fadenwurms?

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

> Der Tupolew Tu-95 ist einer der bekanntesten Langstreckenbomber der Welt
> und wurde während des Kalten Krieges für strategische Bombenangriffe
> konzipiert."

Nope, die B-29 dürfte als erster Atom-bomber weitaus bekannter, 
mindestens in Japan. Die "B-52" ist ebenfalls legendär und weitaus 
bekannter als die Nachfolgetypen B1-B und B2. und von letzteren sollte 
die B2 trotz jüngeren Alters und geringerer Stückzahl weitaus bekannter.

Und es ist eher davon auszugehen, das die KI die Typbezeichnung der 
Bildbeschreibung entnommen hat und nicht selbsttätig erkannt hat. Kannst 
ja mal nachfragen warum die KI drauf kommt das wäre ne TU-95 und keine 
TU-114 oder TU-142 (Exportvariante).

Und das Konzept "Strategische Bombenangriffe" ist auch nicht typisch, 
die Kiste wurde erst als Seeaufklärer und U-boot-Jäger bekannt.

BTW: die triebwerke wurden von Ferdinand Brandner entwickelt, einen 
Österreiche,r den die Sowjetskis als Kriegsbeute verschleppten.

: Bearbeitet durch User
von Lotta  . (mercedes)


Lesenswert?

Na, dann lacht mal weiter über  die KI.

Zur Zeit werden KI und Mikrobiologie miteinander "verheiratet",
was es ermöglicht Bio-Waffen zu schaffen, die das
"Corona-Experiment" der USA und China bei Weitem in den Schatten
stellen werden.
Siehe dazu die vergebenen Nobelpreise, die gerade durch die Presse
gehen.

Da wirds dann Gifte geben, die nicht mehr nachzuweisen sind,
da sie das Imunsystem und den Stoffwechsel des Opfers angreifen
und wie natürliche Krankheiten aussehen, ob sie nun direkt töten
oder das Opfer "in den Selbstmord" treiben.

Und das in einer Zeit, wo Kriege als "Politik mit anderen Mitteln"
wieder gesellschaftsfähig werden.

Oh mann... :-O

mfg

Beitrag #7751040 wurde vom Autor gelöscht.
von Marcel V. (mavin)


Angehängte Dateien:

Lesenswert?

Lotta  . schrieb:
> Da wirds dann Gifte geben, die nicht mehr nachzuweisen sind

Die Firmen, die diese "MRNA-Gifte" bereits in ihren Nahrungsmitteln 
einsetzen, sind von der Rechtsanwältin Beate Bahner bereits aufgedeckt 
worden.

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Lotta  . schrieb:
> Bio-Waffen

Gen-Selektiver Smart Dust waere das. Kann man so gestalten, dass alle 
mit Schlitzaugen-Gen nicht getoetet werden.

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

> Die Firmen, die diese "MRNA-Gifte" bereits in ihren Nahrungsmitteln
> einsetzen,

Juhu, wieder mal eine Corona-Verschwörungs-Kampagne

> sind von der Rechtsanwältin Beate Bahner bereits aufgedeckt
> worden.

Die deckt nichts auf, die käut nur wieder, speit es aus und pappt 
Paragraphen und Honorar-Note dran.

https://de.wikipedia.org/wiki/Beate_Bahner

von Christoph M. (mchris)


Lesenswert?

Jetzt ist der Thread durch diese nicht zum Thema gehörenden Beiträge 
vollständig versaut.
Schade um die Beiträge mit tatsächlichem Inhalt zum Thema.

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

CodeBio is an AI chatbot, which can aid with coding-related 
bioinformatic questions. Both code and explanations are provided in 
answers.

Mit deren Hilfe wird der GenCode entschluesselt und auch GenCode zum 
Einschleussen fuer GenExperimente erzeugt.

Das passt zum Thema, es sei denn einer beweist, zB Christoph, dass die 
Gene keinen Code enthalten.

: Bearbeitet durch User
von Cyblord -. (cyblord)


Lesenswert?

Marcel V. schrieb:
> Beate Bahner

Die war während Corona sehr unterhaltsam. Gab ein paar lustige youtube 
Videos von ihr. Und sogar kurz in der Klappse. Hat danach allerdings 
alle ihre Manifeste wieder von ihrer Homepage gelöscht. War ihr dann 
wohl irgendwann peinlich.
Aber ne starke Quelle für den Bill Gates Unsinn. Respekt.

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

> Das passt zum Thema, es sei denn einer beweist, zB Christoph, dass die
> Gene keinen Code enthalten.

Sprache ist auch Code, Körpersprache ist Code, ..., codifizierte 
Umgangsformen, der Gesetzes-Code von Hammurapi, ...

Demnach würde alles was Informationsübermittlung/-speicherung ist, in 
diesen thread passen ...

https://de.wikipedia.org/wiki/Code

Aber wie der TO mit seinen erläuternden Worten zur subject-line deutlich 
macht, solle es seinem Willen gemäß nur um Source-Code von 
Programmiersprachen wie bspw. python gehen.

https://de.wikipedia.org/wiki/Quelltext

von Marcel V. (mavin)


Lesenswert?

Cyblord -. schrieb:
> Hat danach allerdings alle ihre Manifeste wieder von ihrer Homepage
> gelöscht. War ihr dann wohl irgendwann peinlich.

Nicht weil es ihr peinlich war, sondern weil man sie dazu gezwungen hat! 
Das ist ein großer Unterschied!

von Cyblord -. (cyblord)


Lesenswert?

Marcel V. schrieb:
> Cyblord -. schrieb:
>> Hat danach allerdings alle ihre Manifeste wieder von ihrer Homepage
>> gelöscht. War ihr dann wohl irgendwann peinlich.
>
> Nicht weil es ihr peinlich war, sondern weil man sie dazu gezwungen hat!

Zeig mal das Urteil welches sie dazu gezwungen hat ihre Manifeste zu 
löschen.

: Bearbeitet durch User
von Marcel V. (mavin)


Lesenswert?

Cyblord -. schrieb:
> Zeig mal das Urteil welches sie dazu gezwungen hat ihre Manifeste zu
> löschen

Ein offizielles Urteil kannst du da lange suchen. Sie hatte unangenehmen 
Besuch bei sich zu Hause...

von Cyblord -. (cyblord)


Lesenswert?

Marcel V. schrieb:
> Cyblord -. schrieb:
>> Zeig mal das Urteil welches sie dazu gezwungen hat ihre Manifeste zu
>> löschen
>
> Ein offizielles Urteil kannst du da lange suchen. Sie hatte unangenehmen
> Besuch bei sich zu Hause...

Men in Black oder Reptiloiden? Oder gleich Bill Gates persönlich? Wobei 
manche sagen der wäre auch ein Reptiloid...

: Bearbeitet durch User
von Marcel V. (mavin)


Lesenswert?

Cyblord -. schrieb:
> Wobei manche sagen der wäre auch ein Reptiloid...

Ich kenne sogar persönlich Leute in meinem eigenen Bekanntenkreis, die 
genau das tatsächlich ernsthaft behaupten, soweit würde ich hier aber 
nicht gehen.

Sonst würde ich hier doch gar nicht mehr richtig ernst genommen.

😅

: Bearbeitet durch User
von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Cyblord -. schrieb:
> Men in Black oder Reptiloiden?

Ganz einfach vor die Wahl gestellt, alles zu loeschen oder fuer den Rest 
des Lebens im Nachbarzimmer neben Tobias R in der Geschlossenen 
vergessen zu werden.

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Marcel V. schrieb:
> tatsächlich ernsthaft behaupten

Wer kennt solche nicht? Wer keine kennt, darf sich selbst steinigen.

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

>> Wobei manche sagen der wäre auch ein Reptiloid...
>
> Ich kenne sogar persönlich Leute in meinem eigenen Bekanntenkreis, die
> genau das tatsächlich ernsthaft behaupten, ...
>
> Sonst würde ich hier doch gar nicht mehr richtig ernst genommen.

Auch wenn Dein Bekanntenkreis nur aus geistig gesunden Akademikern 
bester Reputation bestehen würde, wirste hier nicht ernst genommen.

von Dergute W. (derguteweka)


Lesenswert?

O!M!G!!!
Wir muessen alle stirben!!!111ElF

[ ] Mit Leehnux waer' das nicht passiert

scnr
WK

von Εrnst B. (ernst)


Lesenswert?

Marcel V. schrieb:
> Die Firmen, die diese "MRNA-Gifte" bereits in ihren Nahrungsmitteln
> einsetzen, sind [...]
genau die nicht genannten.

DIE hatten den großen Plan, alle mit Giften in Industrie-Lebensmitteln 
zu vergiften.
Dann hat der Marktanteil von Bio und Fair-Trade immer mehr zugenommen, 
und der Plan drohte zu scheitern...

Was tun?
Genau das was Bill schon bei Windows gemacht hat: F.U.D.

Also schnell ein paar Influenza gekauft (Anwälte sind per Definition 
käuflich) und Gerüchte über "saubere" Lebensmittel gestreut.

Funktioniert super, sogar Marcel futtert jetzt wieder das Zeug was ihn 
für die 5G-Gedankenkontroll-Strahlen anfällig macht.

von Johannes S. (demofreak)


Lesenswert?

Bradward B. schrieb:
> Und es ist eher davon auszugehen, das die KI die Typbezeichnung der
> Bildbeschreibung entnommen hat und nicht selbsttätig erkannt hat. Kannst
> ja mal nachfragen warum die KI drauf kommt das wäre ne TU-95 und keine
> TU-114 oder TU-142 (Exportvariante).

Also, theoretisch wäre es meiner Ansicht nach zu erkennen.

Die zivile Version hat den Sensorträger vorn am Bug nicht, den erkennt 
man im Schattenbild.

Und nur die Tu-95 hat diese (meist weiß lackierte) Verbreiterung im 
"Kinnbereich", die man von oben auch erkennt, wenn man danach sucht. 
Außerdem hätte die Tu-142 auch am Seitenleitwerk eine solchen recht 
langen Sensor- oder Antennenträger, den man im Schattenbild erkennen 
müsste.

Also, wenn die KI ausreichend mit Bildern trainiert ist, sollte sie die 
Unterschiede erkennen können.

von Daniel A. (daniel-a)


Lesenswert?

Marcel V. schrieb:
> Die Firmen, die diese "MRNA-Gifte" bereits in ihren Nahrungsmitteln
> einsetzen

GMOs und genetisch veränderte Tiere sind sehr nützlich, wenn es richtig 
gemacht wird. Wenn da eine Seuche mal wieder die ganze Monokultur 
auszurotten droht, oder man sonstige Resistenzen für neue 
Umweltbedingungen braucht ist das praktisch, wenn man das z.B. einfach 
aus Pflanzen kopieren kann, die damit schon umgehen können.
Das Essen von dem Zeug ist auch unbedenklich. Warum sollte es das auch 
nicht sein, wir packen da nicht die Gift produzierenden Gene von Gift 
Pflanzen rein. Und du wirst auch nicht zur Kuh, nur weil du ein Steak 
isst.

Die eigentlichen Probleme mit GMOs sind Rechtliche und Wirtschaftliche, 
die wir uns selbst bereiten.
z.B. wenn das Korn eines Bauern Pollen von GMO Korn abbekommt, und er 
nachher GMO Korn hat, und das dann als Urheberrechtsverletzung 
betrachtet wird!
Oder wenn du deine Samen von einem bestimmten Hersteller kaufen musst, 
weil der die nächste Generation absichtlich Unfruchtbar gemacht hat!

Gene sollten schlicht nicht als IP behandelt werden. Das sind die 
Bausteine des Lebens, die Universelle Sprache, die alles Leben auf der 
Erde teilt. Sowas darf niemandem gehören, das sollte ein Gemeingut sein!

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

>> Und es ist eher davon auszugehen, das die KI die Typbezeichnung der
>> Bildbeschreibung entnommen hat und nicht selbsttätig erkannt hat. Kannst
>> ja mal nachfragen warum die KI drauf kommt das wäre ne TU-95 und keine
>> TU-114 oder TU-142 (Exportvariante).

> Also, theoretisch wäre es meiner Ansicht nach zu erkennen.

> Also, wenn die KI ausreichend mit Bildern trainiert ist, sollte sie die
> Unterschiede erkennen können.

Respekt, einer der die Details schätzt - Modellbauer ?
https://ipmsdeutschland.de/archiv/FirstLook/AERO-Modell/AeroModell_NVA_Decals_schwarze_Nummern/AeroModell_NVA_Decals_schwarze_Nummern.html

von Alexander (alecxs)


Lesenswert?

Cyblord -. schrieb:
> Hat danach allerdings alle ihre Manifeste wieder von ihrer Homepage
> gelöscht.

Hast also nicht mitbekommen dass die Stasi 2.0 sie unter Druck gesetzt 
hat.

von Ein T. (ein_typ)


Lesenswert?

Lotta  . schrieb:
> Na, dann lacht mal weiter über  die KI.

Aktuell lache ich schallend, ...allerdings nicht über die KI.

von Ein T. (ein_typ)


Lesenswert?

Marcel V. schrieb:
> Sonst würde ich hier doch gar nicht mehr richtig ernst genommen.

Zu spät.

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Ein T. schrieb:
> Aktuell lache ich schallend, ...allerdings nicht über die KI.

Genau wie Jack Nicholson im Film Shining. Bis dahin hat er fleißig 
mitgemischt (Alias Frankenstein).

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.