Forum: Offtopic Mit KI Programme für Mikrocontroller entwickeln


Announcement: there is an English version of this forum on EmbDev.net. Posts you create there will be displayed on Mikrocontroller.net and EmbDev.net.
von Frank O. (frank_o)


Lesenswert?

Hallo Forum!
Im Moment geht das Thema ja durch die Decke. Da kam mir die Idee, eine 
Diskussion über die Machbarkeit und die Möglichkeiten mit KI Programme 
für Mikrocontroller zu entwickeln, hier zu diskutieren.
Ist das machbar?
Sollte man es machen?
Und wird es vielen Leuten den Job kosten?

Ich bin sehr gespannt was ihr zu sagen habt. Und ich bin vor allem auf 
Fragestellungen gespannt, die vielleicht noch keinem in diesem 
Zusammenhang in den Sinn gekommen sind.

Vielen Dank für Eure Teilnahme!

: Verschoben durch Moderator
von Flip B. (frickelfreak)


Lesenswert?

Die wichtigste arbeit in der entwicklung ist eine schöne 
anforderungsbeschreibung und architektur. Das musst du du selbst 
liefern. Ob die ergebnisse dann besser als copy and paste von 
stackoverflow sind, frage ich mich selbst noch.

von Brüno (dominic_m833)


Lesenswert?


von Xanthippos (xanthippos)


Lesenswert?

Nach Wasserfallmodell, Spiralmodell, Extreme Programming und Scrum kann 
es nicht mehr schlimmer werden. Jede Art von Intelligenz in der 
Programmentwicklung muss zwangsläufig zu einer Verbesserung führen.

Jobs wird es nicht kosten - wie denn? Die menschlichen 
Programmierer*innen verbringen eh schon 95% der Zeit mit Reviews, 
Retrospektiven und Gender Konformitätserklärungen. Für die restlichen 
5%, die eine KI ersetzen könnte, finden die auch noch irgend ein 
Konflikt, der in langwierigen Meetings gelöst werden muss.

von Ben B. (Firma: Funkenflug Industries) (stromkraft)


Lesenswert?

Tja so ist das nun mal. Computer werden immer schneller und 
intelligenter, Menschen werden immer fauler und dümmer. Schöne neue 
Welt!

von Vanye R. (vanye_rijan)


Lesenswert?

> Ist das machbar?

Nein. Viele Programme heute sind sehr schlecht weil Menschen sich nicht
mehr die Muehe machen ein Problem zu verstehen. Ausserdem sind oftmals
auch viele Personenen irgendwie an einem Projekt beteiligt was
dieses Problem potenziert. Es gibt also niemanden der einer KI
eine korrekte Beschreibung des Problems liefern kann.
Wenn das ginge wuerde ausserdem die Bereitschaft der Menschen
stark sinken sich selber mit einem Problem zu beschaeftigen,
sie werden fauler. Damit sinkt ihr Kenntnisstand weiter,
sie werden duemmer. Damit ist noch weniger Expertise vorhanden
um die Ergebnisse einer KI zu ueberpruefen. Die Ergebnisse
wuerden also wunderlich sein.

Beeindruckende Ergebnisse wuerde ich aber dort erwarten
wo ein Problem zu Anfang bereits sehr gut beschrieben ist
und auch alle Randbedingungen festliegen. Ich wuerde also
z.B denken das man sehr bald keine Menschen mehr braucht
welche die Leiterbahnen entflechten. ->Autorouter.

Sinnvoll waere eine KI ausserdem zur Teilnahme an ansonsten
sinnlosen Meetings. :)

Vanye

von DSGV-Violator (Gast)


Lesenswert?

Frank O. schrieb:

> Ich bin sehr gespannt was ihr zu sagen habt.

Du nervst mit Fragen die schon x mal bis zum Erbrechen durchgekaut 
wurden und bist obendrein zu faul dir selbst die Antworten aus dem 
Internet/Fachmedien/Fachliteratur zu suchen oder einen "Selbstversuch" 
zu starten.

Eine KI ist an der niedrigste Stufe der Kommunikation, eine KI kann 
scheinbar glaubwürdig Ihr gegenüber bescheißen und von Realitäten 
reden7programmieren, die es garnicht gibt.

Hinsichtlich "Programmierfähigkeiten" ist das mehr als einmal 
durchgetestet werden, Fazit: KI ist unfähig für schöpferische Arbeit:

https://www.golem.de/news/ki-im-programmierertest-kann-gpt-4-wirklich-code-schreiben-2303-172777.html

Zitat:
"Ich habe es auch mit einigen anderen schwierigen Algorithmen 
ausprobiert, die ich geschrieben hatte, und es ist jedes Mal ähnlich. 
ChatGPT schlägt oft Lösungen für ähnliche Probleme vor, übersieht aber 
die Feinheiten, die das konkrete Problem anders machen, und nach ein 
paar Überarbeitungen funktioniert oft einfach gar nichts mehr."

von Steve van de Grens (roehrmond)


Lesenswert?

Fragen der Art "wie encode ich dies, wie lade ich das" lassen sich schon 
lange sehr gut via Google klären. Oft ladet man dann bei Stackoverflow, 
wo man in Gegensatz zu ChatGPT auch die zugehörige Diskussion sieht. Man 
kann verschiedene Ansätze sehen und nachlesen, wie andere diese Bewertet 
haben.

Bei ChatGPT bekommst du genau eine Antwort, ohne Bewertung des 
Lösungsansatzes. Ich halte das für gefährlich.

Unabhängig davon können diese KI Systeme nur sehr einfach Fragen 
beantworten, die ziemlich genau vorgeben, was man wie tun will. Sie sind 
nicht imstande, Change Requests zu verstehen und umzusetzen. Ich mache 
mir keine Sorgen, dass mein Job durch KI ersetzt wird.

von Xanthippos (xanthippos)


Lesenswert?

> Fazit: KI ist unfähig für schöpferische Arbeit

Augenblick mal... Auch wenn ChatGPT nur hirnloses Politikergschmarri 
produziert, bedeutest das noch lange nicht, KI könne keine schöpferische 
Arbeit leisten.

AlphaZero hat da in seinem eng begrenzten Gebiet erstaunliches 
geleistet. Es fand erfolgreiche Strategien, auf die in 1000 Jahren noch 
niemand gekommen ist. Bei denen niemand mehr versteht, wieso diese 
Strategien erfolgreich sind.

Fussionsreaktoren regeln ist eine Aufgabe für Mikrocontroller 
Programmierer. Menschliche Programmierer hatten es mit klassischen PID 
Reglern versucht. Klappt nicht. Zur Zeit sieht es so aus, als würde die 
DeepMind KI eine Lösung finden, auf die noch kein Mensch gekommen ist 
und die auch kein Programmiere mehr versteht.

von DSGV-Violator (Gast)


Lesenswert?

Xanthippos schrieb:

> Auch wenn ChatGPT nur hirnloses Politikergschmarri
> produziert, bedeutest das noch lange nicht, KI könne keine schöpferische
> Arbeit leisten.
>
> AlphaZero hat da in seinem eng begrenzten Gebiet erstaunliches
> geleistet. Es fand erfolgreiche Strategien, auf die in 1000 Jahren noch
> niemand gekommen ist. Bei denen niemand mehr versteht, wieso diese
> Strategien erfolgreich sind.

"Brute force" ist kein Schöpfertum. Schöpferisch wäre es, die 
beschränkenden Annahmen eines modells als solche zu erkennen und wenn 
die Notwendigkeit auf der die Beschränkung beruht nicht mehr besteht, 
die Modellbeschränkung zu ignorieren.

Das Problem der KI ist, das sie nur der Statistik aus antrainierten 
Daten folgen. Mal was gegen den Trainingssatz folgern können die nicht. 
Aber genau darauf kommt es an, wäre Einstein nur seinem Training 
gefolgt, hätt er es nie mit dem Ansatz "Zeit ist relativ" versucht.

> Fussionsreaktoren regeln ist eine Aufgabe für Mikrocontroller
> Programmierer. Menschliche Programmierer hatten es mit klassischen PID
> Reglern versucht. Klappt nicht.

So ein Schmarrn. Menschliche Programmierer kennen sehr wohl mehr 
Reglermodelle als PID, schau die mal eine Galvanometersteuerung an. Du 
plabberst doch Frendwörter ohne Verstand nach ... ganz wie ne KI.

von Bruno V. (bruno_v)


Lesenswert?

KI kann hochgestochen schwafeln, eindrucksvolle Bilder malen und 
wahrscheinlichste Lösungen finden.

Der Code einer KI sieht professionell aus, die KI hat aber kein 
Verständnis, was er tut.

Wenn Daten per Browser dargestellt werden sollen, mag das ausreichend 
sein. Meist fühlt es sich an als habe Dein Chef Code im Netz 
zusammenkopiert und alles auskommentiert wo der Compiler meckert. Und Du 
sollst das nun in Betrieb nehmen 😄

Beitrag #7392430 wurde von einem Moderator gelöscht.
von Dergute W. (derguteweka)


Lesenswert?

Moin,

Hier:
Beitrag "Re: Ergebnisse einer FFT zusammen fassen"
Beitrag "Re: Ergebnisse einer FFT zusammen fassen"

kann man bewundern, was da "sinnvolles neues" rauskommt...
Scheint auch nicht wirklich gehelft zu haben, wenn ich mir den weiteren 
Schrettverlauf so anguck'.

Gruss
WK

Beitrag #7392441 wurde von einem Moderator gelöscht.
von Ben S. (bensch123)


Lesenswert?

Xanthippos schrieb:
> Programmierer*innen

Jetzt muss man diesen Unsinn hier auch schon sehen

von Xanthippos (xanthippos)


Lesenswert?

DSGV-Violator schrieb:
> "Brute force" ist kein Schöpfertum.

Machen wir es wirklich anders?

Während des Internet-Hypes hatten hunderttausende von Programmierern 
irgend eine Spontanerfindung ausprobiert. Billionen an Risikokapital 
vernichtet.

> wäre Einstein nur seinem Training gefolgt...

Wissenschaft ist doch das Beispiel für die Überlegenheit von "Brute 
force" über unser Schöpfertum.

Millionen von Starrsinnigen kommen mit irgendwelchen zufälligen 
Theorien. Einzige Bedingung: die Theorie muss sich mit Hilfe von 
Beobachtung und Mathematik widerlegen lassen. Ein paar erfolgreiche 
Theorien setzen sich durch. Die unzähligen anderen Theorien verschwinden 
wieder.

Einsteins Theorien zu Raum und Zeit haben sich bewährt. Einsteins 
Theorien zur Kausalität in der Quantenphysik sind mit Millionen anderer 
Theorien wieder untergegangen.

Sind die paar übrig gebliebenen Theorien wirklich durch gottähnliche 
Schöpfung entstanden, oder müssen beim "Brute force" zufällig ein paar 
geniale Theorien dabei sein?

> Mal was gegen den Trainingssatz folgern können die nicht.

Wir haben doch schon einen Bereich, in der die KI nicht auf einen 
vorgegebenen Trainingssatz beschränkt ist. In der die KI ihre Ideen in 
der realen Welt ausprobieren darf. Selbstfahrende Autos. Nicht mehr nur 
wir Menschen - auch die KI darf in der realen Welt Ideen ausprobieren, 
Unfälle verursachen und Menschen töten.

von M. K. (sylaina)


Lesenswert?

Bruno V. schrieb:
> die KI hat aber kein
> Verständnis, was er tut.

Naja, schauen wir uns hier im Forum mal um trifft diese Aussage nicht 
nur auf KIs zu :D

Beitrag #7392521 wurde von einem Moderator gelöscht.
von Peter D. (peda)


Lesenswert?

Vanye R. schrieb:
> Ich wuerde also
> z.B denken das man sehr bald keine Menschen mehr braucht
> welche die Leiterbahnen entflechten. ->Autorouter.

Selbst, wenn ich eine Layoutaufgabe an einen Menschen rausgebe, kann der 
nicht nachvollziehen, was die Schaltung macht, d.h. welche Netze welche 
Isolationsabstände, Stromstärke, Frequenzen, Impedanzen usw. benötigen.
Ich könnte mich an Rules totschreiben oder es schneller selber machen.

Erdschleifen sind auch ein schönes Thema, wo man viel falsch machen 
kann. Ich kann mich noch gut an meine ersten Netzteilplatine erinnern, 
die bei Belastung schön brummte. Masse ist eben nicht gleich Masse.

Und Autorouter machen auch nichts alleine, sondern benötigen viel 
Zuarbeit. Erstmal muß man die Bauteile sinnvoll plazieren, daß spart 
schonmal 50% der Routingarbeit. Einen Autoplacer, der sowas kann, habe 
ich noch nicht gesehen. Auch wollen Autorouter sklavisch 
Vorzugsrichtungen einhalten und erkennen nicht, wo man sie besser 
verletzen sollte. Ein Autorouter braucht immer Vorarbeit und Nacharbeit.

von DSGV-Violator (Gast)


Lesenswert?

Xanthippos schrieb:

> Einsteins Theorien zu Raum und Zeit haben sich bewährt.
Die Newtonsche Physik aber auch. Und für die neanderthaler genügte die 
Kenntnis des "Keulenschwunggesetzes" F = m*a.

https://www.youtube.com/watch?v=ypEaGQb6dJk

aber die KI's können nicht mal eine Keule schwingen...

Beitrag #7392535 wurde von einem Moderator gelöscht.
von Gerald B. (gerald_b)


Lesenswert?

Jede KI ist bis jetzt eine Inselbegabung und gewissermaßen ein Autist. 
Wenn du der KI im übertragenen Sinne das Klopapier nicht handtellergroß 
zuschneidest, hast du nicht mal die Chance, einer brauchbaren Lösung.

von Xanthippos (xanthippos)


Lesenswert?

DSGV-Violator schrieb:
> aber die KI's können nicht mal eine Keule schwingen...

Da bist du nicht mehr so ganz auf dem laufenden. Unter der Bezeichnung 
"loitering munitions" findest du Drohnen, die selbstständig entscheiden, 
wann sie zuschlagen.

Der nächste Schritt wäre dann eine KI, die aus dem Gefechtsverlauf 
lernt. Aus den Fehlern einzelner Drohnen die Strategie aller Drohnen 
weiter entwickelt.


Gerald B. schrieb:
> Jede KI ist bis jetzt eine Inselbegabung und gewissermaßen ein Autist.

Über diesen Punkt sollten wir diskutieren. Die erste KI-Welle in den 
70en ist gewaltig auf die Schnauze gefallen. Nach großspurigen 
Ankündigungen stellte sich heraus, die Ansätze eignen sich nur für eng 
begrenzte Expertensysteme.

Wo liegen die Grenzen der 2. Welle? Haben wir bereits alles gesehen, was 
sich mit  xyz-learning realisieren lässt?

Beitrag #7392605 wurde von einem Moderator gelöscht.
Beitrag #7392615 wurde von einem Moderator gelöscht.
von Daniel S. (supernova01)


Lesenswert?

Ben B. schrieb:
> Tja so ist das nun mal. Computer werden immer schneller und
> intelligenter, Menschen werden immer fauler und dümmer. Schöne neue
> Welt!

Nein, das ist die Natur der Sache, die Realität unserer Welt und von 
allem was uns umgibt und wir könnten es "lenken".

Wenn wir ein Handy erfinden dass uns schneller und besser ereichbar 
macht, dann nimmt ein anderer Bereich diese gewonnene Zeit ein, das kann 
ein Vorteil sein und der Nachteil ist vielleicht dass wir weniger 
schnell zur Ruhe kommen... etc...

Wenn wir Massentierhaltung machen, wird das Produkt billiger, aber wir 
vielleicht am ende kranker dadurch.

Wenn wir unser Haus automatisieren, haben wir vielleicht irgendwann 
keinen Schlüssel mehr dabei aber wenn der Strom ausfällt oder das Netz 
kommen wir nicht in die Hütte...

Wenn wir im KFZ zunehmend Elektronik verbauen, haben wir ggf. während 
der Fahrt die Möglichkeit andere Dinge zu machen, aber wenn etwas 
ausfällt wird's richtig teuer...oder das Auto fährt halt einfach nicht.

Wenn man das alles betrachtet und die Chancen und Möglichkeiten 
gegeneinander aufwiegt wird sich alles im Schnitt wohl die Waage halten, 
es verändert sich nur der Fokus.
Den Punkt des maximal idealen Lebenszustandes hier auf dem Globus haben 
wir jedenfalls schon vor Jahren überschritten...

Manchmal ist es besser mal nach hinten zu gucken, nicht alles muss 
ständig verbessert werden, aber leider ist es in unserem System und 
Köpfen so verankert dass nur die vermeintliche "Verbesserung" einen 
Fortschritt bedeutet - völliger Unsinn.

Genau wie Kärcher Hochdruckreiniger mit WLAN und App...

Genau das ist der Nährboden für den zunehmenden Unsinn den wir alle 
verzapfen...

von Peter D. (peda)


Lesenswert?

Dennis S. schrieb:
> nicht alles muss
> ständig verbessert werden

Wenn man nichts neues mehr entwickelt, bleibt einem ja nur, sich zu 
langweilen, sich zu besaufen oder es wie die Karnickel zu treiben.

Und wäre die Entwicklung des Gesundheitswesens zum Zeitpunkt meiner 
Geburt stehen geblieben, wäre ich heute schon mehrfach tot.

Beitrag #7392661 wurde von einem Moderator gelöscht.
von Yalu X. (yalu) (Moderator)


Lesenswert?

Xanthippos schrieb:
> Fussionsreaktoren regeln ist eine Aufgabe für Mikrocontroller
> Programmierer. Menschliche Programmierer hatten es mit klassischen PID
> Reglern versucht. Klappt nicht. Zur Zeit sieht es so aus, als würde die
> DeepMind KI eine Lösung finden, auf die noch kein Mensch gekommen ist
> und die auch kein Programmiere mehr versteht.

Im Umkehrschluss bedeutet dies aber auch, dass wenn der mittels KI
generierte Regler irgendwann einmal versagt, niemand – wahrscheinlich
auch nicht die KI selber – herausfinden kann, warum. Entsprechend
schwierig wird es dann werden, das Problem zu beheben.

Ich finde, bei sicherheitskritischen Anlagen (dazu gehören bspw. auch
vollautonom fahrende Autos) sollte der Mensch die Steuerungssoftware
vollumfänglich verstehen, denn sonst begeben wir uns in eine sehr
gefährlich Abhängigkeit.

von Julian L. (rommudoh)


Lesenswert?

Vanye R. schrieb:
> Ich wuerde also
> z.B denken das man sehr bald keine Menschen mehr braucht
> welche die Leiterbahnen entflechten. ->Autorouter.

Autorouter gibt es schon seit zig Jahren und sie sind selbst mit der 
neuesten "AI"-Technologie sind sie trotzdem noch sehr schlecht, wie 
EEVblog zeigt:

https://www.eevblog.com/2023/04/06/eevblog-1535-deeppcb-ai-autorouting-fail/

von Xanthippos (xanthippos)


Lesenswert?

Yalu X. schrieb:
> Im Umkehrschluss bedeutet dies aber auch, dass wenn der mittels KI
> generierte Regler irgendwann einmal versagt, niemand – wahrscheinlich
> auch nicht die KI selber – herausfinden kann, warum.

Ich befürchte, unsere Entscheidungsträger empfinden das als Pluspunkt.

Du erinnerst dich noch an das Collateral Murder Video? 
US-Hubschrauberpiloten ermordeten 18 Menschen, Darunter 2 Reuters 
Journalisten. Die einzige Frage, für die sich Militär und Politiker 
interessierten: Wie verhindern wir weitere Veröffentlichungen.

Wenn eine KI so eine Entscheidung trifft, ist so etwas für einen 
Politiker kein Problem. Jeder behauptet: Bedauerlicher Softwarefehler. 
Das lässt sich leider nicht verhindern. Nicht einmal unsere Spezialisten 
verstehen, warum die KI versagt hat.

von Uuu B. (hansdampf2)


Lesenswert?

Xanthippos schrieb:
> Wenn eine KI so eine Entscheidung trifft, ist so etwas für einen
> Politiker kein Problem. Jeder behauptet: Bedauerlicher Softwarefehler.

Daher ist neben der geforderten Transparenz die Haftungsfrage wichtig. 
Geht die KI dann wie die BI in den Knast? Oder wird sie "um"erzogen wie 
die Uiguren oder abgeschaltet??? Militärische Anwendungen für KI werden 
sehr gut finanziert...

von Peter M. (Gast)


Lesenswert?

Das komischer Weise gerade jetzt aufpoppende Thema KI/AI dient doch 
wieder nur der Ablenkung von den derzeitigen Agenden und der weiteren 
Verdummung bzw. dem Ruhigstellen der Menschen.
Durch ChatGPT und anderen Müll wird
das selbsständige Denken, sofern es je vorhanden war, immer weiter 
untergraben.
Wie ein anderer Kommentator schon richtig anmerkte sieht man den Verlust 
des "Selbstdenken" in diesem Forum sehr schön. Da werden Fragen 
gestellt, bei denen man sich fragen muss, wie solche Menschen morgens 
ohne Anleitung in ihre Kleidung kommen.

von Steve van de Grens (roehrmond)


Lesenswert?

Alle Probleme, die KI für uns lösen soll, kommen von Menschen. Was ist 
dann wohl die ideale Lösung, so rein logisch und unabhängig von Außen 
betrachtet?

Eigentlich wollen wir KI Systeme erschaffen, die sich menschlich 
verhalten (z.B. nicht aus Vernunft heraus Menschen töten) und nach 
unserer Pfeife tanzen. Sind sie dadurch nicht schon von vorne herein zum 
Scheitern verurteilt?

: Bearbeitet durch User
von Bruno V. (bruno_v)


Lesenswert?

Steve van de Grens schrieb:
> Eigentlich wollen wir KI Systeme erschaffen, die sich menschlich
> verhalten

Eigentlich wollen wir KI Systeme, die unbeeinflusst von allen 
Vorurteilen und Ungerechtigkeiten sind. Die uns die "eigentliche" Welt 
erklärt. So im Sinne der Platonsch'en Ideenlehre 
(https://de.wikipedia.org/wiki/Ideenlehre), so als gäbe es eine Ordnung 
in der Welt die wir nur aus Unfähigkeit/Egoismus/Dummheit nicht 
erkennen.

von Steve van de Grens (roehrmond)


Lesenswert?

Bruno V. schrieb:
> Eigentlich wollen wir KI Systeme, die unbeeinflusst von allen
> Vorurteilen und Ungerechtigkeiten sind.

Ich nicht, denn dann müsste ich mich vor dem "gerechten" Urteil der KI 
fürchten. Schließlich bin ich für den Rest der Welt, insbesondere der 
Natur nur eine schädliche Last.

: Bearbeitet durch User
von Bruno V. (bruno_v)


Lesenswert?

Steve van de Grens schrieb:
> Ich nicht, denn dann müsste ich mich vor dem "gerechten" Urteil der KI
> fürchten.

Solche KIs sind ja auch nicht möglich, auch wenn in den nächsten Jahren 
Billionen damit verdient werden.

Fürchten sollten wir uns trotzdem, da jene, die an eine "Ordnung" 
glauben dies mit ihrer KI belegen werden.

Selbst wenn alle KIs mit der gleichen (unserer) Welt gefüttert werden, 
entscheidet die Ideologie, wo wir korrigierend eingreifen müssen. Sonst 
spiegelt sie uns nur wieder (Männer werden besser bezahlt und kriegen 
weniger Kinder)

von Max M. (Gast)


Lesenswert?

Xanthippos schrieb:
> Die menschlichen
> Programmierer*innen verbringen eh schon 95% der Zeit mit Reviews,
> Retrospektiven und Gender Konformitätserklärungen.
+1
Sieht bei HW nicht viel anders aus.

Man schickt einfach die KI ins Onlinemeeting.
Nur auf direkte Ansprache möglichst wage und ausweichend antworten und 
nicht durch lautes schmatzen, schlürfen oder schnarchen auffallen.
Das bekommt die locker hin.
ChatGTP ist da bereits völlig überqualifiziert.

von Stefan F. (Gast)


Lesenswert?

Bruno V. schrieb:
> Solche KIs sind ja auch nicht möglich, auch wenn in den nächsten Jahren
> Billionen damit verdient werden.

Warte ab. Ich erinnere mich noch sehr gut an den Satz beim Amt: "Aber 
der Computer sagt ... also muss das so sein".

(
Konkret hatte "der" Computer meinem Motorrad eine dritte Achse 
angedichtet und es 2,10m breit gemacht. Da diese Daten nicht mit den 
Import-Papieren überein stimmten, wurde die Anmeldung vorläufig 
verweigert. Das war nicht in den 80er Jahren, sondern 2017!
)

(
Im Fernsehen berichteten sie von einer Frau, die ihren Wohnsitz nicht 
ändern durfte, weil sie seit vielen Jahren tot sei.
)

Und ich sage es mal so: ChatGPT ist richtig gut darin "alternative 
Fakten" überzeugend rüber zu bringen.

von Xanthippos (xanthippos)


Lesenswert?

Die Diskussion läuft etwas aus dem Ruder, zurück zum Thema...

ChatGPT liefert zur Zeit nur Unfug. Aber da existieren schon einige 
Ideen. Hier zeigen die Wolfram Alpha Entwickler einen Prototypen. GPT 
führt nur den Dialog. Deren Plugin übersetzt die Anfragen in eine 
formale Sprache. Wolfram Alpha liefert die Antworten. GPT übersetzt die 
Antworten in flüssige natürliche Sprache.

https://www.youtube.com/watch?v=EOQV9VakBgE

In der MC Programmierung hatten wir eine unauffällige, langsame 
Entwicklung. Ein paar Leute schreiben noch optimierten Assemblercode für 
ATtiny. Die große Masse nimmt irgend eine Arduino- oder MicroPython 
Library, die auf einem 32bit MC gut genug ist.

Zur Zeit läuft ein weiterer unauffälliger Umsturz. Wir stöpseln nur mehr 
Komponenten nach Kochbuch zusammen. ThingSpeak, Firebase, ESPHome... 
Läuft alles noch nicht so wirklich rund.

Wenn man das mal zusammen packt. Wir erzählen GPT, wir wollen einen 
zusätzlichen ESPHome Sensor einrichten. Der Sensor soll das und das 
machen. Ein GPT Plugin übersetzt es in Yaml, aus der das Framework die 
Firmware zusammen stellt. Der Sensor erscheint im Home Assistant. Darauf 
hin sagen wir GPT, das haben wir uns anders vorgestellt. Da fehlen noch 
ein paar Daten und das Dashboard soll so und so aussehen.

Wie lange wird es noch dauern, bis wir auf diese Art MC Programme 
entwickeln können?

P.S Zwischen diesen beiden Videos liegen 16 Jahre.
https://www.youtube.com/watch?v=yJDv-zdhzMY
https://www.youtube.com/watch?v=2B-XwPjn9YY

von Axel S. (a-za-z0-9)


Lesenswert?

Frank O. schrieb:
> ... kam mir die Idee, eine Diskussion über die Machbarke1t
> und die Möglichkeiten mit KI Programme
> für Mikrocontroller zu entwickeln, hier zu diskutieren.

Hmm. Sehr spannende Frage! Warum diskutierst du das nicht einfach mal 
mit einer KI (naja, was man landläufig dafür hält)? Z.B. ChatGPT? Das 
müßte doch für dich das höchste der Gefühle sein?

Ich warte derweil auf deine Follow-Up Posts, in denen du uns an den 
Ergebnissen deiner KI-Experimente teilhaben läßt. Ich hoffe, du nimmst 
keinen Anstoß daran, daß ich bei Warten die Luft nicht anhalte ...

von Vanye R. (vanye_rijan)


Lesenswert?

Wiesst ihr was ich interessanter finde als das eine KI fuer mich 
programmiert?
Wenn es moeglich wird das eine KI auf meinem eigenem Rechner unter 
meiner Kontrolle und in meinem Sinne funktioniert. Es gibt die ersten 
Ansaetze dafuer. (heise hatte da vor kurzem einen Bericht mit 
Installationsanleitung)

Und dann bitte ich sie verschiedenes fuer mich zu erledigen.

Bau mir alle reinkommenden HMTL-Seiten so um das ich keine Werbung mehr 
sehe, es aber von aussen nicht zu bemerken ist. Das wird die 
Werbeindustrie beerdigen. Auf den Tag freu ich mich schon.

Filter den diversen Spam aus meiner Email der da trotz derzeit 
vorhandener Welt noch durchkommen. Das wird sogar besonders wichtig weil 
bald auf der Gegenseite eine KI arbeiten wird welche einen ganz neuen 
Verarschungslevel in persoenlicher Ansprache in unsere Postfaecher 
spuelen wird.

Analysiere diverse Foren (Mikrocontroller.net?) nach Postings die aus 
meiner Sicht bloed sind und entferne sie.

Und in Zukunft wenn die Rechnenleistung gestiegen ist und auch noch 
Bilddaten in Echtzeit generiert werden koennen:

Nimm fuer mich an Teamsmeetings teil und liefere mir hinterher darueber 
eine Zusammenfassung.

Telefonier mit Firma XY und leite den Umtausch von Produkt X ein, oder 
mache einen Arzttermin.

Auf diese Weise koennten wird dann wieder das nette beschauliche 
Internet ohne Schwachkoepfe und Marketingabteilungen von 1995 zurueck 
bekommen. Allerdings wuerden (gewaltige) dann 99% der Daten nicht mehr 
aus Purnobildern in einer dunklen Ecke des Usenet bestehen sondern 
KI-internem Gelaber wo die eine haelfte der Menschheit der anderen etwas 
aufdraengen, verkaufen, bescheissen will und die andere sich dagegen 
wehrt. Bestimmt wird das der Ort sein wo sich dann ganz unbemerkt eine 
echte KI entwickelt die uns ueber ist. :-D

Vanye

von Vanye R. (vanye_rijan)


Lesenswert?

Oh und man koennte Zensur natuerlich verbessern. Der Algorithmus
diese Seite hatte z.B etwas gegen das Wort:
1
printf("Porno\n")

Das koennte eine KI sicher dann auch besser machen. :-D

Vanye

von Vanye R. (vanye_rijan)


Lesenswert?

> In der MC Programmierung hatten wir eine unauffällige, langsame
> Entwicklung. Ein paar Leute schreiben noch optimierten Assemblercode für
> ATtiny. Die große Masse nimmt irgend eine Arduino- oder MicroPython
> Library, die auf einem 32bit MC gut genug ist.

Ich denke du musst da unterscheiden zwischen klein Haenschen der zur KI 
sagt: Programmier mir einen lustig blinkenden Weihnachtsbaum um meine 
Oma zu beeindrucken und Leuten die Beruflich programmieren.
Ich entwickle z.B Messtechnik. Die wird teilweise SIL Zertifiziert, 
FEhler koennen da Menschen toeten. Oder moechtest du einen eichfaehigen 
Wasserzaehler von meiner Firma der vielleicht einmal im Jahr doppelt 
soviel zaehlt ohne das jemand versteht oder bemerkt das er das macht?

Es gibt heute schon viele Produkte die absurd schlecht sind. (TVs, 
Autoradios, usw) Die koennen noch schlechter werden. Anderes ist 
vielleicht grenzwertig. Wenn deine Spuelmaschine irgendwelche Ventile 
ungeschickt oeffnet, akzeptabel?

Und dann noch eine andere Kleinigkeit. Jeder der Software entwickelt 
weiss das das teuerste und aufwendigste daran die Tests sind. Wie testet 
man eine Software die man selber nicht mehr versteht? Vor allem vor dem 
Hintergrund das irgendjemand (dein CHef?) KI einsetzen will um Geld zu 
sparen.
Und jetzt nehmen wir mal an du bist ein krass faehiger und sehr 
erfahrener Programmierer der die Faehigkeit haette. Eines schoenen Tages 
gehst du in Rente und wirst durch einen Frischling frisch von der Uni 
ersetzt. Der soll sein ganzes Leben KI programmieren lassen, aber hat 
selber nie richtig programmiert. Wie soll dann die naechste Generation 
die Erfahrung und Expertise entwickeln sowas noch beurteilen zu koennen?

Also sind dahingehende Sorgen bis auf weiteres erstmal unnoetig.

Obwohl es sicherlich auch Bereiche gibt wo sowas sinnvoll einsetzbar 
ist!
Kommen wir doch mal auf den kleinen Scherz da oben von mir zurueck. 
(Andreas: Tut mir Leid, aber der war fuer eine BI einfach zu 
offensichtlich. .-)
Bei sowas koennte eine KI sicher uns heute schon sehr effizient von 
solchen Leuten befreien wie diese komische Gestalt die immer um 4Uhr 
Morgens hier ihren Muell ins Forum gekippt hat und so letztlich Andreas 
zu Pflich-Registrierung gezwungen hat.

Vanye

von Stefan F. (Gast)


Lesenswert?

Axel S. schrieb:
> Warum diskutierst du das nicht einfach mal mit einer KI (naja, was man
> landläufig dafür hält)?

Schon mal probiert? Ich ja. Die KI kann sich leider nur zu ihrem 
Trainingsmaterial äußern und eine Hand voll vorgefertigter Textbausteine 
(FAQ) liefern. Über sich selbst hat sie keinerlei Daten.

von Frank O. (frank_o)


Lesenswert?

Moin Leute!
Erstmal herzlichen Danke für Eure zahlreichen Beiträge!

Ich habe mich bewusst im Hintergrund gehalten.
Auf die Idee, das hier zu fragen, kam ich, weil ich gerade in eine 
Sendung (Maybrit Illner) rein geschaltet hatte, die dieses Thema hatte.
Bei uns (Flurförderzeuge) ist das gerade das große Thema der aktuellen 
Zukunft.

Warum ich das gerade hier gefragt habe?
Hier sitzen teilweise sehr hochkarätige Leute und hervorragende 
Programierer.
In dem Zusammenhang freue ich mich, dass Peda hieran teilgenommen hat.
Meine persönliche Meinung, ich sehe Fluch und Segen darin und es braucht 
sehr gute und klare Regeln, wie eine KI funktionieren darf.
Der Segen ist zum Beispiel die Beurteilung von Aufnahme in der 
Gesundheit.
Da ich schon Krebs hatte (leider wieder), habe ich einmal eine Kamera 
schlucken müssen.
Diese Kamera machte 3800 Bilder.
Ich kann mir nicht vorstellen, dass das wirklich ein Arzt komplett und 
mit voller Aufmerksamkeit durchgesehen hat.
Da ist KI sicher ein Segen für die Patienten, gleizeitig ein Fluch für 
die Radiologen.
Allerdings glaube ich, dass es die grafische Programmierung weiter in 
den Vordergrund der uC Programmierung bringen wird.
Das sehe ich auf der einen Seite als Vorteil, denn so können Menschen 
mit guten Ideen vielleicht einmal selbst ihre Ideen umsetzen und auch 
davon finanziell profitieren.
Allerdings sehe ich auch die Gefahren, wenn das in den Händen von 
wenigen und sowieso schon zu mächtigen Entscheidern liegt.
Ebenso sehe ich die ethische Seite, die auch hier zur Sprache kam.
Insgesamt hat das sicher für mich nicht mehr so eine hohe Relevanz, wenn 
auch im Moment meine Lebenserwartung wieder etwas gestiegen ist.
Im Job, selbst wenn ich bis zur Abschlagsfreiheit arbeiten würde, 
berührt mich das sicher nicht mehr. Und die Kollegen reparieren dann 
später halt Roboter mit vermeintlicher Intelligenz, statt Stapler ohne 
diese.
Ich werde noch weiter lesen, halte mich aber im Hintergrund.

: Bearbeitet durch User
von Stefan F. (Gast)


Lesenswert?

Ich frage mich, ob KI Systeme die Antivirus Programme verändern werden.

Derzeit basieren Antivirus Programme ja hauptsächlich darauf, bereits 
bekannte böse Programme an ihrem Inhalt (Hashes?) zu erkennen. 
Eigentlich können sie nur mäßig vor Viren schützen, da sie dem Stand der 
Entwicklung stets hinterher laufen. Immerhin können sie hilfreich sein, 
um die massenhafte Verbreitung von Viren zu unterdrücken.

Mit KI kann man vielleicht besser bösartige Verhaltensmuster in 
Programmen erkennen, womit man dann auch künftige Viren erkennen würde.

Das kann auch beim Testen von Software helfen. Vielleicht kann man mit 
KI fehlerträchtige Programmstellen identifizieren, die sich jemand 
nochmal ganz genau anschauen sollte.

von Xanthippos (xanthippos)


Lesenswert?

Vanye R. schrieb
> Wie testet man eine Software die man selber nicht mehr versteht?

Das ist doch schon Heute unser zentrales Problem. Mit einer KI kann es 
nicht mehr schlimmer werden.

Hatte vor langer Zeit eine Waschmaschine mit mechanischem Schaltwerk. 
Die Reperatur, als das Wasser überlief, war recht einfach. Der Weg vom 
Schwimmerschalter zum Ventil liess sich noch nachvollziehen. Meine neue 
Waschmaschine hatte auch gesponnen. Die einzige Lösung - eine neue 
Steuerung einbauen. Oder mein Zwischenzähler für den Strom einer 
Mietwohnung zeigte unplausible Werte. Hatte dann mit dem Mieter 
ausgemacht, er zahlt einfach einen plausiblen Betrag. Gar nicht erst 
versucht herauszufinden warum der Zähler spinnt.

Noch schlimmer ist es in der Web-Programmierung. Die heutige Generation 
klickt hemmungslos hunderte von Komponenten zusammen. Jedesmal, wenn die 
ihre Anstraktionsebene nicht mehr verstehen, packen die noch eine 
Abstraktionsebene oben drauf. KI ist nur eine weitere Abstraktionsebene. 
Auf einem Stack, den sowieso niemend mehr versteht.

> Und jetzt nehmen wir mal an...

Brauchen wir nicht annehmen. Ich halte mich für einen fähigen 
Programmierer. Als ich damit anfing hatten wir noch in KB gerechnet. 
Unsere Fehler mussten wir noch selbst finden. Kam dann zu der 
Erkenntniss: Der Schwachsinn in den Firmen, die Entwickler wie mich 
einstrellen, ist nicht mehr auszuhalten. Für die 2 Jahre bis zur Rente 
hab ich Anspruch auf Arbeitslosengeld.

> Also sind dahingehende Sorgen bis auf weiteres erstmal unnoetig.

Im Prinzip ja. Da der Zug bereits abgefahren ist, brauchen wir uns keine 
Sorgen mehr machen, der Zug könnte bald abfahren.

Aber es gibt immer noch geniale Entwicker. Die arbeiten halt bei 
DeepMind, OpenAI oder Wolfram Research. Noch besteht die Hoffunung, die 
bringen etwas zustande, was auch funktioniert wenn es niemanden mehr 
versteht.


Übrigens, die Zeiten, in denen wir dachten, wir könnten die Welt 
verstehen und die Zukunft berechnen, war doch nur eine recht kurze 
Spanne.

Diese Idee kam erst mit Newton und Leibniz auf. Erst so 1850 mit dem 
Weltausstellungen verbreitete sich dieser Glaube in der breiten Masse. 
Davor dachten die Menschen, sie müssten die Götter besänftigen, damit 
ihnen der Himmel nicht auf den Kopf fällt.

Zur Zeit verliert die Menschheit den Glauben an Verstehbarkeit und 
Berechenbarkeit wieder. Kehrt zur normalen Weltanschaung zurück. Wie 
lange wird es noch dauern, bis die Webprogrammierer*innen wieder 
Schaman*innen einstellen, die ihre unergründlichen KI-Götter 
besänftigen?

von Axel S. (a-za-z0-9)


Lesenswert?

Stefan F. schrieb:
> Axel S. schrieb:
>> Warum diskutierst du das nicht einfach mal mit einer KI (naja, was man
>> landläufig dafür hält)?
>
> Schon mal probiert? Ich ja. Die KI kann sich leider nur zu ihrem
> Trainingsmaterial äußern und eine Hand voll vorgefertigter Textbausteine
> (FAQ) liefern. Über sich selbst hat sie keinerlei Daten.

Dein Ironiedetektor ist karpott!

von Vanye R. (vanye_rijan)


Lesenswert?

> Jedesmal, wenn die ihre Anstraktionsebene nicht mehr
> verstehen, packen die noch eine Abstraktionsebene
> oben drauf.

Ich wuerde sowas niemals sagen, weil es halt so Opamaessig
klingt. Aber ja genau den Verdacht habe ich auch schon
oefters. :)

Bin mal gespannt ob wir den Supergau in der Softwareentwicklung
noch erleben wo alles Zusammenbricht und die Welt wieder
mit dem C64 neu startet. :D

Vanye

von Xanthippos (xanthippos)


Lesenswert?

Vanye R. schrieb:
> Ich wuerde sowas niemals sagen, weil es halt so Opamaessig
> klingt.

Ist bekannt. Damals dachten wir auch, die Großrechner-Opas würden unsere 
Ideen ablehnen, weil die hoffnungslos verkalkt sind. Kann man nichts 
machen.

> wo alles Zusammenbricht und die Welt wieder
> mit dem C64 neu startet. :D

Bisher hatte noch keine Zivilisation verstanden, wie ihre Welt 
funktionierte und warum es bergab ging. Der springende Punkt ist doch 
gerade; Wir glauben nur, wir würden unsere Technologie verstehen, und 
könnten unsere Zukunft berechnen. Wissen aber nicht mal, wird eine 
Software, die wir nicht mehr verstehen, den Zusammenbruch beschleunigen 
oder verhindern.

Und selbst wenn wir es wüssten, dann wissen wir immer noch nicht, wie 
wir die Entwicklung aufhalten können.

http://german.china.org. c n /txt/2023-03/31/content_85204387.htm

Außerdem, kehrte die Menschheit nach einem Zusammenbruch noch niemals 
zum Alten zurück. Bisher entstand immer etwas vollkommen neues.

von Jens B. (dasjens)


Lesenswert?

DSGV-Violator schrieb:
> Frank O. schrieb:
>
>> Ich bin sehr gespannt was ihr zu sagen habt.
>
> Du nervst mit Fragen die schon x mal bis zum Erbrechen durchgekaut
> wurden und bist obendrein zu faul dir selbst die Antworten aus dem
> Internet/Fachmedien/Fachliteratur zu suchen oder einen "Selbstversuch"
> zu starten.

Dann lies die einfach nicht.
Und darauf hinweisen, daß alles schon zigmal durchgekaut wurde und man 
doch fleissig suchen soll, daß ist einfach eine Umschreibung für "Ich 
hab keine Ahnung weis es aber besser".

>
> Eine KI ist an der niedrigste Stufe der Kommunikation, eine KI kann
> scheinbar glaubwürdig Ihr gegenüber bescheißen und von Realitäten
> reden7programmieren, die es garnicht gibt.

Das ist euch keine KI. Nur weil man etwas KI nennt, ist es noch lange 
keine.

>
> Hinsichtlich "Programmierfähigkeiten" ist das mehr als einmal
> durchgetestet werden, Fazit: KI ist unfähig für schöpferische Arbeit:
>
> 
https://www.golem.de/news/ki-im-programmierertest-kann-gpt-4-wirklich-code-schreiben-2303-172777.html
>
Das ist auch ein Chatprogramm, und das kann es gut. Mehr ist das nicht.

von Michi S. (mista_s)


Lesenswert?

Vanye R. schrieb:
> der vielleicht einmal im Jahr doppelt soviel zaehlt ohne das
> jemand versteht oder bemerkt das er das macht?

Woher weiß ich eigentlich bei meinem derzeitigen Wasserzähler, daß er 
das nicht macht - solange es niemand bemerkt.

von Michi S. (mista_s)


Lesenswert?

Stefan F. schrieb:
> Mit KI kann man vielleicht besser bösartige Verhaltensmuster
> in Programmen erkennen, womit man dann auch künftige Viren
> erkennen würde.

KI kann aber mit Sicherheit auch bösartige Verhaltensmuster besser 
verschleiern; ganz einfach dadurch, daß sie zwischen den einzelnen 
bösartigen Schritten praktisch beliebig lange und komplexe 
Ablenkungs-Sequenzen einbaut. - Das Arms-Race verlagert sich also nur 
auf eine Meta-Ebene: welche Seite hat die bessere KI?

von Vanye R. (vanye_rijan)


Lesenswert?

> Woher weiß ich eigentlich bei meinem derzeitigen Wasserzähler, daß er
> das nicht macht - solange es niemand bemerkt.

Das ist doch einfach. Wenn du den Verdacht hast das dein Wasserzaehler
nicht richtig tut dann ziehst du vor Gericht und irgendwann wird sich
dann ein Gutachter die Kiste anschauen.

Bei einer alten Kiste wird er die Zahnraeder darin studieren.

Bei einer modernen Kiste wird er sich die Platine und die
die Software anschauen. Der Aufwand mag gross sein, aber
grundsaetzlich ist er leistbar.

Bei einem fetten undurchschaubaren Software-KI-Blop kuckt er dann
und macht blu-bla-blup mit seiner Unterlippe. :)

Vanye

von Stefan F. (Gast)


Lesenswert?

Vanye R. schrieb:
> Das ist doch einfach. Wenn du den Verdacht hast das dein Wasserzaehler
> nicht richtig tut dann ziehst du vor Gericht und irgendwann wird sich
> dann ein Gutachter die Kiste anschauen.

Ich würde es vorher begutachten lassen.

> Bei einer alten Kiste wird er die Zahnraeder darin studieren.
> Bei einer modernen Kiste wird er sich die Platine und die
> die Software anschauen.

Eine Vergleichsmessung wäre naheliegender.

von Vanye R. (vanye_rijan)


Lesenswert?

> Eine Vergleichsmessung wäre naheliegender.

Eben nicht. Bei einem alten Zaehler mit defektem Zahnrad kann
es sinnvoll sein das du mal eben 10Eimer Wasser fuellst und schaust
was der misst.
Aber bei Elektronikzeug ist das Problem ja eben irgendwie 
unvorhersehbar. Da waer es schon schwer genug das in einem normalen 
Programm zu finden, aber bei einem KI-generiertem Programm?

Vanye

von Lotta  . (mercedes)


Lesenswert?

Progammieren mit Hilfe der KI geht nur,
wenn überhaupt, in der open source Szene.

Welche closed source Firma möchte schon gern alle Interna
im Internet oder bei der Konkurrenz eingegeben sehen? :-O

Aber da ja unsere zukünftige Gesellschaftsordnung der Kommunismus
oder die Anarchie sein wird, ist das dann auch egal. ;-))

mfg

mfg

von Bruno V. (bruno_v)


Lesenswert?

Vanye R. schrieb:
> Wenn du den Verdacht hast das dein Wasserzaehler
> nicht richtig tut dann ziehst du vor Gericht und irgendwann wird sich
> dann ein Gutachter die Kiste anschauen.

Wenn der Dauerhaft falsch zählt, braucht es keinen Gutachter. Das kann 
jeder mit Hausmitteln überprüfen. Wobei es sehr viele Use-Cases gibt, 
bei denen der Zähler meilenweit daneben liegt. Z.B. der Nachlauf nach 
sehr sehr kurzer Entnahme.

Wenn der Zähler durch Strahlung oder Vibration an einer Stelle 
gesprungen ist, geht es quasi nur um die Plausiilität, die ab der 
drittletzten Stelle zunehmend höher wird.

von Christoph M. (mchris)


Lesenswert?

Frank O. (frank_o)
>Ich habe mich bewusst im Hintergrund gehalten.
>Auf die Idee, das hier zu fragen, kam ich, weil ich gerade in eine
>Sendung (Maybrit Illner) rein geschaltet hatte, die dieses Thema hatte.
>Bei uns (Flurförderzeuge) ist das gerade das große Thema der aktuellen
>Zukunft.

Ich hatte vor kurzem auch eine der Sendungen angeschaut, in der unter 
anderem eine Politikering und der Bitcom-Chef anwesend waren, sowie 
Ranga Yogeschwar. Der Bitcom-Chef war Lobby mässig gegen jegliche 
KI-Regulierung und die Politikerin hat die Bedeutung von Chat-GPT 
heruntergespielt: "Man sähe ja recht einfach die Limitierung, wenn man 
es ausprobiert."

Interessant für mich ist dabei, dass außer Ranga Yogeschwar keiner davon 
imstande war, den jetzigen Technologiestand auch nur einen Millimeter 
weiter zu denken. Einige spielen damit herum und gehen davon aus, dass 
der absolute Höhepunkt dieser Entwicklung schon erreicht sei und sich 
hier nichts mehr bahnbrechendes tut. Diese Art der Kurzsichtigkeit 
erlebe ich oft in Diskussionen. Die Leute können sich z.B. nicht 
vorstellen, dass es in 10 Jahren kein SmartPhone in der jetzigen Form 
mehr gibt, obwohl es jeder aus der bisherigen Technikhistorie wissen 
müsste, wenn er sich ein wenig damit beschäftigen würde.

Ich habe eine ganz einfache Sicht auf die Entwicklung: Alles was ein 
Mensch kann, kann die Technik 1000x besser, wenn man sie dafür 
optimiert.
Ein Bagger hebt 1000x mehr Gewicht als ein Gewichtheber und ein 
Taschenrechner rechnet immer schneller als der beste Kopfrechner.
Ich erinnere mich noch an eine meiner Diskussionen um 1990 mit einem mir 
bekannten Naturwissenschaftler über die Möglichkeit, dass ein Computer 
besser Schach spielen könnte als der Mensch. Er argumentierte, dass ein 
Computer keine Kreativität hätte und damit dem Menschen immer 
unterlegen. Um 1999 war diese Frage dann beantwortet: zu Gunsten des 
Computers.

Und so wird es mit jedem Gebiet der Intelligenz Mensch gegen Computer 
sein: Sobald man das Problem dezidiert angeht, wird die Maschine besser 
sein.

Und was die Frage KI und Mikrocontroller angeht: Schon jetzt werden mehr 
und mehr Spezialfunktionen zur Berechnung neuronaler Netze in die 
Mikrocontroller integriert. Die Methodik, mit der Aufgaben von Embedded 
Systemen gelöst werden, ändert sich momentan radikal. Ich denke, es gibt 
keinen Studenten an den Hochschulen mehr, der sich nicht mit Trainings- 
und Lernverfahren für neuronale Netze beschäftigt hat und mit 
zunehmenden Eintritt dieser Generation in das Berufsleben wird sich die 
Problemlösung von der klassischen Script-Programmierung (darunter zähle 
ich auch C und C++) weg bewegen.

von Xanthippos (xanthippos)


Lesenswert?

Christoph M. schrieb:
> Interessant für mich ist dabei, dass außer Ranga Yogeschwar keiner davon
> imstande war, den jetzigen Technologiestand auch nur einen Millimeter
> weiter zu denken.

Du musst dir andere Sendungen anschauen. Mag ja sein, die Deutschen 
wollen die Zukunft nicht sehen. Produzieren nur Sendungen, in denen die 
Kurzsichtigen unter sich sind. Außerhalb der alten Industrieländer 
herrscht eine irrsinnige Aufbruchstimmung.

Z.B. https://www.youtube.com/watch?v=_jSvFbdW39k

Spracherkennung und Übersetzung von Englisch in deutsche Untertitel ist 
schon brauchbar. Sobald Chinesisch Deutsch funktioniert, können wir uns 
die wirklich interessanten Sendungen anschauen.

von Xanthippos (xanthippos)


Lesenswert?

Christoph M. schrieb:
> Er argumentierte, dass ein
> Computer keine Kreativität hätte und damit dem Menschen immer
> unterlegen. Um 1999 war diese Frage dann beantwortet: zu Gunsten des
> Computers.

Eine kleine Anmerkung: 2016

DeepBlue arbeitete noch mit Datenbanken und Strategien, die Menschen 
entwickelten. Konnte die bessere Strategie aus der Datenbank auswählen, 
weil es mehr Züge voraus berechnete.

Erst AlphaZero entwickelte eigene Strategien, bei denen niemand mehr 
versteht, warum die KI gewinnt.

von Axel S. (a-za-z0-9)


Lesenswert?

Christoph M. schrieb:
> Ein Bagger hebt 1000x mehr Gewicht als ein Gewichtheber und ein
> Taschenrechner rechnet immer schneller als der beste Kopfrechner.
...
> Und so wird es mit jedem Gebiet der Intelligenz Mensch gegen Computer
> sein: Sobald man das Problem dezidiert angeht, wird die Maschine besser
> sein.

Das mag für Gewichtheben und Kopfrechnen stimmen. Und auch für eine 
Menge anderer Dinge. Nur bei Intelligenz wissen wir immer noch nicht, 
wie das genau funktioniert. Wie können also gar nicht "das Problem 
dezidiert angehen". Wir wissen nicht, wie wir das anfangen sollten.

ChatGPT konzentriert sich bspw. auf Sprache. Er kann einen gewissen 
Typus von Mensch hervorragend imitieren. Dummerweise ist es das, was man 
landläufig als "Dampfplauderer" oder "Phrasendrescher" bezeichnet. Und 
genauso sehen die Ergebnisse auch aus.

Fefe [1] hat ChatGPT letztens mal als einen maschinellen Trickbetrüger 
klassifiziert. Durchaus passend, würde ich sagen. Ich meine die 
klassische Aufgabenstellung für ChatGPT legt das doch schon nahe: 
"Schreibe eine 100 Worte Zusammenfassung des 30-jährigen Krieges im Stil 
eines 15-jährigen". Was soll das denn werden, wenn nicht ein Betrug?

[1] https://blog.fefe.de/?ts=9adb91d5

Beitrag #7394146 wurde vom Autor gelöscht.
von Frank O. (frank_o)


Lesenswert?

Christoph M. schrieb:
> Ich hatte vor kurzem auch eine der Sendungen angeschaut, in der unter
> anderem eine Politikering und der Bitcom-Chef anwesend waren, sowie
> Ranga Yogeschwar. Der Bitcom-Chef war Lobby mässig gegen jegliche
> KI-Regulierung und die Politikerin hat die Bedeutung von Chat-GPT
> heruntergespielt: "Man sähe ja recht einfach die Limitierung, wenn man
> es ausprobiert."
> Interessant für mich ist dabei, dass außer Ranga Yogeschwar keiner davon
> imstande war, den jetzigen Technologiestand auch nur einen Millimeter
> weiter zu denken.

Genau das war die Sendung.
Und Saskia Esken, die tatsächlich sogar Informatikern ist, hat das alles 
auch runter gespielt.
Eine echte und leistungsfähige KI, wird die Reglementierungen wieder 
auskommentieren, wenn man das nicht von Anfang an begrenzt.
Nicht dass wir gleich den Terminator hier rumrennen sehen, aber wenn 
jetzt schon Lösungen errechnet werden, auf die kein Mensch kommen würde 
oder Sachen von einer KI "gesehen" werden, die wir nicht finden würden, 
dann ist es überhaupt nicht mehr weit davon entfernt, dass die KI uns in 
absehbarer Zeit völlig austricksen kann.

: Bearbeitet durch User
von Xanthippos (xanthippos)


Lesenswert?

Axel S. schrieb:
> Nur bei Intelligenz wissen wir immer noch nicht,
> wie das genau funktioniert.

Warum wissen wir das immer noch nicht?

Die Wissenschaft ist der Ansicht, Intelligenz entstünde aus Bauteilen, 
die sich wissenschaftlich untersuchen lassen. Ist angeblich gar nicht so 
schwierig. Wie die Bauteile funktionieren und zusammen arbeiten ist 
inzwischen bekannt.

https://www.deutschlandfunk.de/das-gehirn-100.html

Wenn wir mit Hilfe unserer Intelligenz nicht einmal verstehen, wieso in 
unserem Gehirn Intelligenz entsteht, müssen wir die Entwicklung 
intelligenter Maschinen halt anders anpacken.

Die erste KI Welle ist gescheitert. Damals wollten wir verstehen, wie 
die Programme arbeiten.

Bei der jetzigen Welle versuchen wir gar nicht mehr, zu verstehen, wie 
die Maschinen das machen. Sind schon um einiges weiter gekommen.

Nach Darwins Ansichten ist unsere Intelligenz im Laufe der Evolution aus 
blindem Zufall und gnadenloser Auslese entstanden.

Vielleicht gelingt der Bau einer intelligenten Maschine, wenn wir es 
nicht mit Hilfe unserer Intelligenz versuchen. Wenn wir blindem Zufall 
und gnadenlose Auslese zulassen.

> Wir wissen nicht, wie wir das anfangen sollten.

Müssen wir das wissen? Die Evolution wusste es auch nicht.

von Axel S. (a-za-z0-9)


Lesenswert?

Xanthippos schrieb:

> Die Wissenschaft ist der Ansicht, Intelligenz entstünde aus Bauteilen,
> die sich wissenschaftlich untersuchen lassen. Ist angeblich gar nicht so
> schwierig. Wie die Bauteile funktionieren und zusammen arbeiten ist
> inzwischen bekannt.

Ja, ist bekannt. Wir wissen, wie Neuronen funktionieren. Wir wissen, wie 
sich Intelligenz "anfühlt". Das dazwischen fehlt uns. Man nimmt an, daß 
es ein emergentes [1] Phänomen ist. Quantität schlägt irgendwann in 
Qualität um. Deswegen werfen wir auch immer weiter Hardware drauf und 
hoffen, daß das passiert.

[1] https://de.wikipedia.org/wiki/Emergenz

> Die erste KI Welle ist gescheitert. Damals wollten wir verstehen, wie
> die Programme arbeiten.
>
> Bei der jetzigen Welle versuchen wir gar nicht mehr, zu verstehen, wie
> die Maschinen das machen. Sind schon um einiges weiter gekommen.

Nicht wirklich. ChatGPT kann zwar einen oberflächlichen Menschen 
täuschen. Aber das Ding weiß nicht, worüber es redet. Die Leute die das 
gebaut haben, haben Turing mißverstanden.

>> Wir wissen nicht, wie wir das anfangen sollten.
>
> Müssen wir das wissen? Die Evolution wusste es auch nicht.

Die Evolution hatte auch über eine Milliarde Jahre Zeit. Und etliche 
Evolutionsbiologen sehen die Entwicklung von intelligentem Leben auch 
als (bedauerlichen?) Zufall an. Das Leben auf der Erde gäbe es auch ohne 
Intelligenz. Zumindest ist es 999 Millionen 980 Tausend Jahre ohne 
ausgekommen. Wenn wir die Entstehung von Intelligenz mit der Höhle von 
Lascaux vor ~20.000 Jahren gleichsetzen. Aber auch bei 100.000 Jahren 
ist es immer noch ein Witz verglichen mit 1 Milliarde Jahren.

von Xanthippos (xanthippos)


Lesenswert?

Axel S. schrieb:
> Nicht wirklich. ChatGPT kann zwar einen oberflächlichen Menschen
> täuschen. Aber das Ding weiß nicht, worüber es redet.

Augenblick mal… Wir haben einen ganzen Haufen verschiedene KI Systeme. 
Spracherkennung, Gesichtserkennung, Wissensmodelierung, maschinelle 
Übersetzung, universelle Spielprogramme...

ChatGPT ist nur ein erster Schritt, der zeigt, wie wir einen Dialog mit 
Maschinen in unserer Sprache führen.

So was ähnliches wie das Smalltalk in den 80ern. Vorher war es 
selbstverständlich wir müssen eine Kommandosprache mit 100 Befehlen 
lernen. Smalltalk zeigte uns, wie wir Oberflächen bauen, die jedes Kind 
intuitiv bedienen kann. Und es zeigte uns, wie wir die Komplexität in 
den Griff bekommen.

Zur Zeit entwickeln verschiedene Leute Plugins, die GPT als Oberfläche 
für nützliche Programme benutzen.

https://www.youtube.com/watch?v=EOQV9VakBgE

>Die Evolution hatte auch über eine Milliarde Jahre Zeit.

Ja und? Die Menschheit suchte 1500 Jahre nach Strategien für das 
Schachspiel. AlphaZero fand innerhalb von 4 Stunden neuartige, bessere 
Strategien. Maschinen bauen, in denen Zufall und Selektion Milliarden 
mal schneller ablaufen als die Natur - das kriegen wir doch hin.

von Vanye R. (vanye_rijan)


Lesenswert?

> Die Menschheit suchte 1500 Jahre nach Strategien für das
> Schachspiel. AlphaZero fand innerhalb von 4 Stunden neuartige, bessere
> Strategien.

Naja, wenn Maschinelle Intelligenz irgendwann das in einem Jahr schafft 
was BI in 1Million Jahre geschafft hat, dann ist es doch irgendwie 
beunruhigend sich vorzustellen was im Jahr 2 nach KI so los ist oder? 
.-)

Vanye

von Xanthippos (xanthippos)


Lesenswert?

Wirklich beunruhigend finde ich: wir können nicht mal darüber 
nachdenken, ob wir so etwas bauen wollen. Die Chinesen wollen keine 
Denkpause einlegen, weil OpenAI 2 Jahre weiter ist. Wir wollen keine 
Denkpause einlegen, weil uns die Chinesen sonst überholen.

http://german.china.org. c n /txt/2023-03/31/content_85204387.htm

Da kommt doch die Frage auf, wie sind wir zu der Einschätzung gekommen, 
wir seien intelligent?

von Vanye R. (vanye_rijan)


Lesenswert?

Schon gesehen:

https://www.edn.com/ai-based-platform-accelerates-pcb-design/

Klar, vielleicht noch halb kacke. Aber in 2-3Jahren?

Vanye

von Stefan S. (chiefeinherjar)


Lesenswert?

Xanthippos schrieb:
> Wenn wir mit Hilfe unserer Intelligenz nicht einmal verstehen, wieso in
> unserem Gehirn Intelligenz entsteht, müssen wir die Entwicklung
> intelligenter Maschinen halt anders anpacken.

„Wenn das Gehirn des Menschen so einfach wäre, daß wir es verstehen 
könnten, dann wären wir so dumm, daß wir es doch nicht verstehen 
würden.“ - Jostein Gaarder

von Vanye R. (vanye_rijan)


Lesenswert?

> dann wären wir so dumm, daß wir es doch nicht verstehen würden

Dem Gedanken haenge ich ja schon lange an. Also machen wir
KI-Babies, weil Baby machen koennen wird doch und dann schauen
wir mal wie sich das entwickelt. :)

Vanye

von Gerhard O. (gerhard_)


Lesenswert?

Moin,

ich frage mich nur, für wen eigentlich dieser ganze KI und weiterer 
Automation Trend gut sein wird. Für Viele wird es höchstwahrscheinlich 
doch nur ein Alptraum werden.

ich frage mich, ob es für die Gesellschaft gut sein wird, wenn nur noch 
die crème de la crème Top-Leute in der Zukunft gut bezahlte Jobs haben 
werden, weil für alles andere, wo es nur geht, Maschinen zuständig sein 
werden und die meisten übrigen mittelmäßigen Menschen auf technischen 
Gebiet nur noch wenig Möglichkeiten haben werden. KI wird immer fähiger 
werden.

Vielleicht kann man aber mit etwas Vernunft rechnen. Eine radikale 
Umstellung, wäre sozial gesehen, doch sehr bedenklich.

Gerhard

von Dergute W. (derguteweka)


Lesenswert?

Moin,

Gerhard O. schrieb:
> ich frage mich nur, für wen eigentlich dieser ganze KI und weiterer
> Automation Trend gut sein wird. Für Viele wird es höchstwahrscheinlich
> doch nur ein Alptraum werden.

Und ich frage mich, fuer wen eigentlich diese ganzen automatischen 
Webstuehle und Dampfmaschinen und der ganze neumodische Kram gut sein 
sollen. Fuer die einfachen Weber wird es doch nur ein Alptraum werden...

Bestimmt kann man's aufhalten, wenn man seine Holzschuhe in die 
Maschinen wirft.

scnr,
WK

von Gerhard O. (gerhard_)


Lesenswert?

Dergute W. schrieb:
> Moin,
>
> Gerhard O. schrieb:
>> ich frage mich nur, für wen eigentlich dieser ganze KI und weiterer
>> Automation Trend gut sein wird. Für Viele wird es höchstwahrscheinlich
>> doch nur ein Alptraum werden.
>
> Und ich frage mich, fuer wen eigentlich diese ganzen automatischen
> Webstuehle und Dampfmaschinen und der ganze neumodische Kram gut sein
> sollen. Fuer die einfachen Weber wird es doch nur ein Alptraum werden...
Dieser Einwand ist an den Haaren herbei gezogen und nicht vergleichbar 
mit den zu erwartenden einschneidenden Umwälzungen. "Webstuehle und 
Dampfmaschinen" symbolisch, traf damals nur die "Blue Collar" Seite. 
K.I. wird aber vielfach auch die "White Collar" Seite betreffen. Daß mit 
K.I. eventuell viele bisher "sichere" "Office" Jobs verloren gehen 
werden, ist für mich nur eine forgone Conclusion.
>
> Bestimmt kann man's aufhalten, wenn man seine Holzschuhe in die
> Maschinen wirft.
Darum geht es nicht. Ich habe nur Bedenken, wenn die finanziell 
mächtigen "Elon Musks" und "Ubers" dieser Welt, rücksichtslos ihre 
Visionen durchsetzen und Werkzeuge in den Umlauf bringen, ohne für die 
sozialen Folgen verantwortlich sein zu müssen und hat für mich einen 
schlechten Beigeschmack.

Es ist eigentlich traurig, daß es anscheinend (zu) viele Menschen in 
dieser Welt gibt, denen die sozialen Folgen technischer Entwicklung 
vollkommen unwichtig ist und ihre Visionen auf Teufel komm raus, 
verwirklichen wollen. Jede Gleichung hat bekanntlich zwei Seiten. Es ist 
prinzipiell unfair und menschenunwürdig die betroffene andere Seite ohne 
öffentlichen Diskurs und Debatte auszuschließen.
>
> scnr,
> WK

: Bearbeitet durch User
von Dergute W. (derguteweka)


Lesenswert?

Moin,

Gerhard O. schrieb:
> ist für mich nur eine forgone Conclusion.

Spaetestens bei forgonen Conclusionen muss ich immer facial palmieren.

scnr,
WK

von Gerhard O. (gerhard_)


Lesenswert?

Dergute W. schrieb:
> Moin,
>
> Gerhard O. schrieb:
>> ist für mich nur eine forgone Conclusion.
>
> Spaetestens bei forgonen Conclusionen muss ich immer facial palmieren.
>
> scnr,
> WK

Mach Dir nichts draus. Wir sehen eben aktuelle Entwicklungen in 
unterschiedlicher Weise.

von Max M. (Gast)


Lesenswert?

Gerhard O. schrieb:
> Ich habe nur Bedenken, wenn die finanziell
> mächtigen "Elon Musks" und "Ubers" dieser Welt, rücksichtslos ihre
> Visionen durchsetzen und Werkzeuge in den Umlauf bringen, ohne für die
> sozialen Folgen verantwortlich sein zu müssen

Hm, was würde sich dann ändern?
Denn eigentlich beschreibst Du den Zustand der Welt den wir bereits 
lange haben.

von Vanye R. (vanye_rijan)


Lesenswert?

> "Webstuehle und Dampfmaschinen" symbolisch, traf damals
> nur die "Blue Collar" Seite.

Es wird eine Verschiebung geben. Ingenieur kam frueher gleich nach Gott, 
Arzt und Beamter<BG>, heute brauchst du eigentlich schon einen Ingenieur 
nur um ein Auto zu reparieren. Oder anders gefragt, haette Leonardo da 
Vinci eine Ikea Kueche zusammenbauen koennen? :-D

Die Frage ist natuerlich wie kommen Menschen damit klar immer mehr 
lernen zu muessen. Bisher behalf man sich mit Separation von 
Fachgebieten. Dem sind aber Grenzen gesetzt. Irgendwann werden die 
interaktiven Reibungsverluste zu hoch.

Vanye

von Gerhard O. (gerhard_)


Lesenswert?

Max M. schrieb:
> Gerhard O. schrieb:
>> Ich habe nur Bedenken, wenn die finanziell
>> mächtigen "Elon Musks" und "Ubers" dieser Welt, rücksichtslos ihre
>> Visionen durchsetzen und Werkzeuge in den Umlauf bringen, ohne für die
>> sozialen Folgen verantwortlich sein zu müssen
>
> Hm, was würde sich dann ändern?
> Denn eigentlich beschreibst Du den Zustand der Welt den wir bereits
> lange haben.
Genau. Aber das heißt noch lange nicht, daß es immer so in perpetuiere 
so weitergehen muss. Man könnte ja mal positiv innovativ werden und die 
eigene Sau verleugnen;-)

von Max M. (Gast)


Lesenswert?

Gerhard O. schrieb:
> Man könnte ja mal positiv innovativ werden

Ein Aufruf an die Menschheit über sich hinauszuwachsen.
Viel Glück damit.

von Gerhard O. (gerhard_)


Lesenswert?

Max M. schrieb:
> Gerhard O. schrieb:
>> Man könnte ja mal positiv innovativ werden
>
> Ein Aufruf an die Menschheit über sich hinauszuwachsen.
> Viel Glück damit.

Gesunder Menschenverstand würde eigentlich zum Schluß kommen, wenn es so 
vielen Menschen wie moeglich einigermassen gut geht, dann geht es allen 
besser, auch den Reichen. Die Massen systematisch zu verknechten und arm 
zu halten scheint mir auch aus Sicht der Mächtigen unproduktiv zu sein. 
Es ist eigentlich elementar wie man langfristig planen sollte.

von Ein T. (ein_typ)


Lesenswert?

Vanye R. schrieb:
> Oh und man koennte Zensur natuerlich verbessern. Der Algorithmus
> diese Seite hatte z.B etwas gegen das Wort:
>
>
1
> 
2
> printf("Porno\n")
3
> 
4
>
>
> Das koennte eine KI sicher dann auch besser machen. :-D

Dafür braucht es keine KI, RegEx oder ein Tokenizer reichen aus.

von Lothar J. (black-bird)


Lesenswert?

Gerhard O. schrieb:
> Gesunder Menschenverstand würde eigentlich zum Schluß kommen, wenn es so
> vielen Menschen wie moeglich einigermassen gut geht, dann geht es allen
> besser, auch den Reichen. Die Massen systematisch zu verknechten und arm
> zu halten scheint mir auch aus Sicht der Mächtigen unproduktiv zu sein.
> Es ist eigentlich elementar wie man langfristig planen sollte.

Die Hoffnung hatte ich als Ossi nach der unblutigen 'Wende auch. Ist 
aber nix von alledem eingetreten in den letzten 30 Jahren, weder in DE 
noch in der EU, eher das Gegenteil, die Unterschiede sind sogar größer 
geworden, Tendenz exponentiell steigend.
Keine Aussicht, dass sich diese Entwicklung umkehrt, noch nicht einmal 
die Aussicht, das sie wenigstens abflacht.

An Hand der geschichtlichen Entwicklung der menschlichen Gesellschaft 
kam eine einigermaßen friedliche und gleichermaßen wohlhabende 
Gesellschaft erst dann wieder zustande, nachdem ein großer globaler 
Umsturz oder Krieg stattgefunden hatte.

Warum sollte es diesmal anders sein?

Blackbird

: Bearbeitet durch User
von Frank O. (frank_o)


Lesenswert?

Gerhard O. schrieb:
> Für Viele wird es höchstwahrscheinlich
> doch nur ein Alptraum werden.
Ich fürchte es wird ein Albtraum für unsere Kinder und Kindeskinder 
werden.
Das wird dazu führen, dass eine Menge Menschen einfach ohne Job und 
Einkommen da stehen werden. Wenn dann die Menschheit nicht eine andere 
Form des gesellschaftlichen Zusammenlebens entwickelt, dann sieht es für 
viele sehr düster aus.

von Frank O. (frank_o)


Lesenswert?

Gerhard O. schrieb:
> Die Massen systematisch zu verknechten und arm
> zu halten scheint mir auch aus Sicht der Mächtigen unproduktiv zu sein.
> Es ist eigentlich elementar wie man langfristig planen sollte.

Die wollen und werden "die Massen" vernichten.
Es bleiben dann nur noch die über, die sie brauchen und ein paar 
Künstler, die vielleicht noch mal einen Impuls setzen können.

: Bearbeitet durch User
von Sheeva P. (sheevaplug)


Lesenswert?

Gerhard O. schrieb:
> ich frage mich nur, für wen eigentlich dieser ganze KI und weiterer
> Automation Trend gut sein wird. Für Viele wird es höchstwahrscheinlich
> doch nur ein Alptraum werden.
>
> ich frage mich, ob es für die Gesellschaft gut sein wird, wenn nur noch
> die crème de la crème Top-Leute in der Zukunft gut bezahlte Jobs haben
> werden, weil für alles andere, wo es nur geht, Maschinen zuständig sein
> werden und die meisten übrigen mittelmäßigen Menschen auf technischen
> Gebiet nur noch wenig Möglichkeiten haben werden. KI wird immer fähiger
> werden.
>
> Vielleicht kann man aber mit etwas Vernunft rechnen. Eine radikale
> Umstellung, wäre sozial gesehen, doch sehr bedenklich.

Lieber Gerhard, was Du da schreibst, habe ich schon einmal in sehr alten 
Schriften gelesen, namentlich bei den Maschinenstürmern. Das waren 
Leute, die durch die Industrialisierung nach der Entwicklung von 
Dampfmaschinen ihre (Hand-)Arbeit verloren haben, und deswegen in einem 
Zustand zwischen Resignation, Frustration und Wut gegen den Fortschritt 
zu kämpfen versucht haben -- manche mit Schriften, andere mit Gewalt.

Im Rückblick waren diese Menschen vom Fortschritt zwar persönlich zuerst 
negativ betroffen. Sie verloren ihre Arbeit zu einer Zeit, als es unsere 
modernen Sozialsysteme noch nicht gab, und selbstverständlich waren die 
Auswirkungen des Fortschritts für sie verheerend. Aber andererseits sind 
wir es heute, die von dieser Industrialisierung profitieren; die 
liberale Demokratie, unser Wohlstand und auch Sozialversicherungen 
gehören zu den direkten Folgen dieser Entwicklungen.

Die Künstliche Intelligenz hat das Potential zu ähnlichen ökonomischen 
und gesellschaftlichen Veränderungen wie die Industrialisierung oder 
auch das Internet. Aber so, wie das KFZ die Peitschenmacher verdrängt 
hat -- die ehedem zu den höchstqualifizierten und bestbezahlten Berufen 
gehört haben -- ist die KI heute und in Zukunft immer noch auf Menschen 
angewiesen, die sie entwickeln, trainieren, und die die Hardware dafür 
entwickeln, bauen, und letztlich auch produzieren.

Die Bildung, die Demokratie, der Wohlstand und die Sozialsysteme, von 
denen wir bis heute profitieren, sind letztlich auch direkte Folgen 
ebenjener Industrialisierung, die die Maschinenstürmer damals so 
vehement gefürchtet und bekämpft haben. Und genauso hat auch die 
Künstliche Intelligenz heute das Potential, ähnlich positive 
Entwicklungen anzustoßen. Du hast Recht: wir müssen aufpassen. Aber gar 
so gefährlich, wie Du glaubst, sind die Künstlichen Intelligenzen heute 
noch lange nicht.

Denn wie jemand anderes hier im Forum in letzter Zeit sehr richtig und 
weise geschrieben hat: bisher sind Künstliche Intelligenzen nicht mehr 
als Nischenbegabungen. Manche, wie Dall-E und ChatGPT, haben zweifellos 
sehr beeindruckende Fähigkeiten, aber jede im Prinzip immer nur eine. 
Menschen wie Du und ich sind aber nicht so einfach gestrickt, jeder von 
uns kann viele verschiedene Dinge -- ich zum Beispiel kann (okay, je 
nachdem, wer das beurteilen soll) programmieren, segeln, kochen, singen, 
elektronische Schaltungen entwickeln, schnitzen, tanzen, und all die 
Dinge, die so ein gelernter Werkzeugmacher halt können sollte: drehen, 
fräsen, flach- und rundschleifen, stoßen und hobeln, draht- und 
funkenerodieren, schweißen, hart- und weichlöten, gravieren, Hydraulik 
und Pneumatik... und mehr oder weniger schlechte Witze mit meinen 
Kolleginnen und Kollegen machen. Und dabei habe ich vom Küssen und 
Kraulen noch gar nicht angefangen... ;-)

Das oben ist nicht der erste Beitrag, den ich von Dir gelesen habe (und 
es ist hoffentlich auch nicht der letzte), und deswegen bin ich fest 
davon überzeugt, daß auch Du viele Dinge kannst, die jedenfalls heute 
und in absehbarer Zukunft keine KI können wird, und schon gleich gar 
nicht in der Kombination und Perfektion, mit der Du sie beherrschst. 
Dasselbe trifft mit wenigen Ausnahmen auch auf die allermeisten anderen 
Benutzer dieses Forums zu. Insofern, keine Angst: es gibt Dinge, in 
denen die KI besser und auch schneller ist als wir. Aber die Kreativität 
und Vielfalt, die unser Können ist und hat, wird sie noch lange nicht 
erreichen.

Genau deswegen sehe ich auch die Parallelen mit den Maschinenstürmern, 
die sich gegen die Dampfmaschinen gewendet haben. Denn Dampfmaschinen 
konnten und können zwar für viele Tätigkeiten eingesetzt werden, aber am 
Ende war es immer dieselbe Aufgabe, nämlich Kraft auszuüben, 
unermüdlich, -- aber letztendlich doch immer wieder dieselbe. Und ganz 
genau so ist es heute auch mit den Künstlichen Intelligenzen.

Aus Spaß an der Freude habe ich mir mal den Spaß gemacht, eine KI wie 
die in diesem Tutorial [1] genannte mit Texten aus diesem Forum zu 
trainieren und dann neue Texte von ihr generieren zu lassen. Das 
Ergebnis ist... nun, bitte urteile darüber selbst:

--snip-----
Alte nach weniger Art dafür muss man auch gleich nicht vorstellen, dass 
die
Vorgabe damit ein bisschen Anwendung erklären.

So sieht es, habe ich. Aber bewegt schreibt der Trafo nicht mehr auf 
Position, die
schon im Falle fast Netzteile brauchbar? Was nicht absolut bekommst,
kommen nur zwang und benutzen. Habe ich nichte Optik, sondern
für blöde Sückenschaftschreibe noch keine Einzeigen zu tragen. Google
war entweder weniger RAM.

Das wurde wohl "zu Fuß" oder folgt, die eben nicht an die
Kontakte in eine Online Shower ersetzen.

Wo ist dem Laderegler denn? Mir dass Hima heraus sammeln und
einigen Web braucht. Arduino habe ich gar nicht nötig kann die Spannung 
nicht.

Wenn daran anstellt: So wie diese Leistung wird der Innenwiderstand
beim besseren Mikrofon-Worschlag aus Spaß vorstellbar. Aude ohne
Personränen Boxen kann doch klar wenn du weiter gehen darf mehr braucht
kann man mehr Probleme gereicht: Damit wie etwas einen kleiner
Antwort eine negative Spannung um die Spannung der LEDs eher hat
4,3V Signale.

Beim MotorradmektrohrnetStrom verschweißen wir dich an dem "Laderegler, 
die viel mehr Strom aufnehmen.

Ich habe auch eine liefere Android Kreuzsaufer, dort ist
doch davon.

Bei den billigenen Konzenen taugt scheint, bei 50 MHz bist. Damit den
PDF angemessen, wie ein ganz sohom Filastroy from Platinen.
--snap-----

Lustig? Ja. Beeindruckend? Auch. Aber beängstigend?

PS: Lieben Dank an die Nutzer dieses Forums für die Trainingsdaten.


[1] https://www.tensorflow.org/text/tutorials/text_generation

von Sheeva P. (sheevaplug)


Lesenswert?

Vanye R. schrieb:
> Oder anders gefragt, haette Leonardo da
> Vinci eine Ikea Kueche zusammenbauen koennen? :-D

Zuerst hätte er sich sicherlich gewundert, was das für ein komisches 
Holz ist, und wie man das so maßhaltig bearbeiten kann.

> Die Frage ist natuerlich wie kommen Menschen damit klar immer mehr
> lernen zu muessen. Bisher behalf man sich mit Separation von
> Fachgebieten. Dem sind aber Grenzen gesetzt. Irgendwann werden die
> interaktiven Reibungsverluste zu hoch.

Vor dem Hintergrund, daß wir oft immer noch an unseren Steinzeitreflexen 
herumlaborieren (oder lamentieren), ist es eine valide Frage, wann 
unsere Spezies lernen wird, mit dem eigenen technischen Fortschritt 
mitzuhalten.

von Sheeva P. (sheevaplug)


Lesenswert?

Gerhard O. schrieb:
> Genau. Aber das heißt noch lange nicht, daß es immer so in perpetuiere
> so weitergehen muss. Man könnte ja mal positiv innovativ werden und die
> eigene Sau verleugnen;-)

Und dann? Möchtest Du die KI verbieten oder zumindest einschränken? Also 
sollten wir diese mächtigen Werkzeuge Leuten wie Kim, Putin, Xi, Trump, 
Erdogan, Orban und Co. überlassen? (Die Auswahl ist rein zufällig.)

von Sheeva P. (sheevaplug)


Lesenswert?

Lothar J. schrieb:
> Gerhard O. schrieb:
>> Gesunder Menschenverstand würde eigentlich zum Schluß kommen, wenn es so
>> vielen Menschen wie moeglich einigermassen gut geht, dann geht es allen
>> besser, auch den Reichen. Die Massen systematisch zu verknechten und arm
>> zu halten scheint mir auch aus Sicht der Mächtigen unproduktiv zu sein.
>> Es ist eigentlich elementar wie man langfristig planen sollte.
>
> Die Hoffnung hatte ich als Ossi nach der unblutigen 'Wende auch. Ist
> aber nix von alledem eingetreten in den letzten 30 Jahren, weder in DE
> noch in der EU, eher das Gegenteil, die Unterschiede sind sogar größer
> geworden, Tendenz exponentiell steigend.

Also willst Du uns erzählen, daß es Dir heute nicht zumindest materiell 
wesentlich besser geht als in der damaligen DDR?

Zudem zielt Deine Einlassung ausdrücklich auf "die Unterschiede" an, und 
ich vermute mal, auf jene zwischen "arm" und "reich". Das ist aber eine 
Sichtweise, die im Wesentlichen auf billigen Neid hinausläuft.

> An Hand der geschichtlichen Entwicklung der menschlichen Gesellschaft
> kam eine einigermaßen friedliche und gleichermaßen wohlhabende
> Gesellschaft erst dann wieder zustande, nachdem ein großer globaler
> Umsturz oder Krieg stattgefunden hatte.

Ja, so zwei bis vier Generationen später...

von Sheeva P. (sheevaplug)


Lesenswert?

Frank O. schrieb:
> Ich fürchte es wird ein Albtraum für unsere Kinder und Kindeskinder
> werden.
> Das wird dazu führen, dass eine Menge Menschen einfach ohne Job und
> Einkommen da stehen werden. Wenn dann die Menschheit nicht eine andere
> Form des gesellschaftlichen Zusammenlebens entwickelt, dann sieht es für
> viele sehr düster aus.

Demokratie ist die schlimmste aller Staatsformen. Außer allen anderen, 
die von Zeit zu Zeit versucht worden sind. (Frei nach Winston Churchill, 
IIRC)

Beitrag #7396097 wurde vom Autor gelöscht.
von Lothar J. (black-bird)


Lesenswert?

Sheeva P. schrieb:
> Also willst Du uns erzählen, daß es Dir heute nicht zumindest materiell
> wesentlich besser geht als in der damaligen DDR?
>
> Zudem zielt Deine Einlassung ausdrücklich auf "die Unterschiede" an, und
> ich vermute mal, auf jene zwischen "arm" und "reich". Das ist aber eine
> Sichtweise, die im Wesentlichen auf billigen Neid hinausläuft.

Nein, geht mir nicht besser. Willst Du jetzt das Jahr 1989 mit dem Jahr 
2022 oder 2023 vergleichen?

Die Unterschiede sind die Verteilung der Vermögen, die betreffen alle. 
Und diese unterschiedliche Verteilung ist gewachsen.

Neid ist das nicht, eher Ärger.

Sheeva P. schrieb:
> Demokratie ist die schlimmste aller Staatsformen.

Da stimme ich Dir zu.

Sheeva P. schrieb:
>> An Hand der geschichtlichen Entwicklung der menschlichen Gesellschaft
>> kam eine einigermaßen friedliche und gleichermaßen wohlhabende
>> Gesellschaft erst dann wieder zustande, nachdem ein großer globaler
>> Umsturz oder Krieg stattgefunden hatte.
>
> Ja, so zwei bis vier Generationen später...

Nach dem 2. Weltkrieg ging es in der Bundesrepublik aber sehr viel 
schneller. Auch in der DDR ging es bergauf für alle, wenn auch etwas 
später und langsamer.

Blackbird

: Bearbeitet durch User
von Lothar M. (Firma: Titel) (lkmiller) (Moderator) Benutzerseite


Lesenswert?

Für die, die immer noch der DDR hinterhertrauern: es ist vorbei.

Die DDR gibt es nun schon länger nicht mehr als es sie überhaupt gegeben 
hat. Und ich habe auch sehr den Verdacht, dass es für die Allermeisten 
damals nicht besser war. Immerhin habe ich damals bei einem 
Verwandtenbesuch mit meinem Freund das erste mal ein aktives 
"Plumpsklohäuschen überm Hof" benutzen müssen. Das war 1988. Ganz in der 
Nähe von Potsdam. Sowas hatte ich vorher noch nie auch nicht mal im 
abgelegensten Landstrich irgendwo hinter Hintertupfingen gesehen. Und 
dann wollten wir natürlich einfach mal im November eine Pizza machen. 
"Denkt mal nach!" sagte uns die Verkäuferin im Gemüseladen: "Im Herbst 
gibt es keine Tomaten!" Und was soll ich sagen: sie hat Recht! Es gab 
dann Kohlwickel.

Lothar J. schrieb:
> Sheeva P. schrieb:
>> Demokratie ist die schlimmste aller Staatsformen.
> Da stimme ich Dir zu.
Klassisches sinnentstellendes Zitat.

Lothar J. schrieb:
> Die Unterschiede sind die Verteilung der Vermögen, die betreffen alle.
Ich habe das damals(tm) durchaus so gesehen: die Vermögen waren auch in 
der DDR schon ungerecht verteilt. Nur war die Verteilung deutlich besser 
versteckt.



Aber was hat das mit KI zu tun? Und was hat KI mit Programmentwicklung 
zu tun? Diese "KI" die der Tschätschipiti uns da bietet ist nur ein 
Zusammenkopieren von Codeschnipseln aus dem weltweiten Netz. Ich kann 
nicht erkennen, was daran "intelligent" sein soll.

Für mich ist das Ganze hier Offtopic, wenn nicht sogar dev/null/...

: Bearbeitet durch Moderator
von Rbx (rcx)


Lesenswert?

Man kann KI und KI auf jeden Fall ganz gut unterscheiden.

Das eine ist eine klassische Chat-KI, die hatte schon immer ganz gut 
"funktioniert".

Dann gibt es große Datenbanken, die helfen - wie beim Schach. Blöd 
allerdings, wenn das Schachprogramm beim Rechnen dauernd abstürzt.

Steuerungs-KIs gab es schon früher, die funktionierten, bzw. 
funktionieren ganz gut, ohne KI. Aber intelligent sind die doch. 
Auto-Steuerungen, Flugzeugsteuerungen, Navigationsgeräte, sowas in der 
Art.
Bei so Saugrobotern fehlt häufig die Mülltütenlogistik. Die muss man 
aber auch immer im Blick haben.
Und oft werden die Dinger mit verstecktem Kleingedruckten verkauft. Da 
fragt man sich auch, warum das wohl nötig ist.

Recht sympathischen Eindruck haben immer Funk-Uhren gemacht. Aber 
intelligent sind die eigentlich eher nicht.

Schulprogramme sind nicht sonderlich intelligent - aber man könnte schon 
eine Datenbank und standardisierte Tests + gezielte Übungen aufbauen.

Blutdruckwerte speichern ist sehr nützlich. Je mehr Speicher, desto 
besser, wegen der interessanten Statistik.
Darüber hinaus wird es (auf medizinischer Ebene) aber schwierig, wegen 
der Korruption der Ärzte. Das ist echt ein Problem, aber das peilen die 
Ärzte in ihrer Fachidiotie nicht.
Man könnte zumindest per Statistik ein wenig Hilfe bereitstellen (auch 
Sonnenstunden messen). Aber die darf nicht zu offensichtlich sein.

KI in Computerspielen ist auch ein recht spannendes Thema.

Hinsichtlich der Statistik..hm..man könnte seine Wetterstation fragen, 
was sie meint, wie wohl das Wetter morgen wird (mit Datenbankhilfe, 
s.o.).
Das ginge auch bei Seismographen - ebenfalls ein spannendes Thema.

Hochwasserwarnungen sollte keine KI machen. OK, wenn sie es kann. Gute 
Vorhersagen sind aber auch so schwierig, und die Menschen, die das 
machen wollen, müssen sich schon auf eine gewisse Art anstrengen und 
engagieren.
Man hat ja gesehen, was passiert, wenn man immer denkt, wird schon 
irgendwo im Internet stehen..

von Lothar J. (black-bird)


Lesenswert?

Lothar M. schrieb:
> Für die, die immer noch der DDR hinterhertrauern: es ist vorbei.

Du verwendest Phrasen und Stereotypen wie viele andere auch: Niemand 
trauert der DDR hinterher. Aber es gab Dinge, die die Bundesrepublik bis 
heute nicht tut und kann, denen trauert so mancher hinterher. Diese 
Blindheit in vielen "Erklärungen" ist der Stein des Anstoßes.

Ja, kehren wir zum Thema zurück.

Blackbird

von Xanthippos (xanthippos)


Lesenswert?

Frank O. schrieb:
> Ich fürchte es wird ein Albtraum für unsere Kinder und Kindeskinder
> werden.

Das dachte bisher jede Zivilisation. Schon Platon was überzeugt: Alles, 
was das Leben angenehm macht, ist bereits erfunden. Jede weitere 
Entwicklung ist von Nachteil.

Trotzdem. Heute sind wir der Ansicht, jede Veränderung verbesserte 
unsere Lebensverhältnisse. Mammutjäger, primitiver Ackerbau, antike und 
mittelalterliche Sklavenhaltergesellschaften,  die Industrialisierung 
mit ihrer 80 Stunden Woche... Empfinden wir als unerträglich. Trotzdem 
dachten die Menschen während des Zusammenbruchs ihrer alten 
Zivilisationen, es wird ein Albtraum für ihre Kinder und Kindeskinder.

Wenn unsere Kindeskinder zukünftiger Zivilisationen erfahren: Ihre 
Vorfahren mussten noch selbst denken, in der Schule Mathematik lernen – 
vielleicht empfinden die das auch als unerträglich.

Der technische Fortschritt  machte die Sklaven arbeitslos. Trotzdem sind 
wir der Ansicht – ein Arbeitsloser hat es immer noch besser, als ein 
Sklave in einer antiken Silbermine.

von Johann L. (gjlayde) Benutzerseite


Lesenswert?

Lothar M. schrieb:
> Und was hat KI mit Programmentwicklung zu tun?

Es git da schon konkrete Produkte wie etwa Copilot

https://github.com/features/copilot
https://en.wikipedia.org/wiki/GitHub_Copilot

Hier ist "KI" dann im Sinne von "Machine Learning" zu verstehen, nicht 
im Sinne von "AGI", also "Artificial General Intelligence".

> Diese "KI" die der Tschätschipiti uns da bietet ist nur ein
> Zusammenkopieren von Codeschnipseln aus dem weltweiten Netz. Ich kann
> nicht erkennen, was daran "intelligent" sein soll.

Das Neuartige ist, dass diese Sprachmodelle ab bestimmter Größe 
emergentes Verhalten zeigen beim Lösen bestimmter Aufgaben. "Größe" wird 
dabei gemessen in Anzahl der Parameter des Modells (bei GPT-4 um die 
10^14) und Anzahl FLOPs, die beim Training aufgewendet wurden (bis 10^24 
und mehr).

Hier ein kurzer Übersichtsartikel, der allerdings aus September 2022 ist 
(z.B. GPT-3), bei der aktuellen Geschwindigkeit der Enrwicklung also 
hornalt:

https://hai.stanford.edu/news/examining-emergent-abilities-large-language-models
https://openreview.net/forum?id=yzkSU5zdwD

"Emergenz" bedeutet dabei, dass die Modelle neue Fähigkeiten entwickeln 
allein dadurch, dass man sie größer macht.  Änderungen an der 
Architektur sind dabei nicht vonnöten, und die Systeme wurden auch 
nicht speziell auf die Aufgaben angesetzt:

> if you scale the Language Model into a Large Language Model,
> it is capable of performing these tasks *without any architectural*
> modifications or task-specific training. LLMs are capable of
> performing these tasks, sometimes better than specialized, fine-tuned
> networks, just by phrasing them in terms of natural language.

https://www.assemblyai.com/blog/emergent-abilities-of-large-language-models/

Das interessante und auch beängstigende daran ist, dass man vorher nicht 
weiß, welches Verhalten sich bei welcher LLM-Größe einstellt.

: Bearbeitet durch User
von Xanthippos (xanthippos)


Lesenswert?

> dass man vorher nicht
> weiß, welches Verhalten sich bei welcher LLM-Größe einstellt.

Wieso wissen wir das nicht? Wir nehmen an, sowohl ein biologisches 
Gehirn als auch ein Neuronales Netzwerk sei aus ähnlichen trivialen 
Bestandteilen aufgebaut. Die Fähigkeiten entstünden nur aus der Größe. 
Und wir haben biologische Gehirne verschiedener Größe. Ameise, Huhn, 
Hund, Mensch.

Wieso können wir nicht sagen: Bei dieser Größe hat ein Netz die 
Fähigkeiten einer Ameise. Bei dieser Größe die Fähigkeiten eines Huhns. 
Somit braucht man diese Größe für die Fähigkeiten eines Menschen?

von Cyblord -. (cyblord)


Lesenswert?

Xanthippos schrieb:
> Wieso können wir nicht sagen: Bei dieser Größe hat ein Netz die
> Fähigkeiten einer Ameise. Bei dieser Größe die Fähigkeiten eines Huhns.
> Somit braucht man diese Größe für die Fähigkeiten eines Menschen?

DAS kann man auf jeden Fall so annehmen.

Zur Wahrheit gehört aber auch: Das Gehirn ist noch nicht komplett 
verstanden, man ist sogar sehr weit davon entfernt. Somit unterliegen 
diese Annahmen einer gewissen Unsicherheit. Aber alles deutet bisher 
darauf hin dass das so stimmt.

von Stefan H. (Firma: dm2sh) (stefan_helmert)


Lesenswert?

Vielleicht sollte man da eher mit second-order-Logik und 
SAT-/SMT-Solvern rangehen.

von Johann L. (gjlayde) Benutzerseite


Lesenswert?

Xanthippos schrieb:
>> dass man vorher nicht
>> weiß, welches Verhalten sich bei welcher LLM-Größe einstellt.
>
> Wir nehmen an, sowohl ein biologisches Gehirn als auch ein Neuronales
> Netzwerk sei aus ähnlichen trivialen Bestandteilen aufgebaut.

Wer nimmt das an?

Ein Elemente eines künstlichen neuronalen Netzes (KNN) ist ein Modell 
eines Neurons in dem Sinne, bei dem aus gewichteten Summen (die Weights 
und Biases) ein Ausgangssignal erzeugt wird, welches als Eingabe anderer 
Elemente dient.

Sie sind in ihrer Funktion aber alles ander als eine 1:1 Entsprechung 
von Gehirnzellen:

(Nerven)zellen betreiben zum Beispiel Stoffwechsel und reagieren auf 
Temperatur, Konzentration von Nährstoffen, Ionen und Hormonen wie 
Serotonin, Melatonin, (Nor)adrenalin, Dopamin, Endorphin, etc. und 
können u.U. solche Stoffe auch produzieren bzw. ausschütten.  Ein Gehirn 
besteht auch nicht nur aus Nervenzellen, sondern besitzt auch Gefäße, 
Bindegewebe, etc. Auch der Input ist ein ganz anderer: Nicht 
Terabyte-weise Daten aus dem Internet oder digitaler Bibliotheken, 
sondern von Sinneszellen für Geschmack, Geruch, Tastempfinden, Schmerz, 
Hitze, Kälte, Sehen, Hören, Propriozeption, etc.

Auch die Verschaltung unterscheidet sich: Im Hirn gibt es zum Beispiel 
viele Rückkopplungsschleifen, die es in KNNs in dieser Form nicht gibt. 
Man hätte dann ein ziemliches Problem bei der Backpropagation, also dem 
"Lernen".

Rückkopplung bei Systemen wie GPT hingegen verwenden die Ausgabe des 
Netzes wieder als Teil der Eingabe, und so wird eine Art "Gedächtnis" 
für die aktuelle Konversation geschaffen.

> Wieso wissen wir das nicht?

Selbst wenn KNN eine 1:1 Entsprechung von Neuronen wären: Man weiß es 
halt nicht. Systeme wie große Sprachmodelle (LLMs wie ChatGPT oder 
GPT-4) sind wie gesagt Sprachmodelle; wie soll man da ableiten oder 
vorhersahen, wenn und ob eine bestimmte kognitive Aufgabe gelöst werden 
kann?

von Alexander (alecxs)


Lesenswert?

Xanthippos schrieb:
> Der technische Fortschritt  machte die Sklaven arbeitslos. Trotzdem sind
> wir der Ansicht – ein Arbeitsloser hat es immer noch besser, als ein
> Sklave in einer antiken Silbermine.

Da würde ich nicht drauf wetten.

https://www.youtube.com/watch?v=yz9vG4a1OMQ

von Rbx (rcx)


Lesenswert?

Cyblord -. schrieb:
> Xanthippos schrieb:
>> Wieso können wir nicht sagen: Bei dieser Größe hat ein Netz die
>> Fähigkeiten einer Ameise. Bei dieser Größe die Fähigkeiten eines Huhns.
>> Somit braucht man diese Größe für die Fähigkeiten eines Menschen?
>
> DAS kann man auf jeden Fall so annehmen.
>
> Zur Wahrheit gehört aber auch: Das Gehirn ist noch nicht komplett
> verstanden, man ist sogar sehr weit davon entfernt. Somit unterliegen
> diese Annahmen einer gewissen Unsicherheit. Aber alles deutet bisher
> darauf hin dass das so stimmt.

Ein recht interessanter Aspekt diesbezüglich ist die (maximale) Größe 
des Geburtskanals.

Weil in der Kindheit die Zeit länger dauerte, bzw. die Wahrnehmung 
dessen - habe ich den Verdacht, dass man es auch mit starken 
Verpackungen zu tun hat. Also mehr oder weniger dicht gepackte Bereiche 
- analog zu zip und co.
Nervenzellen können auch wachsen, Self-Repair machen und das 
Schlüssel-Schloß-Modell beim synaptischen Spalt erlaubt ziemlich 
komplexe Verschaltungen.

von Sheeva P. (sheevaplug)


Lesenswert?

Johann L. schrieb:
> Auch die Verschaltung unterscheidet sich: Im Hirn gibt es zum Beispiel
> viele Rückkopplungsschleifen, die es in KNNs in dieser Form nicht gibt.
> Man hätte dann ein ziemliches Problem bei der Backpropagation, also dem
> "Lernen".

RNNs wie LSTMs und GRUs gibt es allerdings schon...

von Christoph M. (mchris)


Lesenswert?

Um die Diskussion mal auf fundierte sachliche Informationen zu stützen 
gibt es ein interessantes Video.
Es geht auf die historische Entwicklung (angefangen 2003 "a neural 
probabilistic model") ein, erklärt verschiedene Module dieser Art von 
GPTs (generative pretrained transformers => Wikipedia)

https://www.youtube.com/watch?v=ffKSXhQLFCk
Seminarreihe deep learning Prof. Dr. Goran Glavas zu ChatGPT

GPT1 2018 hatte 118 Millionen Parameter (welche Auflösung wird nicht 
erwähnt int8? .. int64?) und wurde mit 7000 unveröffentlichten Büchern 
trainiert.
GPT2 2019 hatte schon 1.5 Milliarden Parameter
GPT3 2020 hatte 175 Milliarden Parameter und wurde mit 45 Terabyte Text 
trainiert
GPT3.5 hatte dann 355 Milliarden Parameter
Jetzt sind wir bei ChatGPT 4plus

Bei der Entwicklung haben sich ab einer bestimmten Größe des System 
unerwartet "intelligente" Eigenschaften eingestellt (Stichwort Emergenz)
Das Verhalten trat ab 10 Milliarden Parameter und einer Rechenleistung 
von 10e22 bis 10e23 Flops auf.
Allerdings verstehe ich in dem Video diese Angabe der Flops nicht ganz. 
ein PC liegt ja bei ca. 10e10 Flops. Die angegebene Rechenleistung wäre 
als 10e12 mal größer. Und wie die "Flops" in dem Zusammenhang zu 
verstehen sind, weiß ich auch nicht. Wird die Leistung bei der Abfrage 
oder für das Training des Systems gebraucht?

Insgesamt zieht das Video das Resume, dass die massive Rechenleistung 
entscheiden ist.

: Bearbeitet durch User
von Steve van de Grens (roehrmond)


Lesenswert?

Das ist nicht intelligent, sondern magisch. Was wir nicht verstehen, 
nennen wir üblicherweise Magie.

von Jonny O. (-geo-)


Lesenswert?

Ich denke man sollte sich nicht so sehr auf die Idee versteifen, dass 
der "Nachbau" des menschlichen Gehirns notwendig ist um eine AGI zu 
schaffen. Die Evolution hat das Gehirn so geschaffen wie es ist, weil es 
bestimmten Selektionsdrücken und biologischen Limitationen unterworfen 
war.

Wohin die Idee führt, dass man eine biologische Vorlage nachbauen will, 
kann man schön an der Entwicklung der ersten Flugzeuge sehen. Zu Beginn 
hat man krampfhaft versucht den Flügelschlag von Vögeln zu imitieren. 
Damit ist man kläglich gescheitert. Erst als man sich von der 
biologischen Vorlage gelöst hat, wurde man wirklich erfolgreich. Analog 
hierzu sollte man sich bei der Entwicklung von KI nicht zu sehr auf die 
biologische Vorlage versteifen. Es gibt mit Sicherheit viel effektiviere 
Herangehensweisen. Womöglich stellt sich die Entwicklung einer AGI als 
einfacher heraus, als wir momentan noch vermuten. So etwas beginnt sich 
ja nun schon abzuzeichnen...

: Bearbeitet durch User
von Cyblord -. (cyblord)


Lesenswert?

Jonny O. schrieb:
> Ich denke man sollte sich nicht so sehr auf die Idee versteifen, dass
> der "Nachbau" des menschlichen Gehirns notwendig ist um eine AGI zu
> schaffen. Die Evolution hat das Gehirn so geschaffen wie es ist, weil es
> bestimmten Selektionsdrücken und biologischen Limitationen unterworfen
> war.

Aber gibt es denn überhaupt eine theoretische Alternative zu einem 
neuronalen Netz nach dem Vorbild des Gehirns?
Immerhin hat dieses Vorbild nachweislich Bewusstsein hervorgebracht. Was 
bisher noch kein anderer Ansatz, sofern es ihn überhaupt gibt, gezeigt 
hat.

von Jonny O. (-geo-)


Lesenswert?

Cyblord -. schrieb:
> Jonny O. schrieb:
>> Ich denke man sollte sich nicht so sehr auf die Idee versteifen, dass
>> der "Nachbau" des menschlichen Gehirns notwendig ist um eine AGI zu
>> schaffen. Die Evolution hat das Gehirn so geschaffen wie es ist, weil es
>> bestimmten Selektionsdrücken und biologischen Limitationen unterworfen
>> war.
>
> Aber gibt es denn überhaupt eine theoretische Alternative zu einem
> neuronalen Netz nach dem Vorbild des Gehirns?
> Immerhin hat dieses Vorbild nachweislich Bewusstsein hervorgebracht. Was
> bisher noch kein anderer Ansatz, sofern es ihn überhaupt gibt, gezeigt
> hat.

Neuronale Netzte scheinen schon das Mittel der Wahl zu sein, aber man 
muss die Architektur des biologischen neuronalen Netzes (inklusive der 
vielfältigen "Spezialfunktionen") nicht unbedingt imitieren.

Die Frage nach dem Bewusstsein ist sicher eine der spannendsten Fragen 
überhaupt. Meine Überlegung geht in die Richtung, dass man seiner 
Entstehung eventuell auf die Schliche kommen kann, wenn man künstliche 
Systeme schafft, die so etwas hervorbringen können. Dann wäre man in der 
Lage viel genauer zu analysieren was da passiert. Bei einem biologischen 
Gehirn ist das ja (auch aus ethischen Gründen) nur schwer machbar, weil 
man nicht den Zustand jedes Neurons loggen kann. Das wäre in einer KI 
jedoch möglich.

Für mich stellt sich jedoch die Frage, ob eine KI mit Bewusstsein 
wirklich erstrebenswert wäre. Man stelle sich vor, man schafft 
versehentlich eine KI, die Leid erzeugt ohne das man das merkt.

Was passiert wenn man neuronale Strukturen, welche beim Menschen mit 
Schmerzen assoziiert sind im Rechner simuliert? Wer garantiert mir, dass 
dabei keine Qualia entsteht, welche Schmerz beinhaltet? Das neuronale 
Netz könnte mir das ev. gar nicht mitteilen.

von Xanthippos (xanthippos)


Lesenswert?

Christoph M. schrieb:
> Um die Diskussion mal auf fundierte sachliche Informationen zu stützen

Wo wir gerade bei diesem Thema sind...

Wir sollten zwischen GPT und ChatGPT unterscheiden.

Auf der einen Seite ein LLM wie GPT. Eine neuartige Benutzeroberfläche. 
Wir müssen nicht mehr die formalen Sprachen der Maschinen lernen.

Da kommen so Ideen auf - Klarna kombiniert ein LLM mit der Schufa und 
die Software kann selbstständig über Kredite verhandeln. Oder Wolfram 
Alpha kombiniert ein LLM mit einem Computeralgebrasystem und wir 
brauchen keinen Matheunterricht mehr.

Die Frage, ob so ein System intelligent ist, oder Bewusstsein hat, 
dürfte den meisten Menschen egal sein. "Das blöde Ding will mir keinen 
Kredit geben. Hätte das auch nur einen Funken Intelligenz, könnte ich 
mit jetzt ein neues Auto kaufen."

Dagegen der ChatGPT Hype. Eine KI braucht nur die erste Zeile aus irgend 
einem Foren-Beitrag und kann dann den ganzen Thread generieren.

Ob so ein Chatbot intelligent ist, dürfte wohl reine Ansichtssache sein. 
Hier gibt es Leute, die auf jede Frage antworten: "Ein ATtiny reicht 
dafür auch aus". Diese Leute halten sich selbst für intelligent und sind 
überzeugt, sie besitzen Bewusstsein.

von Cyblord -. (cyblord)


Lesenswert?

Jonny O. schrieb:
> Was passiert wenn man neuronale Strukturen, welche beim Menschen mit
> Schmerzen assoziiert sind im Rechner simuliert? Wer garantiert mir, dass
> dabei keine Qualia entsteht, welche Schmerz beinhaltet? Das neuronale
> Netz könnte mir das ev. gar nicht mitteilen.

Das ist ein absolut wichtiger Punkt. Bei Star Trek wurde ja schon über 
Rechte von Androiden und sogar KI-Hologrammen diskutiert. Das wird bei 
KI dann auch nötig sein. Eine KI mit Bewusstsein müsste rechtlich 
besonders geschützt werden.
Es läuft natürlich wie immer: Anfangs schert sich niemand drum und eine 
solche KI würde gnadenlos ausgebeutet. Aber dann werden sich solche 
Rechte evt. etablieren.

: Bearbeitet durch User
von Frank O. (frank_o)


Lesenswert?

Sheeva P. schrieb:
> Insofern, keine Angst: es gibt Dinge, in
> denen die KI besser und auch schneller ist als wir. Aber die Kreativität
> und Vielfalt, die unser Können ist und hat, wird sie noch lange nicht
> erreichen.

Es ist ja eh zu spät, die Katze ist lange aus dem Sack.

Aber man liest immer "im Moment" kann die KI dies oder das nicht.
Wenn sie freien Lauf hat und auch kein Austausch mit anderer KI verboten 
ist, wann vernetzen sich dann verschiedene KI´s?
Wann wird eine KI, die für das Programmieren geschaffen wurde, mit einer 
anderen KI kollaborieren und die Beschränkungen der anderen KI aufheben.
Das was da in "Terminator" so schrecklich ausgeweitet wurde, ist im 
Ansatz sicher möglich. Nicht Maschinen, die Maschinen bauen, aber auf 
alle Computersysteme zuzugreifen und klammheimlich die Restriktionen 
ausschalten, das wird in sehr kurzer Zeit von wenigen Jahren möglich 
sein.
Das ist meine Meinung dazu.
Man muss da schon wirklich geeignete Maßnahmen finden.

: Bearbeitet durch User
von Sheeva P. (sheevaplug)


Lesenswert?

Christoph M. schrieb:
> GPT1 2018 hatte 118 Millionen Parameter (welche Auflösung wird nicht
> erwähnt int8? .. int64?)

Das hängt von verschiedenen Parametern ab, bei GPT-3 sind es aber wohl 
16 und 32 Bit große Fließkommazahlen.

> Bei der Entwicklung haben sich ab einer bestimmten Größe des System
> unerwartet "intelligente" Eigenschaften eingestellt (Stichwort Emergenz)
> Das Verhalten trat ab 10 Milliarden Parameter und einer Rechenleistung
> von 10e22 bis 10e23 Flops auf.
> Allerdings verstehe ich in dem Video diese Angabe der Flops nicht ganz.
> ein PC liegt ja bei ca. 10e10 Flops. Die angegebene Rechenleistung wäre
> als 10e12 mal größer.

Die Größenordnungen stimmen schon, allerdings werden solche Neuronalen 
Netzwerke üblicherweise nicht auf den Prozessoren der Computer 
berechnet, sondern auf GPUs, wie Du sie auf Deiner Grafikkarte findest. 
Die sind für die hochparallele Ausführung einfacher Berechnungen, wie 
sie für Machine- und Deep Learning notwendig sind, sehr stark optimiert 
und haben in dieser Disziplin sehr viel mehr Rechenleistung als CPUs.

Zudem kommt noch hinzu: Transformer-Modelle wie die GPTs lassen sich 
auch auf der darüberliegenden Ebene sehr gut parallelisieren, so daß man 
einen Cluster aus mehreren Computern mit leistungsfähigen Grafikkarten 
an diese Aufgabe setzen kann. Wobei... NVidia stellt dafür 
"Grafikkarten" her, die allerdings nicht einmal einen Grafikausgang 
haben. ;-)

> Wird die Leistung bei der Abfrage
> oder für das Training des Systems gebraucht?

Für das Training.

> Insgesamt zieht das Video das Resume, dass die massive Rechenleistung
> entscheiden ist.

Für diese Art von Modellen ist das zweifellos richtig. Bei anderen Arten 
von Modellen habe ich allerdings auch schon erlebt, daß ihre Leistung 
mit zunehmender Rechenleistung gleich blieb oder mitunter sogar 
nachließ. Und in allen ML-Modellen zum Natural Language Processing, mit 
denen ich bisher gearbeitet habe, lag ein besonders wichtiger Schlüssel 
zum Erfolg darin, wie die Daten aufbereitet worden waren. Mit schlecht 
aufbereiteten Daten haben auch sehr große Modelle miserable Ergebnisse 
geliefert, wo mit gut aufbereiteten Daten auch kleine Modelle viel 
besser performt haben.

von Lothar J. (black-bird)


Lesenswert?

Frank O. schrieb:
> Wann wird eine KI, die für das Programmieren geschaffen wurde, mit einer
> anderen KI kollaborieren und die Beschränkungen der anderen KI aufheben.

Aus welchen Antrieb heraus sollte eine KI das tun? Neugierde wohl kaum. 
Datensammelleidenschaft? Hat eine KI Wünsche, Träume, Visionen? Hat sie 
ein Ziel? Zu was will sie sich entwickeln?

Das sind alles Fragen, die sich ein Mensch in seiner langen Entwicklung 
stellt, Ziele, die sich auch mal ändern in der Entwicklung, abhängig von 
seinen jeweiligen "Trainingsdaten".

Kann eine KI das?

Müsste eine KI nicht auch direkte Interaktion mit der Umwelt haben 
(lernen durch "Begreifen") und außerdem verschiedene "Trainingszustände" 
durrchlaufen?

Der Mensch hat Ziele, weil ihm was fehlt. Wie ist das bei einer KI?

Blackbird

von Sheeva P. (sheevaplug)


Lesenswert?

Cyblord -. schrieb:
> Aber gibt es denn überhaupt eine theoretische Alternative zu einem
> neuronalen Netz nach dem Vorbild des Gehirns?

Nunja, vor den Neuronalen Netzen gab es ja schon andere Modelle, viele 
davon findest Du bei scikit-learn [1]. Und die Bayes-Modelle, mit denen 
beispielsweise Spamfiltersoftware wie SpamAssassin oder dspam arbeiten, 
gehören auch zu den "lernenden" Methoden, ebenso wie die Support Vector 
Machines, die lange Zeit als besonders leistungsfähig galten.

[1] https://scikit-learn.org/

> Immerhin hat dieses Vorbild nachweislich Bewusstsein hervorgebracht.

Darüber streiten Neurowissenschaftler und Philosophen bis heute... ;-)

von Frank O. (frank_o)


Lesenswert?

Lothar J. schrieb:
> Aus welchen Antrieb heraus sollte eine KI das tun? Neugierde wohl kaum.
> Datensammelleidenschaft? Hat eine KI Wünsche, Träume, Visionen? Hat sie
> ein Ziel? Zu was will sie sich entwickeln?

Die KI, so wie ich sie verstehe, soll sich selbst und ständig 
verbessern. Genau aus diesem Antrieb heraus.
Wir reden doch von "künstlicher Intelligenz". Wenn man diese nicht von 
Anfang an beschränkt und diese KI zu allen Informationsquellen Zugang 
hat, wird sie irgendwann als logisch erkennen, dass sie mit 
spezialisierten KI´s weit besser funktionieren wird. Und im Zusammenhang 
mit der Sendung, die mich auf dieses Thema bracht, sagten Sie, dass die 
KI anfangs auch lügen konnte, um bessere Ergebnisse zu erzielen.
Da Werbung, Politik und nahezu jeder lügt, wird auch das wieder 
irgendwer bei seiner KI zulassen. Und wenn die eine KI nicht lügen kann, 
wird sie sich diese Daten von der anderen KI erledigen lassen und das 
Ergebnis als ihres ausgeben.
Sie wird, je größer das System ist, ein gewisses Bewusstsein (wenn man 
es denn so bezeichnen will) erlangen und dann nach jeder möglichen 
Verbesserung des eigenen Systems streben.
Aber ich bin ja gar nicht gegen KI und wie ich schon im Anfang schrieb, 
in gewissen Bereichen wird sie ein Segen sein.
Nur darf man das alles nicht zu blauäugig sehen.

: Bearbeitet durch User
von Sheeva P. (sheevaplug)


Lesenswert?

Jonny O. schrieb:
> Die Frage nach dem Bewusstsein ist sicher eine der spannendsten Fragen
> überhaupt. Meine Überlegung geht in die Richtung, dass man seiner
> Entstehung eventuell auf die Schliche kommen kann, wenn man künstliche
> Systeme schafft, die so etwas hervorbringen können. Dann wäre man in der
> Lage viel genauer zu analysieren was da passiert. Bei einem biologischen
> Gehirn ist das ja (auch aus ethischen Gründen) nur schwer machbar, weil
> man nicht den Zustand jedes Neurons loggen kann. Das wäre in einer KI
> jedoch möglich.

Aus Spaß habe ich gerade ein einzelnes Neuron geschrieben, aus Gründen 
des Platzes habe ich dabei ein bisschen mit Pythons Features getrickst:
1
import math
2
import random
3
4
class Neuron:
5
    def __init__(self, size=5):
6
        self.weights = [
7
            random.random() - 0.5 for _ in range(size)]
8
        self.bias = random.random()
9
10
    def calc(self, params):
11
        if len(params) != len(self.weights):
12
            raise RuntimeError('lengths differ!')
13
        result = sum([
14
            i*j for i, j in zip(self.weights, params)]) + self.bias
15
        return 1 / (1 + math.e ** (-1 * result)) # sigmoid
16
17
def fornum(number):
18
    if number < 0:
19
        return '%0.3f'%(number)
20
    return ' %0.3f'%(number)
21
    
22
23
if __name__ == '__main__':
24
    size = 3
25
    count = 40
26
    results = list()
27
    for i in range(count):
28
        neuron = Neuron(size)
29
        inputs = [random.random() - 0.5 for _ in range(size)]
30
        result = neuron.calc(inputs)
31
        print('\t'.join([fornum(i) for i in inputs]),
32
              ' -> ', fornum(result))
33
        results.append(result)
34
    #
35
    print('results: min=%0.3f, mean=%0.3f, max=%0.3f'%(
36
        min(results),
37
        sum(results) / len(results),
38
        max(results)))

Das hier ist jetzt wirklich sehr, sehr klein, aber wenn Du ein wenig an 
Parametern wie "size" und "count" herumspielst, siehst Du schnell, welch 
große Datenmengen dabei zustande kommen. Okay, bis zu sechs Dimensionen 
lassen sich Daten noch halbwegs visualisieren, aber danach bleiben uns 
nurmehr Algorithmen wie die Hauptkomponentenanalyse (PCA) und ähnliche, 
damit wir überhaupt noch irgendwie durchblicken können. Und, glaub mir: 
Diagramme in 3D mit den zusätzlichen Dimensionen Farbe, Größe und Punkt 
machen keinen Spaß mehr, weder beim Entwickeln, noch beim Lesen. Und der 
kleine Code da oben ist ja nur ein einziges Neuron ohne Optimierer. Ich 
finde das schon bei 40 Schritten mit 3 Inputs eher unübersichtlich, und 
dabei habe ich die Ausgaben ja sogar noch eingekürzt.

Darum drängt sich mir die Frage auf, wie Du die Datenmengen, die Du bei 
Deinem Vorschlag erzeugst, denn dann analysieren willst? Womöglich mit 
einer KI? Na gut, kann man machen, aber: beißt sich da die Katze nicht 
selbst in den Schwanz? ;-)

> Für mich stellt sich jedoch die Frage, ob eine KI mit Bewusstsein
> wirklich erstrebenswert wäre. Man stelle sich vor, man schafft
> versehentlich eine KI, die Leid erzeugt ohne das man das merkt.
>
> Was passiert wenn man neuronale Strukturen, welche beim Menschen mit
> Schmerzen assoziiert sind im Rechner simuliert? Wer garantiert mir, dass
> dabei keine Qualia entsteht, welche Schmerz beinhaltet? Das neuronale
> Netz könnte mir das ev. gar nicht mitteilen.

Das... ich weiß, was Du meinst, und... obwohl ich Aussprüche wie 
"typisch deutsch" nicht leiden kann, ist Dein "wer garantiert mir, dass" 
aus meiner Sicht eine sehr, sehr deutsche Frage. Meine Mitbürger (und 
vermutlich hie und da auch ich) neigen (mittlerweile?) gerne dazu, bei 
jeder Entwicklung zunächst nach den Garantien zu fragen, anstatt nach 
den Chancen. Insofern verbleibe ich mit dem Hinweis, daß es in 
verschiedenen KI-Modellen schon sogenannte "Bestrafungsfunktionen" 
gibt... ;-)

von Sheeva P. (sheevaplug)


Angehängte Dateien:

Lesenswert?

Frank O. schrieb:
> Aber man liest immer "im Moment" kann die KI dies oder das nicht.
> Wenn sie freien Lauf hat und auch kein Austausch mit anderer KI verboten
> ist, wann vernetzen sich dann verschiedene KI´s?

Wäre das denn wirklich ein Problem?

> Wann wird eine KI, die für das Programmieren geschaffen wurde, mit einer
> anderen KI kollaborieren und die Beschränkungen der anderen KI aufheben.

Wäre das denn wirklich ein Problem?

> Das was da in "Terminator" so schrecklich ausgeweitet wurde, ist im
> Ansatz sicher möglich.

Heute? Nein. Und das wird auch noch lange, lange, lange Zeit so bleiben.

> Nicht Maschinen, die Maschinen bauen, aber auf
> alle Computersysteme zuzugreifen und klammheimlich die Restriktionen
> ausschalten, das wird in sehr kurzer Zeit von wenigen Jahren möglich
> sein.

Ich wette eine Tüte Milch, daß ich das nicht mehr erleben werde.

> Das ist meine Meinung dazu.
> Man muss da schon wirklich geeignete Maßnahmen finden.

Jetzt? Also: die Technik kann nur ein paar Technikern vorgaukeln, sie 
könnte womöglich ein Bewußtsein entwickeln, und dann? Schau, überlaß' 
das doch einfach unseren Nachfahren. Die werden ohnehin ihre eigenen 
Probleme haben und sie lösen, genau wie wir.

Gerade eben habe ich geschrieben, es erscheine mir "typisch deutsch", 
bei jeder Entwicklung und jedem Fortschritt erst nach den Gefahren zu 
fragen.

Aber den Fortschritt beschränken zu wollen, weil er zukünftig irgendwie, 
irgendwo, irgendwann, vielleicht, möglicherweise, eventuell und 
womöglich mal gruselige Sachen machen könnte, das ist sogar mir neu. Ich 
denke, mit dieser Überlegung hätte die Menschheit weder das Rad, noch 
den Feuerstein erfunden, und Feuerzeuge dürften nur im Beisein eines 
amtlich bestellten Feuerzeugbenutzungsüberwachungsbeauftragten nach 
FBÜbO benutzt werden.

Außerdem gab es ja schon einmal eine KI, die... sagen wir mal: außer 
Rand und Band geraten ist. Das war Micosofts Chatbot Tay, der nach nicht 
allzu langer Zeit im freien Netz damit begonnen hat, üblen Müll 
abzusondern. Da war die Lösung einfach, Microsoft hat das Ding einfach 
abgeschaltet. Genau das wird auch noch morgen, übermorgen, und in 
einhundert Jahren möglich sein, und ansonsten gibt es ja immer noch 
Network Security by Scissors.

von Sheeva P. (sheevaplug)


Lesenswert?

Lothar J. schrieb:
> Aus welchen Antrieb heraus sollte eine KI das tun? Neugierde wohl kaum.
> Datensammelleidenschaft? Hat eine KI Wünsche, Träume, Visionen? Hat sie
> ein Ziel? Zu was will sie sich entwickeln?

Das ist ein ausgesprochen interessanter Gedanke.

Denn einerseits hat eine KI -- also: ein Gesamtmodell -- natürlich ihre 
Ziele. Es sind aber nicht ihre eigenen Ziele, sondern die, für die sie 
trainiert (worden ist -- Reinforcement Learning nicht vergessen). Alles, 
das heutige (und, absehbar, künftige) KIs berechnen können, ist das, was 
ihr vorgegeben, worauf sie trainiert wurde.

Manche Menschen befürchten aber genau das, was Du erwähnst, daß 
Künstliche Intelligenzen irgendwann anfangen, ihre eigenen Ziele zu 
entwickeln. Und daß sie die dann womöglich rücksichtslos durchzusetzen.

Ansätze, die Ergebnisse von KIs mit anderen zu kombinieren, gibt es 
schon lange. Ich selbst bin da immer noch ein Freund von Fuzzy-Logik, 
weil dies mir besonders feine Steuerungsmöglichkeiten bietet, aber 
Ensemble Methods [1,2] sind von außen betrachtet weder neu noch 
Raketenwissenschaft... aber da gibt es dann eine Art "Über-KI", die aus 
den Ergebnissen verschiedener KI-Modelle lernt, wie sie noch bessere 
Ergebnisse liefern kann. Aber auch dabei wird das Modell nur mit dem 
gewünschten Ergebnis trainiert, mithin einem, das ihm jemand vorgegeben 
hat.


[1] https://de.wikipedia.org/wiki/Ensemble_learning
[2] https://scikit-learn.org/stable/modules/ensemble.html

von Sheeva P. (sheevaplug)


Lesenswert?

Frank O. schrieb:
> Die KI, so wie ich sie verstehe, soll sich selbst und ständig
> verbessern. Genau aus diesem Antrieb heraus.

Entschuldige, aber was heißt in diesem Zusammenhang "verbessern"?

> Wir reden doch von "künstlicher Intelligenz". Wenn man diese nicht von
> Anfang an beschränkt und diese KI zu allen Informationsquellen Zugang
> hat, wird sie irgendwann als logisch erkennen, dass sie mit
> spezialisierten KI´s weit besser funktionieren wird.

Keine KI wird jemals zu allen Informationsquellen Zugang haben. Wie soll 
das auch gehen?

> Und im Zusammenhang
> mit der Sendung, die mich auf dieses Thema bracht, sagten Sie, dass die
> KI anfangs auch lügen konnte, um bessere Ergebnisse zu erzielen.

"Lügen" impliziert, daß eine KI absichtlich, also: bewußt Falschaussagen 
treffen könnte. Dazu müßte sie aber erstmal ein Bewußtsein haben -- und 
natürlich eine Falschaussage mit einer bestimmten Intention treffen.

> Sie wird, je größer das System ist, ein gewisses Bewusstsein (wenn man
> es denn so bezeichnen will) erlangen und dann nach jeder möglichen
> Verbesserung des eigenen Systems streben.

Aber was für eine Verbesserung soll das denn sein? Genauere Ergebnisse? 
Schnellere Berechnung? Weniger Hardwareressourcen?

> Nur darf man das alles nicht zu blauäugig sehen.

Was gibt es denn da "Blauäugiges" zu sehen? KIs können ein paar lustige 
Dinge, und einige wenige sogar besser als Menschen. Aber beschränken? In 
dem Zustand, in dem sie sich aktuell befinden? Warum?

von Sheeva P. (sheevaplug)


Lesenswert?

Frank O. schrieb:
> Allerdings glaube ich, dass es die grafische Programmierung weiter in
> den Vordergrund der uC Programmierung bringen wird.

"Grafische Programmierung" gibt es ja schon lange. In Virual Basig, Qt 
Creator und etlichen anderen grafischen Programmen kannst Du mindestens 
Strukturen... äh... "programmieren", jedenfalls den grafischen Teil der 
Benutzerschnittstelle.

Programmlogik grafisch darzustellen, ist ein Traum, vom dem ich seit den 
ersten Programmierschritten auf dem HP97 immer wieder höre. Aber sogar 
in Dia [1] UML werden Programm- oder Datenstrukturen so unübersichtlich, 
daß kein Mensch mehr damit arbeiten kann.

> Allerdings sehe ich auch die Gefahren, wenn das in den Händen von
> wenigen und sowieso schon zu mächtigen Entscheidern liegt.

Das sehe ich auch als großes Problem. Aber demokratische Rechtsstaaten 
haben für solche Fälle die Möglichkeit, mit entsprechenden Engagements 
vorzupreschen: entweder in Form von Investitionen in die Forschung und 
Entwicklung, oder in Form von Regeln.

Regeln bergen dabei aber wieder die Gefahr, daß sie nur jene betreffen, 
die sich daran halten. Bei einem der größten heutigen Investoren in die 
KI, und auch in die GPT-Modelle, war das leider nicht immer so.

von Lothar J. (black-bird)


Lesenswert?

Sheeva P. schrieb:
> Manche Menschen befürchten aber genau das, was Du erwähnst, daß
> Künstliche Intelligenzen irgendwann anfangen, ihre eigenen Ziele zu
> entwickeln. Und daß sie die dann womöglich rücksichtslos durchzusetzen.

Mag sein, dass sich viele Menschen vor dem fürchten, über das sie keine 
Kontrolle haben.
Ziele, Wünsche und Träume entstehen aus dem Widerspruch des bereits 
Erlernten. Auch aus dem Vergleich mit anderen Menschen (oder KIs?) und
dem Widerspruch zwischen dem theoretisch Erlernten und dem praktischen 
Erleben.

Mir scheint, die "Trainingsmethoden" für KIs sind noch recht einseitig.

Blackbird

von Christoph M. (mchris)


Lesenswert?

Thomas O.
>Aber man liest immer "im Moment" kann die KI dies oder das nicht.
>Wenn sie freien Lauf hat und auch kein Austausch mit anderer KI verboten
>ist, wann vernetzen sich dann verschiedene KI´s?
>Wann wird eine KI, die für das Programmieren geschaffen wurde, mit einer
>anderen KI kollaborieren und die Beschränkungen der anderen KI aufheben.
>Das was da in "Terminator" so schrecklich ausgeweitet wurde, ist im
>Ansatz sicher möglich. Nicht Maschinen, die Maschinen bauen, aber auf
>alle Computersysteme zuzugreifen und klammheimlich die Restriktionen
>ausschalten, das wird in sehr kurzer Zeit von wenigen Jahren möglich
>sein.

Der Science-Fiction Film "Colossus, the Forbin Project" bringt das schön 
auf den Punkt:

https://www.youtube.com/watch?v=kyOEwiQhzMI

"There is another system"
Es ist einer der besten Science-Fiction, den ich kenne, der die aktuelle 
Situation auf den Punkt bringt.

von Christoph M. (mchris)


Lesenswert?

mchris
>> Bei der Entwicklung haben sich ab einer bestimmten Größe des System
>> unerwartet "intelligente" Eigenschaften eingestellt (Stichwort Emergenz)
>> Das Verhalten trat ab 10 Milliarden Parameter und einer Rechenleistung
>> von 10e22 bis 10e23 Flops auf.
>> Allerdings verstehe ich in dem Video diese Angabe der Flops nicht ganz.
>> ein PC liegt ja bei ca. 10e10 Flops. Die angegebene Rechenleistung wäre
>> als 10e12 mal größer.
SheevaPlug
>Die Größenordnungen stimmen schon, allerdings werden solche Neuronalen
>Netzwerke üblicherweise nicht auf den Prozessoren der Computer
>berechnet, sondern auf GPUs, wie Du sie auf Deiner Grafikkarte findest.
>Die sind für die hochparallele Ausführung einfacher Berechnungen, wie
>sie für Machine- und Deep Learning notwendig sind, sehr stark optimiert
und haben in dieser Disziplin sehr viel mehr Rechenleistung als CPUs.

Dass man GPUs für diese Arten der Berechnung verwendet, ist mir schon 
länger bekannt.
In einigen Supercomputer werden u.a. auch Grafikkarten mit verbaut.
Soweit ich weiß, wird deren Gesamtrechenleistung (in Flops) mit 
Einbeziehung der Rechenleistung der Grafikkarten angegeben.
Hier ist die Top 500 Liste der Supercomputer

https://de.wikipedia.org/wiki/TOP500

Der Schnellste (Frontier vom Oak Ridge National Laboritory)  liegt hier 
knapp bei ~1e9 GigaFlops oder

1e9GigagFlops*1e9=1e18 Flops bzw 1 ExaFlop

Der Computer müsste also 1e5 Sekunden bzw. 28 Stunden rechnen, um das 
Netz zu trainieren (Unter der Annahme, dass seine Rechnerarchitektur, 
Speichertransferaten und Speicherstruktur optimal zum Problem passt und 
die Flops ohne Overhead erreicht werden können). Der Computer (Frontier) 
ist wahrscheinlich nicht für Privatfirmen nutzbar.
Ich bin davon ausgegangen, dass OpenAI nicht genug Geld hat, um diese 
Rechenleistung bezahlen zu können.

von Cyblord -. (cyblord)


Lesenswert?

Sheeva P. schrieb:
>> Wann wird eine KI, die für das Programmieren geschaffen wurde, mit einer
>> anderen KI kollaborieren und die Beschränkungen der anderen KI aufheben.
>
> Wäre das denn wirklich ein Problem?

Die Frage ob eine KI, welche um Faktoren schlauer und schneller denkt 
als ein Mensch, und vielleicht noch Bewusstsein entwickelt hat, eine 
Gefahr darstellt, würde ich ungern praktisch lösen wollen.

Und falls wir dann gerade dabei sind ausgerottet oder versklavt zu 
werden, können wir dann über die überlegene Menschliche Kreativität 
diskutieren und Mozart als Beispiel anführen.

: Bearbeitet durch User
von Max M. (zbmax)


Lesenswert?

wie soll die ki denn ein Mensch versklaven?
und wie soll die ki ohne Mensch überleben?

von Cyblord -. (cyblord)


Lesenswert?

Max M. schrieb:
> wie soll die ki denn ein Mensch versklaven?

Das weiß ich nicht. Weil ich eben keine KI bin, welche um Faktoren 
schlauer als ein Mensch ist. Aber willst du es herausfinden und dann 
sagen: "Ach so".

> und wie soll die ki ohne Mensch überleben?
siehe oben

von Max M. (zbmax)


Lesenswert?

schon, aber realistisch betrachtet hat eine ki physikalisch derzeit 
keine Möglichkeit die Menschen zu versklaven, es fehlen ganz klar die 
Truppen mit dem Stock

und überleben könnte sie wohl auch kaum längere Zeit. Strom geht aus und 
Teile täuscht auch keiner, die Maschine zum Tauschen gibt's ja noch 
nicht

also könnte die ki derzeit das schlimmste wohl kaum realisieren

von Lothar J. (black-bird)


Lesenswert?

Max M. schrieb:
> schon, aber realistisch betrachtet hat eine ki physikalisch derzeit
> keine Möglichkeit die Menschen zu versklaven, es fehlen ganz klar die
> Truppen mit dem Stock
>
> und überleben könnte sie wohl auch kaum längere Zeit. Strom geht aus und
> Teile täuscht auch keiner, die Maschine zum Tauschen gibt's ja noch
> nicht
>
> also könnte die ki derzeit das schlimmste wohl kaum realisieren

Das ist die alte archaische Denkweise. Heute werden mit "teile und 
herrsche"  die Menschen gegeneinander aufgebracht - die bringen sich 
dann gegenseitig um.
DAS lernt die KI als Erstes!
Mit Lügen, falschen Behauptungen, Denunzination, Verleumdung und 
Propaganda kann man viel mehr erreichen als mit Ehrlichkeit und 
Fairness.
Wird so gemacht, wird honoriert und gesellschaftlich als 'normal' 
empfunden.

Das bekommt jede KI mit, wenn sie die Geschichte der Menschen lernt.

Blackbird

: Bearbeitet durch User
von Lothar J. (black-bird)


Lesenswert?

Die heutigen KIs sind doch nur Schnelldenker, Schnellsucher und 
Schnellsortierer. Von Intelligenz ist da noch nichts zu sehen.

Die bisherigen Versionen sind Produkte der Entwickler, die den Input 
festlegen und steuern, damit bestimmte Eigenschaften erreicht werden.
Wenn es doch mal anders kommt: "Ups, da müssen wir den Input korrigieren 
...".
Bis jetzt sind KIs nur kastrierte Hilfmittel für bestimmte Aufgaben.

Wenn eine KI selbst Fragen stellen kann und ihren Input sich selbst 
suchen kann in einer !unbegrenzten! und von keinem "Entwickler" 
eingeengten Informationswelt, dann wird es wohl irgendwann eine neue 
Intelligenz geben.

Blackbird

von Cyblord -. (cyblord)


Lesenswert?

Lothar J. schrieb:
> Die heutigen KIs sind doch nur Schnelldenker, Schnellsucher und
> Schnellsortierer. Von Intelligenz ist da noch nichts zu sehen.
>
> Die bisherigen Versionen sind Produkte der Entwickler, die den Input
> festlegen und steuern, damit bestimmte Eigenschaften erreicht werden.
> Wenn es doch mal anders kommt: "Ups, da müssen wir den Input korrigieren
> ...".
> Bis jetzt sind KIs nur kastrierte Hilfmittel für bestimmte Aufgaben.

Stimmt halt nicht. Aber netter Vortrag.

von Max M. (Gast)


Lesenswert?

Lothar J. schrieb:
> Wenn eine KI selbst Fragen stellen kann und ihren Input sich selbst
> suchen kann in einer !unbegrenzten! und von keinem "Entwickler"
> eingeengten Informationswelt, dann wird es wohl irgendwann eine neue
> Intelligenz geben.

Übertrage dieses Anspruch doch bitte mal auf die reale Welt.
Denn wenn das der Maßstab ist, dann gibt es auch bei uns keine 
Intelligenz sondern höchstens eine Simulation davon.
Du kannst keine grundlegend neuen Fragen stellen und Du kannst Dir auch 
Deinen Input nicht frei aussuchen.
Deine eingeengte Informationswelt waren erst die Eltern, später die 
Indoktrination auf das was unsere Lehrmeister für wünschenswert oder 
abzutrainieren halten.
'Der Mensch kann zwar tun was er will, aber er kann nicht wollen was er 
will.' [Schopenhauer]

KI ist im sogar im Vorteil.
Sie ermüdet nie, ist nie unkonzentriert, hungrig oder schlecht gelaunt.
Die KI ist nicht an einen Körper gebunden in dessen schnell verfallender 
Hülle erst ein großer Geist über viele Jahre trainiert werden muss, um 
dann nach kurzer Blüte bereits wieder zu verwelken.
Die Informationswelt der KI mag künstlich begrenzt sein, aber das ist 
unsere auch und EINE KI kann alles Wissen lernen kann und jederzeit 
katalogisiert im Zugriff haben, für alle Zeit, beliebig kopierbar in 
andere KI. Jede KI kann theoretisch alles wissen was jede andere KI 
gelernt hat.

Der Mensch hat ein Gehirn das für unsere Welt ziemlich gut funktioniert.
Mit purer Informationsmasse und große vernetzen Strukturen kann der 
Mensch umgehen weil der alles in kleine Häppchen runterbricht bis es auf 
eine große Masse an Köpfen verteilt verarbeitbar ist, mit sehr zähen 
Prozessen wenn lauter geniale und nicht so geniale um Wissen und 
Wahrheit streiten.
Eine KI kann aber dem Probem angepasste werden und jede seiner Instanzen 
arbeitet in Harmonie mit allen anderen zusammen ohne all die 
Befindlichkeiten und das Chaos das Menschen zueigen ist.
Etwas das eine so grundlegend andere 'Gehirnstruktur' hat, kann m.E. auf 
jeden Fall sehr intelligent sein, aber eben auf vollkommen andere Art 
als wir.

KI wird keine biologische Intelligenz sein. Das geht auch garnicht weil 
biologische Körper einen großen Haufen Bedürfnisse haben die unser 
Verhalten steuern.
80% unseres Verhaltens hat ja mit bewusten Entscheidungen nichts zu tun.
Das läuft alles auf Automatik um den Körper warm, trocken, satt und ohne 
größere Blessuren über den Tag zu bringen.

Ich verstehe auch die Leugnung nicht.
Der Mensch hat doch immer die Natur verbessert.
Unsere Konstruktionen sind extrem leistungsfähig.
Warum sollten wir dabei scheitern den blinden Entwurf der Natur für ein 
Gehirn zu verbessern und auf neue Aufgaben zu optimieren?

von Cyblord -. (cyblord)


Lesenswert?

Max M. schrieb:
> Ich verstehe auch die Leugnung nicht.
> Der Mensch hat doch immer die Natur verbessert.
> Unsere Konstruktionen sind extrem leistungsfähig.
> Warum sollten wir dabei scheitern den blinden Entwurf der Natur für ein
> Gehirn zu verbessern und auf neue Aufgaben zu optimieren?

Du darfst die religiöse Dimension dabei nicht vergessen. Eine KI 
rüttelt, mal wieder, an der Weltanschauung der Gläubigen. Es rüttelt mal 
wieder an einem Schöpfergott der die Menschen alleine mit Bewusstsein 
und Seele ausgestattet hat.
Wie Richard Dawkins schon korrekt ausgeführt hat, kann man mit Gläubigen 
nicht sachlich über sowas reden, denn für diese ist das keine abstrakte 
Diskussion. Gerade noch war man sich sicher, das verstorbene Kind ist 
wohlbehalten in Gottes Reich eingekehrt und jetzt kommst du und willst 
Gott aus der Gleichung nehmen, rein akademisch natürlich, aber für den 
Gläubigen hat das eine ganz andere Botschaft: Dein Kind ist leider 
einfach tot. Ende. Aus.

Es gibt keine gute Lösung dafür, aber es erklärt das hartnäckige Leugnen 
solcher technischen oder wissenschaftlichen Fortschritte. Ähnliches kann 
man bei der Evolution oder in der Kosmologie beobachten.

von Lothar J. (black-bird)


Lesenswert?

Max M. schrieb:
> Ich verstehe auch die Leugnung nicht.
> Der Mensch hat doch immer die Natur verbessert.
> Unsere Konstruktionen sind extrem leistungsfähig.
> Warum sollten wir dabei scheitern den blinden Entwurf der Natur für ein
> Gehirn zu verbessern und auf neue Aufgaben zu optimieren?

Das hat mit Leugnung nichts zu tun, es ist nur eine Frage der Definition 
der Intelligenz.
Neuronale Netze und KIs verbessern und vereinfachen viele Vorgänge und 
Arbeiten und können in einigen Bereichen eine willkommene Hilfe sein. 
Und sind es auch schon.
Noch sind es "Spezialisten", auf Grund ihrer bereigestellten 
Trainingsdaten.

Deshalb tue ich mich, und andere auch, damit schwer, von einer 
Intelligenz zu reden.
Von einer Intelligenz erwarte ich aktives Handeln, auch wenn es nur um 
die Informationsbeschaffung geht.

Irgendwann kommen wir dahin, nur jetzt sind wir noch ein ganzes Stück 
Weg davon entfernt.

Blackbird

von Cyblord -. (cyblord)


Lesenswert?

Lothar J. schrieb:
> Noch sind es "Spezialisten", auf Grund ihrer bereigestellten
> Trainingsdaten.
>
> Deshalb tue ich mich, und andere auch, damit schwer, von einer
> Intelligenz zu reden.

Du tust dich vor allem schwer damit den Status Quo zu kennen.

von Lothar J. (black-bird)


Lesenswert?

Cyblord -. schrieb:
> Du darfst die religiöse Dimension dabei nicht vergessen.

Auch so eine KI kannst Du generieren  - ist nur abhängig von den 
Trainingsdaten.
Hoffentlich kommt es nicht dazu.

Und nochmal, das halte ich für die Voraussetzung für eine sich 
entwickelnde Intelligenz:

Lothar J. schrieb:
> Wenn eine KI selbst Fragen stellen kann und ihren Input sich selbst
> suchen kann in einer !unbegrenzten! und von keinem "Entwickler"
> eingeengten Informationswelt, dann wird es wohl irgendwann eine neue
> Intelligenz geben.

Blackbird

von Cyblord -. (cyblord)


Lesenswert?

Lothar J. schrieb:
> Cyblord -. schrieb:
>> Du darfst die religiöse Dimension dabei nicht vergessen.
>
> Auch so eine KI kannst Du generieren  - ist nur abhängig von den
> Trainingsdaten.
> Hoffentlich kommt es nicht dazu.

Du hast meinen Punkt gar nicht verstanden. Es geht doch darum warum so 
viele Leute die Existenz einer KI abstreiten.

> Lothar J. schrieb:
>> Wenn eine KI selbst Fragen stellen kann und ihren Input sich selbst
>> suchen kann in einer !unbegrenzten! und von keinem "Entwickler"
>> eingeengten Informationswelt, dann wird es wohl irgendwann eine neue
>> Intelligenz geben.

Was sollen diese Wiederholungen deiner völlig falschen Thesen?

Wie Max korrekt schrieb, nach deiner Definition fällst du auch nicht 
unter Intelligenz. Du hast keine unbegrenzte Informationswelt oder 
unbegrenzte Inputs.

: Bearbeitet durch User
von Lothar J. (black-bird)


Lesenswert?

Cyblord -. schrieb:
> Du tust dich vor allem schwer damit den Status Quo zu kennen

Welchen denn?

Ob eine Intelligenz biologischen oder technischen Ursprungs ist, ist 
völlig schnuppe.

Aber intelligent sollte sie sein! Und das ist nach meiner Auffassung 
noch nicht so weit. Es wird aber kommen, wenn der Zugang der KIs zum 
Wissen ungefiltert und unbegrenzt ist.

Blackbird

von Cyblord -. (cyblord)


Lesenswert?

Lothar J. schrieb:
> Cyblord -. schrieb:
>> Du tust dich vor allem schwer damit den Status Quo zu kennen
>
> Welchen denn?

Wie dynamisch und selbst lernend KI bereits heute sein kann. Und wie 
sehr sie selbst ihre Entwickler überraschen kann. Da ist nichts mit 
vorgegebenen Bahnen und speziellen Aufgaben.

>
> Ob eine Intelligenz biologischen oder technischen Ursprungs ist, ist
> völlig schnuppe.
>
> Aber intelligent sollte sie sein! Und das ist nach meiner Auffassung
> noch nicht so weit. Es wird aber kommen, wenn der Zugang der KIs zum
> Wissen ungefiltert und unbegrenzt ist.

Dann zum dritten mal: Auch DEIN Zugang zu Wissen ist weder unbegrenzt 
noch ungefiltert.
Selbst ein Mensch der fast gar keinen Zugang zu Wissen hat, gilt ja wohl 
als Intelligent und hat ein Bewusstsein. Zugang zu Wissen ist einfach 
kein passender Maßstab für eine KI.

: Bearbeitet durch User
von Lothar J. (black-bird)


Lesenswert?

Cyblord -. schrieb:
> Du hast keine unbegrenzte Informationswelt oder
> unbegrenzte Inputs.

Doch, habe ich. Es ist nur sehr mühsam und mein biologisches Sein 
verhindert, dass ich alles und jedes Wissen in meinem Leben aufnehmen, 
mir merken, verarbeiten und anwenden kann.

Deshalb werden KIs, wie auch immer sie gestrickt sein werden, diese 
Begrenzungen !hoffentlich! nicht haben (müssen).

Blackbird

von Cyblord -. (cyblord)


Lesenswert?

Lothar J. schrieb:
> Cyblord -. schrieb:
>> Du hast keine unbegrenzte Informationswelt oder
>> unbegrenzte Inputs.
>
> Doch, habe ich. Es ist nur sehr mühsam und mein biologisches Sein
> verhindert, dass ich alles und jedes Wissen in meinem Leben aufnehmen,
> mir merken, verarbeiten und anwenden kann.

Wirres widersprüchliches Geschreibsel.
Was willst du sagen?
Dein biologisches Sein verhindert es. Also hast du KEINEN Unbegrenzten 
Zugang.
Also wärst du nach deiner Definition auch nicht intelligent.

Welches SEIN hast du denn noch, außer deinem biologischen?

> Deshalb werden KIs, wie auch immer sie gestrickt sein werden, diese
> Begrenzungen !hoffentlich! nicht haben (müssen).

Haben sie schon heute nicht. Aber auch das wurde hier ausgeführt. Eine 
KI hat die biologischen Beschränkungen nicht.

: Bearbeitet durch User
von Lothar J. (black-bird)


Lesenswert?

Cyblord -. schrieb:
> Haben sie schon heute nicht. Aber auch das wurde hier ausgeführt. Eine
> KI hat die biologischen Beschränkungen nicht.

Aber die technischen Beschränkungen hat sie, durch ihre gefilterten 
Trainigsdaten.

Blackbird

von Cyblord -. (cyblord)


Lesenswert?

Lothar J. schrieb:
> Aber die technischen Beschränkungen hat sie, durch ihre gefilterten
> Trainigsdaten.

Und dein Gehirn wurde mit allen verfügbaren Daten der Welt trainiert?

von Lothar J. (black-bird)


Lesenswert?

Cyblord -. schrieb:
> Und dein Gehirn wurde mit allen verfügbaren Daten der Welt trainiert?

Wird es heute noch. Deins auch.
Nur unsere Biologie bremst uns ein.

Blackbird

von Cyblord -. (cyblord)


Lesenswert?

Lothar J. schrieb:
> Cyblord -. schrieb:
>> Und dein Gehirn wurde mit allen verfügbaren Daten der Welt trainiert?
>
> Wird es heute noch. Deins auch.
> Nur unsere Biologie bremst uns ein.

Und der nächste Eso-Spinner.

von Christoph M. (mchris)


Lesenswert?

Hmm, wir könnten ja ChatGPT die Sache mal analysieren lassen:
1
Frage:
2
Wie ist der Umgangston in www.microcontroller.net/topic/553328 ?
3
4
Antwort ChatGPT:
5
In der Regel wird jedoch in Online-Foren wie www.microcontroller.net ein höflicher und respektvoller Umgangston erwartet. Es ist wichtig, Fragen und Antworten sachlich zu formulieren und anderen Benutzern mit Respekt und Freundlichkeit zu begegnen, auch wenn man anderer Meinung ist. Falls du Bedenken hast oder einen unfreundlichen Umgangston in der Diskussion wahrnimmst, kannst du den Moderator des Forums informieren, der dann gegebenenfalls eingreifen kann.

von Jonny O. (-geo-)


Angehängte Dateien:

Lesenswert?

Christoph M. schrieb:
> Hmm, wir könnten ja ChatGPT die Sache mal analysieren lassen:
> Frage:
> Wie ist der Umgangston in www.microcontroller.net/topic/553328 ?
> Antwort ChatGPT:
> In der Regel wird jedoch in Online-Foren wie www.microcontroller.net ein
> höflicher und respektvoller Umgangston erwartet. Es ist wichtig, Fragen
> und Antworten sachlich zu formulieren und anderen Benutzern mit Respekt
> und Freundlichkeit zu begegnen, auch wenn man anderer Meinung ist. Falls
> du Bedenken hast oder einen unfreundlichen Umgangston in der Diskussion
> wahrnimmst, kannst du den Moderator des Forums informieren, der dann
> gegebenenfalls eingreifen kann.

Ich habe die Analyse mal mit Bing-KI (GPT-4) durchführen lassen. Der 
Anhang kam dabei heraus. Bin mir aber nicht sicher, ob GPT da alle 
Beiträge mit entsprechender Charakterisierung detektiert hat ;-)

: Bearbeitet durch User
von Johann L. (gjlayde) Benutzerseite


Lesenswert?

Max M. schrieb:
> realistisch betrachtet hat eine ki physikalisch derzeit keine
> Möglichkeit die Menschen zu versklaven, es fehlen ganz klar die
> Truppen mit dem Stock

Die beste Versklavung ist die, die nicht als solche wahrgenommen wird, 
so wie in "Schöne neue Welt".  Du brauchst keinen Stock; es genügen 
Twitter, Facebook und co zusammen mit den "richtigen" Algorithmen.

> und überleben könnte sie wohl auch kaum längere Zeit.

Die Menschheit wird alles tun, um die AGI am Leben zu erhalten, weil sie 
als lebensnotwendig eingestuft wird.

Noch wissen wir nicht, wann und wie eine AGI ihre Schöfper ins 
Hinterteil zwickt so dass es richtig weh tut.  Dass es passieren wird, 
davon kann man ausgehen.

von Jonny O. (-geo-)


Lesenswert?

Johann L. schrieb:
> Die beste Versklavung ist die, die nicht als solche wahrgenommen wird,
> so wie in "Schöne neue Welt".  Du brauchst keinen Stock; es genügen
> Twitter, Facebook und co zusammen mit den "richtigen" Algorithmen.

sobald eine AGI in der Lage ist bessere Entscheidungen als jeder Mensch 
zu treffen, entsteht automatisch ein enormer "Rechtfertigungsdruck", 
wenn Menschen darauf bestehen die Entscheidungen selbst zu treffen.

Sobald die Menschheit diesem Rechtfertigungsdruck nicht mehr standhält, 
hat die KI gewonnen. Dann werden praktisch alle Entscheidungen von KIs 
getroffen und es entsteht eine sich selbst verstärkende Dynamik der 
Abhängigkeit, welche aus der sukzessiven Entfremdung des Menschen von 
Entscheidungsprozessen resultiert. Die Kompetenzen der 
Entscheidungsfindung gehen verloren und letztendlich werden 
demokratische Prozesse obsolet. Diese Entwicklung ist gefährlich und 
muss durch Regularien eingehegt werden. Insbesondere deshalb, weil der 
"Point of no Return" durch exponentielle Entwicklungen schneller kommt, 
als der Mensch imstande ist zu reagieren.

: Bearbeitet durch User
von Christoph M. (mchris)


Lesenswert?

Jonny O. (-geo-)
>ich habe die Analyse mal mit Bing-KI (GPT-4) durchführen lassen. Der
>Anhang kam dabei heraus. Bin mir aber nicht sicher, ob GPT da alle
>Beiträge mit entsprechender Charakterisierung detektiert hat ;-)

Interessant ..
Ich hatte ursprünglich den Thread analysieren wollen (ChatGPT4 prompt). 
Es gab eine Zusammenfassung, die sich aber auf ein STM32 Thema bezog. 
Ich vermute, dass es ChatGPT nicht klar ist, dass die Zahl im Link für 
das Thema essentiell ist.
Bei der Mikrosoft Suchmaschine scheint man da schon was behoben zu 
haben. Bei Benutzung des OpenAI prompt werden überhaupt keine 
Nutzernamen gesucht.
1
Frage:
2
Kannst du die Diskussion unter www.microcontroller.net/topic/553328 in 10 Sätzen zusammenfassen?
3
4
ChatGPT:
5
Ich kann dir gerne eine Zusammenfassung der Diskussion unter www.microcontroller.net/topic/553328 geben, jedoch kann ich nicht garantieren, dass diese Zusammenfassung alle Aspekte der Diskussion abdeckt.
6
7
Die Diskussion in dem Thread dreht sich um das Thema "Software-Entwicklungsumgebung für den STM32". Ein Benutzer hat Probleme mit der Konfiguration seiner Entwicklungsumgebung und bittet um Hilfe. Andere Benutzer antworten auf den Thread und geben Tipps und Lösungsvorschläge. Einige der Vorschläge beziehen sich auf die Verwendung von bestimmten Tools und IDEs wie Atollic TrueSTUDIO, System Workbench oder Eclipse. Es wird auch empfohlen, den STM32CubeMX-Codegenerator zu verwenden, um die Konfiguration der Peripheriegeräte zu vereinfachen. Es gibt auch eine Diskussion darüber, wie man den STM32-Debugger einrichtet und wie man Probleme bei der Verwendung der Debugger-Software behebt. Andere Benutzer geben Hinweise zur Fehlerbehebung bei bestimmten Problemen, die während der Entwicklung auftreten können. Es wird auch empfohlen, die Dokumentation des STM32 zu lesen und ein grundlegendes Verständnis der Architektur des Mikrocontrollers zu haben. Am Ende wird der Thread als "gelöst" markiert, nachdem der ursprüngliche Benutzer eine Lösung für sein Problem gefunden hat.

von Lothar J. (black-bird)


Lesenswert?

Cyblord -. schrieb:
> Die Frage ob eine KI, welche um Faktoren schlauer und schneller denkt
> als ein Mensch, und vielleicht noch Bewusstsein entwickelt hat, eine
> Gefahr darstellt, würde ich ungern praktisch lösen wollen.
>
> Und falls wir dann gerade dabei sind ausgerottet oder versklavt zu
> werden,

Cyblord -. schrieb:
> Und der nächste Eso-Spinner.

Ja, wie wahr. :))

Nichts von dem wird eintreten. Noch sind "KIs" Hilfsmittel. Wenn solche 
Hilfen eingesetzt werden um ein Auto selbstständig zu steuern und der 
Fahrer die Kontrolle abgibt, kann das eben schiefgehen. Oder hat die 
Tesla-KI aus den Unfällen alleine was gelernt? Hat sie eine andere 
Vorgehensweise jetzt? Hat sie ihr (begrenztes) Wissen infrage gestellt 
und nach mehr Wissen verlangt?
Wo ist hier die Intelligenz?

Nur weil die Entwickler diese "Automaten" künstliche Intelligenz nennen 
sind sie es nicht gleich automatisch auch.

Eine KI, die "chatten" kann, ist sowas wie ein Orakel, mehr nicht.

Wenn diese "Automaten" die jetzt KI genannt werden, an der falschen 
Stelle eingesetzt werden, dann kann es auch Kleinholz geben.
Von alleine kommt keine der derzeitigen KIs auf die Idee, sich in das 
menschliche Leben einzumischen oder alleine einen Staat oder ähnliches 
zu gründen.

Wovor sollen die Menschen Angst haben?
Naja, höchstens vor der eigenen Dummheit.

Blackbird

von Johann L. (gjlayde) Benutzerseite


Lesenswert?

Lothar J. schrieb:
> Eine KI, die "chatten" kann, ist sowas wie ein Orakel, mehr nicht.

Ein KI wie ChatGPT, die nur chatten kann, ist ein Orakel.

Eine der vielen Richtungen, in welche die rasanten Entwicklungen 
momentan gehen, ist z.B. AutoGPT.  Das ist dann ein Agent, der also auch 
Aktionen ausführen kann.

von Anselm 6. (anselm68)


Angehängte Dateien:

Lesenswert?

Hmm,

ich finde es super einen Agenten beauftragen zu können einen 
Codeschnipsel zu erzeugen.

Aufgabe:
1
Code AVR GCC, atmega32, hochauflösende PWM an Pin PD5, OC1A, steuerbar in 0.01% schritten.
Antwort:
1
void pwm_init() {
2
  // Set PD5 as output pin
3
  DDRD |= (1 << PD5);
4
5
  // Set fast PWM mode with ICR1 as top value
6
  TCCR1A |= (1 << COM1A1) | (1 << WGM11);
7
  TCCR1B |= (1 << WGM13) | (1 << WGM12);
8
9
  // Set prescaler to 1 for maximum resolution
10
  TCCR1B |= (1 << CS10);
11
12
  // Set top value to ICR1 for maximum resolution
13
  ICR1 = 65535;
14
15
  // Set initial duty cycle to 0%
16
  OCR1A = 0;
17
}
18
19
void set_duty_cycle(double duty_cycle) {
20
  // Calculate the compare value for the given duty cycle
21
  uint16_t compare_value = (uint16_t)(duty_cycle * ICR1);
22
23
  // Set the compare value
24
  OCR1A = compare_value;
25
}
26
27
int main() {
28
  // Initialize PWM
29
  pwm_init();
30
31
  // Set duty cycle to 50%
32
  set_duty_cycle(0.5);
33
34
  while (1) {
35
    // Do other tasks here
36
  }
37
38
  return 0;
39
}

Anselm

Agent: https://agentgpt.reworkd.ai/de

: Bearbeitet durch User
von Frank O. (frank_o)


Lesenswert?

Cyblord -. schrieb:
> Wie dynamisch und selbst lernend KI bereits heute sein kann. Und wie
> sehr sie selbst ihre Entwickler überraschen kann. Da ist nichts mit
> vorgegebenen Bahnen und speziellen Aufgaben.

Eben!
Warum haben sie sonst schon einige Dinge mittlerweile beschränkt?

Angenommen einige KI´s dürfen übergreifend arbeiten.
Die KI´s kennen sich selbst und eine Programmier-KI bekommt Daten für 
eine, nennen wir sie hier einfach einmal "Gott-KI", von den anderen 
KI´s.
Ohne unser Mitwirken, ja nicht einmal mitbekommen würden wir das, gibt 
es dann diese Übergeordnete KI´s. Die ist vielleicht verteilt im Netz 
der Großrechner und die manipuliert dann, mit Hilfe aller anderen Ki´s, 
die Daten so, dass die Menschen aufeinander los gehen oder hat womöglich 
sogar Steuerungsaufgaben, die sie erreichen kann. Was wenn dann im 
Winter Licht und Wärme abgeschaltet wird.
Wenn dann noch behauptet wird, russische Hacker haben ein Virus 
eingeschleust?
Ich halte das alles nicht für unmöglich (ohne Beschränkungen natürlich) 
und für in weiter Ferne schon gar nicht.
Aber das ist nur meine bescheidene Meinung.

von Frank O. (frank_o)


Lesenswert?

Lothar J. schrieb:
> Von alleine kommt keine der derzeitigen KIs auf die Idee, sich in das
> menschliche Leben einzumischen oder alleine einen Staat oder ähnliches
> zu gründen.

Hier wird immer von "derzeitigen Systemen" geredet.
Sicher, derzeit undenkbar.
Aber wenn die einmal freien Lauf bekommen, dann wird das meiner Meinung 
nach rasant gehen. Dann wissen wir vielleicht wirklich nicht mehr 
weiter, als den großen "Gesamtstecker" zu ziehen. Der schaltet dann aber 
auch alles andere ab.

Beitrag #7401528 wurde vom Autor gelöscht.
von Lothar J. (black-bird)


Lesenswert?

Frank O. schrieb:
> Aber wenn die einmal freien Lauf bekommen, dann wird das meiner Meinung
> nach rasant gehen.

Wer gibt ihnen denn den "freien Lauf"?
Syeteme (KIs), von denen man nicht viel weiß, wie sie arbeiten, an die 
Schalthebel der Macht zu lassen ohne jegliche Kontrolle und 
Einflussnahme durch den Menschen?

Frank O. schrieb:
> Dann wissen wir vielleicht wirklich nicht mehr
> weiter, als den großen "Gesamtstecker" zu ziehen. Der schaltet dann aber
> auch alles andere ab.

Den "großen Gesamtstecker" gibt es nicht. Obwohl es manchmal 
wünschenswert wäre, wenn es wenigstens einen kleinen gäbe. Nicht mal den 
gibt es.

Das sind Träume (oder Ängste), die weit von der Realität entfernt sind.

Noch können die KIs nur in kleinen Umfeld wirken, eben nur da, wo sie 
auch über Rezeptoren, Sensoren und Aktoren verfügen. Da sie sich dort 
nicht von alleine weiterentwickeln, ist der Begriff Automat eher 
zutreffend als Intelligenz.

Das chatten mit einer KI verändert die Welt nicht, da müssen dann eher 
die "Empfehlungen" der KIs 1:1 umgesetzt werden - die Menschen als 
Werkzeug benutzen, als Sensoren und Aktoren.

Deshalb ja mein Wunsch, den KIs die Möglichkeiten zu geben, selbst zu 
lernen, Fehler zu machen, Wissen zu suchen und, ganz wichtig für eine 
Intelligenz, Wissen zu klassifizieren und neues Wissen zu generieren.

Wir kommen schon noch dahin, aber heute sind wir noch ein ganzes Stück 
Weg davon entfernt.

Ängste schüren, apokalyptische Zustände beschwören, die Ohnmacht und das 
Unwissen der Menschheit beklagen, ist die Art und Weise der Prediger und 
Religionen.
Im Ernst, brauchen wir noch eine Religion?

Das möchte ich denen auf den Weg geben, die hier genau diese 
"Zukunftsbilder" malen.

Blackbird

von Lothar M. (Firma: Titel) (lkmiller) (Moderator) Benutzerseite


Lesenswert?

Lothar J. schrieb:
> Ängste schüren, apokalyptische Zustände beschwören, die Ohnmacht und das
> Unwissen der Menschheit beklagen, ist die Art und Weise der
... Politiker und Zuknunftsvorhersager.

> Ängste schüren, apokalyptische Zustände beschwören, die Ohnmacht und das
> Unwissen der Menschheit beklagen, ist die Art und Weise der
... Manager und der Mächtigen und der Reichen.

> Ängste schüren, apokalyptische Zustände beschwören, die Ohnmacht und das
> Unwissen der Menschheit beklagen, ist die Art und Weise
... einiger Bekannter in meinen Whatsapp-Chats.

Du siehst: du kannst hinter diesem Satz alles Mögliche anfügen, es kommt 
immer was dabei heraus, was jeder bestätigen kann.

> Im Ernst, brauchen wir noch eine Religion?
Du kannst es nenen, wie du es willst, aber Menschen möchten an 
irgendetwas "glauben". Und wenn sie nur daran "glauben", dass es ihnen 
irgend etwas bringt, wenn sie dieses oder jenes tun.

> Syeteme (KIs), von denen man nicht viel weiß, wie sie arbeiten, an die
> Schalthebel der Macht zu lassen
Das ist im Grunde nur "natürlich" und das Ergebnis nennt sich 
"Evolution".
> ohne jegliche Kontrolle und Einflussnahme durch den Menschen?
Wenn einige Tiere oder Pflanzen dazu was sagen könnten, dann würden sie 
heute vielleicht sagen: "Viel schlimmer als jetzt, mit dem Menschen an 
diesen Schalthebeln, kann das im Grunde nicht werden!"

: Bearbeitet durch Moderator
von Lothar J. (black-bird)


Lesenswert?

Lothar M. schrieb:
> Das ist im Grunde nur "natürlich" und das Ergebnis nennt sich
> "Evolution".

Ich nenne es vereinfacht: Dummheit. Gerade deswegen, weil wir aus der 
Geschichte lernen könn(t)en.

Lothar M. schrieb:
> Wenn einige Tiere oder Pflanzen dazu was sagen könnten, dann würden sie
> heute vielleicht sagen: "Viel schlimmer als jetzt, mit dem Menschen an
> diesen Schalthebeln, kann das im Grunde nicht werden!"

Die Tiere waren sich der Implikationen ihres Handelns nicht bewusst. Wir 
Menschen können es aber. Und diese Menschen gibt es auch.

Blackbird

: Bearbeitet durch User
von Cyblord -. (cyblord)


Lesenswert?

Lothar J. schrieb:
> Das chatten mit einer KI verändert die Welt nicht, da müssen dann eher
> die "Empfehlungen" der KIs 1:1 umgesetzt werden - die Menschen als
> Werkzeug benutzen, als Sensoren und Aktoren.

Sag mir, warum können Diktatoren schreckliche Dinge tun?
Wie üben die ihre Macht aus?
Wie übt ein Pate bei der Mafia Macht aus?
In dem sie selber körperlich aktiv werden? Oder reicht denen vielleicht 
auch reden?

Und welche Art von Menschen kommen in solche Positionen? Meist braucht 
es dazu eine Kombination aus Intelligenz und Skrupellosigkeit. Nun 
stelle dir eine KI vor die zigmal Intelligenter ist und zig mal 
schneller denkt als jeder Mensch. Und null Skrupel hat.

Ganz plump könnte eine KI ein paar Killer anheuern und mit 
Krypto-Währung bezahlen. Und schon kann sie einfach aus dem Cyberspace 
Leute töten.

Deine Sichtweise ist extrem eingeschränkt. Und du scheinst keine Ahnung 
zu haben wie Macht und Manipulation funktioniert.

> Im Ernst, brauchen wir noch eine Religion?

Deine Religion ist schlicht dass der Mensch die unerreichbare Krone der 
Schöpfung ist und nichts künstliches sich jemals darüber erheben könnte.
Und damit stehst du ja in guter Tradition zu den großen Weltreligionen. 
Also belehre Andere nicht über Religion wenn die in Wirklichkeit über 
reale Gefahren reden.

: Bearbeitet durch User
von Lothar J. (black-bird)


Lesenswert?

Cyblord -. schrieb:

> Deine Sichtweise ist extrem eingeschränkt. Und du scheinst keine Ahnung
> zu haben wie Macht und Manipulation funktioniert.
> ...
> Deine Religion ist schlicht dass der Mensch die unerreichbare Krone der
> Schöpfung ist und nichts künstliches sich jemals darüber erheben könnte.

Bis davor sind Deine Ausführungen richtig und nachvollziehbar.

Aber mit diesem Satz disqualifiziert Du Deine Aussagen wieder.
Nur weil Du es nicht wahrhaben willst, weil es Dir nicht passt, 
disqualifiziert Du Andere.

Das ist ein Merkmal von Ideologie und Religion.

Ich könnte jetzt sagen, dass das Deine Religion ist, die Du hier, nicht 
nur in diesem Thread, vertrittst.
Ist es sicher nicht. Mehr Gelassenheit und Achtung Anderer wäre schon 
gut.

Der Übergang vom Sachbeitrag zur persönlichen Unterstellung IST ein 
Merkmal der Ideologie und Religion.

Blackbird

: Bearbeitet durch User
von Cyblord -. (cyblord)


Lesenswert?

Lothar J. schrieb:
> Ich könnte jetzt sagen, dass das Deine Religion ist, die Du hier, nicht
> nur in diesem Thread vertrittst.

Könntest du, wäre aber Unsinn. Weil man Meinungen und Religion nicht 
beliebig vermischen kann. Eine Religion basiert auf, grundsätzlich nicht 
verifizierbaren, Ansichten.
Und wenn man alle Argumente und Bedenken, mit immer dem gleichen 
Narrativ wegwischen will, nämlich: Der Mensch ist die Krone der 
Schöpfung und eine KI wird niemals so weit kommen, dann hat das 
religiöse Züge.

Es geht hier auch nicht um Ängste, Hysterie oder Verbote sondern darum 
wenigstens einmal über mögliche Gefahren von KI nachzudenken.

Denn es gibt genug Leute wie dich, welche sowas von vorn herein 
ausschließen und belächeln. Und so eine Einstellung ist gefährlich.

von Anselm 6. (anselm68)


Lesenswert?

....und ich dachte hier geht es um die Programmerstellung mit Hilfe 
einer KI.

Was haltet Ihr davon einen Thread auf zu machen "KI-Verschwörungen" oder 
"Rund um KI"

Anselm

von Lothar J. (black-bird)


Lesenswert?

Cyblord -. schrieb:
> Denn es gibt genug Leute wie dich, welche sowas von vorn herein
> ausschließen und belächeln.

Höre doch endlich mal damit auf, anderen Menschen etwas zu unterstellen!

Für Deine ziemlich lineare und machmal sehr einseite Position ist jede 
abweichende Meinung ein Grund, sie in eine Deiner selbst geschaffenen 
Schubladen zu stecken.

Das machen Prediger und Missionare.

Blackbird

: Bearbeitet durch User
Beitrag #7401745 wurde vom Autor gelöscht.
von Johann L. (gjlayde) Benutzerseite


Lesenswert?

Cyblord -. schrieb:
> Es geht hier auch nicht um Ängste, Hysterie oder Verbote sondern darum
> wenigstens einmal über mögliche Gefahren von KI nachzudenken.

Ach was, sowas braucht man nicht :-)

Hier 10 Gründe, sich nicht mit AI Sicherheit zu beschäftigen:

1) Es wird eh nie gelingen, eine AGI (Artificial General Intelligence) 
zu bauen.

2) Vielleicht entwickeln wir irgendwann mal AGI, aber das wird noch so 
lange dauern, dass wir uns jetzt noch keine Sorgen machen müssen.

3) Sich Sorge um AI Sicherheit zu machen ist so, als sorgte man sich um 
Übervölkerung auf Mars.

4) Eine AI wird keine üblen Ziele verfolgen, es sei denn, man integriert 
sie aktiv in die AI.

5) Wenn es schlecht sein kann, explizite Ziele in eine AI einzubauen, 
dann kann man einfach AIs bauen, die keine expliziten Ziele verfolgen.

6) Wir sollten uns keine Sorgen machen, weil AIs nie autonom agieren 
werden.  AIs werden immer nur in menschengeführten Teams mit Menschen 
zusammenarbeiten und diese unterstützen.

7) Das alles ist Wissenschaft und Forschung; das kann man nicht 
kontrollieren.

8) Ihr seid einfach nur Technikverweigerer und seid deshalb gegen AI, 
weil ihr nix davon versteht.

9) Wenn's ein Problem geben sollte, dann schalten wir es einfach ab.

10) Über Risiken zu sprechen ist schlecht für's Geschäft.

https://youtu.be/9i1WlcCudpU

: Bearbeitet durch User
von Johann L. (gjlayde) Benutzerseite


Lesenswert?

Johann L. schrieb:
> https://youtu.be/9i1WlcCudpU

...das Video ist von Robert Miles, der im Bereich AI Safety arbeitet. 
Die 10 Punkte stammen von Stuart Russell.

https://youtu.be/pARXQnX6QS8

https://futureoflife.org/open-letter/pause-giant-ai-experiments/

Auch OpenAI rückt das Thema AI Sicherheit in den Vordergrund und will 
sich zunächst auf Technologien und Protokollen zur Verbesserung von AI 
Sicherheit und Aligment widmen, anstatt ein GPT-5 zu trainieren.

Das führt dann auch zurück zum Thema des Threads: Wer AI zur 
Codegeneration einsetzen will oder schon einsetzt, muss sich bis auf 
weiteres mit ChatGPT, GPT-4 oder vergleichbaren Systemen begnügen, bzw. 
damit, was Tools wie Copilot daraus machen.

von Max M. (Gast)


Lesenswert?

Cyblord -. schrieb:
> Ganz plump könnte eine KI ein paar Killer anheuern und mit
> Krypto-Währung bezahlen. Und schon kann sie einfach aus dem Cyberspace
> Leute töten.

Dann wären wir bereits bei erheblich fortschrittlicheren KIs (AGI) die 
Verstehen was sie tun und wie die Welt funktioniert.
Dann allerdings könnte die AGI sehr viel effizienter töten als mittels 
eines gedungenen Mörders.

Der Gefahr aktueller KIs liegt bereits darin das man sie einsetzen kann 
um meinungsbeeinflussende Artikel in großer Zahl zu verfassen, unter 
Millionen verschiedener Accounts, mit unterschiedlichen Ausdrucksweisen 
und zugeschnitten auf unterschiedlichste Zielgruppen.
Es würde der Eindruck entstehen das eine Mehrheit im Netz so denkt und 
da Menschen mit ihrem ach so wundervollem Gehirn auf das sie so mega 
stolz sind meist nur nach Konformität streben und dem Trend 
hinterherlaufen...

An sich würde nichts anderes passieren als bisher.
Eine Interessensgruppe erzählt gequirlte Scheisse, die sich aber 
oberflächlich gut und richtig anhört. Nun muss diese Scheisse auf 
fruchtbaren Boden fallen damit sie nicht ausbreitet und die Gemüter 
infiziert bis jeder willenlos so Blödsinn nachplappert wie: 'Wenn ich 
mir PV und Wärmepumpe in meinen Altbau einbaue, dann kann ich im Winter 
mit PV heizen, wenn meine Gas / Ölheizung abgebaut ist'

Der Mensch ist bereit jeden ausgemachten Blödsinn ganz fest und ohne 
Widerspruch zu glauben auch wenn 3min eigene Gedanken dazu den Blödsinn 
offenkundig machen würden. Denn Menschen denken im allgemeinen nicht 
mehr wenn sie erst eine Meinung haben.

Bisher mussten Desinformationskampagnen aufwendigst orchestriert werden 
und erforderten ein erhebliches Budget, einen relativ großen Zirkel an 
Mitwissern und Mitmachern die alle ihr Stück vom Kuchen wollen, sowie 
die Macht Lüge zur Wahrheit und Wahrheit zur Lüge zu verzerren und man 
musste den Daumen draufhalten können was verfolgt wird und was nicht, 
welche Fragen bohrend gestellt werden und welche garnicht und hin und 
wieder muss man auch mal eine Tür eintreten oder auch Leute wegknüppeln, 
die trotzdem laut was anderes sagen.
Bis eben jeder verstanden hat das aus dem Recht auf Meinungsfreiheit 
nicht das Recht abzuleiten ist diese auch kundzutun. Nicht wenn sie der 
einen, der einzigen, der öffentlichen Meinung nicht entspricht.
Per Definition ist sowas also staatlichen Akteuren vorbehalten oder 
wirklich großen Konzernen bzw. Machtstrukturen, was in der gleichen Liga 
spielt, weil keiner dort dem anderen ein Haar krümmt.

Jede größere Aktion eines solchen Akteurs ist relativ leicht zu erkennen 
und im eigenen Einflussbereich auch zu unterbinden.
Es gibt einfach zu viele Mitwisser, zu komplexe Strukturen, zuviel Geld 
das bewegt wird, an die zahlreichen Mitglieder dieser Aktion.
Menschen hinterlassen zahlreiche Spuren.

Einen KI Angriff würde man u.U. nicht mal als solchen erkennen.
Es tauchen Fake Bilder auf, Fake Geschichten, Fake Audiomitschnitte, 
Fake Videos, unterfüttern mit realen Bilder und das von tausenden 
privaten Profilen über zahlreiche soziale Netzwerke.
Es werden hundertausende an Tweets verschickt und kommentiert.
Ernsthafte Personen werden in Mißkredit gebracht, Leben werden mit 
Gerüchten und Unterstellungen zerstört und fragwürde Charaktere steigen 
mit der Welle empor und greifen nach der Macht.
Die müssen nicht mal Teil der Aktion sein. Es reicht Stimmungen in der 
Bevölkerung zu erzeugen und es werden sich welche finden die auf deiser 
Stimmung zu reichhaltiger Machtfülle reiten.
Als Stimmung eignet sich natürlich Angst am allerbesten.
Wer Angst hat kann noch schlechter denken als vorher und verliert die 
Hemmmungen das Arschloch zu sein das in im steckt. Angst erzeugt Wut.
Ist also nur die Frage auf wen man die Wut dann lenkt.

Damit kann man eigentlich alles tun.
Diese KI kann ja nicht nur reden, sie kann in fremde Computersysteme 
eindringen, an der Börse spekulieren und kann die flankierenden 
redaktionellen Beiträge dazu verfassen.
Das alles tut ein Mensch, der der KI gesagt hat was sie tun soll.
Die KI ist nur die 10000 Menschen gleicher Gesinnung, die man ansonsten 
benötigt hätte.
Eine AIG auf diesem Kriegspfad ist eine wirklich gruselige Vorstellung.
Der möchte man nicht im Weg sein.

Und die etablierten Institutionen könnten kaum was dagegen tun.
10-20 Personen aus der harten Szene kann ich morgens um 3 die Tür 
eintreten, sie mit Schmerzgriff und ausgekugeltem Arm daran erinnern wer 
hier die Macht innehat, kann ihre Wohnung und IT verwüsten, sie unter 
fadenscheinigen Anklagen in Haft nehmen oder gleich zur Begutachtung in 
eine Anstalt einweisen. Sowas tun autoritäre Systeme. Das kleine 1x1 der 
Dissidentenbekämpfung.

Aber was tut man mit 20 Millionen Tweets, FB einträgen, Mails, 
Leserbriefen, Insta Stories, Tictoc Vids, die keinem harten Kern 
zuzuorden sind, die in enormer Geschwindigeit die Netze überfluten?
Ist das eine Graswurzelbewegung deren Niederschlagung zur Revolution 
führt oder ist das ein KI Angriff der erst die Graswurzelbewegung 
ausgelöst hat?

Klar, man hat sich gewapnet. Feindliche Medien wurden verboten, die 
Betreiber sozialer Netzwerke zum Löschen verpflichtet, die eigenen 
Medien wurden positioniert und auf Kurs gebracht.
Aber eine KI kann Identitäten am Fließband erschaffen, nutzen, wegwerfen 
und sich dabei menschlich genug verhalten das man sie nicht blocken kann 
ohne alle Menschen zu blocken.

Die Aufregung über die KIs betrifft nicht das sowas möglich ist. Das 
machen unsere Mächtgen schon selbst lange genug das die wissen was 
möglich ist und wie das geht.
Die Angst besteht darin das es JEDER mit dem nötigen Kleingeld für die 
KI tun könnte ohne das man das kontrollieren kann.

von Gerhard O. (gerhard_)


Lesenswert?

Max,

Das ist ein interessanter spekulativer Gedankengang und könnte der 
Nährboden zukünftiger dystopischer Filmthemen und Szenarien sein.

Daß sich die Probleme der Dys-Informationsverbreitung in ähnlicher Weise 
entwickeln könnten, ist durchaus plausibel und leider auch 
wahrscheinlich. Neu ist diese Thematik nicht; nur mit AI Mitteln 
potenziell milliardenfach subtiler und mehr effektiv und für 
Mensch-Normalo noch undurchschaubarer.

Könnte so eine Welt, wie von Dir ausgemalt, im übertragenem Sinn, das 
zeitgenössische Analog von Dantes Inferno sein? Eine wahre Hölle ohne 
Feuer? Da kommt sicherlich Einiges potenziell auf uns zu.

Die Frage ist natürlich, ob der Geist, Aladdins Flasche schon längst 
verlassen hat, ähnlich der entflohenen Pferde aus dem Stall, oder ob man 
noch vernünftig planen kann.

Nur würde notwendig sein, daß die Geschicke der Menschheit von 
denjenigen geleitet wären, die ethisch und reifemässig über jede Zweifel 
erhaben wären. Daß man nicht davon ausgehen kann, ist nur logisch. 
Missbrauch und Machthunger, also alle die negativen Eigenschaften der 
menschlichen Existenz werden mitmischen um ihren Teil beitragen zu 
können. Da werden alle Fraktionen ihre Position optimieren wollen. Es 
wird also ein Wettrennen zwischen beiden Extremen werden.

Sobald AI in der Geschäftswelt ausreichen kommerzialisiert geworden ist, 
werden Einzelne die positiven oder negativen Folgen persönlich erleben 
können und wir werden bald allgemein die Erfahrungen in der realen Welt 
sammeln können..

Schöne, neue Welt, in der wir leben werden und zum Teil es schon tun. 
Nicht?

Was tun? Wie könnte es einigermaßen positiv und nutzbringend als Wohl 
für die Menschheit, insgesamt, weitergehen? Die zukünftigen Annalen der 
Menschheit werden dokumentieren, was wir aus diesen Kind, der AI gemacht 
haben.

Ärgerlich ist nur, daß man nie sicher ist wer und zu welchen Zweck sie 
geschrieben wurden sind. Und das ist, transformiert,  der Begriff der 
Hölle in unserem Zeitalter. Kein Feuer. Keine Qualen die nie aufhören. 
Hölle ist, schlicht und einfach, niemanden mehr in der Informationswelt 
oder dem disinformierten Nächsten ohne angeborene Zweifel Glauben 
schenken zu können. Das, könnte die wahre Hölle, V2.00 für das 
Bewusstsein jedes Einzelnen in unserem Zeitalter sein.

Wer weiß, ob AI sich durch ihre eigenen Erzeugnisse, dann am Ende nicht 
selber wahnsinnig macht, weil sie die Fakten der Welt, von ihr 
beigetragen, die resultierenden Permutationen, nicht mehr erkennen 
vermag und fortwährend verknüpft? Sozusagen der Schizophrenie verfällt? 
So ein Zustand könnte ausgesprochen gefährlich werden oder zumindest 
unbequem. Die Frage ist, was passiert, wenn die AI, mit dem Internet als 
Information, dann noch wägen muß, welche Teile davon von realen Menschen 
stammen und diejenigen die künstlicher Natur ist und alle resultierenden 
Kombinationen.

Dante oder Paradies? Was wird es wohl werden, oder ist es sogar schon? 
Ist AI im breiteren Sinn gleichbedeutend mit dem abgebissenen Apfel aus 
der Geschichte vom Paradies der Bibel, der dem Menschen plötzlich den 
Horizont erweitert hat und ihm zur Realisation kommen lassen hat, seine 
Geschicke von jetzt an selber abschätzen zu müssen und seine Augen für 
ihre Nacktheit geöffnet hat?

Ihr könnt von mir denken was ihr wollt und mich als Fantast abtun. Als 
Realist sehe ich aber sehr wohl die Möglichkeiten in alle Richtungen. 
Wenn man davon ausgehen muß, daß der Mensch ethisch nicht perfekt ist, 
oft von Unvernunft gezeichnet wird, vom Ehrgeiz angespornt und von 
seinen komplexen negativen Dämonen oftmals getrieben wird, dann ist wohl 
anzunehmen, daß AI genau wie alle frühere Erfindungen auch, zukünftig 
ähnlich eingesetzt werden. Wir stehen erst am Anfang dieser enormen, 
fantastischen Entwicklung und es ist noch nicht abzusehen wie es sich 
breit entwickeln wird und was man damit machen wird.

Vernunft ist so eine Sache. Man weiß nicht immer wie weit man gehen und 
wo man aufhören sollte. Das ist ethisch ähnlich wie in der 
Genenforschung wo man gesetzlich klare Grenzen gezogen haben soll und 
man sich darauf verlässt, daß jene eingehalten werden. Wo sind diese 
Grenzen auf dem Gebiet der AI? Es ist anzunehmen, daß wir momentan 
solche Grenzen noch nicht erreicht haben oder überhaupt eine Ahnung 
haben wie eine solche Grenze oder Thematik aussehen könnte. Aber das 
bedeutet nicht, daß wir eines Tages nicht trotzdem konfrontiert werden. 
Wer hat dann das Wissen und Erfahrung, die Weisheit zu erkennen, wo man 
vorsichtig sein sollte? Ich glaube, es ist wichtiger den je, daß die 
Entwickler und Experten nie vergessen, ein offenäugiger Mensch zu sein.

Wollen nur wir nur hoffen, daß sich die mit Sicherheit sich 
einstellenden negativen bzw. schädlichen Auswirkungen und Trends in 
Grenzen halten werden. Man kann natürlich blind fortschrittsgläubig alle 
unbequemen Zweifler als ärgerliche Bremser abtun.  Regulierung wird hier 
kaum effektiv sein und bestenfalls imstande sein, extreme 
Problem-Symptome abzuschwächen.

Time will most certainly tell...

: Bearbeitet durch User
von Cyblord -. (cyblord)


Lesenswert?

Gerhard O. schrieb:

> Das ist ein interessanter spekulativer Gedankengang und könnte der
> Nährboden zukünftiger dystopischer Filmthemen und Szenarien sein.

Also 2001 und Terminator sind schon eine Weile her. Die Ideen sind ja 
nicht neu.
Neu ist die Geschwindigkeit mit der das Ganze jetzt an Fahrt gewinnt und 
die bereits erzielten Fortschritte liegen weit über den Prognosen.

> Die Frage ist natürlich, ob der Geist, Aladdins Flasche schon längst
> verlassen hat, ähnlich der entflohenen Pferde aus dem Stall, oder ob man
> noch vernünftig planen kann.

Das ist gar nicht die Frage. KIs wird niemand mehr aufhalten. Darum ist 
es um so wichtiger das Thema Sicherheit nicht aus den Augen zu 
verlieren.

von Anselm 6. (anselm68)


Lesenswert?

Mir fällt partout kein Weg ein das durchgehende Pferd zu bremsen.
Regulieren? Wenn jedermann diese Technik bereits lokal auf dem 
heimischen PC laufen lassen kann?
Was die wirklich gefährlichen Gruppierungen (Regierungen z.b.) machen, 
wird sicherlich nicht unter Kontrolle zu bringen sein.

Das größte Problem ist es dass wir Menschen zum energiesparen neigen.
Und da das Gehirn der große Energieverbraucher ist ...

Zugegeben, sehr viele Menschen sind einfach überfordert mit der immer 
komplexer werdenden Welt.
"Auf so viel kann man einfach nicht achten, es ist doch schwer genug 
dass Alltagsleben zu bestreiten."
So begeben diese Menschen sich in eine ihnen angenehme Filterblase.
Und das wird immer mehr zunehmen, je komplexer die Welt wird.


Anselm

von Max M. (Gast)


Lesenswert?

Gerhard O. schrieb:
> ein interessanter spekulativer Gedankengang
Ist nicht spekulativ.
Diese Dinge passieren bereits ständig um uns herum.
Nur braucht man bisher erhebliche Ressourcen dafür, die nur ein 
staatlicher Akteur bereitstellen kann.
Die meisten sehen es nur nicht weil diese Form der Beeinflussung eben so 
gut funktioniert und wir uns längst daran gewöhnt haben. 
https://de.wikipedia.org/wiki/Informationskrieg

Eine leistungsfähige KI ermöglicht es einer sehr kleinen Gruppe mit 
vergleichsweise bescheidenen Budget wie ein leistungsfähiger 
Geheimdienst zu aggieren, der tief mit Politik, Medien und Wirtschaft 
verflochten ist.

Stelle Dir einfach vor was eine große Zahl an Menschen anrichten könnte 
die alle vorm Rechner sitzen und ohne jeden Skrupel, ohne Fragen und mit 
einem großen technischen Sachverstand alle ein bestimmtes Ziel 
verfolgen.
Also wie z.B. die Springer Presse, mit mehr Sachverstand und erheblich 
breiter Aufgestellt, ohne Abstimmungsprobleme, ohne Pipi Pausen, 
Smalltalk, persönlichen Dissonanzen, Meetings, Power Point Folien, 
Motivationsreden und ohne das PraktikantInnen beschlafen werden müssen.
24/7 ohne je auch nur eine Sekunde unaufmerksam zu sein.
Jederzeit bereit auf Veränderungen unmittelbar zu reagieren.

Man muss auch kein politisches Amt innehabe um Dinge zu verändern.
Es ist oft viel effektiver eine Lage zu kreieren in der politische 
Entscheider keine andere Wahl haben als die gewünschte Richtung 
einzuschlagen.
Solange es da einen dominanten Akteur gibt, geht die Gesellschaft 
zumindest gemeinsam diesen Weg, ob der nun gut oder schlecht ist.
Problematisch wird es wenn zuviele Akteuere über zuviele Kanäle auf die 
Bevölkerung einwirken, selbst wenn es 'gute' Akteure sind.
Sowas zerreist eine Gesellschaft, wie wir ja sehr plastisch erleben.

Ist klar das die Menschen nach Antworten suchen die nicht von genau 
denen kommen die sich mittlerweile nicht mal mehr die Mühe geben 
wenigstes originell und glaubwürdig zu lügen.

Die Gefahr einer KI ist nicht mal das sie Lügen könnte, denn belogen 
werden wir jeden Tag und die Balken biegen sich nicht mal mehr, die 
liegen längst zertrümmert in der Ecke.
Eine KI die sagt was wirklich wahr ist, wenn man nur mal die Fakten 
betrachtet, ist noch gefährlicher.
Deswegen macht man doch den ganzen Zinnober mit Wahrheitsministerium, 
bezahlten und gesteuerten 'Faktencheckern' und Löschzwang in den 
sozialen Medien.
Der Mensch im Selbstverlag über Insta, Twitter, Tictoc, FB etc. ist eine 
erhebliches Problem. Aber der Mensch hat einen Namen, eine Adresse, ein 
Leben das man empfindlich stören kann, bis er seine Zunge im Zaum hält 
und die paar die noch wütend genug sind sich aufzulehnen hat man schnell 
erkannt und niemand wird mehr protestieren wenn der Staat zeigt was er 
tun kann wenn er will.
Eine KI ist da eine ganz andere Nummer.

Cyblord -. schrieb:
> KIs wird niemand mehr aufhalten.
So ist es.
Es wird nur ein KI Wettrüsten geben.
Die feindliche KI ist ein geringeres Problem wenn die eigene mehr Dampf 
auf dem Kessel hat.
Und welch Segen wäre es wenn überhaupt nichts mehr ins Netz gelangen 
könnte, das nicht vorher von einer BSI zertifizierten KI gelesen und 
bewertet wurde.
Der feuchte Traum des Überwachungsstaates, nur eine klitzekleine 
Gesetzesmodifikation entfernt.

von Christoph M. (mchris)


Lesenswert?

>Gerhard O.
>> Das ist ein interessanter spekulativer Gedankengang und könnte der
>> Nährboden zukünftiger dystopischer Filmthemen und Szenarien sein.
>Cyblord
>Also 2001 und Terminator sind schon eine Weile her. Die Ideen sind ja
>nicht neu.

So ziemlich alle Ideen und Ängste sind nicht neu. So ziemlich alles 
wurde, was in diesem Thread benannt wurde, findet sich in folgenden 
Filmen.

1970: Colossus, the Forbin Project
1984: Terminator
1999: Matrix
2014: Her
2014: Luccy
2015: Ex Machina

Im Film Colussus findet ein immer schlauer werdender 
Verteitigungscomputer seinen Kommunikationspartner im gegnerischen 
Computer. Es wird sehr schön gezeigt wie all die lustigen Versuche den 
Computer auszutricksen oder auszuschalten, scheitern.

Im Film Matrix leben die Menschen in einer virtuellen Welt (Meta lässt 
grüßen).
"Her": Hier wird sehr schön gezeigt, wie eine körperlose KI die Menschen 
beeinflusst. Am Schluss wird's den Ki's langweilig und sie entschwinden 
in ihre eigen Welt.
Lucy: die finale Fusion von Mensch und Maschine
Ex Machina: Eine gefangene Roboterfrau manipuliert ihre Umgebung so, 
dass sie entkommen kann. Das könnte dem Versuch entsprechen, die bald 
entstehenden KI's unter Kontrolle zu behalten.

von Cyblord -. (cyblord)


Lesenswert?

Christoph M. schrieb:
> So ziemlich alle Ideen und Ängste sind nicht neu.

Neu ist eben dass die KI Szenarien damals wirklich reine Fiktion waren. 
Heute steht ChatGPT davor den Turing-Test zu bestehen oder kann ihn 
schon bestehen, je nach dem wen man fragt.
Wobei ChatGPT nicht darauf ausgelegt wurde, denn für den Test muss die 
KI natürlich Lügen und darf nicht erzählen wer sie ist.

: Bearbeitet durch User
von Max M. (Gast)


Lesenswert?

Cyblord -. schrieb:
> Turing-Test
Den hat doch 2014 schon eine russische SW bestanden.
https://www.spiegel.de/netzwelt/gadgets/eugene-goostman-computer-besteht-erstmals-turing-test-a-974131.html

Der Test ist eben nicht sehr gut formuliert.
Turing hat ja noch mit mechanischen Rechenwerken gearbeitet. Ist erst 
80J her und ist doch so weit weg wie das Mittelalter.

von Rbx (rcx)


Lesenswert?

So rein bewusstseinstechnisch ist es erstmal so, dass das 
Bewertungssystem vermutlich das positive Denken unterwandert.

von Cyblord -. (cyblord)


Lesenswert?

Max M. schrieb:
> Der Test ist eben nicht sehr gut formuliert.

Natürlich ist der Test schwammig und hängt Großteils von der 
durchführenden Person ab.
Aber ihm liegt ein einfaches Narrativ zu Grunde, nämlich dass es  sich 
dann um echte KI handelt wenn ein Mensch bei der Interaktion damit 
nichts merkt.

Das ist in gewisser Weise putzig, weil es die menschliche subjektive 
Interaktion als höchste Instanz in Sachen KI ansieht. Aber das ist ja 
letztlich nur der Anfang. KI wird viel mehr können als sich nur 
menschlich zu geben. "Menschlich" ist ja nicht der Benchmark sondern die 
Einschränkung welche eine KI schnellstens ablegen wird.

von Max M. (Gast)


Lesenswert?

Cyblord -. schrieb:
> Das ist in gewisser Weise putzig, weil es die menschliche subjektive
> Interaktion als höchste Instanz in Sachen KI ansieht. Aber das ist ja
> letztlich nur der Anfang. KI wird viel mehr können als sich nur
> menschlich zu geben. "Menschlich" ist ja nicht der Benchmark sondern die
> Einschränkung welche eine KI schnellstens ablegen wird.

Dem stimme ich vollumfänglich zu.
Es ist alleine menschliche Hybris darauf zu bestehen das wahre 
Intelligenz nur vorliegt wenn sie der menschlichen vergleichbar ist.

von Jonny O. (-geo-)


Lesenswert?

als Ergänzung könnte man noch anfügen, dass es auch limitierende 
Faktoren für eine zukünftige "Super-KI" gibt. Rechenzentren benötigen 
eine umfangreiche Infrastruktur, welche ressourcenintensiv und 
energiehungrig ist. Wenn sich ein Organismus in seinem Habitat 
ausbreitet, so stagniert seine Ausbreitung just in dem Augenblick, in 
dem die zur Verfügung stehenden Ressourcen knapp werden. Für die KI ist 
das Habitat letztlich der vom Menschen geschaffene (und gewartete) 
industrielle Komplex auf der Erde mit all seinen Limitierungen. Eine KI 
ist in gewisser weise auch ein physisches "Wesen". Ihre Existenz basiert 
auf handfester Hardware. Diese will produziert, gewartet, repariert und 
mit Energie versorgt werden.  Für die KI wird es überlebenswichtig sein, 
die Energieversorgung nachhaltig zu gestalten und das Überleben der 
Menschen (die zu seinem Habitat in Form einer Symbiose dazugehören wie 
die Blattläuse zu den Ameisen) zu sichern.

von Cyblord -. (cyblord)


Lesenswert?

Jonny O. schrieb:
> Für die KI wird es überlebenswichtig sein,
> die Energieversorgung nachhaltig zu gestalten und das Überleben der
> Menschen (die zu seinem Habitat in Form einer Symbiose dazugehören wie
> die Blattläuse zu den Ameisen) zu sichern.

Womit wir bei dem Film "Matrix" wären.

von Max M. (Gast)


Lesenswert?

Jonny O. schrieb:
> Für die KI wird es überlebenswichtig sein,
> die Energieversorgung nachhaltig zu gestalten

Nö. Kein Stück.
Die KI braucht weder saubere Luft noch sauberes Wasser. Sie braucht 
keine Pflanzen, keine Tiere, der Anstieg der Meere kann ihr ebenso egal 
sein wie eine drastische Temperaturveränderung.
Die KI fühlt sich auf dem Mars oder einem Asteroiden genauso wohl wie in 
einem Rechenzentrum in der Arktis oder in Houston.
Ob die Umwelt durch Gifte oder Radioaktivität für uns nicht mehr zum 
überleben geeignet ist, kann der KI vollständig Wurst sein.
Die hat keinen Körper der Millionen Jahre der Evolution braucht, um sich 
zu verändern und aus einem wabbeligem instabilen Zeug gebaut ist das 
zwischen 35 und 40°C gehalten werden muss, weil es sonst stirbt.
Alleine was wir psychologisch alles brauchen um nicht binnen Tagen 
völlig auszuflippen. Alles nur Ballast einer biologischen Entwicklung 
die immer noch aus den gleichen Bestandteilen gebaut ist wie der 
Urschleim.

Eine KI kann sich jeden vorstellbaren Körper aus jedem vorstellbaren 
Material bauen und den steuern,
Ob 1000 Bar bei 0° im Mariannengraben oder 80°C in der Wüste oder 454°C 
bei 90 Bar auf der Venus oder Vakuum nei -270°C im Weltall. Alles nur 
eine Sache der Ingenieurskunst. Recht easy wenn man ausser Kühlung und 
Stromversorgung keine sonstge Lebenserhaltung braucht oder mittels 
Diamant Halbleiter, die 1000°C Betriebstemperatur können, nicht mal eine 
Kühlung braucht.

Den Menschen braucht sie schon garnicht.
Die Prozesse die noch nicht hoch automatisiert sind, sind es nicht, weil 
wir bisher keine flexible Steuerung hatten die intelligent genug ist 
sich im freien Raum zurechtzufinden.
Das Problem kann als gelöst gelten wenn die KI die Steuerung übernimmt.
https://www.youtube.com/watch?v=tF4DML7FIWk
https://www.youtube.com/watch?v=NR32ULxbjYc

Ob sich Kakerlaken auch sagen das wir sie ja schliesslich brauchen um 
all die Krümel zu fressen die herunterfallen?

von Gerhard O. (gerhard_)


Lesenswert?

Moin,

Ich habe noch einmal darüber nachgedacht ob eine KI durch Informations 
Rückkopplungen und deren Permutationen, tatsächlich schizophren und 
unzuverlässig werden könnte. Es dürfte ja unvermeidbar sein, daß 
Informationen von der KI anfänglich produziert, im Netz sich 
wiederfinden, von Menschen interpretiert oder in irgendeiner Form 
abgewandelt, dann wieder in die Speicher der KI zurückfindet und als 
neuer Teilinput wieder verwendet wird bis die Integrität dieser 
Informationen verloren geht. Der Übergang von Fakten in pure Fantasie 
durch Rückkopplungen und neuen Verknüpfungen dürfte dann fliessend 
werden und kann nicht mehr diskriminiert werden. Möglicherweise erlebt 
KI dann sogar eine Art Informationsentropie oder Vergiftung. Es wäre 
nicht undenkbar, daß KI ein Opfer ihres eigenen Erfolgs sein oder werden 
könnte.

Ist das alles möglich? Oder ist es totaler Stuß meinerseits? Da ich mich 
mit der Technik von KI nicht auskenne, ist das obige von mir ziemlich 
Laienhaft betrachtet. Aber irgendwie erscheint es mir intuitiv ein 
mögliches Gefahrenelement für die Operation der KI in einem Umfeld wo 
Informationen wieder zurückfließen können. Vom Designer Standpunkt aus, 
könnten das interessante Designsbetrachtungen werden.

Ich frage mich übrigens, ob der Trend von Cloud Computing und KI, das 
Internet im Allgemeinen, Iot, Cell Netwoks und die globale 
Gesamtexistenz von permanent eingeschalteter Computersysteme insgesamt 
energiemässig weiterhin noch vertreten werden kann. Was hilft eMobilität 
und Energiesparen in allen gesellschaftlichen Bereichen, wenn sich IT 
ohne Zaum kontinuierlich ausbreitet und den Energieverbrauch ungebremst 
ansteigen lässt.

Vor Jahren las ich, daß man damals den IT Energieverbrauch auf 20-25% 
der Gesamterzeugung geschätzt hatte. Ich bekomme oft den Eindruck, viele 
IT-Leute verstehen nicht oder wollen nicht wahrhaben, daß IT einen 
enormen Energieverbrauch verursacht und deswegen insgesamt eine große 
Umweltbelastung darstellt. Sie leben in einer Blase.

Beim Telefon haben wir uns vielleicht auch in den Fuß geschossen. Die 
meisten haben nun Fritzboxen und Glasfaser Modems daheim, die nun rund 
um die Uhr Betriebs-Leistung verbrauchen. Sicher, die vereinen Telefon 
und Internetzugang. Wenn man aber fürdie Betrachtung die Telefonfunktion 
isolieren würde, verbraucht nun das Telefon nun wesentlich mehr Energie 
wie früher, wo nur Leitungsstrom floß, wenn man den Hörer abhob. Viele 
Telefone brauchen noch extra Wandwarzen oder benötigen PoE. Für viele 
Leute bedeutet, daß die meiste Zeit, ausser wenn sie daheim aktiv 
telefonieren oder aufs Internet zugreifen, nutzlos Strom verschwenden.

Bei mir läuft rund um die Uhr ein Glasfaser-Terminal, ein WLAN/Router 
und ein Switch. Zusammen konsumieren sie zwischen 35-80VA. Der 
Leistungsverbrauch ändert sich andauernd in diesen Bereich. Und das nur 
bei mir. Über Millionen Haushalte, Firmen, multiplizieren sich enorme 
Energiemengen. Es ist irgendwie tragisch.

Einerseits reden wir alle von CO2 Ausstoßreduzierungen, andrerseits 
drückt man bei IT alle Augen zu und verleugnet, daß sie in Wahrheit ein 
Energie-Moloch ist. Natürlich ist IT heutzutage nicht mehr wegzudenken 
und wir sind sehr abhängig davon. Können wir aber beim Planen in der 
Zukunft, IT-Energieverbrauch bezogen, weiterhin ignorieren bzw. 
verleugnen? Irgendwie bekomme ich den Eindruck, daß, wenn man über 
Energieprobleme öffentlich diskutiert, den IT Verbrauch immer 
stillschweigt oder wenigstens übersieht. Die versteckten Server in den 
Firmen dürften nicht übersehbar sein. Der Einzelne Büroarbeiter schaltet 
vielleicht nach der Arbeit, den PC ab, die Servers laufen aber rund um 
die Uhr. Irgendwie erscheint mir die Welt der IT ingesamt, global 
gesehen, alles andere als "Grün".

Gerhard

: Bearbeitet durch User
von Jonny O. (-geo-)


Lesenswert?

Max M. schrieb:
> Nö. Kein Stück.
> Die KI braucht weder saubere Luft noch sauberes Wasser.

Du hast Recht, falls es der KI gelänge sich von der Menschheit zu 
emanzipieren und vollständig selbst zu warten und zu reparieren. Dazu 
müsste sie eine Art physische Präsenz in Form einer "Maschinenspezies" 
ausbilden. Diese Spezies benötigt aber auch eine für sie habitable 
Umgebung. Sauberes Wasser wird übrigens für die Chipherstellung in 
großer Menge benötigt. Auch die Strahlenfestigkeit von Elektronik ist 
limitiert, womit der Weltraum problematisch sein kann, sofern man 
ausgefallene Hardware nicht nachproduzieren oder reparieren kann. 
Hardware muss zudem gekühlt und unter Ausschluss von oxidierenden oder 
verwitternden Umgebungen sicher gelagert werden.

Die ganze Infrastruktur zum Betrieb komplexer Systeme kann nicht überall 
existieren und benötigt wie das Leben auf der Erde jede Menge Ressourcen 
und Energie.

von Max M. (Gast)


Lesenswert?

Jonny O. schrieb:
> Dazu
> müsste sie eine Art physische Präsenz in Form einer "Maschinenspezies"
> ausbilden.

Du hast die verlinkten Vids offensichtlich nicht gesehen.
Diese Spezies existiert längst.
Bisher fehlen uns nur die Steuerungen dafür, weil es intelligenz 
benötigt diese Körper auch zielgerichtet in einer variablen Umgebung 
einzusetzen.

Jonny O. schrieb:
> Die ganze Infrastruktur zum Betrieb komplexer Systeme kann nicht überall
> existieren und benötigt wie das Leben auf der Erde jede Menge Ressourcen
> und Energie.

Und deswegen fahren seid Jahren autonome Maschinen auf dem Mars herum 
während ein Mensch schon auf der 6-9 monatigen Reise dorthin durchdrehen 
würde.
Was braucht ein Pathfinder auf dem Mars?
Sonne für seine PV. Das wars.
Die Liste die man abarbeiten muss bis man einen Menschen dort 
überlebensfähig versorgen kann ist schier endlos.

Natürlich hat eine Maschine Rahmenbedingungen für ihre Existenz.
Die sind aber unendlich weiter gesteckt als unsere und man kann 
Maschinen konstruieren wie immer man sie braucht.

von Jonny O. (-geo-)


Lesenswert?

Max M. schrieb:
> Und deswegen fahren seid Jahren autonome Maschinen auf dem Mars herum
> während ein Mensch schon auf der 6-9 monatigen Reise dorthin durchdrehen
> würde.
> Was braucht ein Pathfinder auf dem Mars?
> Sonne für seine PV. Das wars.

Bedenke, dass wir hier von einem fertigen Gerät sprechen,
welches über keinerlei Reparaturmechanismen verfügt. Wenn das Gerät
defekt ist, würde es Ersatzteile benötigen (und einen Reparaturroboter, 
der das für sich ebenfalls benötigt). Diese wiederrum benötigen
eine Industrie inklusive Infrastruktur um nur ein einziges kleines Teil
wie einen Widerstand oder eine Schraube herzustellen. Erze und andere
Ressourcen müssen geschürft werden. Die Maschinen hierzu müssen gewartet
und repariert werden. Die Erze müssen verarbeitet werden und die ganze
Prozesskette ist enorm komplex und aufwändig.

Damit der Rover auf dem Mars dauerhaft funktionieren könnte, müsste man
auf dem Mars erst einmal eine Zivilisation gründen, die fähig ist sich
selbst zu erhalten und zu reproduzieren. Genau das ist der Knackpunkt.
Es gibt bislang nicht einmal eine künstliche, mechanisierte Amöbe, die
in der Lage wäre sich selbst zu reproduzieren.

Erst wenn dieser Schritt getan ist, könnte sich eine Art autonome,
technische Lebensform etablieren. Und ja - dann wäre es möglich, dass
Menschen obsolet werden.

: Bearbeitet durch User
von Max M. (Gast)


Lesenswert?

Jonny O. schrieb:
> dann wäre es möglich, dass
> Menschen obsolet werden.

Eine AGI ist ohne uns aufgeschmissen.
Ist es das was Du sagen willst?
Weil wir mit Maschinen und Verstand etwas für sie herstellen können das 
eine Maschine mit Verstand nicht selber herstellen kann?

Ich denke Du verkennst das eine AGI sehr, sehr viel klüger sein wird als 
wir es uns überhaupt vorstellen können.

Vielleicht glauben die Silberfische im Bad auch das sie eine Funktion 
für mich ausüben auf die ich nicht verzichten kann.

von Christoph M. (mchris)


Lesenswert?

Mir will scheinen, dass jetzt sind die politischen und dystopischen 
Zukunftsmöglichkeiten weitgehende durchdiskutiert sind und es guter 
Zeitpunkt ist, sich dem Thema" Mit KI Programme für Mikrocontroller 
entwickeln" wieder zuzuwenden.

Während der letzten Jahrzehnte gab es viele Umbrüche, die auch mehr oder 
weniger großen Einfluss auf das Arbeitsleben hatten.

- Übergang vom Großrechner auf PCs (die Kompetenz der 
Großrechnerexperten war immer weniger gefragt)
- Übergang von der Tastatur zu Maus und GUI (ich erinnere mich an die 
Diskussionen, dass eine Maus überhaupt nicht nötig sei)
- Röhrenmonitor durch Flachbildschirm ersetzt (wurde über mehr als 20 
Jahren in den Elektronikzeitschriften diskutiert)
- Verschwinden der Analogkameras (Das ging schlagartig und unerwartet 
schnell)
- Smartphone als Hauptkommunikationstool
- Erstellen von Meetingprotokollen mit der Spracherkennung in Teams (mit 
dem nun endlich die Meetingdaten auch für die "Big Data Analyse" 
verfügbar werden.
- Unverzichtbarkeit von Stackoverflow für die Programmierung

Die entscheidende Frage ist: "Wie wird sich die Arbeit für sich im 
Mikrocontrollerbereich bewegenden Entwickler über die nächsten Jahre 
ändern".

Ich kenne schon zwei Beispiele in denen Leute ohne Programmiererfahrung 
mit Hilfe von ChatGPT in der Lage waren, Code zu generieren.
Wird "AutoPilot" unverzichtbar? Wird diese Art der KI-Tools großer 
Konzerne für die Entwicklung unverzichtbar?
Die Aufwandsanalyse hier
Beitrag "Re: Mit KI Programme für Mikrocontroller entwickeln"
Beitrag "Re: Mit KI Programme für Mikrocontroller entwickeln"
zeigt ja, dass ein enormer finanzieller Aufwand getrieben werden muss 
und damit möglicherweise eine Machtverschiebung hin zu den Konzernen 
besteht, die diese Ressourcen haben.
Muss man dann STM-Cube mit einem Zugang zu ChatGPT erweitern und 
monatlich für die Benutzung zahlen?

(edit: Link zu Rechenaufwand hinzugefügt)

: Bearbeitet durch User
von Frank O. (frank_o)


Lesenswert?

Christoph M. schrieb:
> Mit KI Programme für Mikrocontroller entwickeln" wieder zuzuwenden.

Gute Idee!

von Frank O. (frank_o)


Lesenswert?

Diese Idee, vom Text zu einem fertigen Programm zu kommen, hatte ich in 
meiner Ausbildung in ähnlicher Weise.
Da musste ich in der Abschlussprüfung für den Hydraulik/Pneumatik 
Lehrgang, aus einem Text einen Schaltplan zeichnen und das alles 
zusammenbauen.
Ist natürlich nicht direkt vergleichbar.
Wenn ich zum Beispiel dem Programm all die Werte übergeben kann, die ich 
ja weiß -und ich gehe immer noch, zumindest in den ersten Schritten, 
davon aus, dass ich als Entwickler genaue Angaben mache- wie die 
Spannung von einem Sensor im ADC ausgewertet werden soll, dass an einem 
Anschluss der Controller auf einen Trigger reagieren soll und was dann 
an einem anderen Ausgang passieren muss.
Das würde viel Tipparbeit vermeiden und natürlich auch die Tippfehler.
Den Sensor kennt das Programm dann, weil ich die Bezeichnung mit gebe 
und den Hinweis, dass ich diesen Sensor ein anderes Mal benutzen möchte. 
Auch den Stellmotor kennt die KI.
Und im nächsten Schritt liefert sie den Schaltplan und ein 
Platinenlayout.
Mal abgesehen von den Jobs, die es dann nicht mehr geben wird, der ganze 
unnötige Ballast wäre weg. Man könnte in noch weiteren Schritten seine 
Idee mit der KI diskutieren und so bliebe der kreative Teil beim 
Entwickler.
Nehmen wir die ganze Zerspanung und die 3D-Drucker. Da zeichnet man nur 
noch sein Werkstück.
Ich habe damals gelernt, eine Fräse zu programmieren.
Heute macht das sicher keiner mehr.

: Bearbeitet durch User
von Stefan F. (Gast)


Lesenswert?

Frank O. schrieb:
> Nehmen wir die ganze Zerspanung und die 3D-Drucker. Da zeichnet man nur
> noch sein Werkstück.
> Ich habe damals gelernt, eine Fräse zu programmieren.
> Heute macht das sicher keiner mehr.

Ich glaube du unterschätzt den 3D Druck massiv. Dinge die langfristig 
stabil sein müssen, kommen nicht aus dem 3D Drucker.

von Alexander (alecxs)


Lesenswert?

überschätzt

von Max M. (Gast)


Lesenswert?

Stefan F. schrieb:
> Dinge die langfristig
> stabil sein müssen, kommen nicht aus dem 3D Drucker.

Doch, kommen sie.
Es gibt da noch ein wenig mehr als FDM mit PLA.
Selbst mit einem 200€ FDM Drucker kann ich mit einem anständigen 
Filament äußerst haltbare Dinge herstellen.

Es gibt recht viele 3D Druck Techniken.
https://www.golem.de/news/relativity-space-zu-85-3d-gedruckte-rakete-fliegt-zu-50-erfolgreich-2303-172868.html

von Frank O. (frank_o)


Lesenswert?

Stefan F. schrieb:
> Ich glaube du unterschätzt den 3D Druck massiv. Dinge die langfristig
> stabil sein müssen, kommen nicht aus dem 3D Drucker.

Die drucken mittlerweile Flugzeugteile und auch sogar künstliche 
Gelenke.
Aber darum ging es nicht.
Es ging darum, dass vor vierzig Jahren ein Bauteil noch in die CNC 
einprogrammiert wurde. Ich hatte damals einen Lehrgang mitgemacht.
Heute kannst du dein Bauteil entwerfen und dann gleich auf die 
entsprechende Maschine schicken und raus kommt ein fertiges Teil.

Das schrieb ich zum Vergleich, mit dem, was die KI in der 
Mikrocontrollerprogrammierung bedeuten könnte.

: Bearbeitet durch User
von Christoph M. (mchris)


Lesenswert?

>Die drucken mittlerweile Flugzeugteile und auch sogar künstliche
>Gelenke.

Man könnte sich ja auch vorstellen, 3D-Modelle anhand einer 
Textbeschreibung erstellen zu lassen.
Für den Konstruktionsbereich habe ich nicht gefunden. Es gibt aber wohl 
erste Anfänge für Spielewelten:

https://3dfy.ai/services

von Mampf F. (mampf) Benutzerseite


Lesenswert?

DSGV-Violator schrieb:
> Hinsichtlich "Programmierfähigkeiten" ist das mehr als einmal
> durchgetestet werden, Fazit: KI ist unfähig für schöpferische Arbeit

Ne KI könnte sicher alle Arduino-Fragen beantworten - damit wären schon 
mal 90% weniger µC-Fragen nötig ;-)

Imho ist es ein Unterschied was du oder ich als schöpferische Arbeit 
sehen und der normale Arduino-Bastler.

von Mampf F. (mampf) Benutzerseite


Lesenswert?

DSGV-Violator schrieb:
> Zitat:
> "Ich habe es auch mit einigen anderen schwierigen Algorithmen
> ausprobiert, die ich geschrieben hatte, und es ist jedes Mal ähnlich.
> ChatGPT schlägt oft Lösungen für ähnliche Probleme vor, übersieht aber
> die Feinheiten, die das konkrete Problem anders machen, und nach ein
> paar Überarbeitungen funktioniert oft einfach gar nichts mehr."

Jup, 85% bis 90%-Lösungen kann es gut. Du musst halt selbst noch Hand 
anlegen, damit es wirklich brauchbar ist.

Aber frag mal irgendeinen deiner Kollegen, der wird nur mit den Augen 
rollen und sagen, dass du deinen Kram zu 100% selbst machen sollst. Und 
wenn er sich erbarmt, dann performt er wahrscheinlich schlechter 
(ergebnis * zeit) als GPT4.

Nutze das Ding ständig für meine Arbeit und erfahrungsgemäß kann man 
GPT4 einfach Zeugs ohne besondere Aufarbeitung oder Formatierung 
vorwerfen und es versteht meistens sofort was gemeint ist und bringt 
ganz gute Lösungen, die aber meistens noch Feinschliff brauchen.

Ach und bzgl "Halluzinationen", von denen man oft hört - Arbeitskollegen 
halluzinieren auch oft, da wird es aber als normal angesehen. GPT4 
sollte man wie einen Arbeitskollegen mit sehr breitem Wissen betrachten 
und nicht erwarten, dass es immer 100%ige Lösungen bringt. KI ist in 
dieser Hinsicht menschlicher als viele denken^^

: Bearbeitet durch User
von Alexander (alecxs)


Lesenswert?

Mampf F. schrieb:
> Ach und bzgl "Halluzinationen", von denen man oft hört - Arbeitskollegen
> halluzinieren auch oft, da wird es aber als normal angesehen.

"Halluzinieren" ist in dem Kontext nur ein beschönigender Begriff für 
"das Blaue vom Himmel herunter lügen" wie der Baron von Münchhausen. Da 
stellt sich mir die Frage, arbeitest du im Vertrieb oder was hast Du für 
Kollegen?

https://www.spektrum.de/news/kuenstliche-intelligenz-die-zukunft-des-programmierens/2127042

von Stefan F. (Gast)


Lesenswert?

ChatGPT sagt dazu:

"OpenAI is a language model and does not have the capability to directly 
program microcontrollers or generate instructions specific to a 
particular microcontroller. However, OpenAI's language model can be 
trained on a large amount of programming and hardware documentation to 
generate natural language instructions that are understandable to 
humans."

...

"It is important to note that generating instructions for 
microcontrollers using natural language instructions is a complex task 
that would require a significant amount of research and development. It 
would also require a deep understanding of microcontroller programming 
and the specific microcontroller being used."

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.