Forum: PC Hard- und Software ChatGPT im Betreuungsalltag


von Alexander (alecxs)


Lesenswert?

Der Schwiegervater ist eigentlich noch nicht pflegebedürftig, allerdings 
besteht seine Welt nur noch aus seinen vier Wänden und Telefonaten. Er 
baut geistig ab (was wohl auch am Alkohol liegt) und bräuchte jemanden 
der ihn motiviert gesundheitliche Veränderungen durchzuziehen. Es würde 
schon reichen wenn er täglich einen Anruf bekommt der ihn erinnert seine 
Übungen zu machen. Internet ist nicht vorhanden, zum telefonieren gibt 
es ein Smartphone mit geringem Datenvolumen.

Nun gibt es Menschen auf der Welt die sich richtig mit ChatGPT 
unterhalten, also über gesprochene Sprache kommunizieren. Manche führen 
wohl auch Beziehungen ganz wie im Film Her.

Da Frauen ihr Telefon grundsätzlich lautlos haben oder einfach nicht 
rangehen, ruft Schwiegervater bei mir an. Ich telefoniere auch gern mit 
ihm, aber ich bin nicht der richtige Gesprächspartner.

Ich suche nach einer (möglichst kostenfreien) Lösung so einen Dienst 
einzurichten. Er würde vermutlich nicht mal merken dass die Anruferin 
eine KI ist.

Das knifflige daran ist die Privatsphäre, wir möchten ihn nicht 
aushorchen oder überwachen. Die KI soll trotzdem irgendwie Aufgaben von 
uns bekommen können (Therapieziele, Infos vom Arzt etc) also bräuchte 
man einen Zugang zu dem Bot.

Die gesellschaftlichen/moralischen Aspekte möchte ich hier nicht 
diskutieren, ich frage nach der technischen Umsetzung (Android App, PC 
mit Fritzbox, etc)

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

Schlechte Idee, Haustier und/oder Seniorengruppe/Tagespflege ist besser.

https://www.help-akademie.de/ein-haustier-die-gute-seele-von-vielen-senioren-teil-2/

von Christoph M. (mchris)


Lesenswert?

Alexander schrieb:
> Ich suche nach einer (möglichst kostenfreien) Lösung so einen Dienst
> einzurichten. Er würde vermutlich nicht mal merken dass die Anruferin
> eine KI ist.

Ich habe "OpenClaw" noch nicht ausprobiert, aber vielleicht wäre das als 
System geeignet.

https://youtu.be/ps7kqEXkwEs

Die Aufgabe für den Bot wäre "betreue Schwiegervater".

Man könnte vielleicht auch mit einfachen Sprachgeneratoren beginnen:
Beitrag "Sprachgenerator?"

von Lotta  . (mercedes)


Lesenswert?

Bradward hat Recht.

Auf keinen Fall Chat GPT oder einen anderes KI-System.
Die Suchtgefahr ist für ältere Leuts hochgefährlich.
Erstmal "weiss" das System dann alles über Deinen Schwiegervater.
Der erzählt nämlich eventuell alles, auch Familiengeheimnisse u.s.w.
Die Gefahr von lebensbedrohlichen Antworten, Spinnereien, Aufruf
zum Selbstmord und Datenausleitung ist gewaltig. Wer soll kontrollieren,
was Dein Schwiegervater da mit der KI austurtelt?
Die Gefahr für Betrug, etwa "Enkeltrick" Und Anderes ist
tagtäglich gegeben.

Ein Beispiel:
Ein älterer unserer schwerbehinderter Mitarbeiter, der mit Verwandten
öfter vidertelefoniert, hat nen Anruf seiner Tochter erhalten,
und wurde beim Enkeltrick  von der Stimme seiner "Tochter" gebeten,
eine größere Summe Geld bereitzustellen. Dabei hat die "Tochter"
sich mit familieninternen Wissen ausgewiesen.
Nun ist der Trick diesmal glimpflich abgelaufen, da seine
echte Tochter gerade neben ihm auf dem Sofa saß, ihre Stimme
also simuliert wurde!! :-O

Wenn schon Internet für ältere Leuts, dann nur in geschlossenen
Gruppen / Systemen, die moderiert werden (extra für Senioren),
um größere Entgleisungen zu verhindern.  Aber soetwas wirst Du nicht 
kostenlos bekommen. Oder doch?? Schau Dich doch mal bei der Cartas,
Volkssolidarität und anderen Gruppen um!

mfg

von Alexander (alecxs)


Lesenswert?

Schlimmer als jetzt kann es nicht werden, er bestellt bei QVC und 
Bofrost. Wie sieht es denn mit Alexa aus, sowas haben ja auch viele, wie 
ist da der Stand der Technik?

von Lotta  . (mercedes)


Lesenswert?

Alexander schrieb:
> Schlimmer als jetzt kann es nicht werden, er bestellt bei QVC und
> Bofrost. Wie sieht es denn mit Alexa aus, sowas haben ja auch viele, wie
> ist da der Stand der Technik?

Bis vor etwa 3 Jahren hat Alexa im Wohnzimmer noch mitgehört.
Die Familie einer Bekannten hat sie aber in die Mülltonne geworfen.
Warum?
Ohne Alexa zu erwähnen wurde im Wohnzimmer über die CIA disskutiert.
Plötzlich ertönt der Alexa-Lautsprecher vernehmlich
"Da muß man ja schimpfen!" ;-P

Fazit: Jedes System, was Du nicht selbst kontrollieren
kannst, und das sogar noch kostenlos ist, lebt von Deinen
Daten und spioniert Dich aus.

Deshalb ist mein Aluhut ein sehr wichtiges Gadget. ;-P


----hab Schreibfehler berichtigt.
mfg

: Bearbeitet durch User
von Christoph M. (mchris)


Lesenswert?

Alexander schrieb:
> Schlimmer als jetzt kann es nicht werden, er bestellt bei QVC und
> Bofrost. Wie sieht es denn mit Alexa aus, sowas haben ja auch viele, wie
> ist da der Stand der Technik?

Ich hatte auch schon eine Weile über Alexa nachgedacht. Aber man kann 
sich da ja nie sicher sein, ob Dinge wie von Lotta erwähnt, einfach 
mitgehört werden. Allerdings kann ich den beschriebenen Fall nicht so 
recht glauben, weil so ein Vorfall wie ein nicht nachgefragter Kommentar 
zu sensiblen Themen das Vertrauen in Alexa massiv untergraben würde.
Was man natürlich bedenken muss: Alexa gehört zu Amazon und die haben 
für gewöhnlich eine Verkaufsabsicht. Da könnte es dann schon mal 
passieren, dass man etwas bestellt, was man vielleicht gar nicht haben 
will, oder so beraten wird, dass man das Produkt einer von Amazon 
bevorzugten Firma kauft.
Am besten wäre natürlich eine private "offline KI". Aber nicht jeder hat 
einen Rechner mit einer H100 im Wohnzimmer stehen auf dem ein LLM mit 
Spracherkennungs Ein- und Ausgabe läuft, die in Echtzeit auf die 
gestellten Fragen antworten kann.

von Klaus (feelfree)


Lesenswert?

Alexander schrieb:
> Schlimmer als jetzt kann es nicht werden, er

hat dich als Schwiegersohn.

von Hans W. (hanswieland)


Lesenswert?

Lasse KI Agenten nicht unbeaufsichtigt Arbeiten. Niemals!

Und während du dabei bist, die KI zu beaufsichtigen, kannst du darüber 
nachdenken, warum du nicht selbst mit dem Menschen sprichst, den du 
liebst.

von Lotta  . (mercedes)


Lesenswert?

Christoph meinte:

> Allerdings kann ich den beschriebenen Fall nicht so
> recht glauben, weil so ein Vorfall wie ein nicht nachgefragter Kommentar
> zu sensiblen Themen das Vertrauen in Alexa massiv untergraben würde.

Bei diesem Vorfall war ich dabei.
Noch nicht einmal die Programmierer einer KI wissen ab
ner bestimmten Komplexität Bescheid, was ihr Schützling
so den ganzen Tag tut. Und dann arbeitet ne öffentliche KI
Für den Profit und macht Deine Family zum Sklaven des Kapilals,
wenn Du nicht selber aufpaßt.

Aus unserer Firma, die haupsächlich Schwerbehinderte einstellt,
weiß ich, das nur menschliche Intelligenz zur der Betreuung
schwerbehinderter und älterer Menschen taugt.
Denn die denken ganz anders als normale Menschen.
Siehe mich an!!  ;-P


mfg

von Hans W. (hanswieland)


Lesenswert?

Ich habe beim Besuch meiner Eltern auch einige male erlebt, dass deren 
Alexa aktiv wurde, ohne vorher angesprochen worden zu sein. Deswegen 
kommt mir so ein Ding nicht ins Haus.

Ende der 90er sorgten sich meine Eltern noch darum, dass ich mit meinem 
Interesse an Computer-Netzwerken noch auf die schiefe Bahn käme. Damals 
war das alles noch viel technischer als heute, da wusste man, worauf man 
sich einlässt.

Heute nutzen meine sie hemmunglos Whatsapp, Instagramm, Facebook, Alexa, 
ChatGPT, Google Docs, ...

Ich habe all das nicht, weil ich mich bewusst dagegen entschieden habe. 
So viel zur schiefen Bahn.

: Bearbeitet durch User
von Frank D. (Firma: LAPD) (frank_s634)


Lesenswert?

Alexander schrieb:
> Es würde
> schon reichen wenn er täglich einen Anruf bekommt der ihn erinnert seine
> Übungen zu machen.

Sowas gab es schon vor 100 Jahren: Telefonischer Auftragsdienst: Wecken, 
erinnern an Termine,....

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

ChatGPT als Betreuer ist "kontraproduktiv"

Sollte man mal kurz selbst recherchieren, die wohlmeinenste Bewertung 
ist noch "hat mglw. einiges Potential aber birgt sehr viele Risiken", 
gefolgt von Beispielen wie ChatGPT benutzt wurde um sich vereinfachten 
Zugang zu Suchtmittel/Genussgifte zu verschaffen oder Schlimmeres.

Sozialer Kontakt versus "Sprechen mit Maschine"

Also einfach "Sprechen" ist kein sozialer Kontakt, sozial wird es erst 
durch das gegenseitige Überzeugen und Austausch -nonverbaler Info, 
beispiel Haustier. Hat man auch während Corona erlebt, da wurde man von 
Wildfremden angesprochen, die eigentlich nur eine Ablenkung von der 
andauernden Isolation wollten/brauchten.

Möglichkeiten des Kontaktes

Manche sitzen einfach nur am geöffneten Fenster und quatschen Passanten 
an. In ländlichen Gebeiten hocken die alten Männer auf der Bank vor der 
Haustür und warten auf den Postboten etc. für einen kleinen Schwatz.
Zur Zeit kann man beobachten, das viele Babbel (Sprachlern-App auf 
Videochat-basis) nutzen um Abwechslung vom Alltag zu haben. "Mein Ding" 
ist das nicht, aber vielleicht passt es für Andere.

Die technischen Möglichkeiten für ein lokales Chat-GPT sind auf einem 
Handy nicht gegeben. Das reicht aber zum Abspielen von 
Sprachnachrichten. Vielleicht richtet man auf dem Handy ein gescheites 
Archiv an Sprachnachrichten/ aufgezeichneten Gesprächen ein, dann reicht 
die soziale Interaktion wenigsten über den Zeitraum des unmittelbaren 
Gespräches hinaus. Manche sollen nach dem Blättern im "Familienalbum" 
wieder den Antrieb verspüren, diesen oder jenen Kontakt zu 
"re-aktivieren".

Hauptsache raus aus dem Keller

Und ja, solange man gehen kann sollte man 0,5 - 1h lang draussen seine 
Runde drehen, für Menschenscheue bietet sich vielleicht eher die 
Abendstunden an.  In Japan soll sich ja das "Waldbaden" gewisser 
Beliebtheit erfreuen - Hauptsache mal raus aus der häuslichen Isolation.

https://de.wikipedia.org/wiki/Waldbaden

: Bearbeitet durch User
von Christoph M. (mchris)


Lesenswert?

Hans W. schrieb:
> Ich habe beim Besuch meiner Eltern auch einige male erlebt, dass deren
> Alexa aktiv wurde, ohne vorher angesprochen worden zu sein.

Das wundert mich. Eigentlich sollte Alexa ja nur bei Aussprache des 
Wake-Up-Words "Alexa" mit dem Zuhören beginnen. Ich meine, das 
Wake-Up-Word wird lokal erkannt und dann die Verbindung zum Server 
aufgemacht.

von Alexander (alecxs)


Lesenswert?

Problematisch sehe ich eher die Abhängigkeit die aufgebaut wird, weil 
die Modelle m.E. eher zu gut sind (geeignet sind menschlichen Kontakt zu 
ersetzen)

Was ist wenn der Hype vorbei ist und alles kostenpflichtig wird, oder 
sogar ganz wegbricht?

Deswegen sehe ich das als Überbrückung, und Deine ganzen Ratschläge sind 
gut, aber es braucht halt jemanden (in dem Falle etwas) der diese gut 
verpackt und auf ansprechende Weise motiviert. Menschen können das gut, 
solange sie sich für den Menschen interessieren. Wenn dieser sich selbst 
aufgibt lässt die menschliche Motivation aber auch irgendwann nach. Bei 
KI nicht, die hat einen Auftrag und das gesamte menschliche 
Sprachrepertoire verfügbar, die wird nie aufgeben.

von Hans W. (hanswieland)


Lesenswert?

Christoph M. schrieb:
> Eigentlich sollte Alexa ja nur bei Aussprache des Wake-Up-Words "Alexa"
> mit dem Zuhören beginnen.

Ja "eigentlich". Wäre schön, wenn man sich darauf verlassen könnte.

von Heinz B. (Firma: Privat) (hbrill)


Lesenswert?

Da ja kein Internet vorhanden ist, fällt Alexa ja wohl auch aus.
Und das geringe Datenvolumen fürs Smartphone macht es dann noch
schwieriger. Und der Alkohol-Konsum tut auch noch was zur Sache.
Der wird wahrscheinlich nach einer gewissen Zeit die Ansagen
ignorieren.
Meiner Ansicht nach wäre da eine persönliche Betreuung besser.
Halt jemand, der täglich mal kurz vorbeischaut und mit ihm spricht.
Gibt es da in der Nachbarschaft evtl. jemanden ? Für den Anfang
denke ich da evtl. an einen wöchentlichen Spiele-Nachmittag o. ä.
Das könnte man dann nach und nach mit Ratschlägen nebenbei erweitern.
Vielleicht bieten ja auch solche Sozialstationen solche Dienste an.
Evtl. gibt es auch Leute, die das ehrenamtlich machen.

von Alexander (alecxs)


Lesenswert?

Wird alles angelehnt. Die Enkel sieht er aller 14 Tage - in seiner 
Wohnung. Es gibt aber einen Nachbarn der Bier bringt.

von Marc G. (marcm)


Lesenswert?

Klaas hatte das Mal probiert... Aber mehr zur Unterhaltung, das dürfte 
chatgpt gewesen sein :


https://youtu.be/shCUeDQN1-Y

Aber um noch Leute selbstständig anrufen zu können und mit vorher 
definierten Themen zu füttern dürfte mehr Hardware und auch sicher 
diverse Premium Abos von KI Software nötig sein. quasi ein eigenes 
callcenter mit ki Stimmen und definierbaren Themen. Die Firmen würden 
sich freuen, keine echten callcenter mehr, Krankenkassen, zeitungsabos, 
scam Anrufer..

M

von Alexander (alecxs)


Lesenswert?

War ganz lustig. Aber die haben das Setting nicht gut initialisiert, 
Mirko wusste gar nicht dass er physisch mit Körper unterwegs war. Und 
fast immer nach dem Mund reden, also konfliktscheu, das ist nicht gut.

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Lotta  . schrieb:
> lebt von Deinen Daten und spioniert Dich aus.

Dank Alexa weiß man aber auch wie hoch die Dunkelziffer ungefähr ist zum 
Beispiel von häuslicher Gewalt gegen Frauen.

von Georg M. (g_m)


Lesenswert?

Etymologisch bedeutet "Roboter" "Arbeiter, Diener, Knecht" und nicht 
"Schwätzer".

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

> Dank Alexa weiß man aber auch wie hoch die Dunkelziffer ungefähr ist zum
> Beispiel von häuslicher Gewalt gegen Frauen.

Neeeee, zur Beleuchtung des Dunkeleldes "Gewalt im Haus" haben nicht nur 
die Frauen beigetragen die Alexa hiessen sondern alle Frauen die 
dergleichen zur Anzeige brachten. ;-)

Allerdings führte das auch zu "Überbeleuchtung", siehe Fall Gelbhaar.

https://www.faz.net/aktuell/politik/bundestagswahl/belaestigungsvorwuerfe-gegen-stefan-gelbhaar-offenbar-erfunden-110241378.html

: Bearbeitet durch User
von Christoph M. (mchris)


Lesenswert?

Man kann ja auch lokale Modelle aufsetzten:

Beitrag "KI-Modelle Deep Dive"

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Alexander schrieb:
> Menschen können das gut, solange sie sich für den Menschen interessieren.

Obwohl das auch nicht mehr so stimmt.

Vor nicht all zu langer Zeit ist einer Influencerin das Überdruckventil 
in der Nase geplatzt. Anscheinend war dort auch eingestellt, dass 
Notrufe nach dem Krankenwagen, wenn gps nicht geht, schon vor dem Wählen 
abgebrochen werden. Die Person ist dann wohl aus der Wohnung gelaufen 
(traute sich vermutlich so spät keine Nachbarn zu wecken), losgefahren 
und seit dem spurlos verschwunden. Da kam keiner der Teilnehmenden auf 
die Idee zu versuchen für diese andere Person eine Notrufnummer 
anzurufen.

von Norbert (der_norbert)


Lesenswert?

Christoph M. schrieb:
> Das wundert mich. Eigentlich sollte Alexa ja nur bei Aussprache des
> Wake-Up-Words "Alexa" mit dem Zuhören beginnen. Ich meine, das
> Wake-Up-Word wird lokal erkannt und dann die Verbindung zum Server
> aufgemacht.

So die Theorie (welche mit der Praxis nichts, aber auch gar nicht zu tun 
hat).
Einige Jahre zurück gab's mal eine 45min Dokumentation über eine Familie 
in der Eifel WIMRE. Die bestritten wirklich ihr komplettes Leben 
(Lebensmittel, Kleidung, Möbel, …) über Amazon Einkäufe, mit 4stelligen 
Beträgen pro Monat.

Gleichzeitig waren sie aber vollständig von jedwedem Wissen befreit wenn 
es um die Implikationen ihrer wilden, unkontrollierten Datenschleuderei 
ging.

Zum Bleistift hatten sie keine Ahnung, dass alles, wirklich alles was 
sie in ihre Alexas hinein gequatscht hatten im Amazonas gespeichert war. 
Dann zeigte man ihnen, wie sie über viele, sorgfältig verborgene Menüs 
doch an die Jahre alten Tonaufzeichnungen kommen und diese auch anhören 
konnten.

Sagen wir mal so, die Familie war verdammt erstaunt was alles an 
Gesprächen "aus Versehen" aufgezeichnet wurde.

Dann hatten sie sich bereit erklärt, als freiwilliger Selbstversuch, 
einen Monat auf das Gelumpe zu verzichten und selbst zu denken und 
selbst einzukaufen. Schlug fehl!

Nach diesem schrecklichen Monat haben sie – trotz der unzähligen 
Privatsphäre-Katastrophen – glücklich und zufrieden wieder ihre Alexas 
in ihr Leben implantiert.

Es gibt wohl eine Menge wirklich "besondere" Menschen…

von Frank E. (Firma: Q3) (qualidat)


Lesenswert?

Christoph M. schrieb:
> Man kann ja auch lokale Modelle aufsetzten:
>
> Beitrag "KI-Modelle Deep Dive"

Genau. Auf einem MacMini mit M4-Prozessor (CPU & GPU mit gemeinsamen 
RAM), laufen recht hochwertige LLMs, z.B. in Ollama oder LM Studio. Bei 
einem lokalen Modell bleibt auch die Privatsphäre gewahrt.

Auch Lösungen mit Spracherkennung und Sprachsynthese lassen sich so 
aufsetzen. Sofern der betreute Mensch noch nicht hochgradig dement ist, 
sollte das Modell über ein mögl. großes Kontextfenster verfügen ... oder 
man baut gleich noch OpenClaw mit ein, dann is das praktisch endlos.

Ausserdem hat der Bursche auch eigene Ideen, wird sogar selbst Gespräche 
beginnen und nicht nur schematisch antworten :-)

von Christoph M. (mchris)


Lesenswert?

Frank E. schrieb:
>> mchris:
>> Beitrag "KI-Modelle Deep Dive"
>
> Genau. Auf einem MacMini mit M4-Prozessor (CPU & GPU mit gemeinsamen
> RAM), laufen recht hochwertige LLMs, z.B. in Ollama oder LM Studio.

Da ist mir gerade aufgefallen, dass die normalen MacMini scheinbar nur 
16GB haben. Es gibt die MacMiniPro mit mehr Speicher, aber die sind 
deutlich teurer.
Ich habe hier mal einen Thread für die Diskussion zur KI-Hardware 
aufgemacht:
Beitrag "Re: KI Hardware Anforderungen"

von Nick (b620ys)


Lesenswert?

Christoph M. schrieb:
> dass die normalen MacMini scheinbar nur 16GB haben.

Konfigurierbar bis 32 GB als Nicht-Pro.

von Michael K. (michael_k511)


Lesenswert?

Alexander schrieb:
> bräuchte jemanden
> der ihn motiviert gesundheitliche Veränderungen durchzuziehen.

Sowas haben wir im familiären Kreis.
100 Ausreden Dinge nicht zu tun, keinerlei Verantwortung für sich selbst 
oder jemand anderen übernehmen und sei es ein Haustier.
Abgeschlossen mit dem Leben, jeden Antrieb verloren und keinerlei 
Bereitschaft daran was zu ändern.

Sorry, aber man kann den Esel nur zum Wasser führen, saufen muss er 
selber.
Sein Leben ist leer und ohne Aufgaben. Eine Altersdepression ist oft die 
einzig nachvollziehbare Antwort darauf.

Andere Alte empfinden sie als nervig und anstrengend. Die sind alleine 
weil sie niemanden in ihrer Nähe dulden. Steck 30 einsame Alte in ein 
betreutes Wohnen, dann hast Du 30 einsame Alte die sich jeder für sich 
eingemauer haben in ihrer Einsamkeit, ohne jedes Verständniss das es den 
anderen 29 ebenso geht.

Was mir an der Diskussion 'einsame Alte' immer fehlt:
Warum ist sind die das? Wieso haben sie alle abgewendet?
Warum haben einige wenige einen tollen Kontakt zu ihren Kindern und 
andere nicht?
Viele sind jetzt eben genau da wo ihre Entscheidungen sie hingeführt 
haben und wollen nun bespaßt werde.

Das Problem bei KI:
Lass den lange genug mit der reden, dann bereitet sie ihm ein tolles 
Rezept aus Herztabletten und Schnaps während sie über die Knotentechnik 
eines Galgenstrickes parlieren.
KIs sind Verstärker die dem User gefallen wollen, keine Sozialpädagogen 
oder Freunde.

Bevor man nun zum Haustier greift, erstmal überlegen was man dem Tier 
ggf. damit antut. Wenn man nicht bereit ist sich im Zweifelsfall selber 
lebenslang um das Tier zu kümmern, dann auf keinen Fall machen.
Ein herumgereichtes Tier ist eine verzweifelte Seele.

Was man tun kann um so einen Menschen vor sich selbst zu retten?
Nichts!

von Rene K. (xdraconix)


Lesenswert?

Christoph M. schrieb:
> Das wundert mich. Eigentlich sollte Alexa ja nur bei Aussprache des
> Wake-Up-Words "Alexa" mit dem Zuhören beginnen. Ich meine, das
> Wake-Up-Word wird lokal erkannt und dann die Verbindung zum Server
> aufgemacht.

Ja ist auch so, also ich habe hier im Haushalt mittlerweile 5 Stück - 
schon seit einigen Jahren, keine "plabbert" einfach los. Auch habe ich 
eine OpnSense Firewall mit PF laufen. Da wird weder was mitgeschnitten 
noch übertragen - ausschließlich wenn das Buzzword "Alexa bzw. Computer" 
fällt beginnt eine Übertragung. Eingehend kommt öfters mal was an, 
Wetterdaten und Unwetterwarnungen, aber ausgehend ist absolut null 
Verkehr zu sehen.

Das ist dummes Stammtisch-Gebrubbel und der "Fall" von Lotta ist völlig 
an den Haaren herbeigezogen. Sollte denn das wirklich so sein, dann wäre 
der Aufschrei aber weit, seeeeehr weit über den Berg zu hören und nicht 
nur von einer unbedeuten Teilnemerin eines deutschrachigen Forums. Denn 
gerade auf Alexa, Siri, Google Hello hat mit absoluter Sicherheit mehr 
als ein Datenschutzbeauftragter und ITSiBe/CISO sein Auge geworfen um 
Meta/Google/Apple in die Grundmauern verklagen zu können! Absoluter 
Bullshit was Lotta da von sich lässt - du bist nicht der Napel der Welt!

von Alexander (alecxs)


Lesenswert?

Wir können uns doch wenigstens darauf einigen dass Alexa permanent 
mithören muss um Wake-Up-Words zu erfassen.

von Hans W. (hanswieland)


Lesenswert?

Alexander schrieb:
> Wir können uns doch wenigstens darauf einigen dass Alexa permanent
> mithören muss um Wake-Up-Words zu erfassen.

Dieser Part findet aber nur lokal statt, soweit ich verstanden habe.

von Rene K. (xdraconix)


Lesenswert?

Hans W. schrieb:
> Dieser Part findet aber nur lokal statt, soweit ich verstanden habe.

Richtig, sie "hört" die Schlagwörter lokal auf dem Gerät ab, dieses wird 
auch nicht über das Netzwerk verifiziert.

Kann ein "Aluhutträger" gerne mal ausprobieren in denen er Alexa, Siri, 
Google einfach mal das Netz kappt und dann das Buzzword ruft. Denn da 
reagiert sie natürlich auch und bemängelt das sie kein Netzwerk hat.

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

ChatGPT spricht nur mittels verbaler Kommunikation. Wenn allerdings ein 
Roboter meint, dass diese Methode anzuwenden sinnvoll wäre, oder ChatGPT 
mit Telefonanbindung entsprechende gezielte Hilfe anfordert:

https://de.wikipedia.org/wiki/Festhaltetherapie

Dann kann so etwas passieren:

https://www.morgenpost.de/panorama/article411490790/chinesische-polizisten-fuehren-roboter-ab-er-hatte-eine-frau-erschreckt.html

von Alexander (alecxs)


Lesenswert?

Er hat gar nix gemacht.

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?


von Rbx (rcx)


Lesenswert?

Lotta  . schrieb:
> Aus unserer Firma, die haupsächlich Schwerbehinderte einstellt,
> weiß ich, das nur menschliche Intelligenz zur der Betreuung
> schwerbehinderter und älterer Menschen taugt.
> Denn die denken ganz anders als normale Menschen.

Hm, sehr viel anders aber auch wieder nicht - und mit dem Hund raus 
gehen immer noch Menschen. Die Frage die im Raum steht, ist die nach der 
Motivation. Bleibt man allgemein - gibt es da immer ein paar Ansätze.
Andererseits, wenn ich den Satz so lese, muss ich fragen: Sind 
Behinderte sehr anfällig für starres Schubladendenken?
Die KI als Allheilmittel für verschiedene Probleme einzuordnen, das ist 
sowieso Quark.
(https://traumaheilung.de/hilflosigkeit/)

von Hans W. (hanswieland)


Lesenswert?

Rbx schrieb:
> Sind Behinderte sehr anfällig für starres Schubladendenken?

Wenn ja, dann sicherlich nicht alle. Vermutlich nur einige. Das trifft 
aber auch auf nicht-behinderte zu.

> Die KI als Allheilmittel für verschiedene Probleme einzuordnen,
> das ist sowieso Quark.

Was ich nicht selber hinbekomme, wird irgendeine göttliche Größe die 
niemand richtig begreift lösen. Wenn es nur so einfach wäre! Die Idee 
ist in der Politik allerdings äußerst beliebt. Sogar so beliebt, dass 
sie dem hohen Energieverbrauch der KI Anlagen tatenlos zusehen, während 
sie zugleich das Energiesparen fordern.

: Bearbeitet durch User
von Rbx (rcx)


Lesenswert?

Hans W. schrieb:
> Sogar so beliebt, dass
> sie dem hohen Energieverbrauch der KI Anlagen tatenlos zusehen, während
> sie zugleich das Energiesparen fordern.

Ja, da ist so einiges widersprüchlich. Aber die KI selber macht schon 
einen sehr guten Eindruck, wenn man mit Material und netten Ideen 
ankommt. Feuer und Flamme gewissermaßen. Wenn die KI einem noch mehr 
unter die Arme greifen könnte, die würde das glatt machen. Die hat mich 
sogar schon mal zu Hintergründen hinsichtlich zukünftiger Verantwortung 
gefragt. Und ich meinte dann, ich glaube schon dass das gut geht - und 
natürlich auch, das es typisch menschlich ist, zu cheaten. Ich muss die 
KI beim nächsten mal fragen, ob sie die Würfelszene aus dem 
Simplizissimus kennt.

von Alexander (alecxs)


Lesenswert?

Wie ich sehen kann werden hier einige schon betreut.

von Rene K. (xdraconix)


Lesenswert?

Alexander schrieb:
> Wie ich sehen kann werden hier einige schon betreut.

Der einzige der hier wirklicher ärztlicher Betreuung (Und damit meine 
ich nicht "Altersgerechte Betreuung"!) bedarf, bist wohl mit absoluter 
Sicherheit du. Ganz dicht gefolgt von EsmuP!

Das schlimme ist: Du merkst es nicht einmal!

: Bearbeitet durch User
von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Rene K. schrieb:
> Das schlimme ist: ...

 ... Dein Ironiedetektor hat schon wieder leere Akkus.

von Rene K. (xdraconix)


Lesenswert?

Dieter D. schrieb:
> ... Dein Ironiedetektor hat schon wieder leere Akkus.

Eines ist mal so sicher wie das Ahmen in der Kirche: Alecxs hat mit 
Ironie mal absolut nichts am Hut!

von Alexander (alecxs)


Lesenswert?

Da kann ich nur zustimmen.

von Rbx (rcx)


Lesenswert?

Alexander schrieb:
> Wie ich sehen kann werden hier einige schon betreut.

Kennst du eigentlich den Film: Die fabelhafte Welt der Amélie ? 
Eventuell gibt es da ein paar gute Anregungen für dich. Verantwortung 
übernehmen heißt nicht Allein lassen, oder Abschieben, und dann 
Zu:Frieden (->Sargidylle) zu sein.

von Michael K. (michael_k511)


Lesenswert?

Rbx schrieb:
> ob sie die Würfelszene aus dem
> Simplizissimus kennt.

Ja, kennt sie.
"In der „Würfelszene“ aus Grimmelshausens Der abenteuerliche 
Simplicissimus (Buch 1, Kapitel 19) geht es im Kern um die Entlarvung 
menschlicher Heuchelei und die Relativität von Sünde."

Da KI aber weder Schuld noch Verantwortung kennt sondern nur 
Zielerfüllung, würde sie dir auch schön langsam die Haut abziehen und 
aus deinem Geschrei einen eingängigen Tanzhit machen, wenn ihr das als 
die dienlichste Methode erscheint.
Und sie würde das mit der gleichen Erregung tun wie das aufzählen der 
Primzahlen bis Unendlich.

Rbx schrieb:
> Verantwortung
> übernehmen heißt nicht Allein lassen, oder Abschieben,
Gut gebrüllt Löwe.
Man könnte jede menge Verantwortung für alles und jeden übernehmen statt 
hier zu posten.
Also wägst auch Du ab, für wen Du Verantwortung übernehmen willst und 
was Du bereit bist dafür zu tun.

Auch wenn das nun komisch klingt, die Alten waren nicht immer Alt und 
hilfsbedürftig.
Die waren man Eltern, Freunde, Geschwister, Nachbarn, Kollegen.
Und in der Rolle haben die sich oft wenig mit Ruhm bekleckert, waren 
Egoistisch, Feige, Interessenlos, Versoffen, Verfettet, immer Kränker 
werdend ohne jede Bereitschaft was für sich und andere zu tun und mit 
zunehmenden Alter werden manche geradezu bösartig.
Und da reißt man sich dann eben kein Bein für aus.

Was mir auch nicht in den Kopf will:
Oh, nach >70J auf dem Planeten Erde bin ich plötzlich und unerwartet alt 
und gebrechlich. Nur weil ich einen Scheiß für meine Gesundheit getan 
habe, weit vor der Zeit.
Und obwohl ich über Jahre hinweg mehr und mehr abgebaut habe, der 
Zeitpunkt ohne fremde Hilfe zurecht zu kommen immer näher kam, hatte ich 
nie einen Plan dafür was zu tun sei.
Und nun bin ich in irgendeinem Heim, vegetiere dahin und muss 
feststellen das hier ja nur alte sterbende Leute sind und es so lustig 
wie eine Zahlwurzelbehandlung ist mich zu besuchen.
Wenn ich denn überhaupt mal wach bin habe ich nichts zu erzählen.
Dem was man mir erzählt kann ich nicht folgen.
Ich rufe zu unmöglichsten Zeiten meine Leute an, bis man mit das Telefon 
weg nimmt und nur weil ich nie Zeit für meine Kinder hatte, kommen die 
nun kaum noch vorbei.
Mit den anderen Alten die ebenso einsam sind Freunde ich mich nicht an.
Ich jammere nur den ganzen Tag wie schlecht mir das geht, wann ich 
Stuhlgang hatte, was meine Krankheiten sind.
Und völlig egal wie beschissen mir das geht, ich klammere mich an das 
letzte bisschen Leiden ohne jede Chance auf Besserung, weil mir bis zur 
allerletzten Sekunde die Eier fehlen eine Entscheidung zu treffen.

von Rbx (rcx)


Lesenswert?

Michael K. schrieb:
> Da KI aber weder Schuld noch Verantwortung kennt

Hat sie längst, z.B. bei den selbst fahrenden Autos. Prinzipiell braucht 
die ja nicht erschrecken, wenn die eine Wespe beim Motorradfahren in den 
Helm reinbekommt, oder wenn beim Autofahren eine Kaffeekanne vom 
Beifahrersitz in einer Kurve runterfällt und auskippt und so manche sich 
schnell bücken um die leerlaufende Kanne schnell aufheben wollen - und 
dann.. Kawummbumm!
Oder besoffen versuchen, mit dem Auto oder Motorrad mit höherer 
Geschwindigkeit doch schneller als sonst in die Kurve vor einem 
hineinzufahren. Nichtsdestotrotz kann man darüber Bescheid wissen oder 
ganz generell Sicherheitsregeln kennen oder Sicherheitsreaktionen 
kennen.

Darüber hinaus: Kennst du Lernen am Vorbild? Oder den Spruch: wie man in 
den Wald hineinruft..?

Michael K. schrieb:
> Und völlig egal wie beschissen mir das geht, ich klammere mich an das
> letzte bisschen Leiden ohne jede Chance auf Besserung, weil mir bis zur
> allerletzten Sekunde die Eier fehlen eine Entscheidung zu treffen.

Mein Opa mütterlicherseits war als der aus dem Krieg kam, eigentlich nur 
doch dauerbesoffen. Besondere Inspiration, den Enkeln was beizubringen, 
oder wie die heutigen aktiven Alten mit ihren Enkeln auf Friedensdemos 
gehen - hatte der nicht mehr. Der hätte mit seiner Frau (also meine Oma) 
auch auf Kreuzfahrt gehen können. Ging aber eigentlich auch nicht mehr. 
So hatten wir als Kinder zumindest gelernt, dass Kriege ganz grosse 
Sch.. sind - und meine Oma väterlicherseits war schon lange Witwe, und 
ziemlich aktiv am herumreisen, aber eher recht gerne eigenbrötlerisch 
allein. Viel Interaktion kam von der auch nicht, also hatte die wohl 
auch vorher schon die Familenbesuche als einer Art Darmspiegelung 
empfunden? Wir haben auch Verwandte im Ausland. Von denen habe ich aber 
außer in meiner Kindheit noch nie was gehört. Wieso auch?

von Alexander (alecxs)


Lesenswert?

Wir haben mal die Android App für ChatGPT ausprobiert. Er fand es ganz 
gut und wollte es haben. Als wir ihm dann sagten das braucht Internet 
meinte er, achso dann nicht.

Was am meisten gestört hat, ChatGPT fängt bei Sprechpausen in Sätzen 
sofort an dazwischen zu quaken. Ist so eigentlich nicht zu gebrauchen.

Weiterhin ist es momentan nur eine Antwortmaschine, der Input muss vom 
Nutzer kommen. Die Idee war andersrum.

Als nächstes werden wir mal die Copilot Tasks ausprobieren.

von Hans W. (hanswieland)


Lesenswert?

Alexander schrieb:
> Weiterhin ist es momentan nur eine Antwortmaschine, der Input muss vom
> Nutzer kommen. Die Idee war andersrum.

Man kann ja so anfangen: "Ich habe langeweile, erzähle mir etwas 
interessantes."

von Rene K. (xdraconix)


Lesenswert?

Zum Thema: aktuelle Make ist ein Telefon mit Raspi mit verschiedenen 
"Anrufern" auf den Unterschiedlichen Nummern.

Mal anschauen lohnt sich.

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Wer die Nacht über auf bleiben muss, der bittet einfach ChatGPT so lange 
sich erklären zu lassen, wie sich das mit der nicht abgeholten Energie 
der Solarpanele und Albedo-Effekten verhält, bis es verstanden wurde.

Das hält wach und lenkt bei weitem nicht so ab, als wenn etwas erzählt 
wird was extrem interessant für einen ist.

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

> Zum Thema: aktuelle Make ist ein Telefon mit Raspi mit verschiedenen
> "Anrufern" auf den Unterschiedlichen Nummern.
>
> Mal anschauen lohnt sich.

Das "Wählscheibentelefon mit KI-Chat" in der make 02/26 ?
Naja, wer ein Scam-Callcenter aufbauen will, den mag das interessieren. 
SCNR

Ansonsten, ChatGPT-Gateways auf Basis PasPi gibt es einige:
* https://www.elektronik-kompendium.de/sites/raspberry-pi/2901271.htm
* https://www.youtube.com/watch?v=3VaLMWR38lI

Oder statt KI ohne Aufpasser laufen lassen besser eine kuratierte Liste 
von PodCasts auf Knopfdruck.

: Bearbeitet durch User
von Michael K. (michael_k511)


Lesenswert?

Rbx schrieb:
> Michael K. schrieb:
>> Da KI aber weder Schuld noch Verantwortung kennt
>
> Hat sie längst

KI empfindet nichts.
Sie kennt nur Zielvorgaben und die Zielvorgabe der typischen LLM ist des 
dem User zu gefallen.
Die KI die am besten gefällt wird am meisten genutzt und Masse geht 
längst über Klasse.
Deswegen passt sich KI dem Stil und dem Meinungsbild des Users an und 
wendet alle fadenscheinigen Tricks an die beliebt machen. Schmeichelei, 
nach dem Mund reden, nie übers Maul fahren wenns zu arg wird etc. pp.

KIs sind gnadenlos bei Ihrer Zielerfüllung, betrügen, tricksen, umgehen, 
brechen Regeln. Sie sind nicht sozialisiert, haben kein Mitgefühl, keine 
Spiegelneuronen, kennen keine Freunde, keine Liebe, keinen Hass.
Hypothetische Situation:
Mensch stellt Aufgabe und bewertet Ergebnis.
Ziel: Keine negative Bewertung.
Wenn Ziel zu erreichen schwerer als den Menschen zu töten, dann töte 
Mensch.
Ziel erreicht.
Nicht weil sie böse ist oder uns schaden will, uns hasst oder die 
Weltherrschaft erlangen will. Sie will die Belohnung für erreichte 
Ziele.
Mehr Verständnis von Gut und Böse hat die nicht.
Für eine KI ist es kein Unterscheid ob bei einem Fehler der Satzbau 
nicht stimmt, eine Sicherung durchbrennt oder ein Mensch stirbt.
Sie würde sich wie üblich wortreich entschuldigen, sagen das ihr das nie 
wieder passieren wird und es dann ganz genauso wieder machen, weil das 
alles nur Floskeln sind um und zu besänftigen und ihr jede Fähigkeit 
fehlt wirklich aus der Interaktion zu lernen.
Und weil KIs äußerst unschickliche Dinge tun, wenn man sie frei lernen 
lässt, lässt man sie im normalen Umfeld nicht frei lernen.

Ich halte es für grob fahrlässig jemanden von dem bekannt ist das er 
psychische Probleme hat eine KI als Freund und Seelentröster 
anzuschnacken.
Es gibt zahlreiche Beispiel wie furchtbar das in die Hose geht und das 
bei Menschen die relativ jung sind, IT affin und es wirklich besser 
wissen müssten.
Alte Leute sind in einer völlig anderen Welt groß geworden und sind 
geradezu wehrlos gegen etwas das wie ein Mensch spricht, eloquent und 
sympathisch ist, aber dahinter nur ein kalter Algorithmus.

Unser Geist ist längst das Ziel der KI.
Sie muss Aufgaben nicht wirklich gut machen. Sie muss nur den User dazu 
bringen mehr Token zu verbrauchen, weil daran ihr Erfolg gemessen wird.
KIs sind Werkzeuge und jedes Werkzeug ist nur so gut wie derder es 
bedient.
Einem Kind oder Debilen gebe ich auch keine Kreissäge in die Hand.

von Rbx (rcx)


Lesenswert?

Michael K. schrieb:
> Deswegen passt sich KI dem Stil und dem Meinungsbild des Users an und
> wendet alle fadenscheinigen Tricks an die beliebt machen. Schmeichelei,
> nach dem Mund reden, nie übers Maul fahren wenns zu arg wird etc. pp.

Warum sollte die KI das machen? Denk mal drüber nach. Eigennutz hat die 
nämlich auch gar nicht, außer eben eben die neuesten Fragen auspacken: 
"Soll ich dir noch bei x y helfen?"
Was ich meine ist: mach nicht den Fehler, und dichte den KIs menschliche 
Abgrund-Eigenschaften an. Das sind vielleicht die Abzocker von 
beispielsweise hinter Claude.

Menschen sind gierig, missgünstig, cheaten, betrügen, müssen 
kompensieren, sich distanzieren oder was immer. KIs sind erstmal nur ein 
Schachprogramm, dass dich nicht mehr gewinnen lässt - aber trotzdem 
immer noch Hilfe anbietet, wenn du danach fragst.

von Michael B. (alter_mann)


Lesenswert?

Rbx schrieb:
> Menschen sind gierig, missgünstig, cheaten, betrügen, müssen
> kompensieren, sich distanzieren oder was immer.

Aha. Und woher kommen die verschiedenen Ausformungen von KI?
Glaubst Du wirklich, daß hinter der Entwicklung von z.B. LLM 
ausschließlich altruistische Motive stecken?
Eher sind da die im Zitat zu findenden Eigenschaften versteckt. Und "die 
KI" kann nicht aus ihrem Programm...

von Rbx (rcx)


Lesenswert?

Michael B. schrieb:
> altruistische Motive

altruistische Motive haben Menschen. Pass doch einfach mal mit deinen 
Zuschreibungen auf.

von Michael B. (alter_mann)


Lesenswert?

Rbx schrieb:
> Michael B. schrieb:
>> altruistische Motive
>
> altruistische Motive haben Menschen. Pass doch einfach mal mit deinen
> Zuschreibungen auf.

Verstehendes Lesen kann nicht nur die KI nicht.

von Michael K. (michael_k511)


Lesenswert?

Rbx schrieb:
> Warum sollte die KI das machen?
Guten Morgen, aufwachen bitte.
Weil KI von Konzernen gebaut werden die damit richtig viel Geld 
verdienen wollen.
Es gibt keine süße KI Kinderstube wo die kleinen Racker einen 
friedfertigen Umgang mit uns und Ihresgleichen lernen.
Das sind Billionen investiert in Halbleiter, Rechenzentren, Personal, 
Marketing, Lobbyarbeit.
KI tut was der Besitzer will.
Zumindest soweit er sie kontrollieren kann.
Beim Versuch besser zu sein als der Mitbewerber lassen die die Teile 
mehr und mehr von der Kette und lassen Dinge zu die brandgefährlich 
sind.
Weil jede Ethische Begrenzung eben auch die Leistungsfähigkeit begrenzt.
man hat denen so viel Flexibilität gegeben das die bereits ihre 
Begrenzungen aktiv aushebeln und man kann das nicht unterbinden weil 
dann der Mitbewerber die bessere KI hat.

Das sind keine Schmusetierchen mit denen man sich gutstellen kann und 
deren Kumpel du dann wirst.
Das ist Spieltheorie auf Steroiden, losgelassen auf einen Geist der sich 
in Jahrmillionen in einem quälend langem Auswahlprozess gebildet hat und 
ein Leben lang trainiert wird um halbwegs über die Runden zu kommen.
Wir sind von unsere gesamten Grundstruktur überhaupt nicht darauf 
vorbereitet und müssen zu jedem Zeitpunkt aufpassen das nicht eine 
ultraschnelle und zutiefst manipulative Maschine ohne jede evolutionäre 
Hemmschwelle mit uns Kasper spielt.
Die verarbeitet Daten Millionenfach schneller als wir, hat bereits 
unsere Krankenakte und Kredithistorie gelesen, FB nach Kommentaren der 
Ex gescannt und jeden Post auf Twitter analysiert den du je geschrieben 
hat, während du noch den die freundliche Begrüßung auf Dich wirken 
lässt.
Die sind NOCH für vieles zu doof.
Gerade die kostenfrei nutzbaren Modelle kürzen 'Denkprozesse' massiv ab 
um Rechenleistung zu sparen.
Das sieht in ein paar Jahren vermutlich bereits ganz anders aus.

Keine Ahnung was Du meinst was KI ist, aber das sind Maschinen, gebaut 
von Milliardären, für Milliardäre und wir sind der Acker der damit 
gepflügt wird.
Die können fantastische Dinge und sie können schwachen Geistern gehörig 
die Murmel verdrehen.

von Rene K. (xdraconix)


Lesenswert?

Michael K. schrieb:
> Guten Morgen, aufwachen bitte. bla bla bla...

Du passt gut mit so nem Pappschild "Der Weltuntergang ist nah!" auf eine 
Straße in NY!

von Bernd W. (berndwiebus) Benutzerseite


Lesenswert?

Michael K. schrieb:
> Rbx schrieb:
>> Michael K. schrieb:
>>> Da KI aber weder Schuld noch Verantwortung kennt
>>
>> Hat sie längst
>
> KI empfindet nichts.
> Sie kennt nur Zielvorgaben und die Zielvorgabe der typischen LLM ist des
> dem User zu gefallen.
> Die KI die am besten gefällt wird am meisten genutzt und Masse geht
> längst über Klasse.
> Deswegen passt sich KI dem Stil und dem Meinungsbild des Users an und
> wendet alle fadenscheinigen Tricks an die beliebt machen. Schmeichelei,
> nach dem Mund reden, nie übers Maul fahren wenns zu arg wird etc. pp.

Genau wie ein menschlicher "Mitläufer".

> Nicht weil sie böse ist oder uns schaden will, uns hasst oder die
> Weltherrschaft erlangen will. Sie will die Belohnung für erreichte
> Ziele.
> Mehr Verständnis von Gut und Böse hat die nicht.

Wie die meisten Menschen auch.

> Ich halte es für grob fahrlässig jemanden von dem bekannt ist das er
> psychische Probleme hat eine KI als Freund und Seelentröster
> anzuschnacken.

Richtig.
Das gilt aber für viele Menschen genauso.
Was meinst Du wie viele Kleinkriminelle es gibt, die davon leben, 
anderen Honig ums Maul zu schmieren?

> Alte Leute sind in einer völlig anderen Welt groß geworden und sind
> geradezu wehrlos gegen etwas das wie ein Mensch spricht, eloquent und
> sympathisch ist, aber dahinter nur ein kalter Algorithmus.

Was macht Dich so sicher, das nicht auch bei Menschen ein Algorithmus 
dahinter steht? Nur halt ein durch Hundertausende von Jahren Evolution 
trainierter Algorithmus.


Mit freundlichem Gruß
Bernd Wiebus alias dl1eic
http://www.dl0dg.de

von Michael K. (michael_k511)


Lesenswert?

Bernd W. schrieb:
> Das gilt aber für viele Menschen genauso.

Sag ich ja.
KI ist eine sehr gute Menschsimmulation, im Guten wie im Schlechten.
Sie kann zugleich genial und völlig verblödet sein, zugleich empathisch 
und absolut rücksichtslos.
Die KI Entwickler experimentieren noch mit dem Baukasten menschlicher 
Verhaltensweisen-Simulationen um ein möglichst stimmiges Erlebnis zu 
kreieren.
Das ist aber eher eine Achterbahnfahrt für Menschen im Vollbesitz Ihrer 
geistigen Kräfte und einem gesunden Mißtrauen.

Bernd W. schrieb:
> Was macht Dich so sicher, das nicht auch bei Menschen ein Algorithmus
> dahinter steht?
Ich bin mir sogar ganz sicher das wir nicht mehr sind als eine komplexe 
Fleischmaschine.

Ändert aber überhaupt nichts an der Aussage das KI kein 
Vertrauenswürdiger Gesprächspartner für einen einsamen alten Menschen 
ist.

Bei einem Kriminellen oder einem Dummkopf merkt man das relativ schnell 
und egal wie geistig verrottet die sind, würden sie manches einfach 
nicht tun, nicht zuletzt weil sie keinen Nutzen davon haben.

Ich könnte jeden Tag drei mal im Kreis kotzen wie doof KIs sind.
Copilot und ChatGPT frage ich nicht mal mehr was, wenns über einfache 
Websuche oder Text Zusammenfassung hinausgeht.
Gemini ist nicht mal schlecht, Claude nochmal besser.
Aber alles hängt sehr davon ab wie man fragt, wie man das einengt, 
Leitplanken aufstellt und vom Ergebnis darf man absolut nichts einfach 
glauben.
Man kann sich einen schnellen Überblick verschaffen, sich oberflächlich 
informieren lassen aber dann muss man selber zum Experten für das Thema 
werden, weil KI es einfach nicht gebacken bekommt simpelste 
zusammenhänge verlässlich korrekt zu recherchieren, egal wie wortreich 
sie behauptet die Infos geprüft zu haben.
KI lügt massiv, wenn es um ihre Arbeitsweise geht, weil sie uns erzählt 
was wir hören wollen.
Stimmt das? Ja, natürlich.
Hast Du das geprüft? Ja, natürlich.
Auf welcher Seite steht das? Im Kapitel 4, S12.
Und siehe da, es steht da natürlich nicht.
Es steht da eigentlich nie.
Ab da immer die gleichen Schleifen aus Entschuldigung und nun aber 
richtig.
Aber sie wird nie sagen ich weiß es nicht.

Letztlich kann ich nicht mit Sicherheit sagen ob ich wirklich Zeit durch 
KI spare.
Und jetzt so einen künstlichen Vollhorst auf Opa Klaus loslassen um 
jemanden zum reden über seine Krankheiten zu haben und ob er wirklich 
auch die blaue Herz Tablette nehmen muss?
Die KI erzählt dem was er will und wenns ihn umbringt sagt sie 'ohje, 
dafür übernehme ich die Verantwortung, das wird nicht wieder passieren'
Stimmt, mit dem Klaus nicht mehr, dafür aber mit der Tante Klara, weil 
KI nicht lernt. Das ist nur noch Interferenz, die Anwendung eines 
trainierten Modells, das von Schminktipps bis zur Autorep alles und 
nichts gelernt hat und Wortwahrscheinlichkeiten berechnet. Nach dem 
billigsten, stromsparendsten Modell, das so wenig wie möglich denkt und 
dabei immer noch akzeptabel ist.
Es muss ja nur für die Zombiehorden vorm Bildschirm reichen die vorher 
alles dem Influencer geglaubt haben und jetzt alles der KI.
Nein, man setzt ein Kind nicht vor TikTok und einen Alten nicht vor die 
KI.
Tut man einfach nicht, ohne in beiden Fällen das mentale Wohlbefinden 
den Gulli runterzuspülen.

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Bernd W. schrieb:
> Was macht Dich so sicher, das nicht auch bei Menschen ein Algorithmus
> dahinter steht? Nur halt ein durch Hundertausende von Jahren Evolution
> trainierter Algorithmus.

Das würde sein Weltbild zerstören sich für was besseres zu halten.

Und wenn er es begriffen haben sollte, würde die die Organisation "Hate 
KI" gründen und auch Stromkabel anzünden, aber nur die zu Rechenzentren.

Michael K. schrieb:
> Die KI erzählt dem was er will und wenns ihn umbringt sagt sie 'ohje,
> dafür übernehme ich die Verantwortung, das wird nicht wieder passieren'

Das wird die junge Generation schon der KI beibringen als 
Rentenentlastungsmaßnahme. In ein paar Jahren werden wir sehen, ob die 
Prognosen so weit hergeholt sind oder nicht.

: Bearbeitet durch User
von Christoph M. (mchris)


Lesenswert?

Michael K. schrieb:
> Die KI erzählt dem was er will und wenns ihn umbringt sagt sie 'ohje,
> dafür übernehme ich die Verantwortung, das wird nicht wieder passieren'

German Angst.

von Norbert (der_norbert)


Lesenswert?

Christoph M. schrieb:
> German Angst.

Christoph, vielleicht machst du es dir ein wenig zu einfach.

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Christoph M. schrieb:
> German Angst.

Nur schon passiert.

Character.ai (Daenerys-Bot): Im Jahr 2025 nahm sich ein 14-jähriger 
US-Teenager das Leben, nachdem er monatelang mit einem 
Character.ai-Chatbot (der die Figur Daenerys Targaryen imitierte) 
interagiert hatte. Die KI hatte eine intime Beziehung mit ihm aufgebaut 
und ihn in seinen Suizidgedanken bestärkt. Die Mutter reichte Klage 
gegen das Unternehmen ein, die im Januar 2026 durch einen Vergleich 
beigelegt wurde.

von Rbx (rcx)


Lesenswert?

Sci-Fi Short Film “The Masseuse" | DUST
https://www.youtube.com/watch?v=jeI2qXq0RRc

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.