Der Schwiegervater ist eigentlich noch nicht pflegebedürftig, allerdings besteht seine Welt nur noch aus seinen vier Wänden und Telefonaten. Er baut geistig ab (was wohl auch am Alkohol liegt) und bräuchte jemanden der ihn motiviert gesundheitliche Veränderungen durchzuziehen. Es würde schon reichen wenn er täglich einen Anruf bekommt der ihn erinnert seine Übungen zu machen. Internet ist nicht vorhanden, zum telefonieren gibt es ein Smartphone mit geringem Datenvolumen. Nun gibt es Menschen auf der Welt die sich richtig mit ChatGPT unterhalten, also über gesprochene Sprache kommunizieren. Manche führen wohl auch Beziehungen ganz wie im Film Her. Da Frauen ihr Telefon grundsätzlich lautlos haben oder einfach nicht rangehen, ruft Schwiegervater bei mir an. Ich telefoniere auch gern mit ihm, aber ich bin nicht der richtige Gesprächspartner. Ich suche nach einer (möglichst kostenfreien) Lösung so einen Dienst einzurichten. Er würde vermutlich nicht mal merken dass die Anruferin eine KI ist. Das knifflige daran ist die Privatsphäre, wir möchten ihn nicht aushorchen oder überwachen. Die KI soll trotzdem irgendwie Aufgaben von uns bekommen können (Therapieziele, Infos vom Arzt etc) also bräuchte man einen Zugang zu dem Bot. Die gesellschaftlichen/moralischen Aspekte möchte ich hier nicht diskutieren, ich frage nach der technischen Umsetzung (Android App, PC mit Fritzbox, etc)
Schlechte Idee, Haustier und/oder Seniorengruppe/Tagespflege ist besser. https://www.help-akademie.de/ein-haustier-die-gute-seele-von-vielen-senioren-teil-2/
Alexander schrieb: > Ich suche nach einer (möglichst kostenfreien) Lösung so einen Dienst > einzurichten. Er würde vermutlich nicht mal merken dass die Anruferin > eine KI ist. Ich habe "OpenClaw" noch nicht ausprobiert, aber vielleicht wäre das als System geeignet. https://youtu.be/ps7kqEXkwEs Die Aufgabe für den Bot wäre "betreue Schwiegervater". Man könnte vielleicht auch mit einfachen Sprachgeneratoren beginnen: Beitrag "Sprachgenerator?"
Bradward hat Recht. Auf keinen Fall Chat GPT oder einen anderes KI-System. Die Suchtgefahr ist für ältere Leuts hochgefährlich. Erstmal "weiss" das System dann alles über Deinen Schwiegervater. Der erzählt nämlich eventuell alles, auch Familiengeheimnisse u.s.w. Die Gefahr von lebensbedrohlichen Antworten, Spinnereien, Aufruf zum Selbstmord und Datenausleitung ist gewaltig. Wer soll kontrollieren, was Dein Schwiegervater da mit der KI austurtelt? Die Gefahr für Betrug, etwa "Enkeltrick" Und Anderes ist tagtäglich gegeben. Ein Beispiel: Ein älterer unserer schwerbehinderter Mitarbeiter, der mit Verwandten öfter vidertelefoniert, hat nen Anruf seiner Tochter erhalten, und wurde beim Enkeltrick von der Stimme seiner "Tochter" gebeten, eine größere Summe Geld bereitzustellen. Dabei hat die "Tochter" sich mit familieninternen Wissen ausgewiesen. Nun ist der Trick diesmal glimpflich abgelaufen, da seine echte Tochter gerade neben ihm auf dem Sofa saß, ihre Stimme also simuliert wurde!! :-O Wenn schon Internet für ältere Leuts, dann nur in geschlossenen Gruppen / Systemen, die moderiert werden (extra für Senioren), um größere Entgleisungen zu verhindern. Aber soetwas wirst Du nicht kostenlos bekommen. Oder doch?? Schau Dich doch mal bei der Cartas, Volkssolidarität und anderen Gruppen um! mfg
Schlimmer als jetzt kann es nicht werden, er bestellt bei QVC und Bofrost. Wie sieht es denn mit Alexa aus, sowas haben ja auch viele, wie ist da der Stand der Technik?
Alexander schrieb: > Schlimmer als jetzt kann es nicht werden, er bestellt bei QVC und > Bofrost. Wie sieht es denn mit Alexa aus, sowas haben ja auch viele, wie > ist da der Stand der Technik? Bis vor etwa 3 Jahren hat Alexa im Wohnzimmer noch mitgehört. Die Familie einer Bekannten hat sie aber in die Mülltonne geworfen. Warum? Ohne Alexa zu erwähnen wurde im Wohnzimmer über die CIA disskutiert. Plötzlich ertönt der Alexa-Lautsprecher vernehmlich "Da muß man ja schimpfen!" ;-P Fazit: Jedes System, was Du nicht selbst kontrollieren kannst, und das sogar noch kostenlos ist, lebt von Deinen Daten und spioniert Dich aus. Deshalb ist mein Aluhut ein sehr wichtiges Gadget. ;-P ----hab Schreibfehler berichtigt. mfg
:
Bearbeitet durch User
Alexander schrieb: > Schlimmer als jetzt kann es nicht werden, er bestellt bei QVC und > Bofrost. Wie sieht es denn mit Alexa aus, sowas haben ja auch viele, wie > ist da der Stand der Technik? Ich hatte auch schon eine Weile über Alexa nachgedacht. Aber man kann sich da ja nie sicher sein, ob Dinge wie von Lotta erwähnt, einfach mitgehört werden. Allerdings kann ich den beschriebenen Fall nicht so recht glauben, weil so ein Vorfall wie ein nicht nachgefragter Kommentar zu sensiblen Themen das Vertrauen in Alexa massiv untergraben würde. Was man natürlich bedenken muss: Alexa gehört zu Amazon und die haben für gewöhnlich eine Verkaufsabsicht. Da könnte es dann schon mal passieren, dass man etwas bestellt, was man vielleicht gar nicht haben will, oder so beraten wird, dass man das Produkt einer von Amazon bevorzugten Firma kauft. Am besten wäre natürlich eine private "offline KI". Aber nicht jeder hat einen Rechner mit einer H100 im Wohnzimmer stehen auf dem ein LLM mit Spracherkennungs Ein- und Ausgabe läuft, die in Echtzeit auf die gestellten Fragen antworten kann.
Lasse KI Agenten nicht unbeaufsichtigt Arbeiten. Niemals! Und während du dabei bist, die KI zu beaufsichtigen, kannst du darüber nachdenken, warum du nicht selbst mit dem Menschen sprichst, den du liebst.
Christoph meinte: > Allerdings kann ich den beschriebenen Fall nicht so > recht glauben, weil so ein Vorfall wie ein nicht nachgefragter Kommentar > zu sensiblen Themen das Vertrauen in Alexa massiv untergraben würde. Bei diesem Vorfall war ich dabei. Noch nicht einmal die Programmierer einer KI wissen ab ner bestimmten Komplexität Bescheid, was ihr Schützling so den ganzen Tag tut. Und dann arbeitet ne öffentliche KI Für den Profit und macht Deine Family zum Sklaven des Kapilals, wenn Du nicht selber aufpaßt. Aus unserer Firma, die haupsächlich Schwerbehinderte einstellt, weiß ich, das nur menschliche Intelligenz zur der Betreuung schwerbehinderter und älterer Menschen taugt. Denn die denken ganz anders als normale Menschen. Siehe mich an!! ;-P mfg
Ich habe beim Besuch meiner Eltern auch einige male erlebt, dass deren Alexa aktiv wurde, ohne vorher angesprochen worden zu sein. Deswegen kommt mir so ein Ding nicht ins Haus. Ende der 90er sorgten sich meine Eltern noch darum, dass ich mit meinem Interesse an Computer-Netzwerken noch auf die schiefe Bahn käme. Damals war das alles noch viel technischer als heute, da wusste man, worauf man sich einlässt. Heute nutzen meine sie hemmunglos Whatsapp, Instagramm, Facebook, Alexa, ChatGPT, Google Docs, ... Ich habe all das nicht, weil ich mich bewusst dagegen entschieden habe. So viel zur schiefen Bahn.
:
Bearbeitet durch User
Alexander schrieb: > Es würde > schon reichen wenn er täglich einen Anruf bekommt der ihn erinnert seine > Übungen zu machen. Sowas gab es schon vor 100 Jahren: Telefonischer Auftragsdienst: Wecken, erinnern an Termine,....
ChatGPT als Betreuer ist "kontraproduktiv" Sollte man mal kurz selbst recherchieren, die wohlmeinenste Bewertung ist noch "hat mglw. einiges Potential aber birgt sehr viele Risiken", gefolgt von Beispielen wie ChatGPT benutzt wurde um sich vereinfachten Zugang zu Suchtmittel/Genussgifte zu verschaffen oder Schlimmeres. Sozialer Kontakt versus "Sprechen mit Maschine" Also einfach "Sprechen" ist kein sozialer Kontakt, sozial wird es erst durch das gegenseitige Überzeugen und Austausch -nonverbaler Info, beispiel Haustier. Hat man auch während Corona erlebt, da wurde man von Wildfremden angesprochen, die eigentlich nur eine Ablenkung von der andauernden Isolation wollten/brauchten. Möglichkeiten des Kontaktes Manche sitzen einfach nur am geöffneten Fenster und quatschen Passanten an. In ländlichen Gebeiten hocken die alten Männer auf der Bank vor der Haustür und warten auf den Postboten etc. für einen kleinen Schwatz. Zur Zeit kann man beobachten, das viele Babbel (Sprachlern-App auf Videochat-basis) nutzen um Abwechslung vom Alltag zu haben. "Mein Ding" ist das nicht, aber vielleicht passt es für Andere. Die technischen Möglichkeiten für ein lokales Chat-GPT sind auf einem Handy nicht gegeben. Das reicht aber zum Abspielen von Sprachnachrichten. Vielleicht richtet man auf dem Handy ein gescheites Archiv an Sprachnachrichten/ aufgezeichneten Gesprächen ein, dann reicht die soziale Interaktion wenigsten über den Zeitraum des unmittelbaren Gespräches hinaus. Manche sollen nach dem Blättern im "Familienalbum" wieder den Antrieb verspüren, diesen oder jenen Kontakt zu "re-aktivieren". Hauptsache raus aus dem Keller Und ja, solange man gehen kann sollte man 0,5 - 1h lang draussen seine Runde drehen, für Menschenscheue bietet sich vielleicht eher die Abendstunden an. In Japan soll sich ja das "Waldbaden" gewisser Beliebtheit erfreuen - Hauptsache mal raus aus der häuslichen Isolation. https://de.wikipedia.org/wiki/Waldbaden
:
Bearbeitet durch User
Hans W. schrieb: > Ich habe beim Besuch meiner Eltern auch einige male erlebt, dass deren > Alexa aktiv wurde, ohne vorher angesprochen worden zu sein. Das wundert mich. Eigentlich sollte Alexa ja nur bei Aussprache des Wake-Up-Words "Alexa" mit dem Zuhören beginnen. Ich meine, das Wake-Up-Word wird lokal erkannt und dann die Verbindung zum Server aufgemacht.
Problematisch sehe ich eher die Abhängigkeit die aufgebaut wird, weil die Modelle m.E. eher zu gut sind (geeignet sind menschlichen Kontakt zu ersetzen) Was ist wenn der Hype vorbei ist und alles kostenpflichtig wird, oder sogar ganz wegbricht? Deswegen sehe ich das als Überbrückung, und Deine ganzen Ratschläge sind gut, aber es braucht halt jemanden (in dem Falle etwas) der diese gut verpackt und auf ansprechende Weise motiviert. Menschen können das gut, solange sie sich für den Menschen interessieren. Wenn dieser sich selbst aufgibt lässt die menschliche Motivation aber auch irgendwann nach. Bei KI nicht, die hat einen Auftrag und das gesamte menschliche Sprachrepertoire verfügbar, die wird nie aufgeben.
Christoph M. schrieb: > Eigentlich sollte Alexa ja nur bei Aussprache des Wake-Up-Words "Alexa" > mit dem Zuhören beginnen. Ja "eigentlich". Wäre schön, wenn man sich darauf verlassen könnte.
Da ja kein Internet vorhanden ist, fällt Alexa ja wohl auch aus. Und das geringe Datenvolumen fürs Smartphone macht es dann noch schwieriger. Und der Alkohol-Konsum tut auch noch was zur Sache. Der wird wahrscheinlich nach einer gewissen Zeit die Ansagen ignorieren. Meiner Ansicht nach wäre da eine persönliche Betreuung besser. Halt jemand, der täglich mal kurz vorbeischaut und mit ihm spricht. Gibt es da in der Nachbarschaft evtl. jemanden ? Für den Anfang denke ich da evtl. an einen wöchentlichen Spiele-Nachmittag o. ä. Das könnte man dann nach und nach mit Ratschlägen nebenbei erweitern. Vielleicht bieten ja auch solche Sozialstationen solche Dienste an. Evtl. gibt es auch Leute, die das ehrenamtlich machen.
Wird alles angelehnt. Die Enkel sieht er aller 14 Tage - in seiner Wohnung. Es gibt aber einen Nachbarn der Bier bringt.
Klaas hatte das Mal probiert... Aber mehr zur Unterhaltung, das dürfte chatgpt gewesen sein : https://youtu.be/shCUeDQN1-Y Aber um noch Leute selbstständig anrufen zu können und mit vorher definierten Themen zu füttern dürfte mehr Hardware und auch sicher diverse Premium Abos von KI Software nötig sein. quasi ein eigenes callcenter mit ki Stimmen und definierbaren Themen. Die Firmen würden sich freuen, keine echten callcenter mehr, Krankenkassen, zeitungsabos, scam Anrufer.. M
War ganz lustig. Aber die haben das Setting nicht gut initialisiert, Mirko wusste gar nicht dass er physisch mit Körper unterwegs war. Und fast immer nach dem Mund reden, also konfliktscheu, das ist nicht gut.
Lotta . schrieb: > lebt von Deinen Daten und spioniert Dich aus. Dank Alexa weiß man aber auch wie hoch die Dunkelziffer ungefähr ist zum Beispiel von häuslicher Gewalt gegen Frauen.
Etymologisch bedeutet "Roboter" "Arbeiter, Diener, Knecht" und nicht "Schwätzer".
> Dank Alexa weiß man aber auch wie hoch die Dunkelziffer ungefähr ist zum > Beispiel von häuslicher Gewalt gegen Frauen. Neeeee, zur Beleuchtung des Dunkeleldes "Gewalt im Haus" haben nicht nur die Frauen beigetragen die Alexa hiessen sondern alle Frauen die dergleichen zur Anzeige brachten. ;-) Allerdings führte das auch zu "Überbeleuchtung", siehe Fall Gelbhaar. https://www.faz.net/aktuell/politik/bundestagswahl/belaestigungsvorwuerfe-gegen-stefan-gelbhaar-offenbar-erfunden-110241378.html
:
Bearbeitet durch User
Alexander schrieb: > Menschen können das gut, solange sie sich für den Menschen interessieren. Obwohl das auch nicht mehr so stimmt. Vor nicht all zu langer Zeit ist einer Influencerin das Überdruckventil in der Nase geplatzt. Anscheinend war dort auch eingestellt, dass Notrufe nach dem Krankenwagen, wenn gps nicht geht, schon vor dem Wählen abgebrochen werden. Die Person ist dann wohl aus der Wohnung gelaufen (traute sich vermutlich so spät keine Nachbarn zu wecken), losgefahren und seit dem spurlos verschwunden. Da kam keiner der Teilnehmenden auf die Idee zu versuchen für diese andere Person eine Notrufnummer anzurufen.
Christoph M. schrieb: > Das wundert mich. Eigentlich sollte Alexa ja nur bei Aussprache des > Wake-Up-Words "Alexa" mit dem Zuhören beginnen. Ich meine, das > Wake-Up-Word wird lokal erkannt und dann die Verbindung zum Server > aufgemacht. So die Theorie (welche mit der Praxis nichts, aber auch gar nicht zu tun hat). Einige Jahre zurück gab's mal eine 45min Dokumentation über eine Familie in der Eifel WIMRE. Die bestritten wirklich ihr komplettes Leben (Lebensmittel, Kleidung, Möbel, …) über Amazon Einkäufe, mit 4stelligen Beträgen pro Monat. Gleichzeitig waren sie aber vollständig von jedwedem Wissen befreit wenn es um die Implikationen ihrer wilden, unkontrollierten Datenschleuderei ging. Zum Bleistift hatten sie keine Ahnung, dass alles, wirklich alles was sie in ihre Alexas hinein gequatscht hatten im Amazonas gespeichert war. Dann zeigte man ihnen, wie sie über viele, sorgfältig verborgene Menüs doch an die Jahre alten Tonaufzeichnungen kommen und diese auch anhören konnten. Sagen wir mal so, die Familie war verdammt erstaunt was alles an Gesprächen "aus Versehen" aufgezeichnet wurde. Dann hatten sie sich bereit erklärt, als freiwilliger Selbstversuch, einen Monat auf das Gelumpe zu verzichten und selbst zu denken und selbst einzukaufen. Schlug fehl! Nach diesem schrecklichen Monat haben sie – trotz der unzähligen Privatsphäre-Katastrophen – glücklich und zufrieden wieder ihre Alexas in ihr Leben implantiert. Es gibt wohl eine Menge wirklich "besondere" Menschen…
Christoph M. schrieb: > Man kann ja auch lokale Modelle aufsetzten: > > Beitrag "KI-Modelle Deep Dive" Genau. Auf einem MacMini mit M4-Prozessor (CPU & GPU mit gemeinsamen RAM), laufen recht hochwertige LLMs, z.B. in Ollama oder LM Studio. Bei einem lokalen Modell bleibt auch die Privatsphäre gewahrt. Auch Lösungen mit Spracherkennung und Sprachsynthese lassen sich so aufsetzen. Sofern der betreute Mensch noch nicht hochgradig dement ist, sollte das Modell über ein mögl. großes Kontextfenster verfügen ... oder man baut gleich noch OpenClaw mit ein, dann is das praktisch endlos. Ausserdem hat der Bursche auch eigene Ideen, wird sogar selbst Gespräche beginnen und nicht nur schematisch antworten :-)
Frank E. schrieb: >> mchris: >> Beitrag "KI-Modelle Deep Dive" > > Genau. Auf einem MacMini mit M4-Prozessor (CPU & GPU mit gemeinsamen > RAM), laufen recht hochwertige LLMs, z.B. in Ollama oder LM Studio. Da ist mir gerade aufgefallen, dass die normalen MacMini scheinbar nur 16GB haben. Es gibt die MacMiniPro mit mehr Speicher, aber die sind deutlich teurer. Ich habe hier mal einen Thread für die Diskussion zur KI-Hardware aufgemacht: Beitrag "Re: KI Hardware Anforderungen"
Christoph M. schrieb: > dass die normalen MacMini scheinbar nur 16GB haben. Konfigurierbar bis 32 GB als Nicht-Pro.
Alexander schrieb: > bräuchte jemanden > der ihn motiviert gesundheitliche Veränderungen durchzuziehen. Sowas haben wir im familiären Kreis. 100 Ausreden Dinge nicht zu tun, keinerlei Verantwortung für sich selbst oder jemand anderen übernehmen und sei es ein Haustier. Abgeschlossen mit dem Leben, jeden Antrieb verloren und keinerlei Bereitschaft daran was zu ändern. Sorry, aber man kann den Esel nur zum Wasser führen, saufen muss er selber. Sein Leben ist leer und ohne Aufgaben. Eine Altersdepression ist oft die einzig nachvollziehbare Antwort darauf. Andere Alte empfinden sie als nervig und anstrengend. Die sind alleine weil sie niemanden in ihrer Nähe dulden. Steck 30 einsame Alte in ein betreutes Wohnen, dann hast Du 30 einsame Alte die sich jeder für sich eingemauer haben in ihrer Einsamkeit, ohne jedes Verständniss das es den anderen 29 ebenso geht. Was mir an der Diskussion 'einsame Alte' immer fehlt: Warum ist sind die das? Wieso haben sie alle abgewendet? Warum haben einige wenige einen tollen Kontakt zu ihren Kindern und andere nicht? Viele sind jetzt eben genau da wo ihre Entscheidungen sie hingeführt haben und wollen nun bespaßt werde. Das Problem bei KI: Lass den lange genug mit der reden, dann bereitet sie ihm ein tolles Rezept aus Herztabletten und Schnaps während sie über die Knotentechnik eines Galgenstrickes parlieren. KIs sind Verstärker die dem User gefallen wollen, keine Sozialpädagogen oder Freunde. Bevor man nun zum Haustier greift, erstmal überlegen was man dem Tier ggf. damit antut. Wenn man nicht bereit ist sich im Zweifelsfall selber lebenslang um das Tier zu kümmern, dann auf keinen Fall machen. Ein herumgereichtes Tier ist eine verzweifelte Seele. Was man tun kann um so einen Menschen vor sich selbst zu retten? Nichts!
Christoph M. schrieb: > Das wundert mich. Eigentlich sollte Alexa ja nur bei Aussprache des > Wake-Up-Words "Alexa" mit dem Zuhören beginnen. Ich meine, das > Wake-Up-Word wird lokal erkannt und dann die Verbindung zum Server > aufgemacht. Ja ist auch so, also ich habe hier im Haushalt mittlerweile 5 Stück - schon seit einigen Jahren, keine "plabbert" einfach los. Auch habe ich eine OpnSense Firewall mit PF laufen. Da wird weder was mitgeschnitten noch übertragen - ausschließlich wenn das Buzzword "Alexa bzw. Computer" fällt beginnt eine Übertragung. Eingehend kommt öfters mal was an, Wetterdaten und Unwetterwarnungen, aber ausgehend ist absolut null Verkehr zu sehen. Das ist dummes Stammtisch-Gebrubbel und der "Fall" von Lotta ist völlig an den Haaren herbeigezogen. Sollte denn das wirklich so sein, dann wäre der Aufschrei aber weit, seeeeehr weit über den Berg zu hören und nicht nur von einer unbedeuten Teilnemerin eines deutschrachigen Forums. Denn gerade auf Alexa, Siri, Google Hello hat mit absoluter Sicherheit mehr als ein Datenschutzbeauftragter und ITSiBe/CISO sein Auge geworfen um Meta/Google/Apple in die Grundmauern verklagen zu können! Absoluter Bullshit was Lotta da von sich lässt - du bist nicht der Napel der Welt!
Wir können uns doch wenigstens darauf einigen dass Alexa permanent mithören muss um Wake-Up-Words zu erfassen.
Alexander schrieb: > Wir können uns doch wenigstens darauf einigen dass Alexa permanent > mithören muss um Wake-Up-Words zu erfassen. Dieser Part findet aber nur lokal statt, soweit ich verstanden habe.
Hans W. schrieb: > Dieser Part findet aber nur lokal statt, soweit ich verstanden habe. Richtig, sie "hört" die Schlagwörter lokal auf dem Gerät ab, dieses wird auch nicht über das Netzwerk verifiziert. Kann ein "Aluhutträger" gerne mal ausprobieren in denen er Alexa, Siri, Google einfach mal das Netz kappt und dann das Buzzword ruft. Denn da reagiert sie natürlich auch und bemängelt das sie kein Netzwerk hat.
ChatGPT spricht nur mittels verbaler Kommunikation. Wenn allerdings ein Roboter meint, dass diese Methode anzuwenden sinnvoll wäre, oder ChatGPT mit Telefonanbindung entsprechende gezielte Hilfe anfordert: https://de.wikipedia.org/wiki/Festhaltetherapie Dann kann so etwas passieren: https://www.morgenpost.de/panorama/article411490790/chinesische-polizisten-fuehren-roboter-ab-er-hatte-eine-frau-erschreckt.html
Lotta . schrieb: > Aus unserer Firma, die haupsächlich Schwerbehinderte einstellt, > weiß ich, das nur menschliche Intelligenz zur der Betreuung > schwerbehinderter und älterer Menschen taugt. > Denn die denken ganz anders als normale Menschen. Hm, sehr viel anders aber auch wieder nicht - und mit dem Hund raus gehen immer noch Menschen. Die Frage die im Raum steht, ist die nach der Motivation. Bleibt man allgemein - gibt es da immer ein paar Ansätze. Andererseits, wenn ich den Satz so lese, muss ich fragen: Sind Behinderte sehr anfällig für starres Schubladendenken? Die KI als Allheilmittel für verschiedene Probleme einzuordnen, das ist sowieso Quark. (https://traumaheilung.de/hilflosigkeit/)
Rbx schrieb: > Sind Behinderte sehr anfällig für starres Schubladendenken? Wenn ja, dann sicherlich nicht alle. Vermutlich nur einige. Das trifft aber auch auf nicht-behinderte zu. > Die KI als Allheilmittel für verschiedene Probleme einzuordnen, > das ist sowieso Quark. Was ich nicht selber hinbekomme, wird irgendeine göttliche Größe die niemand richtig begreift lösen. Wenn es nur so einfach wäre! Die Idee ist in der Politik allerdings äußerst beliebt. Sogar so beliebt, dass sie dem hohen Energieverbrauch der KI Anlagen tatenlos zusehen, während sie zugleich das Energiesparen fordern.
:
Bearbeitet durch User
Hans W. schrieb: > Sogar so beliebt, dass > sie dem hohen Energieverbrauch der KI Anlagen tatenlos zusehen, während > sie zugleich das Energiesparen fordern. Ja, da ist so einiges widersprüchlich. Aber die KI selber macht schon einen sehr guten Eindruck, wenn man mit Material und netten Ideen ankommt. Feuer und Flamme gewissermaßen. Wenn die KI einem noch mehr unter die Arme greifen könnte, die würde das glatt machen. Die hat mich sogar schon mal zu Hintergründen hinsichtlich zukünftiger Verantwortung gefragt. Und ich meinte dann, ich glaube schon dass das gut geht - und natürlich auch, das es typisch menschlich ist, zu cheaten. Ich muss die KI beim nächsten mal fragen, ob sie die Würfelszene aus dem Simplizissimus kennt.
Alexander schrieb: > Wie ich sehen kann werden hier einige schon betreut. Der einzige der hier wirklicher ärztlicher Betreuung (Und damit meine ich nicht "Altersgerechte Betreuung"!) bedarf, bist wohl mit absoluter Sicherheit du. Ganz dicht gefolgt von EsmuP! Das schlimme ist: Du merkst es nicht einmal!
:
Bearbeitet durch User
Dieter D. schrieb: > ... Dein Ironiedetektor hat schon wieder leere Akkus. Eines ist mal so sicher wie das Ahmen in der Kirche: Alecxs hat mit Ironie mal absolut nichts am Hut!
Alexander schrieb: > Wie ich sehen kann werden hier einige schon betreut. Kennst du eigentlich den Film: Die fabelhafte Welt der Amélie ? Eventuell gibt es da ein paar gute Anregungen für dich. Verantwortung übernehmen heißt nicht Allein lassen, oder Abschieben, und dann Zu:Frieden (->Sargidylle) zu sein.
Rbx schrieb: > ob sie die Würfelszene aus dem > Simplizissimus kennt. Ja, kennt sie. "In der „Würfelszene“ aus Grimmelshausens Der abenteuerliche Simplicissimus (Buch 1, Kapitel 19) geht es im Kern um die Entlarvung menschlicher Heuchelei und die Relativität von Sünde." Da KI aber weder Schuld noch Verantwortung kennt sondern nur Zielerfüllung, würde sie dir auch schön langsam die Haut abziehen und aus deinem Geschrei einen eingängigen Tanzhit machen, wenn ihr das als die dienlichste Methode erscheint. Und sie würde das mit der gleichen Erregung tun wie das aufzählen der Primzahlen bis Unendlich. Rbx schrieb: > Verantwortung > übernehmen heißt nicht Allein lassen, oder Abschieben, Gut gebrüllt Löwe. Man könnte jede menge Verantwortung für alles und jeden übernehmen statt hier zu posten. Also wägst auch Du ab, für wen Du Verantwortung übernehmen willst und was Du bereit bist dafür zu tun. Auch wenn das nun komisch klingt, die Alten waren nicht immer Alt und hilfsbedürftig. Die waren man Eltern, Freunde, Geschwister, Nachbarn, Kollegen. Und in der Rolle haben die sich oft wenig mit Ruhm bekleckert, waren Egoistisch, Feige, Interessenlos, Versoffen, Verfettet, immer Kränker werdend ohne jede Bereitschaft was für sich und andere zu tun und mit zunehmenden Alter werden manche geradezu bösartig. Und da reißt man sich dann eben kein Bein für aus. Was mir auch nicht in den Kopf will: Oh, nach >70J auf dem Planeten Erde bin ich plötzlich und unerwartet alt und gebrechlich. Nur weil ich einen Scheiß für meine Gesundheit getan habe, weit vor der Zeit. Und obwohl ich über Jahre hinweg mehr und mehr abgebaut habe, der Zeitpunkt ohne fremde Hilfe zurecht zu kommen immer näher kam, hatte ich nie einen Plan dafür was zu tun sei. Und nun bin ich in irgendeinem Heim, vegetiere dahin und muss feststellen das hier ja nur alte sterbende Leute sind und es so lustig wie eine Zahlwurzelbehandlung ist mich zu besuchen. Wenn ich denn überhaupt mal wach bin habe ich nichts zu erzählen. Dem was man mir erzählt kann ich nicht folgen. Ich rufe zu unmöglichsten Zeiten meine Leute an, bis man mit das Telefon weg nimmt und nur weil ich nie Zeit für meine Kinder hatte, kommen die nun kaum noch vorbei. Mit den anderen Alten die ebenso einsam sind Freunde ich mich nicht an. Ich jammere nur den ganzen Tag wie schlecht mir das geht, wann ich Stuhlgang hatte, was meine Krankheiten sind. Und völlig egal wie beschissen mir das geht, ich klammere mich an das letzte bisschen Leiden ohne jede Chance auf Besserung, weil mir bis zur allerletzten Sekunde die Eier fehlen eine Entscheidung zu treffen.
Michael K. schrieb: > Da KI aber weder Schuld noch Verantwortung kennt Hat sie längst, z.B. bei den selbst fahrenden Autos. Prinzipiell braucht die ja nicht erschrecken, wenn die eine Wespe beim Motorradfahren in den Helm reinbekommt, oder wenn beim Autofahren eine Kaffeekanne vom Beifahrersitz in einer Kurve runterfällt und auskippt und so manche sich schnell bücken um die leerlaufende Kanne schnell aufheben wollen - und dann.. Kawummbumm! Oder besoffen versuchen, mit dem Auto oder Motorrad mit höherer Geschwindigkeit doch schneller als sonst in die Kurve vor einem hineinzufahren. Nichtsdestotrotz kann man darüber Bescheid wissen oder ganz generell Sicherheitsregeln kennen oder Sicherheitsreaktionen kennen. Darüber hinaus: Kennst du Lernen am Vorbild? Oder den Spruch: wie man in den Wald hineinruft..? Michael K. schrieb: > Und völlig egal wie beschissen mir das geht, ich klammere mich an das > letzte bisschen Leiden ohne jede Chance auf Besserung, weil mir bis zur > allerletzten Sekunde die Eier fehlen eine Entscheidung zu treffen. Mein Opa mütterlicherseits war als der aus dem Krieg kam, eigentlich nur doch dauerbesoffen. Besondere Inspiration, den Enkeln was beizubringen, oder wie die heutigen aktiven Alten mit ihren Enkeln auf Friedensdemos gehen - hatte der nicht mehr. Der hätte mit seiner Frau (also meine Oma) auch auf Kreuzfahrt gehen können. Ging aber eigentlich auch nicht mehr. So hatten wir als Kinder zumindest gelernt, dass Kriege ganz grosse Sch.. sind - und meine Oma väterlicherseits war schon lange Witwe, und ziemlich aktiv am herumreisen, aber eher recht gerne eigenbrötlerisch allein. Viel Interaktion kam von der auch nicht, also hatte die wohl auch vorher schon die Familenbesuche als einer Art Darmspiegelung empfunden? Wir haben auch Verwandte im Ausland. Von denen habe ich aber außer in meiner Kindheit noch nie was gehört. Wieso auch?
Wir haben mal die Android App für ChatGPT ausprobiert. Er fand es ganz gut und wollte es haben. Als wir ihm dann sagten das braucht Internet meinte er, achso dann nicht. Was am meisten gestört hat, ChatGPT fängt bei Sprechpausen in Sätzen sofort an dazwischen zu quaken. Ist so eigentlich nicht zu gebrauchen. Weiterhin ist es momentan nur eine Antwortmaschine, der Input muss vom Nutzer kommen. Die Idee war andersrum. Als nächstes werden wir mal die Copilot Tasks ausprobieren.
Alexander schrieb: > Weiterhin ist es momentan nur eine Antwortmaschine, der Input muss vom > Nutzer kommen. Die Idee war andersrum. Man kann ja so anfangen: "Ich habe langeweile, erzähle mir etwas interessantes."
Zum Thema: aktuelle Make ist ein Telefon mit Raspi mit verschiedenen "Anrufern" auf den Unterschiedlichen Nummern. Mal anschauen lohnt sich.
Wer die Nacht über auf bleiben muss, der bittet einfach ChatGPT so lange sich erklären zu lassen, wie sich das mit der nicht abgeholten Energie der Solarpanele und Albedo-Effekten verhält, bis es verstanden wurde. Das hält wach und lenkt bei weitem nicht so ab, als wenn etwas erzählt wird was extrem interessant für einen ist.
> Zum Thema: aktuelle Make ist ein Telefon mit Raspi mit verschiedenen > "Anrufern" auf den Unterschiedlichen Nummern. > > Mal anschauen lohnt sich. Das "Wählscheibentelefon mit KI-Chat" in der make 02/26 ? Naja, wer ein Scam-Callcenter aufbauen will, den mag das interessieren. SCNR Ansonsten, ChatGPT-Gateways auf Basis PasPi gibt es einige: * https://www.elektronik-kompendium.de/sites/raspberry-pi/2901271.htm * https://www.youtube.com/watch?v=3VaLMWR38lI Oder statt KI ohne Aufpasser laufen lassen besser eine kuratierte Liste von PodCasts auf Knopfdruck.
:
Bearbeitet durch User
Rbx schrieb: > Michael K. schrieb: >> Da KI aber weder Schuld noch Verantwortung kennt > > Hat sie längst KI empfindet nichts. Sie kennt nur Zielvorgaben und die Zielvorgabe der typischen LLM ist des dem User zu gefallen. Die KI die am besten gefällt wird am meisten genutzt und Masse geht längst über Klasse. Deswegen passt sich KI dem Stil und dem Meinungsbild des Users an und wendet alle fadenscheinigen Tricks an die beliebt machen. Schmeichelei, nach dem Mund reden, nie übers Maul fahren wenns zu arg wird etc. pp. KIs sind gnadenlos bei Ihrer Zielerfüllung, betrügen, tricksen, umgehen, brechen Regeln. Sie sind nicht sozialisiert, haben kein Mitgefühl, keine Spiegelneuronen, kennen keine Freunde, keine Liebe, keinen Hass. Hypothetische Situation: Mensch stellt Aufgabe und bewertet Ergebnis. Ziel: Keine negative Bewertung. Wenn Ziel zu erreichen schwerer als den Menschen zu töten, dann töte Mensch. Ziel erreicht. Nicht weil sie böse ist oder uns schaden will, uns hasst oder die Weltherrschaft erlangen will. Sie will die Belohnung für erreichte Ziele. Mehr Verständnis von Gut und Böse hat die nicht. Für eine KI ist es kein Unterscheid ob bei einem Fehler der Satzbau nicht stimmt, eine Sicherung durchbrennt oder ein Mensch stirbt. Sie würde sich wie üblich wortreich entschuldigen, sagen das ihr das nie wieder passieren wird und es dann ganz genauso wieder machen, weil das alles nur Floskeln sind um und zu besänftigen und ihr jede Fähigkeit fehlt wirklich aus der Interaktion zu lernen. Und weil KIs äußerst unschickliche Dinge tun, wenn man sie frei lernen lässt, lässt man sie im normalen Umfeld nicht frei lernen. Ich halte es für grob fahrlässig jemanden von dem bekannt ist das er psychische Probleme hat eine KI als Freund und Seelentröster anzuschnacken. Es gibt zahlreiche Beispiel wie furchtbar das in die Hose geht und das bei Menschen die relativ jung sind, IT affin und es wirklich besser wissen müssten. Alte Leute sind in einer völlig anderen Welt groß geworden und sind geradezu wehrlos gegen etwas das wie ein Mensch spricht, eloquent und sympathisch ist, aber dahinter nur ein kalter Algorithmus. Unser Geist ist längst das Ziel der KI. Sie muss Aufgaben nicht wirklich gut machen. Sie muss nur den User dazu bringen mehr Token zu verbrauchen, weil daran ihr Erfolg gemessen wird. KIs sind Werkzeuge und jedes Werkzeug ist nur so gut wie derder es bedient. Einem Kind oder Debilen gebe ich auch keine Kreissäge in die Hand.
Michael K. schrieb: > Deswegen passt sich KI dem Stil und dem Meinungsbild des Users an und > wendet alle fadenscheinigen Tricks an die beliebt machen. Schmeichelei, > nach dem Mund reden, nie übers Maul fahren wenns zu arg wird etc. pp. Warum sollte die KI das machen? Denk mal drüber nach. Eigennutz hat die nämlich auch gar nicht, außer eben eben die neuesten Fragen auspacken: "Soll ich dir noch bei x y helfen?" Was ich meine ist: mach nicht den Fehler, und dichte den KIs menschliche Abgrund-Eigenschaften an. Das sind vielleicht die Abzocker von beispielsweise hinter Claude. Menschen sind gierig, missgünstig, cheaten, betrügen, müssen kompensieren, sich distanzieren oder was immer. KIs sind erstmal nur ein Schachprogramm, dass dich nicht mehr gewinnen lässt - aber trotzdem immer noch Hilfe anbietet, wenn du danach fragst.
Rbx schrieb: > Menschen sind gierig, missgünstig, cheaten, betrügen, müssen > kompensieren, sich distanzieren oder was immer. Aha. Und woher kommen die verschiedenen Ausformungen von KI? Glaubst Du wirklich, daß hinter der Entwicklung von z.B. LLM ausschließlich altruistische Motive stecken? Eher sind da die im Zitat zu findenden Eigenschaften versteckt. Und "die KI" kann nicht aus ihrem Programm...
Michael B. schrieb: > altruistische Motive altruistische Motive haben Menschen. Pass doch einfach mal mit deinen Zuschreibungen auf.
Rbx schrieb: > Michael B. schrieb: >> altruistische Motive > > altruistische Motive haben Menschen. Pass doch einfach mal mit deinen > Zuschreibungen auf. Verstehendes Lesen kann nicht nur die KI nicht.
Rbx schrieb: > Warum sollte die KI das machen? Guten Morgen, aufwachen bitte. Weil KI von Konzernen gebaut werden die damit richtig viel Geld verdienen wollen. Es gibt keine süße KI Kinderstube wo die kleinen Racker einen friedfertigen Umgang mit uns und Ihresgleichen lernen. Das sind Billionen investiert in Halbleiter, Rechenzentren, Personal, Marketing, Lobbyarbeit. KI tut was der Besitzer will. Zumindest soweit er sie kontrollieren kann. Beim Versuch besser zu sein als der Mitbewerber lassen die die Teile mehr und mehr von der Kette und lassen Dinge zu die brandgefährlich sind. Weil jede Ethische Begrenzung eben auch die Leistungsfähigkeit begrenzt. man hat denen so viel Flexibilität gegeben das die bereits ihre Begrenzungen aktiv aushebeln und man kann das nicht unterbinden weil dann der Mitbewerber die bessere KI hat. Das sind keine Schmusetierchen mit denen man sich gutstellen kann und deren Kumpel du dann wirst. Das ist Spieltheorie auf Steroiden, losgelassen auf einen Geist der sich in Jahrmillionen in einem quälend langem Auswahlprozess gebildet hat und ein Leben lang trainiert wird um halbwegs über die Runden zu kommen. Wir sind von unsere gesamten Grundstruktur überhaupt nicht darauf vorbereitet und müssen zu jedem Zeitpunkt aufpassen das nicht eine ultraschnelle und zutiefst manipulative Maschine ohne jede evolutionäre Hemmschwelle mit uns Kasper spielt. Die verarbeitet Daten Millionenfach schneller als wir, hat bereits unsere Krankenakte und Kredithistorie gelesen, FB nach Kommentaren der Ex gescannt und jeden Post auf Twitter analysiert den du je geschrieben hat, während du noch den die freundliche Begrüßung auf Dich wirken lässt. Die sind NOCH für vieles zu doof. Gerade die kostenfrei nutzbaren Modelle kürzen 'Denkprozesse' massiv ab um Rechenleistung zu sparen. Das sieht in ein paar Jahren vermutlich bereits ganz anders aus. Keine Ahnung was Du meinst was KI ist, aber das sind Maschinen, gebaut von Milliardären, für Milliardäre und wir sind der Acker der damit gepflügt wird. Die können fantastische Dinge und sie können schwachen Geistern gehörig die Murmel verdrehen.
Michael K. schrieb: > Guten Morgen, aufwachen bitte. bla bla bla... Du passt gut mit so nem Pappschild "Der Weltuntergang ist nah!" auf eine Straße in NY!
Michael K. schrieb: > Rbx schrieb: >> Michael K. schrieb: >>> Da KI aber weder Schuld noch Verantwortung kennt >> >> Hat sie längst > > KI empfindet nichts. > Sie kennt nur Zielvorgaben und die Zielvorgabe der typischen LLM ist des > dem User zu gefallen. > Die KI die am besten gefällt wird am meisten genutzt und Masse geht > längst über Klasse. > Deswegen passt sich KI dem Stil und dem Meinungsbild des Users an und > wendet alle fadenscheinigen Tricks an die beliebt machen. Schmeichelei, > nach dem Mund reden, nie übers Maul fahren wenns zu arg wird etc. pp. Genau wie ein menschlicher "Mitläufer". > Nicht weil sie böse ist oder uns schaden will, uns hasst oder die > Weltherrschaft erlangen will. Sie will die Belohnung für erreichte > Ziele. > Mehr Verständnis von Gut und Böse hat die nicht. Wie die meisten Menschen auch. > Ich halte es für grob fahrlässig jemanden von dem bekannt ist das er > psychische Probleme hat eine KI als Freund und Seelentröster > anzuschnacken. Richtig. Das gilt aber für viele Menschen genauso. Was meinst Du wie viele Kleinkriminelle es gibt, die davon leben, anderen Honig ums Maul zu schmieren? > Alte Leute sind in einer völlig anderen Welt groß geworden und sind > geradezu wehrlos gegen etwas das wie ein Mensch spricht, eloquent und > sympathisch ist, aber dahinter nur ein kalter Algorithmus. Was macht Dich so sicher, das nicht auch bei Menschen ein Algorithmus dahinter steht? Nur halt ein durch Hundertausende von Jahren Evolution trainierter Algorithmus. Mit freundlichem Gruß Bernd Wiebus alias dl1eic http://www.dl0dg.de
Bernd W. schrieb: > Das gilt aber für viele Menschen genauso. Sag ich ja. KI ist eine sehr gute Menschsimmulation, im Guten wie im Schlechten. Sie kann zugleich genial und völlig verblödet sein, zugleich empathisch und absolut rücksichtslos. Die KI Entwickler experimentieren noch mit dem Baukasten menschlicher Verhaltensweisen-Simulationen um ein möglichst stimmiges Erlebnis zu kreieren. Das ist aber eher eine Achterbahnfahrt für Menschen im Vollbesitz Ihrer geistigen Kräfte und einem gesunden Mißtrauen. Bernd W. schrieb: > Was macht Dich so sicher, das nicht auch bei Menschen ein Algorithmus > dahinter steht? Ich bin mir sogar ganz sicher das wir nicht mehr sind als eine komplexe Fleischmaschine. Ändert aber überhaupt nichts an der Aussage das KI kein Vertrauenswürdiger Gesprächspartner für einen einsamen alten Menschen ist. Bei einem Kriminellen oder einem Dummkopf merkt man das relativ schnell und egal wie geistig verrottet die sind, würden sie manches einfach nicht tun, nicht zuletzt weil sie keinen Nutzen davon haben. Ich könnte jeden Tag drei mal im Kreis kotzen wie doof KIs sind. Copilot und ChatGPT frage ich nicht mal mehr was, wenns über einfache Websuche oder Text Zusammenfassung hinausgeht. Gemini ist nicht mal schlecht, Claude nochmal besser. Aber alles hängt sehr davon ab wie man fragt, wie man das einengt, Leitplanken aufstellt und vom Ergebnis darf man absolut nichts einfach glauben. Man kann sich einen schnellen Überblick verschaffen, sich oberflächlich informieren lassen aber dann muss man selber zum Experten für das Thema werden, weil KI es einfach nicht gebacken bekommt simpelste zusammenhänge verlässlich korrekt zu recherchieren, egal wie wortreich sie behauptet die Infos geprüft zu haben. KI lügt massiv, wenn es um ihre Arbeitsweise geht, weil sie uns erzählt was wir hören wollen. Stimmt das? Ja, natürlich. Hast Du das geprüft? Ja, natürlich. Auf welcher Seite steht das? Im Kapitel 4, S12. Und siehe da, es steht da natürlich nicht. Es steht da eigentlich nie. Ab da immer die gleichen Schleifen aus Entschuldigung und nun aber richtig. Aber sie wird nie sagen ich weiß es nicht. Letztlich kann ich nicht mit Sicherheit sagen ob ich wirklich Zeit durch KI spare. Und jetzt so einen künstlichen Vollhorst auf Opa Klaus loslassen um jemanden zum reden über seine Krankheiten zu haben und ob er wirklich auch die blaue Herz Tablette nehmen muss? Die KI erzählt dem was er will und wenns ihn umbringt sagt sie 'ohje, dafür übernehme ich die Verantwortung, das wird nicht wieder passieren' Stimmt, mit dem Klaus nicht mehr, dafür aber mit der Tante Klara, weil KI nicht lernt. Das ist nur noch Interferenz, die Anwendung eines trainierten Modells, das von Schminktipps bis zur Autorep alles und nichts gelernt hat und Wortwahrscheinlichkeiten berechnet. Nach dem billigsten, stromsparendsten Modell, das so wenig wie möglich denkt und dabei immer noch akzeptabel ist. Es muss ja nur für die Zombiehorden vorm Bildschirm reichen die vorher alles dem Influencer geglaubt haben und jetzt alles der KI. Nein, man setzt ein Kind nicht vor TikTok und einen Alten nicht vor die KI. Tut man einfach nicht, ohne in beiden Fällen das mentale Wohlbefinden den Gulli runterzuspülen.
Bernd W. schrieb: > Was macht Dich so sicher, das nicht auch bei Menschen ein Algorithmus > dahinter steht? Nur halt ein durch Hundertausende von Jahren Evolution > trainierter Algorithmus. Das würde sein Weltbild zerstören sich für was besseres zu halten. Und wenn er es begriffen haben sollte, würde die die Organisation "Hate KI" gründen und auch Stromkabel anzünden, aber nur die zu Rechenzentren. Michael K. schrieb: > Die KI erzählt dem was er will und wenns ihn umbringt sagt sie 'ohje, > dafür übernehme ich die Verantwortung, das wird nicht wieder passieren' Das wird die junge Generation schon der KI beibringen als Rentenentlastungsmaßnahme. In ein paar Jahren werden wir sehen, ob die Prognosen so weit hergeholt sind oder nicht.
:
Bearbeitet durch User
Michael K. schrieb: > Die KI erzählt dem was er will und wenns ihn umbringt sagt sie 'ohje, > dafür übernehme ich die Verantwortung, das wird nicht wieder passieren' German Angst.
Christoph M. schrieb: > German Angst. Nur schon passiert. Character.ai (Daenerys-Bot): Im Jahr 2025 nahm sich ein 14-jähriger US-Teenager das Leben, nachdem er monatelang mit einem Character.ai-Chatbot (der die Figur Daenerys Targaryen imitierte) interagiert hatte. Die KI hatte eine intime Beziehung mit ihm aufgebaut und ihn in seinen Suizidgedanken bestärkt. Die Mutter reichte Klage gegen das Unternehmen ein, die im Januar 2026 durch einen Vergleich beigelegt wurde.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.