In letzter Zeit mehren sich in Stellenanzeigen die Nachfragen nach Erfahrungen in "Künstlicher Intelligenz" und maschinellem Lernen. Was haltet ihr davon? Die Zukunft oder doch nur ein Hype? Man kann mit dem Thema zumindest viele Leute ohne technischem Sachverständnis beeindrucken...
:
Verschoben durch Moderator
die zukunft ja, aber beim derzeitigen technischen stand trotzdem ein hype. https://www.youtube.com/watch?v=x8oxBB_kGR8
Ich hatte mir letztes Jahr mal einen Vortrag vom Prof. Dr. Klaus-Robert Müller, Leiter des FG Maschinelles Lernen am Institut für Softwaretechnik und Theoretische Informatik der TU Berlin angehört. Für mich würde ich sagen tut sich da ein Feld auf was uns in der Zukunft noch sehr beeinflussen wird. Aber wie bei jeder Technologie gibt es Chancen und Risiken, die so oder so angewendet werden können. Hier mal paar Links: https://www.youtube.com/watch?v=-OBHz_sqEus https://www.youtube.com/watch?v=BFBfOrH8lo4 https://www.youtube.com/watch?v=Xsu9fCHvLZs
Das sind die zwei Vorträge zur Podiumsdiskussion vom Technologieforum 2017: https://www.youtube.com/watch?v=QbrVCuaAry0 https://www.youtube.com/watch?v=AT3fNoNPAPM hatte ich vergessen.
c.m. schrieb: > die zukunft ja, aber beim derzeitigen technischen stand trotzdem ein > hype. > > https://www.youtube.com/watch?v=x8oxBB_kGR8 bin absolut der gleichen Meinung. Um ein KNN mit ein paar Hidden Layers zu trainieren,bräuchte man einen sehr starken Rechner, mill. Datensätze und viel Zeit und das hat nicht jeder
Hier der passende Artikel von Heise, vor 8 Monaten: https://www.heise.de/newsticker/meldung/Kommentar-zu-KI-und-digitalen-Assistenten-Mehr-Statistik-als-Intelligenz-3342577.html
Im militärischen Bereich tut sich da vor allem etwas. Das ist aus meiner Sicht nogo. AI basierte Schiessmaschienen, Drohnen, die auf Grund von Überwachungsdaten autonom über Leben oder Tod entscheiden - das geht gar nicht. Im zivilen Bereich kann ich mir durchaus sinnvolle Anwendungen vorstellen. Diestleistungsroboter, Kehrroboter, Assistenzsysteme für Verkehrssteuerung. Allerdings dürfen Roboter niemals den Menschen ersetzen sondern sollen ihm Arbeiten abnehhmen. Auch sexroboter sind und bleiben dämlich.
echte KI ist das Ende der Menschheit. Da kann man nur hoffen, dass man sich wie ein Affe verhält und nicht dran glauben muss.
denkmal schrieb: > Was haltet ihr davon? Die Zukunft oder doch nur ein Hype? Momentan Hype, siehe hier: https://i-serviceblog.com/2016/10/18/der-gartner-hype-cycle-technologien-und-trends-2016/ KI muss erst noch durch das Tal der Tränen bevor tatsächlich ein paar gescheite Produkte daraus entstehen.
KI mag ja ein Hype sein, aber maschinelles lernen sehe ich als eine Möglichkeit an Lösungen für Problemstellungen zu finden, die man ohne maschinelles lernen nicht gefunden hätte. Und wenn damit Probleme gelöst werden, die uns alle weiter bringen dann nurzu, wenn es nur einigen wenigen nützt um denen ein Vorteil zu verschaffen braucht man es nicht.
xxx schrieb: > KI muss erst noch durch das Tal der Tränen bevor tatsächlich ein paar > gescheite Produkte daraus entstehen. Dort war die KI schon, das Thema ist mittlerweile ja schon Jahrzehnte alt. Und was heutzutage schon möglich ist, finde ich nicht schlecht.
Von Fuzzy Logic habe ich auch schon länger nichts mehr gehört. Namaste
Winfried J. schrieb: > Von Fuzzy Logic habe ich auch schon länger nichts mehr gehört. > > Namaste Modeerscheinungen kommen und gehen. KI ist dann KI wenn es gelingt die Menge an Speicher zur Verfügung zu stellen und die notwenigen Verarbeitungsschritte und Auswahlverfahren zu beherrschen die die "KI" jetzt schon macht. "KI" = Denkapparat der Homos... Wenn das technisch mal möglich ist besteht nur noch ein kleiner unterschied zu "KI". Jedoch eins ist zu beachten. Die "KI" ist in der Lage die starren Abläufe in der Natur zu beeinflussen, ob das eine KI auch kann? Wenn sie das kann dann ist die KI zur "KI" geworden. Kurt
KI ist die Zukunft. Und loest voraussichtlich alle bekannten und unbekannten Probleme. In der Zukunft. Jetzt noch nicht grad. Lass uns jetzt den Grundstein fuer eine goldene Zukunft legen. Die Gewinne werden unendlich sprudeln. Erst brauchen wir aber nochmals eine Million.
Die KI hat es heute leichter als früher, weil die zu übertreffende NI sich in die richtige bewegt.
Frank S. schrieb: > KI mag ja ein Hype sein, aber maschinelles lernen sehe ich als eine > Möglichkeit an Lösungen für Problemstellungen zu finden, die man ohne > maschinelles lernen nicht gefunden hätte. Und wenn damit Probleme gelöst > werden, die uns alle weiter bringen dann nurzu, wenn es nur einigen > wenigen nützt um denen ein Vorteil zu verschaffen braucht man es nicht. Es fehlt dabei aber meistens an Erkenntnisgewinn. Wenn beispielsweise ein Schachprogramm klassisch die Regeln einprogrammiert bekommt wie eine Stellung optimal zu bewerten ist, und das Programm schlägt jeden Spieler, dann kann auch ein Spieler daraus eine Erkenntnis gewinnen um besser zu werden. Wenn bei Go die KI jedoch durch langes Training ein neuronales Netz aufbaut was besser als jeder Mensch spielt, ist das zwar eine tolle Leistung, aber wir können daraus nicht lernen wie Go besser gespielt werden kann. Ein Mensch könnte es dir zumindest sagen.
Die KI wird kostensparendes und Rersourcen-schonendes Unterdrücken von vernetzten Bürgern ermöglichen :-) Kein Supervisor mehr nötig ... die KI unternimmt die nötigen Schritte - und ist auch noch sehr schnell.
Thomas W. schrieb: > Es fehlt dabei aber meistens an Erkenntnisgewinn. Thomas W. schrieb: > Ein Mensch könnte es dir zumindest sagen. Das ist die große Frage. Kannst du Intuition erklären? Um beim Beispiel Schach oder GO zu bleiben: sicher gibt es eine menge Regeln, nach denen eine bestimmte Stellung höher zu bewerten ist, als eine andere, aber die Auswahl des Zuges ist sicher nicht rein davon abhängig, sondern fußt auf nicht so ohne weiteres bennenbaren Werten, wie Erfahrung, dem Kennen des gegenüber und aus diesen Komponenten gebildeter Intuition. Programmtechnisch ist das durch klassische Programmierung nicht zu vermitteln. Ein Prgramm, was immer den Zug mit den höchsten Punkten ausführt, lässt sich wahrscheinlich gut überlisten. Weiterhin ist das oben genannte Problem nicht neu und nicht exclusiv für das, was aktuell (und wahrscheinlich auch hier gerade) mit KI gemeint ist, nämlich tiefe (C)NNs. Das Problem besteht auch bei klassischen merkmalsbasierten Verfahren des Machine Learning, wie SVMs. Die gefundenen hyperdimensionalen Trenneben im hochdimensionalen Merkmalsraum sind schwer zu analysieren. Trotzdem funktionieren diese Verfahren sehr gut und werden auch an vielen Stellen eingesetzt
KI hat in einigen Bereichen in kürzester Zeit die klassischen Verfahren verdrängt (z.B. Spracherkennung - Alexa, Siri und Cortana währen mit klassischen Verfahren nicht möglich gewesen). Ob sie sich dort so gut bewähren, wie man es jetzt vermutet, wird sich zeigen. Frühere KI-Systeme mussten sich aber an Menschen messen lassen, inzwischen orientieren sich die Menschen an den Fähigkeiten der KIs. Damit muss die KI nicht "perfekt" sein, sie braucht nur passend trainierte Menschen... und durch die Informationsfülle (und -blase) kriegt man netterweise auch nicht mit, was die KI gerade falsch gemacht hat... Das macht mir mehr Sorgen.
Ein riesen Vorteil der KI wird das praktisch unbegrenzte, nicht flüchtige Gedächtnis sein. Da hinein kann man sämtliches Wissen der Menschheit reintun und es verarbeiten lassen - sofern man es zulässt. Heutzutage ist ja auch alles dezentral abgelegt und somit auch gegen Missbrauch abgesichert. Jedenfalls könnte eine dicke KI zB. das Wissen aller Wissenschaftler anhäufen und es verarbeiten - das würde vielleicht die Produktivität steigern oder neue Erkenntnisse bringen etc.
:
Bearbeitet durch User
H-G S. schrieb: > Jedenfalls könnte eine dicke KI zB. das Wissen aller Wissenschaftler > anhäufen und es verarbeiten - das würde vielleicht die Produktivität > steigern oder neue Erkenntnisse bringen etc. Ja, es würde Agrarwissenschaftler mit dem Wissen von Atomphysikern ermöglichen, die bei der Herstellung von Kompott übrigen Kirschkerne zu spalten. -Feldkurat-
H-G S. schrieb: > Da hinein kann man sämtliches Wissen der Menschheit reintun und es > verarbeiten lassen und dann wird die Menschheit überflüssig sein... Das erste, was eine KI machen wird, wenn es sie denn wirklich mal geben sollte, wird sein, dafür zu sorgen, daß sie nie wieder abgeschaltet werden kann...
P. M. schrieb: > wird sein, dafür zu sorgen, daß sie nie wieder abgeschaltet werden kann... Wieso? Abschalten macht doch - im Gegensatz zu einem Gehirn - überhaupt nichts aus. Uns machen die Bewusstseinslücken, die durch den Schlaf entstehen, auch nichts aus.
Noch zwei Links die ich sehr interessant fand: http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html Ich denke die Revolution kommt erst noch und leider wird das nicht nur positiv. Erstmal werden natürlich massig Jobs wegfallen, aber gut, Alternativen zur Vollbeschäftigung gibt es ja genug. Ein krasser Nachteil ist aber, dass von Künstlicher Intelligenz vor allem Diejenigen profitieren die sehr viel Rechenleistung haben und gleichzeitig viele Daten haben um das zu trainieren. Und das sind in letzter Zeit immer weniger immer größere Firmen die einmal alle Daten haben wollen oder schon haben und natürlich nach allem analysieren können. Für Leute wie mich hat das also erstmal nur in Produkten (selbstfahrendes Auto) Vorteile, aber da ist die AI schon trainiert, Privatleute werden es sich nicht leisten können selber AIs zu trainieren weil das eben sehr rechenlastig ist und viele Daten braucht. Es ist also eine Technik die dann eben von denen verwendet werden wird die schon viel macht haben. Zur Gesichtserkennung auf öffentlichen Plätzen, Analyse von Telefongesprächen und Spracherkennung, ...
Wie die selbstfahrenden Autos wohl entscheiden, welchem Fussgänger oder Auto sie ausweichen beim Unfall ? Immerhin muss man ja den "Wert" der Objekte erfassen, ihren Status, Nationalität usw.
Uhu U. schrieb: > Wieso? Abschalten macht doch - im Gegensatz zu einem Gehirn - überhaupt > nichts aus. Ein »überlegener« künstlicher Intellekt kann der »dummen« Menschheit niemals vertrauen. Er muß also selbst dafür sorgen, daß er nie wieder eingeschaltet werden muß...
H-G S. schrieb: > Wie die selbstfahrenden Autos wohl entscheiden, welchem Fussgänger oder > Auto sie ausweichen beim Unfall ? Solange wir als Menschheit solche Fragen nicht ethisch sauber beantworten können (wollen), können wir das von KIs auch nicht verlangen. Menschen entscheiden übrigens zufällig (unvorhersehbar).
S. R. schrieb: > Solange wir als Menschheit solche Fragen nicht ethisch sauber > beantworten können (wollen) Wenn du freundlicherweise erklären würdest, was "ethisch sauber" ist, wären wire einen gewaltigen Schritt weiter...
Uhu U. schrieb: > Wenn du freundlicherweise erklären würdest, was "ethisch sauber" ist, > wären wire einen gewaltigen Schritt weiter... Die Betonung liegt auf "ethisch", nicht auf "ethisch sauber"! Unsere Gesellschaften weisen Menschenleben keinen allgemeinen, universellen Wert zu. Damit sind jegliche Entscheidungen "wenn einer sterben muss, wer soll es sein" immer Einzelfallentscheidungen, die nachträglich bei Bedarf sanktioniert werden. Das kannst du von einer KI nicht verlangen. Wenn die Gesamtgesellschaft sich dazu entscheidet, bevorzugt Arme, Behinderte, Frauen und Schwule sterben zu lassen *und damit gut leben kann* (da ist die Ethik wieder!), dann kann man das gern in ein Gesetz schreiben und in KIs einprogrammieren - denn dann gibt es Konsenz. Und jetzt bitte zitiere mich möglichst missverständlich.
H-G S. schrieb: > Wie die selbstfahrenden Autos wohl entscheiden, welchem Fussgänger oder > Auto sie ausweichen beim Unfall ? Zu der Frage kann es nicht kommen: Eine Maschine muß die BA für den Straßenverkehr und unser Zusammenleben implementiert haben und strikt befolgen. ( StVo, BGB, StGb ) Es darf nicht schneller gefahren werden als daß in der Hälfte der überschaubaren Strecke sicher angehalten werden kann. Es darf auf Bundesautobahnen und Bundesstraßen nur eingefahren werden wenn anschließend die Sicherheitsabstände eingehalten werden. Wenn sich die Maschinen daran halten wird es ruhig auf unseren Straßen.
S. R. schrieb: > Die Betonung liegt auf "ethisch", nicht auf "ethisch sauber"! Ausrede. > Unsere Gesellschaften weisen Menschenleben keinen allgemeinen, > universellen Wert zu. Damit sind jegliche Entscheidungen "wenn einer > sterben muss, wer soll es sein" immer Einzelfallentscheidungen, die > nachträglich bei Bedarf sanktioniert werden. Das setzt voraus, dass man im Zweifelsfall die Wahl hat, wen es erwischt. Denk 3 Sekunden nach und du hast genügend Beispiele, die zeigen, dass das etwas zu optimistisch ist. > Wenn die Gesamtgesellschaft sich dazu entscheidet, bevorzugt Arme, > Behinderte, Frauen und Schwule sterben zu lassen *und damit gut leben > kann* (da ist die Ethik wieder!), dann kann man das gern in ein Gesetz > schreiben und in KIs einprogrammieren - denn dann gibt es Konsenz. Konsens == ethisch? In Sklavenhaltergesellschaften ist es ganz selbstverständlich, einen Sklaven auch für kleine "Vergehen" brutal zu bestrafen. Ist Sklavenhaltung deswegen ethisch? > Und jetzt bitte zitiere mich möglichst missverständlich. Schon wieder Vorbereitung der nächsten Ausreden.
Andreas B. schrieb: > Eine Maschine muß die BA für den Straßenverkehr und unser Zusammenleben > implementiert haben und strikt befolgen. ( StVo, BGB, StGb ) Inwiefern löst das das Problem? Egal wie gut die Sensoren und Algorithmen werden, es wird immer Situationen geben, in denen eine Kollision nicht zu verhindern ist. Sei es durch plötzlich hinter Hindernissen heraustretende Verkehrsteilnehmer, plötzlich verschlechterte Fahrbahnqualität, Auf die Fahrbahn fallende/fliegende Gegenstände etc.
Solche Situationen kann es immer geben, das hat auch nichts mit KI zu tun weil das auch Menschen passieren kann. Ob ein Mensch in so einer Situation noch sinnvoll entscheidet ist auch sehr fraglich, vielleicht macht der auch panisch irgendetwas was dann zu größerem Schaden führt als nötig. Muss man also den möglichen Schaden gewichten für eine KI? Das Kind ist wertvoller als der Opa auf der anderen Straßenseite? Sollte man der KI lernen das Verhalten der möglichen Opfer einzuschätzen? Sowas wie der Opa benutzt den Zebrastreifen, das Kind nicht sondern springt zwischen parkenden Autos hervor, der Opa ist also schützenswerter weil er sich an die Regeln gehalten hat? Aber was ist dann wenn zwei Kinder zwischen Autos hervorspringen? Es lässt sich immer ein Dilemma bauen, auch eines bei dem man nichtmehr sinnvoll bewerten kann. Am Ende macht das Auto eben irgendetwas wie jetzt schon die Menschen, die sind nämlich auch nur (hoffentlich gut) trainierte neuronale Netze. Aber egal wie man jetzt mit so Extremsituationen umgeht, mit autonomen Autos wird die Zahl der Unfälle und Personenschäden sehr stark fallen.
Ich denke es wird noch zu viel in KI herein interpretiert. Maschinelles Lernen trifft es besser. Von einem selbstständig denkenden Bewusstsein, welches das kreative Denken von Menschen völlig ersetzt, sind wir noch weit entfernt. Das heißt nicht, dass es den Menschen nicht bei einfachen Aufgaben ersetzen kann. Das ist aber nichts Neues, sondern schon immer ein Teil der fortschreitenden Automatisierung. Wie viele Arbeitsplätze gingen wohl durch den Computer verloren, weil nun einfache Aufgaben wie Briefe schreiben und Daten verwalten damit so viel einfacher wurden? Auf der anderen Seite entstehen dadurch ja wieder neue Jobs, mit anderen Anforderungen. Das wird beim maschinellen Lernen genauso sein. Aus Sicht eines Arbeitnehmers macht es also auf jeden Fall Sinn, sich mit der Thematik zu beschäftigen. Ein Hype ist das nicht. Siri, Alexa und Co. darf man wohl kaum als Paradebeispiele für KI sehen. Schaut Euch dafür besser mal IBM Watson an und was damit alles so gemacht wird. Das sind echte Anwendungen und keine Spielereien. Wobei auch die Spielereien sich sicherlich weiterentwickeln und ihren Platz auf dem Markt finden. Ich denke nicht, dass selbstfahrende Fahrzeuge ethische Entscheidungen treffen werden. Für z.B. unvermeidbare Kollisionen wird wohl eher eine (Nicht-KI) Default-Reaktion (sprich Vollbremsung ohne ausweichen) übernehmen. So wie es ein Fahrer an der Stelle auch machen würde (ethische Überlegungen werden in solch kritischen Situationen von Menschen auch wohl selten getroffen).
Persönlich finde ich ja die Frage wie man eine KI zu behandeln hat noch deutlich interessanter. Bei einer "echten KI" wird ja meist von einem System gesprochen, das dem Menschen eben würdig oder sogar überlegen ist. Unter dem Gesichtspunkt der KI Sicherheit soll es sich aber wie ein Sklave/Diener verhalten (der Mensch soll jeder Zeit die absolute Kontrolle über die KI haben). Ist das ethisch vertretbar? Sehr interessant finde ich zudem noch die Erkenntnisse, die aus der KI Sicherheitsforschung kommen. Eine der Erkenntnisse ist, das wenn ein einzelner Parameter bis zur Grenze optimiert wird, dies immer unerwünschte Nebeneffekte hat. Ein beispiel, was viele kennen sind die Blüten, die Gewinnmaximierung in größeren Firmen trägt. Gruß Kai PS: Hier ein interessanter Vortrag zu dem Thema: https://www.youtube.com/watch?v=EUjc1WuyPT8
Kai S. schrieb: > Persönlich finde ich ja die Frage wie man eine KI zu behandeln hat noch > deutlich interessanter. Bei einer "echten KI" wird ja meist von einem > System gesprochen, das dem Menschen eben würdig oder sogar überlegen > ist. Unter dem Gesichtspunkt der KI Sicherheit soll es sich aber wie ein > Sklave/Diener verhalten (der Mensch soll jeder Zeit die absolute > Kontrolle über die KI haben). Ist das ethisch vertretbar? Dieses scheinbar bedeutungsschwangere, aber völlig inhaltsleere Geraune über "Ethik" im Zusammenhang mit KI ist nur das übliche Einfallstor für Pfaffen aller Couleur in Gebiete, in denen sie nichts, aber auch gar nichts verloren haben. Man muss die Sache pragmatisch angehen. KI ist nur eine Maschine, wenn auch eine ziemlich mächtige und so ist sie zu behandeln. Von "dem Menschen eben würdig" - was immer das ist - kann nicht die Rede sein und Überlegenheit in Spezialdisziplinen war noch nie ein Problem - oder können Menschen Fliegen wie ein Pfeil, tauchen wie ein Uboot oder rechnen wie ein Computer? Den Pfaffen Entscheidungskompetenz zuzuweisen, wo der eigene Horizont nicht ausreicht, zu vernünftigen Lösungen für die Implikationen neuer Technologien zu kommen, ist kindisch und eines denkenden Menschen unwürdig.
Winfried J. schrieb: > Von Fuzzy Logic habe ich auch schon länger nichts mehr gehört. Die ist vom Hype-Thema mittlerweile zu einem Standardinstrument geworden, vielfach in der Praxis erprobt und genutzt.
Beitrag #5054770 wurde vom Autor gelöscht.
Uhu U. schrieb: > S. R. schrieb: >> Die Betonung liegt auf "ethisch", nicht auf "ethisch sauber"! > Ausrede. Es geht mir darum, dass wir solche Fragen als Gesamtgesellschaft nicht beantwortet haben - und vermutlich weder beantworten können noch wollen. Gleichzeitig verlangen wir von künstlichen Intelligenzen, solche Entscheidungen fehlerfrei treffen zu müssen, bzw. von den Entwicklern, solche Entscheidungen bereits im Entwurf vollumfänglich beantworten zu müssen. Darum ist das ein ethisches Problem und das braucht erstmal eine ethische Lösung. Entweder, wir definieren uns da was zurecht (und messen sowohl Menschen als auch KIs daran!), oder wir lassen es bleiben (und stellen solche Fragen für KIs nicht). > Das setzt voraus, dass man im Zweifelsfall die Wahl hat, wen es > erwischt. Denk 3 Sekunden nach und du hast genügend Beispiele, die > zeigen, dass das etwas zu optimistisch ist. Du Knalltüte. Um genau darum geht es doch: H-G S. schrieb: > Wie die selbstfahrenden Autos wohl entscheiden, welchem Fussgänger oder > Auto sie ausweichen beim Unfall ? Wo keine Entscheidung stattfindet, braucht man auch nicht über Alternativlosigkeit meckern. > In Sklavenhaltergesellschaften ist es ganz selbstverständlich, einen > Sklaven auch für kleine "Vergehen" brutal zu bestrafen. Ja. Und wenn die Gesellschaft damit zufrieden ist, dann tut man das ins Gesetz und fertig ist die Laube. > Ist Sklavenhaltung deswegen ethisch? "Die Ethik (griechisch ἠθική (ἐπιστήμη) ēthikē (epistēmē) „das sittliche (Verständnis)“, von ἦθος ēthos „Charakter, Sinnesart“ (dagegen ἔθος: Gewohnheit, Sitte, Brauch), vergleiche lateinisch mos) ist jener Teilbereich der Philosophie, der sich mit den Voraussetzungen und der Bewertung menschlichen Handelns befasst. Im Zentrum der Ethik steht das spezifisch moralische Handeln, insbesondere hinsichtlich seiner Begründbarkeit und Reflexion." Ja, Sklavenhaltung ist ethisch. Denn es geht nicht darum, was man tut, sondern wie man es rechtfertigt/begründet. Dass die heutigen europäischen Moralvorstellungen anders sind, ist davon unabhängig. >> Und jetzt bitte zitiere mich möglichst missverständlich. > Schon wieder Vorbereitung der nächsten Ausreden. Wieso? Weil du "Ethik" mit "heutiger Moral entsprechend" gleichsetzt?
S. R. schrieb: > Menschen entscheiden übrigens zufällig (unvorhersehbar). die aktuelle KI auch, so gesehen ist die schon menschlich, siehe Tests Assistenzsysteme https://www.adac.de/infotestrat/tests/assistenzsysteme/
:
Bearbeitet durch User
Das, was im Moment sehr erfolgreich mit KI gelöst wird - Spracherkennung, Mustervorhersagen, Regelung - hat doch eigentlich nicht viel mit dem zu tun, was wir als menschliche Intelligenz bezeichnen. Vielmehr entspricht das Vorgängen, die wir durch Lernen soweit optimiert haben, dass sie im Unterbewusstsein ablaufen. Dazu gehören Spracherkennung, aufrechtes Gehen oder das Balancieren auf einem Seil. Das was wir als Intelligenz bezeichnen, und dazu gehört auch ethisches Handeln und letztlich das Bewusststein über sich selbst, läuft meiner Meinung nach auf einer anderen Ebene im Gehirn ab und wird von den heutigen KI-Systemen so noch nicht abgedeckt. Viele Grüße, Stefan
Joachim B. schrieb: > die aktuelle KI auch, so gesehen ist die schon menschlich Nein, die ist nicht menschlich, weil sie nicht selbständig lernen kann. Sie kann nur viele Daten sammeln und Verhaltensmuster erkennen und ableiten. Aber sie entwickelt keine komplett neue Strategie. Das wäre intelligent. > siehe Tests Assistenzsysteme Das sind einfach nur Maschinen, die einfache Tätigkeiten abnehmen und durchführen. Das mit dem "Spurhalten" konnte mein Sohn mit 6 Jahren auf dem Rasentraktor schon nach ca. 5 Minuten. Und kurz danach auch richtig "arbeiten". Obwohl er es vorher nur von der Seite und als Mitfahrer gesehen hat. Das nenne ich "menschlich" und "intelligent": Wissen neu aneignen oder gar etwas Neues erfinden. Insofern ist "Künstliche Intelligenz" also einfach nur eine Umschreibung für "schlauer Algorithmus mit guten Sensoren"...
Vorsicht: Der folgende Beitrag könnte trotz größter Sorgfalt meinerseits auf bestimmte Personengruppen leicht provozierend wirken. Falls jemand während des Lesens feststellt, dass er einer dieser Personengruppen angehört, möge er bitte sofort aufhören weiterzulesen ;-) Die Verwendung der plakativen Begriffe "Intelligenz" und "Lernen" im Zusammenhang mit der Algorithmenentwicklung dient doch primär dazu, - den Menschen, die sich damit beschäftigen, das Gefühl zu vermitteln, etwas ganz Großes zu schaffen, - in den Menschen, die keine Ahnung davon haben, Ehrfurcht und Ängste zu wecken und schließlich (ganz banal) - finanzielle Förderquellen kräftig zum Sprudeln zu bringen. Würde man "KI" durch konkretere Begriffe wie bspw. "Erkennung und Analyse auf impliziter Informationsbasis" o.ä. (dem einen oder anderen fallen sicher treffendere Bezeichnungen ein) und "lernfähig" durch "adaptiv" o.ä. ersetzen, wäre eine viel sachlichere Diskussion möglich. Allerdings wäre das Thema dann für viele auch weniger spannend :) Einige wirkliche Koryphäen auf dem Gebiet vermeiden die Begriffe "KI" bzw. "AI" bewusst, vor allem dann, wenn sie mit Kollegen über das Thema reden, die sie nicht mit Schlagwörtern, sondern nur mit konkreten Fakten beeindrucken können. Letztendlich kann ein Algorithmus auf einen nur dann intelligent wirken, wenn man ihn noch nicht restlos verstanden hat. So kann bspw. ein starkes Schachprogramm auf jemanden, der gut Schach spielt, aber keine Ahnung von Algorithmik hat, durchaus einen intelligenten Eindruck machen. Für denjenigen, der das Programm entwickelt hat, ist genau das Gegenteil der Fall. Wenn wir eines Tages auch die Funktionsweise des menschlichen Gehirns vollständig verstanden haben werden (falls das überhaupt möglich ist), wird möglicherweise der Begriff "Intelligenz" aus unserem Wortschatz herausfallen. Aber wahrscheinlich werde ich das sowieso nicht mehr erleben :)
Lothar M. schrieb: > Joachim B. schrieb: >> die aktuelle KI auch, so gesehen ist die schon menschlich > Nein, die ist nicht menschlich, weil sie nicht selbständig lernen kann. och wenn du aus dem Zusammenhang zitiertst! Ich werde nächstesmal Ironie TAGs setzen! > Sie kann nur viele Daten sammeln und Verhaltensmuster erkennen und > ableiten. Aber sie entwickelt keine komplett neue Strategie. Das wäre > intelligent. Menschen doch auch immer weniger, Umweltbewustsein, Umweltverschmutzung, ewiges Wachstum (das Schlimmste was immer wieder gefordert wird). Wir haben ja jetzt mehr Menschen mit MSA und Hochschulreife, aber mehr schlauere Menschen?
@Joachim B. (jar) >Wir haben ja jetzt mehr Menschen mit MSA und Hochschulreife, aber mehr >schlauere Menschen? Die Summe aller Intelligenz auf der Erde ist konstant. Nur die Bevölkerung wächst. ;-)
:
Bearbeitet durch User
Ich denke die Gefahren der KI sind eher schleichender Natur. Das geht ganz langsam. Zunächst wird die Autonomie des Menschen schrittweise verringert. Erst fahren Autos noch mit Assistenzsystemen, irgendwann ist es gar nicht mehr erlaubt ohne Assistenz zu fahren (da zu gefährlich). Später fahren Autos dann nur noch vollautomatisch und niemand kann sich mehr vorstellen, dass früher ganze Kleinstädte pro Jahr durch Unfälle gestorben sind. Damit wird es aber nicht aufhören. Wenn eine KI irgendwann auch komplexere Entscheidungen besser als ein Mensch treffen kann, wird man auch hier die Autonomie an die Maschine abgeben. Das kann irgendwann bis in die Politik hineinreichen. Ein Politiker kann dann eben nicht mehr verantworten gegen die optimale, durch eine KI ermittelte Entscheidung zu handeln. Das geht dann schleichend immer so weiter. Auch die Unterscheidung von KI und NI (Natürliche Intelligenz) wird sich langsam auflösen, denn die KI wird sich irgendwann auf natürlichem Wege (Evolution) ganz von selbst weiter entwickeln. Man muss eines bedenken: Die NI hat sich ganz von selbst entwickelt. Ohne irgendeinen planenden Intellekt. Wenn das geht, sollte es auf künstlichem Wege doch erst recht gehen. Es wird nur viel Zeit nötig sein. Wer weiß vielleicht dauert es viele Jahrhunderte. Ich denke aber mal eher weniger. Die Natur hat Milliarden von Jahren gebraucht um sich von Einzellern zu komplexen Formen zu entwickeln. Die Entwicklung vom einzelnen Transistor bis zum Supercomputer hat nur wenige Jahre benötigt. Aber es könnte natürlich auch ganz anders kommen. Schaun wir mal ^^
Yalu X. schrieb: > Letztendlich kann ein Algorithmus auf einen nur dann intelligent wirken, > wenn man ihn noch nicht restlos verstanden hat. Nur, weil du eine CPU restlos verstanden hast, hast du noch lange nicht verstanden, was ein auf ihr ausgeführter Algorithmus tut. Das gleiche trifft auch auf datengetriebene Algorithmen (wie eben neuronale Netze) zu. Jonny O. schrieb: > Zunächst wird die Autonomie des Menschen > schrittweise verringert. Das ist doch zu einem Großteil schon erledigt. Dein Geldverkehr wird von Maschinen überwacht und genehmigt, und wenn das System meint, deine Karte sperren zu müssen, dann ist das erstmal so. Das sind auch KI-Systeme, heißen nur nicht so. Der ÖPNV ist auch in Umstellung (führerlose Züge). Du hast nur oft einen Menschen in der Schleife, der (meistens noch) die Berechtigung hat, einzugreifen oder das System zu überstimmen. Allerdings nicht immer.
Die ethischen Probleme sind wie schon angedeutet so unrealistisch, dass sie albern sind. Ansonsten hat jemand einen Link zu einem Szenario (mit Massangaben und Berechnungen) wo es ein Problem gibt? Ein wichter Punkt im Verhalten ist auch Vorhersagbarkeit fuer den anderen Teilnehmer, damit dieser z.B. durch seine Reaktion nicht erst den Unfall verursacht. Das echte Problem wird jedoch sein: wenn automatische Bremssysteme Pflicht sind wird es genuegend Deppen geben die aus Mutprobe/antisozialen Verhalten die Autos mit ihrem Vehalten absichtlich voll-/ausbremsen werden.
Beitrag #5058594 wurde von einem Moderator gelöscht.
S. R. schrieb: > Es geht mir darum, dass wir solche Fragen als Gesamtgesellschaft nicht > beantwortet haben - und vermutlich weder beantworten können noch wollen. Aufgeblähtes Geschwurbel. Wie bitte soll man eine Frage "als Gesamtgesellschaft beantworten"? Muss da jeder Ja und Amen dazu sagen, oder wie soll das funktionieren? > Gleichzeitig verlangen wir von künstlichen Intelligenzen, solche > Entscheidungen fehlerfrei treffen zu müssen, bzw. von den Entwicklern, > solche Entscheidungen bereits im Entwurf vollumfänglich beantworten zu > müssen. Wenn "wir von künstlichen Intelligenzen verlangen, Entscheidungen fehlerfrei treffen zu müssen", dann sollten sie niemals in Folgefehler laufen, also kannst du dir das ganze gestelzte Gewäsch grad sparen. Fehler passieren auch perfekter KI und wenn einer passiert ist, dann gibt es eben oft nur noch sehr wenig oder keine Auswahl, das Problem glimpfich zu lösen. Und wenn die Wahl zwischen Pest und Cholera zu treffen ist, dann steht sehr wenig Zeit zur Verfügung für diese Entscheidung - das Ergebnis kann nur pragmatisch sein. > Darum ist das ein ethisches Problem und das braucht erstmal eine > ethische Lösung. Was ist eine "ethische Lösung"? Eine mit Weihrauchgestank und Zaubersprüchen? Wie ich oben schon kritisiert hatte: die Pfaffen haben hier nichts, aber auch gar nichts zu suchen. S. R. schrieb: > Du Knalltüte. Um genau darum geht es doch: > > H-G S. schrieb: >> Wie die selbstfahrenden Autos wohl entscheiden, welchem Fussgänger oder >> Auto sie ausweichen beim Unfall ? Das selbstfahrende Auto - wie ein menschlicher Fahrer auch - kann keine Wunder vollbringen. Das Beispiel ist dermaßen konstruiert, dass es in der Praxis wahrscheinlich nie in der Form auftreten wird und wenn, dann wird die Menge der möglichen Reaktionen äußerst beschränkt sein. Dem Menschen hängt man für derlei konstruierten Mist auch nicht tonnenweise "Ethik" ans Bein, die würde ihm im Ernstfall nämlich schlicht nichts nutzen. >> In Sklavenhaltergesellschaften ist es ganz selbstverständlich, einen >> Sklaven auch für kleine "Vergehen" brutal zu bestrafen. > > Ja. Und wenn die Gesellschaft damit zufrieden ist, dann tut man das ins > Gesetz und fertig ist die Laube. Hatte ichs doch geahnt... Wenn alle meinen, die Juden seien das Unglück der Menschheit, dann muss man sie eben vergasen und gut ists... Und sowas schmeißt mit "Ethik" um sich. > Ja, Sklavenhaltung ist ethisch. Denn es geht nicht darum, was man tut, > sondern wie man es rechtfertigt/begründet. Pfui Teufel, da erübrigt sich jede Diskussion...
Lothar M. schrieb: > Nein, die ist nicht menschlich, weil sie nicht selbständig lernen kann. > Sie kann nur viele Daten sammeln und Verhaltensmuster erkennen und > ableiten. Aber sie entwickelt keine komplett neue Strategie. Das wäre > intelligent. Unser Gehirn ist ein Neuronales Netz und KI geht genau in diese Richtung. Wenn wir lernen, sammeln wir auch nur Daten und erkennen Muster darin und neue Strategien fallen nicht vom Himmel, sondern ergeben sich aus solchen bisher nicht erkannten Mustern. > Insofern ist "Künstliche Intelligenz" also einfach nur eine Umschreibung > für "schlauer Algorithmus mit guten Sensoren"... Ich würde sagen, es ist dann KI, wenn der Sprung von der Quantität zur Qualität geschafft wird. Einfach nur ein "schlauer Algorithmus" reicht dafür nicht aus.
Beitrag #5058901 wurde von einem Moderator gelöscht.
Uhu U. schrieb: > Wie bitte soll man eine Frage "als > Gesamtgesellschaft beantworten"? Die Regeln des gesamtgesellschaftlichen Zusammenlebens werden durch Gesetze bestimmt. Also beantwortet man solche Fragen, indem man sie in ein Gesetz tut. Dazu gehören auch Gesetze, die so schwammig formuliert sind, dass sie einer Auslegung durch speziell gebildete Personen (Richter) bedürfen. Uhu U. schrieb: > Was ist eine "ethische Lösung"? Eine mit Weihrauchgestank und > Zaubersprüchen? Wie ich oben schon kritisiert hatte: die Pfaffen haben > hier nichts, aber auch gar nichts zu suchen. Das hat eher was mit Philosophie als mit Theologie zu tun. Uhu U. schrieb: > Dem Menschen hängt man für derlei konstruierten Mist auch nicht > tonnenweise "Ethik" ans Bein, die würde ihm im Ernstfall nämlich > schlicht nichts nutzen. Weil allgemein akzeptiert ist, dass der Mensch ein ziemlich unvorhersehbares System ist. Gleichzeitig nehmen wir an, dass Maschinen deterministisch agieren. Damit gibt es zweierlei Maßstäbe. Uhu U. schrieb: > Das Beispiel ist dermaßen konstruiert, dass es in > der Praxis wahrscheinlich nie in der Form auftreten wird und wenn, dann > wird die Menge der möglichen Reaktionen äußerst beschränkt sein. Beispiele sind immer konstruiert, sie sollen ja nur einen Sachverhalt verdeutlichen. Es geht allgemein um Abwägungsentscheidungen, wo beide Lösungen schlecht bzw. strafbar sind. Bei Menschen wird eine solche Entscheidung nachträglich vor Gericht sanktioniert. Uhu U. schrieb: > Hatte ichs doch geahnt... Wenn alle meinen, die Juden seien das Unglück > der Menschheit, dann muss man sie eben vergasen und gut ists... Wenn es tatsächlich alle (einschließlich der Juden!) meinen, wo ist dann das Problem? Aber du magst den Unterschied zwischen Moral (sittlichem Handeln) und Ethik (Rechtfertigung des Handelns) tatsächlich nicht verstehen.
:
Bearbeitet durch User
S. R. schrieb: > Weil allgemein akzeptiert ist, dass der Mensch ein ziemlich > unvorhersehbares System ist. So, so... Dann wäre er ja unzurechnungsfähig und die Justiz damit obsolet. Was für ein Quatsch... > Gleichzeitig nehmen wir an, dass Maschinen deterministisch agieren. Das ist bei hochkomplexen Systemen, wie KI ein frommer Wunschtraum und wird es auch immer bleiben. Was man durch KI verbessern kann, ist die Zuverlässigkeit - Computer ermüden nicht. Aber Wunder vollbringen können sie keine. > Aber du magst den Unterschied zwischen Moral (sittlichem Handeln) und > Ethik (Rechtfertigung des Handelns) tatsächlich nicht verstehen. Du gestelzter Papagei...
Beitrag #5059381 wurde von einem Moderator gelöscht.
Uhu U. schrieb: >> Weil allgemein akzeptiert ist, dass der Mensch ein ziemlich >> unvorhersehbares System ist. > > So, so... Dann wäre er ja unzurechnungsfähig und die Justiz damit > obsolet. Betrachtest du jeden, der dir auf eine Frage anders antwortet, als du es erwartest, als unzurechnungsfähig?
Uhu U. schrieb: > Dann wäre er ja unzurechnungsfähig und die Justiz damit obsolet. Wozu brauchen wir eigentlich Gerichte, die nachträglich feststellen, ob ein bestimmtes Handeln in einer bestimmten Situation gerechtfertigt war? Eigentlich würden doch vollständige, widerspruchsfreie Gesetze ausreichen, oder nicht? Oder ist die Welt doch ein bisschen komplexer?
S. R. schrieb: > Oder ist die Welt doch ein bisschen komplexer? Komplexität lässt sich weder mit "vollständigen, widerspruchsfreien Gesetzen", noch mit Weihrauchschwaden auf einfachen Determinismus reduzieren. Wobei man feststellen muss, dass die Weihrauchschwaden gegenüber technischen oder gesetzgeberischen Ansätzen nur der aller billigste Schwindel sind. Diese ganze Ethik-Gesülze ist nur der plumpe Versuch, sich als geistige Nullnummer in den Vordergrund zu spielen.
Uhu U. schrieb: > Diese ganze Ethik-Gesülze ist nur der plumpe Versuch, sich als geistige > Nullnummer in den Vordergrund zu spielen. Nö. Aber lassen wir das.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.