https://www.invision-news.de/fachartikel/neuromorpher-soc/ Kann jemand damit was anfangen? Ich meine mit dem Thema und möglicher Anwendungen?
SOC-Designer schrieb: > Kann jemand damit was anfangen? Für mich klingt der ganze Artikel wie eine gewaltige Ansammlung von Bullshit Bingo Worten. Es könnte allerdings daran liegen, dass ich mit dem ganzen KI Kram ohnehin auf Kriegsfuß stehe - insbesondere was die Wortwahl angeht. Jedenfalls kann ich diesem Artikel überhaupt nichts konkretes entnehmen, außer dem Versprechen, dass diese Firma wohl bald ganz groß raus kommen wird. Na dann, holt euch die Aktien. Ich verdiene lieber Geld mit ehrlicher Arbeit.
>Laut Daten des Marktforschungsunternehmens Tractica wird der Markt für KI- >Beschleuniger-ICs bis zum Jahr 2025 die 60Mrd. US-$ überschreiten, Da hab ich aufgehoert, das zu lesen. wendelsberg
SOC-Designer schrieb: > Kann jemand damit was anfangen? So spontan ist da eher wenig Inhalt drin. Das Pixel 3 hat einen KI-Beschleuniger eingebaut, und die Google-Rechenzentren nutzen ebenfalls besondere ASICs für KI. Insofern: Ja, die Teile sind aus meiner Sicht sinn- und wertvoller als Bitcoin-Mining-ASICs, werden also kommen. Allerdings ist KI derzeit nur sinnvoll für größere Firmen, weil nur die in der Lage sind, ausreichende Trainingsdaten für die interessanten Dinge zu beschaffen und zu verarbeiten. Mit dem normalen Heimcomputer wird das eher nichts, von der Verifikation des Ergebnisses ganz zu schweigen. "Edge-Anwendung" klingt außerdem nach "der Chip macht nur Inferenz" (also das fertig trainierte Netz laufen lassen). Für low-power möglicherweise sinnvoll, ansonsten kann das eine CPU oder GPU auch. Von den "gepulsten neuronalen Netzen der dritten Generation" habe ich noch nie gehört, für Computer Vision sind CNNs (convolutional neural networks) aktuell. Mal schauen. Uns bricht gerade das Technologiewachstum weg (Globalfoundries wird kein 7nm machen), also rennen gerade alle planlos umher und stürzen sich auf KI, in der Hoffnung, den nächsten Crash zu überleben. KNNs funktionieren noch immer deutlich anders als das Original, die wirklichen Meilensteine und Durchbrüche stehen uns da noch bevor. Insofern ist der Artikel erstmal nur Marketinggeschwätz. Innovationsgeblubber halt.
:
Bearbeitet durch User
Es gibt eine Reihe von Forschungsprojekten und Unternehmen die in diesem Bereich aktiv sind: Intel Loihi https://en.wikichip.org/wiki/intel/loihi SpiNNaker https://en.wikichip.org/wiki/university_of_manches... Heidelberg University HICANN https://www.kip.uni-heidelberg.de/vision/previous-... FACETS EU gefördertes Projekt http://facets.kip.uni-heidelberg.de/index.html BrainScaleS - Nachfolgeprojekt von FACETS http://brainscales.kip.uni-heidelberg.de/index.html Human Brain Projekt, die Arbeiten von BrainScaleS werden als Teil des HBP fortgesetzt: https://www.humanbrainproject.eu/ https://education.humanbrainproject.eu/web/neuromo... Weitere neuromorphen Chips sind IBM TrueNorth und Neurogrid https://en.wikichip.org/wiki/neuromorphic_chip Da ist im Grunde auch kein Hexenwerk dahinter. Die ersten Ansätze dafür gab es auch schon in den 60er. Es ist ein logischer Entwicklungsschritt. Um immer leistungsfähigere neuronale Netze zu haben muss man sie eben in Hardware gießen.
Wenn man schon im Namen "Human Brain Project" trägt, sollte man schon mehr bieten nur als das Durchsuchen großer Datenmengen oder den Abgleich von Bildern. Unter dem Begriff KI werden derzeit Algorithmen genannt, die strunz-doof sind. "Big Data" und "Maschine Learning" trifft es wohl eher. Beide zusammen ergibt aber noch laaaaaaange nicht Intelligenz. Zur Zeit ist jede Stubenfliege Intelligenter, als das, was uns da präsentiert wird. Deswegen behaupt ich, dass es KI noch nicht gibt.
S. R. schrieb: > Mal schauen. Uns bricht gerade das Technologiewachstum weg > (Globalfoundries wird kein 7nm machen) Technologischer Fortschritt besteht nicht nur in der Verkleinerung der Transistoren. In Zukunft wird die mehrschichtige Struktur von Chips wohl an Bedeutung zunehmen. Es wird schon heute gemacht aber es gibt einige Schwierigkeiten wenn man deutlich mehr Schichten auf ein Chip machen will. Da kann man noch einiges an technologischer Arbeit leisten. Wenn man effektiv große vertikale Strukturen auf einem Chip entwickelt kann die Packungsdichte als Volumen stark erhöht werden. Die geschichtete Architektur verkürzt zudem Leitungswege und ermöglicht weitere Steigerungen der Taktrate. S. R. schrieb: > KNNs funktionieren noch immer deutlich anders als das > Original, die wirklichen Meilensteine und Durchbrüche stehen uns da noch > bevor. Tatsache ist mit den heutigen Modellen der künstlichen neuronalen Netze kann man effektiv und ganz praktisch arbeiten. Eine Verbesserung der neuronalen Modelle wird das bestehende befeuern.
Stefanus F. schrieb: > Wenn man schon im Namen "Human Brain Project" trägt, sollte man schon > mehr bieten nur als das Durchsuchen großer Datenmengen oder den Abgleich > von Bildern. > > Unter dem Begriff KI werden derzeit Algorithmen genannt, die strunz-doof > sind. "Big Data" und "Maschine Learning" trifft es wohl eher. Beide > zusammen ergibt aber noch laaaaaaange nicht Intelligenz. > > Zur Zeit ist jede Stubenfliege Intelligenter, als das, was uns da > präsentiert wird. Deswegen behaupt ich, dass es KI noch nicht gibt. Ich sehe schon, du hast deine eigene Definition von Intelligenz und lehnst alles ab was dem nicht nahe kommt. Das Problem ist, was Intelligenz ist lässt sich nicht exakt bestimmen. Aufgrund von technologischen Entwicklungen wurde die Definition dieses Begriffs aufgeweicht und ist unscharf geworden. Früher konnte man Intelligenz beim Menschen verorten und nicht mal dem Tierreich zugestehen. Doch dann musste die Forschung nach und nach einigen Lebewesen ein beachtliches Maß an Intelligenz zuschreiben. Dann wurden die Computer immer leistungsfähiger und übernehmen immer mehr kognitive Arbeiten. Anfangs noch nach Mustern die wir Algorithmen nannten. Doch es kommt wieder ein Wandel. Das Zeitalter der lernfähigen Algorithmen ist angebrochen. Dynamische Systeme die nicht nur statisch vorprogrammierte Dinge können. Das alles hat unser Verständnis von Intelligenz in Frage gestellt. Manche Leute ignorieren und leugnen diese Entwicklung und isolieren sich mit einer persönlichen Festung gegen die Zweifel verbreitetende Entwicklung. Ich denke der Begriff Intelligenz wird bis auf weiteres Unscharf bleiben bis die weitere Entwicklung uns ein besseres Verständnis gibt was Intelligenz eigentlich ist.
Atemis H. schrieb: > Ich denke der Begriff Intelligenz wird bis auf weiteres Unscharf > bleiben bis die weitere Entwicklung uns ein besseres Verständnis > gibt was Intelligenz eigentlich ist. Das hast du sehr schön formuliert. Es erklärt mein Unbehagen bei dem Begriff in einem einzigen Satz.
Stefanus F. schrieb: > Zur Zeit ist jede Stubenfliege Intelligenter, als das, was uns da > präsentiert wird. Deswegen behaupt ich, dass es KI noch nicht gibt. Ja genau, weil man auch jeder Stubenfliege GO beibringen kann.
Karl schrieb: >> Zur Zeit ist jede Stubenfliege Intelligenter, als das, was uns da >> präsentiert wird. Deswegen behaupt ich, dass es KI noch nicht gibt. > Ja genau, weil man auch jeder Stubenfliege GO beibringen kann. Da wird sich sicher keiner vor den Computer gesetzt haben und gesagt haben "Hallo Computer, höre gut zu, denn jetzt erkläre ich Dir die Spielregeln von Go". Glaube mir, das wurde programmiert. Dieser Computer war genau so unintelligent, wie die Schach-Computer der letzten 30 Jahre. Er war nur größer und schneller.
Stefanus F. schrieb: > Karl schrieb: >>> Zur Zeit ist jede Stubenfliege Intelligenter, als das, was uns da >>> präsentiert wird. Deswegen behaupt ich, dass es KI noch nicht gibt. >> Ja genau, weil man auch jeder Stubenfliege GO beibringen kann. > > Da wird sich sicher keiner vor den Computer gesetzt haben und gesagt > haben "Hallo Computer, höre gut zu, denn jetzt erkläre ich Dir die > Spielregeln von Go". Nein noch besser, es hat sich das Spiel selber beigebracht (nach dem die Regeln "einprogrammiert" wurden). Stefanus F. schrieb: > Glaube mir, das wurde programmiert. Dieser Computer war genau so > unintelligent, wie die Schach-Computer der letzten 30 Jahre. Er war nur > größer und schneller. Dann hast du dich nicht damit beschäftigt, da werkelte kein Montecarlo Algorithmus und suchte sich nach der Bewertungsfunktion den besten Spielzug raus, nachdem alle Spielzüge mit n Tiefen durchexerziert wurde. Go ist zu komplex, um das Problem so angehen zu können. Besonders interessant und bemerkenswert ist die Tatsache, dass AlphaGo Zero komplett nur gegen sich gespielt hat und dabei die gleichen Strategien wie Menschen entwickelt hat, nur um diese dann mit besseren noch unbekannten Strategien zu ersetzen. Natürlich gibt es momentan einen Hype und nun wird verzweifelt versucht das Thema Machine Learning überall durchzudrücken. Aber unterschätzen sollte man die Technik auf gar keinen Fall und mit den Ergebnissen von vor 30 Jahren vergleichen. Das zeugt nur von Ignoranz.
Atemis H. schrieb: > S. R. schrieb: >> Mal schauen. Uns bricht gerade das Technologiewachstum weg >> (Globalfoundries wird kein 7nm machen) > > Technologischer Fortschritt besteht nicht nur in der > Verkleinerung der Transistoren. Das habe ich auch nicht behauptet. Aber im Augenblick herrscht gerade gefühlte Planlosigkeit und alle rennen weg von "jetzt" zu einer ziemlich verwaschenen Vorstellung von "Zukunft". Das gibt sich aber irgendwann und dann werden auch neue Strukturen entstehen. Vielleicht bekommen wir auch Chips mit massiver Rechenleistung, geringem Stromverbrauch und wenigen kHz Taktfrequenz auf großer Fläche, wer weiß. > S. R. schrieb: >> KNNs funktionieren noch immer deutlich anders als das >> Original, die wirklichen Meilensteine und Durchbrüche >> stehen uns da noch bevor. > > Tatsache ist mit den heutigen Modellen der künstlichen > neuronalen Netze kann man effektiv und ganz praktisch arbeiten. Auch da hast du recht, man kann mit den bisherigen Methoden bestimmte Probleme einigermaßen effizient lösen, was mit klassischen Algorithmen wesentlich mehr Entwicklungsaufwand erfordern würde. Time-To-Market zählt. Allerdings haben aktuelle neuronale Netze ziemlich harte Schwächen, weil man sie noch nicht ausreichend verstanden hat (Stichwort adversarial examples). An vielen Stellen stört das nicht weiter, aber ich sehe da noch viel Freude auf die Verantwortlichen zukommen. Das muss (und wird) noch eine Weile reifen. Atemis H. schrieb: > Ich sehe schon, du hast deine eigene Definition von Intelligenz und > lehnst alles ab was dem nicht nahe kommt. > [...] > Ich denke der Begriff Intelligenz wird bis auf weiteres Unscharf bleiben > bis die weitere Entwicklung uns ein besseres Verständnis gibt was > Intelligenz eigentlich ist. Ich lese das als: "Oh, deine Definition von Intelligenz entspricht nicht meiner Definition von Intelligenz, und eine universelle Definition von Intelligenz gibt es noch nicht. Das ist jetzt aber dumm." ;-) Im Augenblick treibt das Marketing die ganzen Begrifflichkeiten vor sich her, die Hypes kommen gefühlt immer schneller und vor allem früher. Mit der Stabilisierung wird sich das beruhigen, aber ich fürchte, dass die jetzt üblichen Begriffe alle nochmal neu belegt werden werden. > Das Zeitalter der lernfähigen Algorithmen ist angebrochen. > Dynamische Systeme die nicht nur statisch vorprogrammierte > Dinge können. Die Algorithmen sind überhaupt nicht lernfähig, die sind so statisch wie eh und je. Sie sind nur wesentlich freier parametrierbar als klassische Algorithmen, weil wir Wege gefunden haben, sie automatisch - mit extremem Aufwand! - gebrauchbar zu parametrieren. Was die Parameter genau bedeuten, wissen wir nicht und wollen wir auch nicht wissen. Die Grundlagen (v.a. die notwendige nichtlineare Mathematik) fehlen, also können wir es auch nicht wissen. Das Ganze fühlt sich irgendwie an wie in der Industrialisierung, als man mit Maschinen die ersten Probleme halbwegs zuverlässig gelöst hat, aber ohne die eigentlichen Grundlagen zu verstehen. Am Automobil musste noch ein Jahrhundert gearbeitet werden, bis man endlich die Abgasregelungen kreativ umgehen konnte - ähnlich wird mit KI auch sein. In 50 oder 100 Jahren wird die Menschheit wissen, wie der Scheiß funktioniert (oder fast ausgestorben sein). Im Augenblick haben wir Lösungen für Probleme, stochern aber sonst nur im Nebel. > Das alles hat unser Verständnis von Intelligenz in Frage gestellt. > Manche Leute ignorieren und leugnen diese Entwicklung und isolieren sich > mit einer persönlichen Festung gegen die Zweifel verbreitetende > Entwicklung. Ich brauchte eine längliche Erklärung und ein paar Spiele, um einigermaßen Backgammon zu lernen. Dazu noch ein paar Spiele gegen jemanden, der mich nicht nur schlägt, sondern mir auch erklärt, warum. Und das reichte, um einigermaßen passabel zu spielen. Das ist ein deutlicher Unterschied zu "jetzt lassen wir mal zwei KIs ein paar hunderttausend Spiele gegeneinander spielen und gucken, wie gut sie es dann können". Zumal man das Regelwerk trotzdem einprogrammieren muss. Karl schrieb: > Ja genau, weil man auch jeder Stubenfliege GO beibringen kann. Das Hirn einer Stubenfliege ist mit "überleben" aber vollständig ausgelastet, was dein Go-Computer nicht ist. Du kannst ja mal 99.9% der Rechenleistung blockieren und dann bei Null anfangen zu trainieren. Vermutlich sind beide Systeme dann ähnlich effizient (wobei der Computer vermutlich länger lebt als die Fliege, also trotzdem im Vorteil ist). ;-)
S. R. schrieb: > Allerdings haben aktuelle neuronale Netze ziemlich harte Schwächen, weil > man sie noch nicht ausreichend verstanden hat (Stichwort adversarial > examples). An vielen Stellen stört das nicht weiter, aber ich sehe da > noch viel Freude auf die Verantwortlichen zukommen. Das muss (und wird) > noch eine Weile reifen. Man versteht auch noch nicht umfassend wie das menschliche Gehirn funktioniert. Trotzdem scheut man sich nicht davor es überall anzuwenden ;) S. R. schrieb: > Die Algorithmen sind überhaupt nicht lernfähig, die sind so statisch wie > eh und je. Ich könnte besser auf diesen Satz antworten wenn ich wüsste was du denn genau unter Lernfähigkeit verstehst. Das Konzept der neuronalen Netze gilt als Lernsystem. Ich finde man sollte auch nicht den Fehler machen zu glauben dass Definition von Algorithmen nur für Computer gelten. Auch Naturphänomene können als ein Algorithmus aufgefasst werden. Auch die biologische Architektur von echten Gehirnen lässt sich als Algorithmus betrachten. Wobei das Gehirn wohl eher ein System mit diversen biologischen Algorithmen darstellt. Auch Menschen sind eingeschränkt was kognitive Fähigkeiten angeht. Auch der Mensch kann nur das lernen und in dem Umfang wie es seine biologische Natur vorsieht. Der Mensch bewegt sich innerhalb bestimmter biologischer Parameter. Letztendlich kann man das ganze menschliche Verhaltensspektrum auf die neuronalen Mechanismen im Gehirn runterbrechen. Und die Neuronen haben eine bestimmte Funktionsweise. Das kann man auch als Algorithmus beschreiben und simulieren. Ich kann jedem das Buch "Geist im Netz" empfehlen. Es ist alt und man kriegt es für ein paar Euros. Die Grundlagen die darin sehr verständlich erklärt werden sind immer noch korrekt. Es vermittelt einen guten Eindruck was in neuronalen Netzen genau passiert, zumindest im Prinzip. Es gibt ja verschiedene Arten von KNNs mit unterschiedlichen Eigenschaften.
S. R. schrieb: > Ich brauchte eine längliche Erklärung und ein paar Spiele, um > einigermaßen Backgammon zu lernen. Dazu noch ein paar Spiele gegen > jemanden, der mich nicht nur schlägt, sondern mir auch erklärt, warum. > Und das reichte, um einigermaßen passabel zu spielen. > > Das ist ein deutlicher Unterschied zu "jetzt lassen wir mal zwei KIs ein > paar hunderttausend Spiele gegeneinander spielen und gucken, wie gut sie > es dann können". Zumal man das Regelwerk trotzdem einprogrammieren muss. Auch ein Mensch hat Regeln einprogrammiert bekommen. Das steckt halt in den Genen. Ohne geht es nicht. Insofern kein Unterschied. Allerdings ist es richtig, dass die aktuelle Form der KI noch nicht der Weisheit letzter Schluss ist und sich von der natürlichen stark unterscheidet. Einem Kleinkind zeigt man drei, vier Bilder von einem Hund und danach identifiziert es ziemlich zuverlässig Hunde auf allen Bildern. Ein CNN wird auch nach dem Lernen durch mehr als 100.000 Bilder vielleicht auf eine Quote von 70 oder 80 Prozent kommen.
Doctor Snuggles schrieb: > Einem Kleinkind zeigt man drei, vier Bilder von einem Hund und danach > identifiziert es ziemlich zuverlässig Hunde auf allen Bildern. > Ein CNN wird auch nach dem Lernen durch mehr als 100.000 Bilder > vielleicht auf eine Quote von 70 oder 80 Prozent kommen. Das kann verschiedene Gründe haben. Ein so trainiertes CNN sucht nur nach Hunden im Bild. Was auch nicht wirklich natürlich ist. Menschen identifizieren in einer Szenerie viele Objekte. Wenn ich ein Objekt als Felsen erkenne dann weiß ich dass es kein Hund sein kann. Und Menschen assoziieren bestimmte Verhältnisse und Objekte miteinander. Wenn ein CNN Kieselsteine erkennen soll und auf einem Bild Kieselsteine auf dem Teller eines gedeckten Tisches erkennt, gibt es keine Irritation für das CNN. Es kann ja auch sein dass auf diesem einen Bild wirklich Kieselsteine serviert werden :D Aber der Mensch bezieht diese Verhältnisse mit ein in seine Wahrnehmung. Wenn etwas komisch und ungewöhnlich erscheint schaut man genauer hin und im Zweifel hält man sich zurück mit einem Urteil. Vielleicht sind die Kieselsteine keine echten Steine sondern bestehen aus essbarer Knete die optisch wie Steine aussehen? Möglichkeiten aus Erfahrungen kombinierend einbeziehen ist auch eine Sache die ein CNN, das nur ein Muster erkennt, nicht kann. Mustererkennung ist nicht Denken. Der Unterschied ist einfache künstliche neuronale Netze sind eher so was wie einzelne Funktionen. Das menschliche Gehirn ist ein System mit vielen gekoppelten neuronalen Funktionen.
:
Bearbeitet durch User
Stefanus F. schrieb: > Unter dem Begriff KI werden derzeit Algorithmen genannt, die strunz-doof > sind. "Big Data" und "Maschine Learning" trifft es wohl eher. Beide > zusammen ergibt aber noch laaaaaaange nicht Intelligenz. Das ist, denke ich, eine ziemlich gute Zusammenfassung des aktuellen Status. Alpha Go war schon eine coole Leistung, und digitale Assistenten wie Alexa sind auch beeindruckend. Abseits dessen aber Landauf Landab nur Mustererkennung und Lösung sucht Problem.
Atemis H. schrieb: > Trotzdem scheut man sich nicht davor es überall anzuwenden ;) Es gibt immer jemanden, der etwas anwendet, ohne es ausreichend zu verstehen. Die Folge sind dann so Dinge wie FCKW, Tschernobyl, arabischer Frühling, Facebook-Skandale etc.pp. Das ist kein Argument. >> Die Algorithmen sind überhaupt nicht lernfähig, >> die sind so statisch wie eh und je. > > Ich könnte besser auf diesen Satz antworten wenn ich wüsste > was du denn genau unter Lernfähigkeit verstehst. Ein KI-System heutiger Ausprägung (also z.B. ein CNN) wird vor dem Einsatz trainiert, dann zurechtgestutzt, dann nochmal nachtrainiert und schließlich eingesetzt. Es lernt im Betrieb genau garnichts mehr. Die Algorithmen, die in CNNs benutzt werden, sind ebenfalls nicht lernfähig, denn sie sind von Menschen entworfen und in Computer fix einprogrammiert worden. Sie ändern sich nie. Selbst das eigentliche CNN ist in der Trainingsphase statisch, denn die Struktur des Netzes wird festgelegt und ändert sich nicht. Die "Plastizität" des Gehirns, die nach geltender Lehrmeinung einen wesentlichen Bestandteil unseres Seins ist, fehlt. > Das Konzept der neuronalen Netze gilt als Lernsystem. Das Gesamtsystem kann trainiert werden und damit "lernen", womit derzeit eigentlich nur eine (extrem aufwändige) Parametrierung eines (extrem flexiblen) vorgegebenen Systems gemeint ist. > Ich finde man sollte auch nicht den Fehler machen zu glauben dass > Definition von Algorithmen nur für Computer gelten. Auch Naturphänomene > können als ein Algorithmus aufgefasst werden. Ein Algorithmus ist erstmal nur ein Satz von Regeln, um aus einer Eingabe A eine Ausgabe B zu produzieren. Ein System ist genau dann lernfähig, wenn es sich an die Umgebung/Erfordernisse anpassen kann. Daraus folgt: Ein Algorithmus ist dann lernfähig, wenn er sich selbst den Erfordernissen anpassen kann. Das ist für sämtliche derzeitig relevanten KI-Systeme nicht der Fall, denn sie programmieren sich nicht selbst. Solche Netzwerke werden "trainiert". Kraftsport ist "Training", nicht "Lernen" - aus dem gleichen Grund. > Auch Menschen sind eingeschränkt was kognitive Fähigkeiten angeht. Auch > der Mensch kann nur das lernen und in dem Umfang wie es seine > biologische Natur vorsieht. > Der Mensch bewegt sich innerhalb bestimmter biologischer Parameter. Jaein. Der Mensch ist zu komplexer Abstraktion fähig, die über das hinausgeht, was im Hirn einprogrammiert ist. Sonst hätten wir keine Mathematik. Natürlich bewegt sich das alles innerhalb bestimmter Parameter, aber das gilt für jedes System. Bei Computern sind Rechenleistung und Speicher auch begrenzt. > Letztendlich kann man das ganze menschliche Verhaltensspektrum auf die > neuronalen Mechanismen im Gehirn runterbrechen. Ja, könnte man. Kann man aber nicht, weil man es eben nicht versteht. Wir sind weit davon weg. > Und die Neuronen haben eine bestimmte Funktionsweise. Das kann man auch > als Algorithmus beschreiben und simulieren. Ja, könnte man. Kann man aber nicht, weil man es eben nicht versteht. Wir sind noch immer relativ weit davon weg. Zudem sind biologische Neuronen im Vergleich zu technischen Neuronen hochgradig unfähig ("an einem guten Tag ist nicht alles Rauschen"), aber es ist nicht klar, welchen Einfluss das auf die Gesamtleistung des Systems "Hirn" hat. Vielleicht ist die massiv behinderte Signalverarbeitung im Hirn der Grund dafür, dass wir mit seltsamen Eingaben besser klarkommen als KI-Systeme. > Es vermittelt einen guten Eindruck was in neuronalen Netzen > genau passiert, zumindest im Prinzip. Ich hab ein paar Vorlesungen zu KNNs gehört (sowie auch zu anderen KI-Algorithmen, die gerade aussterben, z.B. genetische Algorithmen) und weiß relativ genau, wie so ein System im Prinzip funktioniert. Außerdem komme ich auf Arbeit damit ständig in Berührung. Ich lasse mich nur nicht davon hypen, dass gerade die ersten halbwegs funktionierenden Prototypen auf den Markt geschmissen werden getreu dem Motto "biete Lösung, suche Problem". Das Potential ist vorhanden, KI wird sich auch durchsetzen, aber bis dahin haben wir noch einen langen Weg suboptimaler Technologie. Und ein im Prinzip beweisbarer Algorithmus ist mir grundsätzlich lieber als ein trainiertes System, wo man im Ergebnis nichtmal rauskriegen kann, was es jetzt eigentlich gelernt hat. Wie das Beispiel von Google: Das System hat "Hantel" nur mit Arm dran korrekt erkannt. Weil Hanteln meist mit nem Arm dran auf Bildern erscheinen.
Da war eine Doku wo ein neuronales Netz ein Symptom bei Kranken gefunden hat das nichtmal die Ärzte kannten ...war eine Auffälligkeit beim Sprechen von Depressiven oder so.
Upps schrieb: > Da war eine Doku wo ein neuronales Netz ein Symptom bei Kranken gefunden > hat das nichtmal die Ärzte kannten ...war eine Auffälligkeit beim > Sprechen von Depressiven oder so. Kalter Kaffee, stand schon vor ca. 20 Jahren im Spiegel, das man Suizidgefährdete an der Stimme erkennt: http://www.spiegel.de/wissenschaft/mensch/psyche-grabesstimme-verraet-starke-depressionen-a-89469.html
Mit solchen Dingen muss man vorsichtig sein, denn das führt gerne mal dazu, dass Personen, deren Stimme ins Schema passt, als gefährdet eingestuft werden. Selbige falschen Schlussfolgerungen findet man auch bei den neuronalen Netzen, seien sie selbstlernend oder nicht. Ich habe mir den Artikel durchgelesen und sehe da nichts konkretes, was wirklich neu wäre.
S. R. schrieb: > Selbst das eigentliche CNN ist in der Trainingsphase statisch, denn die > Struktur des Netzes wird festgelegt und ändert sich nicht. Die > "Plastizität" des Gehirns, die nach geltender Lehrmeinung einen > wesentlichen Bestandteil unseres Seins ist, fehlt. Das ist eine sehr scharfsinnige Erkenntnis! Dass sich die menschliche Intelligenz aus einem riesen Bauwerk an verschiedener "kuenstlicher" Intelligenz zusammensetzt, die sich auch noch selbst strukturiert. In einer Komplexitaet, die man nicht nachbauen kann. So hab ich dich zumindest verstanden. In der Mechanik ist das aber auch so. Die menschliche (oder tierische) Bewegung ist nicht nachzubilden. Beim Laufen werden zig Muskeln koordiniert. Technisch realisiert man bewegung meist ueber Drehungen, Vom Motor ueber Zahnraeder, Riemen bis zum Rad. Auf die Bewegung bezogen eigentlich fast schon primitiv, obwohl Verbrennungsmotoren aus vielen, vielen Einzelteilen bestehen. Die einfache Drehbewegung laesst sich aber skalieren, sodass der Mensch in vielen Situationen der Maschine unterlegen ist, nicht nur kraftmaesig, auch was praezission anbelangt. Jodoch ist jede Maschine nur fuer ihren einen Zweck zu gebrauchen (von svhweizer Taschenmessern mal abgesehen ;-). Und so kann es mit der KI auch kommen, bzw. ist es jetzt schon. KI kann einer Stimme einen Dialekt verpassen, der Mensch ist dazu nicht in der Lage, da ihm die Schnittstellen fehlen (Soundkarte). In solchen Spezialanwendungen kommt man vielleicht ueberhaupt nur mit KI weiter. > Das Potential ist vorhanden, KI wird sich auch durchsetzen, aber bis > dahin haben wir noch einen langen Weg suboptimaler Technologie. Und ein > im Prinzip beweisbarer Algorithmus ist mir grundsätzlich lieber als ein > trainiertes System, wo man im Ergebnis nichtmal rauskriegen kann, was es > jetzt eigentlich gelernt hat.
Jan H. schrieb: > Stefanus F. schrieb: >> Unter dem Begriff KI werden derzeit Algorithmen genannt, die strunz-doof >> sind. "Big Data" und "Maschine Learning" trifft es wohl eher. Beide >> zusammen ergibt aber noch laaaaaaange nicht Intelligenz. > > Das ist, denke ich, eine ziemlich gute Zusammenfassung des aktuellen > Status. Alpha Go war schon eine coole Leistung, und digitale Assistenten > wie Alexa sind auch beeindruckend. Abseits dessen aber Landauf Landab > nur Mustererkennung und Lösung sucht Problem. Upps schrieb: > Da war eine Doku wo ein neuronales Netz ein Symptom bei Kranken gefunden > hat das nichtmal die Ärzte kannten ...war eine Auffälligkeit beim > Sprechen von Depressiven oder so. Gerade mit den gerade explodierenden Verarbeitungsleistungen der Neuronalennetzen (schnellere Rechner, schnellerer Speicher, KNN Beschleuniger ASICs, KNN Beschleuniger Cores in FPGAs) wird die Mustererkennung auf massiven Datenbergen erschwinglicher und anwendbarer. Das ist allem voran ein Werkzeug, wie z. B. ein Teleskop. Was ein gefundenes Muster schlussendlich aussagt (ist es Ursache oder Wirkung, wie gross ist die statistische Aussagekraft etc.). Ich denke, gerade in der Medizinischen- und Grundlagenforschung wird es ein mächtiges und bedeutendes Werkzeug werden (oder ist es je nach Bereich schon, z. B. Gen Forschung).
Immer wieder interessant wie die Entwicklung von einigen anscheinend unterschätzt wird weil sie die Ideen für alten Schinken halten. Künstliche Neuronale Netze kennt man schon viele Jahrzehnte. Wieso hat man nicht damals die erst heute langsam wachsenden Anwendungsbereiche erschlossen? Wenn man bedenkt dass für viele Anwendungen keine schrecklich große Rechenleistung benötigt wird. Man hätte medizinische Aufnahmen sicher schon in den 70er oder 80er mit KNNs auswerten können. Könnte die rege Anwendung heute auf gesellschaftliche Veränderungen zurückzuführen sein? Der Hype und der Fortschritt in den Köpfen sorgt sicher für mehr Offenheit in ernsthaften Anwendungsgebieten. Ein weiteres Beispiel sind neuromorphe Chips. Das Thema könnte man auch schön abwerten mit "alt" und "gibt es schon lange" oder "alles schon mal da gewesen". Schließlich hat schon Karl Steinbuch in den 60er solche Möglichkeiten mit seiner Lernmatrix aufgezeigt. Aber erst heute gibt es ernsthafte Entwicklungen in dem Bereich und Unternehmen wie Google nutzen es in immer größerem Umfang. Welche "alten Ideen" warten wohl noch darauf ernst genommen zu werden?
Da man Psychologen gegenüber etwas vorspielen kann wäre es übrigens eine interessante Idee in Zukunft für bestimmte Berufsgruppen psychologische Tests mit KNNs vorauszusetzen. Ich denke da an Politiker, Militärangehörige, Polizisten oder Ärzte. Wäre schön wenn man eine objektive u. effiziente Methode hätte die psychisch kranken und Psychopathen aus diesen gesellschaftlichen Positionen raus zu halten. Hätte es das in der Vergangenheit gegeben wäre uns vielleicht so mancher wahnsinniger Führer erspart geblieben.
Atemis H. schrieb: > Welche "alten Ideen" warten wohl noch darauf ernst genommen zu werden? Bill Gates Kühlschrank, der Essen automatisch nachbestellt. Den hat er in den 80er Jahren zum ersten mal präsentiert und seit dem immer wieder mal. Wirklich sinnvoll funktionieren tut er immer noch nicht.
Atemis H. schrieb: > Wäre schön wenn man eine objektive u. effiziente Methode hätte die > psychisch kranken und Psychopathen aus diesen gesellschaftlichen > Positionen raus zu halten. Das möchte ich noch ergänzen um Missverständnisse zu vermeiden: Ich meine damit natürlich nicht dass man Menschen aufgrund psychischer Erkrankungen diskriminieren soll. Ich denke da eher an gefährliche Erkrankungen der Psyche. Solche Leute sollten lieber keine gesellschaftlichen Befugnisse erhalten womit sie viel Schaden anrichten können.
Stefanus F. schrieb: > Bill Gates Kühlschrank, der Essen automatisch nachbestellt. Den hat er > in den 80er Jahren zum ersten mal präsentiert und seit dem immer wieder > mal. Wirklich sinnvoll funktionieren tut er immer noch nicht. Das ist eine der Ideen wo ich mich frage wie sinnvoll das wirklich ist. Ich habe beispielsweise Milchpackungen im Schrank und tue immer die geöffnete in den Kühlschrank. Wie soll das System nun erkennen wo und ob ich noch Milch Zuhause habe? Ich will natürlich kein Aufwand betreiben um das System ständig auf dem laufenden zu halten, darauf hat langfristig niemand Lust.
Atemis H. schrieb: > Atemis H. schrieb: >> Wäre schön wenn man eine objektive u. effiziente Methode hätte die >> psychisch kranken und Psychopathen aus diesen gesellschaftlichen >> Positionen raus zu halten. > > Das möchte ich noch ergänzen um Missverständnisse zu vermeiden: > Ich meine damit natürlich nicht dass man Menschen aufgrund psychischer > Erkrankungen diskriminieren soll. > Ich denke da eher an gefährliche Erkrankungen der Psyche. Solche Leute > sollten lieber keine gesellschaftlichen Befugnisse erhalten womit sie > viel Schaden anrichten können. Du forderst da etwas, dass längst Realität ist. Gefährliche Verrückte werden bereits weg gesperrt. Mann nennt es nur schöner.
Atemis H. schrieb: >> Bill Gates Kühlschrank, der Essen automatisch nachbestellt. > Das ist eine der Ideen wo ich mich frage wie sinnvoll das wirklich ist. Eben, das ist eine kindische Idee, die er öffentlich präsentiert hat, bevor er ernsthaft darüber nachgedacht hat. Aber Sch*** kommt immer wieder von alleine hoch. 1998: https://www.computerwoche.de/a/intelligenter-kuehlschrank-bestellt-nachschub-im-internet,504913 2014: http://www.ekitchen.de/kuechengeraete/kuehlschrank/ratgeber/vernetzter-kuehlschrank-wlan-14499.html 2015: https://t3n.de/news/amazon-dash-service-644943/ 2016: https://www.golem.de/news/liebherr-wenn-der-kuehlschrank-mitdenkt-1609-123066.html Aktuell: https://blog.liebherr.com/hausgeraete/de/microsoft-und-liebherr-arbeiten-an-der-neuen-generation-smarter-kuhlschranke/ Das sind nur ein paar beispiele, die ich in 5 Minuten mit Google gefunden habe. Berichte aus den 80er findet man kaum, da gab es das Internet noch nicht in der heutigen Form.
Stefanus F. schrieb: > Eben, das ist eine kindische Idee, die er öffentlich präsentiert hat, > bevor er ernsthaft darüber nachgedacht hat. Manchmal muss man eine Idee auch nur etwas abwandeln. Amazon hat doch diese Dash Buttons. Man drückt einmal drauf und es wird automatisch bestellt.
Atemis H. schrieb: > Manchmal muss man eine Idee auch nur etwas abwandeln. > Amazon hat doch diese Dash Buttons. Man drückt einmal drauf und es wird > automatisch bestellt. Doch zugleich wies Amazon im jahr 2015 darauf hin, dass das vollautomatische System (eben das ohne Dash Button) marktreif sei.
Atemis H. schrieb: > Künstliche Neuronale Netze kennt man schon viele Jahrzehnte. Wieso hat > man nicht damals die erst heute langsam wachsenden Anwendungsbereiche > erschlossen? Vllt. weil das alles doch nicht so eifach ist, und man kritischer gegenüber KNNs war? Oder vllt. weil in vielen Bereiche in denen KNNs heute tatsächlich helfen können das Grundlagenwissen gefehlt hat. Ein trainiertes KNN kann Muster erkennen, aber nicht erklären, wie die Muster zustande kommen. > Wenn man bedenkt dass für viele Anwendungen keine schrecklich große > Rechenleistung benötigt wird. Man hätte medizinische Aufnahmen sicher > schon in den 70er oder 80er mit KNNs auswerten können. Für welche ernsthaften Anwendungen braucht man den "keine schreklich große Rechenleistung"? Das Anwenden eines bekannten KNNs ist heufig günstig. Beim Trainieren des KNN sieht das anders aus, von der Entwickelungsphase mal ganz abgesehen.
mh schrieb: > Für welche ernsthaften Anwendungen braucht man den "keine schreklich > große Rechenleistung"? Hätte man das Trainieren nicht mit den damaligen Großrechnern erledigen können? In der täglichen Anwendung kommen dann ja die trainierten Netze zum Einsatz. mh schrieb: > Vllt. weil das alles doch nicht so eifach ist, und man kritischer > gegenüber KNNs war? Oder vllt. weil in vielen Bereiche in denen KNNs > heute tatsächlich helfen können das Grundlagenwissen gefehlt hat. Ein > trainiertes KNN kann Muster erkennen, aber nicht erklären, wie die > Muster zustande kommen. Welches Grundlagenwissen soll das sein? KNNs werden heute beispielsweise zum erkennen von Krebszellen eingesetzt. Die Art wie man die Netze darauf trainiert wäre vor 30 Jahren doch auch die selbe gewesen. Um mal etwas zu provozieren, ich würde sagen teilweise hat da eine Generation schlichtweg geschlafen und außer ein paar Fachleute (die ohne Investitionen auch nicht weit kommen) hat die Masse das Potenzial nicht erkannt.
:
Bearbeitet durch User
Angeblich ruhte damals die Forschung an neuronalen Netzen weil Marvin Minsky nachwies dass das Perceptron Netz keine XOR Logik beherrscht. Ich versteh das bis heute nicht. Wieso sollte die Forschung ruhen weil eine ganz bestimmte Art von neuronalem Netz (einschichtige) keine XOR Logik berechnen kann. Waren die Forscher so engstirnig dass es Jahre dauerte bis einer auf die Idee kam "lasst uns doch mal eine zweite Zwischenschicht einbauen"? Eventuell lag es auch an mathematischen Schwierigkeiten, man wollte vielleicht nichts versuchen was man vorher nicht mathematisch beschreiben kann. So dauert es dann natürlich lange. Manchmal ist es besser etwas zu entdecken und die Mathematik davon später zu begreifen.
Atemis H. schrieb: > Angeblich ruhte damals die Forschung an neuronalen Netzen weil Marvin > Minsky nachwies dass das Perceptron Netz keine XOR Logik beherrscht. > Ich versteh das bis heute nicht. Sie ruhte nicht, sie war still. Es war schliesslich nachgewiesen, das das neuronale netz wie damals verstanden kein "vollständiges System" abbilden konnte und es damit nicht möglich mit einem solchen Network eine Lösung zu generieren. Ähnlich wie Kurt Gödels Unvollständigkeitssatz nachwies das Hilberts Programm der Prinicipa mathematica" von vorneherein zum Scheitern verurteilt war.
Atemis H. schrieb: > Wenn man bedenkt dass für viele Anwendungen keine schrecklich große > Rechenleistung benötigt wird. Man hätte medizinische Aufnahmen sicher > schon in den 70er oder 80er mit KNNs auswerten können. > > Könnte die rege Anwendung heute auf gesellschaftliche Veränderungen > zurückzuführen sein? > Der Hype und der Fortschritt in den Köpfen sorgt sicher für mehr > Offenheit in ernsthaften Anwendungsgebieten. Vielleicht liegt ein Körnchen Wahrheit darin in meiner Vermutung, dass es sich langsam auszahlt Medizinern, Psychologen, Soziologen, Wirtschaftswissenschafftlern in ihrer Ausbildung Computer- und Programmiergrundlagen bei zu bringen. Die KNNs werden heute wohl meistens mit verbreiteten high-level Sprachen und mächtigen Libraries (Python, Matlab, Stackoverflow ;-)) zusammengebastelt. Denke das macht schon einen massiven Unterschied aus zu anfangs 70er als auf den wenigen Computern auch um die Rechenzeit mitten in der Nacht gestritten wurde.
Hier mal ein Auszug aus Wikipedia, es ist wirklich aus heutiger Sicht irritierend wie man das XOR Problem so aufbauschte obwohl es leicht zu lösen war. Vermutlich ging es in Wahrheit gar nicht um das XOR Problem sondern um grundlegendere Differenzen in den Anschauungen bezüglich intelligenter Systeme: XOR-Problem Frank Rosenblatt zeigte, dass ein einfaches Perzeptron mit zwei Eingabewerten und einem einzigen Ausgabeneuron zur Darstellung der einfachen logischen Operatoren AND, OR und NOT genutzt werden kann. Marvin Minsky und Seymour Papert wiesen jedoch 1969 nach, dass ein einlagiges Perzeptron den XOR-Operator nicht auflösen kann (Problem der linearen Separierbarkeit). Dies führte zu einem Stillstand in der Forschung der künstlichen neuronalen Netze. Die in diesem Zusammenhang zum Teil äußerst polemisch geführte Diskussion war letztlich ein Richtungsstreit zwischen den Vertretern der symbolischen Künstlichen Intelligenz und der „Konnektionisten“ um Forschungsgelder. Frank Rosenblatt hatte zwar gezeigt, dass logische Operatoren wie XOR (identisch zur Zusammensetzung OR but NOT AND) durch Verwendung eines mehrlagigen Perzeptrons beschrieben werden können, er starb jedoch zu früh, um sich gegen die Angriffe seiner KI-Kollegen zu wehren. https://de.wikipedia.org/wiki/Perzeptron#XOR-Problem Doch die Einsicht siegte dann wohl: Rosenblatt konnte auf das Buch Minskys nicht mehr reagieren, da er kurz vor dessen Veröffentlichung bei einem Bootsunfall ums Leben kam. Ironischerweise wandte sich Minsky in den 1980er Jahren selbst neuronalen Netzen zu und seine Forschungen basierten auf den Ergebnissen Rosenblatts. https://de.wikipedia.org/wiki/Frank_Rosenblatt
:
Bearbeitet durch User
Atemis H. schrieb: > mh schrieb: >> Für welche ernsthaften Anwendungen braucht man den "keine schreklich >> große Rechenleistung"? > > Hätte man das Trainieren nicht mit den damaligen Großrechnern erledigen > können? In der täglichen Anwendung kommen dann ja die trainierten Netze > zum Einsatz. Weil man zum trainieren auch heute noch aktuelle Großrechner benötigt? > mh schrieb: >> Vllt. weil das alles doch nicht so eifach ist, und man kritischer >> gegenüber KNNs war? Oder vllt. weil in vielen Bereiche in denen KNNs >> heute tatsächlich helfen können das Grundlagenwissen gefehlt hat. Ein >> trainiertes KNN kann Muster erkennen, aber nicht erklären, wie die >> Muster zustande kommen. > > Welches Grundlagenwissen soll das sein? > KNNs werden heute beispielsweise zum erkennen von Krebszellen > eingesetzt. Die Art wie man die Netze darauf trainiert wäre vor 30 > Jahren doch auch die selbe gewesen. Ich habe absichtlich "vielen Bereichen" geschrieben und nicht "allen". Ich kenne mich mit der Krebsforschung nicht aus. Ich vermute die Krebszellen Erkennung basiert auf "Fotos" der Krebszellen? Wenn ja, wie gut war vor 30 Jahren die Technik, um Fotos mit genügen hoher Auflösung in genügen großer Anzahl in den Computer zu bekommen? Und wie groß ist der Rechenaufwand, um ein Netz zu trainieren? > Um mal etwas zu provozieren, ich würde sagen teilweise hat da eine > Generation schlichtweg geschlafen und außer ein paar Fachleute (die ohne > Investitionen auch nicht weit kommen) hat die Masse das Potenzial nicht > erkannt. Warum gehst du davon aus, dass die Experten Idioten waren/sind? Um das zu bewerten, muss man ein Experte sein.
Atemis H. schrieb: > Frank Rosenblatt zeigte, dass ein einfaches Perzeptron mit zwei > Eingabewerten und einem einzigen Ausgabeneuron zur Darstellung der > einfachen logischen Operatoren AND, OR und NOT genutzt werden kann. > Marvin Minsky und Seymour Papert wiesen jedoch 1969 nach, dass ein > einlagiges Perzeptron den XOR-Operator nicht auflösen kann (Problem der > linearen Separierbarkeit). Dies führte zu einem Stillstand in der > Forschung der künstlichen neuronalen Netze. Nimm lieber die englische WP, die deutsche ist hier ne Kack-Übersetzung: "Although the perceptron initially seemed promising, it was quickly proved that perceptrons could not be trained to recognise many classes of patterns. This caused the field of neural network research to stagnate for many years, before it was recognised that a feedforward neural network with two or more layers (also called a multilayer perceptron) had far greater processing power than perceptrons with one layer (also called a single layer perceptron)." Ein "classes of pattern" ist kein Operator und "Stagnation" kein Stillstand. Und womöglich lag es an dem Technischen Problem der Realisierung als Analogrechner. Das man ANN auch mit Digitalrechner nachbauen kann war in den sechsziger nicht Usus, da ja die Intention auf Nachbau des Naturvorbildes lag und das nun mal analog funktionierte. Und beim Zusammenschalten von Verstärkern gibt es halt ein paar Probleme, wie Bias-Verschiebung durch Gleichspannungsverstärkung. oder es lief halt wie bei dem Skeptiker, der, bevor er sich eine Federmatratze aus zehntausend Federn kauft, auf einer einzelnen schläft und dann von kauf Abstand nimmt, weil er die Schmerzen beim Schlaf auf einer Feder auf Zehntausend hochsakliert … Wenn also eine Schicht schon Zuviel von der Realität "wegfiltert", was soll das erst mit mehreren unfähigen Schichten hintereinander werden... Und XOR war nicht das einzige Problem das die AI-Elfenbeinturminsassen lange Zeit nicht lösen konnten: https://en.wikipedia.org/wiki/AI_winter
Atemis H. schrieb: > Immer wieder interessant wie die Entwicklung von einigen > anscheinend unterschätzt wird weil sie die Ideen für alten > Schinken halten. Vor gut 10 Jahren hat ein Forscher es geschafft, neuronale Netze ohne das Problem des Zuviel-Training-Totalversagens zu trainieren. Das war ein Durchbruch. Außerdem können wir jetzt unendlich große Datenmengen auf so ein System draufsch(m)eißen, weil wir noch immer keine effizienten Lernverfahren haben. Das sind die beiden genialen Dinge, die KI in ihrer jetzigen Ausprägung ermöglicht haben. > Wenn man bedenkt dass für viele Anwendungen keine schrecklich große > Rechenleistung benötigt wird. Man hätte medizinische Aufnahmen sicher > schon in den 70er oder 80er mit KNNs auswerten können. Sicherlich, hätte man die Kameratechnik schon damals gehabt (hatte man nicht) und wäre in der Lage gewesen, die Netze innerhalb vertretbarer Zeit zu trainieren (war man nicht). Außerdem fehlte Grundlagenwissen. > Könnte die rege Anwendung heute auf > gesellschaftliche Veränderungen zurückzuführen sein? Wesentlich wahrscheinlicher auf wirtschaftliche Veränderungen. Das damals vorherrschende Wachstum hat stagniert, die Firmen gehen pleite, es wird händeringend nach neuen Problemen gesucht, um Lösungen zu verkaufen. Ein Pentium ist selbst für einfache Aufgaben (Word und Drucken) so dermaßen viel schneller als seine Vorgänger, dass sich der Kauf auch für den Unbedarften lohnt. Heute? Jedes Handy hat genug Rechenleistung für 80% der Anwendungsfälle. Der Aufwand und die Zuverlässigkeit technischer Systeme war wesentlich geringer als heute (gibt es gutes Video von der NYT, als sie ihr Druckverfahren von Bleilettern auf Computer umgestellt haben). Heute werden die Geräte künstlich in ihrer Lebenszeit verkürzt, damit man überhaupt Absatz hat. > Der Hype und der Fortschritt in den Köpfen sorgt sicher für mehr > Offenheit in ernsthaften Anwendungsgebieten. Mehr Bekanntheit. Offenheit? Ich weiß ja nicht. Mir tun jetzt schon die schwedischen Rentner leid, die dank der "bargeldfrei"-Politik der Schweden zunehmend vom Leben ausgeschlossen werden. > Welche "alten Ideen" warten wohl noch darauf ernst genommen zu werden? Viele. Vor allem darauf, dass sie praktikabel werden - und besser als das Vorhandene. Atemis H. schrieb: > Da man Psychologen gegenüber etwas vorspielen kann wäre es > übrigens eine interessante Idee in Zukunft für bestimmte > Berufsgruppen psychologische Tests mit KNNs vorauszusetzen. Schau dir das "social credit system" der Chinesen an. Genau das ist so ein Ansatz, nur eben für die ganze Bevölkerung. Wenn schon Big Data, dann bitte gleich richtig Big Data! Unsere jetzigen Lösungen funktionieren mit kleinen Datenmengen sowieso nicht zuverlässig. > Hätte man das Trainieren nicht mit den damaligen Großrechnern erledigen > können? In der täglichen Anwendung kommen dann ja die trainierten Netze > zum Einsatz. Man merkt, du hast keine Ahnung. Kurz: Nein. :-) > KNNs werden heute beispielsweise zum erkennen von Krebszellen > eingesetzt. Die Art wie man die Netze darauf trainiert wäre vor 30 > Jahren doch auch die selbe gewesen. Nein, denn die heutigen Lernverfahren gab es damals nicht. Und selbst wenn es sie gegeben hätte, sie sind bei weitem nicht effizient genug. Nicht umsonst benutzt Google fürs Training nicht "einzelne Computer" oder "einzelne Racks", sondern ganze Rechenzentren. Mit modernster Architektur und speziellen ASICs. Mach das mal auf nem Z80 oder einer VAX mit, sagen wir, sagenhaften 2 MB RAM und 20 MB Festplattenspeicher. Atemis H. schrieb: > Angeblich ruhte damals die Forschung an neuronalen Netzen weil > Marvin Minsky nachwies dass das Perceptron Netz keine XOR Logik > beherrscht. Ich merke, du hast dich ausgiebig mit Wikipedia beschäftigt. Es gab KI in den 60ern, in den 80ern und heute wieder. > Waren die Forscher so engstirnig dass es Jahre dauerte bis einer auf die > Idee kam "lasst uns doch mal eine zweite Zwischenschicht einbauen"? Vielleicht lässt sich so ein zweischichtiges Netzwerk nicht mehr vernünftig mit Papier und Bleistift trainieren. Computer waren selbst Forschern nicht immer zugänglich, von so massiver Rechenzeitverschwendung ganz zu schweigen. > So dauert es dann natürlich lange. Manchmal ist es besser etwas zu > entdecken und die Mathematik davon später zu begreifen. Muahaha. Genau, am besten wenden wir das direkt noch auf unser Rechtssystem an (siehe China, USA), denn dann kriegen wir die Unterdrückung noch viel schneller hin und können gleichzeitig immer auf den Computer zeigen.
Es wird immer konfuser: erst die komischen Quantencomputer mit ihren Q-bits, die 2 Zustände gleichzeitig haben können. Jetzt haben sie auch noch 3 Photonen verschränkt mittels einer dritten Grösse (neben up/down), dem Drehimpuls... ich glaub mein Hirn ist zu schwach dafür :-)
Upps schrieb: > ich glaub mein Hirn ist zu schwach dafür :-) "Sind sie zu stark, bist du zu schwach." :-)
S. R. schrieb: > Vor gut 10 Jahren hat ein Forscher es geschafft, neuronale Netze ohne > das Problem des Zuviel-Training-Totalversagens zu trainieren. Das war > ein Durchbruch. Außerdem können wir jetzt unendlich große Datenmengen > auf so ein System draufsch(m)eißen, weil wir noch immer keine > effizienten Lernverfahren haben. Welcher Forscher hat was geschafft?? S. R. schrieb: > Sicherlich, hätte man die Kameratechnik schon damals gehabt (hatte man > nicht) Die Fotos aus den 80er sehen ziemlich gut aus. Kann mir nicht vorstellen dass es keine hochauflösenden Kameras gab. S. R. schrieb: > Schau dir das "social credit system" der Chinesen an. Genau das ist so > ein Ansatz, nur eben für die ganze Bevölkerung. Wenn schon Big Data, > dann bitte gleich richtig Big Data! Wenn man will kann man auch alles ins negative drehen. S. R. schrieb: > Man merkt, du hast keine Ahnung. > Kurz: Nein. :-) Du brichst mir das Herz :D S. R. schrieb: > Nein, denn die heutigen Lernverfahren gab es damals nicht. Und selbst > wenn es sie gegeben hätte, sie sind bei weitem nicht effizient genug. Konnte man damals keine Hunde und Katzen auf Fotos erkennen? Reicht doch. S. R. schrieb: > Nicht umsonst benutzt Google fürs Training nicht "einzelne Computer" > oder "einzelne Racks", sondern ganze Rechenzentren. Mit modernster > Architektur und speziellen ASICs. Das kann man so nicht verallgemeinern. Um Krebszellen auf Fotos zu erkennen brauchst du keine Rechenzentren. Viele Trainingsaufgaben laufen heute auf einem Heimrechner in Sekunden und Minuten durch. Aber auch für anspruchsvollere Verfahren hätte man damals ja die Superrechner nutzen können. S. R. schrieb: > Ich merke, du hast dich ausgiebig mit Wikipedia beschäftigt. Spricht was dagegen? Ich lese auch Bücher :) S. R. schrieb: > Vielleicht lässt sich so ein zweischichtiges Netzwerk nicht mehr > vernünftig mit Papier und Bleistift trainieren. Computer waren selbst > Forschern nicht immer zugänglich, von so massiver > Rechenzeitverschwendung ganz zu schweigen. Bezweifle ich dass dies der Grund war. Um die XOR Logik nachzuweisen kannst du auch ein Netz aus einer handvoll Knoten auf einem Blatt Papier berechnen. Mehrschichtige Netze auszuprobieren bzw. in Gedanken durchzugehen ist aus meiner Sicht eine Frage spielerischer Kreativität. Das zu unterlassen ist für mich als würde man Zahlen entdecken und bei 5 aufhören zu zählen um dann zu publizieren dass es zu wenig Zahlen gäbe um sie in der Wissenschaft zu nutzen. Bis dann der nächste Einstein entdeckt dass es noch die 6, 7, 8, 9 usw. geben kann :) S. R. schrieb: > Muahaha. Genau, am besten wenden wir das direkt noch auf unser > Rechtssystem an (siehe China, USA), denn dann kriegen wir die > Unterdrückung noch viel schneller hin und können gleichzeitig immer auf > den Computer zeigen. Ohh, man verliert sehr viel wenn man während einer wissenschaftlichen Arbeit in Gedanken und auf Papier keinen einzigen Schritt ohne Kalkulation wagt. Das unterscheidet vielleicht sogar den einfachen Forscher vom Genie. Der Genie ist frech. Man muss ja nicht sofort publizieren. Probiere aus, spiele herum, schau was passiert wenn du etwas anders machst als üblich. Die Gedanken müssen frei sein, bevor man letztendlich strenge Kriterien anwendet.
Atemis H. schrieb: >> Nein, denn die heutigen Lernverfahren gab es damals nicht. Und selbst >> wenn es sie gegeben hätte, sie sind bei weitem nicht effizient genug. > > Konnte man damals keine Hunde und Katzen auf Fotos erkennen? Nicht zuverlässig mit Computern. Warum hat man dann nicht einfach trainiert? - Nicht genug Datenmaterial. - Nicht genug Speicher. - Nicht genug Rechenleistung. - Nicht genug Wissen. Du kannst ja mal versuchen, aus ca. 50 Katzen- und Hundebildern auf einem Pentium 75 mit 8 MB RAM und 500 MB Festplatte (äquivalent zu einem Supercomputer der 70er) ein neuronales Netz zur Erkennung beliebiger Katzen und Hunde zu trainieren. > S. R. schrieb: >> Nicht umsonst benutzt Google fürs Training nicht "einzelne Computer" >> oder "einzelne Racks", sondern ganze Rechenzentren. Mit modernster >> Architektur und speziellen ASICs. > > Das kann man so nicht verallgemeinern. Um Krebszellen auf Fotos zu > erkennen brauchst du keine Rechenzentren. Du vernachlässigst den Unterschied zwischen Training und Inferenz. Für letzteres braucht man das tatsächlich nicht. Ich habe mal einen Artikel gelesen, wo jemand einen Schachcomputer der 80er (irgendwas um die "4 KB ROM, 1 KB RAM"-Kategorie) mit einem neuronalen Netz ausgestattet hat und ihn damit zu einem echt ernstzunehmenden Gegner gemacht hat. Das fand ich extrem erstaunlich, allerdings finde ich den Artikel nicht mehr wieder. Aber: Das Traing brauchte mehrere Tage auf einem normalen PC - und wäre damit in den 80ern eine monatelange Mammutaufgabe gewesen, in der man den Rechner nicht hätte nutzen können. Und man braucht mehr als einen Versuch, eh man so ein Netz vernünftig parametriert und trainiert hat. > Viele Trainingsaufgaben laufen heute auf einem Heimrechner in Sekunden > und Minuten durch. Wenn ich mir anschaue, was meine Kollegen auf Arbeit machen... nee, da handelt es sich eher um Stunden/Tage. Für (naiv gesprochen) relativ einfache Probleme der Objekterkennung. > Aber auch für anspruchsvollere Verfahren hätte man damals ja die > Superrechner nutzen können. Nee, hätte man nicht. Erstens hatte man dazu keinen direkten Zugang, und zweitens schon garnicht über Tage, Wochen und Monate. Außerdem fehlte der Speicher, so ein Training machst du nicht mit nem 10 GB Tape-Drive, und auch nicht mit einer 300 MB Festplatte. Außerdem nimmst du an, dass Rechenleistung einfach rumstand. Dem war nicht so, Computer waren teuer und damit eine limitierte Ressource. Insbesondere leistungsfähige Maschinen (so es sie denn überhaupt gab; in meiner Heimat war allein deren Existenz schon ein Problem). Atemis H. schrieb: > Das zu unterlassen ist für mich als würde man Zahlen entdecken und bei 5 > aufhören zu zählen um dann zu publizieren dass es zu wenig Zahlen gäbe > um sie in der Wissenschaft zu nutzen. Ich frag mich gerade, ob du noch zur Schule gehst oder das gerade studierst (bzw. frisch studiert hast). Du klingst so, wie ich vor gut 10 Jahren. ;-) Sprichwort: Hindsight is always 20/20.
S. R. schrieb: > Vor gut 10 Jahren hat ein Forscher es geschafft, neuronale Netze ohne > das Problem des Zuviel-Training-Totalversagens zu trainieren. Das war > ein Durchbruch. Außerdem können wir jetzt unendlich große Datenmengen > auf so ein System draufsch(m)eißen, weil wir noch immer keine > effizienten Lernverfahren haben. Meinst du etwa die Kohonen-Netze? Das dürfte etwa 20 Jahre her sein... Die sind im Selbstlernen richtig gut, aber dürften schwierig auf einen Chip abzubilden sein :-) Zum Artikel: Sowas reisst mich nur bedingt vom Hocker, bzw. ist es wieder so ein n+1-Ding, wo sich die Frage stellt, ob die Chips wirklich im Training-Mode brauchbar sind, oder einfach als Feed-Forward (+Feedback) die offline eingelernten Dinge tun, die auch Support-Vector-Machines mit weniger Rechnerei hinkriegen. Bisher waren all diese hochgehypten NN-"Durchbrüche" für die Allgemeinheit nicht sonderlich nachhaltig, scheint mir. Da gabs mal die ZICam anfang Jahrtausendwende, mir war als wäre es Pulnix gewesen, die konnte verschiedene Böhnchen erkennen und schnell sortieren, aber ob im Gerät nu ein FPGA flott rechnet oder ein NN-Chip die Sache erledigt, interessiert kaum ein Schwein in der Anwendung. Spannend auch die Demos von nvidia, die mit KI Strassenzüge verändern/verrrendern, aber wenn's die Filmindustrie nicht aufgreift, erinnert sich in einem Jahr wohl kaum einer noch dran. Und dann tauchen immer wieder eine Menge Startups auf, die sich mit dem Neurokram total verzetteln, eventbasierte Systeme sind einfach nicht leichter zu handhaben als getaktete, gut simulierbare Logik, wenn dann die Debug-Tools in der einen Ecke schon mehr als 10 Jahre Vorlauf haben, greift man eben zum Bewährten in der Anwendung. Und dann ist's eben wieder ein Intel oder ein FPGA, statt irgend ein Neuro-Chip, oder es müssen eben doch wieder nur die richtigen Böhnchen erkannt werden.
S. R. schrieb: > Nicht zuverlässig mit Computern. > Warum hat man dann nicht einfach trainiert? > - Nicht genug Datenmaterial. > - Nicht genug Speicher. > - Nicht genug Rechenleistung. > - Nicht genug Wissen. Mittlerweile sehe ich das ein und möchte deinen Erläuterungen nicht widersprechen. Das erklärt wohl auch die Hype Wellen der neueren Zeit. Die Rechenleistung ist heute drastisch erhöht und dank Big Data hat man heute extrem viel mehr Trainingsmaterial. Bleibt nun zu hoffen dass wichtige und interessante Ideen von damals nicht vergessen werden und mit den heutigen Ressourcen getestet werden. Martin S. schrieb: > Meinst du etwa die Kohonen-Netze? Das dürfte etwa 20 Jahre her sein... > Die sind im Selbstlernen richtig gut, aber dürften schwierig auf einen > Chip abzubilden sein :-) Wenn ich mich nicht irre findet man dazu Vorschläge im Buch "Automat und Mensch" von Karl Steinbuch. Gerade die etwas elektromechanische Grundlage der Lernmatrix von Steinbuch erlaubt es das Prinzip künstlicher neuronaler Netze auf Transistor Chips zu implementieren. Man kann es relativ leicht auf eine binäre Logik übertragen. Ein Jammer das Karl Steinbuch später lieber in die Politik ging. Das war nicht mal halb so fruchtbar wie seine Arbeiten in der Informatik/Kybernetik. Ironisch dass er in dem genannten Buch selbst vor einer Ideologisierung der Gesellschaft warnte, Zitat "gerade mit dem Hintergrund der deutschen Geschichte". Und was passierte? Er wurde Politiker, unterhielt Kontakte zu Rechtsextremisten und warnte vor der Überfremdung der Deutschen.
:
Bearbeitet durch User
Atemis H. schrieb: >> Nicht zuverlässig mit Computern. >> Warum hat man dann nicht einfach trainiert? >> - Nicht genug Datenmaterial. >> - Nicht genug Speicher. >> - Nicht genug Rechenleistung. >> - Nicht genug Wissen. > > Mittlerweile sehe ich das ein und möchte deinen Erläuterungen nicht > widersprechen. Das erklärt wohl auch die Hype Wellen der neueren Zeit. > Die Rechenleistung ist heute drastisch erhöht und dank Big Data hat man > heute extrem viel mehr Trainingsmaterial. > Bleibt nun zu hoffen dass wichtige und interessante Ideen von damals > nicht vergessen werden und mit den heutigen Ressourcen getestet werden. Trainingsmaterial hatte man auch schon in den 90'ern genug. Z.B. im Bereich Spracherkennung existierten Datenbanken, die man kaufen konnte. Rechenzeit ist sicher ein wichtiger Faktor, aber auch da war genug vorhanden. Es fehlten aber damals die (finanziell erfolgreichen) Anwendungen. Mit autonomen Fahren kommt das wieder aus der Versenkung. Das eigentliche Problem ist, dass ein NN im Prinzip nur ein lokales Minium einer Funktion mit vielen Eingangsvariablen sucht. Es findet aber selten das Optimum, und führt zu keiner Erkenntnis. Auch gibt es bei nicht trainierten Eingagnsvektoren ganz böse Überraschungen. Ein zu grosses NN mit vielen Freiheitsgraden ist da besonders anfällig, das ist so ähnlich wie wenn man eine einfache Funktion mit einem Polynom sehr hoher Ordnung extrapoliert. Die typscherweise verwendeten NN sind primitive Methoden zur Miniumumsuche einer Funktion mit vielen Eingangsvariablen. Da gibt es effizientere Methoden, bzw. ist das NN nur eine von vielen Möglichkeiten.
Mach schrieb: > In der Mechanik ist das aber auch so. Die menschliche (oder tierische) > Bewegung ist nicht nachzubilden. Beim Laufen werden zig Muskeln > koordiniert. Technisch realisiert man bewegung meist ueber Drehungen, > Vom Motor ueber Zahnraeder, Riemen bis zum Rad. Auf die Bewegung bezogen > eigentlich fast schon primitiv, obwohl Verbrennungsmotoren aus vielen, > vielen Einzelteilen bestehen. Nachdem ich mehrere Boston Dynamics Videos gesehen habe, bin ich mir da nicht mehr so sicher. Vor kurzem war da ein Video, wo ein Roboterarm beliebige Gegenstände aus einer Kiste rausgenommen hat, und einem anderen Roboter zugeworfen hat. Die konnten das besser und schneller als Menschen!
Udo K. schrieb: > Nachdem ich mehrere Boston Dynamics Videos gesehen habe, bin ich mir > da nicht mehr so sicher. > Vor kurzem war da ein Video, wo ein Roboterarm beliebige Gegenstände > aus einer Kiste rausgenommen hat, und einem anderen Roboter zugeworfen > hat. > Die konnten das besser und schneller als Menschen! Ist es denn gelungen elegante mechanische Bewegungen mit künstlichen neuronalen Netzen zu realisieren? Ich glaube im Prinzip ist es egal ob ein neuronales Netz tausende von einzelnen Muskelfasern anspricht oder einzelne Elektromotoren. Unser Gehirn könnte theoretisch auch lernen diverse Elektromotoren richtig anzusprechen statt viele Muskelfasern. Machen wir im Grunde auch wenn wir Autos, Maschinen oder Musikinstrumente benutzen. Die Frage ist doch wie ein neuronales Netz es grundsätzlich macht verschiedene Komponenten dynamisch und aufeinander abgestimmt zu bewegen. Udo K. schrieb: > Die typscherweise verwendeten NN sind primitive Methoden zur > Miniumumsuche > einer Funktion mit vielen Eingangsvariablen. > Da gibt es effizientere Methoden, bzw. ist das NN nur eine von vielen > Möglichkeiten. Beispiele?
:
Bearbeitet durch User
>Ist es denn gelungen elegante mechanische Bewegungen mit künstlichen >neuronalen Netzen zu realisieren? Tja, das wäre die Frage. Wird nur ein Regler verwendet, oder wird hier was trainiert?: https://www.youtube.com/watch?v=w1d3P8tW3Ls
Udo K. schrieb: > Trainingsmaterial hatte man auch schon in den 90'ern genug. > Z.B. im Bereich Spracherkennung existierten Datenbanken, > die man kaufen konnte. Sicher gab es passende Datenbanken, aber die waren wesentlich kleiner als das, mit dem Apple, Google und Amazon arbeiten. Und schon in den 90ern war die Spracherkennung (ohne KI, rein klassisch) weit entwickelt und extrem zuverlässig - in einigen Domänen. Diktiergeräte für Mediziner und Juristen waren zuverlässig, aber nicht universell. > Rechenzeit ist sicher ein wichtiger Faktor, aber auch da war > genug vorhanden. Es fehlten aber damals die (finanziell > erfolgreichen) Anwendungen. Ich weiß ja nicht. Spontan vermute ich, dass 95% aller trainierten Netze weggeschmissen werden, weil sie nicht funktionieren - und das kann man nur machen, wenn man nicht für jeden Versuch mehrere Wochen oder Monate versenken muss. Also: Ja, man hätte so ein Netz schon berechnen können, wenn man genau gewusst hätte, was man tun muss. Weiß man aber auch heute noch nicht. > Das eigentliche Problem ist, dass ein NN im Prinzip nur ein lokales > Minium einer Funktion mit vielen Eingangsvariablen sucht. > Es findet aber selten das Optimum, und führt zu keiner Erkenntnis. Irrelevant. Eine "hinreichend gute" Lösung ist ausreichend, und wenn sie in manchen Fällen versagt, wird heutzutage einfach nachtrainiert. Beweisbar korrekt ist ein ML-System grundsätzlich nie - es sind immer nur Heuristiken. Hätte man eine beweisbar korrekte Lösung, könnte man die schlicht klassisch implementieren und nicht auf die KI-Krücke zurückgreifen. > Die typscherweise verwendeten NN sind primitive Methoden zur > Miniumumsuche einer Funktion mit vielen Eingangsvariablen. Ich fürchte, du bist ein ganzes Stück hinter dem aktuellen Stand der Dinge. Die Deep Learning-Netze in Bild- oder Sprachverarbeitung sind weit weg von dem, was ich vor einigen Jahren noch an der Uni gelernt habe. Aber ja, grundsätzlich hast du recht.
S. R. schrieb: > Irrelevant. Eine "hinreichend gute" Lösung ist ausreichend, und wenn sie > in manchen Fällen versagt, wird heutzutage einfach nachtrainiert. > > Beweisbar korrekt ist ein ML-System grundsätzlich nie - es sind immer > nur Heuristiken. Hätte man eine beweisbar korrekte Lösung, könnte man > die schlicht klassisch implementieren und nicht auf die KI-Krücke > zurückgreifen. Man darf den Faktor Evolution bei biologischen neuronalen Netzen nicht vergessen. Diese sind wenn auch grob ja das Vorbild und der Nachweis dass solche Netze prinzipiell sehr leistungsfähig sind. Die Evolution würde aber zu genaue biologische Netze nicht sehr begünstigen. Wenn Energie und Zeitbedarf steigen entsteht für das Individuum ein Nachteil. Die Individuen die nicht zu lange überlegen müssen um zu handeln werden sich durchsetzen. Ausgehend von den Umweltbedingungen entsteht so ein Optimum. Und auch da ist die Natur ein guter Lehrer. Auch in unserem Alltag benötigen wir keine unendliche Genauigkeit bei der Lösung von Aufgabenstellungen. Genau wie bei biologischen Netzen müssen die Lösungen gut genug sein.
Atemis H. schrieb: > Die Individuen die nicht zu lange überlegen müssen > um zu handeln werden sich durchsetzen. Sicher. Das gilt aber nicht für von Menschen hergestellte, autonome Autos. Die evolieren nicht, die sind alle identisch. Atemis H. schrieb: > Auch in unserem Alltag benötigen wir keine unendliche > Genauigkeit bei der Lösung von Aufgabenstellungen. Ich bin ja ein großer Freund von der Idee, dass ein Feuermelder bei Feuer auch garantiert auslöst und nicht nur möglicherweise, wenn dieses Feuermelderindividuum zufälligerweise gelungen ist... Oder dass mir das Navi den korrekten Weg weist und nicht mit der gleichen Kompetenz wie <Familienmitglied nach Wahl hier einsetzen>. Wenn sich ein Problem exakt mit erträglichem Aufwand lösen lässt, sollte man von Heuristiken immer großen Abstand halten.
Das Wesen das exakte Lösungen denken kann funktioniert erstaunlicherweise auch mit neuronalen Netzen. Ich vermute die Präzision unserer kognitiven Leistungen ist weniger dem Grundprinzip von neuronalen Netzen sondern vielmehr unserer neuronalen Architektur geschuldet. Wenn man also neuronale Netze richtig miteinander verschaltet sind auch exakte Lösungen effizient möglich.
@TO: ich habe noch von keiner industriell relevanten Anwendung von spiking neural networks gehört. Der Grund mag auf der Hand liegen: es gibt keine Hardware dafür, während GPUs echt toll convolutional neural networks rechnen können. Vielleicht kann die neue Hardware aus diesem Artikel diese Lücke schließen. Ich halte es aber für Wahrscheinlicher, dass wir bereits eingeschossen sind auf das System GPU/TPU, das mittlerweile eine ganz gute Toollandschaft bietet. Vergleichbar mit der Erfindung des Autos: man hat hlat mit dem Verbrennungsmotor angefangen und irgendwann sind da so viele Entwicklungsjahre reingeflossen, dass es nicht mehr wettbewerbsfähig war, einen anderen Ansatz, wie zum Beispiel E-Motor zu fahren.
Udo K. schrieb: > Mach schrieb: >> In der Mechanik ist das aber auch so. Die menschliche (oder tierische) >> Bewegung ist nicht nachzubilden. Beim Laufen werden zig Muskeln >> koordiniert. Technisch realisiert man bewegung meist ueber Drehungen, >> Vom Motor ueber Zahnraeder, Riemen bis zum Rad. Auf die Bewegung bezogen >> eigentlich fast schon primitiv, obwohl Verbrennungsmotoren aus vielen, >> vielen Einzelteilen bestehen. > Nachdem ich mehrere Boston Dynamics Videos gesehen habe, bin ich mir > da nicht mehr so sicher. Atemis H. schrieb: > Ist es denn gelungen elegante mechanische Bewegungen mit künstlichen > neuronalen Netzen zu realisieren? > > Ich glaube im Prinzip ist es egal ob ein neuronales Netz tausende von > einzelnen Muskelfasern anspricht oder einzelne Elektromotoren. Mir ging es eigentlich erstmal nur um die Mechanik, nicht um die Steuerung. Der Körper ist aus unzähligen Zellen aufgebaut. Die Aktuatoren (Muskeln) sind zählbar und bekannt, aber das sind brutal viele (über 400 im Menschen). Und das erzeugt eine ausgesprochene Universalität. Die Energiebereitstellung ist auch gleich noch im Körper integriert. Die ganzen inneren Organe... Das kann man nicht einfach nachbauen. Und so ist es m.E. bei der KI auch. Für die Fähigkeit etwas selbst zu lernen (und nicht man lehrt es der KI durch Füttern) reicht eine einzelne KI nicht, sondern es müssen unzählige Teilsysteme zusammengeschalten werden, die sich gegenseitig beeinflussen.
Kurze Erheiterung zum Thema :-) https://xkcd.com/1897/ "Crowdsourced steering" doesn't sound quite as appealing as "self driving."
Mach schrieb: > Mir ging es eigentlich erstmal nur um die Mechanik, nicht um die > Steuerung. Der Körper ist aus unzähligen Zellen aufgebaut. Die > Aktuatoren (Muskeln) sind zählbar und bekannt, aber das sind brutal > viele (über 400 im Menschen). Und das erzeugt eine ausgesprochene > Universalität. Die Energiebereitstellung ist auch gleich noch im Körper > integriert. Die ganzen inneren Organe... Das kann man nicht einfach > nachbauen. Einfach ist es nicht aber Fortschritte gibt es auch in der Mechanik. Es wurden bereits ja einige künstliche Muskeln demonstriert. Etwa mit elektroaktive Polymeren. Ich denke es ist eine Frage der Zeit bis neuartige Aktuatoren voll einsatzfähig sind. Mach schrieb: > Für die Fähigkeit etwas > selbst zu lernen (und nicht man lehrt es der KI durch Füttern) reicht > eine einzelne KI nicht, sondern es müssen unzählige Teilsysteme > zusammengeschalten werden, die sich gegenseitig beeinflussen. Es gibt wirklich Thesen von einigen Forschern die der Meinung sind dass die Wechselwirkung zwischen Körper und Zentralnervensystem von elementarer Bedeutung ist. Ich denke das gilt aber eher für eine starke KI und weniger für spezialisierte Lösungen für einzelne Anwendungen. Bei der Training einer KI gibt es übrigens auch die Möglichkeit einer virtuellen Umgebung. Ein neuronales Netz kann auch mit einem virtuellen Körper trainiert werden und in einem Computer läuft die Simulation auch schneller. Auch wenn die Simulation der Realität nicht exakt entspricht, lässt man das trainierte System dann auf einem echten Roboter laufen muss es noch geringfügig trainieren um noch die restlichen Unterschiede zwischen Simulation und Realität auszugleichen.
Ich bitte zu beachten, dass man bei künstlicher Intelligenz zwischen der Lernphase (Training) und der Anwendungsphase (Inferenz) unterscheiden muss. In der Natur findet immer beides gleichzeitig statt. "Erinnern" ist ein aktiver Vorgang, der den Gedächtnisinhalt nicht nur liest, sondern auch beeinflusst. Ein industrielles System auf so einer Basis wäre nicht langzeitstabil.
S. R. schrieb: > Ich bitte zu beachten, dass man bei künstlicher Intelligenz zwischen der > Lernphase (Training) und der Anwendungsphase (Inferenz) unterscheiden > muss. Da gibt es nun aber sei geraumer Zeit Netze, bei denen das nicht der Fall ist. Siehe auch die oben genannten Kohonen-maps. S. R. schrieb: > Ein industrielles System auf so einer Basis wäre nicht langzeitstabil. Auch das stimmt nicht so ganz, aber es ist durchaus knifflig, die Entartung in den Griff zu kriegen. Ist halt die Frage was man will, beispielsweise eine flexible Spracherkennung, die in der Lage ist, sich an andere Stimmlagen zu gewöhnen, oder eine an einem gewissen Punkt eingefrorene "Metrik".
mh schrieb: >Vllt. weil das alles doch nicht so eifach ist, und man kritischer >gegenüber KNNs war? Oder vllt. weil in vielen Bereiche in denen KNNs >heute tatsächlich helfen können das Grundlagenwissen gefehlt hat. Ein >trainiertes KNN kann Muster erkennen, aber nicht erklären, wie die >Muster zustande kommen. Das trifft auf dich selbst übrigens auch zu: Du kannst z.B. einen Apfel zwar sehen, aber Du kannst nicht erklären, wie du ihn erkennst. Wie werden die Signale aus den Lichtrezeptoren in deinem Auge genau verarbeitet, damit in deinem Geist ein Apfel entsteht? Jetzt bitte keine "angelesenen" Erklärungen, sondern dass was ein Mensch z.B. im Urwald darüber weiß.
Carl schrieb: > Du kannst z.B. einen Apfel zwar sehen, aber Du kannst nicht > erklären, wie du ihn erkennst. Ich denke schon, dass ich das erklären kann. Erstens habe ich natürlich Bilder zahlreicher bekannter Äpfel im Kopf, mit denen ich vergleiche. Auch habe ich ein Gefühl dafür, wie schwer ein Apfel sein kann. Ich weiß auch, dass die Golden Delicius deutlich leichter sind, als andere. Sollte ich einmal einen unbekannte Frucht sehen, vergleiche mit Eigenschaften anderer, die ich kenne. Ein Apfel zeichnet sich für mich durch folgende Merkmale aus: Ein Apfel hat ungefähr die Form einer Kugel, aber nicht exakt. Äpfel haben typischerweise 5 bis 10 cm Durchmesser. Oben um den Stiehl herum und unten um die ehemalige Blüte herum befindet sich eine Delle. Ohne Stiehl würde es mir schwerer fallen, einen Apfel eindeutig zu erkennen. Das Fruchtfleisch ist hell (fast weiß) und schmeckt süß. Die Äußere Farbe ist in der Regel ein blasses gelb, grün oder rot, oft auch eine fleckige Kombination dieser Farben. Die Unterscheidung zur Birne ergibt sich aus der Form. So kommt es, dass ich die Nashi Birne lange für einen Apfel gehalten habe. Warum das Ding eine Birne ist, habe ich bis heute nicht gelernt. So bleibt für mich nur die Möglichkeit, sie an der charakteristischen Konsistenz ihres Fruchtfleisches zu erkennen, was vermutlich irgendwann die nächste Fehlinterpretation provoziert. > sondern dass was ein Mensch z.B. im Urwald darüber weiß. Ich bin ziemlich sicher, dass jeder Mensch (nicht nur Urwald Bewohner), der mit Pflanzen arbeitet, die Merkmale der für ihn wichtigen Pflanzen klar beschrieben kann. Jedes Kräuterbuch dreht sich zu 50% darum, die Pflanzen zwecks Erkennung zu beschrieben.
>Ein Apfel hat ungefähr die Form einer Kugel, aber nicht exakt. Äpfel >haben typischerweise 5 bis 10 cm Durchmesser. Oben um den Stiehl herum >und unten um die ehemalige Blüte herum befindet sich eine Delle. Ohne >Stiehl würde es mir schwerer fallen, einen Apfel eindeutig zu erkennen. >Das Fruchtfleisch ist hell (fast weiß) und schmeckt süß. Die Äußere >Farbe ist in der Regel ein blasses gelb, grün oder rot, oft auch eine >fleckige Kombination dieser Farben. Das ist der alte Stil, mit dem man in den 70er Jahren versucht hat, Expertensysteme zu bauen. Es ist eine Art "relationale Datenbank". Du kannst aber nicht beschreiben, wie die Information von deinem Auge verarbeitet wird. Um das zu ergründen, hat die Hirnforschung Jahrzehnte gebraucht. Sie hat heraus gefunden, dass das Sehfeld in kleine Bereiche unterteilt wird und das diese kleinen Bereiche nach bestimmten Eigenschaften untersucht werden: Orientierung, Schraffur, Farbe, durchschnittliche Helligkeit und andere Faktoren. Wie die Bereiche aber genau analysiert werden, kannst Du als Mensch nicht sagen. Die aus der Hirnforschung gewonnenen wurden auf die Strukturen der KNNs übertragen und sind genau das, was heute die hohen Bilderkennungsraten ermöglichen und das ist ein Unterschied zu den Verfahren vor 20 Jahren.
Man kann einzelne gleichförmige Netze mit einem Input und einem Output nicht mit biologischen Gehirnen gleichsetzen. Man kann einen Kolben der eine Achse drehen kann auch nicht mit einem ganzen Motor System oder einem ganzen Auto gleichsetzen. Im Gehirn sind verschiedenartige Neuronen und verschieden strukturierte und verschaltete Netze miteinander zu einer bis heute immer noch nicht ganz verstandenen Architektur verschaltet. Ich würde sagen das Gehirn hat eine Art universelle Methode geschaffen Information zu verarbeiten. Der Mensch kann vermutlich theoretisch alles denken was denkbar ist, so wie ein universeller Turing-vollständiger Computer ein beliebigen Algorithmus ausführen kann. Das was wir sehen nehmen wir auf der Ebene wahr auf der sich unser Bewusstsein befindet. Wir sehen nicht die einzelnen neuronalen Vorgänge sondern den emergenten Effekt davon. Allerdings können wir als abstraktes Modell natürlich ergründen wie der biologische oder physikalische Vorgang abläuft. Das ist aber dann Teil unseres Wissens und nicht unserer Wahrnehmung. Was ein einzelnes Neuron nicht kann, kann eine Menge Neuronen. Was eine Menge von Neuronen nicht kann, kann eine Menge aus verschiedenen Mengen Neuronen. Die Limitierungen eines einzelnen Netzes oder einer einzelnen Komponente können also mit der Verschaltung mehrerer Netze bzw. Komponenten aufgehoben werden. Man kann durchaus eine Analogie zu Mikroprozessortechnik sehen. Ein einzelner Transistor kann nicht viel. Eine Menge von Transistoren kann mehr und wenn man verschiedene Mengen von Transistoren miteinander verbindet entsteht das Potenzial eine ganze CPU Architektur zu kreieren. Immer wenn voneinander abgrenzbare Mengen in Wechselwirkung miteinander treten entstehen emergente Effekte. Diese Effekte wiederum lassen sich zu einer eigenen Menge zuordnen die wiederum mit gleichgroßen Mengen wechselwirken können. So entsteht eine zunehmende Komplexität und die Fähigkeiten des gesamten System wachsen.
:
Bearbeitet durch User
>Der Mensch kann vermutlich theoretisch alles denken was denkbar ist
Und was kann z.B. ein Hund?
Carl schrieb: > Und was kann z.B. ein Hund? Schwierig zu sagen. Ich glaube nicht das Denkfähigkeit nur dem Menschen vorbehalten ist. Selbst ein Affe der von klein auf unter Menschen aufgezogen wird schafft es nicht die menschlichen Fähigkeiten zu entwickeln. Solche Experimente gab es bereits. Menschen die nicht reden oder hören können, entwickeln trotzdem alternative Wege um die selbe geistige Reife wie andere Menschen. Der Mensch kann mit Händen und Schrift kommunizieren. Wenn Affen oder Hunde genau so komplex denken können wie Menschen, wieso gelingt ihnen nicht mit dem Menschen auf die gleiche komplexe Art zu kommunizieren? Affen können Gebärdensprache lernen aber nicht in dem Ausmaß wie es gehörlose Menschen können. Es gibt offenkundig Unterschiede. Ich schrieb aber bewusst dass der Mensch theoretisch vermutlich alles denken kann was denkbar ist. Die Limitierungen der Gehirn Ressourcen und die biologische Zeit stellen dann doch Grenzen auch für unsere kognitiven Fähigkeiten. Aber ich glaube dass unser Gehirn bereits eine Architektur besitzt die theoretisch bei genügend Ressourcen und Zeit alles denkbare denken kann. Vielleicht ist es bei Hunden auch so, nur dass ihre Ressourcen deutlich limitierter sind. Demnach hat ein Hund nicht genug neuronale Ressourcen und Lebenszeit um die geistige Höhe von Menschen zu erreichen. Aber auch ein Hund kann eventuell theoretisch alles denkbare denken, auch wenn die Menge gleichzeitiger Fähigkeiten oder Gedanken vielleicht limitierter ist als beim Menschen. Ein kleiner Mikrocontroller kann auch alles berechnen was ein großer Intel Prozessor kann. Aber wenn menschliche Kommunikation eine bestimmte Menge an Berechnungen und Datenmenge erfordert dann ist der kleine Mikrocontroller überfordert, auch wenn seine Architektur theoretisch es leisten könnte.
:
Bearbeitet durch User
Meine Denkfähigkeit endet bei Begriffen wie - Paralleluniversum - Unendlichkeit - Raumzeit - Zeitreisen - Gibt es etwas nach dem Tod? - Was ist Gott? Das sind Dinge von denen ich glaube, ein bisschen begriffen zu haben. Aber diese Dinge werden für mich nie so greifbar wie zum Beispiel die Geometrie, Mathematik und natürlich auch die Elektrizität. Ich habe so ein Gefühl im Bauch, dass wir die Funktionsweise unseres eigenen Körpers niemals vollständig erfassen können. Spätestens beim Gehirn und dem geheimnisvollen Lebensatmen hört es auf. Irgendein Naturgesetz oder eine höhere Gewalt will nicht, dass wir Gott spielen.
>Irgendein >Naturgesetz oder eine höhere Gewalt will nicht, dass wir Gott spielen. Nein?: https://www.nature.com/news/minimal-cell-raises-stakes-in-race-to-harness-synthetic-life-1.19633
Stefanus F. schrieb: > Spätestens beim > Gehirn und dem geheimnisvollen Lebensatmen hört es auf. Es werden immer mehr Fortschritte gemacht und neue Erkenntnisse gewonnen. Bisher sieht es nicht danach aus als gäbe es da eine unüberwindbare Barriere. Was wir sehen ist noch eine Menge Forschungsarbeit auf dem Weg zu einem vollständigen Verständnis. Was nicht unüblich ist. Die Wissenschaft erfordert die Arbeit von Generationen. Es ist nicht jeder Generation vergönnt den Durchbruch zu schaffen. Es ist nicht nötig da metaphysische Modelle zu bemühen. Geduld und Arbeit ist gefragt. Stefanus F. schrieb: > Irgendein > Naturgesetz oder eine höhere Gewalt will nicht, dass wir Gott spielen. Wer will den Gott spielen? Wo ziehst du da die kritische Linie? Spielen Menschen nicht bereits Gott wenn sie den menschlichen Körper erforschen und Krankheiten heilen? Es liegt in der menschlichen Natur die Umwelt verstehen zu wollen und daraus vorteilhafte Anwendungen zu entwickeln. Und wenn Gott unüberwindbare Hindernisse geschaffen hat, dann ist das eben so. Für die Wissenschaft sind sowieso mit den Naturgesetzen und deren Gültigkeitsbereich natürliche Grenzen gesetzt. Ich glaube der menschliche Geist basiert auf der Grundlage von Naturgesetzen. Was spräche dagegen? Fast alle gläubigen Menschen die ich kenne und die sich zu dem Thema Gedanken machen tendieren auf die eine oder andere Art zu der Annahme von unüberwindbaren Grenzen. Das kann man glauben, ich kann auch das Gegenteil nicht beweisen. Fakt ist die Forschung geht weiter und macht Fortschritte, zu viel mehr kann sich der Forscher auch nicht bekennen wenn er objektiv sein will. Darüberhinaus gehende Annahmen sind Spekulation, Ideologie oder Religion.
Atemis H. schrieb: > Fast alle gläubigen Menschen die ich kenne Fangen wir mal damit an, dass Gläubige per se schon kritisch zu bewerten sind, weil sie an Dinge glauben, die nicht bewiesen sind, sondern überliefert wurden und teilweise längst widerlegt sind. Atemis H. schrieb: > die sich zu dem Thema Gedanken machen Und wieviele sind das? Atemis H. schrieb: > tendieren auf die eine oder andere Art zu der Annahme > von unüberwindbaren Grenzen. Dazu tendiere ich als Nichtgläubiger auch. Hürde Nummer eins das mangelnde Verständnis der Funktion unserers Gehirns und Nummer 2 die schiere Grösse. Wie bitte möchte man ein solches Netz wachsen lassen und das kostengünstig? Schon geringe Einflüsse im kindlichen Wachstum führen zu extremen Anomalieren im Gehirn, beginnend mit Autismus und Genialität, die oft genug eng beieinander liegen. Wer möchte das steuern? Solche Dinge wurden von der Natur durch Selektion sortiert, sieht man daran, dass es auch sehr intelligente Tiere gibt. Die funktionieren aber alle anders und haben sich über Jahre Millionen in eine Niesche entwickelt. Wesentlich ist dabei, das try and error System mit Massen an Versuchen. Wieviele Neurohirne will man bauen? Und wer will die alle trainieren? Kinder beziehen ihre Fähigkeiten durch Lernen, als Abgucken von anderen Kindern und Erwachsene, zzg einer langen Schulausbildung. Wenn man heute ein Netz baut, dass einen Roboter befähigen soll, einfach zu laufen und nicht auf die Fresse zu fallen, braucht es schon 100 Ingenieure. Klar, man kann einen trainieren und dann auch andere Übertragen. Aber dann haben alle denselben idiotischen Fehler. Und welche Firma soll das denn bitte bauen und die Tools bereitstellen? Xilinx? Die kriegen es doch nicht mal hin, dass ihre grafischen IP Blöcken sinnvoll updatebar sind, wenn eine neue Version rauskommt. Intel? Die Altera-Tool-Chain hinkt der von Xilinx immer noch hinterher. MATHWORKS? Ich habe vor vielen Jahren mal Simuling mit FPGA-Synthese untersucht und validiert, daraufhin seinerzeit Frau von der Ruhr eine Verbesserungs- und Korrekturliste übersandt, die nach ihrer Aussage auch an die Entwickler ging. Die Macken sind z.T. heute noch nicht behoben. Google? Die müssten was kaufen, wenn es schnell gehen soll. Vlt kaufen sie ja Lattice auf und stecken ihre Suchmaschine rein. Kann natürlich sein, dass die schon am SuperCompi bauen und der auch schon angefangen hat, Intelligenz zu entwickeln. Müssen wir halt den Arni noch einmal aktivieren, das rechtzeitig zu stoppen. Meines Wissens hat der sich ja schon in Kalifornieren angesiedelt und in Stellung gebraucht.
Compi Experti schrieb: > Wenn man heute ein Netz baut, dass einen Roboter befähigen soll, einfach > zu laufen und nicht auf die Fresse zu fallen, braucht es schon 100 > Ingenieure. Als kleiner Nachtrag: Der in DE entwickelte Bohrer des aktuellen Marsroboter-Experiments, hat sich gestern festgefressen. Man hat bei der Planung übersehen, dass es auf dem Mars Steine gibt und es verpennt einen Plan B zu erarbeiten, wie man in einem solchen Fall agieren muss. Ok, sie kommen von der Uni in Bremen, das erklärt es gfs. Offenbar haben das die Entwickler in ihrem Sandkasten nicht richtig nachgestellen und voraus üben können. Kein Wunder da es sich bei den Herren um die U40-Fraktion handelt, die mit dem Internet aufgewachsen sind und nicht mehr in echten Sandkästen gespielt haben. Unser eins wäre das mit Sicherheit schon in der Planung in den Kopf gekommen, weil wir den Fall im Kindergarten 100x hatten. Die Lösung ist einfach schräg rein zu bohren, damit sich beim Anschlagen in Verbindung mit der Graviation eine Querkraft ergibt und damit der Bohrer entweder zusehens zur Seite abrutscht oder sich das Bohrgerät wegbewegt. Daran sieht man, wie schwer es Menschen fällt ein System zu bauen, das auf alle Eventualitäten gefasst ist und reagieren kann. ********* Ich sehe es schon kommen, den neuronal gesteuerten Roboter, der dreimal so intelligent ist, wie ein Mensch, uns alle Arbeit abnimmt und uns im Auto hinfährt, wohin wir wollen. Kann aber gut sein, dass der dabei öfters mal über seine Schnürsenkel fällt, weil er sich wie so viele Genies, die Schuhe nicht zubinden kann. Kann auch sein, dass er auch mal falsch abbiegt, weil er es nicht kapiert, dass das Verkehrschild von einem Heini über nacht auf den Kopf gedreht wurde und er keine Erinnerung dran hat und es auch nicht plausibilisieren kann. Oder irgendein Vogel scheisst auf die Kamera und das super intelligente kamerabasierte Auto macht auf nasser Fahrbahn eine Vollbremsung, kommt ins Rutschen und generiet einen Riesenunfall, wie zuletzt bei einem Toyota. Ein Mensch weiß, dass er auf nass unterwegs ist und bremst leicht ab, wenn ihm was ins Auge kommt. Hat keiner dran gedacht. Nee, Leute, Menschen sind schlau, weil sie Lernen und ein Autofahrer hat im Schnitt 5 Jahre Führerschein bis zu seinem ersten kritischen Manöver inklusive weiterer 18 Jahre Lebenserfahrung, sozusagen als Software. Und die Hardware ist 8 Mio Jahre alt, basierend auf 200 Mio Jahren Vorentwicklung. Ich erlebe den sicheren autonomen Roboter, den man alleine auf die Menschen loslässt nicht mehr und wenn, wird das eine teure Angelegenheit: Passt mal auf, wie sich die Polen über autonome Autos freuen werden, die VW gerade entwickelt: Die sollen in Parkbuchten in den Städten warten, bis sie jemand ruft und dann selber den Passagier suchen, zum Ziel fahren, um die Zahl der Autos zu reduzieren und Car-sharing zu erleichtern. Die Polen brauchen die dann einfach nur in einen Laster zu lotsen. Die freuen sich sicher auch über autonome Roboter, die sie ausschlachten können. (Laut BKA wurden allein in Polen im letzten Jahr 60 illegale Werkstätten aufgefunden, die geplaute Autos komplett zerlegen). Selbst die dummen Drohnen, die fast nichts können, werden doch jetzt schon geklaut. Wie will man solche Hi-Tec-Geräte frei rumlaufen lassen? Alle zur Sicherheit vernetzt? Mit einem 10G Netz, das die Chinesen bauen, weil wir es nicht hinkriegen? Fragen über Fragen Ich würde mal sagen, wir fangen mal damit an, dass wir die Funklöcher und Internetlöcher in DE stopfen, damit wenigstens alle mal den Mindeststandard von 2008 haben (DSL 6000 und UMTS). Dann sorgen wir für gerechte Löhne und die Abschaffung der Zeitarbeitsausbeutung, damit wir nicht noch mehr Arme auf den Strassen haben, die keine Kohle haben und klauen gehen müssen, bzw eine Revolution von unten anfangen und Leute ausrauben und ihnen die Organe rausreissen. Dann sorgen wir uns um den Klimaschutz und um unser Wasser! Bevor die ersten Roboter rumstolpern und irgendwelche Aufgaben lösen, vergeht mehr Zeit, als wir überhaupt noch auf dem Planeten haben! Die USA z.B. hat im mittleren Westen eine so grosse Menge an Grundwasser entnommen, dass es 500.000 Jahre braucht, bis es nach fleisst. Man google mal danach! Angeblich reicht das Wasser noch für 15 Jahre, dann hat Amerika ein Nahrungsproblem. Und zwar eins, dass an die Hungerkatastrophen der 80er in Afrika heranreicht. Schauen wir mal, ob man dann in Kalifornieren Solizium essen wird, weil kein Korn mehr da ist.
Max Tegmark gibt hier einen guten Überblick zum momentanen Stand der Forschung und was die Entwickler über die zukünftige Entwicklung glauben: https://www.ted.com/talks/max_tegmark_how_to_get_empowered_not_overpowered_by_ai?language=de#t-563459 Das größte Problem ist das KI-Wettrüsten zu vermeinden.
@Compi Experti nimm's mir nicht böse, aber das klingt ja leicht frustriert. Das beobachte ich eigentlich immer wieder bei Kollegen Ü40. Und zugegebenermaßen bin ich auch auf dem Weg dorthin. Vielleicht ist die Welt heute frustrierender? die Probleme schwieriger? Die Psyche von allen schwächer? Compi Experti schrieb: > Wieviele Neurohirne will man bauen? > > Und wer will die alle trainieren? Kinder beziehen ihre Fähigkeiten durch > Lernen, als Abgucken von anderen Kindern und Erwachsene, zzg einer > langen Schulausbildung. Trainiert werden nicht so viele, oder? Die meinsten werden kopiert. Compi Experti schrieb: > Und welche Firma soll das denn bitte bauen und die Tools bereitstellen? Eine, die die Probleme versteht, die ihre Kunden zu lösen versuchen. Das ist gar nicht so einfach, denn die Materie ist neu für alle. Schnelle Anpassungsfähigkeit ans geänderte Problemverständnis ist entscheidend. Daher ist OpenSource auf dem Gebiet recht erfolgreich. Und nvidia versucht's auch. Compi Experti schrieb: > Kann natürlich sein, dass die schon am SuperCompi bauen und der auch > schon angefangen hat, Intelligenz zu entwickeln. Nicht nur die. FAANG sind die Kandidaten, weil die genug zentrale Rechenleistung haben. Die allererste AGI fällt sicherlich nicht aus solchen kleinen Chips, wie sie hier im Thread stehen. Miniaturisierung kommt später. "TPU" wäre da heute so ein Suchbegriff, oder "DGX-2". Allerdings weiß in der westlichen Welt auch keiner so richtig, was die Chinesen machen. Vielleicht braucht der Arnie einen Jetski. Compi Experti schrieb: > Daran sieht man, wie schwer es Menschen fällt ein System zu bauen, das > auf alle Eventualitäten gefasst ist und reagieren kann. Yep. Ich frage mich, ob die ganzen schlauen Leute, die heutzutage Ü40 sind, auch mal jung waren und dann Engineeringprobleme hatten, die niemand zuvor schon gelöst hatte. Vermutlich gibt's Leute Ü60, die denen damals gesagt haben, wie alles zu funktionieren hat, weil's immer schon so funktioniert hat, obwohl denen die Probleme der Ü40er eigentlich völlig fremd waren und sie eigentlich auch keine Ahnung hatten, wie man diese neuen Probleme löst. Oder vielleicht ist es auch ein Problem der heutigen Zeit, dass die Komplexität auch bei Projekten explodiert, die sicherheitskritisch sind. Compi Experti schrieb: > Mit einem 10G Netz, das die Chinesen > bauen, weil wir es nicht hinkriegen? Stimmt schon. Viele Konzerne kommen nicht aus ihrem eigenen Sumpf raus und können daher nichts mehr entwickeln. Das scheint mir vor allem ein Europäisches Problem zu sein. Ich glaube, genau wie du, dass die Tage des Labels "Made in Germany" gezählt sind. Aber woran liegt's? In den großen, trägen Konzernen sitzen eigentlich mehr Leute Ü40 als U40. Ruht man sich da etwas zu sehr auf seinem Ruhm aus? Ist das die Schuld von graubärtigen Entscheidungsträgern? Oder von Müllbeutelfrisurhipstern mit Nerdbrille? Compi Experti schrieb: > Dann sorgen wir für gerechte Löhne und die Abschaffung der > Zeitarbeitsausbeutung, damit wir nicht noch mehr Arme auf den Strassen > haben, die keine Kohle haben und klauen gehen müssen, bzw eine > Revolution von unten anfangen und Leute ausrauben und ihnen die Organe > rausreissen. Fragt sich nur, was die alle machen sollen. Wenn ich dich richtig verstehe, traust du denen ja das Marsroboterbauen nicht zu.
:
Bearbeitet durch User
Carl schrieb: > Das größte Problem ist das KI-Wettrüsten zu vermeinden. Zu spät. Es gibt ein paar Unternehmen, die wesentlich weiter sind als der Rest der Welt und die werden ihre Vorteile nicht aus der Hand geben. Dazu kommen die immer kürzeren Produktzyklen, die es erzwingen, dass man nicht fertig entwickelte Produkte auf den Markt werfen muss, denn sonst geht man zu früh pleite. A. S. schrieb: >> Kinder beziehen ihre Fähigkeiten durch Lernen, als Abgucken >> von anderen Kindern und Erwachsene, zzg einer >> langen Schulausbildung. > > Trainiert werden nicht so viele, oder? Die meinsten werden kopiert. Die Fähigkeiten werden kopiert, die Gehirne werden trainiert. Dazu kommt dann noch der Unterschied zwischen Theorie und Praxis, d.h. das üben. Alle, die nie vom Fahrrad gefallen sind, haben nie draufgesessen. A. S. schrieb: > Viele Konzerne kommen nicht aus ihrem eigenen Sumpf raus > und können daher nichts mehr entwickeln. Das scheint mir > vor allem ein Europäisches Problem zu sein. Sehe ich nicht so. Das ist allgemein ein Problem großer, hierarchisch strukturierter Konzerne. Die bewegen sich alle mit der Geschwindigkeit von langsamen Gletschern, weil sie eine Risikominimierungsstrategie fahren müssen. Risiko eingehen heißt, Kosten zu verursachen, die möglicherweise nicht ausgeglichen werden können, den Ruf schädigen können und damit mittelfristig den Gewinn schmälern können.
Compi Experti schrieb: > Fangen wir mal damit an, dass Gläubige per se schon kritisch zu bewerten > sind, weil sie an Dinge glauben, die nicht bewiesen sind, sondern > überliefert wurden und teilweise längst widerlegt sind. Offenbar hast du aber eine ähnliche Anschauung. Der Fortschritt geht weiter aber du postulierst unbewiesene unüberwindbare Grenzen auf dem Weg zu einer starken KI. Compi Experti schrieb: > Und wieviele sind das? Aus dem persönlichen Umfeld sind es glaube 4 Leute mit denen ich darrüber diskuttiert habe und im Internet eine größere Zahl. Compi Experti schrieb: > Dazu tendiere ich als Nichtgläubiger auch. Hürde Nummer eins das > mangelnde Verständnis der Funktion unserers Gehirns und Nummer 2 die > schiere Grösse. Und wie kannst du dir sicher sein dass der Fortschritt die Hürden die du siehst nicht überwinden kann? Der mangelnde Verständnis ist etwas was sich von Tag zu Tag abbaut. Man versteht immer mehr. Eine Barriere die die Forschung vollständig stagnieren lässt wurde bisher nicht gefunden. Compi Experti schrieb: > Wie bitte möchte man ein solches Netz wachsen lassen und das > kostengünstig? Schon geringe Einflüsse im kindlichen Wachstum führen zu > extremen Anomalieren im Gehirn, beginnend mit Autismus und Genialität, > die oft genug eng beieinander liegen. Wer möchte das steuern? Man sollte zuerst mal unterstreichen dass wir hier von einer starken KI reden, richtig? Also von einer menschenähnlichen KI und Bewusstsein? Es ist doch aber klar dass es ungemein leichter ist unterhalb einer starken KI unzählige von erfolgreichen Anwendungen mit künstlichen neuronalen Netzen zu entwickeln. So wie es momentan ja geschieht. Und das ist der Fakt über das wir sprechen können. Der Fortschritt der weiter geht. Das eine starke KI definitiv möglich ist will ich gar nicht behaupten. Es ist für mich eine spannende Reise und interessant zu sehen wie weit man kommen wird. Man wird sehen ob irgendwann die Technologie und Wissenschaft so weit sind und ein Markt entsteht der eine starke KI unbedingt fordert. Die Methoden und Mitteln die es dann gäbe kannst du nicht einfach mit heute gleichsetzen. Compi Experti schrieb: > Solche Dinge wurden von der Natur durch Selektion sortiert, sieht man > daran, dass es auch sehr intelligente Tiere gibt. Die funktionieren > aber alle anders und haben sich über Jahre Millionen in eine Niesche > entwickelt. > > Wesentlich ist dabei, das try and error System mit Massen an Versuchen. Die Basis auf der künstliche neuronale Netze laufen ist nicht die Biologie. Biologische Netze benötigen längere Zeiträume des Lernens. Halbleiter sind kleiner als einzelne Neuronen und laufen mit einem höheren Takt als biologische Netze. Und wenn die Quantencomputer irgendwann die ersten großen Durchbrüche haben hat man wieder eine ganz andere Basis für die künstliche Intelligenz. Es ist denkbar dass aufgrund dieser Flexibilität die künstliche Intelligenz auf Systemen laufen kann die erhebliche Vorteile haben gegenüber biologische Systeme. Compi Experti schrieb: > Daran sieht man, wie schwer es Menschen fällt ein System zu bauen, das > auf alle Eventualitäten gefasst ist und reagieren kann. Wer sagt denn dass ein System fehlerfrei sein muss um Fortschritt zu erzielen? Das ist doch wie in der Evolution. Fehler und Fehlschläge sind Teil des Entwicklungsprozess. In der Evolution ist es eine Quelle der Variation und in menschlichen Projekten eine Quelle der Kreativität. Wo Probleme gelöst werden entsteht ein Lernprozess.
Autor: S. R. (svenska) >Carl schrieb: >> Das größte Problem ist das KI-Wettrüsten zu vermeiden. >Zu spät. Es ist schon richtig, dass sich viele Firmen in diesem Bereich tummeln. Aber man kann nur hoffen, dass denen irgendwann Bandagen angelegt werden. Zur Diskussion kann ich wirklich das Video oben empfehlen. Ich nehme mal an, dass schon jeder das hier über eine praktische Anwendung von Bildverarbeitungs- und Regelungsalgorithmen gesehen hat: ttps://www.youtube.com/watch?v=9CO6M2HsoIA
Atemis H. schrieb: > Wer sagt denn dass ein System fehlerfrei sein muss > um Fortschritt zu erzielen? Niemand, aber ein unzuverlässiges System will ich nicht in kritischen Bereichen einsetzen. Und für unkritische Systeme kann ich auch Menschen nehmen, das schafft einerseits Jobs und hält zum anderen die Gesellschaft stabil. Atemis H. schrieb: > Man wird sehen ob irgendwann die Technologie und Wissenschaft > so weit sind und ein Markt entsteht der eine starke KI unbedingt > fordert. Ich frage mich nur, für was wir diese halbzuverlässigen halbstarken KIs einsetzen werden, wenn wir sie haben. Sie sind ja gerade dabei, Expertensysteme in der Juridik zu ersetzen und z.B. Richtern die Gesetzeslage inklusive Begründung in die Feder zu diktieren. Relevanter XKCD: https://xkcd.com/1968/
A. S. schrieb: > Yep. Ich frage mich, ob die ganzen schlauen Leute, die heutzutage Ü40 > sind, auch mal jung waren und dann Engineeringprobleme hatten, die > niemand zuvor schon gelöst hatte. Du beist doch zu sehr am reinen Alter fest. Die Aussage ist eine andere: Heute ist die Ausbildung flacher und kürzer, was die Substanz schwinden lässt. Die kommen immer früher in den Arbeitsprozess, was die Qualität behindert. Das ist schon Gegenstand von Untersuchungen und belegt. Die Zahl der Anfängerfehler steigt und steigt in den Projekten. Früher gab es da klarere Hierarchien und mehr Redunanz. Viele Entwicklungen hatten mehr Zeit. Wenn man sich aber mal eine Art des schlampigen Entwickelns angelernt hat, kommt man davon nicht mehr weg. Die Einstellungspolitik vieler Firmen geht in die gleiche Richtung: Lieber billig und schmalbandig ausgebildet.
Hallhuber schrieb: > Heute ist die Ausbildung flacher und kürzer, was die Substanz schwinden > lässt. Falsch, die Ausbildung war früher genauso flach, aber es gab weniger Wissen, sodass "die Tiefe größer aussah" > Die kommen immer früher in den Arbeitsprozess, was die Qualität > behindert. Soweit mir bekannt ist das Durchschnittsalter der Berufseinsteiger nicht wesentlich gesunken. Und das Jahr Bundeswehr hat die Qualität sicher nicht gehoben. > Das ist schon Gegenstand von Untersuchungen und belegt. Bitte mal die Untersuchungen verlinken > Die Zahl der Anfängerfehler steigt und steigt in den Projekten. Oder die Zahl der Projekte in denen Anfänger signifikanten Einfluss haben steigt? > Früher gab es da klarere Hierarchien und mehr Redunanz. Viele > Entwicklungen hatten mehr Zeit. Wenn man sich aber mal eine Art des > schlampigen Entwickelns angelernt hat, kommt man davon nicht mehr weg. Du stellst also selber fest, dass die alten, angeblich gut ausgebildeten Säcke (die das zu entscheiden haben sind nicht die Jungen) die Budgets für Einarbeitung, Mitarbeiterführung Redundanz und Entwicklungszeit zusammenstreichen, schiebst aber die Schuld auf die Jungen angeblich schlecht ausgebildeten. Etwas Schizophren!
Uhh ... jetzt driftet es ab. Wenn es um die Intelligenz beim Menschen geht, versteht man keinen Spaß. Denn frei nach Wilhelm Busch: Ist jemand schlauer noch als wir, ist es selten ein Plaisir, Ist er jedoch dümmer, freut uns das fast immer. Hier ein fundierter Artikel über die Untersuchung des IQs über die Zeit: https://www.spektrum.de/news/warum-die-intelligenz-nicht-weiter-steigt/1612044 Ich bin ja ein Anhänger der These, dass Handies zur Verblödung beitragen ....
Beitrag #5815574 wurde vom Autor gelöscht.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.