mikrocontroller.net

Forum: FPGA, VHDL & Co. Neuronale SoCs im Anmarsch


Announcement: there is an English version of this forum on EmbDev.net. Posts you create there will be displayed on Mikrocontroller.net and EmbDev.net.
Autor: SOC-Designer (Gast)
Datum:

Bewertung
1 lesenswert
nicht lesenswert
https://www.invision-news.de/fachartikel/neuromorpher-soc/

Kann jemand damit was anfangen? Ich meine mit dem Thema und möglicher 
Anwendungen?

Autor: Stefanus F. (stefanus)
Datum:

Bewertung
1 lesenswert
nicht lesenswert
SOC-Designer schrieb:
> Kann jemand damit was anfangen?

Für mich klingt der ganze Artikel wie eine gewaltige Ansammlung von 
Bullshit Bingo Worten. Es könnte allerdings daran liegen, dass ich mit 
dem ganzen KI Kram ohnehin auf Kriegsfuß stehe - insbesondere was die 
Wortwahl angeht.

Jedenfalls kann ich diesem Artikel überhaupt nichts konkretes entnehmen, 
außer dem Versprechen, dass diese Firma wohl bald ganz groß raus kommen 
wird. Na dann, holt euch die Aktien. Ich verdiene lieber Geld mit 
ehrlicher Arbeit.

: Bearbeitet durch User
Autor: wendelsberg (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
>Laut Daten des Marktforschungsunternehmens Tractica wird der Markt für KI-
>Beschleuniger-ICs bis zum Jahr 2025 die 60Mrd. US-$ überschreiten,

Da hab ich aufgehoert, das zu lesen.

wendelsberg

Autor: S. R. (svenska)
Datum:

Bewertung
3 lesenswert
nicht lesenswert
SOC-Designer schrieb:
> Kann jemand damit was anfangen?

So spontan ist da eher wenig Inhalt drin.

Das Pixel 3 hat einen KI-Beschleuniger eingebaut, und die 
Google-Rechenzentren nutzen ebenfalls besondere ASICs für KI. Insofern: 
Ja, die Teile sind aus meiner Sicht sinn- und wertvoller als 
Bitcoin-Mining-ASICs, werden also kommen.

Allerdings ist KI derzeit nur sinnvoll für größere Firmen, weil nur die 
in der Lage sind, ausreichende Trainingsdaten für die interessanten 
Dinge zu beschaffen und zu verarbeiten. Mit dem normalen Heimcomputer 
wird das eher nichts, von der Verifikation des Ergebnisses ganz zu 
schweigen.

"Edge-Anwendung" klingt außerdem nach "der Chip macht nur Inferenz" 
(also das fertig trainierte Netz laufen lassen). Für low-power 
möglicherweise sinnvoll, ansonsten kann das eine CPU oder GPU auch. Von 
den "gepulsten neuronalen Netzen der dritten Generation" habe ich noch 
nie gehört, für Computer Vision sind CNNs (convolutional neural 
networks) aktuell.

Mal schauen. Uns bricht gerade das Technologiewachstum weg 
(Globalfoundries wird kein 7nm machen), also rennen gerade alle planlos 
umher und stürzen sich auf KI, in der Hoffnung, den nächsten Crash zu 
überleben. KNNs funktionieren noch immer deutlich anders als das 
Original, die wirklichen Meilensteine und Durchbrüche stehen uns da noch 
bevor.

Insofern ist der Artikel erstmal nur Marketinggeschwätz. 
Innovationsgeblubber halt.

: Bearbeitet durch User
Autor: Atemis H. (at0)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Es gibt eine Reihe von Forschungsprojekten und Unternehmen die in diesem
Bereich aktiv sind:

Intel Loihi
https://en.wikichip.org/wiki/intel/loihi

SpiNNaker
https://en.wikichip.org/wiki/university_of_manches...

Heidelberg University HICANN
https://www.kip.uni-heidelberg.de/vision/previous-...

FACETS EU gefördertes Projekt
http://facets.kip.uni-heidelberg.de/index.html

BrainScaleS - Nachfolgeprojekt von FACETS
http://brainscales.kip.uni-heidelberg.de/index.html

Human Brain Projekt, die Arbeiten von BrainScaleS werden als Teil des
HBP fortgesetzt:
https://www.humanbrainproject.eu/
https://education.humanbrainproject.eu/web/neuromo...

Weitere neuromorphen Chips sind IBM TrueNorth und Neurogrid
https://en.wikichip.org/wiki/neuromorphic_chip



Da ist im Grunde auch kein Hexenwerk dahinter. Die ersten Ansätze dafür 
gab es auch schon in den 60er.
Es ist ein logischer Entwicklungsschritt. Um immer leistungsfähigere 
neuronale Netze zu haben muss man sie eben in Hardware gießen.

Autor: Stefanus F. (stefanus)
Datum:

Bewertung
5 lesenswert
nicht lesenswert
Wenn man schon im Namen "Human Brain Project" trägt, sollte man schon 
mehr bieten nur als das Durchsuchen großer Datenmengen oder den Abgleich 
von Bildern.

Unter dem Begriff KI werden derzeit Algorithmen genannt, die strunz-doof 
sind. "Big Data" und "Maschine Learning" trifft es wohl eher. Beide 
zusammen ergibt aber noch laaaaaaange nicht Intelligenz.

Zur Zeit ist jede Stubenfliege Intelligenter, als das, was uns da 
präsentiert wird. Deswegen behaupt ich, dass es KI noch nicht gibt.

: Bearbeitet durch User
Autor: Atemis H. (at0)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
S. R. schrieb:
> Mal schauen. Uns bricht gerade das Technologiewachstum weg
> (Globalfoundries wird kein 7nm machen)

Technologischer Fortschritt besteht nicht nur in der Verkleinerung der 
Transistoren.
In Zukunft wird die mehrschichtige Struktur von Chips wohl an Bedeutung 
zunehmen.
Es wird schon heute gemacht aber es gibt einige Schwierigkeiten wenn man 
deutlich mehr Schichten auf ein Chip machen will.
Da kann man noch einiges an technologischer Arbeit leisten.

Wenn man effektiv große vertikale Strukturen auf einem Chip entwickelt 
kann die Packungsdichte als Volumen stark erhöht werden.

Die geschichtete Architektur verkürzt zudem Leitungswege und ermöglicht 
weitere Steigerungen der Taktrate.

S. R. schrieb:
> KNNs funktionieren noch immer deutlich anders als das
> Original, die wirklichen Meilensteine und Durchbrüche stehen uns da noch
> bevor.

Tatsache ist mit den heutigen Modellen der künstlichen neuronalen Netze 
kann man effektiv und ganz praktisch arbeiten.
Eine Verbesserung der neuronalen Modelle wird das bestehende befeuern.

Autor: Atemis H. (at0)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Stefanus F. schrieb:
> Wenn man schon im Namen "Human Brain Project" trägt, sollte man schon
> mehr bieten nur als das Durchsuchen großer Datenmengen oder den Abgleich
> von Bildern.
>
> Unter dem Begriff KI werden derzeit Algorithmen genannt, die strunz-doof
> sind. "Big Data" und "Maschine Learning" trifft es wohl eher. Beide
> zusammen ergibt aber noch laaaaaaange nicht Intelligenz.
>
> Zur Zeit ist jede Stubenfliege Intelligenter, als das, was uns da
> präsentiert wird. Deswegen behaupt ich, dass es KI noch nicht gibt.

Ich sehe schon, du hast deine eigene Definition von Intelligenz und 
lehnst alles ab was dem nicht nahe kommt.

Das Problem ist, was Intelligenz ist lässt sich nicht exakt bestimmen.
Aufgrund von technologischen Entwicklungen wurde die Definition dieses 
Begriffs aufgeweicht und ist unscharf geworden.

Früher konnte man Intelligenz beim Menschen verorten und nicht mal dem 
Tierreich zugestehen.
Doch dann musste die Forschung nach und nach einigen Lebewesen ein 
beachtliches Maß an Intelligenz zuschreiben.

Dann wurden die Computer immer leistungsfähiger und übernehmen immer 
mehr kognitive Arbeiten. Anfangs noch nach Mustern die wir Algorithmen 
nannten.
Doch es kommt wieder ein Wandel.
Das Zeitalter der lernfähigen Algorithmen ist angebrochen. Dynamische 
Systeme die nicht nur statisch vorprogrammierte Dinge können.


Das alles hat unser Verständnis von Intelligenz in Frage gestellt.
Manche Leute ignorieren und leugnen diese Entwicklung und isolieren sich 
mit einer persönlichen Festung gegen die Zweifel verbreitetende 
Entwicklung.

Ich denke der Begriff Intelligenz wird bis auf weiteres Unscharf bleiben 
bis die weitere Entwicklung uns ein besseres Verständnis gibt was 
Intelligenz eigentlich ist.

Autor: Stefanus F. (stefanus)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Atemis H. schrieb:
> Ich denke der Begriff Intelligenz wird bis auf weiteres Unscharf
> bleiben bis die weitere Entwicklung uns ein besseres Verständnis
> gibt was Intelligenz eigentlich ist.

Das hast du sehr schön formuliert. Es erklärt mein Unbehagen bei dem 
Begriff in einem einzigen Satz.

Autor: Karl (Gast)
Datum:

Bewertung
-1 lesenswert
nicht lesenswert
Stefanus F. schrieb:
> Zur Zeit ist jede Stubenfliege Intelligenter, als das, was uns da
> präsentiert wird. Deswegen behaupt ich, dass es KI noch nicht gibt.

Ja genau, weil man auch jeder Stubenfliege GO beibringen kann.

Autor: Stefanus F. (stefanus)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Karl schrieb:
>> Zur Zeit ist jede Stubenfliege Intelligenter, als das, was uns da
>> präsentiert wird. Deswegen behaupt ich, dass es KI noch nicht gibt.
> Ja genau, weil man auch jeder Stubenfliege GO beibringen kann.

Da wird sich sicher keiner vor den Computer gesetzt haben und gesagt 
haben "Hallo Computer, höre gut zu, denn jetzt erkläre ich Dir die 
Spielregeln von Go".

Glaube mir, das wurde programmiert. Dieser Computer war genau so 
unintelligent, wie die Schach-Computer der letzten 30 Jahre. Er war nur 
größer und schneller.

Autor: TriHexagon (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Stefanus F. schrieb:
> Karl schrieb:
>>> Zur Zeit ist jede Stubenfliege Intelligenter, als das, was uns da
>>> präsentiert wird. Deswegen behaupt ich, dass es KI noch nicht gibt.
>> Ja genau, weil man auch jeder Stubenfliege GO beibringen kann.
>
> Da wird sich sicher keiner vor den Computer gesetzt haben und gesagt
> haben "Hallo Computer, höre gut zu, denn jetzt erkläre ich Dir die
> Spielregeln von Go".

Nein noch besser, es hat sich das Spiel selber beigebracht (nach dem die 
Regeln "einprogrammiert" wurden).

Stefanus F. schrieb:
> Glaube mir, das wurde programmiert. Dieser Computer war genau so
> unintelligent, wie die Schach-Computer der letzten 30 Jahre. Er war nur
> größer und schneller.

Dann hast du dich nicht damit beschäftigt, da werkelte kein Montecarlo 
Algorithmus und suchte sich nach der Bewertungsfunktion den besten 
Spielzug raus, nachdem alle Spielzüge mit n Tiefen durchexerziert wurde. 
Go ist zu komplex, um das Problem so angehen zu können.

Besonders interessant und bemerkenswert ist die Tatsache, dass AlphaGo 
Zero komplett nur gegen sich gespielt hat und dabei die gleichen 
Strategien wie Menschen entwickelt hat, nur um diese dann mit besseren 
noch unbekannten Strategien zu ersetzen.

Natürlich gibt es momentan einen Hype und nun wird verzweifelt versucht 
das Thema Machine Learning überall durchzudrücken. Aber unterschätzen 
sollte man die Technik auf gar keinen Fall und mit den Ergebnissen von 
vor 30 Jahren vergleichen. Das zeugt nur von Ignoranz.

Autor: S. R. (svenska)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Atemis H. schrieb:
> S. R. schrieb:
>> Mal schauen. Uns bricht gerade das Technologiewachstum weg
>> (Globalfoundries wird kein 7nm machen)
>
> Technologischer Fortschritt besteht nicht nur in der
> Verkleinerung der Transistoren.

Das habe ich auch nicht behauptet.

Aber im Augenblick herrscht gerade gefühlte Planlosigkeit und alle 
rennen weg von "jetzt" zu einer ziemlich verwaschenen Vorstellung von 
"Zukunft". Das gibt sich aber irgendwann und dann werden auch neue 
Strukturen entstehen. Vielleicht bekommen wir auch Chips mit massiver 
Rechenleistung, geringem Stromverbrauch und wenigen kHz Taktfrequenz auf 
großer Fläche, wer weiß.

> S. R. schrieb:
>> KNNs funktionieren noch immer deutlich anders als das
>> Original, die wirklichen Meilensteine und Durchbrüche
>> stehen uns da noch bevor.
>
> Tatsache ist mit den heutigen Modellen der künstlichen
> neuronalen Netze kann man effektiv und ganz praktisch arbeiten.

Auch da hast du recht, man kann mit den bisherigen Methoden bestimmte 
Probleme einigermaßen effizient lösen, was mit klassischen Algorithmen 
wesentlich mehr Entwicklungsaufwand erfordern würde. Time-To-Market 
zählt.

Allerdings haben aktuelle neuronale Netze ziemlich harte Schwächen, weil 
man sie noch nicht ausreichend verstanden hat (Stichwort adversarial 
examples). An vielen Stellen stört das nicht weiter, aber ich sehe da 
noch viel Freude auf die Verantwortlichen zukommen. Das muss (und wird) 
noch eine Weile reifen.

Atemis H. schrieb:
> Ich sehe schon, du hast deine eigene Definition von Intelligenz und
> lehnst alles ab was dem nicht nahe kommt.
> [...]
> Ich denke der Begriff Intelligenz wird bis auf weiteres Unscharf bleiben
> bis die weitere Entwicklung uns ein besseres Verständnis gibt was
> Intelligenz eigentlich ist.

Ich lese das als: "Oh, deine Definition von Intelligenz entspricht nicht 
meiner Definition von Intelligenz, und eine universelle Definition von 
Intelligenz gibt es noch nicht. Das ist jetzt aber dumm." ;-)

Im Augenblick treibt das Marketing die ganzen Begrifflichkeiten vor sich 
her, die Hypes kommen gefühlt immer schneller und vor allem früher. Mit 
der Stabilisierung wird sich das beruhigen, aber ich fürchte, dass die 
jetzt üblichen Begriffe alle nochmal neu belegt werden werden.

> Das Zeitalter der lernfähigen Algorithmen ist angebrochen.
> Dynamische Systeme die nicht nur statisch vorprogrammierte
> Dinge können.

Die Algorithmen sind überhaupt nicht lernfähig, die sind so statisch wie 
eh und je. Sie sind nur wesentlich freier parametrierbar als klassische 
Algorithmen, weil wir Wege gefunden haben, sie automatisch - mit 
extremem Aufwand! - gebrauchbar zu parametrieren.

Was die Parameter genau bedeuten, wissen wir nicht und wollen wir auch 
nicht wissen. Die Grundlagen (v.a. die notwendige nichtlineare 
Mathematik) fehlen, also können wir es auch nicht wissen.

Das Ganze fühlt sich irgendwie an wie in der Industrialisierung, als man 
mit Maschinen die ersten Probleme halbwegs zuverlässig gelöst hat, aber 
ohne die eigentlichen Grundlagen zu verstehen. Am Automobil musste noch 
ein Jahrhundert gearbeitet werden, bis man endlich die Abgasregelungen 
kreativ umgehen konnte - ähnlich wird mit KI auch sein.

In 50 oder 100 Jahren wird die Menschheit wissen, wie der Scheiß 
funktioniert (oder fast ausgestorben sein). Im Augenblick haben wir 
Lösungen für Probleme, stochern aber sonst nur im Nebel.

> Das alles hat unser Verständnis von Intelligenz in Frage gestellt.
> Manche Leute ignorieren und leugnen diese Entwicklung und isolieren sich
> mit einer persönlichen Festung gegen die Zweifel verbreitetende
> Entwicklung.

Ich brauchte eine längliche Erklärung und ein paar Spiele, um 
einigermaßen Backgammon zu lernen. Dazu noch ein paar Spiele gegen 
jemanden, der mich nicht nur schlägt, sondern mir auch erklärt, warum. 
Und das reichte, um einigermaßen passabel zu spielen.

Das ist ein deutlicher Unterschied zu "jetzt lassen wir mal zwei KIs ein 
paar hunderttausend Spiele gegeneinander spielen und gucken, wie gut sie 
es dann können". Zumal man das Regelwerk trotzdem einprogrammieren muss.

Karl schrieb:
> Ja genau, weil man auch jeder Stubenfliege GO beibringen kann.

Das Hirn einer Stubenfliege ist mit "überleben" aber vollständig 
ausgelastet, was dein Go-Computer nicht ist. Du kannst ja mal 99.9% der 
Rechenleistung blockieren und dann bei Null anfangen zu trainieren. 
Vermutlich sind beide Systeme dann ähnlich effizient (wobei der Computer 
vermutlich länger lebt als die Fliege, also trotzdem im Vorteil ist). 
;-)

Autor: Atemis H. (at0)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
S. R. schrieb:
> Allerdings haben aktuelle neuronale Netze ziemlich harte Schwächen, weil
> man sie noch nicht ausreichend verstanden hat (Stichwort adversarial
> examples). An vielen Stellen stört das nicht weiter, aber ich sehe da
> noch viel Freude auf die Verantwortlichen zukommen. Das muss (und wird)
> noch eine Weile reifen.

Man versteht auch noch nicht umfassend wie das menschliche Gehirn 
funktioniert. Trotzdem scheut man sich nicht davor es überall anzuwenden 
;)

S. R. schrieb:
> Die Algorithmen sind überhaupt nicht lernfähig, die sind so statisch wie
> eh und je.

Ich könnte besser auf diesen Satz antworten wenn ich wüsste was du denn 
genau unter Lernfähigkeit verstehst.
Das Konzept der neuronalen Netze gilt als Lernsystem.
Ich finde man sollte auch nicht den Fehler machen zu glauben dass 
Definition von Algorithmen nur für Computer gelten. Auch Naturphänomene 
können als ein Algorithmus aufgefasst werden.
Auch die biologische Architektur von echten Gehirnen lässt sich als 
Algorithmus betrachten. Wobei das Gehirn wohl eher ein System mit 
diversen biologischen Algorithmen darstellt.

Auch Menschen sind eingeschränkt was kognitive Fähigkeiten angeht. Auch 
der Mensch kann nur das lernen und in dem Umfang wie es seine 
biologische Natur vorsieht.
Der Mensch bewegt sich innerhalb bestimmter biologischer Parameter.

Letztendlich kann man das ganze menschliche Verhaltensspektrum auf die 
neuronalen Mechanismen im Gehirn runterbrechen.
Und die Neuronen haben eine bestimmte Funktionsweise. Das kann man auch 
als Algorithmus beschreiben und simulieren.


Ich kann jedem das Buch "Geist im Netz" empfehlen. Es ist alt und man 
kriegt es für ein paar Euros. Die Grundlagen die darin sehr verständlich 
erklärt werden sind immer noch korrekt. Es vermittelt einen guten 
Eindruck was in neuronalen Netzen genau passiert, zumindest im Prinzip. 
Es gibt ja verschiedene Arten von KNNs mit unterschiedlichen 
Eigenschaften.

Autor: Doctor Snuggles (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
S. R. schrieb:
> Ich brauchte eine längliche Erklärung und ein paar Spiele, um
> einigermaßen Backgammon zu lernen. Dazu noch ein paar Spiele gegen
> jemanden, der mich nicht nur schlägt, sondern mir auch erklärt, warum.
> Und das reichte, um einigermaßen passabel zu spielen.
>
> Das ist ein deutlicher Unterschied zu "jetzt lassen wir mal zwei KIs ein
> paar hunderttausend Spiele gegeneinander spielen und gucken, wie gut sie
> es dann können". Zumal man das Regelwerk trotzdem einprogrammieren muss.


Auch ein Mensch hat Regeln einprogrammiert bekommen. Das steckt halt in 
den Genen. Ohne geht es nicht. Insofern kein Unterschied.
Allerdings ist es richtig, dass die aktuelle Form der KI noch nicht der 
Weisheit letzter Schluss ist und sich von der natürlichen stark 
unterscheidet.
Einem Kleinkind zeigt man drei, vier Bilder von einem Hund und danach 
identifiziert es ziemlich zuverlässig Hunde auf allen Bildern.
Ein CNN wird auch nach dem Lernen durch mehr als 100.000 Bilder 
vielleicht auf eine Quote von 70 oder 80 Prozent kommen.

Autor: Atemis H. (at0)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Doctor Snuggles schrieb:
> Einem Kleinkind zeigt man drei, vier Bilder von einem Hund und danach
> identifiziert es ziemlich zuverlässig Hunde auf allen Bildern.
> Ein CNN wird auch nach dem Lernen durch mehr als 100.000 Bilder
> vielleicht auf eine Quote von 70 oder 80 Prozent kommen.

Das kann verschiedene Gründe haben. Ein so trainiertes CNN sucht nur 
nach Hunden im Bild.
Was auch nicht wirklich natürlich ist.

Menschen identifizieren in einer Szenerie viele Objekte. Wenn ich ein 
Objekt als Felsen erkenne dann weiß ich dass es kein Hund sein kann.

Und Menschen assoziieren bestimmte Verhältnisse und Objekte miteinander.
Wenn ein CNN Kieselsteine erkennen soll und auf einem Bild Kieselsteine 
auf dem Teller eines gedeckten Tisches erkennt, gibt es keine Irritation 
für das CNN.
Es kann ja auch sein dass auf diesem einen Bild wirklich Kieselsteine 
serviert werden :D

Aber der Mensch bezieht diese Verhältnisse mit ein in seine Wahrnehmung. 
Wenn etwas komisch und ungewöhnlich erscheint schaut man genauer hin und 
im Zweifel hält man sich zurück mit einem Urteil.
Vielleicht sind die Kieselsteine keine echten Steine sondern bestehen 
aus essbarer Knete die optisch wie Steine aussehen?
Möglichkeiten aus Erfahrungen kombinierend einbeziehen ist auch eine 
Sache die ein CNN, das nur ein Muster erkennt, nicht kann.

Mustererkennung ist nicht Denken.

Der Unterschied ist einfache künstliche neuronale Netze sind eher so was 
wie einzelne Funktionen.
Das menschliche Gehirn ist ein System mit vielen gekoppelten neuronalen 
Funktionen.

: Bearbeitet durch User
Autor: Jan H. (j_hansen)
Datum:

Bewertung
1 lesenswert
nicht lesenswert
Stefanus F. schrieb:
> Unter dem Begriff KI werden derzeit Algorithmen genannt, die strunz-doof
> sind. "Big Data" und "Maschine Learning" trifft es wohl eher. Beide
> zusammen ergibt aber noch laaaaaaange nicht Intelligenz.

Das ist, denke ich, eine ziemlich gute Zusammenfassung des aktuellen 
Status. Alpha Go war schon eine coole Leistung, und digitale Assistenten 
wie Alexa sind auch beeindruckend. Abseits dessen aber Landauf Landab 
nur Mustererkennung und Lösung sucht Problem.

Autor: S. R. (svenska)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Atemis H. schrieb:
> Trotzdem scheut man sich nicht davor es überall anzuwenden ;)

Es gibt immer jemanden, der etwas anwendet, ohne es ausreichend zu 
verstehen. Die Folge sind dann so Dinge wie FCKW, Tschernobyl, 
arabischer Frühling, Facebook-Skandale etc.pp.

Das ist kein Argument.

>> Die Algorithmen sind überhaupt nicht lernfähig,
>> die sind so statisch wie eh und je.
>
> Ich könnte besser auf diesen Satz antworten wenn ich wüsste
> was du denn genau unter Lernfähigkeit verstehst.

Ein KI-System heutiger Ausprägung (also z.B. ein CNN) wird vor dem 
Einsatz trainiert, dann zurechtgestutzt, dann nochmal nachtrainiert und 
schließlich eingesetzt. Es lernt im Betrieb genau garnichts mehr.

Die Algorithmen, die in CNNs benutzt werden, sind ebenfalls nicht 
lernfähig, denn sie sind von Menschen entworfen und in Computer fix 
einprogrammiert worden. Sie ändern sich nie.

Selbst das eigentliche CNN ist in der Trainingsphase statisch, denn die 
Struktur des Netzes wird festgelegt und ändert sich nicht. Die 
"Plastizität" des Gehirns, die nach geltender Lehrmeinung einen 
wesentlichen Bestandteil unseres Seins ist, fehlt.

> Das Konzept der neuronalen Netze gilt als Lernsystem.

Das Gesamtsystem kann trainiert werden und damit "lernen", womit 
derzeit eigentlich nur eine (extrem aufwändige) Parametrierung eines 
(extrem flexiblen) vorgegebenen Systems gemeint ist.

> Ich finde man sollte auch nicht den Fehler machen zu glauben dass
> Definition von Algorithmen nur für Computer gelten. Auch Naturphänomene
> können als ein Algorithmus aufgefasst werden.

Ein Algorithmus ist erstmal nur ein Satz von Regeln, um aus einer 
Eingabe A eine Ausgabe B zu produzieren. Ein System ist genau dann 
lernfähig, wenn es sich an die Umgebung/Erfordernisse anpassen kann.

Daraus folgt: Ein Algorithmus ist dann lernfähig, wenn er sich selbst 
den Erfordernissen anpassen kann. Das ist für sämtliche derzeitig 
relevanten KI-Systeme nicht der Fall, denn sie programmieren sich nicht 
selbst.

Solche Netzwerke werden "trainiert". Kraftsport ist "Training", nicht 
"Lernen" - aus dem gleichen Grund.

> Auch Menschen sind eingeschränkt was kognitive Fähigkeiten angeht. Auch
> der Mensch kann nur das lernen und in dem Umfang wie es seine
> biologische Natur vorsieht.
> Der Mensch bewegt sich innerhalb bestimmter biologischer Parameter.

Jaein. Der Mensch ist zu komplexer Abstraktion fähig, die über das 
hinausgeht, was im Hirn einprogrammiert ist. Sonst hätten wir keine 
Mathematik. Natürlich bewegt sich das alles innerhalb bestimmter 
Parameter, aber das gilt für jedes System. Bei Computern sind 
Rechenleistung und Speicher auch begrenzt.

> Letztendlich kann man das ganze menschliche Verhaltensspektrum auf die
> neuronalen Mechanismen im Gehirn runterbrechen.

Ja, könnte man. Kann man aber nicht, weil man es eben nicht versteht. 
Wir sind weit davon weg.

> Und die Neuronen haben eine bestimmte Funktionsweise. Das kann man auch
> als Algorithmus beschreiben und simulieren.

Ja, könnte man. Kann man aber nicht, weil man es eben nicht versteht. 
Wir sind noch immer relativ weit davon weg. Zudem sind biologische 
Neuronen im Vergleich zu technischen Neuronen hochgradig unfähig ("an 
einem guten Tag ist nicht alles Rauschen"), aber es ist nicht klar, 
welchen Einfluss das auf die Gesamtleistung des Systems "Hirn" hat.

Vielleicht ist die massiv behinderte Signalverarbeitung im Hirn der 
Grund dafür, dass wir mit seltsamen Eingaben besser klarkommen als 
KI-Systeme.

> Es vermittelt einen guten Eindruck was in neuronalen Netzen
> genau passiert, zumindest im Prinzip.

Ich hab ein paar Vorlesungen zu KNNs gehört (sowie auch zu anderen 
KI-Algorithmen, die gerade aussterben, z.B. genetische Algorithmen) und 
weiß relativ genau, wie so ein System im Prinzip funktioniert. Außerdem 
komme ich auf Arbeit damit ständig in Berührung.

Ich lasse mich nur nicht davon hypen, dass gerade die ersten halbwegs 
funktionierenden Prototypen auf den Markt geschmissen werden getreu dem 
Motto "biete Lösung, suche Problem".

Das Potential ist vorhanden, KI wird sich auch durchsetzen, aber bis 
dahin haben wir noch einen langen Weg suboptimaler Technologie. Und ein 
im Prinzip beweisbarer Algorithmus ist mir grundsätzlich lieber als ein 
trainiertes System, wo man im Ergebnis nichtmal rauskriegen kann, was es 
jetzt eigentlich gelernt hat.

Wie das Beispiel von Google: Das System hat "Hantel" nur mit Arm dran 
korrekt erkannt. Weil Hanteln meist mit nem Arm dran auf Bildern 
erscheinen.

Autor: Upps (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Da war eine Doku wo ein neuronales Netz ein Symptom bei Kranken gefunden 
hat das nichtmal die Ärzte kannten ...war eine Auffälligkeit beim 
Sprechen von Depressiven oder so.

Autor: C. A. Rotwang (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Upps schrieb:
> Da war eine Doku wo ein neuronales Netz ein Symptom bei Kranken gefunden
> hat das nichtmal die Ärzte kannten ...war eine Auffälligkeit beim
> Sprechen von Depressiven oder so.

Kalter Kaffee, stand schon vor ca. 20 Jahren im Spiegel, das man 
Suizidgefährdete an der Stimme erkennt:
http://www.spiegel.de/wissenschaft/mensch/psyche-grabesstimme-verraet-starke-depressionen-a-89469.html

Autor: Jürgen S. (engineer) Benutzerseite
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Mit solchen Dingen muss man vorsichtig sein, denn das führt gerne mal 
dazu, dass Personen, deren Stimme ins Schema passt, als gefährdet 
eingestuft werden.

Selbige falschen Schlussfolgerungen findet man auch bei den neuronalen 
Netzen, seien sie selbstlernend oder nicht.

Ich habe mir den Artikel durchgelesen und sehe da nichts konkretes, was 
wirklich neu wäre.

Autor: Mach (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
S. R. schrieb:
> Selbst das eigentliche CNN ist in der Trainingsphase statisch, denn die
> Struktur des Netzes wird festgelegt und ändert sich nicht. Die
> "Plastizität" des Gehirns, die nach geltender Lehrmeinung einen
> wesentlichen Bestandteil unseres Seins ist, fehlt.
Das ist eine sehr scharfsinnige Erkenntnis! Dass sich die menschliche 
Intelligenz aus einem riesen Bauwerk an verschiedener "kuenstlicher" 
Intelligenz zusammensetzt, die sich auch noch selbst strukturiert. In 
einer Komplexitaet, die man nicht nachbauen kann. So hab ich dich 
zumindest verstanden.

In der Mechanik ist das aber auch so. Die menschliche (oder tierische) 
Bewegung ist nicht nachzubilden. Beim Laufen werden zig Muskeln 
koordiniert. Technisch realisiert man bewegung meist ueber Drehungen, 
Vom Motor ueber Zahnraeder, Riemen bis zum Rad. Auf die Bewegung bezogen 
eigentlich fast schon primitiv, obwohl Verbrennungsmotoren aus vielen, 
vielen Einzelteilen bestehen. Die einfache Drehbewegung laesst sich aber 
skalieren, sodass der Mensch in vielen Situationen der Maschine 
unterlegen ist, nicht nur kraftmaesig, auch was praezission anbelangt. 
Jodoch ist jede Maschine nur fuer ihren einen Zweck zu gebrauchen (von 
svhweizer Taschenmessern mal abgesehen ;-).
Und so kann es mit der KI auch kommen, bzw. ist es jetzt schon. KI kann 
einer Stimme einen Dialekt verpassen, der Mensch ist dazu nicht in der 
Lage, da ihm die Schnittstellen fehlen (Soundkarte). In solchen 
Spezialanwendungen kommt man vielleicht ueberhaupt nur mit KI weiter.

> Das Potential ist vorhanden, KI wird sich auch durchsetzen, aber bis
> dahin haben wir noch einen langen Weg suboptimaler Technologie. Und ein
> im Prinzip beweisbarer Algorithmus ist mir grundsätzlich lieber als ein
> trainiertes System, wo man im Ergebnis nichtmal rauskriegen kann, was es
> jetzt eigentlich gelernt hat.

Autor: Christoph Z. (christophz)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Jan H. schrieb:
> Stefanus F. schrieb:
>> Unter dem Begriff KI werden derzeit Algorithmen genannt, die strunz-doof
>> sind. "Big Data" und "Maschine Learning" trifft es wohl eher. Beide
>> zusammen ergibt aber noch laaaaaaange nicht Intelligenz.
>
> Das ist, denke ich, eine ziemlich gute Zusammenfassung des aktuellen
> Status. Alpha Go war schon eine coole Leistung, und digitale Assistenten
> wie Alexa sind auch beeindruckend. Abseits dessen aber Landauf Landab
> nur Mustererkennung und Lösung sucht Problem.

Upps schrieb:
> Da war eine Doku wo ein neuronales Netz ein Symptom bei Kranken gefunden
> hat das nichtmal die Ärzte kannten ...war eine Auffälligkeit beim
> Sprechen von Depressiven oder so.

Gerade mit den gerade explodierenden Verarbeitungsleistungen der 
Neuronalennetzen (schnellere Rechner, schnellerer Speicher, KNN 
Beschleuniger ASICs, KNN Beschleuniger Cores in FPGAs) wird die 
Mustererkennung auf massiven Datenbergen erschwinglicher und 
anwendbarer.

Das ist allem voran ein Werkzeug, wie z. B. ein Teleskop. Was ein 
gefundenes Muster schlussendlich aussagt (ist es Ursache oder Wirkung, 
wie gross ist die statistische Aussagekraft etc.).
Ich denke, gerade in der Medizinischen- und Grundlagenforschung wird es 
ein mächtiges und bedeutendes Werkzeug werden (oder ist es je nach 
Bereich schon, z. B. Gen Forschung).

Autor: Atemis H. (at0)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Immer wieder interessant wie die Entwicklung von einigen anscheinend 
unterschätzt wird weil sie die Ideen für alten Schinken halten.

Künstliche Neuronale Netze kennt man schon viele Jahrzehnte. Wieso hat 
man nicht damals die erst heute langsam wachsenden Anwendungsbereiche 
erschlossen?

Wenn man bedenkt dass für viele Anwendungen keine schrecklich große 
Rechenleistung benötigt wird. Man hätte medizinische Aufnahmen sicher 
schon in den 70er oder 80er mit KNNs auswerten können.

Könnte die rege Anwendung heute auf gesellschaftliche Veränderungen 
zurückzuführen sein?
Der Hype und der Fortschritt in den Köpfen sorgt sicher für mehr 
Offenheit in ernsthaften Anwendungsgebieten.

Ein weiteres Beispiel sind neuromorphe Chips. Das Thema könnte man auch 
schön abwerten mit "alt" und "gibt es schon lange" oder "alles schon mal 
da gewesen".
Schließlich hat schon Karl Steinbuch in den 60er solche Möglichkeiten 
mit seiner Lernmatrix aufgezeigt.
Aber erst heute gibt es ernsthafte Entwicklungen in dem Bereich und 
Unternehmen wie Google nutzen es in immer größerem Umfang.

Welche "alten Ideen" warten wohl noch darauf ernst genommen zu werden?

Autor: Atemis H. (at0)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Da man Psychologen gegenüber etwas vorspielen kann wäre es übrigens eine 
interessante Idee in Zukunft für bestimmte Berufsgruppen psychologische 
Tests mit KNNs vorauszusetzen.

Ich denke da an Politiker, Militärangehörige, Polizisten oder Ärzte. 
Wäre schön wenn man eine objektive u. effiziente Methode hätte die 
psychisch kranken und Psychopathen aus diesen gesellschaftlichen 
Positionen raus zu halten.
Hätte es das in der Vergangenheit gegeben wäre uns vielleicht so mancher 
wahnsinniger Führer erspart geblieben.

Autor: Stefanus F. (stefanus)
Datum:

Bewertung
-1 lesenswert
nicht lesenswert
Atemis H. schrieb:
> Welche "alten Ideen" warten wohl noch darauf ernst genommen zu werden?

Bill Gates Kühlschrank, der Essen automatisch nachbestellt. Den hat er 
in den 80er Jahren zum ersten mal präsentiert und seit dem immer wieder 
mal. Wirklich sinnvoll funktionieren tut er immer noch nicht.

Autor: Atemis H. (at0)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Atemis H. schrieb:
> Wäre schön wenn man eine objektive u. effiziente Methode hätte die
> psychisch kranken und Psychopathen aus diesen gesellschaftlichen
> Positionen raus zu halten.

Das möchte ich noch ergänzen um Missverständnisse zu vermeiden:
Ich meine damit natürlich nicht dass man Menschen aufgrund psychischer 
Erkrankungen diskriminieren soll.
Ich denke da eher an gefährliche Erkrankungen der Psyche. Solche Leute 
sollten lieber keine gesellschaftlichen Befugnisse erhalten womit sie 
viel Schaden anrichten können.

Autor: Atemis H. (at0)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Stefanus F. schrieb:
> Bill Gates Kühlschrank, der Essen automatisch nachbestellt. Den hat er
> in den 80er Jahren zum ersten mal präsentiert und seit dem immer wieder
> mal. Wirklich sinnvoll funktionieren tut er immer noch nicht.

Das ist eine der Ideen wo ich mich frage wie sinnvoll das wirklich ist.

Ich habe beispielsweise Milchpackungen im Schrank und tue immer die 
geöffnete in den Kühlschrank.
Wie soll das System nun erkennen wo und ob ich noch Milch Zuhause habe?
Ich will natürlich kein Aufwand betreiben um das System ständig auf dem 
laufenden zu halten, darauf hat langfristig niemand Lust.

Autor: Stefanus F. (stefanus)
Datum:

Bewertung
-1 lesenswert
nicht lesenswert
Atemis H. schrieb:
> Atemis H. schrieb:
>> Wäre schön wenn man eine objektive u. effiziente Methode hätte die
>> psychisch kranken und Psychopathen aus diesen gesellschaftlichen
>> Positionen raus zu halten.
>
> Das möchte ich noch ergänzen um Missverständnisse zu vermeiden:
> Ich meine damit natürlich nicht dass man Menschen aufgrund psychischer
> Erkrankungen diskriminieren soll.
> Ich denke da eher an gefährliche Erkrankungen der Psyche. Solche Leute
> sollten lieber keine gesellschaftlichen Befugnisse erhalten womit sie
> viel Schaden anrichten können.

Du forderst da etwas, dass längst Realität ist. Gefährliche Verrückte 
werden bereits weg gesperrt. Mann nennt es nur schöner.

Autor: Stefanus F. (stefanus)
Datum:

Bewertung
-1 lesenswert
nicht lesenswert
Atemis H. schrieb:
>> Bill Gates Kühlschrank, der Essen automatisch nachbestellt.
> Das ist eine der Ideen wo ich mich frage wie sinnvoll das wirklich ist.

Eben, das ist eine kindische Idee, die er öffentlich präsentiert hat, 
bevor er ernsthaft darüber nachgedacht hat.

Aber Sch*** kommt immer wieder von alleine hoch.

1998: 
https://www.computerwoche.de/a/intelligenter-kuehlschrank-bestellt-nachschub-im-internet,504913

2014: 
http://www.ekitchen.de/kuechengeraete/kuehlschrank/ratgeber/vernetzter-kuehlschrank-wlan-14499.html

2015: https://t3n.de/news/amazon-dash-service-644943/

2016: 
https://www.golem.de/news/liebherr-wenn-der-kuehlschrank-mitdenkt-1609-123066.html

Aktuell: 
https://blog.liebherr.com/hausgeraete/de/microsoft-und-liebherr-arbeiten-an-der-neuen-generation-smarter-kuhlschranke/

Das sind nur ein paar beispiele, die ich in 5 Minuten mit Google 
gefunden habe. Berichte aus den 80er findet man kaum, da gab es das 
Internet noch nicht in der heutigen Form.

: Bearbeitet durch User
Autor: Atemis H. (at0)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Stefanus F. schrieb:
> Eben, das ist eine kindische Idee, die er öffentlich präsentiert hat,
> bevor er ernsthaft darüber nachgedacht hat.

Manchmal muss man eine Idee auch nur etwas abwandeln.
Amazon hat doch diese Dash Buttons. Man drückt einmal drauf und es wird 
automatisch bestellt.

Autor: Stefanus F. (stefanus)
Datum:

Bewertung
-1 lesenswert
nicht lesenswert
Atemis H. schrieb:
> Manchmal muss man eine Idee auch nur etwas abwandeln.
> Amazon hat doch diese Dash Buttons. Man drückt einmal drauf und es wird
> automatisch bestellt.

Doch zugleich wies Amazon im jahr 2015 darauf hin, dass das 
vollautomatische System (eben das ohne Dash Button) marktreif sei.

Autor: mh (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Atemis H. schrieb:
> Künstliche Neuronale Netze kennt man schon viele Jahrzehnte. Wieso hat
> man nicht damals die erst heute langsam wachsenden Anwendungsbereiche
> erschlossen?
Vllt. weil das alles doch nicht so eifach ist, und man kritischer 
gegenüber KNNs war? Oder vllt. weil in vielen Bereiche in denen KNNs 
heute tatsächlich helfen können das Grundlagenwissen gefehlt hat. Ein 
trainiertes KNN kann Muster erkennen, aber nicht erklären, wie die 
Muster zustande kommen.
> Wenn man bedenkt dass für viele Anwendungen keine schrecklich große
> Rechenleistung benötigt wird. Man hätte medizinische Aufnahmen sicher
> schon in den 70er oder 80er mit KNNs auswerten können.
Für welche ernsthaften Anwendungen braucht man den "keine schreklich 
große Rechenleistung"? Das Anwenden eines bekannten KNNs ist heufig 
günstig. Beim Trainieren des KNN sieht das anders aus, von der 
Entwickelungsphase mal ganz abgesehen.

Autor: Atemis H. (at0)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
mh schrieb:
> Für welche ernsthaften Anwendungen braucht man den "keine schreklich
> große Rechenleistung"?

Hätte man das Trainieren nicht mit den damaligen Großrechnern erledigen 
können? In der täglichen Anwendung kommen dann ja die trainierten Netze 
zum Einsatz.

mh schrieb:
> Vllt. weil das alles doch nicht so eifach ist, und man kritischer
> gegenüber KNNs war? Oder vllt. weil in vielen Bereiche in denen KNNs
> heute tatsächlich helfen können das Grundlagenwissen gefehlt hat. Ein
> trainiertes KNN kann Muster erkennen, aber nicht erklären, wie die
> Muster zustande kommen.

Welches Grundlagenwissen soll das sein?
KNNs werden heute beispielsweise zum erkennen von Krebszellen 
eingesetzt. Die Art wie man die Netze darauf trainiert wäre vor 30 
Jahren doch auch die selbe gewesen.


Um mal etwas zu provozieren, ich würde sagen teilweise hat da eine 
Generation schlichtweg geschlafen und außer ein paar Fachleute (die ohne 
Investitionen auch nicht weit kommen) hat die Masse das Potenzial nicht 
erkannt.

: Bearbeitet durch User
Autor: Atemis H. (at0)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Angeblich ruhte damals die Forschung an neuronalen Netzen weil Marvin 
Minsky nachwies dass das Perceptron Netz keine XOR Logik beherrscht.
Ich versteh das bis heute nicht.
Wieso sollte die Forschung ruhen weil eine ganz bestimmte Art von 
neuronalem Netz (einschichtige) keine XOR Logik berechnen kann.

Waren die Forscher so engstirnig dass es Jahre dauerte bis einer auf die 
Idee kam "lasst uns doch mal eine zweite Zwischenschicht einbauen"?
Eventuell lag es auch an mathematischen Schwierigkeiten, man wollte 
vielleicht nichts versuchen was man vorher nicht mathematisch 
beschreiben kann.
So dauert es dann natürlich lange. Manchmal ist es besser etwas zu 
entdecken und die Mathematik davon später zu begreifen.

Autor: Axel Zucker (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Atemis H. schrieb:
> Angeblich ruhte damals die Forschung an neuronalen Netzen weil Marvin
> Minsky nachwies dass das Perceptron Netz keine XOR Logik beherrscht.
> Ich versteh das bis heute nicht.

Sie ruhte nicht, sie war still.
Es war schliesslich nachgewiesen, das das neuronale netz wie damals 
verstanden kein "vollständiges System" abbilden konnte und es damit 
nicht möglich mit einem solchen Network eine Lösung zu generieren.

Ähnlich wie Kurt Gödels Unvollständigkeitssatz nachwies das Hilberts 
Programm der Prinicipa mathematica" von vorneherein zum Scheitern 
verurteilt war.

Autor: Christoph Z. (christophz)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Atemis H. schrieb:
> Wenn man bedenkt dass für viele Anwendungen keine schrecklich große
> Rechenleistung benötigt wird. Man hätte medizinische Aufnahmen sicher
> schon in den 70er oder 80er mit KNNs auswerten können.
>
> Könnte die rege Anwendung heute auf gesellschaftliche Veränderungen
> zurückzuführen sein?
> Der Hype und der Fortschritt in den Köpfen sorgt sicher für mehr
> Offenheit in ernsthaften Anwendungsgebieten.

Vielleicht liegt ein Körnchen Wahrheit darin in meiner Vermutung, dass 
es sich langsam auszahlt Medizinern, Psychologen, Soziologen, 
Wirtschaftswissenschafftlern in ihrer Ausbildung Computer- und 
Programmiergrundlagen bei zu bringen.

Die KNNs werden heute wohl meistens mit verbreiteten high-level Sprachen 
und mächtigen Libraries (Python, Matlab, Stackoverflow ;-)) 
zusammengebastelt. Denke das macht schon einen massiven Unterschied aus 
zu anfangs 70er als auf den wenigen Computern auch um die Rechenzeit 
mitten in der Nacht gestritten wurde.

Autor: Atemis H. (at0)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Hier mal ein Auszug aus Wikipedia, es ist wirklich aus heutiger Sicht 
irritierend wie man das XOR Problem so aufbauschte obwohl es leicht zu 
lösen war. Vermutlich ging es in Wahrheit gar nicht um das XOR Problem 
sondern um grundlegendere Differenzen in den Anschauungen bezüglich 
intelligenter Systeme:

XOR-Problem

Frank Rosenblatt zeigte, dass ein einfaches Perzeptron mit zwei 
Eingabewerten und einem einzigen Ausgabeneuron zur Darstellung der 
einfachen logischen Operatoren AND, OR und NOT genutzt werden kann. 
Marvin Minsky und Seymour Papert wiesen jedoch 1969 nach, dass ein 
einlagiges Perzeptron den XOR-Operator nicht auflösen kann (Problem der 
linearen Separierbarkeit). Dies führte zu einem Stillstand in der 
Forschung der künstlichen neuronalen Netze.

Die in diesem Zusammenhang zum Teil äußerst polemisch geführte 
Diskussion war letztlich ein Richtungsstreit zwischen den Vertretern der 
symbolischen Künstlichen Intelligenz und der „Konnektionisten“ um 
Forschungsgelder. Frank Rosenblatt hatte zwar gezeigt, dass logische 
Operatoren wie XOR (identisch zur Zusammensetzung OR but NOT AND) durch 
Verwendung eines mehrlagigen Perzeptrons beschrieben werden können, er 
starb jedoch zu früh, um sich gegen die Angriffe seiner KI-Kollegen zu 
wehren.

https://de.wikipedia.org/wiki/Perzeptron#XOR-Problem


Doch die Einsicht siegte dann wohl:

Rosenblatt konnte auf das Buch Minskys nicht mehr reagieren, da er kurz 
vor dessen Veröffentlichung bei einem Bootsunfall ums Leben kam. 
Ironischerweise wandte sich Minsky in den 1980er Jahren selbst 
neuronalen Netzen zu und seine Forschungen basierten auf den Ergebnissen 
Rosenblatts.

https://de.wikipedia.org/wiki/Frank_Rosenblatt

: Bearbeitet durch User
Autor: mh (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Atemis H. schrieb:
> mh schrieb:
>> Für welche ernsthaften Anwendungen braucht man den "keine schreklich
>> große Rechenleistung"?
>
> Hätte man das Trainieren nicht mit den damaligen Großrechnern erledigen
> können? In der täglichen Anwendung kommen dann ja die trainierten Netze
> zum Einsatz.
Weil man zum trainieren auch heute noch aktuelle Großrechner benötigt?

> mh schrieb:
>> Vllt. weil das alles doch nicht so eifach ist, und man kritischer
>> gegenüber KNNs war? Oder vllt. weil in vielen Bereiche in denen KNNs
>> heute tatsächlich helfen können das Grundlagenwissen gefehlt hat. Ein
>> trainiertes KNN kann Muster erkennen, aber nicht erklären, wie die
>> Muster zustande kommen.
>
> Welches Grundlagenwissen soll das sein?
> KNNs werden heute beispielsweise zum erkennen von Krebszellen
> eingesetzt. Die Art wie man die Netze darauf trainiert wäre vor 30
> Jahren doch auch die selbe gewesen.
Ich habe absichtlich "vielen Bereichen" geschrieben und nicht "allen".

Ich kenne mich mit der Krebsforschung nicht aus. Ich vermute die 
Krebszellen Erkennung basiert auf "Fotos" der Krebszellen? Wenn ja, wie 
gut war vor 30 Jahren die Technik, um Fotos mit genügen hoher Auflösung 
in genügen großer Anzahl in den Computer zu bekommen? Und wie groß ist 
der Rechenaufwand, um ein Netz zu trainieren?

> Um mal etwas zu provozieren, ich würde sagen teilweise hat da eine
> Generation schlichtweg geschlafen und außer ein paar Fachleute (die ohne
> Investitionen auch nicht weit kommen) hat die Masse das Potenzial nicht
> erkannt.
Warum gehst du davon aus, dass die Experten Idioten waren/sind? Um das 
zu bewerten, muss man ein Experte sein.

Autor: Axel Zucker (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Atemis H. schrieb:
> Frank Rosenblatt zeigte, dass ein einfaches Perzeptron mit zwei
> Eingabewerten und einem einzigen Ausgabeneuron zur Darstellung der
> einfachen logischen Operatoren AND, OR und NOT genutzt werden kann.
> Marvin Minsky und Seymour Papert wiesen jedoch 1969 nach, dass ein
> einlagiges Perzeptron den XOR-Operator nicht auflösen kann (Problem der
> linearen Separierbarkeit). Dies führte zu einem Stillstand in der
> Forschung der künstlichen neuronalen Netze.

Nimm lieber die englische WP, die deutsche ist hier ne Kack-Übersetzung:

"Although the perceptron initially seemed promising, it was quickly 
proved that perceptrons could not be trained to recognise many classes 
of patterns. This caused the field of neural network research to 
stagnate for many years, before it was recognised that a feedforward 
neural network with two or more layers (also called a multilayer 
perceptron) had far greater processing power than perceptrons with one 
layer (also called a single layer perceptron)."

Ein "classes of pattern" ist kein Operator und "Stagnation" kein 
Stillstand.

 Und womöglich lag es an dem Technischen Problem der Realisierung als 
Analogrechner. Das man ANN auch mit Digitalrechner nachbauen kann war in 
den sechsziger nicht Usus, da ja die Intention auf Nachbau des 
Naturvorbildes lag und das nun mal analog funktionierte. Und beim 
Zusammenschalten von Verstärkern gibt es halt ein paar Probleme, wie 
Bias-Verschiebung durch Gleichspannungsverstärkung.

oder es lief halt wie bei dem Skeptiker, der, bevor er sich eine 
Federmatratze aus zehntausend Federn kauft, auf einer einzelnen schläft 
und dann von kauf Abstand nimmt, weil er die Schmerzen beim Schlaf auf 
einer Feder auf Zehntausend hochsakliert …  Wenn also eine Schicht schon 
Zuviel von der Realität "wegfiltert", was soll das erst mit mehreren 
unfähigen Schichten hintereinander werden...

Und XOR war nicht das einzige Problem das die AI-Elfenbeinturminsassen 
lange Zeit nicht lösen konnten:
https://en.wikipedia.org/wiki/AI_winter

Autor: S. R. (svenska)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Atemis H. schrieb:
> Immer wieder interessant wie die Entwicklung von einigen
> anscheinend unterschätzt wird weil sie die Ideen für alten
> Schinken halten.

Vor gut 10 Jahren hat ein Forscher es geschafft, neuronale Netze ohne 
das Problem des Zuviel-Training-Totalversagens zu trainieren. Das war 
ein Durchbruch. Außerdem können wir jetzt unendlich große Datenmengen 
auf so ein System draufsch(m)eißen, weil wir noch immer keine 
effizienten Lernverfahren haben.

Das sind die beiden genialen Dinge, die KI in ihrer jetzigen Ausprägung 
ermöglicht haben.

> Wenn man bedenkt dass für viele Anwendungen keine schrecklich große
> Rechenleistung benötigt wird. Man hätte medizinische Aufnahmen sicher
> schon in den 70er oder 80er mit KNNs auswerten können.

Sicherlich, hätte man die Kameratechnik schon damals gehabt (hatte man 
nicht) und wäre in der Lage gewesen, die Netze innerhalb vertretbarer 
Zeit zu trainieren (war man nicht). Außerdem fehlte Grundlagenwissen.

> Könnte die rege Anwendung heute auf
> gesellschaftliche Veränderungen zurückzuführen sein?

Wesentlich wahrscheinlicher auf wirtschaftliche Veränderungen. Das 
damals vorherrschende Wachstum hat stagniert, die Firmen gehen pleite, 
es wird händeringend nach neuen Problemen gesucht, um Lösungen zu 
verkaufen.

Ein Pentium ist selbst für einfache Aufgaben (Word und Drucken) so 
dermaßen viel schneller als seine Vorgänger, dass sich der Kauf auch für 
den Unbedarften lohnt. Heute? Jedes Handy hat genug Rechenleistung für 
80% der Anwendungsfälle.

Der Aufwand und die Zuverlässigkeit technischer Systeme war wesentlich 
geringer als heute (gibt es gutes Video von der NYT, als sie ihr 
Druckverfahren von Bleilettern auf Computer umgestellt haben). Heute 
werden die Geräte künstlich in ihrer Lebenszeit verkürzt, damit man 
überhaupt Absatz hat.

> Der Hype und der Fortschritt in den Köpfen sorgt sicher für mehr
> Offenheit in ernsthaften Anwendungsgebieten.

Mehr Bekanntheit. Offenheit? Ich weiß ja nicht. Mir tun jetzt schon die 
schwedischen Rentner leid, die dank der "bargeldfrei"-Politik der 
Schweden zunehmend vom Leben ausgeschlossen werden.

> Welche "alten Ideen" warten wohl noch darauf ernst genommen zu werden?

Viele. Vor allem darauf, dass sie praktikabel werden - und besser als 
das Vorhandene.

Atemis H. schrieb:
> Da man Psychologen gegenüber etwas vorspielen kann wäre es
> übrigens eine interessante Idee in Zukunft für bestimmte
> Berufsgruppen psychologische Tests mit KNNs vorauszusetzen.

Schau dir das "social credit system" der Chinesen an. Genau das ist so 
ein Ansatz, nur eben für die ganze Bevölkerung. Wenn schon Big Data, 
dann bitte gleich richtig Big Data!

Unsere jetzigen Lösungen funktionieren mit kleinen Datenmengen sowieso 
nicht zuverlässig.

> Hätte man das Trainieren nicht mit den damaligen Großrechnern erledigen
> können? In der täglichen Anwendung kommen dann ja die trainierten Netze
> zum Einsatz.

Man merkt, du hast keine Ahnung.
Kurz: Nein. :-)

> KNNs werden heute beispielsweise zum erkennen von Krebszellen
> eingesetzt. Die Art wie man die Netze darauf trainiert wäre vor 30
> Jahren doch auch die selbe gewesen.

Nein, denn die heutigen Lernverfahren gab es damals nicht. Und selbst 
wenn es sie gegeben hätte, sie sind bei weitem nicht effizient genug.

Nicht umsonst benutzt Google fürs Training nicht "einzelne Computer" 
oder "einzelne Racks", sondern ganze Rechenzentren. Mit modernster 
Architektur und speziellen ASICs.

Mach das mal auf nem Z80 oder einer VAX mit, sagen wir, sagenhaften 2 MB 
RAM und 20 MB Festplattenspeicher.

Atemis H. schrieb:
> Angeblich ruhte damals die Forschung an neuronalen Netzen weil
> Marvin Minsky nachwies dass das Perceptron Netz keine XOR Logik
> beherrscht.

Ich merke, du hast dich ausgiebig mit Wikipedia beschäftigt.

Es gab KI in den 60ern, in den 80ern und heute wieder.

> Waren die Forscher so engstirnig dass es Jahre dauerte bis einer auf die
> Idee kam "lasst uns doch mal eine zweite Zwischenschicht einbauen"?

Vielleicht lässt sich so ein zweischichtiges Netzwerk nicht mehr 
vernünftig mit Papier und Bleistift trainieren. Computer waren selbst 
Forschern nicht immer zugänglich, von so massiver 
Rechenzeitverschwendung ganz zu schweigen.

> So dauert es dann natürlich lange. Manchmal ist es besser etwas zu
> entdecken und die Mathematik davon später zu begreifen.

Muahaha. Genau, am besten wenden wir das direkt noch auf unser 
Rechtssystem an (siehe China, USA), denn dann kriegen wir die 
Unterdrückung noch viel schneller hin und können gleichzeitig immer auf 
den Computer zeigen.

Autor: Upps (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Es wird immer konfuser: erst die komischen Quantencomputer mit ihren 
Q-bits, die 2 Zustände gleichzeitig haben können. Jetzt haben sie auch 
noch 3 Photonen verschränkt mittels einer dritten Grösse (neben 
up/down), dem Drehimpuls...  ich glaub mein Hirn ist zu schwach dafür 
:-)

Autor: S. R. (svenska)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Upps schrieb:
> ich glaub mein Hirn ist zu schwach dafür :-)

"Sind sie zu stark, bist du zu schwach." :-)

Autor: Atemis H. (at0)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
S. R. schrieb:
> Vor gut 10 Jahren hat ein Forscher es geschafft, neuronale Netze ohne
> das Problem des Zuviel-Training-Totalversagens zu trainieren. Das war
> ein Durchbruch. Außerdem können wir jetzt unendlich große Datenmengen
> auf so ein System draufsch(m)eißen, weil wir noch immer keine
> effizienten Lernverfahren haben.

Welcher Forscher hat was geschafft??

S. R. schrieb:
> Sicherlich, hätte man die Kameratechnik schon damals gehabt (hatte man
> nicht)

Die Fotos aus den 80er sehen ziemlich gut aus. Kann mir nicht vorstellen 
dass es keine hochauflösenden Kameras gab.

S. R. schrieb:
> Schau dir das "social credit system" der Chinesen an. Genau das ist so
> ein Ansatz, nur eben für die ganze Bevölkerung. Wenn schon Big Data,
> dann bitte gleich richtig Big Data!

Wenn man will kann man auch alles ins negative drehen.

S. R. schrieb:
> Man merkt, du hast keine Ahnung.
> Kurz: Nein. :-)

Du brichst mir das Herz :D

S. R. schrieb:
> Nein, denn die heutigen Lernverfahren gab es damals nicht. Und selbst
> wenn es sie gegeben hätte, sie sind bei weitem nicht effizient genug.

Konnte man damals keine Hunde und Katzen auf Fotos erkennen?
Reicht doch.

S. R. schrieb:
> Nicht umsonst benutzt Google fürs Training nicht "einzelne Computer"
> oder "einzelne Racks", sondern ganze Rechenzentren. Mit modernster
> Architektur und speziellen ASICs.

Das kann man so nicht verallgemeinern. Um Krebszellen auf Fotos zu 
erkennen brauchst du keine Rechenzentren.
Viele Trainingsaufgaben laufen heute auf einem Heimrechner in Sekunden 
und Minuten durch.
Aber auch für anspruchsvollere Verfahren hätte man damals ja die 
Superrechner nutzen können.

S. R. schrieb:
> Ich merke, du hast dich ausgiebig mit Wikipedia beschäftigt.

Spricht was dagegen? Ich lese auch Bücher :)

S. R. schrieb:
> Vielleicht lässt sich so ein zweischichtiges Netzwerk nicht mehr
> vernünftig mit Papier und Bleistift trainieren. Computer waren selbst
> Forschern nicht immer zugänglich, von so massiver
> Rechenzeitverschwendung ganz zu schweigen.

Bezweifle ich dass dies der Grund war. Um die XOR Logik nachzuweisen 
kannst du auch ein Netz aus einer handvoll Knoten auf einem Blatt Papier 
berechnen.
Mehrschichtige Netze auszuprobieren bzw. in Gedanken durchzugehen ist 
aus meiner Sicht eine Frage spielerischer Kreativität.
Das zu unterlassen ist für mich als würde man Zahlen entdecken und bei 5 
aufhören zu zählen um dann zu publizieren dass es zu wenig Zahlen gäbe 
um sie in der Wissenschaft zu nutzen.
Bis dann der nächste Einstein entdeckt dass es noch die 6, 7, 8, 9 usw. 
geben kann :)

S. R. schrieb:
> Muahaha. Genau, am besten wenden wir das direkt noch auf unser
> Rechtssystem an (siehe China, USA), denn dann kriegen wir die
> Unterdrückung noch viel schneller hin und können gleichzeitig immer auf
> den Computer zeigen.

Ohh, man verliert sehr viel wenn man während einer wissenschaftlichen 
Arbeit in Gedanken und auf Papier keinen einzigen Schritt ohne 
Kalkulation wagt.
Das unterscheidet vielleicht sogar den einfachen Forscher vom Genie. Der 
Genie ist frech. Man muss ja nicht sofort publizieren. Probiere aus, 
spiele herum, schau was passiert wenn du etwas anders machst als üblich.
Die Gedanken müssen frei sein, bevor man letztendlich strenge Kriterien 
anwendet.

Autor: S. R. (svenska)
Datum:

Bewertung
1 lesenswert
nicht lesenswert
Atemis H. schrieb:
>> Nein, denn die heutigen Lernverfahren gab es damals nicht. Und selbst
>> wenn es sie gegeben hätte, sie sind bei weitem nicht effizient genug.
>
> Konnte man damals keine Hunde und Katzen auf Fotos erkennen?

Nicht zuverlässig mit Computern.
Warum hat man dann nicht einfach trainiert?
- Nicht genug Datenmaterial.
- Nicht genug Speicher.
- Nicht genug Rechenleistung.
- Nicht genug Wissen.

Du kannst ja mal versuchen, aus ca. 50 Katzen- und Hundebildern auf 
einem Pentium 75 mit 8 MB RAM und 500 MB Festplatte (äquivalent zu einem 
Supercomputer der 70er) ein neuronales Netz zur Erkennung beliebiger 
Katzen und Hunde zu trainieren.

> S. R. schrieb:
>> Nicht umsonst benutzt Google fürs Training nicht "einzelne Computer"
>> oder "einzelne Racks", sondern ganze Rechenzentren. Mit modernster
>> Architektur und speziellen ASICs.
>
> Das kann man so nicht verallgemeinern. Um Krebszellen auf Fotos zu
> erkennen brauchst du keine Rechenzentren.

Du vernachlässigst den Unterschied zwischen Training und Inferenz. Für 
letzteres braucht man das tatsächlich nicht.

Ich habe mal einen Artikel gelesen, wo jemand einen Schachcomputer der 
80er (irgendwas um die "4 KB ROM, 1 KB RAM"-Kategorie) mit einem 
neuronalen Netz ausgestattet hat und ihn damit zu einem echt 
ernstzunehmenden Gegner gemacht hat. Das fand ich extrem erstaunlich, 
allerdings finde ich den Artikel nicht mehr wieder.

Aber: Das Traing brauchte mehrere Tage auf einem normalen PC - und wäre 
damit in den 80ern eine monatelange Mammutaufgabe gewesen, in der man 
den Rechner nicht hätte nutzen können. Und man braucht mehr als einen 
Versuch, eh man so ein Netz vernünftig parametriert und trainiert hat.

> Viele Trainingsaufgaben laufen heute auf einem Heimrechner in Sekunden
> und Minuten durch.

Wenn ich mir anschaue, was meine Kollegen auf Arbeit machen... nee, da 
handelt es sich eher um Stunden/Tage. Für (naiv gesprochen) relativ 
einfache Probleme der Objekterkennung.

> Aber auch für anspruchsvollere Verfahren hätte man damals ja die
> Superrechner nutzen können.

Nee, hätte man nicht. Erstens hatte man dazu keinen direkten Zugang, und 
zweitens schon garnicht über Tage, Wochen und Monate. Außerdem fehlte 
der Speicher, so ein Training machst du nicht mit nem 10 GB Tape-Drive, 
und auch nicht mit einer 300 MB Festplatte.

Außerdem nimmst du an, dass Rechenleistung einfach rumstand. Dem war 
nicht so, Computer waren teuer und damit eine limitierte Ressource. 
Insbesondere leistungsfähige Maschinen (so es sie denn überhaupt gab; in 
meiner Heimat war allein deren Existenz schon ein Problem).

Atemis H. schrieb:
> Das zu unterlassen ist für mich als würde man Zahlen entdecken und bei 5
> aufhören zu zählen um dann zu publizieren dass es zu wenig Zahlen gäbe
> um sie in der Wissenschaft zu nutzen.

Ich frag mich gerade, ob du noch zur Schule gehst oder das gerade 
studierst (bzw. frisch studiert hast). Du klingst so, wie ich vor gut 10 
Jahren. ;-)

Sprichwort: Hindsight is always 20/20.

Autor: Martin S. (strubi)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
S. R. schrieb:
> Vor gut 10 Jahren hat ein Forscher es geschafft, neuronale Netze ohne
> das Problem des Zuviel-Training-Totalversagens zu trainieren. Das war
> ein Durchbruch. Außerdem können wir jetzt unendlich große Datenmengen
> auf so ein System draufsch(m)eißen, weil wir noch immer keine
> effizienten Lernverfahren haben.

Meinst du etwa die Kohonen-Netze? Das dürfte etwa 20 Jahre her sein...
Die sind im Selbstlernen richtig gut, aber dürften schwierig auf einen 
Chip abzubilden sein :-)

Zum Artikel: Sowas reisst mich nur bedingt vom Hocker, bzw. ist es 
wieder so ein n+1-Ding, wo sich die Frage stellt, ob die Chips wirklich 
im Training-Mode brauchbar sind, oder einfach als Feed-Forward 
(+Feedback) die offline eingelernten Dinge tun, die auch 
Support-Vector-Machines mit weniger Rechnerei hinkriegen.

Bisher waren all diese hochgehypten NN-"Durchbrüche" für die 
Allgemeinheit nicht sonderlich nachhaltig, scheint mir. Da gabs mal die 
ZICam anfang Jahrtausendwende, mir war als wäre es Pulnix gewesen, die 
konnte verschiedene Böhnchen erkennen und schnell sortieren, aber ob im 
Gerät nu ein FPGA flott rechnet oder ein NN-Chip die Sache erledigt, 
interessiert kaum ein Schwein in der Anwendung.

Spannend auch die Demos von nvidia, die mit KI Strassenzüge 
verändern/verrrendern, aber wenn's die Filmindustrie nicht aufgreift, 
erinnert sich in einem Jahr wohl kaum einer noch dran.

Und dann tauchen immer wieder eine Menge Startups auf, die sich mit dem 
Neurokram total verzetteln, eventbasierte Systeme sind einfach nicht 
leichter zu handhaben als getaktete, gut simulierbare Logik, wenn dann 
die Debug-Tools in der einen Ecke schon mehr als 10 Jahre Vorlauf haben, 
greift man eben zum Bewährten in der Anwendung. Und dann ist's eben 
wieder ein Intel oder ein FPGA, statt irgend ein Neuro-Chip, oder es 
müssen eben doch wieder nur die richtigen Böhnchen erkannt werden.

Autor: Atemis H. (at0)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
S. R. schrieb:
> Nicht zuverlässig mit Computern.
> Warum hat man dann nicht einfach trainiert?
> - Nicht genug Datenmaterial.
> - Nicht genug Speicher.
> - Nicht genug Rechenleistung.
> - Nicht genug Wissen.

Mittlerweile sehe ich das ein und möchte deinen Erläuterungen nicht 
widersprechen. Das erklärt wohl auch die Hype Wellen der neueren Zeit. 
Die Rechenleistung ist heute drastisch erhöht und dank Big Data hat man 
heute extrem viel mehr Trainingsmaterial.
Bleibt nun zu hoffen dass wichtige und interessante Ideen von damals 
nicht vergessen werden und mit den heutigen Ressourcen getestet werden.

Martin S. schrieb:
> Meinst du etwa die Kohonen-Netze? Das dürfte etwa 20 Jahre her sein...
> Die sind im Selbstlernen richtig gut, aber dürften schwierig auf einen
> Chip abzubilden sein :-)

Wenn ich mich nicht irre findet man dazu Vorschläge im Buch "Automat und 
Mensch" von Karl Steinbuch.
Gerade die etwas elektromechanische Grundlage der Lernmatrix von 
Steinbuch erlaubt es das Prinzip künstlicher neuronaler Netze auf 
Transistor Chips zu implementieren. Man kann es relativ leicht auf eine 
binäre Logik übertragen.

Ein Jammer das Karl Steinbuch später lieber in die Politik ging. Das war 
nicht mal halb so fruchtbar wie seine Arbeiten in der 
Informatik/Kybernetik.
Ironisch dass er in dem genannten Buch selbst vor einer Ideologisierung 
der Gesellschaft warnte, Zitat "gerade mit dem Hintergrund der deutschen 
Geschichte".
Und was passierte? Er wurde Politiker, unterhielt Kontakte zu 
Rechtsextremisten und warnte vor der Überfremdung der Deutschen.

: Bearbeitet durch User
Autor: Udo K. (udok)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Atemis H. schrieb:
>> Nicht zuverlässig mit Computern.
>> Warum hat man dann nicht einfach trainiert?
>> - Nicht genug Datenmaterial.
>> - Nicht genug Speicher.
>> - Nicht genug Rechenleistung.
>> - Nicht genug Wissen.
>
> Mittlerweile sehe ich das ein und möchte deinen Erläuterungen nicht
> widersprechen. Das erklärt wohl auch die Hype Wellen der neueren Zeit.
> Die Rechenleistung ist heute drastisch erhöht und dank Big Data hat man
> heute extrem viel mehr Trainingsmaterial.
> Bleibt nun zu hoffen dass wichtige und interessante Ideen von damals
> nicht vergessen werden und mit den heutigen Ressourcen getestet werden.

Trainingsmaterial hatte man auch schon in den 90'ern genug.
Z.B. im Bereich Spracherkennung existierten Datenbanken, die man
kaufen konnte.
Rechenzeit ist sicher ein wichtiger Faktor, aber auch da war genug 
vorhanden.
Es fehlten aber damals die (finanziell erfolgreichen) Anwendungen.
Mit autonomen Fahren kommt das wieder aus der Versenkung.

Das eigentliche Problem ist, dass ein NN im Prinzip nur ein lokales 
Minium
einer Funktion mit vielen Eingangsvariablen sucht.
Es findet aber selten das Optimum, und führt zu keiner Erkenntnis.

Auch gibt es bei nicht trainierten Eingagnsvektoren ganz böse 
Überraschungen.

Ein zu grosses NN mit vielen Freiheitsgraden ist da besonders anfällig,
das ist so ähnlich wie wenn man eine einfache Funktion mit einem Polynom 
sehr hoher Ordnung extrapoliert.

Die typscherweise verwendeten NN sind primitive Methoden zur 
Miniumumsuche
einer Funktion mit vielen Eingangsvariablen.
Da gibt es effizientere Methoden, bzw. ist das NN nur eine von vielen
Möglichkeiten.

Autor: Udo K. (udok)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Mach schrieb:
> In der Mechanik ist das aber auch so. Die menschliche (oder tierische)
> Bewegung ist nicht nachzubilden. Beim Laufen werden zig Muskeln
> koordiniert. Technisch realisiert man bewegung meist ueber Drehungen,
> Vom Motor ueber Zahnraeder, Riemen bis zum Rad. Auf die Bewegung bezogen
> eigentlich fast schon primitiv, obwohl Verbrennungsmotoren aus vielen,
> vielen Einzelteilen bestehen.

Nachdem ich mehrere Boston Dynamics Videos gesehen habe, bin ich mir
da nicht mehr so sicher.
Vor kurzem war da ein Video, wo ein Roboterarm beliebige Gegenstände
aus einer Kiste rausgenommen hat, und einem anderen Roboter zugeworfen 
hat.
Die konnten das besser und schneller als Menschen!

Autor: Atemis H. (at0)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Udo K. schrieb:
> Nachdem ich mehrere Boston Dynamics Videos gesehen habe, bin ich mir
> da nicht mehr so sicher.
> Vor kurzem war da ein Video, wo ein Roboterarm beliebige Gegenstände
> aus einer Kiste rausgenommen hat, und einem anderen Roboter zugeworfen
> hat.
> Die konnten das besser und schneller als Menschen!

Ist es denn gelungen elegante mechanische Bewegungen mit künstlichen 
neuronalen Netzen zu realisieren?

Ich glaube im Prinzip ist es egal ob ein neuronales Netz tausende von 
einzelnen Muskelfasern anspricht oder einzelne Elektromotoren.
Unser Gehirn könnte theoretisch auch lernen diverse Elektromotoren 
richtig anzusprechen statt viele Muskelfasern.
Machen wir im Grunde auch wenn wir Autos, Maschinen oder 
Musikinstrumente benutzen.

Die Frage ist doch wie ein neuronales Netz es grundsätzlich macht 
verschiedene Komponenten dynamisch und aufeinander abgestimmt zu 
bewegen.

Udo K. schrieb:
> Die typscherweise verwendeten NN sind primitive Methoden zur
> Miniumumsuche
> einer Funktion mit vielen Eingangsvariablen.
> Da gibt es effizientere Methoden, bzw. ist das NN nur eine von vielen
> Möglichkeiten.

Beispiele?

: Bearbeitet durch User
Autor: Carl (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
>Ist es denn gelungen elegante mechanische Bewegungen mit künstlichen
>neuronalen Netzen zu realisieren?

Tja, das wäre die Frage. Wird nur ein Regler verwendet, oder wird hier 
was trainiert?:

Youtube-Video "😳 DIESER ROBOTER MACHT EINEN RÜCKWÄRTS-SALTO - ATLAS von BOSTON DYNAMICS"

Autor: S. R. (svenska)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Udo K. schrieb:
> Trainingsmaterial hatte man auch schon in den 90'ern genug.
> Z.B. im Bereich Spracherkennung existierten Datenbanken,
> die man kaufen konnte.

Sicher gab es passende Datenbanken, aber die waren wesentlich kleiner 
als das, mit dem Apple, Google und Amazon arbeiten.

Und schon in den 90ern war die Spracherkennung (ohne KI, rein klassisch) 
weit entwickelt und extrem zuverlässig - in einigen Domänen. 
Diktiergeräte für Mediziner und Juristen waren zuverlässig, aber nicht 
universell.

> Rechenzeit ist sicher ein wichtiger Faktor, aber auch da war
> genug vorhanden. Es fehlten aber damals die (finanziell
> erfolgreichen) Anwendungen.

Ich weiß ja nicht. Spontan vermute ich, dass 95% aller trainierten Netze 
weggeschmissen werden, weil sie nicht funktionieren - und das kann man 
nur machen, wenn man nicht für jeden Versuch mehrere Wochen oder Monate 
versenken muss.

Also: Ja, man hätte so ein Netz schon berechnen können, wenn man genau 
gewusst hätte, was man tun muss. Weiß man aber auch heute noch nicht.

> Das eigentliche Problem ist, dass ein NN im Prinzip nur ein lokales
> Minium einer Funktion mit vielen Eingangsvariablen sucht.
> Es findet aber selten das Optimum, und führt zu keiner Erkenntnis.

Irrelevant. Eine "hinreichend gute" Lösung ist ausreichend, und wenn sie 
in manchen Fällen versagt, wird heutzutage einfach nachtrainiert.

Beweisbar korrekt ist ein ML-System grundsätzlich nie - es sind immer 
nur Heuristiken. Hätte man eine beweisbar korrekte Lösung, könnte man 
die schlicht klassisch implementieren und nicht auf die KI-Krücke 
zurückgreifen.

> Die typscherweise verwendeten NN sind primitive Methoden zur
> Miniumumsuche einer Funktion mit vielen Eingangsvariablen.

Ich fürchte, du bist ein ganzes Stück hinter dem aktuellen Stand der 
Dinge. Die Deep Learning-Netze in Bild- oder Sprachverarbeitung sind 
weit weg von dem, was ich vor einigen Jahren noch an der Uni gelernt 
habe.

Aber ja, grundsätzlich hast du recht.

Autor: Atemis H. (at0)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
S. R. schrieb:
> Irrelevant. Eine "hinreichend gute" Lösung ist ausreichend, und wenn sie
> in manchen Fällen versagt, wird heutzutage einfach nachtrainiert.
>
> Beweisbar korrekt ist ein ML-System grundsätzlich nie - es sind immer
> nur Heuristiken. Hätte man eine beweisbar korrekte Lösung, könnte man
> die schlicht klassisch implementieren und nicht auf die KI-Krücke
> zurückgreifen.

Man darf den Faktor Evolution bei biologischen neuronalen Netzen nicht 
vergessen. Diese sind wenn auch grob ja das Vorbild und der Nachweis 
dass solche Netze prinzipiell sehr leistungsfähig sind.
Die Evolution würde aber zu genaue biologische Netze nicht sehr 
begünstigen. Wenn Energie und Zeitbedarf steigen entsteht für das 
Individuum ein Nachteil.
Die Individuen die nicht zu lange überlegen müssen um zu handeln werden 
sich durchsetzen.
Ausgehend von den Umweltbedingungen entsteht so ein Optimum.

Und auch da ist die Natur ein guter Lehrer. Auch in unserem Alltag 
benötigen wir keine unendliche Genauigkeit bei der Lösung von 
Aufgabenstellungen.
Genau wie bei biologischen Netzen müssen die Lösungen gut genug sein.

Autor: S. R. (svenska)
Datum:

Bewertung
1 lesenswert
nicht lesenswert
Atemis H. schrieb:
> Die Individuen die nicht zu lange überlegen müssen
> um zu handeln werden sich durchsetzen.

Sicher. Das gilt aber nicht für von Menschen hergestellte, autonome 
Autos. Die evolieren nicht, die sind alle identisch.

Atemis H. schrieb:
> Auch in unserem Alltag benötigen wir keine unendliche
> Genauigkeit bei der Lösung von Aufgabenstellungen.

Ich bin ja ein großer Freund von der Idee, dass ein Feuermelder bei 
Feuer auch garantiert auslöst und nicht nur möglicherweise, wenn dieses 
Feuermelderindividuum zufälligerweise gelungen ist...

Oder dass mir das Navi den korrekten Weg weist und nicht mit der 
gleichen Kompetenz wie <Familienmitglied nach Wahl hier einsetzen>.

Wenn sich ein Problem exakt mit erträglichem Aufwand lösen lässt, 
sollte man von Heuristiken immer großen Abstand halten.

Autor: Atemis H. (at0)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Das Wesen das exakte Lösungen denken kann funktioniert 
erstaunlicherweise auch mit neuronalen Netzen.

Ich vermute die Präzision unserer kognitiven Leistungen ist weniger dem 
Grundprinzip von neuronalen Netzen sondern vielmehr unserer neuronalen 
Architektur geschuldet.

Wenn man also neuronale Netze richtig miteinander verschaltet sind auch 
exakte Lösungen effizient möglich.

Autor: A. S. (rava)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
@TO:
ich habe noch von keiner industriell relevanten Anwendung von spiking 
neural networks gehört. Der Grund mag auf der Hand liegen: es gibt keine 
Hardware dafür, während GPUs echt toll convolutional neural networks 
rechnen können.

Vielleicht kann die neue Hardware aus diesem Artikel diese Lücke 
schließen. Ich halte es aber für Wahrscheinlicher, dass wir bereits 
eingeschossen sind auf das System GPU/TPU, das mittlerweile eine ganz 
gute Toollandschaft bietet.

Vergleichbar mit der Erfindung des Autos: man hat hlat mit dem 
Verbrennungsmotor angefangen und irgendwann sind da so viele 
Entwicklungsjahre reingeflossen, dass es nicht mehr wettbewerbsfähig 
war, einen anderen Ansatz, wie zum Beispiel E-Motor zu fahren.

Autor: Mach (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Udo K. schrieb:
> Mach schrieb:
>> In der Mechanik ist das aber auch so. Die menschliche (oder tierische)
>> Bewegung ist nicht nachzubilden. Beim Laufen werden zig Muskeln
>> koordiniert. Technisch realisiert man bewegung meist ueber Drehungen,
>> Vom Motor ueber Zahnraeder, Riemen bis zum Rad. Auf die Bewegung bezogen
>> eigentlich fast schon primitiv, obwohl Verbrennungsmotoren aus vielen,
>> vielen Einzelteilen bestehen.
> Nachdem ich mehrere Boston Dynamics Videos gesehen habe, bin ich mir
> da nicht mehr so sicher.

Atemis H. schrieb:
> Ist es denn gelungen elegante mechanische Bewegungen mit künstlichen
> neuronalen Netzen zu realisieren?
>
> Ich glaube im Prinzip ist es egal ob ein neuronales Netz tausende von
> einzelnen Muskelfasern anspricht oder einzelne Elektromotoren.

Mir ging es eigentlich erstmal nur um die Mechanik, nicht um die 
Steuerung. Der Körper ist aus unzähligen Zellen aufgebaut. Die 
Aktuatoren (Muskeln) sind zählbar und bekannt, aber das sind brutal 
viele (über 400 im Menschen). Und das erzeugt eine ausgesprochene 
Universalität. Die Energiebereitstellung ist auch gleich noch im Körper 
integriert. Die ganzen inneren Organe... Das kann man nicht einfach 
nachbauen. Und so ist es m.E. bei der KI auch. Für die Fähigkeit etwas 
selbst zu lernen (und nicht man lehrt es der KI durch Füttern) reicht 
eine einzelne KI nicht, sondern es müssen unzählige Teilsysteme 
zusammengeschalten werden, die sich gegenseitig beeinflussen.

Autor: Elias K. (elik)
Datum:

Bewertung
-1 lesenswert
nicht lesenswert
Kurze Erheiterung zum Thema :-) https://xkcd.com/1897/

"Crowdsourced steering" doesn't sound quite as appealing as "self 
driving."

Autor: Atemis H. (at0)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Mach schrieb:
> Mir ging es eigentlich erstmal nur um die Mechanik, nicht um die
> Steuerung. Der Körper ist aus unzähligen Zellen aufgebaut. Die
> Aktuatoren (Muskeln) sind zählbar und bekannt, aber das sind brutal
> viele (über 400 im Menschen). Und das erzeugt eine ausgesprochene
> Universalität. Die Energiebereitstellung ist auch gleich noch im Körper
> integriert. Die ganzen inneren Organe... Das kann man nicht einfach
> nachbauen.

Einfach ist es nicht aber Fortschritte gibt es auch in der Mechanik. Es 
wurden bereits ja einige künstliche Muskeln demonstriert. Etwa mit 
elektroaktive Polymeren. Ich denke es ist eine Frage der Zeit bis 
neuartige Aktuatoren voll einsatzfähig sind.

Mach schrieb:
> Für die Fähigkeit etwas
> selbst zu lernen (und nicht man lehrt es der KI durch Füttern) reicht
> eine einzelne KI nicht, sondern es müssen unzählige Teilsysteme
> zusammengeschalten werden, die sich gegenseitig beeinflussen.

Es gibt wirklich Thesen von einigen Forschern die der Meinung sind dass 
die Wechselwirkung zwischen Körper und Zentralnervensystem von 
elementarer Bedeutung ist. Ich denke das gilt aber eher für eine starke 
KI und weniger für spezialisierte Lösungen für einzelne Anwendungen.

Bei der Training einer KI gibt es übrigens auch die Möglichkeit einer 
virtuellen Umgebung. Ein neuronales Netz kann auch mit einem virtuellen 
Körper trainiert werden und in einem Computer läuft die Simulation auch 
schneller.
Auch wenn die Simulation der Realität nicht exakt entspricht, lässt man 
das trainierte System dann auf einem echten Roboter laufen muss es noch 
geringfügig trainieren um noch die restlichen Unterschiede zwischen 
Simulation und Realität auszugleichen.

Autor: S. R. (svenska)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Ich bitte zu beachten, dass man bei künstlicher Intelligenz zwischen der 
Lernphase (Training) und der Anwendungsphase (Inferenz) unterscheiden 
muss.

In der Natur findet immer beides gleichzeitig statt. "Erinnern" ist ein 
aktiver Vorgang, der den Gedächtnisinhalt nicht nur liest, sondern auch 
beeinflusst.

Ein industrielles System auf so einer Basis wäre nicht langzeitstabil.

Autor: Strubi (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
S. R. schrieb:
> Ich bitte zu beachten, dass man bei künstlicher Intelligenz zwischen der
> Lernphase (Training) und der Anwendungsphase (Inferenz) unterscheiden
> muss.

Da gibt es nun aber sei geraumer Zeit Netze, bei denen das nicht der 
Fall ist. Siehe auch die oben genannten Kohonen-maps.

S. R. schrieb:
> Ein industrielles System auf so einer Basis wäre nicht langzeitstabil.

Auch das stimmt nicht so ganz, aber es ist durchaus knifflig, die 
Entartung in den Griff zu kriegen. Ist halt die Frage was man will, 
beispielsweise eine flexible Spracherkennung, die in der Lage ist, sich 
an andere Stimmlagen zu gewöhnen, oder eine an einem gewissen Punkt 
eingefrorene "Metrik".

Autor: Carl (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
mh schrieb:
>Vllt. weil das alles doch nicht so eifach ist, und man kritischer
>gegenüber KNNs war? Oder vllt. weil in vielen Bereiche in denen KNNs
>heute tatsächlich helfen können das Grundlagenwissen gefehlt hat. Ein
>trainiertes KNN kann Muster erkennen, aber nicht erklären, wie die
>Muster zustande kommen.

Das trifft auf dich selbst übrigens auch zu: Du kannst z.B. einen Apfel 
zwar sehen, aber Du kannst nicht erklären, wie du ihn erkennst.
Wie werden die Signale aus den Lichtrezeptoren in deinem Auge genau 
verarbeitet, damit in deinem Geist ein Apfel entsteht?
Jetzt bitte keine "angelesenen" Erklärungen, sondern dass was ein Mensch 
z.B. im Urwald darüber weiß.

Autor: Stefanus F. (stefanus)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Carl schrieb:
> Du kannst z.B. einen Apfel zwar sehen, aber Du kannst nicht
> erklären, wie du ihn erkennst.

Ich denke schon, dass ich das erklären kann.

Erstens habe ich natürlich Bilder zahlreicher bekannter Äpfel im Kopf, 
mit denen ich vergleiche. Auch habe ich ein Gefühl dafür, wie schwer ein 
Apfel sein kann. Ich weiß auch, dass die Golden Delicius deutlich 
leichter sind, als andere.

Sollte ich einmal einen unbekannte Frucht sehen, vergleiche mit 
Eigenschaften anderer, die ich kenne. Ein Apfel zeichnet sich für mich 
durch folgende Merkmale aus:

Ein Apfel hat ungefähr die Form einer Kugel, aber nicht exakt. Äpfel 
haben typischerweise 5 bis 10 cm Durchmesser. Oben um den Stiehl herum 
und unten um die ehemalige Blüte herum befindet sich eine Delle. Ohne 
Stiehl würde es mir schwerer fallen, einen Apfel eindeutig zu erkennen. 
Das Fruchtfleisch ist hell (fast weiß) und schmeckt süß. Die Äußere 
Farbe ist in der Regel ein blasses gelb, grün oder rot, oft auch eine 
fleckige Kombination dieser Farben.

Die Unterscheidung zur Birne ergibt sich aus der Form.

So kommt es, dass ich die Nashi Birne lange für einen Apfel gehalten 
habe. Warum das Ding eine Birne ist, habe ich bis heute nicht gelernt. 
So bleibt für mich nur die Möglichkeit, sie an der charakteristischen 
Konsistenz ihres Fruchtfleisches zu erkennen, was vermutlich irgendwann 
die nächste Fehlinterpretation provoziert.

> sondern dass was ein Mensch z.B. im Urwald darüber weiß.

Ich bin ziemlich sicher, dass jeder Mensch (nicht nur Urwald Bewohner), 
der mit Pflanzen arbeitet, die Merkmale der für ihn wichtigen Pflanzen 
klar beschrieben kann. Jedes Kräuterbuch dreht sich zu 50% darum, die 
Pflanzen zwecks Erkennung zu beschrieben.

: Bearbeitet durch User
Autor: Carl (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
>Ein Apfel hat ungefähr die Form einer Kugel, aber nicht exakt. Äpfel
>haben typischerweise 5 bis 10 cm Durchmesser. Oben um den Stiehl herum
>und unten um die ehemalige Blüte herum befindet sich eine Delle. Ohne
>Stiehl würde es mir schwerer fallen, einen Apfel eindeutig zu erkennen.
>Das Fruchtfleisch ist hell (fast weiß) und schmeckt süß. Die Äußere
>Farbe ist in der Regel ein blasses gelb, grün oder rot, oft auch eine
>fleckige Kombination dieser Farben.

Das ist der alte Stil, mit dem man in den 70er Jahren versucht hat, 
Expertensysteme zu bauen. Es ist eine Art "relationale Datenbank".

Du kannst aber nicht beschreiben, wie die Information von deinem Auge 
verarbeitet wird. Um das zu ergründen, hat die Hirnforschung Jahrzehnte 
gebraucht.
Sie hat heraus gefunden, dass das Sehfeld in kleine Bereiche unterteilt 
wird und das diese kleinen Bereiche nach bestimmten Eigenschaften 
untersucht werden: Orientierung, Schraffur, Farbe, durchschnittliche 
Helligkeit und andere Faktoren. Wie die Bereiche aber genau analysiert 
werden, kannst Du als Mensch nicht sagen.

Die aus der Hirnforschung gewonnenen wurden auf die Strukturen der KNNs 
übertragen und sind genau das, was heute die hohen Bilderkennungsraten 
ermöglichen und das ist ein Unterschied zu den Verfahren vor 20 Jahren.

Autor: Atemis H. (at0)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Man kann einzelne gleichförmige Netze mit einem Input und einem Output 
nicht mit biologischen Gehirnen gleichsetzen.
Man kann einen Kolben der eine Achse drehen kann auch nicht mit einem 
ganzen Motor System oder einem ganzen Auto gleichsetzen.

Im Gehirn sind verschiedenartige Neuronen und verschieden strukturierte 
und verschaltete Netze miteinander zu einer bis heute immer noch nicht 
ganz verstandenen Architektur verschaltet.

Ich würde sagen das Gehirn hat eine Art universelle Methode geschaffen 
Information zu verarbeiten.
Der Mensch kann vermutlich theoretisch alles denken was denkbar ist, so 
wie ein universeller Turing-vollständiger Computer ein beliebigen 
Algorithmus ausführen kann.

Das was wir sehen nehmen wir auf der Ebene wahr auf der sich unser 
Bewusstsein befindet. Wir sehen nicht die einzelnen neuronalen Vorgänge 
sondern den emergenten Effekt davon.
Allerdings können wir als abstraktes Modell natürlich ergründen wie der 
biologische oder physikalische Vorgang abläuft.
Das ist aber dann Teil unseres Wissens und nicht unserer Wahrnehmung.


Was ein einzelnes Neuron nicht kann, kann eine Menge Neuronen. Was eine 
Menge von Neuronen nicht kann, kann eine Menge aus verschiedenen Mengen 
Neuronen. Die Limitierungen eines einzelnen Netzes oder einer einzelnen 
Komponente können also mit der Verschaltung mehrerer Netze bzw. 
Komponenten aufgehoben werden.

Man kann durchaus eine Analogie zu Mikroprozessortechnik sehen. Ein 
einzelner Transistor kann nicht viel. Eine Menge von Transistoren kann 
mehr und wenn man verschiedene Mengen von Transistoren miteinander 
verbindet entsteht das Potenzial eine ganze CPU Architektur zu kreieren.

Immer wenn voneinander abgrenzbare Mengen in Wechselwirkung miteinander 
treten entstehen emergente Effekte. Diese Effekte wiederum lassen sich 
zu einer eigenen Menge zuordnen die wiederum mit gleichgroßen Mengen 
wechselwirken können. So entsteht eine zunehmende Komplexität und die 
Fähigkeiten des gesamten System wachsen.

: Bearbeitet durch User
Autor: Carl (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
>Der Mensch kann vermutlich theoretisch alles denken was denkbar ist

Und was kann z.B. ein Hund?

Autor: Atemis H. (at0)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Carl schrieb:
> Und was kann z.B. ein Hund?

Schwierig zu sagen. Ich glaube nicht das Denkfähigkeit nur dem Menschen 
vorbehalten ist.
Selbst ein Affe der von klein auf unter Menschen aufgezogen wird schafft 
es nicht die menschlichen Fähigkeiten zu entwickeln. Solche Experimente 
gab es bereits.

Menschen die nicht reden oder hören können, entwickeln trotzdem 
alternative Wege um die selbe geistige Reife wie andere Menschen. Der 
Mensch kann mit Händen und Schrift kommunizieren.

Wenn Affen oder Hunde genau so komplex denken können wie Menschen, wieso 
gelingt ihnen nicht mit dem Menschen auf die gleiche komplexe Art zu 
kommunizieren? Affen können Gebärdensprache lernen aber nicht in dem 
Ausmaß wie es gehörlose Menschen können.


Es gibt offenkundig Unterschiede. Ich schrieb aber bewusst dass der 
Mensch theoretisch vermutlich alles denken kann was denkbar ist.
Die Limitierungen der Gehirn Ressourcen und die biologische Zeit stellen 
dann doch Grenzen auch für unsere kognitiven Fähigkeiten. Aber ich 
glaube dass unser Gehirn bereits eine Architektur besitzt die 
theoretisch bei genügend Ressourcen und Zeit alles denkbare denken kann.

Vielleicht ist es bei Hunden auch so, nur dass ihre Ressourcen deutlich 
limitierter sind. Demnach hat ein Hund nicht genug neuronale Ressourcen 
und Lebenszeit um die geistige Höhe von Menschen zu erreichen. Aber auch 
ein Hund kann eventuell theoretisch alles denkbare denken, auch wenn die 
Menge gleichzeitiger Fähigkeiten oder Gedanken vielleicht limitierter 
ist als beim Menschen.


Ein kleiner Mikrocontroller kann auch alles berechnen was ein großer 
Intel Prozessor kann. Aber wenn menschliche Kommunikation eine bestimmte 
Menge an Berechnungen und Datenmenge erfordert dann ist der kleine 
Mikrocontroller überfordert, auch wenn seine Architektur theoretisch es 
leisten könnte.

: Bearbeitet durch User
Autor: Stefanus F. (stefanus)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Meine Denkfähigkeit endet bei Begriffen wie

- Paralleluniversum
- Unendlichkeit
- Raumzeit
- Zeitreisen
- Gibt es etwas nach dem Tod?
- Was ist Gott?

Das sind Dinge von denen ich glaube, ein bisschen begriffen zu haben. 
Aber diese Dinge werden für mich nie so greifbar wie zum Beispiel die 
Geometrie, Mathematik und natürlich auch die Elektrizität.

Ich habe so ein Gefühl im Bauch, dass wir die Funktionsweise unseres 
eigenen Körpers niemals vollständig erfassen können. Spätestens beim 
Gehirn und dem geheimnisvollen Lebensatmen hört es auf. Irgendein 
Naturgesetz oder eine höhere Gewalt will nicht, dass wir Gott spielen.

Autor: Carl (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
>Irgendein
>Naturgesetz oder eine höhere Gewalt will nicht, dass wir Gott spielen.

Nein?:

https://www.nature.com/news/minimal-cell-raises-stakes-in-race-to-harness-synthetic-life-1.19633

Autor: -gb- (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Alleine die Frau wird ein ewiges Mysterium bleiben.

Autor: Atemis H. (at0)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Stefanus F. schrieb:
> Spätestens beim
> Gehirn und dem geheimnisvollen Lebensatmen hört es auf.

Es werden immer mehr Fortschritte gemacht und neue Erkenntnisse 
gewonnen. Bisher sieht es nicht danach aus als gäbe es da eine 
unüberwindbare Barriere. Was wir sehen ist noch eine Menge 
Forschungsarbeit auf dem Weg zu einem vollständigen Verständnis. Was 
nicht unüblich ist. Die Wissenschaft erfordert die Arbeit von 
Generationen. Es ist nicht jeder Generation vergönnt den Durchbruch zu 
schaffen.
Es ist nicht nötig da metaphysische Modelle zu bemühen. Geduld und 
Arbeit ist gefragt.

Stefanus F. schrieb:
> Irgendein
> Naturgesetz oder eine höhere Gewalt will nicht, dass wir Gott spielen.

Wer will den Gott spielen? Wo ziehst du da die kritische Linie? Spielen 
Menschen nicht bereits Gott wenn sie den menschlichen Körper erforschen 
und Krankheiten heilen?
Es liegt in der menschlichen Natur die Umwelt verstehen zu wollen und 
daraus vorteilhafte Anwendungen zu entwickeln.
Und wenn Gott unüberwindbare Hindernisse geschaffen hat, dann ist das 
eben so. Für die Wissenschaft sind sowieso mit den Naturgesetzen und 
deren Gültigkeitsbereich natürliche Grenzen gesetzt.

Ich glaube der menschliche Geist basiert auf der Grundlage von 
Naturgesetzen. Was spräche dagegen?

Fast alle gläubigen Menschen die ich kenne und die sich zu dem Thema 
Gedanken machen tendieren auf die eine oder andere Art zu der Annahme 
von unüberwindbaren Grenzen.
Das kann man glauben, ich kann auch das Gegenteil nicht beweisen. Fakt 
ist die Forschung geht weiter und macht Fortschritte, zu viel mehr kann 
sich der Forscher auch nicht bekennen wenn er objektiv sein will.
Darüberhinaus gehende Annahmen sind Spekulation, Ideologie oder 
Religion.

Autor: Compi Experti (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Atemis H. schrieb:
> Fast alle gläubigen Menschen die ich kenne

Fangen wir mal damit an, dass Gläubige per se schon kritisch zu bewerten 
sind, weil sie an Dinge glauben, die nicht bewiesen sind, sondern 
überliefert wurden und teilweise längst widerlegt sind.


Atemis H. schrieb:
> die sich zu dem Thema Gedanken machen

Und wieviele sind das?


Atemis H. schrieb:
> tendieren auf die eine oder andere Art zu der Annahme
> von unüberwindbaren Grenzen.

Dazu tendiere ich als Nichtgläubiger auch. Hürde Nummer eins das 
mangelnde Verständnis der Funktion unserers Gehirns und Nummer 2 die 
schiere Grösse.

Wie bitte möchte man ein solches Netz wachsen lassen und das 
kostengünstig? Schon geringe Einflüsse im kindlichen Wachstum führen zu 
extremen Anomalieren im Gehirn, beginnend mit Autismus und Genialität, 
die oft genug eng beieinander liegen. Wer möchte das steuern?

Solche Dinge wurden von der Natur durch Selektion sortiert, sieht man 
daran, dass es auch sehr intelligente Tiere gibt. Die funktionieren 
aber alle anders und haben sich über Jahre Millionen in eine Niesche 
entwickelt.

Wesentlich ist dabei, das try and error System mit Massen an Versuchen.

Wieviele Neurohirne will man bauen?

Und wer will die alle trainieren? Kinder beziehen ihre Fähigkeiten durch 
Lernen, als Abgucken von anderen Kindern und Erwachsene, zzg einer 
langen Schulausbildung.

Wenn man heute ein Netz baut, dass einen Roboter befähigen soll, einfach 
zu laufen und nicht auf die Fresse zu fallen, braucht es schon 100 
Ingenieure.

Klar, man kann einen trainieren und dann auch andere Übertragen. Aber 
dann haben alle denselben idiotischen Fehler.

Und welche Firma soll das denn bitte bauen und die Tools bereitstellen?

Xilinx? Die kriegen es doch nicht mal hin, dass ihre grafischen IP 
Blöcken sinnvoll updatebar sind, wenn eine neue Version rauskommt.

Intel? Die Altera-Tool-Chain hinkt der von Xilinx immer noch hinterher.

MATHWORKS? Ich habe vor vielen Jahren mal Simuling mit FPGA-Synthese 
untersucht und validiert, daraufhin seinerzeit Frau von der Ruhr eine 
Verbesserungs- und Korrekturliste übersandt, die nach ihrer Aussage auch 
an die Entwickler ging. Die Macken sind z.T. heute noch nicht behoben.

Google? Die müssten was kaufen, wenn es schnell gehen soll. Vlt kaufen 
sie ja Lattice auf und stecken ihre Suchmaschine rein.

Kann natürlich sein, dass die schon am SuperCompi bauen und der auch 
schon angefangen hat, Intelligenz zu entwickeln. Müssen wir halt den 
Arni noch einmal aktivieren, das rechtzeitig zu stoppen. Meines Wissens 
hat der sich ja schon in Kalifornieren angesiedelt und in Stellung 
gebraucht.

Autor: Compi Experti (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Compi Experti schrieb:
> Wenn man heute ein Netz baut, dass einen Roboter befähigen soll, einfach
> zu laufen und nicht auf die Fresse zu fallen, braucht es schon 100
> Ingenieure.

Als kleiner Nachtrag: Der in DE entwickelte Bohrer des aktuellen 
Marsroboter-Experiments, hat sich gestern festgefressen. Man hat bei der 
Planung übersehen, dass es auf dem Mars Steine gibt und es verpennt 
einen Plan B zu erarbeiten, wie man in einem solchen Fall agieren muss. 
Ok, sie kommen von der Uni in Bremen, das erklärt es gfs.

Offenbar haben das die Entwickler in ihrem Sandkasten nicht richtig 
nachgestellen und voraus üben können. Kein Wunder da es sich bei den 
Herren um die U40-Fraktion handelt, die mit dem Internet aufgewachsen 
sind und nicht mehr in echten Sandkästen gespielt haben.

Unser eins wäre das mit Sicherheit schon in der Planung in den Kopf 
gekommen, weil wir den Fall im Kindergarten 100x hatten. Die Lösung ist 
einfach schräg rein zu bohren, damit sich beim Anschlagen in Verbindung 
mit der Graviation eine Querkraft ergibt und damit der Bohrer entweder 
zusehens zur Seite abrutscht oder sich das Bohrgerät wegbewegt.

Daran sieht man, wie schwer es Menschen fällt ein System zu bauen, das 
auf alle Eventualitäten gefasst ist und reagieren kann.

*********

Ich sehe es schon kommen, den neuronal gesteuerten Roboter, der dreimal 
so intelligent ist, wie ein Mensch, uns alle Arbeit abnimmt und uns im 
Auto hinfährt, wohin wir wollen. Kann aber gut sein, dass der dabei 
öfters mal über seine Schnürsenkel fällt, weil er sich wie so viele 
Genies, die Schuhe nicht zubinden kann. Kann auch sein, dass er auch mal 
falsch abbiegt, weil er es nicht kapiert, dass das Verkehrschild von 
einem Heini über nacht auf den Kopf gedreht wurde und er keine 
Erinnerung dran hat und es auch nicht plausibilisieren kann.

Oder irgendein Vogel scheisst auf die Kamera und das super intelligente 
kamerabasierte Auto macht auf nasser Fahrbahn eine Vollbremsung, kommt 
ins Rutschen und generiet einen Riesenunfall, wie zuletzt bei einem 
Toyota. Ein Mensch weiß, dass er auf nass unterwegs ist und bremst 
leicht ab, wenn ihm was ins Auge kommt. Hat keiner dran gedacht.

Nee, Leute, Menschen sind schlau, weil sie Lernen und ein Autofahrer hat 
im Schnitt 5 Jahre Führerschein bis zu seinem ersten kritischen Manöver 
inklusive weiterer 18 Jahre Lebenserfahrung, sozusagen als Software. Und 
die Hardware ist 8 Mio Jahre alt, basierend auf 200 Mio Jahren 
Vorentwicklung.

Ich erlebe den sicheren autonomen Roboter, den man alleine auf die 
Menschen loslässt nicht mehr und wenn, wird das eine teure 
Angelegenheit:

Passt mal auf, wie sich die Polen über autonome Autos freuen werden, die 
VW gerade entwickelt: Die sollen in Parkbuchten in den Städten warten, 
bis sie jemand ruft und dann selber den Passagier suchen, zum Ziel 
fahren, um die Zahl der Autos zu reduzieren und Car-sharing zu 
erleichtern. Die Polen brauchen die dann einfach nur in einen Laster zu 
lotsen. Die freuen sich sicher auch über autonome Roboter, die sie 
ausschlachten können. (Laut BKA wurden allein in Polen im letzten Jahr 
60 illegale Werkstätten aufgefunden, die geplaute Autos komplett 
zerlegen).

Selbst die dummen Drohnen, die fast nichts können, werden doch jetzt 
schon geklaut. Wie will man solche Hi-Tec-Geräte frei rumlaufen lassen? 
Alle zur Sicherheit vernetzt? Mit einem 10G Netz, das die Chinesen 
bauen, weil wir es nicht hinkriegen?

Fragen über Fragen

Ich würde mal sagen, wir fangen mal damit an, dass wir die Funklöcher 
und Internetlöcher in DE stopfen, damit wenigstens alle mal den 
Mindeststandard von 2008 haben (DSL 6000 und UMTS).

Dann sorgen wir für gerechte Löhne und die Abschaffung der 
Zeitarbeitsausbeutung, damit wir nicht noch mehr Arme auf den Strassen 
haben, die keine Kohle haben und klauen gehen müssen, bzw eine 
Revolution von unten anfangen und Leute ausrauben und ihnen die Organe 
rausreissen.

Dann sorgen wir uns um den Klimaschutz und um unser Wasser! Bevor die 
ersten Roboter rumstolpern und irgendwelche Aufgaben lösen, vergeht mehr 
Zeit, als wir überhaupt noch auf dem Planeten haben! Die USA z.B. hat im 
mittleren Westen eine so grosse Menge an Grundwasser entnommen, dass es 
500.000 Jahre braucht, bis es nach fleisst. Man google mal danach! 
Angeblich reicht das Wasser noch für 15 Jahre, dann hat Amerika ein 
Nahrungsproblem. Und zwar eins, dass an die Hungerkatastrophen der 80er 
in Afrika heranreicht.

Schauen wir mal, ob man dann in Kalifornieren Solizium essen wird, weil 
kein Korn mehr da ist.

Autor: Carl (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Max Tegmark gibt hier einen guten Überblick zum momentanen Stand der 
Forschung und was die Entwickler über die zukünftige Entwicklung 
glauben:

https://www.ted.com/talks/max_tegmark_how_to_get_empowered_not_overpowered_by_ai?language=de#t-563459

Das größte Problem ist das KI-Wettrüsten zu vermeinden.

Autor: A. S. (rava)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
@Compi Experti

nimm's mir nicht böse, aber das klingt ja leicht frustriert. Das 
beobachte ich eigentlich immer wieder bei Kollegen Ü40. Und 
zugegebenermaßen bin ich auch auf dem Weg dorthin. Vielleicht ist die 
Welt heute frustrierender? die Probleme schwieriger? Die Psyche von 
allen schwächer?

Compi Experti schrieb:
> Wieviele Neurohirne will man bauen?
>
> Und wer will die alle trainieren? Kinder beziehen ihre Fähigkeiten durch
> Lernen, als Abgucken von anderen Kindern und Erwachsene, zzg einer
> langen Schulausbildung.

Trainiert werden nicht so viele, oder? Die meinsten werden kopiert.

Compi Experti schrieb:
> Und welche Firma soll das denn bitte bauen und die Tools bereitstellen?

Eine, die die Probleme versteht, die ihre Kunden zu lösen versuchen. Das 
ist gar nicht so einfach, denn die Materie ist neu für alle. Schnelle 
Anpassungsfähigkeit ans geänderte Problemverständnis ist entscheidend. 
Daher ist OpenSource auf dem Gebiet recht erfolgreich.
Und nvidia versucht's auch.

Compi Experti schrieb:
> Kann natürlich sein, dass die schon am SuperCompi bauen und der auch
> schon angefangen hat, Intelligenz zu entwickeln.

Nicht nur die. FAANG sind die Kandidaten, weil die genug zentrale 
Rechenleistung haben. Die allererste AGI fällt sicherlich nicht aus 
solchen kleinen Chips, wie sie hier im Thread stehen. Miniaturisierung 
kommt später.
"TPU" wäre da heute so ein Suchbegriff, oder "DGX-2". Allerdings weiß in 
der westlichen Welt auch keiner so richtig, was die Chinesen machen. 
Vielleicht braucht der Arnie einen Jetski.

Compi Experti schrieb:
> Daran sieht man, wie schwer es Menschen fällt ein System zu bauen, das
> auf alle Eventualitäten gefasst ist und reagieren kann.

Yep. Ich frage mich, ob die ganzen schlauen Leute, die heutzutage Ü40 
sind, auch mal jung waren und dann Engineeringprobleme hatten, die 
niemand zuvor schon gelöst hatte.
Vermutlich gibt's Leute Ü60, die denen damals gesagt haben, wie alles zu 
funktionieren hat, weil's immer schon so funktioniert hat, obwohl denen 
die Probleme der Ü40er eigentlich völlig fremd waren und sie eigentlich 
auch keine Ahnung hatten, wie man diese neuen Probleme löst.
Oder vielleicht ist es auch ein Problem der heutigen Zeit, dass die 
Komplexität auch bei Projekten explodiert, die sicherheitskritisch sind.

Compi Experti schrieb:
> Mit einem 10G Netz, das die Chinesen
> bauen, weil wir es nicht hinkriegen?

Stimmt schon. Viele Konzerne kommen nicht aus ihrem eigenen Sumpf raus 
und können daher nichts mehr entwickeln. Das scheint mir vor allem ein 
Europäisches Problem zu sein. Ich glaube, genau wie du, dass die Tage 
des Labels "Made in Germany" gezählt sind.
Aber woran liegt's? In den großen, trägen Konzernen sitzen eigentlich 
mehr Leute Ü40 als U40. Ruht man sich da etwas zu sehr auf seinem Ruhm 
aus? Ist das die Schuld von graubärtigen Entscheidungsträgern? Oder von 
Müllbeutelfrisurhipstern mit Nerdbrille?

Compi Experti schrieb:
> Dann sorgen wir für gerechte Löhne und die Abschaffung der
> Zeitarbeitsausbeutung, damit wir nicht noch mehr Arme auf den Strassen
> haben, die keine Kohle haben und klauen gehen müssen, bzw eine
> Revolution von unten anfangen und Leute ausrauben und ihnen die Organe
> rausreissen.

Fragt sich nur, was die alle machen sollen. Wenn ich dich richtig 
verstehe, traust du denen ja das Marsroboterbauen nicht zu.

: Bearbeitet durch User
Autor: S. R. (svenska)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Carl schrieb:
> Das größte Problem ist das KI-Wettrüsten zu vermeinden.

Zu spät. Es gibt ein paar Unternehmen, die wesentlich weiter sind als 
der Rest der Welt und die werden ihre Vorteile nicht aus der Hand geben.

Dazu kommen die immer kürzeren Produktzyklen, die es erzwingen, dass man 
nicht fertig entwickelte Produkte auf den Markt werfen muss, denn sonst 
geht man zu früh pleite.

A. S. schrieb:
>> Kinder beziehen ihre Fähigkeiten durch Lernen, als Abgucken
>> von anderen Kindern und Erwachsene, zzg einer
>> langen Schulausbildung.
>
> Trainiert werden nicht so viele, oder? Die meinsten werden kopiert.

Die Fähigkeiten werden kopiert, die Gehirne werden trainiert.

Dazu kommt dann noch der Unterschied zwischen Theorie und Praxis, d.h. 
das üben. Alle, die nie vom Fahrrad gefallen sind, haben nie 
draufgesessen.

A. S. schrieb:
> Viele Konzerne kommen nicht aus ihrem eigenen Sumpf raus
> und können daher nichts mehr entwickeln. Das scheint mir
> vor allem ein Europäisches Problem zu sein.

Sehe ich nicht so. Das ist allgemein ein Problem großer, hierarchisch 
strukturierter Konzerne. Die bewegen sich alle mit der Geschwindigkeit 
von langsamen Gletschern, weil sie eine Risikominimierungsstrategie 
fahren müssen.

Risiko eingehen heißt, Kosten zu verursachen, die möglicherweise nicht 
ausgeglichen werden können, den Ruf schädigen können und damit 
mittelfristig den Gewinn schmälern können.

Autor: Atemis H. (at0)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Compi Experti schrieb:
> Fangen wir mal damit an, dass Gläubige per se schon kritisch zu bewerten
> sind, weil sie an Dinge glauben, die nicht bewiesen sind, sondern
> überliefert wurden und teilweise längst widerlegt sind.

Offenbar hast du aber eine ähnliche Anschauung. Der Fortschritt geht 
weiter aber du postulierst unbewiesene unüberwindbare Grenzen auf dem 
Weg zu einer starken KI.

Compi Experti schrieb:
> Und wieviele sind das?

Aus dem persönlichen Umfeld sind es glaube 4 Leute mit denen ich 
darrüber diskuttiert habe und im Internet eine größere Zahl.

Compi Experti schrieb:
> Dazu tendiere ich als Nichtgläubiger auch. Hürde Nummer eins das
> mangelnde Verständnis der Funktion unserers Gehirns und Nummer 2 die
> schiere Grösse.

Und wie kannst du dir sicher sein dass der Fortschritt die Hürden die du 
siehst nicht überwinden kann?
Der mangelnde Verständnis ist etwas was sich von Tag zu Tag abbaut. Man 
versteht immer mehr. Eine Barriere die die Forschung vollständig 
stagnieren lässt wurde bisher nicht gefunden.

Compi Experti schrieb:
> Wie bitte möchte man ein solches Netz wachsen lassen und das
> kostengünstig? Schon geringe Einflüsse im kindlichen Wachstum führen zu
> extremen Anomalieren im Gehirn, beginnend mit Autismus und Genialität,
> die oft genug eng beieinander liegen. Wer möchte das steuern?

Man sollte zuerst mal unterstreichen dass wir hier von einer starken KI 
reden, richtig?
Also von einer menschenähnlichen KI und Bewusstsein? Es ist doch aber 
klar dass es ungemein leichter ist unterhalb einer starken KI unzählige 
von erfolgreichen Anwendungen mit künstlichen neuronalen Netzen zu 
entwickeln. So wie es momentan ja geschieht. Und das ist der Fakt über 
das wir sprechen können. Der Fortschritt der weiter geht. Das eine 
starke KI definitiv möglich ist will ich gar nicht behaupten. Es ist für 
mich eine spannende Reise und interessant zu sehen wie weit man kommen 
wird.
Man wird sehen ob irgendwann die Technologie und Wissenschaft so weit 
sind und ein Markt entsteht der eine starke KI unbedingt fordert. Die 
Methoden und Mitteln die es dann gäbe kannst du nicht einfach mit heute 
gleichsetzen.

Compi Experti schrieb:
> Solche Dinge wurden von der Natur durch Selektion sortiert, sieht man
> daran, dass es auch sehr intelligente Tiere gibt. Die funktionieren
> aber alle anders und haben sich über Jahre Millionen in eine Niesche
> entwickelt.
>
> Wesentlich ist dabei, das try and error System mit Massen an Versuchen.

Die Basis auf der künstliche neuronale Netze laufen ist nicht die 
Biologie. Biologische Netze benötigen längere Zeiträume des Lernens. 
Halbleiter sind kleiner als einzelne Neuronen und laufen mit einem 
höheren Takt als biologische Netze.
Und wenn die Quantencomputer irgendwann die ersten großen Durchbrüche 
haben hat man wieder eine ganz andere Basis für die künstliche 
Intelligenz.
Es ist denkbar dass aufgrund dieser Flexibilität die künstliche 
Intelligenz auf Systemen laufen kann die erhebliche Vorteile haben 
gegenüber biologische Systeme.

Compi Experti schrieb:
> Daran sieht man, wie schwer es Menschen fällt ein System zu bauen, das
> auf alle Eventualitäten gefasst ist und reagieren kann.

Wer sagt denn dass ein System fehlerfrei sein muss um Fortschritt zu 
erzielen? Das ist doch wie in der Evolution. Fehler und Fehlschläge sind 
Teil des Entwicklungsprozess. In der Evolution ist es eine Quelle der 
Variation und in menschlichen Projekten eine Quelle der Kreativität. Wo 
Probleme gelöst werden entsteht ein Lernprozess.

Autor: Carl (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Autor: S. R. (svenska)
>Carl schrieb:
>> Das größte Problem ist das KI-Wettrüsten zu vermeiden.
>Zu spät.

Es ist schon richtig, dass sich viele Firmen in diesem Bereich tummeln. 
Aber man kann nur hoffen, dass denen irgendwann Bandagen angelegt 
werden. Zur Diskussion kann ich wirklich das Video oben empfehlen.

Ich nehme mal an, dass schon jeder das hier über eine praktische 
Anwendung von Bildverarbeitungs- und Regelungsalgorithmen gesehen hat:

ttps://www.youtube.com/watch?v=9CO6M2HsoIA

Autor: S. R. (svenska)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Atemis H. schrieb:
> Wer sagt denn dass ein System fehlerfrei sein muss
> um Fortschritt zu erzielen?

Niemand, aber ein unzuverlässiges System will ich nicht in kritischen 
Bereichen einsetzen. Und für unkritische Systeme kann ich auch Menschen 
nehmen, das schafft einerseits Jobs und hält zum anderen die 
Gesellschaft stabil.

Atemis H. schrieb:
> Man wird sehen ob irgendwann die Technologie und Wissenschaft
> so weit sind und ein Markt entsteht der eine starke KI unbedingt
> fordert.

Ich frage mich nur, für was wir diese halbzuverlässigen halbstarken KIs 
einsetzen werden, wenn wir sie haben. Sie sind ja gerade dabei, 
Expertensysteme in der Juridik zu ersetzen und z.B. Richtern die 
Gesetzeslage inklusive Begründung in die Feder zu diktieren.

Relevanter XKCD: https://xkcd.com/1968/

Autor: Hallhuber (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
A. S. schrieb:
> Yep. Ich frage mich, ob die ganzen schlauen Leute, die heutzutage Ü40
> sind, auch mal jung waren und dann Engineeringprobleme hatten, die
> niemand zuvor schon gelöst hatte.

Du beist doch zu sehr am reinen Alter fest. Die Aussage ist eine andere:

Heute ist die Ausbildung flacher und kürzer, was die Substanz schwinden 
lässt. Die kommen immer früher in den Arbeitsprozess, was die Qualität 
behindert. Das ist schon Gegenstand von Untersuchungen und belegt. Die 
Zahl der Anfängerfehler steigt und steigt in den Projekten.

Früher gab es da klarere Hierarchien und mehr Redunanz. Viele 
Entwicklungen hatten mehr Zeit. Wenn man sich aber mal eine Art des 
schlampigen Entwickelns angelernt hat, kommt man davon nicht mehr weg.

Die Einstellungspolitik vieler Firmen geht in die gleiche Richtung: 
Lieber billig und schmalbandig ausgebildet.

Autor: Karl (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Hallhuber schrieb:
> Heute ist die Ausbildung flacher und kürzer, was die Substanz schwinden
> lässt.

Falsch, die Ausbildung war früher genauso flach, aber es gab weniger 
Wissen, sodass "die Tiefe größer aussah"

> Die kommen immer früher in den Arbeitsprozess, was die Qualität
> behindert.

Soweit mir bekannt ist das Durchschnittsalter der Berufseinsteiger nicht 
wesentlich gesunken. Und das Jahr Bundeswehr hat die Qualität sicher 
nicht gehoben.

> Das ist schon Gegenstand von Untersuchungen und belegt.

Bitte mal die Untersuchungen verlinken

>  Die Zahl der Anfängerfehler steigt und steigt in den Projekten.

Oder die Zahl der Projekte in denen Anfänger signifikanten Einfluss 
haben steigt?

> Früher gab es da klarere Hierarchien und mehr Redunanz. Viele
> Entwicklungen hatten mehr Zeit. Wenn man sich aber mal eine Art des
> schlampigen Entwickelns angelernt hat, kommt man davon nicht mehr weg.

Du stellst also selber fest, dass die alten, angeblich gut ausgebildeten 
Säcke (die das zu entscheiden haben sind nicht die Jungen) die Budgets 
für Einarbeitung, Mitarbeiterführung Redundanz und Entwicklungszeit 
zusammenstreichen, schiebst aber die Schuld auf die Jungen angeblich 
schlecht ausgebildeten. Etwas Schizophren!

Autor: Carl (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Uhh ... jetzt driftet es ab. Wenn es um die Intelligenz beim Menschen 
geht, versteht man keinen Spaß.

Denn frei nach Wilhelm Busch:

Ist jemand schlauer noch als wir,
ist es selten ein Plaisir,
Ist er jedoch dümmer,
freut uns das fast immer.

Hier ein fundierter Artikel über die Untersuchung des IQs über die Zeit:
https://www.spektrum.de/news/warum-die-intelligenz-nicht-weiter-steigt/1612044

Ich bin ja ein Anhänger der These, dass Handies zur Verblödung beitragen 
....

Beitrag #5815574 wurde vom Autor gelöscht.

Antwort schreiben

Die Angabe einer E-Mail-Adresse ist freiwillig. Wenn Sie automatisch per E-Mail über Antworten auf Ihren Beitrag informiert werden möchten, melden Sie sich bitte an.

Wichtige Regeln - erst lesen, dann posten!

  • Groß- und Kleinschreibung verwenden
  • Längeren Sourcecode nicht im Text einfügen, sondern als Dateianhang

Formatierung (mehr Informationen...)

  • [c]C-Code[/c]
  • [avrasm]AVR-Assembler-Code[/avrasm]
  • [vhdl]VHDL-Code[/vhdl]
  • [code]Code in anderen Sprachen, ASCII-Zeichnungen[/code]
  • [math]Formel in LaTeX-Syntax[/math]
  • [[Titel]] - Link zu Artikel
  • Verweis auf anderen Beitrag einfügen: Rechtsklick auf Beitragstitel,
    "Adresse kopieren", und in den Text einfügen




Bild automatisch verkleinern, falls nötig
Bitte das JPG-Format nur für Fotos und Scans verwenden!
Zeichnungen und Screenshots im PNG- oder
GIF-Format hochladen. Siehe Bildformate.

Mit dem Abschicken bestätigst du, die Nutzungsbedingungen anzuerkennen.