mikrocontroller.net

Forum: Ausbildung, Studium & Beruf Machine Learning überall?


Announcement: there is an English version of this forum on EmbDev.net. Posts you create there will be displayed on Mikrocontroller.net and EmbDev.net.
Autor: Not deep, not neural, no network (Gast)
Datum:

Bewertung
2 lesenswert
nicht lesenswert
Das Thema Machine Learning wabert seit einiger Zeit immer wieder durch 
die Fachmedien.
Zumindest in meiner täglichen Arbeit ist davon aber noch nichts 
angekommen. Ich programmiere noch anstatt zu trainieren.

Bin ich bald von gestern oder legt sich das wieder? Ist der Einstieg in 
die Thematik zu meistern? Geht damit mehr, als Bilder zu klassifizieren?
Wird ML bestehende Disziplinen ergänzen oder eher verdrängen?

Autor: Walter T. (nicolas)
Datum:

Bewertung
3 lesenswert
nicht lesenswert
Sehr gut! Das ist ein Freitagsthema, wo man sich herrlich drüber 
auslassen kann.

Autor: David S. (Firma: Bankenaufsicht) (avmsterdam)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Für manche Branchen wird das unverzichtbar sein, aber in anderen wirst 
du es überhaupt nicht brauchen.

Autor: Gradieller Abstieg (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
David S. schrieb:
> Für manche Branchen wird das unverzichtbar sein, aber in anderen
> wirst du es überhaupt nicht brauchen.

Kann das nicht die Regelungstechnik ersetzen? So ein CNN kann man 
entfernt als Fuzzy Regler betrachten, der sich seine Regeln selbst 
beibringt.

Autor: Mark W. (kram) Benutzerseite
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Eine Definition waere am Anfang immer nicht schlecht. Damit alle ueber 
das Gleiche reden.
Also was ist denn Machine Learning?

Autor: SWEngineer (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Der Hype wird wieder abflachen, aber letztlich gibt es schon recht viele 
Bereiche, wo ML eingesetzt werden kann. Besonders sicherlich im Bereich: 
Text, Sprache und Bild, also da wo klassische Verfahren unbrauchbar 
sind.

Autor: Hypegenervter (Gast)
Datum:

Bewertung
-3 lesenswert
nicht lesenswert
Das ist alles alter Wein in neuen Schläuchen. An der Uni Stuttgart gab 
es den SNNS schon, da bestand Google noch aus Lego-Steinen.

Autor: Alex G. (dragongamer)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
In welchem Bereich entwickelst du?

Im Embedded wird es noch eine lange Weile dauern bis das irgendwas 
übernimmt. Gewisse Regelungen kann man dadurch im Prinzip schon 
ersetzen, aber der Aufwand lohnt sich meist noch nicht. Man muss ja 
bedenken dass man diese dann erst aufwendig mit vielen Daten trainieren 
muss.

Es ist aber gut möglich dass Neuronale Netze als übergeordnete 
Strukturen z.B. in Fabriken zum Einsatz kommen und die embedded 
komponenten verwalten und optimieren indem sie den produktiven Einsatz 
der schon besteht, als Datenquelle verwenden.
An solchen Systemen arbeiten die großen Industrieutnernehmen wie Bosch 
bereits.

In Server-Basierten Diensten wie Spracherkennung aber auch Marktanalysen 
und anderen Automatisierungssystemen wo es um massive Datenmengen geht, 
hat das Thema definitiv jetzt schon Relevanz und wird da auch eher nicht 
wieder abflachen.


"Normale" Softwareentwickler wird man sicherlich trotzdem noch seeeehr 
lange in allen Bereichen brauchen. Wenn man sich auf Machine Learning 
spezialisiert kann es aber durchaus berufliche Vorteile oder mehr Geld 
bringen (sofern man nicht alles andere vernachlässigt).


Hypegenervter schrieb:
> Das ist alles alter Wein in neuen Schläuchen. An der Uni Stuttgart gab
> es den SNNS schon, da bestand Google noch aus Lego-Steinen.
Nungut viele der Algorithmen gibt es in der Tat schon zum Großteil seit 
den 80ern und 90ern, aber erst in den letzten 10 Jahren hat die Hardware 
die benötigte Leistungsfähigkeit erreicht um mit diesen Technologien 
wirtschaftlich arbeiten zu können!

: Bearbeitet durch User
Autor: Epi (Gast)
Datum:

Bewertung
2 lesenswert
nicht lesenswert
Alter Wein in neue Schläuche? Sicherlich nicht.

Klar gibt es CNNs schon seit 1989. Aber die bahnbrechenden Ergebnisse 
(Klassifikation von Objekten/Sprache bspw.) von ~30% Fehlerrate auf 
menschliche Fehlerrate ~5% runter zu bringen ist sicherlich neu und nur 
durch ein Zusammenspiel von gestiegener Rechenleistung, größeren und 
offenen Trainingsdatensätzen und einer ganzen Reihe von Tipps und Tricks 
(z.B. Regularisierung) möglich geworden. Wenn du im Bereich von 
Interpretation von komplexen Sensordaten arbeitest, ist das Thema 
sicherlich hochinteressant. Sicherlich auch für den Finanzbereich. 
Regelungen/Steuerungen von irgendwelchen kleinen Maschienchen betrifft 
das gar nicht. Inwieweit DNNs für Logistik/Optimierung eingesetzt werden 
können weiß ich nicht.

Autor: Not deep, not neural, no network (Gast)
Datum:

Bewertung
-2 lesenswert
nicht lesenswert
Wo ist die Abgrenzung? Also, was erledige ich besser mit klassischer 
Programmierung, was eher mit ML? Oder ist ML universell genug, dass 
damit alles geht?

Autor: Alex G. (dragongamer)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Not deep, not neural, no network schrieb:
> Wo ist die Abgrenzung? Also, was erledige ich besser mit klassischer
> Programmierung, was eher mit ML? Oder ist ML universell genug, dass
> damit alles geht?
Du hast nicht wirklich Ahnung was Machine learning ist, kann das sein?

Feste Abgrenzung gibt es nicht - und Grenzen sind bekanntlich dafür da, 
überschritten zu werden ;)

Arbeite dich erstmal grob ein wenig ein. Die Algorithmen und Theorien 
musst du nicht alle kennen, denn es gibt Tools die man dann z.B. mittels 
Python scripte verwenden kann.
Am besten dokumentiert sind z.B. Gesichtserkenner oder Objekterkenner. 
Damit kann man anfangen denn du wirst viele Ressourcen im Netz finden.

Sobald du diese Grundprinzipien kennst, kannst du besser einschätzen wo 
das vieleicht Sinn macht.

Du musst dich aber nicht von fremden Grenzen aufhalten lassen! Das Thema 
ist noch immer neu und bei weitem nicht alles woran andere forschen, 
wird auch veröffentlicht.
Wenn du daran interessiert bist, pick dir einfach eine Problemstellung 
aus deienr gewohnten Arbeitsumgebung heraus (am besten eines das mit den 
üblichen Methoden eben verbesserungswürdige Ergebnisse liefert) und leg 
los. Überlege wie sich die Problemstellung so umbauen lässt, dass es 
sich durch Machine Learning angehen lässt.
Neben Neuronalen netzwerken eigenen sich oft sogenannte genetische 
Algorithmen noch für ein viel breiteres Spektrum an Problemen 
(insbesondere von Regelungen).

Wenn du geschickter Softwareentwickler bist, kannst du durchaus binnen 
ein paar Monate neben der Arbeit was interessantes erreichen, da du 
deine Arbeitsumgebung bereits gut kennst (und das besser als ein 
ML-Profi der sich erstmal in dein Thema einarbeiten muss).

Einen genetischen Algorithmus habe ich z.B. für ein Softwareprojekt an 
der Hochschule so entwickelt.

: Bearbeitet durch User
Autor: Not deep, not neural, no network (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Alex G. schrieb:
> Du hast nicht wirklich Ahnung was Machine learning ist, kann das sein?

Nein, darum der Thread!

Autor: Alex G. (dragongamer)
Datum:

Bewertung
-2 lesenswert
nicht lesenswert
Not deep, not neural, no network schrieb:
> Alex G. schrieb:
>> Du hast nicht wirklich Ahnung was Machine learning ist, kann das sein?
>
> Nein, darum der Thread!
Und was ist der Sinn des Threads? >_>
Das Forum ist nicht dein persönliches Google!

Autor: Ivo -. (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Not deep, not neural, no network schrieb:
> Ist der Einstieg in
> die Thematik zu meistern?

Ja auf jeden Fall, ich gehe mal davon aus, dass du das hobbymäßig machen 
willst und nicht beruflich, dann kann ich dir dieses Buch empfehlen:
Neuronale Netze selbst programmieren

Ich habe es selber noch nicht gelesen, wird aber immer wieder hoch 
gelobt...

Gruß Ivo

Autor: SWEngineer (Gast)
Datum:

Bewertung
5 lesenswert
nicht lesenswert
Naja Abflachen wird der Hype sicher, weil es ein Hype ist. Das heißt 
aber nicht, dass es ganz verschwinden wird, im Gegenteil.

Weil ich mich schon immer für AI interessiert habe und mich deswegen 
schon im Studium darauf spezialisiert habe, bin ich jetzt in einer recht 
guten Situation und arbeite in dem Bereich. Im embedded Bereich sehe ich 
da weniger Einsatzzwecke, aber da kenne ich mich auch nicht so gut aus. 
Auch dass wir in 5 Jahren nicht mehr programmieren, sondern "trainieren" 
halte ich für Unsinn.

Tatsächlich wird viel übertrieben bei dem was geht und was nicht geht, 
aber gerade im Webumfeld wird aktuell schon viel im Produktionsbetrieb 
eingesetzt.(Amazon, Google, Zalando, AirBnb usw.) Tendenz steigend.

Robotik, Autonomes Fahren und "IoT" sind auch alles Bereiche, die stark 
von ML beeinflusst sind und grundsätzlich kann man sagen, dass es mit 
mehr Daten auch immer besseres ML gibt.

Beitrag #5327011 wurde von einem Moderator gelöscht.
Beitrag #5327033 wurde von einem Moderator gelöscht.
Beitrag #5327057 wurde von einem Moderator gelöscht.
Autor: Hypegenervter (Gast)
Datum:

Bewertung
3 lesenswert
nicht lesenswert
Gruselig wird es, wenn konkrete Entscheidungen auf Machine  Learning 
basieren. Es gibt Firmen, die Scorings für die Vergabe von Krediten 
damit berechnen.
Warum der Computer jetzt aber "nein sagt", das kann bei solchen 
Algorithmen keiner mehr beantworten. Es gibt schließlich keine 
Spezifikation, in der das Verhalten deterministisch beschrieben ist.

Autor: Alex G. (dragongamer)
Datum:

Bewertung
5 lesenswert
nicht lesenswert
Hypegenervter schrieb:
> Gruselig wird es, wenn konkrete Entscheidungen auf Machine  Learning
> basieren. Es gibt Firmen, die Scorings für die Vergabe von Krediten
> damit berechnen.
> Warum der Computer jetzt aber "nein sagt", das kann bei solchen
> Algorithmen keiner mehr beantworten. Es gibt schließlich keine
> Spezifikation, in der das Verhalten deterministisch beschrieben ist.
Wieso genau ist das gruselig?
Es ist midnestens genau so doof wenn das Ja oder Nein von der momentanen 
Stimmung des Mitarbeiters abhängt >_>

Des weiteren ändert sich das ein wenig. In der tat waren in den ersten 
paar jahren diese NN eine faszinierende Blackbox. Inzwischen kommt man 
durchaus dahinter was das System tut. Bei Grafik-Erkennungssystemen 
konnte man z.B. die Schlüssel-Formen extrahieren die das System zum 
Erkennen sich selbst beigebracht hat.
Das ist auch ein bedeutsamer Forschungszweig, denn das ermöglicht es, 
Wissen zwischen verschiedenen NNs zu übertragen und damit massiv das 
Lernen zu beschleunigen.

Also nein, die Welt wird nicht von, un-nachvollziehbaren Maschinen 
kontrolliert werden. Politiker haben die Hoheit darauf, Entscheidungen 
zu treffen die die breite Masse nicht versteht ;)

: Bearbeitet durch User
Autor: Hypegenervter (Gast)
Datum:

Bewertung
1 lesenswert
nicht lesenswert
Alex G. schrieb:

> Wieso genau ist das gruselig?
> Es ist midnestens genau so doof wenn das Ja oder Nein von der momentanen
> Stimmung des Mitarbeiters abhängt >_>
>

Aber der kann dir eine verständliche Begründung liefern, ob er will ist 
die andere Frage. ;)

> Des weiteren ändert sich das ein wenig. In der tat waren in den ersten
> paar jahren diese NN eine faszinierende Blackbox. Inzwischen kommt man
> durchaus dahinter was das System tut.
>
> Also nein, die Welt wird nicht von, un-nachvollziehbaren Maschinen
> kontrolliert werden. Politiker haben die Hoheit darauf, Entscheidungen
> zu treffen die die breite Masse nicht versteht ;)

Das mag nun pessimistisch klingen, aber es wäre nicht die erste 
Technologie, die zwar sehr mächtig und vielversprechend ist, der 
Menschheit aber letztendlich über den Kopf wächst.
Bei der Atomkraft hat man auch lange alle offensichtlichen Risiken 
ausgeblendet.

Autor: Alex G. (dragongamer)
Datum:

Bewertung
2 lesenswert
nicht lesenswert
Hypegenervter schrieb:
> Das mag nun pessimistisch klingen, aber es wäre nicht die erste
> Technologie, die zwar sehr mächtig und vielversprechend ist, der
> Menschheit aber letztendlich über den Kopf wächst.
> Bei der Atomkraft hat man auch lange alle offensichtlichen Risiken
> ausgeblendet.
Faktisch ist sie nicht der Menscheit über den Kopf gewachsen.

Halte zwar erneuerbare Energiequellen auch zweifellos für die 
investierungswürdigere Alternative heutzutage, aber die Atomkraft hat zu 
Recht ihre Position in der Geschichte und hätten wir keine Erneuerbaren 
Energien, wäre sie die nächstbeste Alternative.
Es gibt inzwischen zahlreiche Sicherheitskonzepte (die es zur Zeit 
Tschernobyl und als auch die halbwegs modernen Reaktoren gebaut wurden, 
noch nicht gab)  und auch ganze Funktionsweisen wo die Kernschmelze 
selbst bei Versagen aller kontrolierend Systeme, gar ausgeschlossen 
werden kann.

Endlagerung ist spätestens in 200 Jahren technisches Fortschritts, kein 
Problem mehr. Bis dahin gibt es mindestens Weltraumaufzüge.
Durch "Brütreaktoren" kann man Materialien schon jetzt recyclen - 
Problem mit denen ist nur die politische Bedeutung mit Hinblick auf 
Atomwaffenpotential.

Es scheitert wie immer am Geld... Es hätte aber noch viel schlimmeres 
passieren können.

: Bearbeitet durch User
Autor: Stefanus F. (stefanus)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
> Es gibt inzwischen zahlreiche Sicherheitskonzepte

Wem nützt sichere Technologie, wenn sie aus Geldgier nicht verwendet bzw 
ordentlich gepflegt wird?

> Endlagerung ist in x Jahren kein Problem mehr

Das sagte man schon vor 50 Jahren, und dennoch gibt es kein auch nur 
halbwegs akzeptables Endlager.

> Durch "Brütreaktoren" kann man Materialien schon jetzt recyclen

Mag sein, aber es wird nicht gemacht!

> Es scheitert wie immer am Geld

Glaube ich nicht. Sowohl die Regierungen der Welt als auch die Banken 
dürfen beliebig Geld drucken, je nach Bedarf. Und das tun sie auch.

Es scheitert viel mehr an der Gier der Mächtigen und ihr Bedürfnis, 90% 
der Bevölkerung immer schon klein zu halten.

Autor: Alex G. (dragongamer)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Stefan U. schrieb:
> Das sagte man schon vor 50 Jahren, und dennoch gibt es kein auch nur
> halbwegs akzeptables Endlager.
Wobei das an der Poltik und nicht an der Machbarkeit liegt.

> Sowohl die Regierungen der Welt als auch die Banken
> dürfen beliebig Geld drucken, je nach Bedarf. Und das tun sie auch.
>
> Es scheitert viel mehr an der Gier der Mächtigen und ihr Bedürfnis, 90%
> der Bevölkerung immer schon klein zu halten.
Ähh.. Okey, dann scheitert es am Willen, Ressourcen und Arbeitsleistung 
aufzuwenden >_>
Ob man Geld drucken kann oder nicht, ist natürlich irrelevant.

Autor: Nop (Gast)
Datum:

Bewertung
2 lesenswert
nicht lesenswert
Alex G. schrieb:

> Wobei das an der Poltik und nicht an der Machbarkeit liegt.

Ja sicher. Machbarkeit. Für die nächsten paar hunderttausend Jahre 
sicher einlagern. Nur um das mal ins Verhältnis zu setzen, der homo 
sapiens als solcher existiert überhaupt erst seit etwa 200.000 Jahren, 
und Hochkulturen brechen typischerweise alle 1000-2000 Jahre vollständig 
zusammen.

Davon ab ist den Betreibern die Sicherheit völlig egal, solange 
eventuelle Schäden erst dann auftreten, wenn das gegenwärtige Management 
seine Aktienoptionen versilbert hat.

Autor: Alex G. (dragongamer)
Datum:

Bewertung
-1 lesenswert
nicht lesenswert
Eine Weltumspannende Gesellschaft hat es auf usnerem Planeten noch nie 
gegeben. Vollständig zusammenbrechen werden "wir" nicht mehr.

Nee ernsthaft, bedenke was sich in den letzten 100 Jahren getan hat und 
rechne das nochmal oder zweimal weiter! Wenn schon der Fortschritt mehr 
als linear verhält (wonach es aussieht) dann kannst du das gleich 
verzigfachen.

Des weiteren haben wir offensichtlich auch ohne Endlagerstätte kein 
ernsthaftes Problem, denn sonst wäre das ganze nicht mehr Wirtschaftlich 
(was jedoch nicht der Fall ist).

Autor: vn nn (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Alex G. schrieb:
> Wieso genau ist das gruselig?
> Es ist midnestens genau so doof wenn das Ja oder Nein von der momentanen
> Stimmung des Mitarbeiters abhängt >_>

https://media.ccc.de/v/34c3-8811-beeinflussung_durch_kunstliche_intelligenz

"KI ist wie Geldwäsche für Vorurteile"

Alex G. schrieb:
> Des weiteren haben wir offensichtlich auch ohne Endlagerstätte kein
> ernsthaftes Problem, denn sonst wäre das ganze nicht mehr Wirtschaftlich
> (was jedoch nicht der Fall ist).

Wirtschaftlich ist es in erster Linie weil indirekt subventioniert, 
unter anderem dadurch, dass die Endlagerung zum Schluss an Steuerzahler 
hängen bleiben wird.

Autor: Stefanus F. (stefanus)
Datum:

Bewertung
1 lesenswert
nicht lesenswert
> Okey, dann scheitert es am Willen, Ressourcen und
> Arbeitsleistung aufzuwenden

Nein! Die allermeisten sind fleißig.

Das Problem ist die Gier! Wenige Menschen sammeln den Lohn der Fleißigen 
ein, um sich darauf auszuruhen und damit ihre Macht zu stärken.

> Wenn schon der Fortschritt mehr als linear verhält
> (wonach es aussieht) dann kannst du das gleich verzigfachen.

Der Fortschritt verläuft keineswegs mehr als linear! Egal ob die 
Menschheit seit 200.000 oder 8.000 Jahren existiert, wir erleben in den 
vergangenen 200 Jahren einen auffälligen technischen Fortschritt.

Nach so kurzer Zeit kann man noch nicht abschätzen, wie es die nächsten 
200.000 Jahre weiter geht. Dazu kommt, dass der technische Fortschritt 
schon längst zu stagnieren begonnen hat.

Vor etwa 50 Jahren betraten wir erstmalig den Mond. Seit dem haben wir 
weder den Mond noch einen anderen Planeten betreten.

Bis zum Jahr 200 hieß es noch, dass unsere Computer alle zwei Jahre 
doppelt so Leistungsstark werden. Das ist nicht mehr der Fall.

Doch das Leben besteht nicht nur aus Technik. Alleine die Tatsache, dass 
wir immer noch Waffen produzieren und Konflikte mit Gewalt lösen, zeigt, 
dass wir in 200.000 Jahren immer noch fast so dumm sind, wie 
Eintagsfliegen. Wenn Aliens uns finden würden (haben sie vielleicht 
schon) würden Sie sich sicher entweder von uns fern halten oder und weg 
sprengen, denn wir sind nicht nur eine Gefahr für uns selbst sondern für 
das ganze Universum - falls wir jemand weiter als bis zum Mond kommen.

Um mit Atom-Reaktoren sicher umzugehen, müssten wir erst einmal wirklich 
intelligent werden. Was ich in meinem ganzen Leben vom Verhalten der 
Menschen gelernt habe ist eins: Sie handeln nicht intelligent, sondern 
von Gier getrieben. Die Gier geht über Verstand und Empathie. Das gilt 
sicher nicht für alle Menschen, aber für die meisten, die das Geschick 
der ganzen Menschheit lenken.

Es ist uns nicht gelungen, die Macht den weisen Menschen zu geben. 
Nichtmal das schaffen wir.

: Bearbeitet durch User
Autor: Akustikus (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Stefan Us schrieb:
> Es ist uns nicht gelungen, die Macht den weisen Menschen zu geben.
> Nichtmal das schaffen wir.

Es ist ja auch nur ein Versuch der Evolution. Wenns schief geht, wonach 
es fast aussieht, ja mei. Der Planet uberlebts, der Nächste bitte.

Autor: Hypegenervter (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Auch die Bad Guys können KI verwenden:

https://www.wired.de/collection/tech/forscher-haben-einen-warnungsreport-zur-kuenstlichen-intelligenz-verfasst

Und ohne KI haben wir unsere Computer doch heute schon nicht mehr im 
Griff.
Alleine die Zahl an Sicherheitslücken (Spectre als Highlight) und die 
resultierende Tatsache, dass dadurch jedes internetfähige Gerät zur 
potentiellen Wanze wird zeigt doch wo wir stehen.
Das wird durch noch mehr Komplexität, die man nicht mal mehr wirklich 
debuggen kann nicht besser werden.

Dann kommen am Ende die Quantencomputer und machen jegliche 
Verschlüsselung nichtig.

Autor: TinTin (Gast)
Datum:

Bewertung
-2 lesenswert
nicht lesenswert
Aus meiner Sicht wird das mit den neironalen Netzen noch etwas dauern. 
Ich halte es auch für einen Hirnfurz da massenweise Programmierer dran 
zu setzen. Das Thema ist mathematisch noch nicht 100% durchdrungen. Man 
kann zum Beispiel noch nicht wirklich sagen wieviele Neuronen man 
wirklich braucht um ein Problem zu lernen soweit ich informiert bin. 
Auch Methoden zur Optimierung von neuronalen Netzen sind eher 
zufallsbediengt.. Im Kern ist es aber nichtlinearen Optimierung und 
damit ein ziemlich mathematisches Problem. Eingesetzt werden sie meist 
als klassifizierer. Und klassifizierer sind im Sinne von überwachtem 
lernen viel effizienter mit Support Vektor Maschinen machbar. 
Unüberwachtes Lernen ist aber aus meiner Sicht noch Forschungsthema. 
Programmieren ist ganz einfach.. Aber ob das Netz mit Backpropagation 
tatsächlich lernt garantiert erstmal niemand soweit ich weiß.

Autor: F. B. (finanzberater)
Datum:

Bewertung
-3 lesenswert
nicht lesenswert
Not deep, not neural, no network schrieb:
> Bin ich bald von gestern oder legt sich das wieder? Ist der Einstieg in
> die Thematik zu meistern? Geht damit mehr, als Bilder zu klassifizieren?
> Wird ML bestehende Disziplinen ergänzen oder eher verdrängen?

Also auf den Finanzmärkten sind schon KIs im Einsatz.

Autor: Akustikus (Gast)
Datum:

Bewertung
-3 lesenswert
nicht lesenswert
> Also auf den Finanzmärkten sind schon KIs im Einsatz.

Das wird wohl eher AA sein.
AA = Artificial Avarice

Beitrag #5329537 wurde von einem Moderator gelöscht.
Autor: Yoiko (Gast)
Datum:

Bewertung
3 lesenswert
nicht lesenswert
TinTin schrieb:
> Aus meiner Sicht wird das mit den neironalen Netzen noch etwas dauern.
> Ich halte es auch für einen Hirnfurz da massenweise Programmierer dran
> zu setzen. Das Thema ist mathematisch noch nicht 100% durchdrungen. Man
> kann zum Beispiel noch nicht wirklich sagen wieviele Neuronen man
> wirklich braucht um ein Problem zu lernen soweit ich informiert bin.
> Auch Methoden zur Optimierung von neuronalen Netzen sind eher
> zufallsbediengt.. Im Kern ist es aber nichtlinearen Optimierung und
> damit ein ziemlich mathematisches Problem. Eingesetzt werden sie meist
> als klassifizierer. Und klassifizierer sind im Sinne von überwachtem
> lernen viel effizienter mit Support Vektor Maschinen machbar.
> Unüberwachtes Lernen ist aber aus meiner Sicht noch Forschungsthema.
> Programmieren ist ganz einfach.. Aber ob das Netz mit Backpropagation
> tatsächlich lernt garantiert erstmal niemand soweit ich weiß.

Neuronale Netze funktionieren schon recht gut,  z. B. zur 
Gesichtserkennung oder dem Erkennen von Handschriften. Neuronale Netze 
heißt ja auch nicht, dass man ünüberwacht lernt.

Ansonsten ist ja gerade der Reiz am unüberwachten lernen zu schauen, ob 
ein Algorithmus eventuell Dinge Anders klassifiziert als ein Mensch. Das 
ist gerade da nützlich, wo es hunderte gar tausende Attribute gibt die 
ein Mensch "nicht mehr erfassen kann". Ich hatte das Thema mal in einer 
Seminararbeit und ein recht eingängiges Beispiel war beispielsweise die 
Klassifikation von Medikamenten. Ich habe dort nur repetiert, aber das 
Ergebnis war, dass der Algorithmus angefangen hat die Medikamente Anhand 
von Wechselwirkungen zu unterscheiden und in Klassen zu ordnen. Das fand 
ich schon echt spektakulär :) ...

Insgesamt ist das ganze Thema ja schon "recht altbacken". Amazon nutzt 
ML Algorithmen seit Jahren, um z. B. Produktvorschläge zu geben ("Wenn 
Sie Artikel XY kaufen, könnte Sie auch das interessieren"). Oder 
Facebook nutzt das "markiere deinen Freund auf Foto XY" um eine 
Trainingsdatenbank zu füllen und später Leute eigenständig auf Fotos 
markieren zu können. Gruselig, aber bereits Alltag.

Gerade im Bereich E-Commerce oder Biologie/Pharmazie, wo man eben mit 
großen Datenmengen hantiert, ein Alter Schuh. Ich glaube nicht, dass das 
Thema mal unter "Programmierern" ein gefragter Skill sein wird. Es ist 
eher für Datenanalysten interessant.

Autor: SWEngineer (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Yoiko schrieb:
> Ich glaube nicht, dass das
> Thema mal unter "Programmierern" ein gefragter Skill sein wird. Es ist
> eher für Datenanalysten interessant.

Da glaubst du falsch

Autor: Epi (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
SWEngineer schrieb:
> Da glaubst du falsch

sign

Ist auch relativ klar. Was ist besser? Regeln und Abläufe von Hand 
engineeren mit irgendwelchen Fummelparametern die irgendein Ingenieur 
mit irgendeiner Methode erzeugt hat, oder die Fummelparameter Abläufe 
als globales Optimum über einen gigantischen Satz an relevanten Daten 
ermitteln?

Die Fortschritte durch DNNs sind brutal. 30 Jahre Bildverarbeitung wird 
mit gigantischem Abstand geschlagen von belernbaren Strukturen in die 
irgendein Hansel ein paar öffentlich verfügbare Datensätze reingefüttert 
hat.

Schau dir an welche Bereiche schon davon betroffen sind und extrapoliere 
wo man da wahrscheinlich landen wird. Es werden immer mehr 
(software)-Probleme als Optimierungsproblem verstanden, formuliert und 
dann durch ML gelöst. Wird sicherlich einen Dämpfer erhalten (ist immer 
so bei einem Hype) aber ML ist gekommen um zu bleiben.

Autor: Kurios (Gast)
Datum:

Bewertung
-1 lesenswert
nicht lesenswert
Epi schrieb:
> SWEngineer schrieb:
>> Da glaubst du falsch
>
> sign
>
> Ist auch relativ klar. Was ist besser? Regeln und Abläufe von Hand
> engineeren mit irgendwelchen Fummelparametern die irgendein Ingenieur
> mit irgendeiner Methode erzeugt hat, oder die Fummelparameter Abläufe
> als globales Optimum über einen gigantischen Satz an relevanten Daten
> ermitteln?
>
> Die Fortschritte durch DNNs sind brutal. 30 Jahre Bildverarbeitung wird
> mit gigantischem Abstand geschlagen von belernbaren Strukturen in die
> irgendein Hansel ein paar öffentlich verfügbare Datensätze reingefüttert
> hat.
>
> Schau dir an welche Bereiche schon davon betroffen sind und extrapoliere
> wo man da wahrscheinlich landen wird. Es werden immer mehr
> (software)-Probleme als Optimierungsproblem verstanden, formuliert und
> dann durch ML gelöst. Wird sicherlich einen Dämpfer erhalten (ist immer
> so bei einem Hype) aber ML ist gekommen um zu bleiben.

Entschuldigt, aber da liegt ihr beide eben voll daneben und Yoiko hat es 
richtig erfasst. Es wird nur noch Frameworks geben (sieht man z. B. an 
Tensorflow) die dann auf die Problemstellungen angewendet werden. 
Möglich das mehr Programmierer dann in die Analyse Wechseln, aber dass 
die Implementation von Neuronalen Netzwerken und Detail Wissen über 
MachineLearning Algorithmen ein Skill für Programmierer werden -> im 
Leben nicht.

Das ist ungefähr so als würde der Statiker seine Simulation selber 
schreiben xD ...

Autor: Alex G. (dragongamer)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Naja, dass man in zukunft nur noch frameworks nutzt und nicht mehr 
"programmiert" hat man schon in verwschiedenen Bereichen vor 20 Jahren 
gedacht. Bewahrheitrt, hat sich das nicht.
Nur vorgefertigtes zu verwenden führt nicht immer zum Ziel.

Man braucht schon etwas wissen darüber wie Tensorflow funktoniert um es 
sinnvoll einzusetzen. Natürlich wird nicht vom Entwickler erwartet dass 
er from scratch ein NN auf diesem Niveau entwickeln kann.

: Bearbeitet durch User
Autor: SWEngineer (Gast)
Datum:

Bewertung
-1 lesenswert
nicht lesenswert
Kurios schrieb:
> Entschuldigt, aber da liegt ihr beide eben voll daneben und Yoiko hat es
> richtig erfasst. Es wird nur noch Frameworks geben (sieht man z. B. an
> Tensorflow) die dann auf die Problemstellungen angewendet werden.
> Möglich das mehr Programmierer dann in die Analyse Wechseln, aber dass
> die Implementation von Neuronalen Netzwerken und Detail Wissen über
> MachineLearning Algorithmen ein Skill für Programmierer werden -> im
> Leben nicht.
>
> Das ist ungefähr so als würde der Statiker seine Simulation selber
> schreiben xD ...

Es sagt ja niemand, dass das jeder Entwickler nutzen und können muss, 
das war nie gemeint. Die Aussage, war das ML nie ein gefragter Skill für 
Programmier wird, was Quatsch ist, weil es jetzt schon ein gefragter 
Skill ist. Natürlich nicht für jeden, aber das ist wie bei allem in der 
Informatik.

Autor: TinTIn (Gast)
Datum:

Bewertung
1 lesenswert
nicht lesenswert
@Yoiko

da hat der Prof aber Werbung gemacht... =)
Na ja er muss sein Geld ja auch mit Forschung verdienen.
Stell Dir mal einen 3 Dimensionalen Raum vor. Auf den Achsen sollen 3 
Eigenschaften aufgetragen sein.
Durch den legst Du nichtlineare Flächen zur Klassifizierung der 
einzelnen Punkte. Das können auch Volumen sein, wobei ein Volumen durch 
eine Fläche beschrieben wird welche geschlossen ist (Logarithmen zum 
Beispiel für kugeln). Das würde einem Mehrschicht Perceptron mit 3 
Eingangsneuronen entsprechen.
Durch die Nichtlinearen Flächen bekommst Du bedingte 
Wahrscheinlichkeiten.
Tadaa ... .Die Medikamente können nach ihren bedingten 
Wahrscheinlichkeiten klassifiziert werden und damit auch nach ihren 
Wechselwirkungen.
Und das wusste der Prof.... Das war einfach ein Ausblick...


Funktionieren tuen neuronale Netze bereits recht gut, das ist richtig.
Wie schon gesagt habe ich einige neuronale Netze programmiert,
und kenne mich auch ganz gut mit den Optimierungsverfahren aus.


Trotzdem gibt es noch viele Dinge welche noch nicht so ganz klar sind 
bei den Dingern.
Also im Vergleich zur linearen Regelungstechnik zum Beispiel.
Wenn neuronale Netze 100% mathematisch durchdrungen sind, dann meine ich 
kommt man auch mit nichtlinearen Regelungen (Nichtlinearität zwischen 
zwei LTI-Systemen) zurecht. Heute macht man dort eben ne Linearisierung 
im Arbeitspunkt, erhält aber dann leider Hysterese verhalten in den 
leicht nichtlinearen Bereichen.

Bei Neuronalen Netzen weiß man zum Beispiel noch nicht wie man die 
Anzahl der Neuronen für ein bestimmtes Problem auslegt.
Wieviele Schichten benötige ich damit mein Problem gelernt wird ??
Wieviele Neuronen Pro Schicht sind optimal ??
Wie vermeide ich dass mein Lernalgorithmus nicht in einem lokalen 
Minimum hängenbleibt ??
Es fehlen Algorithmen welche alle Neuronen des Netzes betrachten, und 
nicht ein oder zwei Schichten. ...

Also ich meine im Vergleich zu linearen Reglern zum Beispiel gibt es 
dort noch einiges zu tuen.
Man kann sie schon einsetzen, und sie Funktionieren,
aber es ist schwer über die Güte des Netzes eine Aussage zu machen wie,
habe ich die optimale Anzahl von Neuronen, sind meine Lernparameter 
korrekt, etc. ohne es durchzutesten.
Zumindest habe ich da noch nichts ordentliches gefunden bist jetzt.

Autor: TinTIn (Gast)
Datum:

Bewertung
1 lesenswert
nicht lesenswert
Wobei man sagen muss dass nichtlineare Optimierung jetzt auch nicht ganz 
das Neuste ist.
Lagrange-Multiplikatoren kommen als neuronales Netz plötzlich ganz neu 
daher.
Auch Wissenschaftler verkaufen eben ihre alten Sachen gerne als den 
neusten Mercedes.
Es sind mit Sicherheit Verbesserungen da, aber sie haben das Rad jetzt 
nicht neu erfunden.

Autor: Epi (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
TinTIn schrieb:
> Bei Neuronalen Netzen weiß man zum Beispiel noch nicht wie man die
> Anzahl der Neuronen für ein bestimmtes Problem auslegt.
> Wieviele Schichten benötige ich damit mein Problem gelernt wird ??
> Wieviele Neuronen Pro Schicht sind optimal ??
> Wie vermeide ich dass mein Lernalgorithmus nicht in einem lokalen
> Minimum hängenbleibt ??
> Es fehlen Algorithmen welche alle Neuronen des Netzes betrachten, und
> nicht ein oder zwei Schichten. ...

Das ist zwar prinzipiell richtig, aber irgendwie auch nicht. Du kannst 
nicht analytisch berechnen welche Hyperparameter deines Netzes optimal 
sind, aber du kannst vollautomatisch durch Aufteilen deiner Lerndaten in 
Trainings, Test und Validierungsmenge auch diese Parameter optimieren. 
In der Industrie ist nur wichtig was funktioniert und meist nicht, ob 
man das Ergebnis auch geschlossen herleiten kann.

Im Falle der Regelungstechnik ist es auch so, dass es zwar all die 
schönen theoretischen Modell und Methoden zur Auslegung gibt, aber in 
der Praxis wird dann doch von Hand eingestellt (oder nur die 
Defaultparameter verwendet wie im Falle von Chemieanlagen). Woran liegt 
das? An allen Dingen die du bei der Modellierung deines Systems 
vernachlässigt hast bzw. die du überhaupt nicht weißt und nur mit 
ungeheurem Aufwand ermitteln kannst. Dann doch lieber Lernsysteme, die 
dir dein Modell gleich mitlernen und die auch keine Schwierigkeiten mit 
nichtlinearem Verhalten haben und auch mit nicht gaußschem Rauschen klar 
kommen.

PS: Das Problem mit den lokalen Minima ist heuristisch gelöst: verwende 
noch mehr Lerndaten.

Autor: klausi (Gast)
Datum:

Bewertung
1 lesenswert
nicht lesenswert
Ich finde das Gebiet einfach super spannend, auch ein Grund warum ich 
demnächst eine Vorlesung in dem Bereich besuche. Mit allen drum und dran 
;-)

Versucht mal kaggle.com und spielt ein bisschen mit den Daten. Gibt 
vieles interessantes zu entdecken.

Autor: TinTIn (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Was auch super spanend ist sind neuronale Netze mit Rückkopplung oder 
geometrischen Reihen. =).
Also unser Gedächtnis nachbauen ...

Autor: Natürliche Intelligenz (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Was hat sich in dem Bereich seit Anfang des Jahres getan?

https://www.elektronikpraxis.vogel.de/vde-ceo-hinz-zu-ki-in-deutschland-es-ist-ein-kampf-gegen-windmuehlen-a-774580/

Nüschts. Es wird immer deutlicher: Dadurch, dass Europa das Internet in 
den letzten Dekaden Google und Konsorten überlassen hat ("Das bisschen 
Webgefrickel kann doch jeder, echte Männer machen C"), steht langsam 
aber sicher unsere Zukunft auf dem Spiel. Der Druck im Kessel steigt.
Sind wir noch in der Lage, das Ruder herumzureissen? Wer weiß. Airbus 
hat es aus dem Nichts an die Weltspitze geschafft. Europa braucht für 
die KI nun so eine Art Brainbus. Eine zielgerichtete Bündelung aller 
Kräfte.

Autor: Berufsrevolutionär (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Natürliche Intelligenz schrieb:

> Nüschts.
> Webgefrickel kann doch jeder, echte Männer machen C"),
> Der Druck im Kessel steigt.
> Sind wir noch in der Lage, das Ruder herumzureissen?
> Europa braucht für
> die KI nun so eine Art Brainbus.

So ein Stuss.

Autor: Alex G. (dragongamer)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Ganz so doof sind unsere Unternehmen hier auch wieder nicht. Bosch 
investiert einige Millionen in den Bereich KI
Allerdings mussten sie mussten tief anfangen. So richtige, moderne 
Softwaregrößen haben wir hier in Europe in der Tat leider wenige bis 
nicht.
Denke aber KI wird ganz besonders eine Technologie sein die nicht 
wirklich patentrechtlich geschützt werden kann. Also können Unternehmen 
durchaus auch später einsteigen ohne komplett im Hintertreffen zu sein.
Im Moment wird auch praktisch jeder neue Ansatz per Paper publik gemacht 
(und da tut sich extrem viel). Die reale Technologien die Google und Co. 
im Moment einsetzen sind bereits einige Jahre alt, da man vom Ansatz, 
zum fertigen Algorithmus schon eine Weile braucht.

Was zielgerichtete Bündelung aller Kräfte angeht.. naja.. das brauchten 
die Amerikaner auch nicht.
Denke "Konkurenz belebt das Geschäft" ist der bessere Ansatz. Europa 
muss Allerdings Chancen und Freiheiten bieten damit diese Branche 
aufholen kann und fürchte genau die wurden durch den DSVGO Mist 
signifikant geschmälert.

: Bearbeitet durch User
Autor: Rainer Z. (mrpeak)
Datum:

Bewertung
2 lesenswert
nicht lesenswert
Ein großes Problem bei selbstlernenden Systemen ist, dass sie ab einer 
gewissen "advancedness" reine BlackBoxes sind. Die kann man nicht 
einfach mal einem Review unterziehen, weil sie unter der Haube so 
komplex sind, dass kein Mensch ihre Funktionsweise im Detail 
nachvollziehen kann bzw. daraus Schlussfolgerungen ableiten könnte. 
Vielleicht machen die in 50 von 50 Tests sogar genau das, was man sich 
wünscht. Ein Sicherheitszertifikat bekommt man dafür trotzdem nicht.

Autor: DrIng (Gast)
Datum:

Bewertung
1 lesenswert
nicht lesenswert
Süß. Bosch investiert ganz schwäbisch ein paar Millionen. Samsung 
investiert in der gleichen Zeit 18 Milliarden. Von Amazon, Google und 
co. mal gar nicht angefangen.

Autor: Alex G. (dragongamer)
Datum:

Bewertung
2 lesenswert
nicht lesenswert
Rainer Z. schrieb:
> Ein großes Problem bei selbstlernenden Systemen ist, dass sie ab einer
> gewissen "advancedness" reine BlackBoxes sind. Die kann man nicht
> einfach mal einem Review unterziehen, weil sie unter der Haube so
> komplex sind, dass kein Mensch ihre Funktionsweise im Detail
> nachvollziehen kann bzw. daraus Schlussfolgerungen ableiten könnte.
> Vielleicht machen die in 50 von 50 Tests sogar genau das, was man sich
> wünscht. Ein Sicherheitszertifikat bekommt man dafür trotzdem nicht.
Man arbeitet in diesem Bereich darum an sich schon mit 
Wahrscheinlichkeiten. Wie wahrscheinlich ist ein Fehlurteil?
Dies kann sehr wohl durch Simulieren von Inputwerten berechnet werden.

Wenn du dabei z.B. an autonomes Fahren denkst, muss im Endefekt nur die 
Wahrscheinlichkeit des Fehlurteils, geringer als der eines Menschen sein 
und schon hast du trotzdem ein sinnvolles System, ohne dass das System 
als "perfekt" gelten muss.

KI wird in Bereichen eingesetzt wo reguläre Algorithmen einfach an ihre 
Grenzen stoßen. Auch dort kann es recht schnell dazu kommen dass niemand 
mehr versteht was da geschieht weil Input aus so vielen Ecken kommt und 
die Entwicklung durch mehrere Leute, sich Schicht für Schicht 
übereinander gestapelt hat.
Manch ein Entwickler von Businesslogik kann ein Lied davon singen.


Für bestimtme Sachen werden aber natürlich auch in Zukunft "harte", 
"feste" Algorithmen verwendet werden.


DrIng schrieb:
> Süß. Bosch investiert ganz schwäbisch ein paar Millionen. Samsung
> investiert in der gleichen Zeit 18 Milliarden. Von Amazon, Google und
> co. mal gar nicht angefangen.
Bei diesen Summen fragt man sich echt einfach nur wohin das Geld geht.
Grad Software ist nichts in das du einfach Geld oder Resorucen 
reinschütten kannst um was zu erreichen.
Viele Forschungsfortschritte im KI bereich kommen übrigens weiterhin von 
Universitäten wo Professoren und Doktoranden mit durchschnittlichen 
Gehältern diese Leistungen vollbringen.

: Bearbeitet durch User
Autor: Stefanus F. (stefanus)
Datum:

Bewertung
-1 lesenswert
nicht lesenswert
Alex G. schrieb:
> Wenn du dabei z.B. an autonomes Fahren denkst, muss im Endefekt nur die
> Wahrscheinlichkeit des Fehlurteils, geringer als der eines Menschen sein
> und schon hast du trotzdem ein sinnvolles System

Technisch ja, juristisch nein.

Denn wenn mein Auto ein Kind tot fährt, wer ist dann Schuld? Es wird die 
geschädigte Familie nicht befriedigen, wenn zur Strafe mein Auto 
verschrottet wird oder der Betrieb dieser einen Version des 
Algorithmus/KI verboten wird.

Nein, ein Mensch soll dafür bluten. Und wenn man nicht herausfindet, wer 
wirklich Schuld ist, dann muss es eben der Fahrzeughalter sein.

So funktioniert jedenfalls unsere heutige Rechtsprechung. Ich finde, das 
passt nicht zu autonomen Systemen.

Autor: Alex G. (dragongamer)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Es gibt noch etwas was man "höhere Gewalt" nennt. Das ließe sich 
durchaus hierdrauf anwenden.

Autor: Chris D. (myfairtux) (Moderator) Benutzerseite
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Alex G. schrieb:
> Es gibt noch etwas was man "höhere Gewalt" nennt. Das ließe sich
> durchaus hierdrauf anwenden.

Wo soll höhere Gewalt im Spiel sein, wenn ein autonomes Fahrzeug 
jemanden auf einem Zebrastreifen plattmacht?

Autor: Cyblord -. (cyblord)
Datum:

Bewertung
1 lesenswert
nicht lesenswert
Stefanus F. schrieb:
> Nein, ein Mensch soll dafür bluten. Und wenn man nicht herausfindet, wer
> wirklich Schuld ist, dann muss es eben der Fahrzeughalter sein.
>
> So funktioniert jedenfalls unsere heutige Rechtsprechung. Ich finde, das
> passt nicht zu autonomen Systemen.

Kompletter Unsinn. Gerade so funktioniert die heutige Rechtsprechung 
NICHT. Sonst würden die Angehörigen die Strafe festlegen und nicht ein 
Richter.

Das sind wirklich die dümmsten Gründe gegen autonome Autos die man 
überhaupt vorbringen kann.


> Wo soll höhere Gewalt im Spiel sein, wenn ein autonomes Fahrzeug
> jemanden auf einem Zebrastreifen plattmacht?

Na so wie wenn ein Flugzeug wegen technischer Probleme abstürzt. Es 
handelt sich dann meist um eine komplexe Kette von Ereignissen die in 
der Gesamtheit nicht mehr auf eine einzige Ursache zurückzuführen ist. 
Umgangssprachlich: Dumm gelaufen.
Wenn ein autonomes Autos jemanden überfährt dann sieht es ähnlich aus.

: Bearbeitet durch User
Autor: c r (Gast)
Datum:

Bewertung
2 lesenswert
nicht lesenswert
Stefanus F. schrieb:
> So funktioniert jedenfalls unsere heutige Rechtsprechung. Ich finde, das
> passt nicht zu autonomen Systemen.

Die Rechtsprechung hinkt immer hinter dem technischen Fortschritt 
hinterher, das ist nicht erst seit ML so.

Dass Menschen durch technisches Versagen verletzt werden und keine 
natürliche Person direkt verantwortlich gemacht werden kann ist auch 
nichts neues, dann wird eben der Hersteller, Betreiber oder sonstwer auf 
Schmerzensgeld verklagt o.ä. und die Sache ist juristisch gesehen 
meistens erledigt.

Autor: Alex G. (dragongamer)
Datum:

Bewertung
2 lesenswert
nicht lesenswert
Chris D. schrieb:
> Alex G. schrieb:
>> Es gibt noch etwas was man "höhere Gewalt" nennt. Das ließe sich
>> durchaus hierdrauf anwenden.
>
> Wo soll höhere Gewalt im Spiel sein, wenn ein autonomes Fahrzeug
> jemanden auf einem Zebrastreifen plattmacht?
Weil das System so gut war wie technisch möglich, besser als ein Mensch, 
es aber trotzdem passiert ist.
@cyblord
Am Ende wird ein Richter entscheiden, das ist wahr.
Oder was genau meinst du?

Autor: Chris D. (myfairtux) (Moderator) Benutzerseite
Datum:

Bewertung
-1 lesenswert
nicht lesenswert
Alex G. schrieb:
>> Wo soll höhere Gewalt im Spiel sein, wenn ein autonomes Fahrzeug
>> jemanden auf einem Zebrastreifen plattmacht?
> Weil das System so gut war wie technisch möglich, besser als ein Mensch,
> es aber trotzdem passiert ist.

Das Problem dabei ist: wie weist man als Hersteller nach, dass es in der 
konkreten Situation besser war als ein Mensch?

Man kann bei den heutigen NN immer nur das Abrufen, was man ihnen vorher 
gezeigt hat.

Es werden aber viele Situationen auftreten, die das NN vorher noch nie 
hatte, die somit auch noch nie getestet und beurteilt werden konnten.

Autor: Alex G. (dragongamer)
Datum:

Bewertung
2 lesenswert
nicht lesenswert
Chris D. schrieb:
> Man kann bei den heutigen NN immer nur das Abrufen, was man ihnen vorher
> gezeigt hat.
Nein grade so funktionieren NNs nicht. So funktionieren klassische 
Algorithmen die für Situation X geschrieben wurden.
Neuronale Netzwerke lernen prinzipien und Muster in ihren Input daten 
und verknüpfenndiese Muster mit der gewünschten, gegebenen Antwort.
Das ist doch grade was diese Systeme ausmacht. Sie abstrahieren Probleme 
damit der Entwickler sie nicht "manuel" definieren muss, was bei sowas 
wie autonomen Fahren, nicht möglich wäre.

> Es werden aber viele Situationen auftreten, die das NN vorher noch nie
> hatte, die somit auch noch nie getestet und beurteilt werden konnten.
Es tut dies auf ähnliche Weise wie ein Mensch, durch Anwenden von 
gelernten Prinzipien auf die neue Situation.

Autor: c r (Gast)
Datum:

Bewertung
1 lesenswert
nicht lesenswert
Chris D. schrieb:
> wie weist man als Hersteller nach, dass es in der
> konkreten Situation besser war als ein Mensch?

Garnicht, erwartet auch keiner, will auch garkeiner wissen, der 
Fußgänger ist trotzdem tot.

Dass das System generell, also im Mittel besser als ein Mensch ist, muss 
die Statistik beweisen.

Chris D. schrieb:
> Man kann bei den heutigen NN immer nur das Abrufen, was man ihnen vorher
> gezeigt hat.
>
> Es werden aber viele Situationen auftreten, die das NN vorher noch nie
> hatte, die somit auch noch nie getestet und beurteilt werden konnten.

Das ist nur so halb richtig, aber das gilt ja noch viel mehr für 
"klassische" Software ohne NN.

Autor: Chris D. (myfairtux) (Moderator) Benutzerseite
Datum:

Bewertung
1 lesenswert
nicht lesenswert
Alex G. schrieb:
> Neuronale Netzwerke lernen prinzipien und Muster in ihren Input daten
> und verknüpfenndiese Muster mit der gewünschten, gegebenen Antwort.
> Das ist doch grade was diese Systeme ausmacht. Sie abstrahieren Probleme
> damit der Entwickler sie nicht "manuel" definieren muss, was bei sowas
> wie autonomen Fahren, nicht möglich wäre.

Das ist mir bekannt, ändert aber nichts am grundsätzlichen Problem: sie 
können nur das, was man ihnen beigebracht hat. Und das eben sehr eng 
gefasst.

Das ist leider so: um einen auch nur halbwegs vernünftigen Output zu 
generieren, benötige ich viele tausende oder Millionen Zyklen und habe 
dann trotzdem einen sehr eng gefassten Output.

>> Es werden aber viele Situationen auftreten, die das NN vorher noch nie
>> hatte, die somit auch noch nie getestet und beurteilt werden konnten.
> Es tut dies auf ähnliche Weise wie ein Mensch, durch Anwenden von
> gelernten Prinzipien auf die neue Situation.

Offenbar macht ein Mensch das aber ganz anders, denn ich erkläre einem 
Kleinkind ein, maximal zwei Mal, was eine Straße ist und zeige ihm ein 
Foto - und es wird mir mit sehr, sehr hoher Wahrscheinlichkeit jede Art 
von Straße benennen können, seien es auch Sand- oder auch Eispisten, die 
es vorher noch nie gesehen hat.

Weil das Kind nicht nur eine sehr grobe optische Information speichert, 
sondern vor allem den Zweck, den eine Straße erfüllen muss.

D.h. das ein Mensch problemlos mit solchen sehr unscharfen Situationen 
und abstrakten Begriffen umgehen kann, weil er diese offenbar ganz 
anders verarbeitet als unsere heutigen NNs.

Und im Straßenverkehr hast Du eben genau solche unscharfen Situationen 
zu Hauf: Situationen, in denen Du Dich vorher noch nie befunden hast und 
die komplett anders sind als das, was Du in der Fahrschule gesehen hast.

Trotzdem kommt man damit als Mensch recht gut zurecht, wie der 
fliessende und die relativ wenigen Unfälle Verkehr zeigen.

Heutige NN Netze sind einfach von ihrem Aufbau her offenbar nicht 
geeignet, solche Verknüpfungen zuzulassen. Um das Problem des 
vollautonomen Fahrens zu lösen, benötigt es ganz neue Ansätze und 
insbesondere erstmal ein viel besseres Verständnis dessen, was wir als 
Abstraktionsfähigkeit bezeichnen.

Andere rechtliche Probleme hatte ich ja schon in anderen Threads 
angesprochen: oft muss man die STVO verletzen, um Verkehrsfluss aufrecht 
erhalten zu können. Wie das die Hersteller handhaben werden, ist noch 
nicht geklärt. Klar ist aber: hält sich ein autonomes Fahrzeug immer 
strikt an die STVO, ist das Ding schlicht nicht brauchbar. Hält es sich 
aber nicht an die STVO, ist der Hersteller - natürlich - voll in der 
Haftung.

Autor: Cyblord -. (cyblord)
Datum:

Bewertung
1 lesenswert
nicht lesenswert
Chris D. schrieb:
> Das ist mir bekannt, ändert aber nichts am grundsätzlichen Problem: sie
> können nur das, was man ihnen beigebracht hat. Und das eben sehr eng
> gefasst.

Wie erklärst du dir dann die Erfolge von AlphaGo? Natürlich kann der nur 
Go Spielen, aber wenn er nur könnte was ihm beigebracht wurde, könnte 
ihn ja jeder bessere Go Spieler schlagen. Im Wirklichkeit konnte ihn 
aber niemand besiegen und es wurden einige extrem überraschende Züge von 
diesem System gemacht, welche kein Mensch so hätte machen oder 
vorraussehen können. Und die Züge der Gegner kann natürlich auch niemand 
vorraussehen. D.h. jeder Zug des Gegners ist eine völlig neue Situation 
für das System. Mit hoher Wahrscheinlichkeit hat es einen solchen Zug 
noch nie zuvor gesehen, da es eben sehr viele Zugmöglichkeiten und 
Stellungen bei Go gibt.

Sehr eng gefasst finde ich das nicht. Auf den Straßenverkehr übertragen 
könnte so ein DL System dann natürlich auch auf vorher nicht trainierte 
Situationen reagieren.

Autor: Chris D. (myfairtux) (Moderator) Benutzerseite
Datum:

Bewertung
1 lesenswert
nicht lesenswert
c r schrieb:
>> Es werden aber viele Situationen auftreten, die das NN vorher noch nie
>> hatte, die somit auch noch nie getestet und beurteilt werden konnten.
>
> Das ist nur so halb richtig, aber das gilt ja noch viel mehr für
> "klassische" Software ohne NN.

Natürlich.

Ich will NN nicht schlecht reden (ich hab schließlich darüber meine 
Dipl.-Arbeit geschrieben :-) - aber ich kenne eben ihre Grenzen.

Ich beobachte die "Szene" seit meiner Studienzeit. Mal waren NN komplett 
in der Versenkung verschwunden, jetzt werden sie wieder hervorgeholt, 
nur unter neuem Namen. Das Prinzip hat sich aber nicht geändert und das 
wird mMn prinzipbedingt nicht ausreichen, um vollautonomes Fahren zu 
ermöglichen.

Man sieht an den Problemen, die z.B. beim Tesla regelmäßig berichtet 
werden, dass man auch gar nicht genau weiss, was man wo ändern muss, um 
ein gewünschtes Verhalten zu erzeugen. Da wird dann mit "brutalen" 
klassichen Algorithmen das NN zwanghaft eingenorden, um Fehler 
auszuschließen - weil man nicht weiss, wie man das NN dazu bringen soll, 
etwas auf gar keinen Fall zu tun.

So etwas ist Flickschusterei - und man kämpft da noch mit so 
grundsätzlichen Dingen wie einer sicheren Fahrbahnerkennung auf ABs.

Autor: Cyblord -. (cyblord)
Datum:

Bewertung
-1 lesenswert
nicht lesenswert
Chris D. schrieb:
> Ich will NN nicht schlecht reden (ich hab schließlich darüber meine
> Dipl.-Arbeit geschrieben :-) - aber ich kenne eben ihre Grenzen.

Du scheinst bei NN von einem sehr niedrigen Niveau auszugehen. Das 
Google DeepLearning System das da zum Einsatz kam, war sicher kein 
einfaches NN wie es im Lehrbuch steht, mit ein paar Verknüpfungen und 
Gewichtungen an den Kanten. Womöglich bist du bei NN und DL nicht so 
ganz auf dem laufenden, trotz oder gerade wegen deiner Dipl. Arbeit?

Autor: Chris D. (myfairtux) (Moderator) Benutzerseite
Datum:

Bewertung
1 lesenswert
nicht lesenswert
Cyblord -. schrieb:
> Sehr eng gefasst finde ich das nicht. Auf den Straßenverkehr übertragen
> könnte so ein DL System dann natürlich auch auf vorher nicht trainierte
> Situationen reagieren.

Du kannst ein Go-Spiel aber nicht einfach auf den Straßenverkehr 
übertragen. Beim Go-Spiel hast Du sehr klare und stark begrenzte Regeln.

Schon die hast Du im Straßenverkehr nicht mehr. Das ist ein offenes 
System, in dem es immer wieder Situationen gibt, die vorher nie da waren 
und vermutlich auch nie wieder auftauchen werden. Das Go-Spiel und den 
Straßenverkehr trennen dort wirklich mehrere Größenordnungen.

Schon das Fassen und Aufstellen dieser Regeln, in denen das NN agieren 
darf, ist ein Problem für sich. Und mit diesen Regeln meine ich nicht 
die STVO ;-)

Und da hat das NN wohlgemerkt noch keinen einzigen Iterationsschritt 
hinter sich gebracht.

Du hast im Straßenverkehr weiterhin das Problem, dass Du das NN im 
übertragenen Sinne eben nicht permanent gegen sich selbst spielen lassen 
kannst, bis es dann mal einen vernünftigen Output liefert.

Wie ich schon schrieb: offenbar arbeitet das menschliche Gehirn da ganz 
anders als unsere heutigen NN. Es benötigt keine tausende von 
Iterationen, um mit einer eng gefassten Situation zurechtzukommen. Im 
Idealfall reicht sogar eine einzige Iteration aus.

Und das zeigt sich auch in den sehr dürftigen Fortschritten, die die NN 
in den letzten zwanzig Jahren genommen haben. Man arbeitet heute nur mit 
"brutaler" Rechenleistung, aber das Prinzip ist das selbe und der Output 
dieser NN zwar besser, aber immer noch sehr dürftig angesichts der 
problem, die zu lösen sind.

Und das wird nicht reichen.

Letztlich führt die Frage nach dem vollautonomen Fahrzeug auf die Frage, 
ob man es schafft echte Intelligenz zu erzeugen.

Ich hatte das mal flapsig so ausgedrückt, dass wir dann autonome 
Fahrzeuge haben, wenn das Fahrzeug mit "Fahr doch selber!" antwortet.

Der Unterschied zwischen "Erkennen" und "Begreifen" ist ein sehr, sehr 
großer.

Und ich glaube daran, dass es irgendwann ein solches echtes, technisches 
Bewusstsein geben wird.

Aber nicht mit den Werkzeugen der heutigen NN.

Autor: Stefanus F. (stefanus)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Cyblord -. schrieb:
> Wie erklärst du dir dann die Erfolge von AlphaGo?

Ich habe noch nicht begriffen, wie er die Regeln des Spiels gelernt 
haben soll.

Bei diesen Spielen ist allerdings die Bewertung der Ergebnisse an klare 
Regeln gebunden und dadurch sehr viel einfacher, als im echten Leben.

Wenn der Computer die Qual der Wahl hat, entweder eine alte Oma oder ein 
Schulkind zu überfahren, wie kann er die beiden erwarteten Ergebnisse 
bewerten?

Wenn eine unvorhergesehene Situation eintrifft, für deren mögliche 
Ergebnisse teilweise keine Bewertungsregel existiert, wie soll die KI 
dann reagieren?

Beispiel: Es fällt vermutlich ein Komet vom Himmel auf die Autobahn, 
aber absolut sicher sind sich die Sensoren da nicht. Soll das Auto eine 
Vollbremsung machen und dadurch eine Massenkarambolage riskieren, oder 
darauf hoffen, dass man an dem Brocken vorbei kommt?

Es gibt keine Verkehrsregel, die vorgibt, wie man oder es in diesem Fall 
reagieren soll. Insofern gibt es auch weder Richtig noch Falsch.

: Bearbeitet durch User
Autor: Cyblord -. (cyblord)
Datum:

Bewertung
-1 lesenswert
nicht lesenswert
Chris D. schrieb:
> Du kannst ein Go-Spiel aber nicht einfach auf den Straßenverkehr
> übertragen. Beim Go-Spiel hast Du sehr klare und stark begrenzte Regeln.

Natürlich kann man es übertragen. Es geht um die Entscheidungen des NN 
und dessen Fähigkeiten neue Situationen zu verarbeiten.

Das Problem im echten Leben sind vor allem die Sensoren. Nimm doch mal 
an du hättest ein komplettes Echtzeitbild von der Situtation im 
Straßenverkehr. Ein 100% Modell mit allen Infos. Dann sieht die Sache 
nämlich anders aus.

> Ich habe noch nicht begriffen, wie er die Regeln des Spiels gelernt
> haben soll.

Die Regeln muss er nicht lernen. Die kann man fest einprogrammieren. Die 
Reglen von GO sind sowieso einfach, was der Grund für die enorme 
Komplexität des Spieles selbst ist.

Er muss aber lernen es zu spielen, es gut zu spielen und zu gewinnen. 
Und das hat AlphaGo gelernt, durch Training.

Und in einem autonomen Auto ist die StVo ja nicht das Problem, die ist 
fest drin. Es geht GERADE um die unbekannten Situtationen und die kann 
man nur durch ein trainiertes NN überhaupt abbilden.

: Bearbeitet durch User
Autor: Chris D. (myfairtux) (Moderator) Benutzerseite
Datum:

Bewertung
1 lesenswert
nicht lesenswert
Cyblord -. schrieb:
> Chris D. schrieb:
>> Ich will NN nicht schlecht reden (ich hab schließlich darüber meine
>> Dipl.-Arbeit geschrieben :-) - aber ich kenne eben ihre Grenzen.
>
> Du scheinst bei NN von einem sehr niedrigen Niveau auszugehen.

Das Niveau ist sehr niedrig - immer verglichen mit den Problemen, vor 
denen wir beim autonomen Fahren stehen.

> Google DeepLearning System das da zum Einsatz kam, war sicher kein
> einfaches NN wie es im Lehrbuch steht, mit ein paar Verknüpfungen und
> Gewichtungen an den Kanten.

Doch, das ist es in der Tat - es ist dasselbe Prinzip.

Nicht falsch verstehen: die Leistungen sind beeindruckend. Aber 
prinzipbedingt eben auf einem nicht ausreichenden Niveau für 
vollautonomes Fahren.

> Womöglich bist du bei NN und DL nicht so
> ganz auf dem laufenden, trotz oder gerade wegen deiner Dipl. Arbeit?

Ich verfolge das schon sehr engmaschig. Daher bin ich auch ziemlich 
ernüchtert: das ist alles alter Wein in neuen Schläuchen - auch wenn sie 
viel größer sind.

Autor: c r (Gast)
Datum:

Bewertung
1 lesenswert
nicht lesenswert
Chris D. schrieb:
> Offenbar macht ein Mensch das aber ganz anders, denn ich erkläre einem
> Kleinkind ein, maximal zwei Mal, was eine Straße ist und zeige ihm ein
> Foto - und es wird mir mit sehr, sehr hoher Wahrscheinlichkeit jede Art
> von Straße benennen können, seien es auch Sand- oder auch Eispisten, die
> es vorher noch nie gesehen hat.

Gut, wenn wir jetzt künstliche NN und das menschliche Gehirn 
vergleichen: Die Architektur/Hyper-Parameter des menschlichen Gehirns 
wurden etliche Millionen Jahre optimiert und das NN des Kleinkinds hat 
zu diesem Zeitpunkt, wo du ihm eine Straße zeigst bereits JAHRE an 
"Trainingsdaten" gesehen.

Transferlearning steht noch ziemlich am Anfang, aber es zeigt Wirkung.

Autor: Cyblord -. (cyblord)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Chris D. schrieb:
> Nicht falsch verstehen: die Leistungen sind beeindruckend. Aber
> prinzipbedingt eben auf einem nicht ausreichenden Niveau für
> vollautonomes Fahren.

Nun aber das KI System war hier dem Mensch kognitiv weit überlegen. 
Warum das nicht zum bessere autofahren reichen soll weiß ich nicht.

Ist es nicht vielleicht doch nur die Sensorik und nicht die KI selbst?

Autor: c r (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Chris D. schrieb:
> Nicht falsch verstehen: die Leistungen sind beeindruckend. Aber
> prinzipbedingt eben auf einem nicht ausreichenden Niveau für
> vollautonomes Fahren.

Woran machst du das fest? Tesla, nVidia, comma.ai machen doch längst 
Dinge, die deiner Meinung nach unmöglich sind...

Autor: Chris D. (myfairtux) (Moderator) Benutzerseite
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Cyblord -. schrieb:
> Und in einem autonomen Auto ist die StVo ja nicht das Problem, die ist
> fest drin. Es geht GERADE um die unbekannten Situtationen und die kann
> man nur durch ein trainiertes NN überhaupt abbilden.

Aber ein trainiertes NN kann eben nur sehr eng die Situationen abbilden, 
auf die es trainiert wurde.

Habe ich aber eine komplett andere Situation, hat es darauf keine oder 
im schlimmsten Fall eben die falsche Antwort.

Die Ausgaben eines NN sind immer nur in einem kleinen Bereich rund um 
die gelernte Situation gut.

Wie geschrieben: ein NN, das auf die Erkennung einer Alphaltstraße 
trainiert wurde, wird komplett versagen, wenn man ihm eine Eispiste 
vorlegt.

Ein Mensch nicht.

Das ist kein Problem von "dann müssen wir das eben auch trainieren" 
sondern ein prinzipielles der bisherigen NN.

Autor: Chris D. (myfairtux) (Moderator) Benutzerseite
Datum:

Bewertung
1 lesenswert
nicht lesenswert
c r schrieb:
> Woran machst du das fest? Tesla, nVidia, comma.ai machen doch längst
> Dinge, die deiner Meinung nach unmöglich sind...

Welche sollten das denn sein?

Es geht doch nicht um das Spurhalten und das Erkennen von Fahrzeugen auf 
einer AB. Das ist geschenkt und einigermaßen mit einem NN abbildbar.

Es geht um dauerhaftes autonomes Fahren und das Verhalten in 
Situationen, in denen das Fahrzeug vorher noch nie war.

Autor: c r (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Chris D. schrieb:
> Wie geschrieben: ein NN, das auf die Erkennung einer Alphaltstraße
> trainiert wurde, wird komplett versagen, wenn man ihm eine Eispiste
> vorlegt.
>
> Ein Mensch nicht.

Da überschätzt du Menschen aber gewaltig.
Ein Mensch, der noch nie Eis betreten hat wird am Steuer auf einer 
Eispiste auch völlig versagen.
Aber ein Mensch hat eben vorher mit hoher Wahrscheinlichkeit schon 
jahrelang zu Fuß "trainiert" und kann die Erkenntnisse aufs Autofahren 
übertragen.

Autor: Name H. (hacky)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Weshalb sollten selbstlernende Systeme nicht sicher und zertifizierbar 
sein ? Zertifizierbar bedeutet :
-Das System ist sicher
-Das System faellt im Fehlerfall in einen sicheren Zustand zurueck.

Im Falle eine Heizung bedeutet das :
-Die Sicherheitslimiten der Temperaturen werden eingehalten
-Im Fehlerfall wird abgeschalten, resp falls moeglich bleibt das System 
oberhalb des Vereisungspunktes.

Im Falle eines Autos bedeutet das :
-Die Geschwindigkeitslimiten und Abstaende werden eingehalten
-Das Auto haelt immer korrekt an.
-Das Auto kann immer rechtzeitig bremsen
-Das Auto kann immer ausweichen
-Das Auto haelt im Fehlerfall an, resp feahrt auf eine sichere Position

Das ist machbar. Allenfalls noch nicht bei den Geschwindigkeiten, die 
wir uns vorstellen. Vielleicht muss es auch nie so schnell fahren, wie 
wir uns das jetzt vorstellen. Vielleicht reichen ja 25-30kmh innerorts

Alles klar ?

Autor: c r (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Chris D. schrieb:
> das Verhalten in
> Situationen, in denen das Fahrzeug vorher noch nie war.

Ich verstehe nicht ganz, von welchen Situationen du redest.

Ein Mensch, der nur Stadtverkehr kennt, versagt auf der Autobahn.
Ein Mensch, der nur Autobahn kennt, versagt auf Feldwegen.
Ein Mensch, der nur Asphalt, 20°C, offenes Feld ringsum und bewölkten 
Himmel um 12:00 kennt, versagt nachts im Wald.

Aber solche Menschen dürfen nicht ans Steuer und solche Software auch 
nicht.

Es WIRD definitiv Situationen geben, in denen ein NN falsch reagiert, 
das muss nur seltener vorkommen, als beim Menschen.

Autor: Name H. (hacky)
Datum:

Bewertung
-1 lesenswert
nicht lesenswert
Selbstlernend bedeutet weder neuronales Netzwerk noch sonstwas. 
Selbstlernend bedeutet, es werden von einem minimalen Basis Set, das 
"sichere" Funktionalitaet bietet, zusaetzliche Funktionalitaet 
aufgebaut. Ohne die Parameter des Basis Sets zu Verletzen. Das Basis Set 
ist quasi das Kleinhirn.

Autor: Chris D. (myfairtux) (Moderator) Benutzerseite
Datum:

Bewertung
1 lesenswert
nicht lesenswert
Cyblord -. schrieb:
> Chris D. schrieb:
>> Nicht falsch verstehen: die Leistungen sind beeindruckend. Aber
>> prinzipbedingt eben auf einem nicht ausreichenden Niveau für
>> vollautonomes Fahren.
>
> Nun aber das KI System war hier dem Mensch kognitiv weit überlegen.
> Warum das nicht zum bessere autofahren reichen soll weiß ich nicht.
>
> Ist es nicht vielleicht doch nur die Sensorik und nicht die KI selbst?

Das denke ich nicht. Die Sensorik ist nicht das Problem. Dass viele 
Sensoren dem Mensch überlegen sind, steht außer Frage. Bspw. finde ich 
IR-/Wärmesensoren für Wilderkennung eine wunderbare Sache.

Das Problem ist die Verarbeitung/Abstraktion und vor allem Verknüpfung 
von Information.

Nochmal: es ist eben eine ganz andere Qualität, ob ich etwas erkenne, 
oder etwas begreife.

Sowohl NN als auch Kind erkennen die Straße - aber nur das Kind 
begreift, wofür eine Straße da ist. Und erst das macht es dem Kind so 
einfach, in einer sensorisch vollkommen anderen Umgebung adäquat und 
richtig zu reagieren.

Vielleicht noch eine einfache Situation, die die Problematik 
verdeutlicht:
Ein menschlicher Fahrer, der auf einer Alleestraße unterwegs ist, wird 
frühzeitig anhalten, wenn er sieht, dass sich bei Wind ein schon halb 
abgebrochener Ast weiter und weiter nach unten neigt.

Dazu muss er nie in einer solchen Situation gewesen sein, ja noch nicht 
einmal eine Alleestraße befahren haben.

Er wird aber weiter fahren, wenn eine Papiertüte langsam über die Straße 
geweht wird, weil er richtig vermutet, dass die Tüte leer sein muss, 
wenn sie sich auf diese Art und weise bewegt. Bei einem genau so schnell 
rollenden Stein wird er das nicht tun.

Schon diese kleinen Beispiele zeigen, dass der Weg "wir trainieren das 
Netz einfach mit allen möglichen Dingen" nicht funktioniert, weil "allen 
möglichen Dingen" gar nicht fassbar ist.

Und die Natur hat das offenbar auch "erkannt" und legt Information ganz 
anders ab.

Autor: Chris D. (myfairtux) (Moderator) Benutzerseite
Datum:

Bewertung
1 lesenswert
nicht lesenswert
c r schrieb:
> Chris D. schrieb:
>> das Verhalten in
>> Situationen, in denen das Fahrzeug vorher noch nie war.
>
> Ich verstehe nicht ganz, von welchen Situationen du redest.
>
> Ein Mensch, der nur Stadtverkehr kennt, versagt auf der Autobahn.

Nein, das tut er nicht. Er wird sichelrich vorsichtiger fahren, aber er 
wird dort fahren können.

> Ein Mensch, der nur Autobahn kennt, versagt auf Feldwegen.

Nein, warum sollte er? Ich bin vor der Prüfung auch keine Feldwege 
gefahren - trotzdem ging das nachher absolut problemlos. Ich kann auch 
auf einer Sandpiste ohne irgendwelche Markierungen problemlos die Spur 
halten.

Weil ich den Zweck einer Straße kenne.

> Ein Mensch, der nur Asphalt, 20°C, offenes Feld ringsum und bewölkten
> Himmel um 12:00 kennt, versagt nachts im Wald.

Nein, warum sollte er?

Du musst Dich doch nur selbst beobachten. Wenn in einer Baustelle die 
gelbe n Markierungen (wie so oft) ab abgelöst schräg über die Fahrbahn 
verlaufen, dann folgst Du ihnen selbstverständlich nicht.

Du weisst, dass diese Linie dort nicht sein darf.

> Es WIRD definitiv Situationen geben, in denen ein NN falsch reagiert,
> das muss nur seltener vorkommen, als beim Menschen.

Das ist nicht das Hauptproblem.

Vor allem muss das NN nämlich in der Lage sein, vollkommen neue 
Situationen vernünftig aufzulösen.

Autor: Cyblord -. (cyblord)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Chris D. schrieb:
> Und die Natur hat das offenbar auch "erkannt" und legt Information ganz
> anders ab.

Komischerweise sollen aber gerade NN das menschlische Gehirn nachahmen. 
Also wenn "die Natur" das alles so ganz anders macht warum machen wir es 
dann mit KI nicht genau so? IMO wird das aber gerade mit NN versucht. 
Natürlich ist es (noch) nicht möglich das Gehirn nachzubilden aber der 
Weg geht doch wohl über NN.

Und kannst du bitte mal mit diesen hirntoten Beispielen aufhören? Die 
nerven echt nur noch.

: Bearbeitet durch User
Autor: Cyblord -. (cyblord)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Chris D. schrieb:
> Ich kann auch
> auf einer Sandpiste ohne irgendwelche Markierungen problemlos die Spur
> halten.

Echt? Ohne Markierungen? Wie das? Woher weißt du wo da die Spur ist?

Um mal bei deinen Beispielen zu bleiben, dann erkläre doch mal, wie kann 
ein System welches bisher nur Spielzüge A,B und C gesehen hat, plötzlich 
auf einen unbekannten Spielzug X mit einem ebenso nie zuvor gemachten 
Spielzug Y derart reagieren dass das Syste am Ende gewinnt?

Warum kann es das bei Go, warum wird es das nie nicht niemals bei einem 
Feldweg können?

Die Informationen mögen komplexer sein, aber das Prinzip bleibt eben das 
gleiche.

: Bearbeitet durch User
Autor: Jemin K. (jkam)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Mensch: Generalized Intelligence
NN: Specialized Intelligence

Sollte man Wege finden Generalized Artificial Intelligence zu kreieren, 
dann hilf uns das Spaghettimonster! Aber wenigstens können Autos dann 
durch den Wald fahren.

Autor: c r (Gast)
Datum:

Bewertung
-1 lesenswert
nicht lesenswert
Chris D. schrieb:
>> Ein Mensch, der nur Stadtverkehr kennt, versagt auf der Autobahn.
>
> Nein, das tut er nicht. Er wird sichelrich vorsichtiger fahren, aber er
> wird dort fahren können.

Chris D. schrieb:
>> Ein Mensch, der nur Autobahn kennt, versagt auf Feldwegen.
>
> Nein, warum sollte er? Ich bin vor der Prüfung auch keine Feldwege
> gefahren - trotzdem ging das nachher absolut problemlos.

Ich sprach nicht von fahren, sondern von kennen.

Auch wenn du noch nicht auf einem Feldweg gefahren bist, wusstest du, 
was ein Feldweg ist, wie man die Grenzen erkennt, dass er nicht so glatt 
ist, wie eine Autobahn.

Das hast du vorher gelernt, wenn auch nicht am Steuer eines Fahrzeugs.

Wie hast du reagiert, als dir das erste mal ein Reh auf die Straße 
gesprungen ist?
Wahrscheinlich "irgendwie", mal per default Bremsen, weil unbekannte 
Situation.
Aber garantiert nicht 100% kontrolliert korrekt, denn das ist eine 
Situation, auf die man sich kaum vorbereiten kann.

Ein NN könnte hier immerhin aus tausenden ähnlichen Vorfällen in der 
Vergangenheit lernen.

Autor: Cyblord -. (cyblord)
Datum:

Bewertung
-1 lesenswert
nicht lesenswert
Jemin K. schrieb:
> Sollte man Wege finden Generalized Artificial Intelligence zu kreieren,
> dann hilf uns das Spaghettimonster!

Allerdings nur wenn eine hinreichend Leistungsfähige KI automatisch ein 
Bewusstsein hervorbringt. Das wäre noch zu beweisen.

Autor: c r (Gast)
Datum:

Bewertung
1 lesenswert
nicht lesenswert
Cyblord -. schrieb:
> Allerdings nur wenn eine hinreichend Leistungsfähige KI automatisch ein
> Bewusstsein hervorbringt.

Warum? Wenn die KI unbewusst Mist baut, ist das auch nicht besser...

Cyblord -. schrieb:
> Das wäre noch zu beweisen.

Kannst du beweisen, dass irgendjemand außer dir über ein Bewusstsein 
verfügt? :P

Autor: Cyblord -. (cyblord)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
c r schrieb:
> Kannst du beweisen, dass irgendjemand außer dir über ein Bewusstsein
> verfügt? :P

Nicht wirklich. Nicht mal für mich selbst kann ich das beweisen.

Aber in dem Moment in dem eine KI mit einem irren Lachen die 
Weltherrschaft an sich reißt, hat sie wohl ein Bewusstsein entwickelt.

Autor: c r (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Cyblord -. schrieb:
> c r schrieb:
>> Kannst du beweisen, dass irgendjemand außer dir über ein Bewusstsein
>> verfügt? :P
>
> Nicht wirklich. Nicht mal für mich selbst kann ich das beweisen.

Nicht anderen, aber dir selbst. Egal, Philosophie.

Cyblord -. schrieb:
> Aber in dem Moment in dem eine KI mit einem irren Lachen die
> Weltherrschaft an sich reißt, hat sie wohl ein Bewusstsein entwickelt.

Oder es hat einfach gelernt, dass ein irres Lachen dabei hilft :D

Autor: Alex G. (dragongamer)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Jemin K. schrieb:
> Mensch: Generalized Intelligence
> NN: Specialized Intelligence
>
> Sollte man Wege finden Generalized Artificial Intelligence zu kreieren,
> dann hilf uns das Spaghettimonster! Aber wenigstens können Autos dann
> durch den Wald fahren.
Sobald uns das gelingt, sind wir das Spagettimonster! ;)

Autor: Natürliche Intelligenz (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert

Autor: Alex G. (dragongamer)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Passt auch zu der erneut geplanten, massiven Investition in Fabriken für 
E-Auto Akkus.
Schätze jetzt wo sie nicht mehr um die Gunst der Wähler für die nächste 
Amtsperiode kämpfen muss, könnte die Regierung um Merkel noch einiges 
zukunftsweisendes bewirken.

Es hat was wenn eine Wissenschaftlerin an der Spitze steht...

Autor: Sheeva P. (sheevaplug)
Datum:

Bewertung
1 lesenswert
nicht lesenswert
Alex G. schrieb:
> Jemin K. schrieb:
>> Mensch: Generalized Intelligence
>> NN: Specialized Intelligence
>>
>> Sollte man Wege finden Generalized Artificial Intelligence zu kreieren,
>> dann hilf uns das Spaghettimonster! Aber wenigstens können Autos dann
>> durch den Wald fahren.
> Sobald uns das gelingt, sind wir das Spagettimonster! ;)

Verzeihung, ich möchte lieber ein Hackbällchen sein. ;-D

Autor: klausi (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Habe Informationstechnik studiert, nun eine Weiterbildung in ML gemacht, 
aber auch Deep Learning mal angesehen. Es hat schon was.

DL wird zB aktuell in der Medizininformatik erforscht.  Lernende 
Algorithmen  können zB anhand von Brainscans (von MRT etc) Anomalien 
feststellen und in weiterer Folge Diagnosen (viele vereinzelte 
Möglichkeiten, Abzweigungen ähnlich eines Baums -> Random Forest) 
aufgestellt werden.

Ähnliches kann in der Materialforschung (auf Nanoebene) durchgeführt 
werden. Kenne zwei Uni-Institute die genau in die Richtung gerade 
forschen. Wär mal was für ne Promotion.

Antwort schreiben

Die Angabe einer E-Mail-Adresse ist freiwillig. Wenn Sie automatisch per E-Mail über Antworten auf Ihren Beitrag informiert werden möchten, melden Sie sich bitte an.

Wichtige Regeln - erst lesen, dann posten!

  • Groß- und Kleinschreibung verwenden
  • Längeren Sourcecode nicht im Text einfügen, sondern als Dateianhang

Formatierung (mehr Informationen...)

  • [c]C-Code[/c]
  • [avrasm]AVR-Assembler-Code[/avrasm]
  • [code]Code in anderen Sprachen, ASCII-Zeichnungen[/code]
  • [math]Formel in LaTeX-Syntax[/math]
  • [[Titel]] - Link zu Artikel
  • Verweis auf anderen Beitrag einfügen: Rechtsklick auf Beitragstitel,
    "Adresse kopieren", und in den Text einfügen




Bild automatisch verkleinern, falls nötig
Bitte das JPG-Format nur für Fotos und Scans verwenden!
Zeichnungen und Screenshots im PNG- oder
GIF-Format hochladen. Siehe Bildformate.
Hinweis: der ursprüngliche Beitrag ist mehr als 6 Monate alt.
Bitte hier nur auf die ursprüngliche Frage antworten,
für neue Fragen einen neuen Beitrag erstellen.

Mit dem Abschicken bestätigst du, die Nutzungsbedingungen anzuerkennen.