Forum: Ausbildung, Studium & Beruf Machine Learning, anyone?


von klausi (Gast)


Lesenswert?

Hi Leute

In meinem (ersten) Diplomstudium habe ich mich als dipl. Ing. in 
Informationstechnik viel mit Software Engineering, Robotik etc. 
beschäftigt.

Nach einigen Jahren BE mache ich jetzt noch ein (Postgraduate) 
Master-Studium.

Ein sehr aktuelles (fast gehyptes) Thema, mit dem ich mich momentan 
beschäftige, ist ML.

Gibt's einige von euch, die sich auch schon mal oder jetzt mit dem 
Gebiet beschäftigt haben? Vielleicht evtl. auf der TU/Uni oder 
beruflich?

Was sind eure Erfahrungen/Erlebnisse ? ??

Gruss,
der klausi

von klausi (Gast)


Lesenswert?

..ich finde dieses Thema ziemlich "advanced" und super spannend. Evtl. 
eher für Fortgeschrittene zu empfehlen;  naturgemäss enthält das Thema 
auch einige knackige Mathematik  (Statistik z.B.).

Generell in Computer Science Mastern wird dieses Gebiet aber schon 
unterrichtet.

Momentan habe ich noch eine Vorlesung über nonlineare, chaotische 
Systeme  (z.B. Lyapunov, Feigenbaum-Konstante..)

von Claus M. (energy)


Lesenswert?

Ich ab vor Jahren mal den Online Kurs von Stanford gemacht. War ganz 
nett.

von nfet (Gast)


Lesenswert?

Was ich aus meinem Studium daraus gelernt hab war: man braucht viele 
Daten zum anlernen und wenn es dann gelernt hat wundern sich alle warum 
das richtige raus kommt.

von Keine Daten (Gast)


Lesenswert?

Ich habe immer das Gefühl: Das schwierigste an ML ist, Daten zu finden, 
womit man ML testen kann.

von Mark B. (markbrandis)


Lesenswert?

klausi schrieb:
> Was sind eure Erfahrungen/Erlebnisse ? ??

Huch, seit wann kann die Foren-Software Smileys?

von Lukas H. (eelhorsto)


Lesenswert?

Moin,

also ich setzte bei meinem Staubsauger-Projekt ein neuronales Netz für 
die Hinderniserkennung ein. Ich stand vor dem Problem, dass ich zu viele 
unscharfe Situation zu erwarten hatte. Dann habe ich einen Simulator 
geschrieben, Trainingsdaten erzeugt und damit das Netz trainiert. Bei 
mir 13 Input Neuronen, 2 Hiddenlayer, 3 Output Neuronen. Läuft nach ca. 
500 Trainigssätzen besser als mein selbst geschriebener Algorithmus.

Viele Grüße

von klausi (Gast)


Lesenswert?

Mark B. schrieb:
> klausi schrieb:
> Was sind eure Erfahrungen/Erlebnisse ? ??
>
> Huch, seit wann kann die Foren-Software Smileys?

Seit den neuen ML Algorithmen ?? cool oder?

Lukas H. schrieb:
> Bei mir 13 Input Neuronen, 2 Hiddenlayer, 3 Output Neuronen. Läuft nach
> ca. 500 Trainigssätzen besser als mein selbst geschriebener Algorithmus.
>
> Viele Grüße

Wow cool, echt interessant.

Welche Tools, SW hast du dazu eingesetzt?
Ist ja z.B. vieles möglich.
Java, R, Python..

Und das "Netz" also mehr od. weniger fertigen, kompilierten Code führt 
das Gerät (Staubsauger) dann zur Laufzeit aus?

von Martin S. (sirnails)


Lesenswert?

klausi schrieb:
> Ein sehr aktuelles (fast gehyptes) Thema, mit dem ich mich momentan
> beschäftige, ist ML.

Naja, "hype" würde ich das nicht nennen, sondern eher überfällig.

ML ist dazu da, die Brücke zwischen vom Menschen (un-)vorhersehbaren 
Situationen mit von Menschen nicht mehr sinnvoll umsetzbaren Lösungen zu 
schließen.

ML setzt genau dann an, wenn vorgefertigte Verhaltens- oder 
Ausführungsmuster nicht mehr zum Ziel führen (z.B. der 
Rasenmäherroboter, der Staubsaugerroboter u.v.m.).

ML gehört definitiv die Zukunft.

Warum das Thema aber aus wissenschaftlicher Sicht interessant ist, ist 
weil man riesige Probleme hat, den ganzen Käse zu debuggen.

Man hat ein Netzwerk mit Neuronen, die irgendwelche Zustände annehmen. 
Das ist zwar interessant anzusehen, aber de facto entbehrt das Ganze 
jeglichem Informationsgehalt für den Menschen.

Die Information steckt in der Kombination der Neuronen.

Damit wird die Entwicklung für den Menschen ein Stochern im trüben 
Gewässern.

Hier anständig Grundlagen zu erlernen, die hinterher auch zielbringend 
eingesetzt werden können, halte ich für sehr sinnvoll.

Hier im Forum gabs vor 2/3 Wochen mal ein Video - da hatte einer einem 
kleinen Roboter mit 4 Beinen und einem ML-Algorithmus nur gesagt "Du 
hast Beine, also mach was damit". Im Zeitraffer sieht man dann, dass der 
Roboter nach einer halben Stunde gelernt hatte, damit zu laufen. Sehr 
interessant!

von As-I-Roved-Out (Gast)


Lesenswert?

Habe das vor 2 Jahren im Nebenbei als Gasthörer besucht und verfolgt.
Seitdem befasse ich mich damit  ausschließlich privat.
Das Thema ist interessant, anspruchsvoll und noch in den Kinderschuhen.
Leider so abstrakt, dass man es an die Verantwortlichen nicht 
kommunizieren kann, was man denn nun eigentlich haben will :D
Beruflich also noch bei weitem nicht angekommen in der Trägheit der 
Arbeitswelt.

von Waitwaht (Gast)


Lesenswert?

As-I-Roved-Out schrieb:
> ... und noch in den Kinderschuhen.

Wo warst du die letzten - sagen wir mal - 50 Jahre?

von quartzy (Gast)


Lesenswert?

Machine Learning? Sicher doch. Habe ich studiert 
(KI-Vertiefungsrichtung) und danach damit promoviert. Flexible 
Datenmodelle, Interpretation, Visualisierung, Vorhersage, etc sind auf 
der Arbeit Standard (Life Science, Konzern). ML ist ein absolutes 
Alltagswerkzeug.

von ML (Gast)


Lesenswert?

klausi schrieb:
> Gibt's einige von euch, die sich auch schon mal oder jetzt mit dem
> Gebiet beschäftigt haben? Vielleicht evtl. auf der TU/Uni oder
> beruflich?

Ich arbeite an Machine Learning für Spracherkennung.

> Was sind eure Erfahrungen/Erlebnisse ?

Naja, was willst du auf so eine allgemeine Frage hören? Mal ein Versuch:
- Python rult
- fast alle Kollegen haben promoviert
- die meisten haben Informatik/Physik/Mathematik/E-Technik studiert

von Pfälzer Saumagen (Gast)


Lesenswert?

klausi schrieb:
> Was sind eure Erfahrungen/Erlebnisse ? ??
Uralter Kram wird als neuer Hype verkauft.

Weiter unten:
Roboter lernt laufen. Ui toll, das habe ich schon vor 15 Jahren oder 
noch länger her gesehen.
Neuronale Netze für xy. Wird trainiert und macht was es soll, mehr oder 
weniger schlecht manchmal auch richtig gut: Boah wahnsinn, total neu 
das.

Das einzige was heute daran neu ist, dass man dafür brauchbare Hardware 
nachgeworfen bekommt, DAS war  damals noch ein Problem, 90% der Algos 
und Techniken sind sowas von asbachuralt. Hier und da gibts heute auch 
schon (halb)fertige Libs so dass man nicht mehr jeden Kram von der 
Ursuppe an selber schreiben muss.

von Andreas R. (daybyter)


Lesenswert?

Hat schonmal jemand was in Richtung Börsenhandel gemacht?

von Niine (Gast)


Lesenswert?

Pfälzer Saumagen schrieb:
> Das einzige was heute daran neu ist, dass man dafür brauchbare Hardware
> nachgeworfen bekommt,
Ich denke auch, dass der Ansatz nicht neu ist. Und diese Sachen sind 
alle ziemlich rechenaufwenig, was heutzutage eben besser geht.

Andreas R. schrieb:
> Hat schonmal jemand was in Richtung Börsenhandel gemacht?
Das, ist interessant :-)

Das Problem bei neuronalen Netzwerken ist doch, dass sie trotzdem Fehler 
machen. Auch wenn es immer weniger werden, aber irgendwann schleicht 
sich doch ein Fehler ein. Gerade bei autonomen Fahren kann sowas schnell 
tödlich enden.

von klausi (Gast)


Lesenswert?

Andreas R. schrieb:
> Hat schonmal jemand was in Richtung Börsenhandel gemacht?

Nicht direkt, aber im Gegenteil: Erkennung von Insidertrading.. zB Kurs 
eines Wertpapiers steigt in 1 Woche um 50%.

Insider weiss das vorher, kauft 1 Woche  vorher  soviel wie möglich 
Papiere dieser Firma.

Ist erkennbar  - momentan durch feste Regeln, Rulesets, Parametern.

Die Idee wäre hier, Effekte usw durch Algorithmen zu erlernen.

von ML (Gast)


Lesenswert?

Pfälzer Saumagen schrieb:
> Roboter lernt laufen. Ui toll, das habe ich schon vor 15 Jahren oder
> noch länger her gesehen.
> Neuronale Netze für xy. Wird trainiert und macht was es soll, mehr oder
> weniger schlecht manchmal auch richtig gut: Boah wahnsinn, total neu
> das.

Klar, das ging schon vor 15 Jahren. Das neue ist, dass man jetzt ganz 
reale Probleme damit lösen kann, und zwar nicht nur so lala, sondern so 
gut, dass man jahrzehntelang lang erarbeitete Methoden zur 
Featureextraktion in die Tonne kloppen kann. Das kannst du jetzt gerne 
nur auf die gestiegene Rechenkapazität schieben, der Effekt in der 
Praxis bleibt.

Niine schrieb:
> Das Problem bei neuronalen Netzwerken ist doch, dass sie trotzdem Fehler
> machen. Auch wenn es immer weniger werden, aber irgendwann schleicht
> sich doch ein Fehler ein.

Das Problem hast du prinzipiell bei jedem statistischen Modell, ob es 
jetzt ein NN oder ein GMM oder ein SVM ist, du kannst nie genau 
vorhersagen wie es sich bei ungesehenen Samples verhält, du weisst nur 
was es im Mittel ungefähr macht.

von Cyblord -. (cyblord)


Lesenswert?

Pfälzer Saumagen schrieb:

> Roboter lernt laufen. Ui toll, das habe ich schon vor 15 Jahren oder
> noch länger her gesehen.

Dann zeig doch mal ein Video von vor 15 Jahren in denen Roboter sich so 
bewegen wie z.B. die von Boston Dynamics.

https://www.youtube.com/watch?v=rVlhMGQgDkY

> Neuronale Netze für xy. Wird trainiert und macht was es soll, mehr oder
> weniger schlecht manchmal auch richtig gut: Boah wahnsinn, total neu
> das.

Wenn man sich Googles GO Programm anschaut, welches mal im Handstreich 
die besten GO Spieler schlägt, wo bei man vor 1 Jahr noch davon ausging 
dass dies vielleicht nie passieren würde, dann muss man dir attestieren 
dass du große Scheiße laberst.

https://de.wikipedia.org/wiki/AlphaGo

: Bearbeitet durch User
von Keine Daten (Gast)


Lesenswert?

Cyblord -. schrieb:
> Wenn man sich Googles GO Programm anschaut, welches mal im Handstreich
> die besten GO Spieler schlägt, wo bei man vor 1 Jahr noch davon ausging
> dass dies vielleicht nie passieren würde, dann muss man dir attestieren
> dass du große Scheiße laberst.
>
> https://de.wikipedia.org/wiki/AlphaGo

Interessant vor allem, dass sie da den Monte Carlo Tree Search 
verwenden. Aber auch AlphaGo hat viele Macken. Spielt es vor allem 
anfangs schon schlecht, wird des im Laufe des Spiels immer schlechter. 
Es schafft (noch) keine Comebacks. Es simuliert aber auch tausende 
Spiele täglich. Vllt. ist es auch irgendwann unschlagbar, AlphaGo -> 
BetaGo -> LiveGo?

Tatsächlich muss man sagen, dass dank Rechnerkapazitäten ML bereits 
größer angewendet werden kann. Und das ist etwas schönes!
Die Frage ist nur, wann wird ML Arbeitsplätze vernichten?

von Cyblord -. (cyblord)


Lesenswert?

Keine Daten schrieb:

> Interessant vor allem, dass sie da den Monte Carlo Tree Search
> verwenden. Aber auch AlphaGo hat viele Macken. Spielt es vor allem
> anfangs schon schlecht, wird des im Laufe des Spiels immer schlechter.
> Es schafft (noch) keine Comebacks.

Die Aussage relativiert sich allerdings wenn man bedenkt dass AlphaGo 
momentan der beste Go Spieler der Welt ist.

> Es simuliert aber auch tausende
> Spiele täglich. Vllt. ist es auch irgendwann unschlagbar, AlphaGo ->
> BetaGo -> LiveGo?

Eben. Es lernt. Und das ist der große Fortschritt. Und es kann Züge 
machen, die ein Mensch nicht mehr vorhersehen oder verstehen kann. 
Selbst die Großmeister waren bei einigen Zügen komplett Baff, dachten 
auch erst an Fehler, aber viele davon stellten sich als genial heraus.
Was es wohl tut, ist Quatsch machen wenn es am verlieren ist. Aber das 
passiert ja nun nicht mehr so oft....

: Bearbeitet durch User
von Martin S. (sirnails)


Lesenswert?

Keine Daten schrieb:
> Die Frage ist nur, wann wird ML Arbeitsplätze vernichten?

Ach ja, immer die latente Angst der arbeitsplatzvernichtenden bösen 
neuen Entwicklungen.

Ich weiß nicht - wir sollten mal all die Weberinnen und Näherinnen aus 
Augsburg fragen.

von Berufsrevolutionär (Gast)


Lesenswert?

Keine Daten schrieb:

> Tatsächlich muss man sagen, dass dank Rechnerkapazitäten ML bereits
> größer angewendet werden kann. Und das ist etwas schönes!
> Die Frage ist nur, wann wird ML Arbeitsplätze vernichten?

Denkt mal nicht eindimensional, Arbeitsplätze werden nich vernichtet, 
sondern die Arbeiter auf einen anderen "verschoben". Die die früher 
Kohle zur Wohnungsheizung ausfuhren und in die Keller schleppten, fahren 
heute Deine Versandhandel-Pakete übers Land.

So ist es seit der Industriellen Revolution vor dreihundert Jahren, 
Berufsbilder schwinden, Arbeit bleibt.

von Mark B. (markbrandis)


Lesenswert?

Cyblord -. schrieb:
> Eben. Es lernt. Und das ist der große Fortschritt. Und es kann Züge
> machen, die ein Mensch nicht mehr vorhersehen oder verstehen kann.
> Selbst die Großmeister waren bei einigen Zügen komplett Baff, dachten
> auch erst an Fehler, aber viele davon stellten sich als genial heraus.
> Was es wohl tut, ist Quatsch machen wenn es am verlieren ist. Aber das
> passiert ja nun nicht mehr so oft....

Nichtsdestotrotz kann AlphaGo nur ein einziges Spiel spielen. Menschen 
kennen Dutzende oder gar Hunderte verschiedener Spiele.

Eine echte künstliche Intelligenz - also eine, die den Namen auch 
verdient - wäre in der Lage ein für sie neues und unbekanntes Spiel zu 
erlernen. So wie ein Mensch es kann.

von Mark B. (markbrandis)


Lesenswert?

Andreas R. schrieb:
> Hat schonmal jemand was in Richtung Börsenhandel gemacht?

Natürlich hat man sich in der Richtung schon versucht. Wie gut oder wie 
schlecht das funktioniert, sei dahingestellt.

Google mal z.B. nach "Börsenhandel Neuronale Netze".

: Bearbeitet durch User
von Cyblord -. (cyblord)


Lesenswert?

Mark B. schrieb:
> Eine echte künstliche Intelligenz - also eine, die den Namen auch
> verdient - wäre in der Lage ein für sie neues und unbekanntes Spiel zu
> erlernen. So wie ein Mensch es kann.

Es ging ja auch um ML und nicht um KI. Und das ML nichts neues 
hervorbringen könnte und sowieso schon längst kalter Kaffee wäre. Und 
AlphaGo zeigt das genau das nicht stimmt.

Um eine "echte" menschliche Intelligenz zu simulieren bräuchte man einen 
künstlichen Nachbau des Gehirns. Darunter wird es wohl kaum gehen.
Alles andere kann zwar gute Ergebnisse bringen, wird aber eben nicht 
menschlich sein, sondern was anderes.

: Bearbeitet durch User
von Ordner (Gast)


Lesenswert?

Cyblord -. schrieb:
> Es ging ja auch um ML und nicht um KI. Und das ML nichts neues
> hervorbringen könnte und sowieso schon längst kalter Kaffee wäre. Und
> AlphaGo zeigt das genau das nicht stimmt.

Hm, was an neuen Techniken Verwendet GoogleGo?
 Neuronale Netze und Monte Carlo sind kalter Kaffee, das wird aller 10 
Jahre mal gehypt. Hab in den Neunziger den Hype erlebt insbesonders 
"NeuroFuzzy" und Synapse 1 von Siemens. Lorentz Attraktor etc wurde zu 
der Zeit auch von Systemtheoretikern gehypt,  "Chaostheorie".

Irgendwas substantiell neues find ich da nix aus den letzten 20 Jahren. 
Nur das man sich dank lichtschneller Rechentechnik nicht mehr ums 
clevere Optimieren schert und die Algos mit dem Dampfhammer zerschlägt.

von Cyblord -. (cyblord)


Lesenswert?

Ordner schrieb:
> Cyblord -. schrieb:
>> Es ging ja auch um ML und nicht um KI. Und das ML nichts neues
>> hervorbringen könnte und sowieso schon längst kalter Kaffee wäre. Und
>> AlphaGo zeigt das genau das nicht stimmt.
>
> Hm, was an neuen Techniken Verwendet GoogleGo?

So ziemlich alles. Das etwas auf bekannten Techniken basiert sollte 
nicht überraschen. Allerdings überraschen mich solche Nulpenargumente 
dann schon ein wenig.

von Ordner (Gast)


Lesenswert?

Cyblord -. schrieb:
>> Hm, was an neuen Techniken Verwendet GoogleGo?
>
> So ziemlich alles.

"Ziemlich alles" ist ziemlich nichtssagend, ich erwarte eine konkrete 
Auflisting was an dem Go-Solver an Erkenntnissen eingesetzt wird, was 
nicht schon seit Jahrzehnten bekannt ist.

von Cyblord -. (cyblord)


Lesenswert?

Ordner schrieb:
> Cyblord -. schrieb:
>>> Hm, was an neuen Techniken Verwendet GoogleGo?
>>
>> So ziemlich alles.
>
> "Ziemlich alles" ist ziemlich nichtssagend, ich erwarte eine konkrete
> Auflisting was an dem Go-Solver an Erkenntnissen eingesetzt wird, was
> nicht schon seit Jahrzehnten bekannt ist.

Wünschen darf man sich alles...

von Pfälzer Saumagen (Gast)


Lesenswert?

Cyblord -. schrieb:
> Wünschen darf man sich alles...

Dann lass mal hören, was google revolutionär Neues an Alphago entwickelt 
hat. Das Ding profitiert doch vor allem von der riesigen Hardware 
dahinter, hier und da haben sie en passant in der Entwicklung noch ein 
einige Dinge verbessert aber bahnbrechend an den Verfahren und Algos 
absolut nix. Google hat halt genug Geld in die Hand genommen (wie so 
oft) für diese Techdemo, mehr ist das nicht. Praktisch anwendbar derzeit 
nur wenn relativ grosser Hardwareeinsatz dahintersteht. Das wusste man 
schon vorher, google hat eben volle Kassen für sowas und wittert hier 
halt nen Markt den sie das als Serverdient anbieten können, nur darum 
gehts google.
Also Standalonesoftware wie z.B. Schachprogramme die auf 
hundsgewöhnlicher 0815-Hardware laufen taugt es immer noch nicht also 
alles beim Alten. Reiner Hype. Mit genug Geld in der Hand kommt auch mal 
ein neues Produkt bei raus aber wo da jetzt die Revolution sein soll, 
jeder KIler lacht da nur müde drüber.

von Keine Daten (Gast)


Lesenswert?

Bleiben wir hier aber mal bei der Richtigkeit: Google hat nicht AlphaGo 
entwickelt, sondern ein Startup namens DeepMind aus London. Google hat 
es nur gekauft.

von Ordner (Gast)


Lesenswert?

Pfälzer Saumagen schrieb:
> Praktisch anwendbar derzeit
> nur wenn relativ grosser Hardwareeinsatz dahintersteht

Ja das ist schon traurig;
Von der KI-Forschung erwartet man clevere Lösung mit Intelligenz aber 
was man bekommt ist dann doch stupides Number Crunching auf massierter 
COTS-Hardware.

von Martin S. (sirnails)


Lesenswert?

Pfälzer Saumagen schrieb:
> Schachprogramme die auf
> hundsgewöhnlicher 0815-Hardware laufen taugt es immer noch nicht also
> alles beim Alten. Reiner Hype.

Hype hin oder her.

Die notwendige Technik wird immer schneller, ALLE großen Chiphersteller 
sind mitlerweile massiv daran beteiligt, Neuronale Netze auf 
Hardwareebene abzubilden (nicht irgendwelche FPGA) - wie AMD, Intel, 
Infineon u.v.m.

Auch wenn die Basis ein uralter Hut ist, so ist es dessen moderne 
Umsetzung mitnichten.

Das wäre genauso als würde man die komplette Handy- und Computerbranche 
schlechtreden, weil die Entwicklung von Konrad Zuse ja schon unzählige 
Jahrzehnte alt ist, und alles nur "hype" ist. Nur die Hardware ist 
seitdem schneller geworden. Vom Prinzip dahinter gab es bis heute nicht 
eine einzige Innovation!

von Keine Daten (Gast)


Lesenswert?

Martin S. schrieb:

> Das wäre genauso als würde man die komplette Handy- und Computerbranche
> schlechtreden, weil die Entwicklung von Konrad Zuse ja schon unzählige
> Jahrzehnte alt ist, und alles nur "hype" ist. Nur die Hardware ist
> seitdem schneller geworden. Vom Prinzip dahinter gab es bis heute nicht
> eine einzige Innovation!

Leute sind eben mies drauf und müssen alles schlechtreden. Kein Wunder, 
immerhin entlässt ja VW massig Leute. Vllt. ist ja der ein oder andere 
hier dabei... Schlechte Zeiten für Maschbauer.

von Operator S. (smkr)


Lesenswert?

Martin S. schrieb:
> Neuronale Netze auf Hardwareebene abzubilden

Das habe ich mir auch schon einige Male überlegt und es wäre vermutlich 
auch einmal ein echter use-case um neue "Rechner" Architekturen 
hervorzubringen. Von-Neumann und Harvard sind altbekannt, mehrere Kerne 
war nur eine Evolution der Leistung, aber nichts bahnbrechendes im 
grösseren Kontext.

Wie würde solch eine Hardware für Neuronale Netze aussehen?

von Ordner (Gast)


Lesenswert?

Martin S. schrieb:
> Die notwendige Technik wird immer schneller, ALLE großen Chiphersteller
> sind mitlerweile massiv daran beteiligt, Neuronale Netze auf
> Hardwareebene abzubilden (nicht irgendwelche FPGA) - wie AMD, Intel,
> Infineon u.v.m.

Mittlerweile ist gut, seit über 30 Jahren aber rausgekommen ist ausser 
Spielprogramm nichts.

1994 der mit grossen TamTam angekündigte Neurocomputer:
http://www.computerwoche.de/a/neurocomputer-synapse-1-wird-auf-cebit-vorgestellt-sni-will-mainframes-oeffnen-und-mit-cluster-konzept-flottmachen,1119692

Und schon ein Mäusegehirn beweist, das es nicht Millarden im Gigahertz 
Bereich schaltende miteinander verwobenen Schaltelemente braucht um 
Intelligenz entstehen zu lassen.

von Arc N. (arc)


Lesenswert?

Keine Daten schrieb:
> Ich habe immer das Gefühl: Das schwierigste an ML ist, Daten zu finden,
> womit man ML testen kann.

Kaggle.com

Pfälzer Saumagen schrieb:
> klausi schrieb:
>> Was sind eure Erfahrungen/Erlebnisse ? ??
> Uralter Kram wird als neuer Hype verkauft.
>
> Weiter unten:
> Roboter lernt laufen. Ui toll, das habe ich schon vor 15 Jahren oder
> noch länger her gesehen.
> Neuronale Netze für xy. Wird trainiert und macht was es soll, mehr oder
> weniger schlecht manchmal auch richtig gut: Boah wahnsinn, total neu
> das.

Kleine Ergänzung noch: Selbst das so gehypte Deep Learning ist uralt. 
Ende der 1960er/Anfang 1970er UdSSR, besser gesagt, Ukraine: Ivakhnenko 
und Lapa
Wer's nachlesen will:
http://people.idsia.ch/~juergen/deep-learning-conspiracy.html

Coursera bietet mittlerweile eine Reihe von Spezialisierungen an (die 
Kurse lassen sich aber auch einzeln belegen):
Data Science
https://www.coursera.org/specializations/jhu-data-science

Machine Learning
https://www.coursera.org/specializations/machine-learning

Big Data
https://www.coursera.org/specializations/big-data

Probabilistic Graphical Models
https://www.coursera.org/specializations/probabilistic-graphical-models

Letzteres dürfte wohl endlich die Neuauflage des PGM-Kurses sein, den es 
vor ein paar Jahren schon einmal gab.

: Bearbeitet durch User
von klausi (Gast)


Lesenswert?

Ordner schrieb:
> zu der Zeit auch von Systemtheoretikern gehypt,  "Chaostheorie".

Hab ich auch gerade in einer Vorlesung "Systemdynamik". Lyapunov, 
Feigenbaumkonstante.. ziemlich interessant!

noch zu ML:
Ich denke die Haupttreiber aktuell zu ML sind einfach:

-grosse verfügbare Datenmengen durch Vernetzung, von vielen mobilen 
Endgeräten, vor allem günstiger Hardware (HDD etc), Cloudlösungen
-sehr schnelle GPU Chips mit hoher Leistungsfähigkeit  (Aussage 
Professor: sie verwenden Nvidia GPUs im Cluster aus dem Gamingbereich 
für ML, da diese hohe Leistung zu einem mom. moderaten Preis bringen)

von Andreas R. (daybyter)


Lesenswert?

1 kleiner Link zum Thema:

http://www.heise.de/newsticker/meldung/Erste-Skylake-Xeons-und-Spezial-FPGA-fuer-Kuenstliche-Intelligenz-3491233.html

(man beachte die angegebenen Wachstumsraten am Ende)

von Sheeva P. (sheevaplug)


Lesenswert?

Arc N. schrieb:
> Kleine Ergänzung noch: Selbst das so gehypte Deep Learning ist uralt.

Das mag sein. Aber erst heute gibt es genug Rechenleistung, um das in 
der Praxis einsetzen zu können.

von Tradu (Gast)


Lesenswert?

Niine schrieb:
> Andreas R. schrieb:
>> Hat schonmal jemand was in Richtung Börsenhandel gemacht?
> Das, ist interessant :-)
>
> Das Problem bei neuronalen Netzwerken ist doch, dass sie trotzdem Fehler
> machen. Auch wenn es immer weniger werden, aber irgendwann schleicht
> sich doch ein Fehler ein. Gerade bei autonomen Fahren kann sowas schnell
> tödlich enden.

Es reicht wenn es weniger "Fehler" als der Rest sind.

von Berufsrevolutionär (Gast)


Lesenswert?

Sheeva P. schrieb:
> Arc N. schrieb:
>> Kleine Ergänzung noch: Selbst das so gehypte Deep Learning ist uralt.
>
> Das mag sein. Aber erst heute gibt es genug Rechenleistung, um das in
> der Praxis einsetzen zu können.

Nein, die Rechenleistung für pattern recognition gibt es schon länger, 
Mustererkennung macht heute eine Smart camera ohne angeschlossenen 
googlecluster schon seit Jahrzehtnen, Handschriftenerkennung konnte 
schon der Apple Newton und briefe maschinell nach Postleitzahl sortieren 
ist wohl ein Kind der Achtziger. Aber wer erinnert sich noch an die 
besonderen PLZ-Felder die es mit dünnen Hilfslinien schafften das 
Erkennungsproblem für die damalige Technik beherschbar zu gestalten: 
https://upload.wikimedia.org/wikipedia/commons/thumb/6/63/Stamp_Soviet_Union_1977_CPA_4775.jpg/220px-Stamp_Soviet_Union_1977_CPA_4775.jpg

von 8ttq3jhfop3i (Gast)


Lesenswert?

Berufsrevolutionär schrieb:
> Nein, die Rechenleistung für pattern recognition gibt es schon länger,
> Mustererkennung macht heute eine Smart camera ohne angeschlossenen
> googlecluster schon seit Jahrzehtnen, Handschriftenerkennung konnte
> schon der Apple Newton und briefe maschinell nach Postleitzahl sortieren
> ist wohl ein Kind der Achtziger. Aber wer erinnert sich noch an die
> besonderen PLZ-Felder die es mit dünnen Hilfslinien schafften das
> Erkennungsproblem für die damalige Technik beherschbar zu gestalten:
> 
https://upload.wikimedia.org/wikipedia/commons/thumb/6/63/Stamp_Soviet_Union_1977_CPA_4775.jpg/220px-Stamp_Soviet_Union_1977_CPA_4775.jpg

Keines deiner Beispiele hat irgendwas mit Deep Learning zu tun. Das 
schafft man alles mit 1-2 hidden layer und ein paar hundert Neuronen.

Deep Learning ist mal um mindestens Faktor 1000 aufwändiger. Ein deep 
learning Netz zur Bildklassifizierung hat hunderttausende Neuronen, 
Millionen von Parametern (Gewichten) und hunderte Millionen an 
Verbindungen.

von Berufsrevolutionär (Gast)


Lesenswert?

8ttq3jhfop3i schrieb:
> Berufsrevolutionär schrieb:
>> Nein, die Rechenleistung für pattern recognition gibt es schon länger,
>> Mustererkennung macht heute eine Smart camera ohne angeschlossenen
>> googlecluster schon seit Jahrzehtnen, Handschriftenerkennung konnte
>> schon der Apple Newton und briefe maschinell nach Postleitzahl sortieren
>> ist wohl ein Kind der Achtziger. Aber wer erinnert sich noch an die
>> besonderen PLZ-Felder die es mit dünnen Hilfslinien schafften das
>> Erkennungsproblem für die damalige Technik beherschbar zu gestalten:
>>
> 
https://upload.wikimedia.org/wikipedia/commons/thumb/6/63/Stamp_Soviet_Union_1977_CPA_4775.jpg/220px-Stamp_Soviet_Union_1977_CPA_4775.jpg
>
> Keines deiner Beispiele hat irgendwas mit Deep Learning zu tun. Das
> schafft man alles mit 1-2 hidden layer und ein paar hundert Neuronen.
>
> Deep Learning ist mal um mindestens Faktor 1000 aufwändiger. Ein deep
> learning Netz zur Bildklassifizierung hat hunderttausende Neuronen,
> Millionen von Parametern (Gewichten) und hunderte Millionen an
> Verbindungen.

Nichts was ein Spatzenhirn nicht leisten vermag. Und Bildklassifizierung 
wie ein Spatzenhirn macht heutzutage jede smart kamera. Da braucht es 
keinengoogle-cluster wie google das gerne glauben machen will.

KI ist ein gutes Beispiel wie Ansätze für eine optimierte 
Hardwarearchitektur beispielsweise auf basis FPGA, Analogrechner, 
systolische arrays etc. hardnäckig ignoriert wird und eine Lösung erst 
dann für verkaufsfähig gehalten wird wenn sie auf COTS-Hardware läuft.

von Martin S. (sirnails)


Lesenswert?

Berufsrevolutionär schrieb:
> Sheeva P. schrieb:
>> Arc N. schrieb:
>>> Kleine Ergänzung noch: Selbst das so gehypte Deep Learning ist uralt.
>>
>> Das mag sein. Aber erst heute gibt es genug Rechenleistung, um das in
>> der Praxis einsetzen zu können.
>
> Nein, die Rechenleistung für pattern recognition gibt es schon länger,
> Mustererkennung macht heute eine Smart camera ohne angeschlossenen
> googlecluster schon seit Jahrzehtnen, Handschriftenerkennung konnte
> schon der Apple Newton und briefe maschinell nach Postleitzahl sortieren
> ist wohl ein Kind der Achtziger. Aber wer erinnert sich noch an die
> besonderen PLZ-Felder die es mit dünnen Hilfslinien schafften das
> Erkennungsproblem für die damalige Technik beherschbar zu gestalten:
> 
https://upload.wikimedia.org/wikipedia/commons/thumb/6/63/Stamp_Soviet_Union_1977_CPA_4775.jpg/220px-Stamp_Soviet_Union_1977_CPA_4775.jpg


Hahaha... Pattern Matching von Vision Systemen macht alles - nur nicht 
funktionieren.

von Basti (Gast)


Lesenswert?

Wen interessiert es schon ob die ML Forschung die heute eingesetzt wird 
2 oder 20 Jahre alt ist?!
Die meisten von euch werden doch wohl Ing. sein und müssen die 
geeignesten Tools für ihre tägliche Arbeit wählen... Vielleicht könnte 
man auf dem Niveau weiter diskutieren?! Dann wird es vielleicht doch 
noch interessant.

Was mich persöhnlich wundert ist, das Deep Mind Patente für ML Alg. die 
relative trival sind angemeldet bekommen hat. Es geht hier Teilweise um 
drei Zeilen Code, die man auch mal eben beim "Spielen" herausfinden 
könnte.

Aber okay, irgendwo muss ja der Marktwert dieser Firma herkommen.

VG
Basti

von Wissenschaftler (Gast)


Lesenswert?

Komme aus einem anderen Bereich aber mich würde interessieren, wie man 
die Dinge praktisch umsetzt? ZB kann ich ja auch eine regressionanalyse 
mit
Neuronalen Netzen durchführen - nur wie? Welche Tools?

von Berufsrevolutionär (Gast)


Lesenswert?

Wissenschaftler schrieb:
> Komme aus einem anderen Bereich aber mich würde interessieren, wie man
> die Dinge praktisch umsetzt? ZB kann ich ja auch eine regressionanalyse
> mit
> Neuronalen Netzen durchführen - nur wie? Welche Tools?

Och da hilft dir die ältesete aller usenet Antworten weiter, die da 
lautet:
RTFM!

Ne Übersicht über Tools findet sich bspw dort: 
http://www.neuronalesnetz.de/links4.html

Das das Thema seit Jahrzehnten auf der Stelle tritt, ist an der Vielzahl 
von Progs zu erkennen die sich im Kern nicht voneinanderunterscheiden. 
Vor zwanzig Jahren war der Stuttgarte neuronale Netze Simulator - SNN 
quasi der akademische Standard. Einige Netze konnte/durfte er nicht weil 
die über Patente geschütz sind/waren. Die Patentierung hatte aber auch 
nicht zum Durchbruch verhelfen können.

Die Kunst liegt aber nicht im Algorithmus sondern im Vermögen eine 
technische Anwendungg zu finden, deren Steuerung gut mit einem 
Neuronalen Netz realisierbar ist. Das ist im wesentlichen 
Bild/Mustererkennung/Sichtprüfung. Deshalb hat sich in diesem Bereich 
viel getan. Beispiel für Industrieanwendung ist NeuroCheck: 
http://www.neurocheck.de/template.php?MNID=2&SID=5&lid=0


In anderen Bereich haben Neuronale Netze die Erwartungen kaum erfüllt. 
Vielleicht ist es ein Fehler anzunehmen, das alles das natürliche 
Vorbild der Neuro netze vollbringen kann auch desen Computertechnische 
Nachahmung vermag. Die Behauptungdas sich ALLES mit NN lösen kann, wenn 
man die Hardware nur groß genug skaliert ist aber ein Kind der 
Marketingabteilung der IT-Industrie - Kauft mehr Neuronale Netze!

Der Erfolg einer Entwicklung im Bereich Machine Learning liegt aber im 
Gesamtpaket, mit guten Studiums-KnowHow allein ist da nicht viel zu 
machen.
So auch bei der Bilderkennung, da gehört die richtige Beleuchtung, 
Aufbereitung etc. dazu. Also alles was im Gesamtpaket "Menschliches 
Sehen" quasi eingebaut ist. Mit Retina-nachbildung und BackProp Lernalgo 
allein bewegt man sich auf dem Niveau von Schneckenhirnen wie "Aplysia 
californica".

von Sheeva P. (sheevaplug)


Lesenswert?

Berufsrevolutionär schrieb:
> Bildklassifizierung wie ein Spatzenhirn macht heutzutage jede smart
> kamera. Da braucht es keinengoogle-cluster wie google das gerne glauben
> machen will.

Die Lern-Algorithmen zur Bildklassifikation laufen auf acht geclusterten 
NVidia Tesla K40 und errechnen mit Optimierungen in etwa zwei Wochen 
einen Classifier. Der wird dann auf dem Smartphone nur noch angewendet, 
auf dem Smartphone lernt da allerdings gar nichts mehr.

Am Rande bemerkt: auch Smartphones haben heute enorme Rechenleistungen, 
beim iPhone 7 etwa ein 2,34 GHz Quadcore mit 2 bis 3 GB RAM, beim Galaxy 
S7 ein Exynos 8890-Octocore mit bis zu 2,6 GHz und 4 GB RAM.

https://research.googleblog.com/2016/03/train-your-own-image-classifier-with.html

von Sheeva P. (sheevaplug)


Lesenswert?

Wissenschaftler schrieb:
> Komme aus einem anderen Bereich aber mich würde interessieren, wie man
> die Dinge praktisch umsetzt? ZB kann ich ja auch eine regressionanalyse
> mit Neuronalen Netzen durchführen - nur wie? Welche Tools?

Bei O'Reilly gibt es "Introduction to Machine Learning with Python" und 
bei Manning "Machine Leaning in Action". Nach dem, was ich darüber 
gehört habe, sollten diese gut geeignet für Einsteiger sein, die eine 
eher praktische Herangehensweise suchen.

von ML (Gast)


Lesenswert?

Berufsrevolutionär schrieb:
> Ne Übersicht über Tools findet sich bspw dort:
> http://www.neuronalesnetz.de/links4.html
>
> Das das Thema seit Jahrzehnten auf der Stelle tritt, ist an der Vielzahl
> von Progs zu erkennen die sich im Kern nicht voneinanderunterscheiden.
> Vor zwanzig Jahren war der Stuttgarte neuronale Netze Simulator - SNN
> quasi der akademische Standard.

Das hat alles aber rein gar nichts mit deep learning oder dem aktuellen 
Stand der Forschung zu tun. Akademischer Standard heute sind 
Feed-Forward-Netze in der Grössenordnung 10x2000 hidden layer, LSTMs, 
convolutive DNNs. Mit den dort oben verlinkten Tools wird auch keiner 
mehr arbeiten, heute verbreitete Tools sind Theano, Torch, TensorFlow - 
alles Open Source, mit ein bisschen Know How, Zeit und einer billigen 
GPU kann man damit viele aktuelle Forschungsergebnisse reproduzieren.

von Sheeva P. (sheevaplug)


Lesenswert?

ML schrieb:
> Das hat alles aber rein gar nichts mit deep learning oder dem aktuellen
> Stand der Forschung zu tun. Akademischer Standard heute sind
> Feed-Forward-Netze in der Grössenordnung 10x2000 hidden layer, LSTMs,
> convolutive DNNs. Mit den dort oben verlinkten Tools wird auch keiner
> mehr arbeiten, heute verbreitete Tools sind Theano, Torch, TensorFlow -
> alles Open Source, mit ein bisschen Know How, Zeit und einer billigen
> GPU kann man damit viele aktuelle Forschungsergebnisse reproduzieren.

Richtig. Zudem sind NN zwar vielleicht das Interessanteste und in der 
Öffentlicheit Bekannteste, aber dennoch nicht das Einzige, was Machine 
Learning zu bieten hat.

von Berufsrevolutionär (Gast)


Lesenswert?

ML schrieb:
> Berufsrevolutionär schrieb:

>> Das das Thema seit Jahrzehnten auf der Stelle tritt, ist an der Vielzahl
>> von Progs zu erkennen die sich im Kern nicht voneinanderunterscheiden.
>> Vor zwanzig Jahren war der Stuttgarte neuronale Netze Simulator - SNN
>> quasi der akademische Standard.
>
> Das hat alles aber rein gar nichts mit deep learning oder dem aktuellen
> Stand der Forschung zu tun. Akademischer Standard heute sind
> Feed-Forward-Netze in der Grössenordnung 10x2000 hidden layer, LSTMs,
> convolutive DNNs.

OK, das ist der Punkt an dem wir uns nicht einig werden. Du sagst deep 
learning sei was ganz anderes als das was vor 20 Jahren Stand der 
Technik war, Ich sage das deep learning nur ein buzzword für neuronale 
Netze ist, so wie es in der engl. Wikipedia beschrieben wird: "Deep 
learning has been characterized as a buzzword, or a rebranding of neural 
networks"

Punkt.

von Basti (Gast)


Lesenswert?

Deep ANNs sind nur "große KNNs" und groß darfs sich gern jeder selbst 
festlegen...

Ja, dass finde ich auch sehr spannend am ML... mit ein paar Tools kann 
man die Algos der "Profis" ausführen... nur die Rechenpower fürs 
trainieren könnte schnell teuer werden... Kommt natürlich drauf ab, was 
man machen möchte...

Ein sehr spannendes und aktuelles Beispiel:

https://deepmind.com/blog/wavenet-generative-model-raw-audio/

Dann könnte es bald Siris und Navis mit verschiedensten Emutionen in der 
Stimme geben... Fahren Sie rechts. Sie sollten jetzt besser rechts 
fahren. FAHR rechts!

Herrlich ?

von Sheeva P. (sheevaplug)


Lesenswert?


von ottonormaloser (Gast)


Lesenswert?

 klausi schrieb:
> Was sind eure Erfahrungen/Erlebnisse ? ??

Bevor irgendwelche Entscheidungen getroffen werden, sollten erstmal die 
Erwartungshaltungen in die richtigen Bahnen gelenkt werden.

Früher wurde einem in der Lehre beigebracht wie man arbeitet. Während 
der Arbeit hatte man dann Gelegenheit Erfahrungen zu sammeln. Ohne 
Erfahrung sind alle Werkzueuge, vom Faustkeil bis zu den modernen 
Technologien nicht beherrschbar.
Anders gesagt, das Ding muß nicht mit dir klarkommen, sondern du mußt 
mit dem Ding klarkommen.
Da sind solche Sachen wie zum Beispiel "Intuitive" oder "Intelligente" 
Benutzeroberflächen natürlich kontraproduktiv.

Wenn die Benutzeroberfläche mit dir klarkommt befindest du dich 
eindeutig auf dem Holzweg.
Sehr schön zu beobachten an der Benutzeroberfläche für 
Geldspielautomaten.

Und bevor Machine Learning überhaupt erst mal in die Nähe von Erfahrung 
kommt, muß noch sehr viel Zeit vergehen. Ich spreche hier nicht von 
Jahren und auch nicht von Jahzehnten.
Das erscheint einem vielleicht doch ein wenig übertrieben, aber 
Evolutionsgeschichtlich betrachtet ist das NICHTS.

von Jeje (Gast)


Lesenswert?

nfet schrieb:
> Was ich aus meinem Studium daraus gelernt hab war: man braucht
> viele
> Daten zum anlernen und wenn es dann gelernt hat wundern sich alle warum
> das richtige raus kommt.

Das nennt sich überwachtes lernen. Es gibt allerdings auch unbewachtes 
lernen.

von Indeed (Gast)


Lesenswert?

Hier ein interessanter Bericht von McKinsey:
https://www.techinasia.com/mckinsey-finds-data-analytics-sham

In den USA(die etwa 5 Jahre vor uns sind in diesem Bereich) schaffen es 
immer noch nicht viele Firmen, Machine Learning oder advanced Statistics 
anzuwenden. In Deutschland siehts noch düsterer aus.
Das Problem in Deutschland liegt auch an den Universitäten. Es wird für 
diesen Bereich viel zu wenig Statistik ausgebildet, die nun mal sehr 
wichtig ist in ML. Machine Learning gilt auch als "Brücke" zwischen 
Statistik und Informatik. Es gibt nur zwei Universitäten in Deutschland 
mit einer Statistikfakultät.

Ich kenne eine deutsche Firma, die viel mit Daten arbeitet und diese 
auch sammelt. Wie sieht das Analytics-Team aus? Die besteht nur aus 
Wirtschaftsinformatikern, die vllt. 6 ECTS Statistik hatten.
Natürlich findet dort ML keine Verwendung um Wissen zu generien. Das ist 
die Realtität in Deutschland.

ML ist leider nur ein Hobbyprojekt in Deutschland.

von Mark B. (markbrandis)


Lesenswert?

Indeed schrieb:
> Es gibt nur zwei Universitäten in Deutschland mit einer Statistikfakultät.

Braucht man dafür eine eigene Fakultät? Lehrstühle für Statistik wird es 
doch wohl nicht so ganz wenige geben.

von Indeed (Gast)


Lesenswert?

Mark B. schrieb:
> Indeed schrieb:
>> Es gibt nur zwei Universitäten in Deutschland mit einer Statistikfakultät.
>
> Braucht man dafür eine eigene Fakultät? Lehrstühle für Statistik wird es
> doch wohl nicht so ganz wenige geben.

Bekannte Universitäten  die in ML forschen haben alle Stat. Departmens, 
wie z.B. Stanford(die bekannteste).

von J. C. (corben002)


Lesenswert?

Cyblord -. schrieb:
> GO

... Schach? Wieso kein Schach? Ist Schach zu komplex?

von ML (Gast)


Lesenswert?

Schach ist keine so interessante Herausforderung mehr weil die Maschinen 
den Menschen schon lange geschlagen haben.

von J. C. (corben002)


Lesenswert?

Mark B. schrieb:
> aber viele davon stellten sich als genial heraus.

Ist es denn nicht so, daß auch in Partien gegen Schachcomputer Passagen 
vorkommen die einem menschlichen Beobachter als genial erscheinen würden 
wenn er nicht wüßtest wie sie Zustandekommen sind?

von Berufsrevolutionär (Gast)


Lesenswert?

Indeed schrieb:




> ML ist leider nur ein Hobbyprojekt in Deutschland.

Quatsch, in keinem anderen Land gibt es soviele Firmen die mit 
Mustererkennung ihre Brötchen verdienen, bspw. Sick AG, neurocheck. 
Ebenso autonomes Fahren, da sind die Konzerne schon seit Jahrzehnten 
dick drin.

Berateaer-Firmen wie McKinsey sind eben gut darin ihren Klienten 
Beratungsbedarf einzureden indem sie für altbewährte Techniken buzzwords 
erfinden oder von vermeintlichen Marketing-Wunder-praktiken fabulieren 
die letztlich auch nicht halten was versprochen.

von J. C. (corben002)


Lesenswert?

J. C. schrieb:
> wüßtest

Jetzt kann der Leser schon nicht mehr Tippfehler von 
Fehlinterpretationen unterscheiden.
Was soll das erst werden wenn da noch die Logik ins Spiel kommt.  Da 
kann man ja den Wald vor lauter Bäumen nicht erkennen.

Und mit der Logik sind wir noch Welten von der Intention entfernt.

von Cyblord -. (cyblord)


Lesenswert?

J. C. schrieb:
> Cyblord -. schrieb:
>> GO
>
> ... Schach? Wieso kein Schach? Ist Schach zu komplex?

Schach ist recht komplex für einen Menschen und recht einfach für einen 
Computer. Durch die verschiedenen Figuren und ihre verschiedenen 
eingeschränkten Zugmöglichkeiten ergibt sich ein recht überschaubarer 
Zugbaum pro Stellung, welcher per Brute-Force komplett abgesucht werden 
kann. Zusammen mit großen Eröffnungs- und Schlußbibliotheken sind 
deshalb High-End Schachprogramme heute durch menschliche Spieler nicht 
mehr zu schlagen.

Bei GO gibt es viel zu viele Zugmöglichkeiten pro Stellung, der Zugbaum 
ist viel zu groß um komplett abgesucht werden zu können. Darum musste 
man sich hier etwas anderes einfallen lassen und das hat Google mit 
AlphaGo auch getan.

von Mark B. (markbrandis)


Lesenswert?

Cyblord -. schrieb:
> Schach ist recht komplex für einen Menschen und recht einfach für einen
> Computer. Durch die verschiedenen Figuren und ihre verschiedenen
> eingeschränkten Zugmöglichkeiten ergibt sich ein recht überschaubarer
> Zugbaum pro Stellung, welcher per Brute-Force komplett abgesucht werden
> kann. Zusammen mit großen Eröffnungs- und Schlußbibliotheken sind
> deshalb High-End Schachprogramme heute durch menschliche Spieler nicht
> mehr zu schlagen.
>
> Bei GO gibt es viel zu viele Zugmöglichkeiten pro Stellung, der Zugbaum
> ist viel zu groß um komplett abgesucht werden zu können.

Ja, heute noch. Aber das gleiche galt ja früher auch mal für Schach. Mit 
einem Prozessor aus den Siebzigern und ein paar Kilobyte RAM konnte man 
einen damaligen Großmeister auch nicht schlagen. ;-)

von Cyblord -. (cyblord)


Lesenswert?

Mark B. schrieb:

> Ja, heute noch.

Aber hast du mal überschlagen wie lange es dauern wird (z.B. mit Moores 
Law)?

Da sind schon ein paar Größenordnungen dazwischen. Und da man nun weiß, 
wie man auch anders und eleganter ans Ziel kommt, warum überhaupt noch 
auf Brute-Force bauen?

von Mark B. (markbrandis)


Lesenswert?

Cyblord -. schrieb:
> Da sind schon ein paar Größenordnungen dazwischen. Und da man nun weiß,
> wie man auch anders und eleganter ans Ziel kommt, warum überhaupt noch
> auf Brute-Force bauen?

Schon recht.

Wirklich beeindruckt bin ich aber erst dann, wenn Computer vernünftige 
Übersetzungen von einer menschlichen Sprache in eine andere liefern. Und 
nicht den Käse, den man heute als tolle automatische Übersetzung 
verkauft und der doch oft ziemlich grottig ist.

Bis das Ziel erreicht ist, dürfte noch verdammt viel zu tun sein.

: Bearbeitet durch User
von ottonormaloser (Gast)


Lesenswert?

Cyblord -. schrieb:
> Zusammen mit großen Eröffnungs- und Schlußbibliotheken sind deshalb
> High-End Schachprogramme heute durch menschliche Spieler nicht mehr zu
> schlagen.

Und wie sieht es damit aus?
http://computerschach.de/wordpress/Wörterverzeichnis/computerschach-weltmeisterschaft/

von Cyblord -. (cyblord)


Lesenswert?

ottonormaloser schrieb:

> Und wie sieht es damit aus?
> 
http://computerschach.de/wordpress/Wörterverzeichnis/computerschach-weltmeisterschaft/

Da spielen Schachcomputer gegeneinander. Was genau ist dir daran denn 
unklar?

von ottonormaloser (Gast)


Lesenswert?

Du willst mich auf den Arm nehmen.

von ottonormaloser (Gast)


Lesenswert?

Um die Sache abzukürzen erzähl ich einfach mal weiter:

Man könnte ja einen Schachcomputer als Standard definieren und mit 
verschiedenen schwierigkeitsstufen das neuronale Netz durchklingeln.
So hätte man immer einen Satz definierter Ausgangsstellungen.

Cyblord -. schrieb:
> Zusammen mit großen Eröffnungs- und Schlußbibliotheken sind deshalb
> High-End Schachprogramme heute durch menschliche Spieler nicht mehr zu
> schlagen.

Ja und? Daß Computer besser rechnen können wei§ doch jeder.

von Indeed (Gast)


Lesenswert?

Berufsrevolutionär schrieb:
> Indeed schrieb:
>
>> ML ist leider nur ein Hobbyprojekt in Deutschland.
>
> Quatsch, in keinem anderen Land gibt es soviele Firmen die mit
> Mustererkennung ihre Brötchen verdienen, bspw. Sick AG, neurocheck.
> Ebenso autonomes Fahren, da sind die Konzerne schon seit Jahrzehnten
> dick drin.
>
> Berateaer-Firmen wie McKinsey sind eben gut darin ihren Klienten
> Beratungsbedarf einzureden indem sie für altbewährte Techniken buzzwords
> erfinden oder von vermeintlichen Marketing-Wunder-praktiken fabulieren
> die letztlich auch nicht halten was versprochen.

LOl erfind keinen Blödsinn. Nennst hier 2 unbekannte Firmen die keine 
Sau kennt und auch noch autonomes Fahren, wo Tesla und co. den deutschen 
Jahre voraus ist. Nein, Deutschland hat mit ML nix am Hut. Es gibt so 
gut wie keine Data Science Stellenanzeigen verglichen mit Amibörsen.
Aber mehr ist auch nicht zu erwarten in einem Land, wo Internet Neuland 
ist.
Schaut man sich mal nur den Bereich CRM an. Viele Unternehmen sind noch 
in der Steinzeit, was das betrifft. Nein, hier läuft, außer ein 
ausufernder Sozialstaat, garnichts mehr.

von Berufsrevolutionär (Gast)


Lesenswert?

Indeed schrieb:
> Berufsrevolutionär schrieb:

> LOl erfind keinen Blödsinn. Nennst hier 2 unbekannte Firmen die keine
> Sau kennt und auch noch autonomes Fahren, wo Tesla und co. den deutschen
> Jahre voraus ist. Nein, Deutschland hat mit ML nix am Hut.

Sick AG ist ne völlig unbekannte Firma, - Klar für den der nicht die 
geringste Ahnung von Thema hat.

Schlag mal nach was die DARPA Urban Challenge und welche deutsche Teams 
am Start waren.

Hier als video für schlichte Gemüter aufbereitet: 
https://www.youtube.com/watch?v=TQlGPVTUPdI

Vielleicht hast ja vor Zehn Jahren noch in die Windeln gemacht, das 
würde ich als Entschuldigung für Dummtrollerei akzeptieren.

von Anonym (Gast)


Lesenswert?

> LOl erfind keinen Blödsinn. Nennst hier 2 unbekannte Firmen die keine
> Sau kennt und auch noch autonomes Fahren, wo Tesla und co. den deutschen
> Jahre voraus ist.

Tesla ist den deutschen beim Thema autonomes Fahreb in genau einem Punkt 
voraus und das ist das Marketing, weil Tesla einfach dreist seine 
Assistenzsysteme "Autopilot" nennt, die selben Assistenzsysteme hatten 
aber deutsche Autohersteller schon früher in der Oberklasse.

von Indeed (Gast)


Lesenswert?

Berufsrevolutionär schrieb:
> Indeed schrieb:
>> Berufsrevolutionär schrieb:
>
>> LOl erfind keinen Blödsinn. Nennst hier 2 unbekannte Firmen die keine
>> Sau kennt und auch noch autonomes Fahren, wo Tesla und co. den deutschen
>> Jahre voraus ist. Nein, Deutschland hat mit ML nix am Hut.
>
> Sick AG ist ne völlig unbekannte Firma, - Klar für den der nicht die
> geringste Ahnung von Thema hat.
>
> Schlag mal nach was die DARPA Urban Challenge und welche deutsche Teams
> am Start waren.
>
> Hier als video für schlichte Gemüter aufbereitet:
> Youtube-Video "Fahrerlose Autos VW Touareg Stanley gewinnt Wüstenrennen"
>
> Vielleicht hast ja vor Zehn Jahren noch in die Windeln gemacht, das
> würde ich als Entschuldigung für Dummtrollerei akzeptieren.

Maschine Learning hat nicht nur was mit Sensoren zu tun, deswegen habe 
ich von denen noch nie was gehört. Man hört meist nur was von IBM und 
co. in diesem Bereich. Zumal die Zentrale von Sick in einem Kaff liegt 
und die Gehälter mies sind(Glassdoor).

Komm zurück wenn hier ein IBM Watson entwickelt wurde.
Niemand interessiert sich für Wüstenrennen. Deutsche testen auf leeren 
Autobahnen während Tesla in Städten testet. Ein großer Unterschied. 
BMW's "Zentrum für Autonomes Fahren" kommt 10 Jahre zu spät.
Eher trollst du hier mit deinen lächerlichen Aussagen, alles wäre ein 
alter Hut. Wahrscheinlich stammst du noch aus Zeiten, in denen 
Perceptrons verwendet wurden.

von ottonormaloser (Gast)


Lesenswert?

Indeed schrieb:
> Wahrscheinlich stammst du noch aus Zeiten, in denen Perceptrons
> verwendet wurden.

Ohne gewichtete Stimuli ist es kein neuronales Netz.

von Long Don (Gast)


Lesenswert?

Cyblord -. schrieb:
> Schach ist recht komplex für einen Menschen und recht einfach für einen
> Computer. Durch die verschiedenen Figuren und ihre verschiedenen
> eingeschränkten Zugmöglichkeiten ergibt sich ein recht überschaubarer
> Zugbaum pro Stellung, welcher per Brute-Force komplett abgesucht werden
> kann. Zusammen mit großen Eröffnungs- und Schlußbibliotheken sind
> deshalb High-End Schachprogramme heute durch menschliche Spieler nicht
> mehr zu schlagen.


Erklär bitte mal, wozu die Bibliotheken nötig sind, wenn doch angeblich 
der Zugbaum komplett abgesucht werden kann.

von ottonormaloser (Gast)


Lesenswert?

Und? Wie heißt denn der Kleine?

von ottonormaloser (Gast)


Lesenswert?

Der mit dem variabel gewichteten Stimuli.
Bei dem Bart kann das doch nur ein Männchen sein.

(ich wußte daß das lustig wird)

von Berufsrevolutionär (Gast)


Lesenswert?

Indeed schrieb:
> Berufsrevolutionär schrieb:
>> Indeed schrieb:
>>> Berufsrevolutionär schrieb:
>>
>>> LOl erfind keinen Blödsinn. Nennst hier 2 unbekannte Firmen die keine
>>> Sau kennt und auch noch autonomes Fahren, wo Tesla und co. den deutschen
>>> Jahre voraus ist. Nein, Deutschland hat mit ML nix am Hut.
>>
>> Sick AG ist ne völlig unbekannte Firma, - Klar für den der nicht die
>> geringste Ahnung von Thema hat.
>>
>> Schlag mal nach was die DARPA Urban Challenge und welche deutsche Teams
>> am Start waren.
>>
>> Hier als video für schlichte Gemüter aufbereitet:
>> Youtube-Video "Fahrerlose Autos VW Touareg Stanley gewinnt Wüstenrennen"
>>
>> Vielleicht hast ja vor Zehn Jahren noch in die Windeln gemacht, das
>> würde ich als Entschuldigung für Dummtrollerei akzeptieren.
>
> Maschine Learning hat nicht nur was mit Sensoren zu tun, deswegen habe
> ich von denen noch nie was gehört. Man hört meist nur was von IBM und
> co. in diesem Bereich.

Ja klar man hört nur das was einem die Marketing-Abteilung in die Ohren 
blässt. Höre mal auf die seriösen Berichterstatter, da lernst du schnell 
wo überall in .de seit Jahrzehnten an machine learning geforscht wird - 
wenn man es auch nicht so nennt. 
https://www.heise.de/newsticker/meldung/Roboter-Autos-Halbfinalisten-fuer-Urban-Challenge-stehen-fest-Update-161802.html 
TU Braunschweig, TU Berlin, ibeo Hamburg, TU Karlsruhe, ...


> Zumal die Zentrale von Sick in einem Kaff liegt
> und die Gehälter mies sind(Glassdoor).

War doch klar, dir geht es nur um schnell verdiente Geld und nicht um 
ernsthafte Forschung. Bist halt ein Troll.

> Komm zurück wenn hier ein IBM Watson entwickelt wurde.
> Niemand interessiert sich für Wüstenrennen.

Ja klar DARPA ist ein niemand, die entwicklen ja auch nur den ganzen 
autonomen Kram fürs Militär. Automobil ist da wiedermal der 
Resteverwerter. War es auch schon in den Neunzigern in denen mein Prof 
mit einem seinen Worten nach Pershing-Leitrechner im Kofferraum autonom 
LKW's in Norddeutschland hinterfuhr. War wohl das EUREKA Prometheus 
Projekt, damals nannte man das noch Lane Assist und nein das war nicht 
auf einer leeren sondern auf einer gut gefüllten Autobahn.

> Eher trollst du hier mit deinen lächerlichen Aussagen, alles wäre ein
> alter Hut.

Ist es ja auch, kannst du überall nachlesen "machine learning is 
Re-branding of Neural Networks"

> Wahrscheinlich stammst du noch aus Zeiten, in denen
> Perceptrons verwendet wurden.

30 Jahre Facherfahrung ist keine Schande, Hintergundwissen verhindert 
eben das man sich vom Marketing-buzzwords blenden lässt.

Lies mal die Geschichte des Autonomen Fahrens: 
http://www.autonomes-fahren.de/geschichte-des-autonomen-fahrens/

Machine Learning ist nix als ein neues Wort für einen alten Hut. Da hat 
es schon genug alte Hasen in den Konzernen die sich nicht von einem 
naseweisen Grünschnabel in die Suppe spucken lassen.

Viel Spass noch beim Lernen und Einlesen in das Thema,

von Indeed (Gast)


Lesenswert?

Hör auf Zeug aus dem Jahr 2007 zu posten. Die Welt hat sich seitdem 
rasant verändert.
In den USA kann man Forschung betreiben UND viel Geld verdienen, ein 
nennenswerter Unterschied. Klar, du als alter deutscher Hase, liebst es 
natürlich nicht geschätzt zu werden in Form von Gehalt. Aber nicht jeder 
will die low wages hier akzeptieren. Nicht jeder denkt typisch deutsch.

Machine Learning hat mit neural networks erstmal garnichts zu tun. Du 
missverstehst hier etwas. Machine Learning ist hauptsächlich eine Brücke 
zwischen Statistik und Informatik, auch genannt computergestützte 
Statistik.
Machine Learning boomt in Data Science, vor allem in Öl und Gas, um 
Verfahren effizienter zu gestalten. Neben Big Data hinken wir in diesem 
Bereich Jahre hinterher. Es wird wohl im Raum München nur eine handvoll 
Unternehmen geben, die effektiv überhaupt Big Data Systeme verwenden.

Das mit re-branding meinst du wohl Deep Learning(Neural Nets). Was 
früher kaum möglich war, ist es jetzt dank leistungsstarken Grafikkarten 
möglich.
Jeder, der 1300 Euro für die Geforce Titan Pascal ausgeben kann, kann 
mittlerweile effektiv Deep Learning mit einer GPU betreiben.

Warum soll ich mich in einem Thema einlesen, worin ich längst arbeite?
Meine aktuelle Arbeit besteht hauptsächlich darin, mit AR-Models 
Zeitreihen forezucasten und Anomalien mit SVMs zu erkennen.
Nebenbei klassifiziere ich Bildmuster mit Deep Learning(mit einer Titan 
Pascal).

von ottonormaloser (Gast)


Lesenswert?

Na gut. Dann erzähl ich halt von meinem Lieblingsthema: 
Größenordnungsverhältnisse.

Vor einiger Zeit war man der Meinung, daß man schon das Empire State 
Building mit Relais füllen müßte, um die Funktion des menschlichen 
Gehirns nachzubilden.
Dann war man der Meinung, daß der genetische Code des Menschen auf eine 
CD paßt (leider nur das zipfile).
Heute bin ich der Meinung, daß man schon das Empire State Building mit 
neuronalen Computern füllen müßte, um damit Schach spielen zu können.



P.S.: Genaugenommen schwanke ich zwischen dem Empire State Building, 
Manhattan und ganz New York.

von ottonormaloser (Gast)


Lesenswert?

Indeed schrieb:
> AR-Models

Verkappte Stimuli.

von Epi (Gast)


Lesenswert?

Indeed, du hast leider unrecht. Ich könnte jetzt viel schreiben machs 
mir aber einfach. Schau mal nach wo IBM in Zukunft Watson 
weiterentwickeln will und stell dir die Frage, ob die jetzt wirklich ihr 
Forschungszentrum in München ausschließlich mit importierten ach so 
advanced Amerikanern füllen werden.

Zur Weiterbildung über das Silicon Valley empfehle ich dir die 
gleichnamige TV Serie.

von Philipp B. (philipp_b993)


Lesenswert?

Ja, ich habe mich mit dem Thema schon sehr viel ausseinandergesetzt und 
auch schon etwas entwickelt. Das Thema Machine Learning ist echt 
ingesamt sehr komplex und umfangreich. Mal eine andere Frage: Was ist 
dein Ziel? Was genau willst du machen?

Die wichtigste Frage ist naemlich, was du so an Datenmengen erwartest. 
Moechtest du im Batch arbeiten oder moechtest du tatsaechlich im 
Near-Realtime Bereich bewegen und deine Modelle im Batch trainieren. 
Wenn das der Fall ist und du einen hohen Datendurchsatz benoetigst musst 
du dich naemlich auch noch mit Architekturen ausseinandersetzen. Wie 
baust du deine Machine Learning Pipeline am effizientesten auf, sodass 
du, nach x Sekunden, eine Vorhersage treffen kannst. Darueber hinaus 
kommen dann noch so Themen wie Fehlertoleranz auf dich zu. Ein schoenes 
Framework, sogar aus Deutschland, ist Flink. Die Jungs von der TU haben 
da ein echtes tolles Teil entwickelt. Alleine wie sie Daten 
fehlertolerant konsistent halten und dennoch nicht in micro batches 
verfallen ist simpel aber genial. Kann man sich auf jeden Fall mal 
anschauen.
PS: Ich arbeite im Online-Analytics Bereich ;) Das, was viele Leute so 
boesen finden ^^ Fuer solche Themen ist das aber natuerlich echt genial.

von Indeed (Gast)


Lesenswert?

Epi schrieb:
> Indeed, du hast leider unrecht. Ich könnte jetzt viel schreiben
> machs
> mir aber einfach. Schau mal nach wo IBM in Zukunft Watson
> weiterentwickeln will und stell dir die Frage, ob die jetzt wirklich ihr
> Forschungszentrum in München ausschließlich mit importierten ach so
> advanced Amerikanern füllen werden.
>
> Zur Weiterbildung über das Silicon Valley empfehle ich dir die
> gleichnamige TV Serie.

Im Silicon Valley möchte ich auch nicht arbeiten. Hohe Stuern, hohe 
Mietpriese, lange Arbeitszeiten. Überall in den USA lebt man denk ich 
mal besser als da.

IBM investiert 200 mio von 3 Mrd in Deutschland. Also nur ein kleiner 
Anteil.
Ich bin Statistiker und bin enttäuscht vom deutschen Arbeitsmarkt 
hinsichtlich Data Science. Die Leute hier arbeiten noch mit einfachsten 
Verfahren. Sie wissen nicht, was wirklich in ihre Daten steckt. Da sind 
die Amis weiter.

Ich bin zur Zeit wirklich am überlegen, ob ich auswandern oder mich 
selbstständig machen soll. Es tut sich hier einfach nichts. Ich bekomme 
nicht mal Python für ML lizensiert, da es noch nie ein einer DATENFIRMA 
verwendet wurde. Schöne Zeiten!

von Philipp B. (philipp_b993)


Lesenswert?

Indeed schrieb:
> Ich bin Statistiker und bin enttäuscht vom deutschen Arbeitsmarkt
> hinsichtlich Data Science.

Jupp, ich auch. Digitale Transformation und so. Grosses Buzzword-Bingo. 
Ohh, wir investieren in Startups. Toll, wenn es dann nicht die waeren, 
die einfach ueberhaupt keinen Plan haben, aber total cool sind. Und die, 
die dann wirklich mal Ahnung haben, wuerden niemals an die Kohle kommen. 
Weil sie noch nicht bei McKindsey und Rocket gearbeitet haben. Sind halt 
nicht die coolen Jungs.

> Ich bin zur Zeit wirklich am überlegen, ob ich auswandern oder mich
> selbstständig machen soll.

Ohh, ich war Selbststaendig... Glaub mal, das war ziemlich mies. Keine 
Frage, die Bezahlung war echt gut, aber ich habe wirklich nur die 
Drecksarbeit gemacht. Okay, das mit dem Auswandern ist noch eine Option, 
aber bis du eine Aufenthaltgenehmigung in den USA bekommst... Ausserdem 
kloppen sich da dann doch 100.000 um einen Job. Und dann landest du 
nachher sowieso nur in der Adwords Technical-Help Hotline. Liess dir mal 
die Berichte von Top Havard- und Stanfort-Absolventen durch ;)


>  Es tut sich hier einfach nichts. Ich bekomme nicht mal Python für ML 
lizensiert, da es noch nie ein einer DATENFIRMA
> verwendet wurde. Schöne Zeiten!

Was heisst den Datenfirma? Wo arbeitet du? Kannst ja mal bei uns 
Anfragen, wir nutzen bestimmt Python ;) Scala auf jeden Fall und wir 
haben die Deutsche Bank etc. als Kunden. :D Wuerde das reichen? ^^

von Indeed (Gast)


Lesenswert?

Philipp B. schrieb:
> Was heisst den Datenfirma? Wo arbeitet du? Kannst ja mal bei uns
> Anfragen, wir nutzen bestimmt Python ;) Scala auf jeden Fall und wir
> haben die Deutsche Bank etc. als Kunden. :D Wuerde das reichen? ^^

Eigentlich ist es garnicht so schwierig, in den USA eine gut bezahlte 
Stelle zu kriegen. Die meisten Bewerber sind unterirdisch, auch 
Stanford-Absolventen. Es ist eben so, dass 90%+ aller Data Scientists in 
den USA scheiße abliefern. Entweder mangelt es ihnen an Progammier- und 
Technologiekenntnissen oder an Stat-skills. Ein Infostudium bringt einem 
keine Statistik bei(bei Nebenfach nur sehr wenig). Andererseits bringt 
dir ein Statstudium auch keine Infoskenntnisse bei. Da nun mal Data 
Science eine Mischung aus beidem ist, ist dieser Beruf eben nicht leicht 
zu meistern.

Nur eine Green Card zu kriegen ist halt richtig hart.
Ich bin kein Inder -> kann H1B vergessen.

Scala ist sehr interessant. Bei uns verwendet niemand diese Sprache.
Es wird wohl hauptsächlich SAS oder R verwendet, da kein ML verwendet 
wird.
Ich kann diese Sprachen zwar auch, aber sie machen keinen Spaß.

von D. I. (Gast)


Lesenswert?

Indeed schrieb:
> Ich bin kein Inder -> kann H1B vergessen.

Das ist Quatsch.

von Thomas1 (Gast)


Lesenswert?

Leute meldet euch da an und lernt mal. Der Kurs ist kostenlos.

https://mooc.house/courses/machinelearning-2016

von ottonormaloser (Gast)


Lesenswert?

Das waren die Größenordnungen.
Interessiert sich hier überhaupt irgendjemand für meine 
Größenordnungsverhältnisse?

Frohe Ostern allerseits.

von LTI (Gast)


Lesenswert?

Mir als LTI-System sind Größenordnungsverhältnisse egal. Für mich ist 
alles linear und damit basta!

Frohes Fest an alle :)

von J. C. (corben002)


Lesenswert?

ottonormaloser schrieb:
> Ohne Kleinhirn kannst du direkt und ohne Umschweife sitzenbleiben.

Und das Kleinhirn muß stehen wie ein Fels in der Brandung.
Außer es geht dir an den Kragen...

von J. C. (corben002)


Lesenswert?

...aber das läßt sich nicht adaptieren.
Bei einem Roboter is eh alles anders.

von J. C. (corben002)


Lesenswert?

Ein Roboter hat weder Redundanz noch Reserven.

Ich mein,  jetzt erst das Rad neu erfinden zu wollen ist doch ein wenig 
aus dem Timing, oder?

Wozu das Rad neu erfinden wenn man fliegen kann?
Ja ok, das Gepäck.
Geht viiiiel effizienter mit Rad/Schiene.

von Philipp B. (philipp_b993)


Lesenswert?

Indeed schrieb:
> Philipp B. schrieb:

>
> Scala ist sehr interessant. Bei uns verwendet niemand diese Sprache.
> Es wird wohl hauptsächlich SAS oder R verwendet, da kein ML verwendet
> wird.

Ich habe damals mit PHP angefangen, dann viel im Frontend gemacht. Auch 
eine wirklich spannende Thematik. Ich kenne allerdings auch viele 
Entwickler die sich eher nicht mit dem Frontend beschaeftigen wollen. 
Und inzwischen bin ich bei Scala gelandet. Ich finde die Sprache, fuer 
mich, deutlich intuitiver als Java. Die Mischung aus funktionaler 
Sprache und objektorientierung gefaellt mir ganz gut. Man kann vieles 
durch die nativen Methoden abbilden. z.B. filter, map, reduce usw. 
Wofuer ich sonst teilweise 20 Zeilen gebraucht habe, brauche ich jetzt 
nur 4. Man muss aber auch aufpassen, dass man weiterhin lesbaren Code 
schreibt.

> Ich kann diese Sprachen zwar auch, aber sie machen keinen Spaß.
Ich habe mal eine TV-Analyse in R geschrieben. Es funktioniert. Gibt 
besonders viele Libraries, mit denen man grafische Ausgabe erzeugen 
kann. Das ist schon ganz huebsch. Wenn ich das mal so mit Scala 
vergleiche. Aber fuer mich ist R deutlich unintuitiver. Alleine das 
Arrays, DataFrames etc. mit 1 anfangen bring genuegend Verwirrung. An 
diesen Stellen merkt man eben, dass die Sprache fuer Statistiker 
geschrieben wurde und nicht fuer Entwickler. Auch der Speicherverbrauch 
ist so eine Sache fuer sich. Das eskaliert in R unter Umstaenden schon 
mal.

von Nop (Gast)


Lesenswert?

J. C. schrieb:
> Cyblord -. schrieb:
>> GO
>
> ... Schach? Wieso kein Schach? Ist Schach zu komplex?

Was meinst Du, wo AlphaGo herkommt? Der Autor hat zuvor die Technik mit 
dem OSS-Schachprogramm "Giraffe" entwickelt, deswegen wurde Google 
überhaupt erst auf ihn aufmerksam. Das Interessante bei "Giraffe" war , 
daß es durch Spielen gegen sich selbst (!) in wenigen Tagen auf die 
Stärke menschlicher Internationaler Meister kam.

Deswegen entwickelt er "Giraffe" aber auch nicht mehr weiter, denn da 
die Technik eine sehr ähnliche ist, hat er den Konflikt, daß er nicht 
internes Knowhow seines Arbeitgebers veröffentlichen kann.

Freilich spielt "Giraffe" nur vergleichsweise mittelmäßig. Bei üblicher 
PC-Standardhardware ist es weit von den Spitzenprogrammen entfernt. Das 
hat auch seine Gründe:

Go ist sehr viel musterlastiger als Schach. Bei Schach ist es häufig, 
daß nur eine Figur nur ein Feld woanders den Unterschied zwischen Sieg 
oder Niederlage ausmacht. Kleine Abweichungen in den Eingangsdaten haben 
also große Abweichungen in den Ausgangsdaten zur Folge.

Neuronetze dienen aber gerade der Mustererkennung, und das heißt, kleine 
Abweichungen in den Eingangsdaten sollen auch kleine Abweichungen in den 
Ausgangsdaten bewirken - das ist so ziemlich die Definition von 
"ähnliche Sachen als ähnlich erkennen".

von Cyblord -. (Gast)


Lesenswert?

Siemens Corporate Technology in Erlangen hat derzeit zwei Stellen 
ausgeschrieben für Algorithmenentwicklung im Bereich Machine Learning.

von go sensei go (Gast)


Lesenswert?

Nop schrieb:
> Go ist sehr viel musterlastiger als Schach. Bei Schach ist es häufig,
> daß nur eine Figur nur ein Feld woanders den Unterschied zwischen Sieg
> oder Niederlage ausmacht.

Isse aber bei Go auch nicht anders, eine einzige Freiheit mehr und das 
Sushi ist geputzt.

von Eine Fachkraft (Gast)


Lesenswert?

Abradolf L. schrieb:
> Siemens Corporate Technology in Erlangen hat derzeit zwei Stellen
> ausgeschrieben für Algorithmenentwicklung im Bereich Machine Learning.

Bekommt man da auch 200k wie bei Google? Deutsche Konzerne ftw!

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.