Hi Leute In meinem (ersten) Diplomstudium habe ich mich als dipl. Ing. in Informationstechnik viel mit Software Engineering, Robotik etc. beschäftigt. Nach einigen Jahren BE mache ich jetzt noch ein (Postgraduate) Master-Studium. Ein sehr aktuelles (fast gehyptes) Thema, mit dem ich mich momentan beschäftige, ist ML. Gibt's einige von euch, die sich auch schon mal oder jetzt mit dem Gebiet beschäftigt haben? Vielleicht evtl. auf der TU/Uni oder beruflich? Was sind eure Erfahrungen/Erlebnisse ? ?? Gruss, der klausi
..ich finde dieses Thema ziemlich "advanced" und super spannend. Evtl. eher für Fortgeschrittene zu empfehlen; naturgemäss enthält das Thema auch einige knackige Mathematik (Statistik z.B.). Generell in Computer Science Mastern wird dieses Gebiet aber schon unterrichtet. Momentan habe ich noch eine Vorlesung über nonlineare, chaotische Systeme (z.B. Lyapunov, Feigenbaum-Konstante..)
Ich ab vor Jahren mal den Online Kurs von Stanford gemacht. War ganz nett.
Was ich aus meinem Studium daraus gelernt hab war: man braucht viele Daten zum anlernen und wenn es dann gelernt hat wundern sich alle warum das richtige raus kommt.
Ich habe immer das Gefühl: Das schwierigste an ML ist, Daten zu finden, womit man ML testen kann.
klausi schrieb: > Was sind eure Erfahrungen/Erlebnisse ? ?? Huch, seit wann kann die Foren-Software Smileys?
Moin, also ich setzte bei meinem Staubsauger-Projekt ein neuronales Netz für die Hinderniserkennung ein. Ich stand vor dem Problem, dass ich zu viele unscharfe Situation zu erwarten hatte. Dann habe ich einen Simulator geschrieben, Trainingsdaten erzeugt und damit das Netz trainiert. Bei mir 13 Input Neuronen, 2 Hiddenlayer, 3 Output Neuronen. Läuft nach ca. 500 Trainigssätzen besser als mein selbst geschriebener Algorithmus. Viele Grüße
Mark B. schrieb: > klausi schrieb: > Was sind eure Erfahrungen/Erlebnisse ? ?? > > Huch, seit wann kann die Foren-Software Smileys? Seit den neuen ML Algorithmen ?? cool oder? Lukas H. schrieb: > Bei mir 13 Input Neuronen, 2 Hiddenlayer, 3 Output Neuronen. Läuft nach > ca. 500 Trainigssätzen besser als mein selbst geschriebener Algorithmus. > > Viele Grüße Wow cool, echt interessant. Welche Tools, SW hast du dazu eingesetzt? Ist ja z.B. vieles möglich. Java, R, Python.. Und das "Netz" also mehr od. weniger fertigen, kompilierten Code führt das Gerät (Staubsauger) dann zur Laufzeit aus?
klausi schrieb: > Ein sehr aktuelles (fast gehyptes) Thema, mit dem ich mich momentan > beschäftige, ist ML. Naja, "hype" würde ich das nicht nennen, sondern eher überfällig. ML ist dazu da, die Brücke zwischen vom Menschen (un-)vorhersehbaren Situationen mit von Menschen nicht mehr sinnvoll umsetzbaren Lösungen zu schließen. ML setzt genau dann an, wenn vorgefertigte Verhaltens- oder Ausführungsmuster nicht mehr zum Ziel führen (z.B. der Rasenmäherroboter, der Staubsaugerroboter u.v.m.). ML gehört definitiv die Zukunft. Warum das Thema aber aus wissenschaftlicher Sicht interessant ist, ist weil man riesige Probleme hat, den ganzen Käse zu debuggen. Man hat ein Netzwerk mit Neuronen, die irgendwelche Zustände annehmen. Das ist zwar interessant anzusehen, aber de facto entbehrt das Ganze jeglichem Informationsgehalt für den Menschen. Die Information steckt in der Kombination der Neuronen. Damit wird die Entwicklung für den Menschen ein Stochern im trüben Gewässern. Hier anständig Grundlagen zu erlernen, die hinterher auch zielbringend eingesetzt werden können, halte ich für sehr sinnvoll. Hier im Forum gabs vor 2/3 Wochen mal ein Video - da hatte einer einem kleinen Roboter mit 4 Beinen und einem ML-Algorithmus nur gesagt "Du hast Beine, also mach was damit". Im Zeitraffer sieht man dann, dass der Roboter nach einer halben Stunde gelernt hatte, damit zu laufen. Sehr interessant!
Habe das vor 2 Jahren im Nebenbei als Gasthörer besucht und verfolgt. Seitdem befasse ich mich damit ausschließlich privat. Das Thema ist interessant, anspruchsvoll und noch in den Kinderschuhen. Leider so abstrakt, dass man es an die Verantwortlichen nicht kommunizieren kann, was man denn nun eigentlich haben will :D Beruflich also noch bei weitem nicht angekommen in der Trägheit der Arbeitswelt.
As-I-Roved-Out schrieb: > ... und noch in den Kinderschuhen. Wo warst du die letzten - sagen wir mal - 50 Jahre?
Machine Learning? Sicher doch. Habe ich studiert (KI-Vertiefungsrichtung) und danach damit promoviert. Flexible Datenmodelle, Interpretation, Visualisierung, Vorhersage, etc sind auf der Arbeit Standard (Life Science, Konzern). ML ist ein absolutes Alltagswerkzeug.
klausi schrieb: > Gibt's einige von euch, die sich auch schon mal oder jetzt mit dem > Gebiet beschäftigt haben? Vielleicht evtl. auf der TU/Uni oder > beruflich? Ich arbeite an Machine Learning für Spracherkennung. > Was sind eure Erfahrungen/Erlebnisse ? Naja, was willst du auf so eine allgemeine Frage hören? Mal ein Versuch: - Python rult - fast alle Kollegen haben promoviert - die meisten haben Informatik/Physik/Mathematik/E-Technik studiert
klausi schrieb: > Was sind eure Erfahrungen/Erlebnisse ? ?? Uralter Kram wird als neuer Hype verkauft. Weiter unten: Roboter lernt laufen. Ui toll, das habe ich schon vor 15 Jahren oder noch länger her gesehen. Neuronale Netze für xy. Wird trainiert und macht was es soll, mehr oder weniger schlecht manchmal auch richtig gut: Boah wahnsinn, total neu das. Das einzige was heute daran neu ist, dass man dafür brauchbare Hardware nachgeworfen bekommt, DAS war damals noch ein Problem, 90% der Algos und Techniken sind sowas von asbachuralt. Hier und da gibts heute auch schon (halb)fertige Libs so dass man nicht mehr jeden Kram von der Ursuppe an selber schreiben muss.
Pfälzer Saumagen schrieb: > Das einzige was heute daran neu ist, dass man dafür brauchbare Hardware > nachgeworfen bekommt, Ich denke auch, dass der Ansatz nicht neu ist. Und diese Sachen sind alle ziemlich rechenaufwenig, was heutzutage eben besser geht. Andreas R. schrieb: > Hat schonmal jemand was in Richtung Börsenhandel gemacht? Das, ist interessant :-) Das Problem bei neuronalen Netzwerken ist doch, dass sie trotzdem Fehler machen. Auch wenn es immer weniger werden, aber irgendwann schleicht sich doch ein Fehler ein. Gerade bei autonomen Fahren kann sowas schnell tödlich enden.
Andreas R. schrieb: > Hat schonmal jemand was in Richtung Börsenhandel gemacht? Nicht direkt, aber im Gegenteil: Erkennung von Insidertrading.. zB Kurs eines Wertpapiers steigt in 1 Woche um 50%. Insider weiss das vorher, kauft 1 Woche vorher soviel wie möglich Papiere dieser Firma. Ist erkennbar - momentan durch feste Regeln, Rulesets, Parametern. Die Idee wäre hier, Effekte usw durch Algorithmen zu erlernen.
Pfälzer Saumagen schrieb: > Roboter lernt laufen. Ui toll, das habe ich schon vor 15 Jahren oder > noch länger her gesehen. > Neuronale Netze für xy. Wird trainiert und macht was es soll, mehr oder > weniger schlecht manchmal auch richtig gut: Boah wahnsinn, total neu > das. Klar, das ging schon vor 15 Jahren. Das neue ist, dass man jetzt ganz reale Probleme damit lösen kann, und zwar nicht nur so lala, sondern so gut, dass man jahrzehntelang lang erarbeitete Methoden zur Featureextraktion in die Tonne kloppen kann. Das kannst du jetzt gerne nur auf die gestiegene Rechenkapazität schieben, der Effekt in der Praxis bleibt. Niine schrieb: > Das Problem bei neuronalen Netzwerken ist doch, dass sie trotzdem Fehler > machen. Auch wenn es immer weniger werden, aber irgendwann schleicht > sich doch ein Fehler ein. Das Problem hast du prinzipiell bei jedem statistischen Modell, ob es jetzt ein NN oder ein GMM oder ein SVM ist, du kannst nie genau vorhersagen wie es sich bei ungesehenen Samples verhält, du weisst nur was es im Mittel ungefähr macht.
Pfälzer Saumagen schrieb: > Roboter lernt laufen. Ui toll, das habe ich schon vor 15 Jahren oder > noch länger her gesehen. Dann zeig doch mal ein Video von vor 15 Jahren in denen Roboter sich so bewegen wie z.B. die von Boston Dynamics. https://www.youtube.com/watch?v=rVlhMGQgDkY > Neuronale Netze für xy. Wird trainiert und macht was es soll, mehr oder > weniger schlecht manchmal auch richtig gut: Boah wahnsinn, total neu > das. Wenn man sich Googles GO Programm anschaut, welches mal im Handstreich die besten GO Spieler schlägt, wo bei man vor 1 Jahr noch davon ausging dass dies vielleicht nie passieren würde, dann muss man dir attestieren dass du große Scheiße laberst. https://de.wikipedia.org/wiki/AlphaGo
:
Bearbeitet durch User
Cyblord -. schrieb: > Wenn man sich Googles GO Programm anschaut, welches mal im Handstreich > die besten GO Spieler schlägt, wo bei man vor 1 Jahr noch davon ausging > dass dies vielleicht nie passieren würde, dann muss man dir attestieren > dass du große Scheiße laberst. > > https://de.wikipedia.org/wiki/AlphaGo Interessant vor allem, dass sie da den Monte Carlo Tree Search verwenden. Aber auch AlphaGo hat viele Macken. Spielt es vor allem anfangs schon schlecht, wird des im Laufe des Spiels immer schlechter. Es schafft (noch) keine Comebacks. Es simuliert aber auch tausende Spiele täglich. Vllt. ist es auch irgendwann unschlagbar, AlphaGo -> BetaGo -> LiveGo? Tatsächlich muss man sagen, dass dank Rechnerkapazitäten ML bereits größer angewendet werden kann. Und das ist etwas schönes! Die Frage ist nur, wann wird ML Arbeitsplätze vernichten?
Keine Daten schrieb: > Interessant vor allem, dass sie da den Monte Carlo Tree Search > verwenden. Aber auch AlphaGo hat viele Macken. Spielt es vor allem > anfangs schon schlecht, wird des im Laufe des Spiels immer schlechter. > Es schafft (noch) keine Comebacks. Die Aussage relativiert sich allerdings wenn man bedenkt dass AlphaGo momentan der beste Go Spieler der Welt ist. > Es simuliert aber auch tausende > Spiele täglich. Vllt. ist es auch irgendwann unschlagbar, AlphaGo -> > BetaGo -> LiveGo? Eben. Es lernt. Und das ist der große Fortschritt. Und es kann Züge machen, die ein Mensch nicht mehr vorhersehen oder verstehen kann. Selbst die Großmeister waren bei einigen Zügen komplett Baff, dachten auch erst an Fehler, aber viele davon stellten sich als genial heraus. Was es wohl tut, ist Quatsch machen wenn es am verlieren ist. Aber das passiert ja nun nicht mehr so oft....
:
Bearbeitet durch User
Keine Daten schrieb: > Die Frage ist nur, wann wird ML Arbeitsplätze vernichten? Ach ja, immer die latente Angst der arbeitsplatzvernichtenden bösen neuen Entwicklungen. Ich weiß nicht - wir sollten mal all die Weberinnen und Näherinnen aus Augsburg fragen.
Keine Daten schrieb: > Tatsächlich muss man sagen, dass dank Rechnerkapazitäten ML bereits > größer angewendet werden kann. Und das ist etwas schönes! > Die Frage ist nur, wann wird ML Arbeitsplätze vernichten? Denkt mal nicht eindimensional, Arbeitsplätze werden nich vernichtet, sondern die Arbeiter auf einen anderen "verschoben". Die die früher Kohle zur Wohnungsheizung ausfuhren und in die Keller schleppten, fahren heute Deine Versandhandel-Pakete übers Land. So ist es seit der Industriellen Revolution vor dreihundert Jahren, Berufsbilder schwinden, Arbeit bleibt.
Cyblord -. schrieb: > Eben. Es lernt. Und das ist der große Fortschritt. Und es kann Züge > machen, die ein Mensch nicht mehr vorhersehen oder verstehen kann. > Selbst die Großmeister waren bei einigen Zügen komplett Baff, dachten > auch erst an Fehler, aber viele davon stellten sich als genial heraus. > Was es wohl tut, ist Quatsch machen wenn es am verlieren ist. Aber das > passiert ja nun nicht mehr so oft.... Nichtsdestotrotz kann AlphaGo nur ein einziges Spiel spielen. Menschen kennen Dutzende oder gar Hunderte verschiedener Spiele. Eine echte künstliche Intelligenz - also eine, die den Namen auch verdient - wäre in der Lage ein für sie neues und unbekanntes Spiel zu erlernen. So wie ein Mensch es kann.
Andreas R. schrieb: > Hat schonmal jemand was in Richtung Börsenhandel gemacht? Natürlich hat man sich in der Richtung schon versucht. Wie gut oder wie schlecht das funktioniert, sei dahingestellt. Google mal z.B. nach "Börsenhandel Neuronale Netze".
:
Bearbeitet durch User
Mark B. schrieb: > Eine echte künstliche Intelligenz - also eine, die den Namen auch > verdient - wäre in der Lage ein für sie neues und unbekanntes Spiel zu > erlernen. So wie ein Mensch es kann. Es ging ja auch um ML und nicht um KI. Und das ML nichts neues hervorbringen könnte und sowieso schon längst kalter Kaffee wäre. Und AlphaGo zeigt das genau das nicht stimmt. Um eine "echte" menschliche Intelligenz zu simulieren bräuchte man einen künstlichen Nachbau des Gehirns. Darunter wird es wohl kaum gehen. Alles andere kann zwar gute Ergebnisse bringen, wird aber eben nicht menschlich sein, sondern was anderes.
:
Bearbeitet durch User
Cyblord -. schrieb: > Es ging ja auch um ML und nicht um KI. Und das ML nichts neues > hervorbringen könnte und sowieso schon längst kalter Kaffee wäre. Und > AlphaGo zeigt das genau das nicht stimmt. Hm, was an neuen Techniken Verwendet GoogleGo? Neuronale Netze und Monte Carlo sind kalter Kaffee, das wird aller 10 Jahre mal gehypt. Hab in den Neunziger den Hype erlebt insbesonders "NeuroFuzzy" und Synapse 1 von Siemens. Lorentz Attraktor etc wurde zu der Zeit auch von Systemtheoretikern gehypt, "Chaostheorie". Irgendwas substantiell neues find ich da nix aus den letzten 20 Jahren. Nur das man sich dank lichtschneller Rechentechnik nicht mehr ums clevere Optimieren schert und die Algos mit dem Dampfhammer zerschlägt.
Ordner schrieb: > Cyblord -. schrieb: >> Es ging ja auch um ML und nicht um KI. Und das ML nichts neues >> hervorbringen könnte und sowieso schon längst kalter Kaffee wäre. Und >> AlphaGo zeigt das genau das nicht stimmt. > > Hm, was an neuen Techniken Verwendet GoogleGo? So ziemlich alles. Das etwas auf bekannten Techniken basiert sollte nicht überraschen. Allerdings überraschen mich solche Nulpenargumente dann schon ein wenig.
Cyblord -. schrieb: >> Hm, was an neuen Techniken Verwendet GoogleGo? > > So ziemlich alles. "Ziemlich alles" ist ziemlich nichtssagend, ich erwarte eine konkrete Auflisting was an dem Go-Solver an Erkenntnissen eingesetzt wird, was nicht schon seit Jahrzehnten bekannt ist.
Ordner schrieb: > Cyblord -. schrieb: >>> Hm, was an neuen Techniken Verwendet GoogleGo? >> >> So ziemlich alles. > > "Ziemlich alles" ist ziemlich nichtssagend, ich erwarte eine konkrete > Auflisting was an dem Go-Solver an Erkenntnissen eingesetzt wird, was > nicht schon seit Jahrzehnten bekannt ist. Wünschen darf man sich alles...
Cyblord -. schrieb: > Wünschen darf man sich alles... Dann lass mal hören, was google revolutionär Neues an Alphago entwickelt hat. Das Ding profitiert doch vor allem von der riesigen Hardware dahinter, hier und da haben sie en passant in der Entwicklung noch ein einige Dinge verbessert aber bahnbrechend an den Verfahren und Algos absolut nix. Google hat halt genug Geld in die Hand genommen (wie so oft) für diese Techdemo, mehr ist das nicht. Praktisch anwendbar derzeit nur wenn relativ grosser Hardwareeinsatz dahintersteht. Das wusste man schon vorher, google hat eben volle Kassen für sowas und wittert hier halt nen Markt den sie das als Serverdient anbieten können, nur darum gehts google. Also Standalonesoftware wie z.B. Schachprogramme die auf hundsgewöhnlicher 0815-Hardware laufen taugt es immer noch nicht also alles beim Alten. Reiner Hype. Mit genug Geld in der Hand kommt auch mal ein neues Produkt bei raus aber wo da jetzt die Revolution sein soll, jeder KIler lacht da nur müde drüber.
Bleiben wir hier aber mal bei der Richtigkeit: Google hat nicht AlphaGo entwickelt, sondern ein Startup namens DeepMind aus London. Google hat es nur gekauft.
Pfälzer Saumagen schrieb: > Praktisch anwendbar derzeit > nur wenn relativ grosser Hardwareeinsatz dahintersteht Ja das ist schon traurig; Von der KI-Forschung erwartet man clevere Lösung mit Intelligenz aber was man bekommt ist dann doch stupides Number Crunching auf massierter COTS-Hardware.
Pfälzer Saumagen schrieb: > Schachprogramme die auf > hundsgewöhnlicher 0815-Hardware laufen taugt es immer noch nicht also > alles beim Alten. Reiner Hype. Hype hin oder her. Die notwendige Technik wird immer schneller, ALLE großen Chiphersteller sind mitlerweile massiv daran beteiligt, Neuronale Netze auf Hardwareebene abzubilden (nicht irgendwelche FPGA) - wie AMD, Intel, Infineon u.v.m. Auch wenn die Basis ein uralter Hut ist, so ist es dessen moderne Umsetzung mitnichten. Das wäre genauso als würde man die komplette Handy- und Computerbranche schlechtreden, weil die Entwicklung von Konrad Zuse ja schon unzählige Jahrzehnte alt ist, und alles nur "hype" ist. Nur die Hardware ist seitdem schneller geworden. Vom Prinzip dahinter gab es bis heute nicht eine einzige Innovation!
Martin S. schrieb: > Das wäre genauso als würde man die komplette Handy- und Computerbranche > schlechtreden, weil die Entwicklung von Konrad Zuse ja schon unzählige > Jahrzehnte alt ist, und alles nur "hype" ist. Nur die Hardware ist > seitdem schneller geworden. Vom Prinzip dahinter gab es bis heute nicht > eine einzige Innovation! Leute sind eben mies drauf und müssen alles schlechtreden. Kein Wunder, immerhin entlässt ja VW massig Leute. Vllt. ist ja der ein oder andere hier dabei... Schlechte Zeiten für Maschbauer.
Martin S. schrieb: > Neuronale Netze auf Hardwareebene abzubilden Das habe ich mir auch schon einige Male überlegt und es wäre vermutlich auch einmal ein echter use-case um neue "Rechner" Architekturen hervorzubringen. Von-Neumann und Harvard sind altbekannt, mehrere Kerne war nur eine Evolution der Leistung, aber nichts bahnbrechendes im grösseren Kontext. Wie würde solch eine Hardware für Neuronale Netze aussehen?
Martin S. schrieb: > Die notwendige Technik wird immer schneller, ALLE großen Chiphersteller > sind mitlerweile massiv daran beteiligt, Neuronale Netze auf > Hardwareebene abzubilden (nicht irgendwelche FPGA) - wie AMD, Intel, > Infineon u.v.m. Mittlerweile ist gut, seit über 30 Jahren aber rausgekommen ist ausser Spielprogramm nichts. 1994 der mit grossen TamTam angekündigte Neurocomputer: http://www.computerwoche.de/a/neurocomputer-synapse-1-wird-auf-cebit-vorgestellt-sni-will-mainframes-oeffnen-und-mit-cluster-konzept-flottmachen,1119692 Und schon ein Mäusegehirn beweist, das es nicht Millarden im Gigahertz Bereich schaltende miteinander verwobenen Schaltelemente braucht um Intelligenz entstehen zu lassen.
Keine Daten schrieb: > Ich habe immer das Gefühl: Das schwierigste an ML ist, Daten zu finden, > womit man ML testen kann. Kaggle.com Pfälzer Saumagen schrieb: > klausi schrieb: >> Was sind eure Erfahrungen/Erlebnisse ? ?? > Uralter Kram wird als neuer Hype verkauft. > > Weiter unten: > Roboter lernt laufen. Ui toll, das habe ich schon vor 15 Jahren oder > noch länger her gesehen. > Neuronale Netze für xy. Wird trainiert und macht was es soll, mehr oder > weniger schlecht manchmal auch richtig gut: Boah wahnsinn, total neu > das. Kleine Ergänzung noch: Selbst das so gehypte Deep Learning ist uralt. Ende der 1960er/Anfang 1970er UdSSR, besser gesagt, Ukraine: Ivakhnenko und Lapa Wer's nachlesen will: http://people.idsia.ch/~juergen/deep-learning-conspiracy.html Coursera bietet mittlerweile eine Reihe von Spezialisierungen an (die Kurse lassen sich aber auch einzeln belegen): Data Science https://www.coursera.org/specializations/jhu-data-science Machine Learning https://www.coursera.org/specializations/machine-learning Big Data https://www.coursera.org/specializations/big-data Probabilistic Graphical Models https://www.coursera.org/specializations/probabilistic-graphical-models Letzteres dürfte wohl endlich die Neuauflage des PGM-Kurses sein, den es vor ein paar Jahren schon einmal gab.
:
Bearbeitet durch User
Ordner schrieb: > zu der Zeit auch von Systemtheoretikern gehypt, "Chaostheorie". Hab ich auch gerade in einer Vorlesung "Systemdynamik". Lyapunov, Feigenbaumkonstante.. ziemlich interessant! noch zu ML: Ich denke die Haupttreiber aktuell zu ML sind einfach: -grosse verfügbare Datenmengen durch Vernetzung, von vielen mobilen Endgeräten, vor allem günstiger Hardware (HDD etc), Cloudlösungen -sehr schnelle GPU Chips mit hoher Leistungsfähigkeit (Aussage Professor: sie verwenden Nvidia GPUs im Cluster aus dem Gamingbereich für ML, da diese hohe Leistung zu einem mom. moderaten Preis bringen)
1 kleiner Link zum Thema: http://www.heise.de/newsticker/meldung/Erste-Skylake-Xeons-und-Spezial-FPGA-fuer-Kuenstliche-Intelligenz-3491233.html (man beachte die angegebenen Wachstumsraten am Ende)
Arc N. schrieb: > Kleine Ergänzung noch: Selbst das so gehypte Deep Learning ist uralt. Das mag sein. Aber erst heute gibt es genug Rechenleistung, um das in der Praxis einsetzen zu können.
Niine schrieb: > Andreas R. schrieb: >> Hat schonmal jemand was in Richtung Börsenhandel gemacht? > Das, ist interessant :-) > > Das Problem bei neuronalen Netzwerken ist doch, dass sie trotzdem Fehler > machen. Auch wenn es immer weniger werden, aber irgendwann schleicht > sich doch ein Fehler ein. Gerade bei autonomen Fahren kann sowas schnell > tödlich enden. Es reicht wenn es weniger "Fehler" als der Rest sind.
Sheeva P. schrieb: > Arc N. schrieb: >> Kleine Ergänzung noch: Selbst das so gehypte Deep Learning ist uralt. > > Das mag sein. Aber erst heute gibt es genug Rechenleistung, um das in > der Praxis einsetzen zu können. Nein, die Rechenleistung für pattern recognition gibt es schon länger, Mustererkennung macht heute eine Smart camera ohne angeschlossenen googlecluster schon seit Jahrzehtnen, Handschriftenerkennung konnte schon der Apple Newton und briefe maschinell nach Postleitzahl sortieren ist wohl ein Kind der Achtziger. Aber wer erinnert sich noch an die besonderen PLZ-Felder die es mit dünnen Hilfslinien schafften das Erkennungsproblem für die damalige Technik beherschbar zu gestalten: https://upload.wikimedia.org/wikipedia/commons/thumb/6/63/Stamp_Soviet_Union_1977_CPA_4775.jpg/220px-Stamp_Soviet_Union_1977_CPA_4775.jpg
Berufsrevolutionär schrieb: > Nein, die Rechenleistung für pattern recognition gibt es schon länger, > Mustererkennung macht heute eine Smart camera ohne angeschlossenen > googlecluster schon seit Jahrzehtnen, Handschriftenerkennung konnte > schon der Apple Newton und briefe maschinell nach Postleitzahl sortieren > ist wohl ein Kind der Achtziger. Aber wer erinnert sich noch an die > besonderen PLZ-Felder die es mit dünnen Hilfslinien schafften das > Erkennungsproblem für die damalige Technik beherschbar zu gestalten: > https://upload.wikimedia.org/wikipedia/commons/thumb/6/63/Stamp_Soviet_Union_1977_CPA_4775.jpg/220px-Stamp_Soviet_Union_1977_CPA_4775.jpg Keines deiner Beispiele hat irgendwas mit Deep Learning zu tun. Das schafft man alles mit 1-2 hidden layer und ein paar hundert Neuronen. Deep Learning ist mal um mindestens Faktor 1000 aufwändiger. Ein deep learning Netz zur Bildklassifizierung hat hunderttausende Neuronen, Millionen von Parametern (Gewichten) und hunderte Millionen an Verbindungen.
8ttq3jhfop3i schrieb: > Berufsrevolutionär schrieb: >> Nein, die Rechenleistung für pattern recognition gibt es schon länger, >> Mustererkennung macht heute eine Smart camera ohne angeschlossenen >> googlecluster schon seit Jahrzehtnen, Handschriftenerkennung konnte >> schon der Apple Newton und briefe maschinell nach Postleitzahl sortieren >> ist wohl ein Kind der Achtziger. Aber wer erinnert sich noch an die >> besonderen PLZ-Felder die es mit dünnen Hilfslinien schafften das >> Erkennungsproblem für die damalige Technik beherschbar zu gestalten: >> > https://upload.wikimedia.org/wikipedia/commons/thumb/6/63/Stamp_Soviet_Union_1977_CPA_4775.jpg/220px-Stamp_Soviet_Union_1977_CPA_4775.jpg > > Keines deiner Beispiele hat irgendwas mit Deep Learning zu tun. Das > schafft man alles mit 1-2 hidden layer und ein paar hundert Neuronen. > > Deep Learning ist mal um mindestens Faktor 1000 aufwändiger. Ein deep > learning Netz zur Bildklassifizierung hat hunderttausende Neuronen, > Millionen von Parametern (Gewichten) und hunderte Millionen an > Verbindungen. Nichts was ein Spatzenhirn nicht leisten vermag. Und Bildklassifizierung wie ein Spatzenhirn macht heutzutage jede smart kamera. Da braucht es keinengoogle-cluster wie google das gerne glauben machen will. KI ist ein gutes Beispiel wie Ansätze für eine optimierte Hardwarearchitektur beispielsweise auf basis FPGA, Analogrechner, systolische arrays etc. hardnäckig ignoriert wird und eine Lösung erst dann für verkaufsfähig gehalten wird wenn sie auf COTS-Hardware läuft.
Berufsrevolutionär schrieb: > Sheeva P. schrieb: >> Arc N. schrieb: >>> Kleine Ergänzung noch: Selbst das so gehypte Deep Learning ist uralt. >> >> Das mag sein. Aber erst heute gibt es genug Rechenleistung, um das in >> der Praxis einsetzen zu können. > > Nein, die Rechenleistung für pattern recognition gibt es schon länger, > Mustererkennung macht heute eine Smart camera ohne angeschlossenen > googlecluster schon seit Jahrzehtnen, Handschriftenerkennung konnte > schon der Apple Newton und briefe maschinell nach Postleitzahl sortieren > ist wohl ein Kind der Achtziger. Aber wer erinnert sich noch an die > besonderen PLZ-Felder die es mit dünnen Hilfslinien schafften das > Erkennungsproblem für die damalige Technik beherschbar zu gestalten: > https://upload.wikimedia.org/wikipedia/commons/thumb/6/63/Stamp_Soviet_Union_1977_CPA_4775.jpg/220px-Stamp_Soviet_Union_1977_CPA_4775.jpg Hahaha... Pattern Matching von Vision Systemen macht alles - nur nicht funktionieren.
Wen interessiert es schon ob die ML Forschung die heute eingesetzt wird 2 oder 20 Jahre alt ist?! Die meisten von euch werden doch wohl Ing. sein und müssen die geeignesten Tools für ihre tägliche Arbeit wählen... Vielleicht könnte man auf dem Niveau weiter diskutieren?! Dann wird es vielleicht doch noch interessant. Was mich persöhnlich wundert ist, das Deep Mind Patente für ML Alg. die relative trival sind angemeldet bekommen hat. Es geht hier Teilweise um drei Zeilen Code, die man auch mal eben beim "Spielen" herausfinden könnte. Aber okay, irgendwo muss ja der Marktwert dieser Firma herkommen. VG Basti
Komme aus einem anderen Bereich aber mich würde interessieren, wie man die Dinge praktisch umsetzt? ZB kann ich ja auch eine regressionanalyse mit Neuronalen Netzen durchführen - nur wie? Welche Tools?
Wissenschaftler schrieb: > Komme aus einem anderen Bereich aber mich würde interessieren, wie man > die Dinge praktisch umsetzt? ZB kann ich ja auch eine regressionanalyse > mit > Neuronalen Netzen durchführen - nur wie? Welche Tools? Och da hilft dir die ältesete aller usenet Antworten weiter, die da lautet: RTFM! Ne Übersicht über Tools findet sich bspw dort: http://www.neuronalesnetz.de/links4.html Das das Thema seit Jahrzehnten auf der Stelle tritt, ist an der Vielzahl von Progs zu erkennen die sich im Kern nicht voneinanderunterscheiden. Vor zwanzig Jahren war der Stuttgarte neuronale Netze Simulator - SNN quasi der akademische Standard. Einige Netze konnte/durfte er nicht weil die über Patente geschütz sind/waren. Die Patentierung hatte aber auch nicht zum Durchbruch verhelfen können. Die Kunst liegt aber nicht im Algorithmus sondern im Vermögen eine technische Anwendungg zu finden, deren Steuerung gut mit einem Neuronalen Netz realisierbar ist. Das ist im wesentlichen Bild/Mustererkennung/Sichtprüfung. Deshalb hat sich in diesem Bereich viel getan. Beispiel für Industrieanwendung ist NeuroCheck: http://www.neurocheck.de/template.php?MNID=2&SID=5&lid=0 In anderen Bereich haben Neuronale Netze die Erwartungen kaum erfüllt. Vielleicht ist es ein Fehler anzunehmen, das alles das natürliche Vorbild der Neuro netze vollbringen kann auch desen Computertechnische Nachahmung vermag. Die Behauptungdas sich ALLES mit NN lösen kann, wenn man die Hardware nur groß genug skaliert ist aber ein Kind der Marketingabteilung der IT-Industrie - Kauft mehr Neuronale Netze! Der Erfolg einer Entwicklung im Bereich Machine Learning liegt aber im Gesamtpaket, mit guten Studiums-KnowHow allein ist da nicht viel zu machen. So auch bei der Bilderkennung, da gehört die richtige Beleuchtung, Aufbereitung etc. dazu. Also alles was im Gesamtpaket "Menschliches Sehen" quasi eingebaut ist. Mit Retina-nachbildung und BackProp Lernalgo allein bewegt man sich auf dem Niveau von Schneckenhirnen wie "Aplysia californica".
Berufsrevolutionär schrieb: > Bildklassifizierung wie ein Spatzenhirn macht heutzutage jede smart > kamera. Da braucht es keinengoogle-cluster wie google das gerne glauben > machen will. Die Lern-Algorithmen zur Bildklassifikation laufen auf acht geclusterten NVidia Tesla K40 und errechnen mit Optimierungen in etwa zwei Wochen einen Classifier. Der wird dann auf dem Smartphone nur noch angewendet, auf dem Smartphone lernt da allerdings gar nichts mehr. Am Rande bemerkt: auch Smartphones haben heute enorme Rechenleistungen, beim iPhone 7 etwa ein 2,34 GHz Quadcore mit 2 bis 3 GB RAM, beim Galaxy S7 ein Exynos 8890-Octocore mit bis zu 2,6 GHz und 4 GB RAM. https://research.googleblog.com/2016/03/train-your-own-image-classifier-with.html
Wissenschaftler schrieb: > Komme aus einem anderen Bereich aber mich würde interessieren, wie man > die Dinge praktisch umsetzt? ZB kann ich ja auch eine regressionanalyse > mit Neuronalen Netzen durchführen - nur wie? Welche Tools? Bei O'Reilly gibt es "Introduction to Machine Learning with Python" und bei Manning "Machine Leaning in Action". Nach dem, was ich darüber gehört habe, sollten diese gut geeignet für Einsteiger sein, die eine eher praktische Herangehensweise suchen.
Berufsrevolutionär schrieb: > Ne Übersicht über Tools findet sich bspw dort: > http://www.neuronalesnetz.de/links4.html > > Das das Thema seit Jahrzehnten auf der Stelle tritt, ist an der Vielzahl > von Progs zu erkennen die sich im Kern nicht voneinanderunterscheiden. > Vor zwanzig Jahren war der Stuttgarte neuronale Netze Simulator - SNN > quasi der akademische Standard. Das hat alles aber rein gar nichts mit deep learning oder dem aktuellen Stand der Forschung zu tun. Akademischer Standard heute sind Feed-Forward-Netze in der Grössenordnung 10x2000 hidden layer, LSTMs, convolutive DNNs. Mit den dort oben verlinkten Tools wird auch keiner mehr arbeiten, heute verbreitete Tools sind Theano, Torch, TensorFlow - alles Open Source, mit ein bisschen Know How, Zeit und einer billigen GPU kann man damit viele aktuelle Forschungsergebnisse reproduzieren.
ML schrieb: > Das hat alles aber rein gar nichts mit deep learning oder dem aktuellen > Stand der Forschung zu tun. Akademischer Standard heute sind > Feed-Forward-Netze in der Grössenordnung 10x2000 hidden layer, LSTMs, > convolutive DNNs. Mit den dort oben verlinkten Tools wird auch keiner > mehr arbeiten, heute verbreitete Tools sind Theano, Torch, TensorFlow - > alles Open Source, mit ein bisschen Know How, Zeit und einer billigen > GPU kann man damit viele aktuelle Forschungsergebnisse reproduzieren. Richtig. Zudem sind NN zwar vielleicht das Interessanteste und in der Öffentlicheit Bekannteste, aber dennoch nicht das Einzige, was Machine Learning zu bieten hat.
ML schrieb: > Berufsrevolutionär schrieb: >> Das das Thema seit Jahrzehnten auf der Stelle tritt, ist an der Vielzahl >> von Progs zu erkennen die sich im Kern nicht voneinanderunterscheiden. >> Vor zwanzig Jahren war der Stuttgarte neuronale Netze Simulator - SNN >> quasi der akademische Standard. > > Das hat alles aber rein gar nichts mit deep learning oder dem aktuellen > Stand der Forschung zu tun. Akademischer Standard heute sind > Feed-Forward-Netze in der Grössenordnung 10x2000 hidden layer, LSTMs, > convolutive DNNs. OK, das ist der Punkt an dem wir uns nicht einig werden. Du sagst deep learning sei was ganz anderes als das was vor 20 Jahren Stand der Technik war, Ich sage das deep learning nur ein buzzword für neuronale Netze ist, so wie es in der engl. Wikipedia beschrieben wird: "Deep learning has been characterized as a buzzword, or a rebranding of neural networks" Punkt.
Deep ANNs sind nur "große KNNs" und groß darfs sich gern jeder selbst festlegen... Ja, dass finde ich auch sehr spannend am ML... mit ein paar Tools kann man die Algos der "Profis" ausführen... nur die Rechenpower fürs trainieren könnte schnell teuer werden... Kommt natürlich drauf ab, was man machen möchte... Ein sehr spannendes und aktuelles Beispiel: https://deepmind.com/blog/wavenet-generative-model-raw-audio/ Dann könnte es bald Siris und Navis mit verschiedensten Emutionen in der Stimme geben... Fahren Sie rechts. Sie sollten jetzt besser rechts fahren. FAHR rechts! Herrlich ?
Dazu noch ein aktueller Artikel: http://www.faz.net/aktuell/wirtschaft/netzwirtschaft/kuenstliche-intelligenz-googles-maschine-lernt-ihre-eigene-sprache-14554153.html
klausi schrieb: > Was sind eure Erfahrungen/Erlebnisse ? ?? Bevor irgendwelche Entscheidungen getroffen werden, sollten erstmal die Erwartungshaltungen in die richtigen Bahnen gelenkt werden. Früher wurde einem in der Lehre beigebracht wie man arbeitet. Während der Arbeit hatte man dann Gelegenheit Erfahrungen zu sammeln. Ohne Erfahrung sind alle Werkzueuge, vom Faustkeil bis zu den modernen Technologien nicht beherrschbar. Anders gesagt, das Ding muß nicht mit dir klarkommen, sondern du mußt mit dem Ding klarkommen. Da sind solche Sachen wie zum Beispiel "Intuitive" oder "Intelligente" Benutzeroberflächen natürlich kontraproduktiv. Wenn die Benutzeroberfläche mit dir klarkommt befindest du dich eindeutig auf dem Holzweg. Sehr schön zu beobachten an der Benutzeroberfläche für Geldspielautomaten. Und bevor Machine Learning überhaupt erst mal in die Nähe von Erfahrung kommt, muß noch sehr viel Zeit vergehen. Ich spreche hier nicht von Jahren und auch nicht von Jahzehnten. Das erscheint einem vielleicht doch ein wenig übertrieben, aber Evolutionsgeschichtlich betrachtet ist das NICHTS.
nfet schrieb: > Was ich aus meinem Studium daraus gelernt hab war: man braucht > viele > Daten zum anlernen und wenn es dann gelernt hat wundern sich alle warum > das richtige raus kommt. Das nennt sich überwachtes lernen. Es gibt allerdings auch unbewachtes lernen.
Hier ein interessanter Bericht von McKinsey: https://www.techinasia.com/mckinsey-finds-data-analytics-sham In den USA(die etwa 5 Jahre vor uns sind in diesem Bereich) schaffen es immer noch nicht viele Firmen, Machine Learning oder advanced Statistics anzuwenden. In Deutschland siehts noch düsterer aus. Das Problem in Deutschland liegt auch an den Universitäten. Es wird für diesen Bereich viel zu wenig Statistik ausgebildet, die nun mal sehr wichtig ist in ML. Machine Learning gilt auch als "Brücke" zwischen Statistik und Informatik. Es gibt nur zwei Universitäten in Deutschland mit einer Statistikfakultät. Ich kenne eine deutsche Firma, die viel mit Daten arbeitet und diese auch sammelt. Wie sieht das Analytics-Team aus? Die besteht nur aus Wirtschaftsinformatikern, die vllt. 6 ECTS Statistik hatten. Natürlich findet dort ML keine Verwendung um Wissen zu generien. Das ist die Realtität in Deutschland. ML ist leider nur ein Hobbyprojekt in Deutschland.
Indeed schrieb: > Es gibt nur zwei Universitäten in Deutschland mit einer Statistikfakultät. Braucht man dafür eine eigene Fakultät? Lehrstühle für Statistik wird es doch wohl nicht so ganz wenige geben.
Mark B. schrieb: > Indeed schrieb: >> Es gibt nur zwei Universitäten in Deutschland mit einer Statistikfakultät. > > Braucht man dafür eine eigene Fakultät? Lehrstühle für Statistik wird es > doch wohl nicht so ganz wenige geben. Bekannte Universitäten die in ML forschen haben alle Stat. Departmens, wie z.B. Stanford(die bekannteste).
Schach ist keine so interessante Herausforderung mehr weil die Maschinen den Menschen schon lange geschlagen haben.
Mark B. schrieb: > aber viele davon stellten sich als genial heraus. Ist es denn nicht so, daß auch in Partien gegen Schachcomputer Passagen vorkommen die einem menschlichen Beobachter als genial erscheinen würden wenn er nicht wüßtest wie sie Zustandekommen sind?
Indeed schrieb: > ML ist leider nur ein Hobbyprojekt in Deutschland. Quatsch, in keinem anderen Land gibt es soviele Firmen die mit Mustererkennung ihre Brötchen verdienen, bspw. Sick AG, neurocheck. Ebenso autonomes Fahren, da sind die Konzerne schon seit Jahrzehnten dick drin. Berateaer-Firmen wie McKinsey sind eben gut darin ihren Klienten Beratungsbedarf einzureden indem sie für altbewährte Techniken buzzwords erfinden oder von vermeintlichen Marketing-Wunder-praktiken fabulieren die letztlich auch nicht halten was versprochen.
J. C. schrieb: > wüßtest Jetzt kann der Leser schon nicht mehr Tippfehler von Fehlinterpretationen unterscheiden. Was soll das erst werden wenn da noch die Logik ins Spiel kommt. Da kann man ja den Wald vor lauter Bäumen nicht erkennen. Und mit der Logik sind wir noch Welten von der Intention entfernt.
J. C. schrieb: > Cyblord -. schrieb: >> GO > > ... Schach? Wieso kein Schach? Ist Schach zu komplex? Schach ist recht komplex für einen Menschen und recht einfach für einen Computer. Durch die verschiedenen Figuren und ihre verschiedenen eingeschränkten Zugmöglichkeiten ergibt sich ein recht überschaubarer Zugbaum pro Stellung, welcher per Brute-Force komplett abgesucht werden kann. Zusammen mit großen Eröffnungs- und Schlußbibliotheken sind deshalb High-End Schachprogramme heute durch menschliche Spieler nicht mehr zu schlagen. Bei GO gibt es viel zu viele Zugmöglichkeiten pro Stellung, der Zugbaum ist viel zu groß um komplett abgesucht werden zu können. Darum musste man sich hier etwas anderes einfallen lassen und das hat Google mit AlphaGo auch getan.
Cyblord -. schrieb: > Schach ist recht komplex für einen Menschen und recht einfach für einen > Computer. Durch die verschiedenen Figuren und ihre verschiedenen > eingeschränkten Zugmöglichkeiten ergibt sich ein recht überschaubarer > Zugbaum pro Stellung, welcher per Brute-Force komplett abgesucht werden > kann. Zusammen mit großen Eröffnungs- und Schlußbibliotheken sind > deshalb High-End Schachprogramme heute durch menschliche Spieler nicht > mehr zu schlagen. > > Bei GO gibt es viel zu viele Zugmöglichkeiten pro Stellung, der Zugbaum > ist viel zu groß um komplett abgesucht werden zu können. Ja, heute noch. Aber das gleiche galt ja früher auch mal für Schach. Mit einem Prozessor aus den Siebzigern und ein paar Kilobyte RAM konnte man einen damaligen Großmeister auch nicht schlagen. ;-)
Mark B. schrieb: > Ja, heute noch. Aber hast du mal überschlagen wie lange es dauern wird (z.B. mit Moores Law)? Da sind schon ein paar Größenordnungen dazwischen. Und da man nun weiß, wie man auch anders und eleganter ans Ziel kommt, warum überhaupt noch auf Brute-Force bauen?
Cyblord -. schrieb: > Da sind schon ein paar Größenordnungen dazwischen. Und da man nun weiß, > wie man auch anders und eleganter ans Ziel kommt, warum überhaupt noch > auf Brute-Force bauen? Schon recht. Wirklich beeindruckt bin ich aber erst dann, wenn Computer vernünftige Übersetzungen von einer menschlichen Sprache in eine andere liefern. Und nicht den Käse, den man heute als tolle automatische Übersetzung verkauft und der doch oft ziemlich grottig ist. Bis das Ziel erreicht ist, dürfte noch verdammt viel zu tun sein.
:
Bearbeitet durch User
Cyblord -. schrieb: > Zusammen mit großen Eröffnungs- und Schlußbibliotheken sind deshalb > High-End Schachprogramme heute durch menschliche Spieler nicht mehr zu > schlagen. Und wie sieht es damit aus? http://computerschach.de/wordpress/Wörterverzeichnis/computerschach-weltmeisterschaft/
ottonormaloser schrieb: > Und wie sieht es damit aus? > http://computerschach.de/wordpress/Wörterverzeichnis/computerschach-weltmeisterschaft/ Da spielen Schachcomputer gegeneinander. Was genau ist dir daran denn unklar?
Um die Sache abzukürzen erzähl ich einfach mal weiter: Man könnte ja einen Schachcomputer als Standard definieren und mit verschiedenen schwierigkeitsstufen das neuronale Netz durchklingeln. So hätte man immer einen Satz definierter Ausgangsstellungen. Cyblord -. schrieb: > Zusammen mit großen Eröffnungs- und Schlußbibliotheken sind deshalb > High-End Schachprogramme heute durch menschliche Spieler nicht mehr zu > schlagen. Ja und? Daß Computer besser rechnen können wei§ doch jeder.
Berufsrevolutionär schrieb: > Indeed schrieb: > >> ML ist leider nur ein Hobbyprojekt in Deutschland. > > Quatsch, in keinem anderen Land gibt es soviele Firmen die mit > Mustererkennung ihre Brötchen verdienen, bspw. Sick AG, neurocheck. > Ebenso autonomes Fahren, da sind die Konzerne schon seit Jahrzehnten > dick drin. > > Berateaer-Firmen wie McKinsey sind eben gut darin ihren Klienten > Beratungsbedarf einzureden indem sie für altbewährte Techniken buzzwords > erfinden oder von vermeintlichen Marketing-Wunder-praktiken fabulieren > die letztlich auch nicht halten was versprochen. LOl erfind keinen Blödsinn. Nennst hier 2 unbekannte Firmen die keine Sau kennt und auch noch autonomes Fahren, wo Tesla und co. den deutschen Jahre voraus ist. Nein, Deutschland hat mit ML nix am Hut. Es gibt so gut wie keine Data Science Stellenanzeigen verglichen mit Amibörsen. Aber mehr ist auch nicht zu erwarten in einem Land, wo Internet Neuland ist. Schaut man sich mal nur den Bereich CRM an. Viele Unternehmen sind noch in der Steinzeit, was das betrifft. Nein, hier läuft, außer ein ausufernder Sozialstaat, garnichts mehr.
Indeed schrieb: > Berufsrevolutionär schrieb: > LOl erfind keinen Blödsinn. Nennst hier 2 unbekannte Firmen die keine > Sau kennt und auch noch autonomes Fahren, wo Tesla und co. den deutschen > Jahre voraus ist. Nein, Deutschland hat mit ML nix am Hut. Sick AG ist ne völlig unbekannte Firma, - Klar für den der nicht die geringste Ahnung von Thema hat. Schlag mal nach was die DARPA Urban Challenge und welche deutsche Teams am Start waren. Hier als video für schlichte Gemüter aufbereitet: https://www.youtube.com/watch?v=TQlGPVTUPdI Vielleicht hast ja vor Zehn Jahren noch in die Windeln gemacht, das würde ich als Entschuldigung für Dummtrollerei akzeptieren.
> LOl erfind keinen Blödsinn. Nennst hier 2 unbekannte Firmen die keine > Sau kennt und auch noch autonomes Fahren, wo Tesla und co. den deutschen > Jahre voraus ist. Tesla ist den deutschen beim Thema autonomes Fahreb in genau einem Punkt voraus und das ist das Marketing, weil Tesla einfach dreist seine Assistenzsysteme "Autopilot" nennt, die selben Assistenzsysteme hatten aber deutsche Autohersteller schon früher in der Oberklasse.
Berufsrevolutionär schrieb: > Indeed schrieb: >> Berufsrevolutionär schrieb: > >> LOl erfind keinen Blödsinn. Nennst hier 2 unbekannte Firmen die keine >> Sau kennt und auch noch autonomes Fahren, wo Tesla und co. den deutschen >> Jahre voraus ist. Nein, Deutschland hat mit ML nix am Hut. > > Sick AG ist ne völlig unbekannte Firma, - Klar für den der nicht die > geringste Ahnung von Thema hat. > > Schlag mal nach was die DARPA Urban Challenge und welche deutsche Teams > am Start waren. > > Hier als video für schlichte Gemüter aufbereitet: > Youtube-Video "Fahrerlose Autos VW Touareg Stanley gewinnt Wüstenrennen" > > Vielleicht hast ja vor Zehn Jahren noch in die Windeln gemacht, das > würde ich als Entschuldigung für Dummtrollerei akzeptieren. Maschine Learning hat nicht nur was mit Sensoren zu tun, deswegen habe ich von denen noch nie was gehört. Man hört meist nur was von IBM und co. in diesem Bereich. Zumal die Zentrale von Sick in einem Kaff liegt und die Gehälter mies sind(Glassdoor). Komm zurück wenn hier ein IBM Watson entwickelt wurde. Niemand interessiert sich für Wüstenrennen. Deutsche testen auf leeren Autobahnen während Tesla in Städten testet. Ein großer Unterschied. BMW's "Zentrum für Autonomes Fahren" kommt 10 Jahre zu spät. Eher trollst du hier mit deinen lächerlichen Aussagen, alles wäre ein alter Hut. Wahrscheinlich stammst du noch aus Zeiten, in denen Perceptrons verwendet wurden.
Indeed schrieb: > Wahrscheinlich stammst du noch aus Zeiten, in denen Perceptrons > verwendet wurden. Ohne gewichtete Stimuli ist es kein neuronales Netz.
Cyblord -. schrieb: > Schach ist recht komplex für einen Menschen und recht einfach für einen > Computer. Durch die verschiedenen Figuren und ihre verschiedenen > eingeschränkten Zugmöglichkeiten ergibt sich ein recht überschaubarer > Zugbaum pro Stellung, welcher per Brute-Force komplett abgesucht werden > kann. Zusammen mit großen Eröffnungs- und Schlußbibliotheken sind > deshalb High-End Schachprogramme heute durch menschliche Spieler nicht > mehr zu schlagen. Erklär bitte mal, wozu die Bibliotheken nötig sind, wenn doch angeblich der Zugbaum komplett abgesucht werden kann.
Der mit dem variabel gewichteten Stimuli. Bei dem Bart kann das doch nur ein Männchen sein. (ich wußte daß das lustig wird)
Indeed schrieb: > Berufsrevolutionär schrieb: >> Indeed schrieb: >>> Berufsrevolutionär schrieb: >> >>> LOl erfind keinen Blödsinn. Nennst hier 2 unbekannte Firmen die keine >>> Sau kennt und auch noch autonomes Fahren, wo Tesla und co. den deutschen >>> Jahre voraus ist. Nein, Deutschland hat mit ML nix am Hut. >> >> Sick AG ist ne völlig unbekannte Firma, - Klar für den der nicht die >> geringste Ahnung von Thema hat. >> >> Schlag mal nach was die DARPA Urban Challenge und welche deutsche Teams >> am Start waren. >> >> Hier als video für schlichte Gemüter aufbereitet: >> Youtube-Video "Fahrerlose Autos VW Touareg Stanley gewinnt Wüstenrennen" >> >> Vielleicht hast ja vor Zehn Jahren noch in die Windeln gemacht, das >> würde ich als Entschuldigung für Dummtrollerei akzeptieren. > > Maschine Learning hat nicht nur was mit Sensoren zu tun, deswegen habe > ich von denen noch nie was gehört. Man hört meist nur was von IBM und > co. in diesem Bereich. Ja klar man hört nur das was einem die Marketing-Abteilung in die Ohren blässt. Höre mal auf die seriösen Berichterstatter, da lernst du schnell wo überall in .de seit Jahrzehnten an machine learning geforscht wird - wenn man es auch nicht so nennt. https://www.heise.de/newsticker/meldung/Roboter-Autos-Halbfinalisten-fuer-Urban-Challenge-stehen-fest-Update-161802.html TU Braunschweig, TU Berlin, ibeo Hamburg, TU Karlsruhe, ... > Zumal die Zentrale von Sick in einem Kaff liegt > und die Gehälter mies sind(Glassdoor). War doch klar, dir geht es nur um schnell verdiente Geld und nicht um ernsthafte Forschung. Bist halt ein Troll. > Komm zurück wenn hier ein IBM Watson entwickelt wurde. > Niemand interessiert sich für Wüstenrennen. Ja klar DARPA ist ein niemand, die entwicklen ja auch nur den ganzen autonomen Kram fürs Militär. Automobil ist da wiedermal der Resteverwerter. War es auch schon in den Neunzigern in denen mein Prof mit einem seinen Worten nach Pershing-Leitrechner im Kofferraum autonom LKW's in Norddeutschland hinterfuhr. War wohl das EUREKA Prometheus Projekt, damals nannte man das noch Lane Assist und nein das war nicht auf einer leeren sondern auf einer gut gefüllten Autobahn. > Eher trollst du hier mit deinen lächerlichen Aussagen, alles wäre ein > alter Hut. Ist es ja auch, kannst du überall nachlesen "machine learning is Re-branding of Neural Networks" > Wahrscheinlich stammst du noch aus Zeiten, in denen > Perceptrons verwendet wurden. 30 Jahre Facherfahrung ist keine Schande, Hintergundwissen verhindert eben das man sich vom Marketing-buzzwords blenden lässt. Lies mal die Geschichte des Autonomen Fahrens: http://www.autonomes-fahren.de/geschichte-des-autonomen-fahrens/ Machine Learning ist nix als ein neues Wort für einen alten Hut. Da hat es schon genug alte Hasen in den Konzernen die sich nicht von einem naseweisen Grünschnabel in die Suppe spucken lassen. Viel Spass noch beim Lernen und Einlesen in das Thema,
Hör auf Zeug aus dem Jahr 2007 zu posten. Die Welt hat sich seitdem rasant verändert. In den USA kann man Forschung betreiben UND viel Geld verdienen, ein nennenswerter Unterschied. Klar, du als alter deutscher Hase, liebst es natürlich nicht geschätzt zu werden in Form von Gehalt. Aber nicht jeder will die low wages hier akzeptieren. Nicht jeder denkt typisch deutsch. Machine Learning hat mit neural networks erstmal garnichts zu tun. Du missverstehst hier etwas. Machine Learning ist hauptsächlich eine Brücke zwischen Statistik und Informatik, auch genannt computergestützte Statistik. Machine Learning boomt in Data Science, vor allem in Öl und Gas, um Verfahren effizienter zu gestalten. Neben Big Data hinken wir in diesem Bereich Jahre hinterher. Es wird wohl im Raum München nur eine handvoll Unternehmen geben, die effektiv überhaupt Big Data Systeme verwenden. Das mit re-branding meinst du wohl Deep Learning(Neural Nets). Was früher kaum möglich war, ist es jetzt dank leistungsstarken Grafikkarten möglich. Jeder, der 1300 Euro für die Geforce Titan Pascal ausgeben kann, kann mittlerweile effektiv Deep Learning mit einer GPU betreiben. Warum soll ich mich in einem Thema einlesen, worin ich längst arbeite? Meine aktuelle Arbeit besteht hauptsächlich darin, mit AR-Models Zeitreihen forezucasten und Anomalien mit SVMs zu erkennen. Nebenbei klassifiziere ich Bildmuster mit Deep Learning(mit einer Titan Pascal).
Na gut. Dann erzähl ich halt von meinem Lieblingsthema: Größenordnungsverhältnisse. Vor einiger Zeit war man der Meinung, daß man schon das Empire State Building mit Relais füllen müßte, um die Funktion des menschlichen Gehirns nachzubilden. Dann war man der Meinung, daß der genetische Code des Menschen auf eine CD paßt (leider nur das zipfile). Heute bin ich der Meinung, daß man schon das Empire State Building mit neuronalen Computern füllen müßte, um damit Schach spielen zu können. P.S.: Genaugenommen schwanke ich zwischen dem Empire State Building, Manhattan und ganz New York.
Indeed, du hast leider unrecht. Ich könnte jetzt viel schreiben machs mir aber einfach. Schau mal nach wo IBM in Zukunft Watson weiterentwickeln will und stell dir die Frage, ob die jetzt wirklich ihr Forschungszentrum in München ausschließlich mit importierten ach so advanced Amerikanern füllen werden. Zur Weiterbildung über das Silicon Valley empfehle ich dir die gleichnamige TV Serie.
Ja, ich habe mich mit dem Thema schon sehr viel ausseinandergesetzt und auch schon etwas entwickelt. Das Thema Machine Learning ist echt ingesamt sehr komplex und umfangreich. Mal eine andere Frage: Was ist dein Ziel? Was genau willst du machen? Die wichtigste Frage ist naemlich, was du so an Datenmengen erwartest. Moechtest du im Batch arbeiten oder moechtest du tatsaechlich im Near-Realtime Bereich bewegen und deine Modelle im Batch trainieren. Wenn das der Fall ist und du einen hohen Datendurchsatz benoetigst musst du dich naemlich auch noch mit Architekturen ausseinandersetzen. Wie baust du deine Machine Learning Pipeline am effizientesten auf, sodass du, nach x Sekunden, eine Vorhersage treffen kannst. Darueber hinaus kommen dann noch so Themen wie Fehlertoleranz auf dich zu. Ein schoenes Framework, sogar aus Deutschland, ist Flink. Die Jungs von der TU haben da ein echtes tolles Teil entwickelt. Alleine wie sie Daten fehlertolerant konsistent halten und dennoch nicht in micro batches verfallen ist simpel aber genial. Kann man sich auf jeden Fall mal anschauen. PS: Ich arbeite im Online-Analytics Bereich ;) Das, was viele Leute so boesen finden ^^ Fuer solche Themen ist das aber natuerlich echt genial.
Epi schrieb: > Indeed, du hast leider unrecht. Ich könnte jetzt viel schreiben > machs > mir aber einfach. Schau mal nach wo IBM in Zukunft Watson > weiterentwickeln will und stell dir die Frage, ob die jetzt wirklich ihr > Forschungszentrum in München ausschließlich mit importierten ach so > advanced Amerikanern füllen werden. > > Zur Weiterbildung über das Silicon Valley empfehle ich dir die > gleichnamige TV Serie. Im Silicon Valley möchte ich auch nicht arbeiten. Hohe Stuern, hohe Mietpriese, lange Arbeitszeiten. Überall in den USA lebt man denk ich mal besser als da. IBM investiert 200 mio von 3 Mrd in Deutschland. Also nur ein kleiner Anteil. Ich bin Statistiker und bin enttäuscht vom deutschen Arbeitsmarkt hinsichtlich Data Science. Die Leute hier arbeiten noch mit einfachsten Verfahren. Sie wissen nicht, was wirklich in ihre Daten steckt. Da sind die Amis weiter. Ich bin zur Zeit wirklich am überlegen, ob ich auswandern oder mich selbstständig machen soll. Es tut sich hier einfach nichts. Ich bekomme nicht mal Python für ML lizensiert, da es noch nie ein einer DATENFIRMA verwendet wurde. Schöne Zeiten!
Indeed schrieb: > Ich bin Statistiker und bin enttäuscht vom deutschen Arbeitsmarkt > hinsichtlich Data Science. Jupp, ich auch. Digitale Transformation und so. Grosses Buzzword-Bingo. Ohh, wir investieren in Startups. Toll, wenn es dann nicht die waeren, die einfach ueberhaupt keinen Plan haben, aber total cool sind. Und die, die dann wirklich mal Ahnung haben, wuerden niemals an die Kohle kommen. Weil sie noch nicht bei McKindsey und Rocket gearbeitet haben. Sind halt nicht die coolen Jungs. > Ich bin zur Zeit wirklich am überlegen, ob ich auswandern oder mich > selbstständig machen soll. Ohh, ich war Selbststaendig... Glaub mal, das war ziemlich mies. Keine Frage, die Bezahlung war echt gut, aber ich habe wirklich nur die Drecksarbeit gemacht. Okay, das mit dem Auswandern ist noch eine Option, aber bis du eine Aufenthaltgenehmigung in den USA bekommst... Ausserdem kloppen sich da dann doch 100.000 um einen Job. Und dann landest du nachher sowieso nur in der Adwords Technical-Help Hotline. Liess dir mal die Berichte von Top Havard- und Stanfort-Absolventen durch ;) > Es tut sich hier einfach nichts. Ich bekomme nicht mal Python für ML lizensiert, da es noch nie ein einer DATENFIRMA > verwendet wurde. Schöne Zeiten! Was heisst den Datenfirma? Wo arbeitet du? Kannst ja mal bei uns Anfragen, wir nutzen bestimmt Python ;) Scala auf jeden Fall und wir haben die Deutsche Bank etc. als Kunden. :D Wuerde das reichen? ^^
Philipp B. schrieb: > Was heisst den Datenfirma? Wo arbeitet du? Kannst ja mal bei uns > Anfragen, wir nutzen bestimmt Python ;) Scala auf jeden Fall und wir > haben die Deutsche Bank etc. als Kunden. :D Wuerde das reichen? ^^ Eigentlich ist es garnicht so schwierig, in den USA eine gut bezahlte Stelle zu kriegen. Die meisten Bewerber sind unterirdisch, auch Stanford-Absolventen. Es ist eben so, dass 90%+ aller Data Scientists in den USA scheiße abliefern. Entweder mangelt es ihnen an Progammier- und Technologiekenntnissen oder an Stat-skills. Ein Infostudium bringt einem keine Statistik bei(bei Nebenfach nur sehr wenig). Andererseits bringt dir ein Statstudium auch keine Infoskenntnisse bei. Da nun mal Data Science eine Mischung aus beidem ist, ist dieser Beruf eben nicht leicht zu meistern. Nur eine Green Card zu kriegen ist halt richtig hart. Ich bin kein Inder -> kann H1B vergessen. Scala ist sehr interessant. Bei uns verwendet niemand diese Sprache. Es wird wohl hauptsächlich SAS oder R verwendet, da kein ML verwendet wird. Ich kann diese Sprachen zwar auch, aber sie machen keinen Spaß.
Leute meldet euch da an und lernt mal. Der Kurs ist kostenlos. https://mooc.house/courses/machinelearning-2016
Das waren die Größenordnungen. Interessiert sich hier überhaupt irgendjemand für meine Größenordnungsverhältnisse? Frohe Ostern allerseits.
Mir als LTI-System sind Größenordnungsverhältnisse egal. Für mich ist alles linear und damit basta! Frohes Fest an alle :)
ottonormaloser schrieb:
> Ohne Kleinhirn kannst du direkt und ohne Umschweife sitzenbleiben.
Und das Kleinhirn muß stehen wie ein Fels in der Brandung.
Außer es geht dir an den Kragen...
...aber das läßt sich nicht adaptieren. Bei einem Roboter is eh alles anders.
Ein Roboter hat weder Redundanz noch Reserven. Ich mein, jetzt erst das Rad neu erfinden zu wollen ist doch ein wenig aus dem Timing, oder? Wozu das Rad neu erfinden wenn man fliegen kann? Ja ok, das Gepäck. Geht viiiiel effizienter mit Rad/Schiene.
Indeed schrieb: > Philipp B. schrieb: > > Scala ist sehr interessant. Bei uns verwendet niemand diese Sprache. > Es wird wohl hauptsächlich SAS oder R verwendet, da kein ML verwendet > wird. Ich habe damals mit PHP angefangen, dann viel im Frontend gemacht. Auch eine wirklich spannende Thematik. Ich kenne allerdings auch viele Entwickler die sich eher nicht mit dem Frontend beschaeftigen wollen. Und inzwischen bin ich bei Scala gelandet. Ich finde die Sprache, fuer mich, deutlich intuitiver als Java. Die Mischung aus funktionaler Sprache und objektorientierung gefaellt mir ganz gut. Man kann vieles durch die nativen Methoden abbilden. z.B. filter, map, reduce usw. Wofuer ich sonst teilweise 20 Zeilen gebraucht habe, brauche ich jetzt nur 4. Man muss aber auch aufpassen, dass man weiterhin lesbaren Code schreibt. > Ich kann diese Sprachen zwar auch, aber sie machen keinen Spaß. Ich habe mal eine TV-Analyse in R geschrieben. Es funktioniert. Gibt besonders viele Libraries, mit denen man grafische Ausgabe erzeugen kann. Das ist schon ganz huebsch. Wenn ich das mal so mit Scala vergleiche. Aber fuer mich ist R deutlich unintuitiver. Alleine das Arrays, DataFrames etc. mit 1 anfangen bring genuegend Verwirrung. An diesen Stellen merkt man eben, dass die Sprache fuer Statistiker geschrieben wurde und nicht fuer Entwickler. Auch der Speicherverbrauch ist so eine Sache fuer sich. Das eskaliert in R unter Umstaenden schon mal.
J. C. schrieb: > Cyblord -. schrieb: >> GO > > ... Schach? Wieso kein Schach? Ist Schach zu komplex? Was meinst Du, wo AlphaGo herkommt? Der Autor hat zuvor die Technik mit dem OSS-Schachprogramm "Giraffe" entwickelt, deswegen wurde Google überhaupt erst auf ihn aufmerksam. Das Interessante bei "Giraffe" war , daß es durch Spielen gegen sich selbst (!) in wenigen Tagen auf die Stärke menschlicher Internationaler Meister kam. Deswegen entwickelt er "Giraffe" aber auch nicht mehr weiter, denn da die Technik eine sehr ähnliche ist, hat er den Konflikt, daß er nicht internes Knowhow seines Arbeitgebers veröffentlichen kann. Freilich spielt "Giraffe" nur vergleichsweise mittelmäßig. Bei üblicher PC-Standardhardware ist es weit von den Spitzenprogrammen entfernt. Das hat auch seine Gründe: Go ist sehr viel musterlastiger als Schach. Bei Schach ist es häufig, daß nur eine Figur nur ein Feld woanders den Unterschied zwischen Sieg oder Niederlage ausmacht. Kleine Abweichungen in den Eingangsdaten haben also große Abweichungen in den Ausgangsdaten zur Folge. Neuronetze dienen aber gerade der Mustererkennung, und das heißt, kleine Abweichungen in den Eingangsdaten sollen auch kleine Abweichungen in den Ausgangsdaten bewirken - das ist so ziemlich die Definition von "ähnliche Sachen als ähnlich erkennen".
Siemens Corporate Technology in Erlangen hat derzeit zwei Stellen ausgeschrieben für Algorithmenentwicklung im Bereich Machine Learning.
Nop schrieb: > Go ist sehr viel musterlastiger als Schach. Bei Schach ist es häufig, > daß nur eine Figur nur ein Feld woanders den Unterschied zwischen Sieg > oder Niederlage ausmacht. Isse aber bei Go auch nicht anders, eine einzige Freiheit mehr und das Sushi ist geputzt.
Abradolf L. schrieb: > Siemens Corporate Technology in Erlangen hat derzeit zwei Stellen > ausgeschrieben für Algorithmenentwicklung im Bereich Machine Learning. Bekommt man da auch 200k wie bei Google? Deutsche Konzerne ftw!
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.