Hallo, ich würde gerne mal eine Diskussion anstossen über Roboter, die mir die lästige Hausarbeit abnehmen. Was meint ihr, wann wird es sowas geben? 20 Jahre, 30 Jahre? Wie schaut es momentan in der Robotik aus? Ich denke, dass die Mechanik heutzutage nicht mehr das Problen darstellt sondern die hochkomplexe Programmierung. Ist schon interessant, wozu das menschliche Hirn fähig ist, so komplexe Aufgaben wie Spülen/Saugen/Staubwischen auszuführen^^
Wenn ich es aus Dokumentationen richtig in Erinnerung habe dachte man in der Computereuphoriezeit, bis zum Jahr 2000 sollten Computer/Roboter existieren, die bereits so intelligent wie ein Kind sein sollen. Das hätte ja dann definitiv gereicht um einen brauchbaren Haushaltsroboter zu bauen. Aber wenn ich den Stand heute 2010 so ansehe, wird es sicherlich nochmals 30 Jahre dauern. Einerseits ist die Euphorie vorbei und andererseits hat kaum jemand noch Geld um die Forschung merklich voranzutreiben. Also früher hatte man vielleicht auch kein Geld, aber es wurde jedenfalls trotzdem ausgegeben. ;-)
Björn Richter schrieb: > sondern die hochkomplexe Programmierung. Ist schon interessant, wozu das > menschliche Hirn fähig ist, so komplexe Aufgaben wie > Spülen/Saugen/Staubwischen auszuführen^^ Diese Aufgaben sind technisch gesehen in der Tat hochkomplex. Nimm als Beispiel die Unterscheidung, welche Dinge in der Wohnung zu den nützlichen gehören und welche in den Müll. Für das Gehirn eines Menschen ist das ein Klacks (wenn man von Messies und kleinen Kindern mal absieht). Die abstrakte/intelligente Lösung des Problems ist für Roboter jedoch auf absehbare Zeit unmöglich. Erst wenn die Funktionsweise des Gehirns und des menschlichen Bewußtseins enträtselt sind, wird man solche Aufgabenstellungen technisch lösen können. Wenn man das dann überhaupt noch muß. Denn wenn es erst so weit ist, kann man auch eine Matrix schaffen, in der das Leben ganz einfach virtualisiert wird. Aufgeräumt wird dann nur noch mittels prorammtechnischer Garbage Collection.
Für den Teppichboden gibts schon was: http://www.nettoshop.ch/index.php?cName=staubsauger-robotersauger-c-25_44_259
Icke ®. schrieb: > Wenn man das dann > überhaupt noch muß. Denn wenn es erst so weit ist, kann man auch eine > Matrix schaffen, in der das Leben ganz einfach virtualisiert wird. > Aufgeräumt wird dann nur noch mittels prorammtechnischer Garbage > Collection. <verschwoerungsmodus> Wenn es nicht schon längst so ist, nur eben ohne GC. Der Programmierer war halt ein masochist. </verschwoerungsmodus>
Icke ®. schrieb: > Björn Richter schrieb: > >> sondern die hochkomplexe Programmierung. Ist schon interessant, wozu das >> menschliche Hirn fähig ist, so komplexe Aufgaben wie >> Spülen/Saugen/Staubwischen auszuführen^^ > > Diese Aufgaben sind technisch gesehen in der Tat hochkomplex. Nimm als > Beispiel die Unterscheidung, welche Dinge in der Wohnung zu den > nützlichen gehören und welche in den Müll. Für das Gehirn eines Menschen > ist das ein Klacks (wenn man von Messies und kleinen Kindern mal > absieht). Ich halte das Problem an sich nicht für "hochkomplex" sondern trivial. Es ist nämlich nur ein ganz einfacher Lernvorgang der prinzipiell auf Auswendiglernen beruht. Die Erklärung lieferst du quasi selbst mit "Messies" und "Kindern". Warum sind Zitronenschalen Abfall? Kann man ja nix mehr mit machen. Also ab in den Abfall. Das ist Konvention. Man hat es halt so gelernt. Oder... Moment... gibt es tatsächlich Leute die Zitronenschalen für etwas verwenden? Natürlich gibt es diese Leute. Also sind sie doch kein Abfall? Man muss dem Roboter also nur sagen "Ich mag keine Zitronenschalen. Die sind für mich Abfall.". Das ist alles. Der Komplexe Teil befindet sich IMO ganz wo anders. Und zwar in der visuellen Erkennung von Zitronenschalen. Die Entscheidung was Müll ist und was nicht ist trivial, wenn erstmal erkannt ist worum es sich handelt.
So einfach ist es eben nicht, dass es nur an der bisher mangelhaften Bilderkennung liegt. Den Robotern fehlt heute noch immer die grundlegende Allgemeinbildung, die wir uns beim Aufwachsen aneignen. Ein paar Beispiele: - Kippe ich eine Giesskanne oder eine Flasche um sie zu leeren, dann fliesst der Inhalt in Richtung Erde und nicht an die Decke - Will ich Zeitschriften stapeln, muss ich mit der untersten beginnen und nicht mit der obersten - Das eigene Bild im Spiegel ist kein Einbrecher - Hinter dem Spiegel geht der Raum meist nicht weiter - Ein Messer ist gefährlich und wird deshalb mit der Schneide nach unten oder zur Seite in die Schublade gelegt - Der Kamin ist erst zu reinigen, wenn die Asche ausgekühlt ist - Stinkt das Fleisch, sollte man damit keine Mahlzeit mehr zubereiten - Die teure Rolex im Abfalleimer ist wahrscheinlich aus Versehen reingefallen und sollte nicht entsorgt werden - Pflanzen können in der Regel nicht mit dem Staubsauger gereinigt werden, da die Blätter eingesogen würden Sind vielleicht nicht die besten Beispiele, aber im Grunde genommen kann man heute einer Maschine den gesunden Menschenverstand noch nicht beibringen, welchen es für viele Tätigkeiten im Alltag braucht.
Johnny B. schrieb: > So einfach ist es eben nicht, dass es nur an der bisher mangelhaften > Bilderkennung liegt. > Den Robotern fehlt heute noch immer die grundlegende Allgemeinbildung, > die wir uns beim Aufwachsen aneignen. Eben das sage ich ja. Das ist nur eine Datenbank. Da ist nichts magisches dran. Das ist im Grunde sehr einfach. Man muss halt nur jeden Fall abdecken und dieses Lernen ist sehr aufwendig und braucht viel Zeit. Ein neuronales Netz könnte beispielsweise diese Datenbank sein. > Ein paar Beispiele: > > - Kippe ich eine Giesskanne oder eine Flasche um sie zu leeren, dann > fliesst der Inhalt in Richtung Erde und nicht an die Decke > > - Will ich Zeitschriften stapeln, muss ich mit der untersten beginnen > und nicht mit der obersten > > - Das eigene Bild im Spiegel ist kein Einbrecher > > - Hinter dem Spiegel geht der Raum meist nicht weiter > > - Ein Messer ist gefährlich und wird deshalb mit der Schneide nach unten > oder zur Seite in die Schublade gelegt > > - Der Kamin ist erst zu reinigen, wenn die Asche ausgekühlt ist > > - Stinkt das Fleisch, sollte man damit keine Mahlzeit mehr zubereiten > > - Die teure Rolex im Abfalleimer ist wahrscheinlich aus Versehen > reingefallen und sollte nicht entsorgt werden > > - Pflanzen können in der Regel nicht mit dem Staubsauger gereinigt > werden, da die Blätter eingesogen würden > > Sind vielleicht nicht die besten Beispiele, aber im Grunde genommen kann > man heute einer Maschine den gesunden Menschenverstand noch nicht > beibringen, welchen es für viele Tätigkeiten im Alltag braucht. Alles nur stupides auswendiglernen, IMO.
Michael Buesch schrieb: > > Eben das sage ich ja. Das ist nur eine Datenbank. Da ist nichts > magisches dran. Das ist im Grunde sehr einfach. Das dachte man in den 60-Jahren auch schon. Bis heute hat es niemand geschaffte eine derartige Datenbank ins Leben zu rufen oder auch nur ansatzweise zu verstehen, wie man eine derartige Datenbank strukturmässig sinnvoll aufbauen kann. Das Problem ist nicht das Einzelwissen. Das Problem ist, dass es dein Gehirn mühelos schafft aus vorhandenen Fakten in Windeseile neue Erkentnisse zu gewinnen, die so nicht in deiner Gehirndatenbank verankert sind. Nur so als Beispiel: Besuchst du deinen Freund auf seiner Neubau-Baustelle und er sagt "setz dich nieder", dann hat dein Gehirn absolut keine Schwierigkeiten damit, die leere Bierkiste als Sitzgelegenheit zu akzeptieren, wenn man sie nur hochkant stellt. In einzelnen, isolierten Bereichen ist man schon lange soweit, das Computer geplante Handlungen durchführen können. zb > - Will ich Zeitschriften stapeln, muss ich mit der untersten > beginnen und nicht mit der obersten das Programm "SHRDLU" konnte das schon lange (*). OK. In seiner eigenen Klötzchenwelt, aber immerhin. Aktionen wie die Anweisung Klötzchen zu stapeln mit allen Zwischenschritten sind kein Problem. Das Programm baut sich einen Vorgehensplan zusammen und kann damit dann auch Fragen beantworten, warum es bestimmte Aktionen durchgeführt hat. Das Problem an der Sache: Der komplette Vorgang ist algorithmisch vorprogrammiert. Unser Gehirn arbeitet aber anders. Es lernt anhand von Beobachtungen, von durchgeführten Aktionen und welche Reaktionen sich daraus ergeben. Nur wie das genau funktioniert weiß AFAIK niemand. (*) Auch wenn es bei SHRDLU eigentlich um das erkennen von natürlicher Sprache ging. Aber es hat sich gezeigt, dass dieses Problem in seiner Allgemeinheit zu schwierig ist. Daher wurde der 'Sprachinhalt' auf einen Bereich eingegrenzt, eben die Klötzchenwelt in der SHRDLU operiert.
Karl heinz Buchegger schrieb: > Nur wie das genau funktioniert weiß AFAIK niemand. Ich weiß nicht wer oder was, aber irgendwelche Forscher können bereits ein Gehirn einer (afaik) Katze mit Rechnern nachbilden. Ich müsste mal den Beitrag raussuchen. Ich sehe an der ganzen Sache gleich zwei Probleme. Zunächst wäre die Entwicklung eines solchen Roboters eine sehr große Investition. Und ich glaube nicht, dass momentan jemand bereit wäre, Risikokapital in so etwas zu investieren. Einem Roboter etwas beizubringen ist aber kein Problem. Objekt-Klassifikation ist schon seit Jahren ein Forschungsthema. Und es gibt durchaus brauchbare Ergebnisse. Der Roboter müsste nur noch ein Bild interpretieren können. Volle Chipstüte in den Schrank mit den Chipstüten einräumen. Wenn kein Platz vorhanden, irgendwo anders. Leere Chipstüte ist Müll. Ein Teller mit fremden Mustern ist eben ein schmutziger Teller, wenn mit ihm eine Stunde nichts passiert. Außerdem kann man dem Roboter Anweisungen geben. "Räum den Tisch ab". Ich habe aber allgemein bei der x86 & amd64 Plattform eher das Gefühl, dass die CPUs zu viel auf den Betrieb eines Betriebssystems ausgelegt sind und weniger als "CPU" ansich. Und damit werden sich keine effizienten Roboter oder gar Betriebssysteme in iRobot Art und Weise entwickeln lassen.
Dimitri Roschkowski schrieb: > Karl heinz Buchegger schrieb: >> Nur wie das genau funktioniert weiß AFAIK niemand. > > Ich weiß nicht wer oder was, aber irgendwelche Forscher können bereits > ein Gehirn einer (afaik) Katze mit Rechnern nachbilden. Ich müsste mal > den Beitrag raussuchen. Katze? Das letzte woran ich mich erinnern kann, war irgendein Wurm, den man komplett nachgebaut hat. Ich hab mich allerdings auch schon lang nicht mehr mit dieser Thematik beschäftigt. > Ich sehe an der ganzen Sache gleich zwei Probleme. Zunächst wäre die > Entwicklung eines solchen Roboters eine sehr große Investition. Und ich > glaube nicht, dass momentan jemand bereit wäre, Risikokapital in so > etwas zu investieren. Würde ich so nicht sagen. Die Japaner bauen schon mächtig gute humanoide Roboter. > effizienten Roboter oder gar Betriebssysteme in iRobot Art und Weise > entwickeln lassen. Bin gerade auf etwas gestossen: http://en.wikipedia.org/wiki/Cyc
Außerdem lässt man bei der Beurteilung der Ansprüche, die man an solche Technik stellen muss, immer außer Acht, dass der Mensch sich auf diese neuen Werkzeuge ebenfalls einstellen kann und wird. Man wird dann also nichts mehr im Zugriffsbereich des Roboters stehen lassen, was der eventuell als Müll klassifizieren und entsorgen könnte. Oder man verinnerlicht, dass man nach dem Aufstellen einer neuen Tischdekoration "Seesand und Muschelschalen auf einem Teller" dem Reinigungsautomaten klar macht, dass das gefälligst stehen zu bleiben hat.
Johannes S. schrieb: > eventuell als Müll klassifizieren und entsorgen könnte. Oder man > verinnerlicht, dass man nach dem Aufstellen einer neuen Tischdekoration > "Seesand und Muschelschalen auf einem Teller" dem Reinigungsautomaten > klar macht, dass das gefälligst stehen zu bleiben hat. Es soll ja selbst für einige Reinigungskräft durchaus nicht so einfach sein, Müll von Kunstwerken in diversen Modern Arts Museen zu unterscheiden :-) (Auf der anderen Seite: Vielleicht würde es sich dann aufhören, jeden Quatsch als Kunstwerk zu titulieren, wenn irgendwann ein AI System klipp und klar das Ausgestellte einfach nur als Müll klassifiziert)
Dimitri Roschkowski schrieb: > Einem Roboter etwas beizubringen ist aber kein Problem. > Objekt-Klassifikation ist schon seit Jahren ein Forschungsthema. Und es > gibt durchaus brauchbare Ergebnisse. Aber für sehr eng begrenzte Einsatzbereiche. > Der Roboter müsste nur noch ein > Bild interpretieren können. Volle Chipstüte in den Schrank mit den > Chipstüten einräumen. Wenn kein Platz vorhanden, irgendwo anders. Leere > Chipstüte ist Müll. Ein Teller mit fremden Mustern ist eben ein > schmutziger Teller, wenn mit ihm eine Stunde nichts passiert. > Außerdem kann man dem Roboter Anweisungen geben. "Räum den Tisch ab". Alleine über das Erkennen von "Platz" in Schränken könnte man problemlos 5 Jahre forschen, und hat dann nur vielleicht etwas das halbwegs zuverlässig funktioniert. Das selbe gilt für den Füllzustand von Chipstüten, den Verschmutzungsgrad von Tellern, oder das Erkennen von Anweisungen. Jedes Teilproblem für sich ist komplex, aber machbar, wenn der Mensch es löst und dem Roboter beibringt. Ein Roboter der selbst solche Lösungen lernt, was für eine praktische Nutzung notwendig ist, ist aber noch völlig unrealistisch, und ich wage mal die Voraussage dass sich das in den nächsten 20 Jahren nicht ändern wird.
Karl heinz Buchegger schrieb: > Bin gerade auf etwas gestossen: > http://en.wikipedia.org/wiki/Cyc Müsste man sich mal ansehen. Die 2.0er Version ist aus dem Jahr 2009, also recht aktuell. Aber gerade so etwas lässt sich doch wunderbar als neuronales Netzwerk abbilden. Karl heinz Buchegger schrieb: > Es soll ja selbst für einige Reinigungskräft durchaus nicht so einfach > sein, Müll von Kunstwerken in Diversen modern Arts Museen zu > unterscheiden :-) Es gab ja auch einen Beamten (FFM), der mal ein Kunstwerk entsorgen lies, weil er es als Müll abgestempelt hat. http://bfriends.brigitte.de/foren/kunst-von-malerei-ueber-ausstellungen-bis-theater/6607-kunst-oder-muell.html Andreas Schwarz schrieb: > Jedes Teilproblem für sich ist komplex, aber machbar, wenn > der Mensch es löst und dem Roboter beibringt. Vor rund 2-3 Jahren war ich bei einem Vortrag der Uni Münster. Die haben zwei Systeme vorgestellt. Zum einen war es die Erkennung und Verfolgung von Menschen. Die haben auf einen Kinderwagen eine Kamera montiert und sind damit herumgefahren. Anschließend wurden die Aufnahmen analysiert. Dabei wurde eine Datenbank mit gelernten Mustern zugrunde gelegt. Das IOSB in Ettlingen arbeitet z.B. an einer landmarkenbasierten Navigationslösung für Flugkörper. Ansich denke ich deshalb schon, dass wir soweit sind. Mit dem "dem Roboter beibringen" sollte es auch kein Problem sein. Wir Menschen bringen unseren Kindern ja auch vieles bei. Außerdem lernen wir aus eigenen Erfahrungen. "Auf die heiße Herdplatte zu fassen ist eine schlechte Idee. Denn es tut weh!" Aber bei Robotern hat man den Vorteil, dass man Wissen einfach weitergeben kann.
Aktuell läuft dieser Film in den Kinos zum Thema: http://www.plugandpray-film.de/ Kann ich für eine kritische Auseinandersetzung mit dem Thema Robotik empfehlen.
Dimitri Roschkowski schrieb: > Mit dem "dem Roboter beibringen" sollte es auch kein Problem sein. Wir > Menschen bringen unseren Kindern ja auch vieles bei. Der Vergleich ist völlig unpassend. Es gibt kein System das lernen kann wie ein Mensch oder ein Tier. Man hat nicht mal eine Ahnung wie die zugrundeliegenden Datenstrukturen aussehen könnten mit denen sich ein wirklich lernfähiges System realisieren ließe. Bei den Beispielen die du nennst (Gesichtserkennung, Landmarkenerkennung) werden ein paar Merkmale manuell extrahiert, und dann hat das lernende System vielleicht 5-10 Eingangsvariablen an die es eine Funktion so fittet dass bei dem richtigen Gesicht "1" und bei dem falschen Gesicht "0" herauskommt (nichts anderes macht ein künstliches neuronales Netz, auch wenn es sich spannender anhört); das hat absolut nichts mit dem Lernen zu tun wie es ein Mensch oder ein Tier kann.
Andreas Schwarz schrieb: > (nichts anderes macht ein künstliches neuronales Netz, auch wenn es sich > spannender anhört); das hat absolut nichts mit dem Lernen zu tun wie es > ein Mensch oder ein Tier kann. Wobei ich mich immer gefragt habe: Wenn wir Menschen zur Welt kommen, wie ist das dann? Sind die Neuronen im Gehirn aller Menschen im wesentlichen gleich verschaltet und 'programmiert' oder nicht? Gibt es so etwas wie eine genetische Grundverschaltung im Gehirn? Irgendwas in der Richtung muss es geben, denn wir alle können schon ziemlich viel, wenn wir zur Welt kommen. Wir können eigenständig atmen, hören. Sehen dauert auch nicht lange nach der Geburt, etc.
Andreas Schwarz schrieb: > Es gibt kein System das lernen kann > wie ein Mensch oder ein Tier. Das habe ich nicht geschrieben, sondern dass man einem Computer durchaus etwas beibringen kann. Ich möchte es dir mal etwas verdeutlichen. Wenn ich etwas mache, habe ich stets ein Kontext. Ohne Context kann man alles vergessen. Jetzt nehmen wir einfach mal an, ich würde einen neuen Roboter bei mir in der Wohnung in Betrieb nehmen. Der Roboter schaut jetzt auf meinen Schreibtisch. Dann greift er auf die interne Datenbank mit möglichen Objekten in einer Wohnung. In der Datenbank hat er einen Klassifikator eines Tisches und auf dem Bild ist so etwas ähnliches. Also speichert er ab: da ist der Tisch. Aber da ist noch etwas anderes. Er matched weiter mit seiner Datenbank und findet ein Monitor-Ähnliches Objekt auf dem Tisch. Danaben ein zweites und ein drittes. So macht der Roboter weiter, bis er alles erkannt hat. Wenn noch etwas offen ist, wird der Nutzer aufgefordert dem Roboter zu sagen, was dieser unbekannte Gegenstand ist und welche Klassen (ähnlich der Bluetooth Geräte Klassifizierung) es hat. Jetzt würde ein Roboter durch den Raum fahren und sagen wir mal einen Teller auf dem Tisch entdecken. Beim ersten Mal würde der Roboter dem Nutzer sagen, dass er einen (schmutzigen) Teller auf dem Schreibtisch gefunden hat. Soll er den Teller mitnehmen und reinigen oder nicht. Die Antwort des Nutzers speichert der Roboter dann in seiner Datenbank. Außerdem gibt es noch andere Lernergebnisse, die der Roboter selbst erzeugt hat. Z.B. draußen herumfahren, wenn der Rasen bewässert wird, führt zu einem Kurzschluss => gaaaaaaanz schlecht. So stelle ich mir die Handlung des Roboters vor. Das ganze hat nichts mit dem Lernen zutun, wie wir Menschen das tun, sondern in einer Datenbank. Diese Datenbank könnte dann irgendwo zentral gespeichert und mit anderen Robotern ausgetauscht werden.
>Der Vergleich ist völlig unpassend. Es gibt kein System > das lernen kann wie ein Mensch oder ein Tier. Man hat > nicht mal eine Ahnung wie die zugrundeliegenden Datenstrukturen > aussehen ... Nun, die Wissenschaft macht große Fortschritte und was gestern war ist heute schon anderst: http://www.youtube.com/watch?v=zBZ4PhmoG6A
Christoph H. schrieb: > Nun, die Wissenschaft macht große Fortschritte und was gestern war ist > heute schon anderst: > > http://www.youtube.com/watch?v=zBZ4PhmoG6A Trotz der Fortschritte steht die Hirnforschung aber immer noch am Anfang, der Beitrag zeigt das eigentlich deutlich. Man beginnt gerade einmal -im Vergleich gesprochen- die Hardware und das BIOS des Gehirns zu begreifen. Man weiß, welche Hirnregionen für welche Funktionen zuständig sind und wie der Informationsaustausch zwischen den Zellen abläuft, aber vom Reverse-Engineering der "Software" ist man noch weit entfernt. Würde man einen modernen PC 100 Jahre in der Zeit zurückschicken, die Ingenieure kämen sicher nach einer Weile dahinter, daß die Chips im Inneren irgendwie miteinander kommunizieren und jeder eine bestimmte Aufgabe zu erfüllen hat. Aber sie würden sicher sehr sehr lange brauchen, um zu verstehen, in welcher Weise die einzelnen Befehle zusammen arbeiten müssen, damit ein gescheites Anwendungsprogramm herauskommt.
Das könnte lösbar werden wenn die Rechner der Robots mal an unsere Gehirne herankommen. Zur Zeit hängen wir da an der Kühlungsleistung welche die weitere Steigerung der Rechenleistung limitiert. Die Bilderkennung und das Datenbankmanagement wird völlig falsch betrieben, weil die alle nicht verstehen wie das bei uns funktioniert. Also Einige verstehen das schon sehr genau - das sind aber nicht die aalglatten 'Alles Richtig Gemacht' Leute die dann mit Anfang 30 Professor werden - es sind die Leute die über diese Kleinigkeiten sehr lange und immer wieder nachdenken. Unsere Bilderkennung und die Speicherung in der Gehirndatenbank funktioniert fraktal - das können sich viele nicht mal vorstellen und sowas zu erklären ist fast unmöglich. Das ganze hat rein mathematisch sehr viel mit der extrem Datenreduzierenden Wavelettransformation zu tun. jpg2000 - erinnert ihr euch noch? Ein Bildformat welches ein Bitmap (Das sieht unser Auge) zu einem jpg2000 komprimiert, mit der nahezu verlustfreien Kompression etwa 10 mal mehr als jpg. Und die ersten die drauf gekommen sind, haben es patentiert und nun kann es keiner benutzen. Nachprogrammieren ganz einfach, wenn mal Jemand ein Jahr frei machen kann. Auch Menschen sind nicht frei von Irrtümern bei der Gesichtserkennung oder Objekterkennung im allgemeinen. Man nimmt das Teil in die Hand und unterzieht es einer Einzelfallprüfung. Ein zweites Problem wäre die Energieversorgung. Es gibt bereits Lastesel-ähnliche militärische Roboter die locker auf vier Beinen durch den Wald laufen können und deinen Rucksack tragen. Aber die benötigen einen Mopedartigen Motor um ihre Energie zu produzieren. Der reale Robot, selbst wenn er alles könnte was wir uns vorstellen, müsste nach 30 min Arbeit für 6 h an die Steckdose.
Vielleicht noch etwas lustiges am Rande: Ich habe einen Kater der immer ganz interessiert zuschaut wenn ich etwas am Rechner mache - so wie jetzt auch. Wenn ich weggehe wird als Bildschirmschoner ein Aquarium aktiviert mit bunten Fischen. Nach 15 min schläft das System aber ein und zeigt nur einen schwarzen Monitor. Nun hat der Kater irgendwie herausgefunden das er nur eine Taste drücken muss und der Anmeldebildschirm erscheint. Dann drückt er noch eine Taste und ist eingelogt. Nach 2 Minuten erscheint dann wieder das Aquarium. Ich hab den Kater beobachtet - er aktiviert alle 15 min erneut das System um sich das Aquarium anzuschauen. Dann hab ich ihm die Tastenkombination gezeigt um die Lautsprecher einzuschalten. Und jetzt schaltet er manchmal auch noch den Sound ein und auch wieder aus. Neulich kam ich rein und war sprachlos: Der Kater war gerade dabei eine Email an irgendeine Katze zu schreiben und hat schnell den Monitor ausgeschaltet als ich reinkam.
Juri Parallelowitsch schrieb: > Unsere Bilderkennung und die Speicherung in der Gehirndatenbank > funktioniert fraktal - das können sich viele nicht mal vorstellen und > sowas zu erklären ist fast unmöglich. Muss denn die Bilderkennung bei einem Roboter oder Computer denn genau so sein, wie bei uns Menschen oder Tieren? Ich habe ein kleines bisschen so Zweifel an dem was du schreibst. Die Objekterkennung bei uns Menschen wird schon im Kindesalter trainiert. Oder ist sogar z.T. angebohren - wie z.B. die Suche nach der nächsten Milchtankstelle. Und wie lernt ein Kind, was jetzt was ist? Ein Kind nimmt den Gegenstand in die Hand, steckt ihn in den Mund, spielt damit herum. Die "Objektdatenbank" des Kindes besteht dann nicht nur aus einem abgespeicherten Bild, sondern dem haptischen Eindruck. Auch der Geruch und der "Sound" spielen da eine Rolle. Packt man das alles zusammen, entsteht ein Objekt. Und gerade bei primitiven Objekten ist es imho wichtig, dass diese Detailreich sind. Aber versuch einem Roboter mal klarzumachen, dass kalt = schlecht, kuscheligwarm = gut und heiß = schlecht ist.
Dimitri Roschkowski schrieb: > Ich habe ein kleines bisschen so Zweifel an dem was du schreibst. Das habe ich erwartet. Ja, die Objekterkennung kann aufgrund der ungeheuren Datenmenge nur auf die mathematisch effizienteste Art erfolgen die möglich ist. Jedes Objekt wird mit seiner minimalen Menge an Informationen beschrieben die notwendig sind. Buch: -Größe: zwischen 5 cm und 50 cm. -Geometrie: Quader -Farbe: strukturiert mit Schrift, eine Seite ist immer Weiß -Gewicht: zwischen 50 g und 2 kg Das sind nur vier unscharfe Zahlen um ein Objet als Buch zu definieren. Mehr macht unser Gehirn da nicht. Ein Buch was diesen Kriteren nicht entspricht, erkennt auch ein Mensch zunächst nicht als Buch.
Dimitri Roschkowski schrieb: > Aber versuch einem Roboter mal klarzumachen, dass kalt = schlecht, > kuscheligwarm = gut und heiß = schlecht ist. Objekt: Herdplatte T 50..200°C = Heiß T < 40°C = Kalt Objekt: Raumluft T < 19°C = kalt T > 20 & T < 24 = kuschelig Warm T > 24 = Heiß Das ist gar kein Problem.
>Die Bilderkennung und das Datenbankmanagement wird völlig falsch >betrieben, weil die alle nicht verstehen wie das bei uns funktioniert. Na, das wird wohl kaum so bleiben: http://www.technologyreview.com/Infotech/18210/
@ Juri Parallelowitsch (Firma: DIS CORP.) (thinktank) >Neulich kam ich rein und war sprachlos: Der Kater war gerade dabei eine >Email an irgendeine Katze zu schreiben und hat schnell den Monitor >ausgeschaltet als ich reinkam. Jaja, wir haben ja schon wieder Glühweinzeit, ich hab heute auch schon welchen intus, aber so einem Mist schreib ich dann auch wieder nicht . . . Aber was wäre so ein Forum ohne seine Plappermäuler . . .
Juri Parallelowitsch schrieb: > Ein Bildformat welches ein Bitmap (Das sieht unser Auge) zu einem > jpg2000 komprimiert, mit der nahezu verlustfreien Kompression etwa 10 > mal mehr als jpg. Und die ersten die drauf gekommen sind, haben es > patentiert und nun kann es keiner benutzen. Nachprogrammieren ganz > einfach, wenn mal Jemand ein Jahr frei machen kann. Oh weh, geht das jetzt wieder in Richtung der Wundertechnik die unter Verschluss gehalten wird? JPEG2000 ist nichts besonders tolles oder geheimnisvolles. Das Prinzip (Wavelettransformation) ist Stand der Technik. JPEG löst es deshalb nicht ab, weil es eben nicht 10 Mal so gut ist, sondern nur ein paar %, für die es sich nicht lohnt die Kompatibilität über den Haufen zu werfen. Und mit dem Thema dieses Threads hat das alles sowieso nicht viel zu tun. Juri Parallelowitsch schrieb: > Jedes Objekt wird mit seiner minimalen Menge an Informationen > beschrieben die notwendig sind. Buch: > > -Größe: zwischen 5 cm und 50 cm. > -Geometrie: Quader > -Farbe: strukturiert mit Schrift, eine Seite ist immer Weiß > -Gewicht: zwischen 50 g und 2 kg > > Das sind nur vier unscharfe Zahlen um ein Objet als Buch zu definieren. > Mehr macht unser Gehirn da nicht. Der entscheidende Unterschied ist, dass unser Gehirn selbst darauf kommt dass das sinnvoll ist; der Roboter kann das nicht.
Andreas Schwarz schrieb: > JPEG löst es deshalb > nicht ab, weil es eben nicht 10 Mal so gut ist, sondern nur ein paar %, > für die es sich nicht lohnt die Kompatibilität über den Haufen zu > werfen. Da bist du falsch informiert. Nicht dem glauben was die Firmen in ihren Prospekten behaupten! Einfach mal ein normales Foto von einer Digicam nehmen 5 MB z.B. jpg komprimiert und noch ansehbar so 200 k - waveletkomprimiert 20 k (fast) ohne Datenverlust - einfach selbst mal ausprobieren. Die entscheidende Überlegenheit des Verfahrens beruht auf der Verwendung von Ortsfrequenzen die eben bei der FFT zu Salat werden. Die FFT macht einfach Wurst aus allem, die WLT löst das auf und die Informationen werden nicht verwurstet. Diesen entscheidenden Unterschied kann man nicht einfach wegdiskutieren. Einfach mal selbst testen und ihr werdet mit zustimmen.
Im ersten Bild dieses Wikipedia-Artikels kann kann man die typischen Unterschiede zwischen JPEG und JPEG 2000 schön sehen (Bild anklicken, bis es in der vollen Auflösung dargestellt wird, vielleicht auch mal die Bildschirmlupe benutzen): http://en.wikipedia.org/wiki/Jpeg2000 Beim JPEG-Bild stören die Blockartefakte, das JPEG-2000-Bild ist dagegegen an einigen Stellen unscharf und verwaschen. Dadurch gehen Details verloren, wie bspw. das Gerippe des Blatts links oben in den Bildern. Welche der beiden Codierungen bei gleicher Komprimierungsrate letztend- lich besser aussieht, hängt vom Bildmotiv und dem persönlichen Empfinden ab. Wird bei JPEG 2000 aber um den Faktor 10 stärker als bei JPEG kom- primiert, ist der Unterschied nicht mehr nur subjektiv.
Mal ein Beispiel im Anhang. JPEG bei 100k ist mit JPEG2000 bei 70k vergleichbar (je nach Geschmack ist das eine oder das andere besser), aber JPEG2000 bei 24k sieht einfach scheußlich aus.
Prinzipiell haben wir schon ein paar Roboter in unserem Haushalt. Die Waschmaschine oder der Trockner. Auch den Kühlschrank oder den Herd könnte man im entfernten dazu zählen (Temperaturregelung, Zeitschaltuhr und bei ganz tollen Kühlschränken die Ablaufsdatumserkennung). Woran es hapert ist die Koordination der verschiedenen schon vorhandenen Roboter und eben das hin- und hertragen der Gegenstände. Übrigens ist das in den meisten Industriebetrieben auch so. Einige unheimlich teure Maschinen die in der Halle stehen und dazwischen, quasi als Handlanger, die Arbeiter die Bauteile zur Maschine bringen, danach die fertigen Baugruppen abholen und zur nächsten Maschine tragen. Wenn man jetzt nur das Problem hat die schmutzigen Sachen zur Wasch-/Spülmaschine zu bringen kann ich mir folgendes vorstellen: Die ganz normale Spülmaschine und darüber so etwas wie ein Paternoster, der als Geschirrschrank dient. Oder die im Kleiderschrank integrierte Waschmaschine die Kleidungsstücke fertig gebügelt und gefaltet im Schrank ablegt. Möglich ist das, wenn man sich überlegt was für Meisterleistungen der Technik in so mancher Fabrikhalle stehen. Hängt wohl - wie immer - am Geld und ja billig wird das erst mal nicht. Nun die Lösungen sind natürlich nicht so cool wie ein iRobot oä. die hier im Threat so oft genannt werden. Ein Roboter mit Hand und Fuß wirds wohl auch weiterhin nicht geben, aber die Erweiterung des eigenen "Haushaltsmaschinen-Fuhrparks" ist durchaus heute schon möglich.
Lasst mich Arzt schrieb: > Übrigens ist das in den meisten Industriebetrieben auch so. Einige > unheimlich teure Maschinen die in der Halle stehen und dazwischen, quasi > als Handlanger, die Arbeiter die Bauteile zur Maschine bringen, danach > die fertigen Baugruppen abholen und zur nächsten Maschine tragen. Jo, so siehts aus. Wobei man zB den armen Handlanger mit dem Mitgehstapler, der dem Kuka, der die Maschine bestueckt und die Teile 'handlet', die Paletten bringt und abholt, auch durch was automatisches ersetzen koennte. Siehe Hochregallager. Ich denke aber, dass eine so automatisierte, menschenarme Fertigung einfach zu anfaellig ist. Wenn irgendwas schief geht, steht eben die Strasse. Bis irgendwer rausgefunden hat, welches Steuergeraet spinnt oder wo gerade der Encoder abgeraucht ist. Menschen koennen sich eben vollautomatisch in Sekunden voellig umstellen.
Christoph H. schrieb: > Aktuell läuft dieser Film in den Kinos zum Thema: > http://www.plugandpray-film.de/ > > Kann ich für eine kritische Auseinandersetzung mit dem Thema Robotik > empfehlen. Den habe ich mir gestern angesehen. Kurzweil hat am am so einiges an Technologie versprochen, die in den nächsten Jahren auftauchen wird. Ich persönlich halte das alles für Utopie. Ich persönlich hätte zwar nichts gegen, dass man selbst zum Cyborg wird und z.B. Roboter-Blutkörperchen hat, die defekte Zellen reparieren. Ich will mal eine Behauptung aufstellen: Ich finde, dass vor 10 Jahren pro Jahr die Prozessor-Technologie größere Fortschritte gemacht hat, als heute. Heute geht es den Herstellern mehr darum, den Profit mit möglichst wenig technischen Neuerungen zu maximieren. Die Technologie entwickelt sich deshalb in die Richtung, dass die Hersteller versuchen mehr Kerne in eine CPU zu pressen. Ein Standard-Benutzer wird diese CPU Kerne aber niemals ausreizen können.
Dimitri Roschkowski schrieb: > gegen, dass man selbst zum Cyborg wird und z.B. Roboter-Blutkörperchen > hat, die defekte Zellen reparieren. Oh nein, wer LEMs "Lokaltermin" gelesen hat, weiß welche Endkonsequenz das hat...
>Den habe ich mir gestern angesehen. Kurzweil hat am am so einiges an >Technologie versprochen, die in den nächsten Jahren auftauchen wird. Ich >persönlich halte das alles für Utopie. Die Thesen von Kurzweil sind übrigens schon erstaunlich alt. Wie so oft wurden die grundlegenden Gedanken von Scincefiktion Autoren aufgegriffen. Schon 1985 hat Greg Bear dazu folgenden Roman geschrieben: http://www.amazon.de/Blutmusik-Roman-Greg-Bear/dp/3453010140 Das Thema intelligente Blutkörperchen scheint dann später aufgegriffen worden zu sein. Sehr eindrücklich im Roman "Sternen Staub" von Adam Roberts: http://www.fantasyguide.de/1798.0.html
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.