mikrocontroller.net

Forum: Offtopic Wann gibt es Haushaltsroboter, die meine Wohnung sauberhalten?


Autor: Björn Richter (toolhead)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Hallo,

ich würde gerne mal eine Diskussion anstossen über Roboter, die mir die 
lästige Hausarbeit abnehmen.

Was meint ihr, wann wird es sowas geben? 20 Jahre, 30 Jahre?

Wie schaut es momentan in der Robotik aus?

Ich denke, dass die Mechanik heutzutage nicht mehr das Problen darstellt 
sondern die hochkomplexe Programmierung. Ist schon interessant, wozu das 
menschliche Hirn fähig ist, so komplexe Aufgaben wie 
Spülen/Saugen/Staubwischen auszuführen^^

Autor: Johnny B. (johnnyb)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Wenn ich es aus Dokumentationen richtig in Erinnerung habe dachte man in 
der Computereuphoriezeit, bis zum Jahr 2000 sollten Computer/Roboter 
existieren, die bereits so intelligent wie ein Kind sein sollen.
Das hätte ja dann definitiv gereicht um einen brauchbaren 
Haushaltsroboter zu bauen.
Aber wenn ich den Stand heute 2010 so ansehe, wird es sicherlich 
nochmals 30 Jahre dauern. Einerseits ist die Euphorie vorbei und 
andererseits hat kaum jemand noch Geld um die Forschung merklich 
voranzutreiben.
Also früher hatte man vielleicht auch kein Geld, aber es wurde 
jedenfalls trotzdem ausgegeben. ;-)

Autor: Icke ®. (49636b65)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Björn Richter schrieb:

> sondern die hochkomplexe Programmierung. Ist schon interessant, wozu das
> menschliche Hirn fähig ist, so komplexe Aufgaben wie
> Spülen/Saugen/Staubwischen auszuführen^^

Diese Aufgaben sind technisch gesehen in der Tat hochkomplex. Nimm als 
Beispiel die Unterscheidung, welche Dinge in der Wohnung zu den 
nützlichen gehören und welche in den Müll. Für das Gehirn eines Menschen 
ist das ein Klacks (wenn man von Messies und kleinen Kindern mal 
absieht). Die abstrakte/intelligente Lösung des Problems ist für Roboter 
jedoch auf absehbare Zeit unmöglich. Erst wenn die Funktionsweise des 
Gehirns und des menschlichen Bewußtseins enträtselt sind, wird man 
solche Aufgabenstellungen technisch lösen können. Wenn man das dann 
überhaupt noch muß. Denn wenn es erst so weit ist, kann man auch eine 
Matrix schaffen, in der das Leben ganz einfach virtualisiert wird. 
Aufgeräumt wird dann nur noch mittels prorammtechnischer Garbage 
Collection.

Autor: Leo ... (-headtrick-)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Für den Teppichboden gibts schon was:
http://www.nettoshop.ch/index.php?cName=staubsauge...

Autor: Chris S. (-fx-)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Icke ®. schrieb:

> Wenn man das dann
> überhaupt noch muß. Denn wenn es erst so weit ist, kann man auch eine
> Matrix schaffen, in der das Leben ganz einfach virtualisiert wird.
> Aufgeräumt wird dann nur noch mittels prorammtechnischer Garbage
> Collection.

<verschwoerungsmodus>
Wenn es nicht schon längst so ist, nur eben ohne GC. Der Programmierer 
war halt ein masochist.
</verschwoerungsmodus>

Autor: Michael Buesch (mb_)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Icke ®. schrieb:
> Björn Richter schrieb:
>
>> sondern die hochkomplexe Programmierung. Ist schon interessant, wozu das
>> menschliche Hirn fähig ist, so komplexe Aufgaben wie
>> Spülen/Saugen/Staubwischen auszuführen^^
>
> Diese Aufgaben sind technisch gesehen in der Tat hochkomplex. Nimm als
> Beispiel die Unterscheidung, welche Dinge in der Wohnung zu den
> nützlichen gehören und welche in den Müll. Für das Gehirn eines Menschen
> ist das ein Klacks (wenn man von Messies und kleinen Kindern mal
> absieht).

Ich halte das Problem an sich nicht für "hochkomplex" sondern trivial. 
Es ist nämlich nur ein ganz einfacher Lernvorgang der prinzipiell auf 
Auswendiglernen beruht.
Die Erklärung lieferst du quasi selbst mit "Messies" und "Kindern".
Warum sind Zitronenschalen Abfall? Kann man ja nix mehr mit machen. Also 
ab in den Abfall. Das ist Konvention. Man hat es halt so gelernt. 
Oder... Moment... gibt es tatsächlich Leute die Zitronenschalen für 
etwas verwenden? Natürlich gibt es diese Leute. Also sind sie doch kein 
Abfall?

Man muss dem Roboter also nur sagen "Ich mag keine Zitronenschalen. Die 
sind für mich Abfall.". Das ist alles.

Der Komplexe Teil befindet sich IMO ganz wo anders. Und zwar in der 
visuellen Erkennung von Zitronenschalen. Die Entscheidung was Müll ist 
und was nicht ist trivial, wenn erstmal erkannt ist worum es sich 
handelt.

Autor: Johnny B. (johnnyb)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
So einfach ist es eben nicht, dass es nur an der bisher mangelhaften 
Bilderkennung liegt.
Den Robotern fehlt heute noch immer die grundlegende Allgemeinbildung, 
die wir uns beim Aufwachsen aneignen.

Ein paar Beispiele:

- Kippe ich eine Giesskanne oder eine Flasche um sie zu leeren, dann 
fliesst der Inhalt in Richtung Erde und nicht an die Decke

- Will ich Zeitschriften stapeln, muss ich mit der untersten beginnen 
und nicht mit der obersten

- Das eigene Bild im Spiegel ist kein Einbrecher

- Hinter dem Spiegel geht der Raum meist nicht weiter

- Ein Messer ist gefährlich und wird deshalb mit der Schneide nach unten 
oder zur Seite in die Schublade gelegt

- Der Kamin ist erst zu reinigen, wenn die Asche ausgekühlt ist

- Stinkt das Fleisch, sollte man damit keine Mahlzeit mehr zubereiten

- Die teure Rolex im Abfalleimer ist wahrscheinlich aus Versehen 
reingefallen und sollte nicht entsorgt werden

- Pflanzen können in der Regel nicht mit dem Staubsauger gereinigt 
werden, da die Blätter eingesogen würden

Sind vielleicht nicht die besten Beispiele, aber im Grunde genommen kann 
man heute einer Maschine den gesunden Menschenverstand noch nicht 
beibringen, welchen es für viele Tätigkeiten im Alltag braucht.

Autor: Michael Buesch (mb_)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Johnny B. schrieb:
> So einfach ist es eben nicht, dass es nur an der bisher mangelhaften
> Bilderkennung liegt.
> Den Robotern fehlt heute noch immer die grundlegende Allgemeinbildung,
> die wir uns beim Aufwachsen aneignen.

Eben das sage ich ja. Das ist nur eine Datenbank. Da ist nichts 
magisches dran. Das ist im Grunde sehr einfach. Man muss halt nur jeden 
Fall abdecken und dieses Lernen ist sehr aufwendig und braucht viel 
Zeit.
Ein neuronales Netz könnte beispielsweise diese Datenbank sein.

> Ein paar Beispiele:
>
> - Kippe ich eine Giesskanne oder eine Flasche um sie zu leeren, dann
> fliesst der Inhalt in Richtung Erde und nicht an die Decke
>
> - Will ich Zeitschriften stapeln, muss ich mit der untersten beginnen
> und nicht mit der obersten
>
> - Das eigene Bild im Spiegel ist kein Einbrecher
>
> - Hinter dem Spiegel geht der Raum meist nicht weiter
>
> - Ein Messer ist gefährlich und wird deshalb mit der Schneide nach unten
> oder zur Seite in die Schublade gelegt
>
> - Der Kamin ist erst zu reinigen, wenn die Asche ausgekühlt ist
>
> - Stinkt das Fleisch, sollte man damit keine Mahlzeit mehr zubereiten
>
> - Die teure Rolex im Abfalleimer ist wahrscheinlich aus Versehen
> reingefallen und sollte nicht entsorgt werden
>
> - Pflanzen können in der Regel nicht mit dem Staubsauger gereinigt
> werden, da die Blätter eingesogen würden
>
> Sind vielleicht nicht die besten Beispiele, aber im Grunde genommen kann
> man heute einer Maschine den gesunden Menschenverstand noch nicht
> beibringen, welchen es für viele Tätigkeiten im Alltag braucht.

Alles nur stupides auswendiglernen, IMO.

Autor: Karl Heinz (kbuchegg) (Moderator)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Michael Buesch schrieb:

>
> Eben das sage ich ja. Das ist nur eine Datenbank. Da ist nichts
> magisches dran. Das ist im Grunde sehr einfach.

Das dachte man in den 60-Jahren auch schon.
Bis heute hat es niemand geschaffte eine derartige Datenbank ins Leben 
zu rufen oder auch nur ansatzweise zu verstehen, wie man eine derartige 
Datenbank strukturmässig sinnvoll aufbauen kann.

Das Problem ist nicht das Einzelwissen.
Das Problem ist, dass es dein Gehirn mühelos schafft aus vorhandenen 
Fakten in Windeseile neue Erkentnisse zu gewinnen, die so nicht in 
deiner Gehirndatenbank verankert sind.

Nur so als Beispiel:
Besuchst du deinen Freund auf seiner Neubau-Baustelle und er sagt "setz 
dich nieder", dann hat dein Gehirn absolut keine Schwierigkeiten damit, 
die leere Bierkiste als Sitzgelegenheit zu akzeptieren, wenn man sie nur 
hochkant stellt.

In einzelnen, isolierten Bereichen ist man schon lange soweit, das 
Computer geplante Handlungen durchführen können. zb
> - Will ich Zeitschriften stapeln, muss ich mit der untersten
> beginnen und nicht mit der obersten
das Programm "SHRDLU" konnte das schon lange (*). OK. In seiner eigenen 
Klötzchenwelt, aber immerhin. Aktionen wie die Anweisung Klötzchen zu 
stapeln mit allen Zwischenschritten sind kein Problem. Das Programm baut 
sich einen Vorgehensplan zusammen und kann damit dann auch Fragen 
beantworten, warum es bestimmte Aktionen durchgeführt hat.

Das Problem an der Sache: Der komplette Vorgang ist algorithmisch
vorprogrammiert.
Unser Gehirn arbeitet aber anders. Es lernt anhand von Beobachtungen, 
von durchgeführten Aktionen und welche Reaktionen sich daraus ergeben. 
Nur wie das genau funktioniert weiß AFAIK niemand.

(*) Auch wenn es bei SHRDLU eigentlich um das erkennen von natürlicher 
Sprache ging. Aber es hat sich gezeigt, dass dieses Problem in seiner 
Allgemeinheit zu schwierig ist. Daher wurde der 'Sprachinhalt' auf einen 
Bereich eingegrenzt, eben die Klötzchenwelt in der SHRDLU operiert.

Autor: Dimitri Roschkowski (Firma: port29 GmbH) (port29) Benutzerseite
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Karl heinz Buchegger schrieb:
> Nur wie das genau funktioniert weiß AFAIK niemand.

Ich weiß nicht wer oder was, aber irgendwelche Forscher können bereits 
ein Gehirn einer (afaik) Katze mit Rechnern nachbilden. Ich müsste mal 
den Beitrag raussuchen.

Ich sehe an der ganzen Sache gleich zwei Probleme. Zunächst wäre die 
Entwicklung eines solchen Roboters eine sehr große Investition. Und ich 
glaube nicht, dass momentan jemand bereit wäre, Risikokapital in so 
etwas zu investieren.

Einem Roboter etwas beizubringen ist aber kein Problem. 
Objekt-Klassifikation ist schon seit Jahren ein Forschungsthema. Und es 
gibt durchaus brauchbare Ergebnisse. Der Roboter müsste nur noch ein 
Bild interpretieren können. Volle Chipstüte in den Schrank mit den 
Chipstüten einräumen. Wenn kein Platz vorhanden, irgendwo anders. Leere 
Chipstüte ist Müll. Ein Teller mit fremden Mustern ist eben ein 
schmutziger Teller, wenn mit ihm eine Stunde nichts passiert. Außerdem 
kann man dem Roboter Anweisungen geben. "Räum den Tisch ab".

Ich habe aber allgemein bei der x86 & amd64 Plattform eher das Gefühl, 
dass die CPUs zu viel auf den Betrieb eines Betriebssystems ausgelegt 
sind und weniger als "CPU" ansich. Und damit werden sich keine 
effizienten Roboter oder gar Betriebssysteme in iRobot Art und Weise 
entwickeln lassen.

Autor: Karl Heinz (kbuchegg) (Moderator)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Dimitri Roschkowski schrieb:
> Karl heinz Buchegger schrieb:
>> Nur wie das genau funktioniert weiß AFAIK niemand.
>
> Ich weiß nicht wer oder was, aber irgendwelche Forscher können bereits
> ein Gehirn einer (afaik) Katze mit Rechnern nachbilden. Ich müsste mal
> den Beitrag raussuchen.

Katze?

Das letzte woran ich mich erinnern kann, war irgendein Wurm, den man 
komplett nachgebaut hat. Ich hab mich allerdings auch schon lang nicht 
mehr mit dieser Thematik beschäftigt.

> Ich sehe an der ganzen Sache gleich zwei Probleme. Zunächst wäre die
> Entwicklung eines solchen Roboters eine sehr große Investition. Und ich
> glaube nicht, dass momentan jemand bereit wäre, Risikokapital in so
> etwas zu investieren.

Würde ich so nicht sagen.
Die Japaner bauen schon mächtig gute humanoide Roboter.

> effizienten Roboter oder gar Betriebssysteme in iRobot Art und Weise
> entwickeln lassen.

Bin gerade auf etwas gestossen:
http://en.wikipedia.org/wiki/Cyc

Autor: Johannes S. (demofreak)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Außerdem lässt man bei der Beurteilung der Ansprüche, die man an solche 
Technik stellen muss, immer außer Acht, dass der Mensch sich auf diese 
neuen Werkzeuge ebenfalls einstellen kann und wird. Man wird dann also 
nichts mehr im Zugriffsbereich des Roboters stehen lassen, was der 
eventuell als Müll klassifizieren und entsorgen könnte. Oder man 
verinnerlicht, dass man nach dem Aufstellen einer neuen Tischdekoration 
"Seesand und Muschelschalen auf einem Teller" dem Reinigungsautomaten 
klar macht, dass das gefälligst stehen zu bleiben hat.

Autor: Karl Heinz (kbuchegg) (Moderator)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Johannes S. schrieb:

> eventuell als Müll klassifizieren und entsorgen könnte. Oder man
> verinnerlicht, dass man nach dem Aufstellen einer neuen Tischdekoration
> "Seesand und Muschelschalen auf einem Teller" dem Reinigungsautomaten
> klar macht, dass das gefälligst stehen zu bleiben hat.


Es soll ja selbst für einige Reinigungskräft durchaus nicht so einfach 
sein, Müll von Kunstwerken in diversen Modern Arts Museen zu 
unterscheiden :-)

(Auf der anderen Seite: Vielleicht würde es sich dann aufhören, jeden 
Quatsch als Kunstwerk zu titulieren, wenn irgendwann ein AI System klipp 
und klar das Ausgestellte einfach nur als Müll klassifiziert)

Autor: Andreas Schwarz (andreas) (Admin) Benutzerseite Flattr this
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Dimitri Roschkowski schrieb:
> Einem Roboter etwas beizubringen ist aber kein Problem.
> Objekt-Klassifikation ist schon seit Jahren ein Forschungsthema. Und es
> gibt durchaus brauchbare Ergebnisse.

Aber für sehr eng begrenzte Einsatzbereiche.

> Der Roboter müsste nur noch ein
> Bild interpretieren können. Volle Chipstüte in den Schrank mit den
> Chipstüten einräumen. Wenn kein Platz vorhanden, irgendwo anders. Leere
> Chipstüte ist Müll. Ein Teller mit fremden Mustern ist eben ein
> schmutziger Teller, wenn mit ihm eine Stunde nichts passiert.
> Außerdem kann man dem Roboter Anweisungen geben. "Räum den Tisch ab".

Alleine über das Erkennen von "Platz" in Schränken könnte man problemlos 
5 Jahre forschen, und hat dann nur vielleicht etwas das halbwegs 
zuverlässig funktioniert. Das selbe gilt für den Füllzustand von 
Chipstüten, den Verschmutzungsgrad von Tellern, oder das Erkennen von 
Anweisungen. Jedes Teilproblem für sich ist komplex, aber machbar, wenn 
der Mensch es löst und dem Roboter beibringt. Ein Roboter der selbst 
solche Lösungen lernt, was für eine praktische Nutzung notwendig ist, 
ist aber noch völlig unrealistisch, und ich wage mal die Voraussage dass 
sich das in den nächsten 20 Jahren nicht ändern wird.

Autor: Dimitri Roschkowski (Firma: port29 GmbH) (port29) Benutzerseite
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Karl heinz Buchegger schrieb:
> Bin gerade auf etwas gestossen:
> http://en.wikipedia.org/wiki/Cyc

Müsste man sich mal ansehen. Die 2.0er Version ist aus dem Jahr 2009, 
also recht aktuell. Aber gerade so etwas lässt sich doch wunderbar als 
neuronales Netzwerk abbilden.

Karl heinz Buchegger schrieb:
> Es soll ja selbst für einige Reinigungskräft durchaus nicht so einfach
> sein, Müll von Kunstwerken in Diversen modern Arts Museen zu
> unterscheiden :-)

Es gab ja auch einen Beamten (FFM), der mal ein Kunstwerk entsorgen 
lies, weil er es als Müll abgestempelt hat.

http://bfriends.brigitte.de/foren/kunst-von-malere...

Andreas Schwarz schrieb:
> Jedes Teilproblem für sich ist komplex, aber machbar, wenn
> der Mensch es löst und dem Roboter beibringt.

Vor rund 2-3 Jahren war ich bei einem Vortrag der Uni Münster. Die haben 
zwei Systeme vorgestellt. Zum einen war es die Erkennung und Verfolgung 
von Menschen. Die haben auf einen Kinderwagen eine Kamera montiert und 
sind damit herumgefahren. Anschließend wurden die Aufnahmen analysiert. 
Dabei wurde eine Datenbank mit gelernten Mustern zugrunde gelegt. Das 
IOSB in Ettlingen arbeitet z.B. an einer landmarkenbasierten 
Navigationslösung für Flugkörper. Ansich denke ich deshalb schon, dass 
wir soweit sind.

Mit dem "dem Roboter beibringen" sollte es auch kein Problem sein. Wir 
Menschen bringen unseren Kindern ja auch vieles bei. Außerdem lernen wir 
aus eigenen Erfahrungen. "Auf die heiße Herdplatte zu fassen ist eine 
schlechte Idee. Denn es tut weh!"

Aber bei Robotern hat man den Vorteil, dass man Wissen einfach 
weitergeben kann.

Autor: Christoph H. (mc-entwickler)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Aktuell läuft dieser Film in den Kinos zum Thema:
http://www.plugandpray-film.de/

Kann ich für eine kritische Auseinandersetzung mit dem Thema Robotik 
empfehlen.

Autor: Andreas Schwarz (andreas) (Admin) Benutzerseite Flattr this
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Dimitri Roschkowski schrieb:
> Mit dem "dem Roboter beibringen" sollte es auch kein Problem sein. Wir
> Menschen bringen unseren Kindern ja auch vieles bei.

Der Vergleich ist völlig unpassend. Es gibt kein System das lernen kann 
wie ein Mensch oder ein Tier. Man hat nicht mal eine Ahnung wie die 
zugrundeliegenden Datenstrukturen aussehen könnten mit denen sich ein 
wirklich lernfähiges System realisieren ließe. Bei den Beispielen die du 
nennst (Gesichtserkennung, Landmarkenerkennung) werden ein paar Merkmale 
manuell extrahiert, und dann hat das lernende System vielleicht 5-10 
Eingangsvariablen an die es eine Funktion so fittet dass bei dem 
richtigen Gesicht "1" und bei dem falschen Gesicht "0" herauskommt 
(nichts anderes macht ein künstliches neuronales Netz, auch wenn es sich 
spannender anhört); das hat absolut nichts mit dem Lernen zu tun wie es 
ein Mensch oder ein Tier kann.

Autor: Karl Heinz (kbuchegg) (Moderator)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Andreas Schwarz schrieb:

> (nichts anderes macht ein künstliches neuronales Netz, auch wenn es sich
> spannender anhört); das hat absolut nichts mit dem Lernen zu tun wie es
> ein Mensch oder ein Tier kann.

Wobei ich mich immer gefragt habe:
Wenn wir Menschen zur Welt kommen, wie ist das dann? Sind die Neuronen 
im Gehirn aller Menschen im wesentlichen gleich verschaltet und 
'programmiert' oder nicht? Gibt es so etwas wie eine genetische 
Grundverschaltung im Gehirn? Irgendwas in der Richtung muss es geben, 
denn wir alle können schon ziemlich viel, wenn wir zur Welt kommen. Wir 
können eigenständig atmen, hören. Sehen dauert auch nicht lange nach der 
Geburt, etc.

Autor: Dimitri Roschkowski (Firma: port29 GmbH) (port29) Benutzerseite
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Andreas Schwarz schrieb:
> Es gibt kein System das lernen kann
> wie ein Mensch oder ein Tier.

Das habe ich nicht geschrieben, sondern dass man einem Computer durchaus 
etwas beibringen kann. Ich möchte es dir mal etwas verdeutlichen.

Wenn ich etwas mache, habe ich stets ein Kontext. Ohne Context kann man 
alles vergessen. Jetzt nehmen wir einfach mal an, ich würde einen neuen 
Roboter bei mir in der Wohnung in Betrieb nehmen. Der Roboter schaut 
jetzt auf meinen Schreibtisch. Dann greift er auf die interne Datenbank 
mit möglichen Objekten in einer Wohnung. In der Datenbank hat er einen 
Klassifikator eines Tisches und auf dem Bild ist so etwas ähnliches. 
Also speichert er ab: da ist der Tisch. Aber da ist noch etwas anderes. 
Er matched weiter mit seiner Datenbank und findet ein Monitor-Ähnliches 
Objekt auf dem Tisch. Danaben ein zweites und ein drittes. So macht der 
Roboter weiter, bis er alles erkannt hat. Wenn noch etwas offen ist, 
wird der Nutzer aufgefordert dem Roboter zu sagen, was dieser unbekannte 
Gegenstand ist und welche Klassen (ähnlich der Bluetooth Geräte 
Klassifizierung) es hat.

Jetzt würde ein Roboter durch den Raum fahren und sagen wir mal einen 
Teller auf dem Tisch entdecken. Beim ersten Mal würde der Roboter dem 
Nutzer sagen, dass er einen (schmutzigen) Teller auf dem Schreibtisch 
gefunden hat. Soll er den Teller mitnehmen und reinigen oder nicht. Die 
Antwort des Nutzers speichert der Roboter dann in seiner Datenbank.

Außerdem gibt es noch andere Lernergebnisse, die der Roboter selbst 
erzeugt hat. Z.B. draußen herumfahren, wenn der Rasen bewässert wird, 
führt zu einem Kurzschluss => gaaaaaaanz schlecht.

So stelle ich mir die Handlung des Roboters vor. Das ganze hat nichts 
mit dem Lernen zutun, wie wir Menschen das tun, sondern in einer 
Datenbank. Diese Datenbank könnte dann irgendwo zentral gespeichert und 
mit anderen Robotern ausgetauscht werden.

Autor: Christoph H. (mc-entwickler)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
>Der Vergleich ist völlig unpassend. Es gibt kein System
> das lernen kann wie ein Mensch oder ein Tier. Man hat
> nicht mal eine Ahnung wie die zugrundeliegenden Datenstrukturen
> aussehen ...

Nun, die Wissenschaft macht große Fortschritte und was gestern war ist 
heute schon anderst:

Youtube-Video "Lernen - Die Entdeckung des Selbstverständlichen. Ein Vortrag von Manfred Spitzer"

Autor: Icke ®. (49636b65)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Christoph H. schrieb:

> Nun, die Wissenschaft macht große Fortschritte und was gestern war ist
> heute schon anderst:
>
> Youtube-Video "Lernen - Die Entdeckung des Selbstverständlichen. Ein Vortrag von Manfred Spitzer"

Trotz der Fortschritte steht die Hirnforschung aber immer noch am 
Anfang, der Beitrag zeigt das eigentlich deutlich. Man beginnt gerade 
einmal -im Vergleich gesprochen- die Hardware und das BIOS des Gehirns 
zu begreifen. Man weiß, welche Hirnregionen für welche Funktionen 
zuständig sind und wie der Informationsaustausch zwischen den Zellen 
abläuft, aber vom Reverse-Engineering der "Software" ist man noch weit 
entfernt. Würde man einen modernen PC 100 Jahre in der Zeit 
zurückschicken, die Ingenieure kämen sicher nach einer Weile dahinter, 
daß die Chips im Inneren irgendwie miteinander kommunizieren und jeder 
eine bestimmte Aufgabe zu erfüllen hat. Aber sie würden sicher sehr sehr 
lange brauchen, um zu verstehen, in welcher Weise die einzelnen Befehle 
zusammen arbeiten müssen, damit ein gescheites Anwendungsprogramm 
herauskommt.

Autor: Juri Parallelowitsch (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Das könnte lösbar werden wenn die Rechner der Robots mal an unsere 
Gehirne herankommen. Zur Zeit hängen wir da an der Kühlungsleistung 
welche die weitere Steigerung der Rechenleistung limitiert.

Die Bilderkennung und das Datenbankmanagement wird völlig falsch 
betrieben, weil die alle nicht verstehen wie das bei uns funktioniert.
Also Einige verstehen das schon sehr genau - das sind aber nicht die 
aalglatten 'Alles Richtig Gemacht' Leute die dann mit Anfang 30 
Professor werden - es sind die Leute die über diese Kleinigkeiten sehr 
lange und immer wieder nachdenken.
Unsere Bilderkennung und die Speicherung in der Gehirndatenbank 
funktioniert fraktal - das können sich viele nicht mal vorstellen und 
sowas zu erklären ist fast unmöglich.
Das ganze hat rein mathematisch sehr viel mit der extrem 
Datenreduzierenden Wavelettransformation zu tun. jpg2000 - erinnert ihr 
euch noch?
Ein Bildformat welches ein Bitmap (Das sieht unser Auge) zu einem 
jpg2000 komprimiert, mit der nahezu verlustfreien Kompression etwa 10 
mal mehr als jpg. Und die ersten die drauf gekommen sind, haben es 
patentiert und nun kann es keiner benutzen. Nachprogrammieren ganz 
einfach, wenn mal Jemand ein Jahr frei machen kann.

Auch Menschen sind nicht frei von Irrtümern bei der Gesichtserkennung 
oder Objekterkennung im allgemeinen. Man nimmt das Teil in die Hand und 
unterzieht es einer Einzelfallprüfung.

Ein zweites Problem wäre die Energieversorgung.

Es gibt bereits Lastesel-ähnliche militärische Roboter die locker auf 
vier Beinen durch den Wald laufen können und deinen Rucksack tragen.
Aber die benötigen einen Mopedartigen Motor um ihre Energie zu 
produzieren.

Der reale Robot, selbst wenn er alles könnte was wir uns vorstellen, 
müsste nach 30 min Arbeit für 6 h an die Steckdose.

Autor: Juri Parallelowitsch (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Vielleicht noch etwas lustiges am Rande:

Ich habe einen Kater der immer ganz interessiert zuschaut wenn ich etwas 
am Rechner mache - so wie jetzt auch. Wenn ich weggehe wird als 
Bildschirmschoner ein Aquarium aktiviert mit bunten Fischen.
Nach 15 min schläft das System aber ein und zeigt nur einen schwarzen 
Monitor.
Nun hat der Kater irgendwie herausgefunden das er nur eine Taste drücken 
muss und der Anmeldebildschirm erscheint. Dann drückt er noch eine Taste 
und ist eingelogt. Nach 2 Minuten erscheint dann wieder das Aquarium.
Ich hab den Kater beobachtet - er aktiviert alle 15 min erneut das 
System um sich das Aquarium anzuschauen.

Dann hab ich ihm die Tastenkombination gezeigt um die Lautsprecher 
einzuschalten. Und jetzt schaltet er manchmal auch noch den Sound ein 
und auch wieder aus.

Neulich kam ich rein und war sprachlos: Der Kater war gerade dabei eine 
Email an irgendeine Katze zu schreiben und hat schnell den Monitor 
ausgeschaltet als ich reinkam.

Autor: Dimitri Roschkowski (Firma: port29 GmbH) (port29) Benutzerseite
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Juri Parallelowitsch schrieb:
> Unsere Bilderkennung und die Speicherung in der Gehirndatenbank
> funktioniert fraktal - das können sich viele nicht mal vorstellen und
> sowas zu erklären ist fast unmöglich.

Muss denn die Bilderkennung bei einem Roboter oder Computer denn genau 
so sein, wie bei uns Menschen oder Tieren?

Ich habe ein kleines bisschen so Zweifel an dem was du schreibst. Die 
Objekterkennung bei uns Menschen wird schon im Kindesalter trainiert. 
Oder ist sogar z.T. angebohren - wie z.B. die Suche nach der nächsten 
Milchtankstelle. Und wie lernt ein Kind, was jetzt was ist? Ein Kind 
nimmt den Gegenstand in die Hand, steckt ihn in den Mund, spielt damit 
herum. Die "Objektdatenbank" des Kindes besteht dann nicht nur aus einem 
abgespeicherten Bild, sondern dem haptischen Eindruck. Auch der Geruch 
und der "Sound" spielen da eine Rolle.

Packt man das alles zusammen, entsteht ein Objekt. Und gerade bei 
primitiven Objekten ist es imho wichtig, dass diese Detailreich sind. 
Aber versuch einem Roboter mal klarzumachen, dass kalt = schlecht, 
kuscheligwarm = gut und heiß = schlecht ist.

Autor: Juri Parallelowitsch (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Dimitri Roschkowski schrieb:
> Ich habe ein kleines bisschen so Zweifel an dem was du schreibst.

Das habe ich erwartet.

Ja, die Objekterkennung kann aufgrund der ungeheuren Datenmenge nur auf 
die mathematisch effizienteste Art erfolgen die möglich ist.

Jedes Objekt wird mit seiner minimalen Menge an Informationen 
beschrieben die notwendig sind. Buch:

-Größe: zwischen 5 cm und 50 cm.
-Geometrie: Quader
-Farbe: strukturiert mit Schrift, eine Seite ist immer Weiß
-Gewicht: zwischen 50 g und 2 kg

Das sind nur vier unscharfe Zahlen um ein Objet als Buch zu definieren.
Mehr macht unser Gehirn da nicht.

Ein Buch was diesen Kriteren nicht entspricht, erkennt auch ein Mensch 
zunächst nicht als Buch.

Autor: Juri Parallelowitsch (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Dimitri Roschkowski schrieb:
> Aber versuch einem Roboter mal klarzumachen, dass kalt = schlecht,
> kuscheligwarm = gut und heiß = schlecht ist.

Objekt: Herdplatte

T  50..200°C = Heiß
T  < 40°C = Kalt

Objekt: Raumluft

T < 19°C = kalt
T > 20 & T < 24 = kuschelig Warm
T > 24 = Heiß

Das ist gar kein Problem.

Autor: Christoph H. (mc-entwickler)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
>Die Bilderkennung und das Datenbankmanagement wird völlig falsch
>betrieben, weil die alle nicht verstehen wie das bei uns funktioniert.

Na, das wird wohl kaum so bleiben:
http://www.technologyreview.com/Infotech/18210/

Autor: Falk Brunner (falk)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
@  Juri Parallelowitsch (Firma: DIS CORP.) (thinktank)

>Neulich kam ich rein und war sprachlos: Der Kater war gerade dabei eine
>Email an irgendeine Katze zu schreiben und hat schnell den Monitor
>ausgeschaltet als ich reinkam.

Jaja, wir haben ja schon wieder Glühweinzeit, ich hab heute auch schon 
welchen intus, aber so einem Mist schreib ich dann auch wieder nicht . . 
.

Aber was wäre so ein Forum ohne seine Plappermäuler . . .

Autor: Andreas Schwarz (andreas) (Admin) Benutzerseite Flattr this
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Juri Parallelowitsch schrieb:
> Ein Bildformat welches ein Bitmap (Das sieht unser Auge) zu einem
> jpg2000 komprimiert, mit der nahezu verlustfreien Kompression etwa 10
> mal mehr als jpg. Und die ersten die drauf gekommen sind, haben es
> patentiert und nun kann es keiner benutzen. Nachprogrammieren ganz
> einfach, wenn mal Jemand ein Jahr frei machen kann.

Oh weh, geht das jetzt wieder in Richtung der Wundertechnik die unter 
Verschluss gehalten wird?

JPEG2000 ist nichts besonders tolles oder geheimnisvolles. Das Prinzip 
(Wavelettransformation) ist Stand der Technik. JPEG löst es deshalb 
nicht ab, weil es eben nicht 10 Mal so gut ist, sondern nur ein paar %, 
für die es sich nicht lohnt die Kompatibilität über den Haufen zu 
werfen. Und mit dem Thema dieses Threads hat das alles sowieso nicht 
viel zu tun.

Juri Parallelowitsch schrieb:
> Jedes Objekt wird mit seiner minimalen Menge an Informationen
> beschrieben die notwendig sind. Buch:
>
> -Größe: zwischen 5 cm und 50 cm.
> -Geometrie: Quader
> -Farbe: strukturiert mit Schrift, eine Seite ist immer Weiß
> -Gewicht: zwischen 50 g und 2 kg
>
> Das sind nur vier unscharfe Zahlen um ein Objet als Buch zu definieren.
> Mehr macht unser Gehirn da nicht.

Der entscheidende Unterschied ist, dass unser Gehirn selbst darauf kommt 
dass das sinnvoll ist; der Roboter kann das nicht.

Autor: Juri Parallelowitsch (Gast)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Andreas Schwarz schrieb:
> JPEG löst es deshalb
> nicht ab, weil es eben nicht 10 Mal so gut ist, sondern nur ein paar %,
> für die es sich nicht lohnt die Kompatibilität über den Haufen zu
> werfen.

Da bist du falsch informiert. Nicht dem glauben was die Firmen in ihren 
Prospekten behaupten! Einfach mal ein normales Foto von einer Digicam 
nehmen 5 MB z.B. jpg komprimiert und noch ansehbar so 200 k - 
waveletkomprimiert 20 k (fast) ohne Datenverlust - einfach selbst mal 
ausprobieren.

Die entscheidende Überlegenheit des Verfahrens beruht auf der Verwendung 
von Ortsfrequenzen die eben bei der FFT zu Salat werden.

Die FFT macht einfach Wurst aus allem, die WLT löst das auf und die 
Informationen werden nicht verwurstet.

Diesen entscheidenden Unterschied kann man nicht einfach wegdiskutieren.

Einfach mal selbst testen und ihr werdet mit zustimmen.

Autor: Yalu X. (yalu) (Moderator)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Im ersten Bild dieses Wikipedia-Artikels kann kann man die typischen
Unterschiede zwischen JPEG und JPEG 2000 schön sehen (Bild anklicken,
bis es in der vollen Auflösung dargestellt wird, vielleicht auch mal
die Bildschirmlupe benutzen):

  http://en.wikipedia.org/wiki/Jpeg2000

Beim JPEG-Bild stören die Blockartefakte, das JPEG-2000-Bild ist
dagegegen an einigen Stellen unscharf und verwaschen. Dadurch gehen
Details verloren, wie bspw. das Gerippe des Blatts links oben in den
Bildern.

Welche der beiden Codierungen bei gleicher Komprimierungsrate letztend-
lich besser aussieht, hängt vom Bildmotiv und dem persönlichen Empfinden
ab. Wird bei JPEG 2000 aber um den Faktor 10 stärker als bei JPEG kom-
primiert, ist der Unterschied nicht mehr nur subjektiv.

Autor: Andreas Schwarz (andreas) (Admin) Benutzerseite Flattr this
Datum:
Angehängte Dateien:

Bewertung
0 lesenswert
nicht lesenswert
Mal ein Beispiel im Anhang. JPEG bei 100k ist mit JPEG2000 bei 70k 
vergleichbar (je nach Geschmack ist das eine oder das andere besser), 
aber JPEG2000 bei 24k sieht einfach scheußlich aus.

Autor: Lasst mich Arzt (ich_bin_durch)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Prinzipiell haben wir schon ein paar Roboter in unserem Haushalt. Die 
Waschmaschine oder der Trockner. Auch den Kühlschrank oder den Herd 
könnte man im entfernten dazu zählen (Temperaturregelung, Zeitschaltuhr 
und bei ganz tollen Kühlschränken die Ablaufsdatumserkennung).

Woran es hapert ist die Koordination der verschiedenen schon vorhandenen 
Roboter und eben das hin- und hertragen der Gegenstände.
Übrigens ist das in den meisten Industriebetrieben auch so. Einige 
unheimlich teure Maschinen die in der Halle stehen und dazwischen, quasi 
als Handlanger, die Arbeiter die Bauteile zur Maschine bringen, danach 
die fertigen Baugruppen abholen und zur nächsten Maschine tragen.

Wenn man jetzt nur das Problem hat die schmutzigen Sachen zur 
Wasch-/Spülmaschine zu bringen kann ich mir folgendes vorstellen:
Die ganz normale Spülmaschine und darüber so etwas wie ein Paternoster, 
der als Geschirrschrank dient.
Oder die im Kleiderschrank integrierte Waschmaschine die Kleidungsstücke 
fertig gebügelt und gefaltet im Schrank ablegt. Möglich ist das, wenn 
man sich überlegt was für Meisterleistungen der Technik in so mancher 
Fabrikhalle stehen. Hängt wohl - wie immer - am Geld und ja billig wird 
das erst mal nicht.

Nun die Lösungen sind natürlich nicht so cool wie ein iRobot oä. die 
hier im Threat so oft genannt werden. Ein Roboter mit Hand und Fuß wirds 
wohl auch weiterhin nicht geben, aber die Erweiterung des eigenen 
"Haushaltsmaschinen-Fuhrparks" ist durchaus heute schon möglich.

Autor: David ... (volatile)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Lasst mich Arzt schrieb:

> Übrigens ist das in den meisten Industriebetrieben auch so. Einige
> unheimlich teure Maschinen die in der Halle stehen und dazwischen, quasi
> als Handlanger, die Arbeiter die Bauteile zur Maschine bringen, danach
> die fertigen Baugruppen abholen und zur nächsten Maschine tragen.

Jo, so siehts aus. Wobei man zB den armen Handlanger mit dem 
Mitgehstapler, der dem Kuka, der die Maschine bestueckt und die Teile 
'handlet', die Paletten bringt und abholt, auch durch was automatisches 
ersetzen koennte. Siehe Hochregallager.
Ich denke aber, dass eine so automatisierte, menschenarme Fertigung 
einfach zu anfaellig ist. Wenn irgendwas schief geht, steht eben die 
Strasse. Bis irgendwer rausgefunden hat, welches Steuergeraet spinnt 
oder wo gerade der Encoder abgeraucht ist.
Menschen koennen sich eben vollautomatisch in Sekunden voellig 
umstellen.

Autor: Dimitri Roschkowski (Firma: port29 GmbH) (port29) Benutzerseite
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Christoph H. schrieb:
> Aktuell läuft dieser Film in den Kinos zum Thema:
> http://www.plugandpray-film.de/
>
> Kann ich für eine kritische Auseinandersetzung mit dem Thema Robotik
> empfehlen.

Den habe ich mir gestern angesehen. Kurzweil hat am am so einiges an 
Technologie versprochen, die in den nächsten Jahren auftauchen wird. Ich 
persönlich halte das alles für Utopie. Ich persönlich hätte zwar nichts 
gegen, dass man selbst zum Cyborg wird und z.B. Roboter-Blutkörperchen 
hat, die defekte Zellen reparieren.

Ich will mal eine Behauptung aufstellen:
Ich finde, dass vor 10 Jahren pro Jahr die Prozessor-Technologie größere 
Fortschritte gemacht hat, als heute. Heute geht es den Herstellern mehr 
darum, den Profit mit möglichst wenig technischen Neuerungen zu 
maximieren. Die Technologie entwickelt sich deshalb in die Richtung, 
dass die Hersteller versuchen mehr Kerne in eine CPU zu pressen. Ein 
Standard-Benutzer wird diese CPU Kerne aber niemals ausreizen können.

Autor: Icke ®. (49636b65)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Dimitri Roschkowski schrieb:

> gegen, dass man selbst zum Cyborg wird und z.B. Roboter-Blutkörperchen
> hat, die defekte Zellen reparieren.

Oh nein, wer LEMs "Lokaltermin" gelesen hat, weiß welche Endkonsequenz 
das hat...

Autor: Christoph H. (mc-entwickler)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
>Den habe ich mir gestern angesehen. Kurzweil hat am am so einiges an
>Technologie versprochen, die in den nächsten Jahren auftauchen wird. Ich
>persönlich halte das alles für Utopie.

Die Thesen von Kurzweil sind übrigens schon erstaunlich alt. Wie so oft 
wurden die grundlegenden Gedanken von Scincefiktion Autoren 
aufgegriffen. Schon 1985 hat Greg Bear dazu folgenden Roman geschrieben:
http://www.amazon.de/Blutmusik-Roman-Greg-Bear/dp/3453010140

Das Thema intelligente Blutkörperchen scheint dann später aufgegriffen 
worden zu sein. Sehr eindrücklich im Roman "Sternen Staub" von Adam 
Roberts:
http://www.fantasyguide.de/1798.0.html

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail, Yahoo oder Facebook? Keine Anmeldung erforderlich!
Mit Google-Account einloggen | Mit Yahoo-Account einloggen | Mit Facebook-Account einloggen
Noch kein Account? Hier anmelden.