Vor allem würde mich interessieren, ob wir mit Sensoren schon alles erkennen können, was der Mensch mit Augen und Ohren erkennt. Und das eigentliche Phänomen noch darin besteht, wie unser Gehirn das alles umrechnet, berechnet und zusammenfügt? Oder sind wir selbst beim Nachbauen von Sensoren noch weit hinten dran? Ein Mikrofon kann ja schon Geräusche "hören", eine Kamera aufnehmen wie ein Auge. Sensoren, die Abstand erkennen oder IR sind dem Menschen ja wiederum voraus. Wer kann mir einen kurzen Überblick über den Fortschritt der technischen Entwicklung dahingehend geben?
Roman K. schrieb: > Vor allem würde mich interessieren, ob wir mit Sensoren schon alles > erkennen können, was der Mensch mit Augen und Ohren erkennt. Das ist weniger eine Frage der Sensoren, sondern der Verarbeitung im Gehirn. Das menschliche Auge ist viel schlechter, als eine heutige Kamera und das Ohr viel schlechter als ein Mikrofon. Erst das Gehirn ist in der Lage, Störungen auszublenden und Fehler zu korrigieren. Der Mensch kann auch die Sinne kombinieren, d.h. ein Bild aufgrund von Geräuschen zuordnen und umgekehrt. Z.B. läßt sich Sprache besser verstehen, wenn man dem Gegenüber ins Gesicht schaut. Roman K. schrieb: > Sensoren, die Abstand erkennen oder IR sind dem Menschen ja wiederum > voraus. Die Pannen beim autonomen Fahren zeigen aber deutlich, daß die besten Sensoren nichts nützen, wenn dem verarbeitenden System die Erfahrung fehlt.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.