Forum: Offtopic unsere Augen viel träger als unsere Ohren?


von daniel (Gast)


Lesenswert?

Hallo,

die wahrnehmbaren Frequenzen im akustischen Signal sind ca im
Bereich 20-18000 Hz, für Frequenzen darüber ist wohl unser
Ohr biomechanisch zu träge.
Es hat zur Konsequenz, dass wir mindestens mit 44100 Hz
ein akustisches Signal abtasten.
Um ein optischen Eindruck von der umgebenden Wirklichkeit zu
erfassen, begnügt sich unser Auge schon mit 25 Hz.
Wenn ich mich nicht täusche, war die Bildfolge in alten
TV Geräten 25 mal pro Sekunde. Um es so wirklich angenehm zu
machen, gehen wir bei den Bildschirmen auf 80Hz.
Trotzdem ein Riesenunterschied.
Weiss jemand wie man sich das biologisch oder informationstechnisch
erklären kann?
Ich hab eine Vermutung, dass die Optischen Daten pro Bild
viel mehr Information (Bytes) beanspruchen, im Vergleich
zu ca 2 Byte bei 44.1kHZ (bitrate ca 705kbit/s)
Wenn man annimmt, dass die Übertragungskanäle (Nerven) eine
feste obere bitrateschranke haben, würde daraus folgen dass
die Frequenzansprüche runtergeschraubt werden müssen.
Schwachsinn? Dann Eure Argumentation bitte.

Bis dann, Daniel

von Der Albi (Gast)


Lesenswert?

Schwachsinn.
Meine Argumentation: Die Bildenstehung im Auge ist eine chemische 
Reaktion. Ein Lchtempfindlicher Stoff zerfällt und reizt dabei die 
Stäbchen bzw Zapfen. Dass diese chemische Reaktion träger verläuft, als 
das Schwingen der Mechanik im Ohr ist wohl klar.
Das Auge hat aber trotzdem was Gutes: Es ist so empfindlich, dass es nur 
wenige Photonen (13 oder so) pro Sekunde benötigt um Ein Bild zu 
empfangen. (natürlich pro Stäbchen) Wer diese geringe Anzahl nicht 
glaubt, soll sich abends mal im Dustern draußen hinstellen, und in den 
dunklen Wald schauen. Das Bild, was man sieht, ist verrauscht (so, wie 
man es  von Digitalen Bildern kennt). Es kann aber nur rauschen, wenn 
die Frequenz der Photonen unter 25Hz ist, sont wäre es gleichmäßg (wegen 
angesprochener Trägheit).
Wenn man da mal die Übertragene Energie mir der Mechanischen Energie der 
leisesten Schallwellen vergleicht, ist das definitiv ein Unterschied zu 
Gunsten des Auges.

Mit Datentransfer hat das alles also nix zu tun. Wenn dein Auge einen 
schneller reproduzierbaren und zerfallenden lichtempfindlichen Stoff im 
Auge hätte, würde es auch noch bei 100Hz-Fernsehren ein Flimmern sehen.

MFG

von Thorsten (Gast)


Lesenswert?

Hallo Daniel,
irgendwie kann ich Deine Argumentation nicht ganz nachvollziehen - wenn 
Du schon Frequenzen vergleichen willst, müsstest Du das beim Auge ja 
auch tun (sichtbares Licht hat ca. 10^14 Hz, wenn ich mich nicht 
verrechnet habe). Was natürlich genauso Schwachsinn ist, wie anzunehmen, 
unser Gehör würde den Schall mit 44100 Hz samplen. Der Mensch hört Töne 
nicht als Zeitsignal, sondern eher als Spektrum (z.B. hörst Du beim 
Anschlagen einer Stimmgabel ja nicht 440 Schwingungen/Sekunde, sondern 
Du nimmst eine bestimmte Tonhöhe wahr - also eine Information statt 
44100...). Daher ist das menschliche Gehör auch sehr unempfindlich für 
Phasenverschiebungen - Du kannst die Phasenlage zweier überlagerter 
Signale nicht hören (wenn sie nicht konstruktiv oder destruktiv 
interferieren und die Phasenlage dadurch als Änderung der Amplitude 
hörbar wird).
Gruss,
Thorsten

von Paule (Gast)


Lesenswert?

Führt euch bitte vor Augen (und vor Ohren) daß ein "Bild" aus diversen 
Punkten besteht, die 3 Freuenzspektren erfassen können. Das Ohr hat nur 
2 Punkte mit jeweils einigen hundert Freuquenzen spektraler Anteile.

Beiden ist übrigens gemein, daß sie kurz oberhalb des Rauschens agieren: 
Wäre unsere Gehör etwas empfindlicher als die tpyischen 18-20dB , so 
würden wir das trommeln der Lufttelchen hören! Wären unsere Augen etwas 
schneller, würden wir die einzelen Photonenrekationen sehen - also 
blinken. Manchmal kann man das aber trotzem: Blickt man auf eine 
halbdunkle, schwach gemusterte Fläahce und hat hohes am-bientes Licht, 
können manche Menschen ein Rauschen sehen. Andere nennen es Gries. Es 
flimmert wie ein etwas schlechteres Fernsehbild. Mit hochauflösenden 
Sensoren, lässt sich das auch messen.

Zur Bandbreite: Ich meine, der Sehnerv hätte etwa 100MBit und kann etwa 
2-3% des bildinhaltes transportiren, den die Augen wahrnehmen, Daher 
wird vile gefiltert und vom Gehirn dazugedichtet. Z.B. nimmt das Gehirn 
eine Drehung noicht voll über eine bilddrehung war, sondern auch über 
das Innenrohr: Wenn das Gehirn meint, der Kopf bewegt sich, dreht es das 
Bild von ganz alleine, es benötigt alsno icht die vielen Punkte, die ein 
Kamera benötigt um ein drehenes Bild zu zeigen. Das ist etwa so, wie ein 
gute Volume Render Engine!

von Bärenjäger (Gast)


Lesenswert?

Seine Trägheit macht das Auge durch seine Bandbreite und Auflösung mehr 
als wett.
Unterm strich übertrift sein Datenfluss(InfoStream) den des Ohres um 
Größenklassen. Ab 6 aufwärts.

Ein Tag ohne Hören ist unangenehm. Ein Tag ohne Sehen überstünden die 
wenigsten von uns ohne Schaden zu nehmen.

von Jan (Gast)


Lesenswert?

Wie die anderen schon sagten, Daniel vergleicht Äpfel mit Birnen. Machen 
wir doch mal eine Tabelle:
                  Auge                Ohr
Frequenzbereich   390 - 750nm         16 - 20000 Hz
"Bildrate"        30 Bilder/s         20 Töne / s
Empfindlichkeit   1E-2 - 1E5 cd       0 - 160dB
Auflösung         ca 10 Mio Farben    0,1Hz -> 200kTöne
Sensorenzahl      260 Mio             ?


Bitte um Ergänzung / Berichtigung


von Christoph Kessler (db1uq) (Gast)


Lesenswert?

RAP hat sich mal mit dem Thema "Dynamikumfang von Auge und Ohr"befasst:
http://www.elecdesign.com/Articles/ArticleID/6059/6059.html
und mit Reaktionstzeiten des Menschen:
http://www.electronicdesign.com/Articles/ArticleID/6061/6061.html

von Paul Baumann (Gast)


Lesenswert?

Nach dem Genuß von 5 Glas Bier sind die meisten Leute reaktionsschnell 
wie
ein Kachelofen. :-)

Übrigens: Schlecht hören kann ich gut, bloß gut sehen kann ich schlecht.

MfG Paul

von Feadi (Gast)


Lesenswert?

Aber es ist doch von einem Monitor die Rede, oder nicht? Der hat eine 
Phosphorschicht die einmal angeregt das Licht über einen kleinen 
Zeitraum weitersendet, was die meisten hier wissen werden. Angeblich 
kann aber eine Fliege die ganzen Einzelbilder auch einzeln sehen, für 
die Fliege gibt es im Fernsehen keine flüssigen Bewegungen.

> Ein Tag ohne Hören ist unangenehm. Ein Tag ohne Sehen überstünden die
> wenigsten von uns ohne Schaden zu nehmen.

Bitte begründen. Ich persönlich finde einen Tag ohne hören ist schon 
etwas ganz feines. Ein Tag ohne sehen ist warscheinlich ein bischen öde.

> Es kann aber nur rauschen, wenn
> die Frequenz der Photonen unter 25Hz ist

Der Sensor selbst (Auge und Ohr) hat aber auch ein gewisses 
Eigenrauschen. Hat das mal jemand bedacht?

von Nico Schümann (Gast)


Lesenswert?

@Paule:

Hast du zu dem Gries irgendwie nähere Informationen? Das klingt nämlich 
interessant.

Bis dann,
Nico

von Der Albi (Gast)


Lesenswert?

Das Eigenrauschen sieht man, wenn man die Augen schließt und alles tut, 
damit kein Licht (nichtmal an die Augenlieder) kommt. Das "Schwarz", das 
man sieht, ist das Eigenrauschen, durch den natürlichen Zerfall des 
lichtempfindlichen Stoffes. Das Rauschen der einzelnen Photonen sieht 
man wie schon ein zweites mal gesagt, wenn es nicht ganz dunkel ist, 
aber dunkel genug um fast nix mehr zu sehen.
Viele nähere Informationen gibt es dazu glaube ich nicht... einfach mal 
ausprobieren.
MFG

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.