Forum: Digitale Signalverarbeitung / DSP / Machine Learning Spatial Aliasing vs. spatial Sincfunction


von Peter K. (peter26)


Lesenswert?

Hallo,

Ich beschäftige mich scho einige Zeit mit Beamforming und im speziellen 
möcht ich mir gern die Auswirkungen von spatial Aliasing erklären bzw. 
wie es im genauen zustande kommt d.h analog zum Zeit,Frequenzbereich 
kommt es ja auch zu einer Fehlinterpretation im Raum,Richtungsbereich 
(k-space) jedoch nicht in der Frequenz sondern in der Richtung.

Wenn ich nun einen Beamformer (z.b.: Linienarray mit 2 Mikrofonen, 
ungerichtet) betrachte dann ergeben sich über die Frequenz nicht nur 
Beams in 0,0 Richtung (Azimuth,Elevation) sondern auch bei 90,0 oder 
-90,0 -> entspricht dann einer Fehlinterpretation in der Richtung 
(räumliches Aliasing). Betracht ich mir jedoch in einer Simulation das 
Verhalten dieser Seitenkeulen so zeigt sich das diese Sincverhalten 
haben und bei der Frequenz welche laut theoretischer Formel -> Abstand 
zw. Mikrofonen muss <= lambda/2 berechnet wurde zeigt sich jedoch kein 
Maximum der Sincfunction sondern eine Minimum -> es tritt kein Beam nach 
aussen auf sondern nach innen, heisst das nur das das Array zwar 
sensible gegen Richtungen von 90,0 bzw. -90,0 ist aber phasengedreht ?



Bitte um Kommentare zu diesen Behauptungen.

Dankeschön.

lg Peter

von Michael (Gast)


Lesenswert?

Hm, ganz klar geworden ist mir deine Beschreibung nicht.

Aliasing tritt ja immer dann auf, wenn man eine "Unterabtastung" hat. Im 
Zeitbereich von Signalen wenn die zeitliche Auflösung kleiner ist als 
die schnellste Änderung im Signal.
Spatial Aliasing tritt ja als Moiree Effekt in Bildern auf - das meines 
Verständnisses mit einer räumlichen Unterabtastung zu tun.

In dem Fall (90,0) und (-90,0) hast Du, soweit ich das verstehe, eine 
Symmetrie deiner Anordnung mit einem Linearray aus 2 Mikros. Hier kannst 
Du nur eine Komponente unterscheiden. (Du hast zwar Azimuth und 
Elevation genannt, nicht aber wie die Mikros genau liegen.)

Schau mal bei Wikipedia unter Wellenfeldsynthes nach
http://de.wikipedia.org/wiki/Wellenfeldsynthese
da ist der Effekt bei der Reproduktion von Schallfeldern mit einem 
Zeilenstrahler beschrieben.

von Peter K. (peter26)


Lesenswert?

Hallo,

Naja die Materie ist auch nicht so einfach zu erklären ;-)

Was ich ja mit meinem Mikrofonarray mache ist nichts anderes als eine 
räumliche Abtastung einer Schallwelle ... und ist der Abstand der 
Mikrofone zu gross wird die Welle aus bestimmten Richtung je nach 
Wellenlänge nicht genug abgetastet und damit ergibt sich also eine 
Sensibilität des Array nicht nur in der gewünschten Richtung sondern 
auch wie hier in 90,0 und -90,0 ... aber was ich nicht ganz verstehe ist 
die Phase bzw. Gruppenlaufezeit.


Jap hast natürlich völlig recht mit meiner Angabe ... das Array ist ein 
Linienarray welches auf der Y-Achse liegt und im 
Koordinatensystemmittelpunkt liegt also:

M1 = 0 -0.5 0;
M2 = 0 +0.5 0;

mit einem Steeringvektor von stvect=[10 0 0] also fernfeldgerichtet.

Mit 90,0 bzw. -90,0 meinte ich die Richtung der Beams welches sich 
fälschlicher Weise ergeben.

lg

von Andreas S. (andreas) (Admin) Benutzerseite


Lesenswert?

Wenn die Mikrofone im Abstand lambda/2 sind und du sie einfach addierst, 
dann bekommst du bei +- 90° eine Null im Pattern, da die 
Phasenverschiebung zwischen den Mikrofonen 180° ist. Das hat deine 
Berechnung richtig ergeben, wie kommst du darauf dass das falsch sein 
sollte?

von Peter K. (peter26)


Lesenswert?

Hallo,

Ich weiss nicht hab irgendwie a Denkproblem bei der Phase ... der Betrag 
ist mir klar ... variiert zwischen 0 und doppelter Amplitude hab ich mir 
das mit der Phase nicht erklären können. Warum die Phase den bei 
völliger Auslöschung 180 Grad sein soll ... hab mir das ganze jetzt 
zeitlich einfach durchsimuliert und gemerkt das es immer zu 0:pi 
Phasenverschiebungen kommt wobei genau bei der Auslöschung der Sprung 
auf 0 zurück ist ... zweifle nur ein wenig an meiner Simulation da ich 
nur Phasenwerte von 0 oder pi bekomme und nichts dazwischen.

von Andreas S. (andreas) (Admin) Benutzerseite


Lesenswert?

Überleg einfach was an den Mikrofonen passiert wenn das Signal von 90° 
kommt. Beim zweiten Mikrofon ist die Welle dann genau um eine halbe 
Wellenlänge später als beim ersten, also genau mit umgekehrtem 
Vorzeichen (=gegenphasig, =180° phasenverschoben). Bei der Addition 
kommt deshalb Null heraus.

Zur Simulation kann man nichts sagen wenn man den Code nicht sieht.

von Peter K. (peter26)


Lesenswert?

Hab schon herausbekommen warums nicht klappt ... hab nur mittels cosinus 
cos(w*t) simuliert is dann klar das ma nur 0 und 180 Grad sieht ;-) ... 
jetzt mittels komplexen Signalen ... Dankeschön

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.