Forum: Digitale Signalverarbeitung / DSP / Machine Learning Orthogonale Signale


von Matthias (Gast)


Lesenswert?

Hallo,
was darf ich mir den in der digitalen Signalverarbeitung unter Signalen 
vorstellen die zueinander orthogonal sind ? Warum müssen denn z.B. in 
der DSSS Technik die PN-Folgen zueinander orthogonal seien. Irgendwie 
klingelt es da bei mir nicht! Wäre super wenn mir mal das jemand 
erklären könnte !
Matze

von Nils (Gast)


Lesenswert?

Hallo Matze,

eine sehr allgemeine Fragestellung. Ich hoffe, es bringt Dir etwas, wenn 
ich etwas aushole und versuche die mathematische Sichtweise mit 
Analogien zu erläutern.

> was darf ich mir den in der digitalen Signalverarbeitung unter Signalen
> vorstellen die zueinander orthogonal sind ?

Etwas ähnliches, wie im Anschauungsraum (Euklidischer Vektorraum).
Wie bestimmst Du z. B. Deine Position im Raum?
Du wählst eine orthogonale Basis, gemeinhin (x, y ,z), und fällst die 
Projektion Deiner Position auf diese Basisvektoren.
Das Ganze schreibst Du dann als Vektor.
Warum macht man das so?
Weil die Darstellung dann besonders einfach, d. h. berechenbar ist.
Was sind hier orthogonale Vektoren?
Vektoren, deren Skalarprodukt verschwindet (gleich Null ist). In der 
linearen Algebra kommt hier der Begriff der 'linearen Unabhängigkeit' 
ins Spiel.

In der Signalverarbeitung hast Du es mit Funktionen zu tun; idealerweise 
fast überall stetige Funktionen, d. h. Funktionen, die nur an abzählbar 
vielen Stellen Sprünge aufweisen. Wie z.B. ein Rechteck-Signal, dass Du 
10 s lang aufzeichnest - der Rechteck hat Sprünge, aber eben endlich 
viele.
An dieser Stelle verallgemeinerst Du den Funktionsbegriff und fasst die 
zu analysierende Funktion als Vektor auf.
Warum?
Weil Dir damit der gesamte mathematische Apparat der (linearen) 
Vektorrechnung zur Verfügung steht, also:
- Die Sätze zur Linearität
- Existenzsätze für Gleichungen (Gibt es eine Lösung?)
- Gleichungen lösen -> Matrizenrechnung

Was muss man dazu machen?
1) Den Vektorraum auf (abzählbar) unendlich viele Dimensionen ausweiten
2) Einen Konvergenzbegriff einführen
3) Einen Vektorraum bauen, in dem sich ein Skalaprodukt für Funktionen 
definieren lässt

Diese 3 Punkte führen dazu, die Funktionen in einem Raum spielen zu 
lassen, den man Hilbert-Raum nennt und zwar konkret:
Einen quadratintegrablen, separablen Hilbertraum der 
Zweifach-Lesbeque-Integrablen Funktionen.
Was hat es damit auf sich?
Nun, die Funktionen selbst, also das zu bearbeitende Signal, ist ein 
Vektor.
Der muss:
a) existieren
b) darstellbar sein

... die Funktionen selbst ... Was heißt das?
Das Signal an sich, mit seiner gesamten zeitlichen Entwicklung, also 
Dein Sinus, Dein Rechteck, Dein Dreieck ist ein Ding, dass ich als 
Vektor verstehe - das Signal verstehe ich als eine Pfeil im Raum, einen 
Pfeil mit unenedlich vielen Komponeneten.
Also nicht der Funktionswert, nicht die Abszisse, das Signal als Ganzes 
ist nun ein Vektor.

Was in endlichen Vektorräumen Matrizenrechnung ist, wird hier zur 
Theorie der Operatoren:
Matrix mal Vektor = veränderter Vektor
wird zu
Operator mal Vektor = veränderter Vektor

Mach hier mal einen Schnitt und sieh Dir zwei Dinge an:
1) Least-Square-Fit (Methode der kleinsten Quadrate): Man macht eine 
reale Messung und ermittelt Messwerte, von denen man annimmt, das sich 
eine Gerade durch diese Messwerte legen lässt. Wie macht man das? Indem 
man die mittlere quadratische Abweichung minimiert. Aus Sicht der 
Vektorrechnung: Du machst die Summe der Skalarprodukte aller Messwerte 
minimal.
Man sagt auch: Die Konvergenz im quadratischen Mittel ist ein sehr 
natürlicher Konvergenzbegriff, der technischen Vorgängen recht nahe 
kommt.
2) Differential- vs. Integralrechnung: Klar, Du kannst jeden Vorgang 
durch eine Differentialgleichung beschreiben. Das Problem ist nur, das 
DGLn ziemlich zickig in Bezug auf Sprünge reagieren. Denk mal an ein 
Rechtecksignal - an den Flanken zickt die DGL jedes Mal rum - Du darfst 
jede Zickenstelle einer gesonderten Betrachtung unterziehen.
Demgegenüber sind Integrale sehr gutmütige Wesen, solange die Anzahl der 
Sprünge abzählbar bleibt.

Kurzum, zur Beschreibung und Berechnung der Dinge bietet es sich also 
an, einen Vektorraum zu wählen, in dem sich ein Skalarprodukt auf 
Integral-Basis bauen lässt, das das Konzept des quadratischen Abstands 
berücksichtigt und das ist eben jenes Monstrum 'quadratintegrabler, 
separabler Hilbertraum der .....'.

So. Ist da schlimm?
Nein, denn zu jeder linearen DGL gibt es eine entsprechende integrale 
Formulierung.
Deshalb funktionieren Fourier-, Wavelett- und Laplace-Transformationen, 
die ja allesamt Integraltransformationen sind.

Wie sieht die (orthogonale) Basis dieses Funktionenraums aus?
Im reellen Fundamentalsystem sind es sin und cos, als unendliche Summe 
mit immer kleiner werdenden Perioden.
Warum unendliche Summe? Weil der Vektorraum unendlich viele Dimensionen 
hat.
Warum sind sin und cos orthogonal? Weil sie um 90 Grad versetzt sind, so 
dass das Integral sin(x)cos(x) über eine volle Periode verschwindet (das 
Integral ist ja nun unser Abstandskriterium (*)).
Im komplexen Fundamentalsystem: Klar, die komplexen e-Funktionen mit 
immer kleiner werdenden Perioden.

(*) Denke an die Sätze:
- Abstand = Metrik = Integrale Formulierung im Funktionenraum
- Ein Raum mit Sklarprodukt lässt sich stets metrisieren, d. h. 
ausmessbar machen, per 'Metrik = Wurzel aus Skalarprodukt'

Das riecht schon ziemlich nach Fourier-Entwicklung. Zurück zum 
Ausgangspunkt:
Die Analogie zu 'Wie bestimmst Du z. B. Deine Position im Raum?' ist in 
der Signalverarbeitung:
'Wie stelle ich mein Signal im reellen oder komplexen Fundamentalsystem 
dar?'

Ja wie? Als unendliche Summe aus:
Projektion des Signals auf den jeweiligen Basisvektor mal dem 
Basisvektor

Wann sind Signale orthogonal?
Wenn das Skalarprodukt der Signale verschwindet.
Was ist in einem Funktionenraum das Skalarprodukt aus zwei Signalen a 
und b?
Intergral aus a* mal b über die Zeit.

Uff - das ist in Etwa der grobe Zusammenhang zwischem dem gewohnten 
Orthogonalitätsberiff (Senkrecht) und der Interpretation im 
Funktionenraum (Ist übrigens in der Bildverarbeitung und Quantenmechanik 
das Selbe!).

Zu Spread-Spektrum und PN nur kurz von mir, da das nicht mein Metier 
ist:
So wie ich es verstehe, ist eine der Ideen bei Spread-Spektrum, die 
eigentliche Information mit PNs zu modulieren.
Bei der Auswertung liefert Dir die Orthogonalität zweier benachbarter 
PNs ein Unterscheidungskriterium: das Sklaraprodukt zweier benachbarter 
PNs verschwindet aufgrund der Orthogonalität.
Aber dies sagt mir hier nur mein Laiensinn - man mag mich bitte 
korrigieren.

Gruß,
Nils

von Günter -. (guenter)


Lesenswert?

Wow, Nils, das ist eine super Erklärung. Was hältst du davon das in 
einen Artikel zu kopieren?

von Klaus (Gast)


Lesenswert?

Schöner Artikel Nils!

> Zu Spread-Spektrum und PN nur kurz von mir, da das nicht mein Metier
> ist:
> So wie ich es verstehe, ist eine der Ideen bei Spread-Spektrum, die
> eigentliche Information mit PNs zu modulieren.
> Bei der Auswertung liefert Dir die Orthogonalität zweier benachbarter
> PNs ein Unterscheidungskriterium: das Sklaraprodukt zweier benachbarter
> PNs verschwindet aufgrund der Orthogonalität.
> Aber dies sagt mir hier nur mein Laiensinn - man mag mich bitte
> korrigieren.

Spread-Sprektrum (DSSS) nutzt eigentlich nur eine PN-Sequenz um die 
Energie des Signals über einen möglichst großen Frequenzbereich zu 
verteilen, zu spreizen.

Mehrere orthogonale PN-Sequenzen (in der Praxis eher Barker-, Walsh-, 
Gold-Codes) werden zur Teilnehmerunterscheidung in CDMA-Systemen 
benutzt.

Was Nils schon angesprochen hat ist die Basis eines Vektorraumes. Die 
Basisvektoren eines Vektorraumes lassen sich nicht durch eine 
Linearkombinationen darstellen, eben weil sie orthogonal sind. Auf 
Signale übertragen heisst das, orthogonale Signale beeinflussen sich 
gegenseitig nicht. Ganz praktisch gesehen: Sendet man mit einer Antenne 
zwei orthogonale Signale auf die Reise, können beide Signale im 
Empfänger wieder problemlos getrennt werden (durch die Projektion auf 
die Basisvektoren des Vektorraumes). In herkömmlichen 
Kommunikationssystemen werden die Basisvektoren mit I und Q bezeichnet 
(was nichts anderes als sin() und cos() ist), neuere Systeme wie (W)CDMA 
nutzen andere Basisvektoren, nämlich orthogonale Codes.

Ein weiteres Verfahren ist OFDM, ein Mehrträgerverfahren, d.h. es werden 
mehrere Träger gleichzeitig moduliert auf die Reise geschickt. Durch 
eine geschickte Wahl der Frequenzen der Subträger erreicht man 
Orthogonalität zwischen den Subträgern und die Subträger beeinflussen 
sich gegenseitig nicht. Im Empfänger können die Subträger wieder 
voneinander getrennt werden. Das geschieht durch eine DFT (praktisch 
FFT).

von Matthias (Gast)


Lesenswert?

Auch nochmal von mir vielen Dank für die ausfürhliche Erklärung.
Gruss, Matze

von Gunnar (Gast)


Lesenswert?

Ja Niels, das wäre ne super Sache deinen Beitrag als Artikel zu 
verpacken. Versehrt mit der ein oder anderen Abbildung bzw. Gleichung 
wäre das ne Runde Sache. Alles unter der Permisse, dass du Lust und Zeit 
hast. War jedoch wirklich ne nette Ausführung!

von Nils (Gast)


Lesenswert?

Hallo,

@Günter und Gunnar
> ...dass du Lust und Zeit hast
Lust - ja, Zeit - wenig. Aber im Prinzip ja - wird nur eine Weile 
dauern, zumal ich das letzte Mal vor über 15 Jahren Formeln in LaTEX 
gesetzt habe.
Danke für Euer Lob.

@Klaus
Danke für Deine Ausführungen zu Spread-Spectrum und OFDM. So auf den 
Punkt gebracht habe ich dazu bisher noch nichts gelesen.
Jetzt verstehe auch ich diese beiden Übertragngsraten etwas besser.

Ach ja, noch ein Gedanke, der mir im Nachhinein gekommen ist:
Es ist ja lustig, dass man auch Folgen von diskreten Zufallszahen als 
Vektor in einem Funktionenraum auffassen kann.
Die Idee als solche, die Orthogonalität solcher Folgen und deren 
Erzeugung ist alles andere als trivial.

Gruß,
Nils

von Marcel Dauber (Gast)


Lesenswert?

Netter Thread!
@Klaus Werden solche DSSS Techniken auch in automotive radar systemen 
zur Abstandserkennung und Kollisionsverhinderung eingesetzt ?
Marcel

von Marcel Dauber (Gast)


Lesenswert?

Da hätte ich doch klatt noch ne Frage. Wie gross sind denn in der Regel 
die RN Längen in den verschiedenen DSSS Applikationen, d.h wieviele 
besitzt denn in eine zu rechnende Korrelationsfunktion im Empfanger ?

von Gast (Gast)


Lesenswert?

@Nils: WOW, schoene Zusammenfassung, ggf. sollte/muesste an einigen
Stellen orthonormal statt orthogonal stehen.

Merci an Nils,
Hans

von Andreas S. (andreas) (Admin) Benutzerseite


Lesenswert?

Automotive Radar ist m.W. meistens noch ganz einfaches FMCW-Radar.

Die Code-Länge ist bei GPS (P-Code) zum Beispiel 1023.

von Nils (Gast)


Lesenswert?

@Hans (Gast)
> ggf. sollte/muesste an einigen Stellen orthonormal statt orthogonal stehen.

Ja, das stimmt - aber ich habe das bewusst weggelassen weil hier ja 
sofort die Diracsche-Delta-Funktion ins Spiel kommt.
Während bei der Orthormierung beim 'normalen' Skalarprodukt 0 oder 1 
ausreichen, wird dies ja bei der Normierung in Funktionenräumen zur 
Formulierung per Delta-Funktion. Zwar handhabt man dies oftmals als 
Funktion, oder tut so, als hätte man einen Skalar vor sich - in Wahrheit 
fuchtelt man aber mit einer Distribution herum, also einem Ding, das im 
Integralkern Funktionsargumente vertauscht. Das eigentlich irritierende 
ist, das diese Distribution weder Bestandteil des Funktionenraums, noch 
des skalaren Körpers des Funktionenraums ist.

Man darf nicht vergessen: Als Paul Dirac die Delta-Funktion vor 
vielleicht 80 Jahren im Rahmen der Quantenmechanik bei den Physikern 
solonfähig machte, haben die Mathematiker Knoblauch gegessen, um sich 
vor diesem Vapmir zu schützen. Eine echte Theorie der Distributionen 
entstand erst Ende der 1950er und im Laufe der 1960er mit Einführung der 
'Testräume'.

Aber ich gebe Dir Recht, Hans, es wäre schön, auch das mit Anschauung 
füllen. Da gibt es ja ein paar Ansatzpunkte:
- In der Signalverarbeitung identifiziert man die Delta-Funktion ja 
oftmals mit einem idealen Impuls - unendlich schmal und hoch. Hier 
müsste man versuchen, die Analogie zwischen der 'Endlichkeit' von 
Impulsen und der Definition der Distribution als Integralkern hin zu 
bekommen.
- Wie man die Delta-Funktion auf Werte nagelt, kann man ja auch sagen: 
Indem man die zu distribuierende Funktion mit Funktionen 'einschnürt', 
die schneller abfallen als jede Potenz der Exp-Funktion, also verdammt 
schnell. Das würde zeigen, dass die Delta-Funktion das leistet, was sie 
verspricht.

Letzlich ist man bei Funktionenräumen dann auch sehr schnell bei 
Konvergenzproblemen ("Ist dies eine Darstellung meines Signals und 
approximiert diese Darstellung mein Signal ausreichend?"). In diesem 
Zusammenhang bleibt der Begriff 'Separabel' bei meiner kleiner 
Darstellung ebenfalls im Dunkeln.

Sollte man mal drüber grübeln,

Gruß & Danke,
Nils

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.