Hallo und guten Abend. Beschäftige mich gerade mit Mischern. Mir ist klar warum, und wie es bei der Umsetzung von Frequenzbändern zur Gleich- und zur Kehrlage kommt. Doch wann sollte man einen Mischer in Gleichlage betreiben und wann in Kehrlage? Sprich: Wann kommt das eine, wann das andere zum Einsatz? Mal angenommen ich würde ein Mischer mit Audiofrequenzen betreiben. Und ich würde das Band von 0-20kHz so mischen, dass es anschließend in Kehrlage vorliegt....wie würde das dann klingen? Alles was einst Bass war ist nun bei den Höhen zu finden? (ist nur ein Gedankenspiel, dass das so nicht ohne weiteres machbar ist leuchtet mir ein.) Grüße Markus
Hallo Markus > das Band von 0-20kHz so mischen, dass es anschließend in > Kehrlage vorliegt....wie würde das dann klingen? Ja, im Spektrum sind Höhen und Tiefen vertauscht. Es ist praktisch unverständlich. Falls Java bei Dir richtig installiert ist, kannst Du z.B. hier mal reinhören und zwischen LSB und USB wechseln. http://www.nachtuilen.net/ http://www.websdr.org/ > Doch wann sollte man einen Mischer in Gleichlage betreiben > und wann in Kehrlage? Das hängt von den äußeren Umständen ab, der Mischer macht nur seinen Job. Zu 90% ist es üblich, daß das Oszillatorsignal oberhalb des Nutzsignals liegt. Dabei dreht sich das Spektrum um. Liegt es dann als LSB vor muß es nochmals gedreht werden. Dies geschieht durch einen zweiten Mischvorgang.
Hallo Bernd, danke für die schnelle Antwort noch so spät am Abend :-). B e r n d W. schrieb: > Das hängt von den äußeren Umständen ab Was für Umstände sind das? Meinst du das Empfangene Signal? Ja gut, wenn das schon in Kehrlage daher kommt, dann sollte ich es natürlich durch Mischung wieder drehen. Aber warum kommt es überhaupt in Kehrlage daher? Dazu muss ja jemand bei der Aufwertsmischung auf den Träger bereits sich für die Kehrlage entschieden haben...warum?
>Mal angenommen ich würde ein Mischer mit Audiofrequenzen betreiben. Und >ich würde das Band von 0-20kHz so mischen, dass es anschließend in >Kehrlage vorliegt....wie würde das dann klingen? Das ist eine interessante Frage die ich mir so auch schon gestellt habe. Für einzelne Frequenzen lässt sich soetwas einfach rechnen. Für ein komplexes Signal (bestehend aus vielen überlagerten Sinussignalen) lässt sich das ganze nur noch schlecht nachvollziehen. >Alles was einst Bass war ist nun bei den Höhen zu finden? Vom Prinzip her würde ich mir das so vorstellen. Rein mathematisch sollte das auch so sein. Also wenn sich die Kehrlage genau so aufs Basisband zurückmischen lässt. Aus einem unendlich lang andauernden Sinussignal mit einer Frequenz von 1Hz würde dann ein unendlich lang andauerndes Sinussignal mit einer Frequenz von 19.999Hz. Aus einer unendlich lang andauernden Gleichspannung würde ein unendlich lang andauernder Sinus mit einer Frequenz von 20.000Hz. >(ist nur ein Gedankenspiel, dass das so nicht ohne weiteres machbar ist >leuchtet mir ein.) Warum sollte das nicht machbar sein? Mathematisch müsste das möglich sein. Im einfachsten Fall macht man von einem Zeitsignal eine DFT. Im Frequenzbereich tauschet man dann Höhen und Tiefen aus und transformiert das Signal zurück in ein Zeitsignal. 20kHz --> 0 Hz 0 Hz --> 20kHz ? Die Frage ist nur, wie man eine Musikdatei decodiere und anschließend wieder codiere. Für eine DFT bräuchte man die Daten z.B. als csv-Datei. Man müsste nur mal definieren, wie sich die Phasenlage verändert. Hierrüber habe ich mir jetzt keine Gedanken gemacht.
> Was für Umstände sind das? Im Amateurfunk ist es üblich, das Frequenzen unter 10MHz als LSB und Frequenzen oberhalb als USB vorliegen. Das hat geschichtliche Hintergründe. Mit den frühen, selbstgebauten Empfängern konnte man dadurch mit einem Oszillatorbereich zwei Bänder abdecken. > Man müsste nur mal definieren, wie sich die Phasenlage verändert. > Hierrüber habe ich mir jetzt keine Gedanken gemacht. Das Signal sieht im Zeitbereich vollkommen anders aus. Falls die Phase erhalten bleibt und zweimal gedreht wird, sollte das Originalsignal wieder herstellbar sein. Auch mathematisch bleibt ja im transformierten, komlexen Signal die Phase erhalten. Bei einem mp3-File braucht man nicht erwarten, daß etwas wieder so hergestellt wird, wie es mal war. Das Signal bleibt für immer zerstümmelt. Das Ganze sollte sich auch mit LTspice simulieren lassen. Ein wav File einlesen, Simulation laufen lassen und als zweiten wav File speichern. Jedoch würde bei mehr als ein paar Sekunden die Simulation zu lange dauern.
Die Qualität, Markus, die Qualität!
> Was für Umstände sind das?
Die Qualität des Ergebnisses.
Die Schwierigkeit: RF- und Oszillatorsignal mischen sich nicht nur auf
der jeweiligen Grundwelle, sondern da mischen sich sämtliche Oberwellen
beider Signale.
Mischung ist nun mal ein nichtlinearer Vorgang.
Also sucht man sich Frequenzlagen, wo möglichst wenig Mischsalat
vorkommt.
Also möglichst hohe Frequenzen, und die am Besten auch noch im
Verhältnis zweier Primzahlen.
Du kannst Dir schon mit einer Excel-Tabelle den Mischsalat anschauen,
wenn Du die Summen und Differenzen der einen beliebigen Oberwellen mit
denen der anderen summierst.
Du findest auch bei Mischer-Herstellern Angaben, wo die Mischprodukte
besonders stark ausfallen.
Allerdings misst man die besser selbst.
Ciao
Wolfgang Horn
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.