Forum: Digitale Signalverarbeitung / DSP / Machine Learning Stimmt das was Wikipedia über den DSP sagt?


von Disk F. (diskflopper)


Lesenswert?

Hallo liebes Forum,

Ich muss ein Referat über Soundkarte halten. Nach dem CODEC brauche ich 
noch eine einfach Antwort darauf ob ich mit der Annahme was ein DSP kann 
richtig liege.


Im Grunde Verarbeitet der DSP das binäre Signale das vom AD-Wandler 
kommt und komprimiert es. Danach wird es im RAM zwischengespeichert und 
auf der Festplatte abgespeichert. Dabei greift der DSP auf den ROM zu 
indem Befehle/Programme für Verarbeitung abgelegt sind.


Korrigiert mich wenn das falsch ist!

Nun liest man auf Wikipedia das der DSP, noch viel mehr kann:


Frequenzfilter hoher Ordnung mit geringem Phasenfehler (z. B. 
Klangbeeinflussung beim Abmischen und in Mischpulten)

Dynamikkompression und Rauschunterdrückung mit dynamischen (adaptiven) 
Parametern

Störaustastung unter Berücksichtigung des Charakters des Signales

Implementierung von Effekten wie Echo, Hall oder Verfremdung von Stimmen

Echounterdrückung

Spracherkennung und Sprachsynthese

Messungen in Oszilloskopen

(Datenkomprimierung zur digitalen Weiterverarbeitung)

(Schnelle digitale Bildbearbeitung)

Ist das korrekt?

Grüße,

Diskflopper

von M2M (Gast)


Lesenswert?

Ja, je nachdem wie der DSP programmiert wurde, kann er ein oder mehrere 
Aufgaben aus der Liste erledigen.

von M2M (Gast)


Lesenswert?

Auch die Leistungsfähigkeit des DSP spielt eine Rolle. DSPs gibt es in 
einer Vielzahl von Hardwarevarianten. DEN einen DSP gibt es nicht.

von J. S. (engineer) Benutzerseite


Lesenswert?

Disk F. schrieb:
> Messungen in Oszilloskopen

Das passt hier irgendwie nicht rein und wenn muss da noch erheblich mehr 
rein.

DSPs sind praktisch überall drin, wenn man es so sieht.

Da, wo es aber WIKI suggeriert, nämlich in Audio-APPs sind sie immer 
weniger drin :-)

von Manfred (Gast)


Lesenswert?

Disk F. schrieb:
> Ich muss ein Referat über Soundkarte halten.

Vor dem Referat gibt es hoffentlich noch ein paar Stunden 
Deutschunterricht - Dein Geschreibsel hat den bitter nötig.

> Im Grunde Verarbeitet der DSP das binäre Signale das vom AD-Wandler
> kommt und komprimiert es. Danach wird es im RAM zwischengespeichert und
> auf der Festplatte abgespeichert.

Das würde ich so nicht schreiben, vielleicht sogar als falsch 
bezeichnen.

Der Digitale-Signal-Prozessor bearbeitet ein Signal. Was er mit dem 
Signal tut, hängt von der Anwendung und damit seiner Programmierung ab.

Der DSP als fertiges IC wird oftmals den AD-Wandler beinhalten, der 
nimmt also direkt das analoge SIgnal entgegen.

Ob ein Signal komprimiert wird oder nicht, hängt auch wieder an der 
Anwendung: Will ich ein .wav oder ein .mp3 speichern? Gerade beim .mp3 
gehe ich davon aus, dass das nicht auf der Soundkarte gerechnet wird, 
sondern man es die CPU des PCs machen lässt.

Warum muß ein Signal auf die Festplatte gespeichert werden? Aktuell 
läuft auf meinem PC SAT-TV, da wird der von Astra digital angelieferte 
Ton einfach nur zum Lautsprecher ausgegeben, vorweg lediglich der 
Frequenzgang verändert.

Ich denke, für einen qualifizierten Vortrag musst Du deutlich tiefer 
einsteigen.

von Irgend W. (Firma: egal) (irgendwer)


Lesenswert?

DSP heißt erstmal nur ganz allgemein "Digitaler Signal Prozessor"
Das sagt noch nichts darüber aus um welche Art von Signalen es sich 
überhaupt handelt und erst recht nichts darüber was ein etwaiges 
Programm mit den Daten anstellt. Geben tut es die von kleinen Standard 
µC die vom Marketing DSP genannt werden weil sie auch eine FPU besitzen 
bis hin zu irgendwelchen Spezialbausteinen für einzelne ganz Spezielle 
Anwendungen.
Entscheidend ist am ende die Software die darauf läuft, die Hardware 
muss nur schnell genug sein alles im gegebenen Zeitrahmen abarbeiten zu 
können.

Es kann sein das es sich z.B. um eine Audiosiganl handelt das z.B. 
mittels mp3-encoder eingedampft werden soll. Es kann aber auch eine 
Autosignal sein das mittels eines (software)Equalizer bearbeitet wird. 
Oder aber es kann auch eine ganz andere Art von Signal als Audio sein 
die hier irgendwie verarbeitet wird.

von Gretel (Gast)


Lesenswert?

Das was im HiFi-Laden als DSP verkauft wird, hat nichts mit dem
Bauelement DSP zu tun, ausser das in der HiFi-DSP-Kiste einer oder
mehrere DSPs als Bauelement vor sich hin werkeln.
Das könnten aber genauso gut auch FPGAs oder eher schlecht ganz
normale Controller sein.

Was ein DSP kann?
Für das historische Quellenstudium:

Intel 2920
Texas Instruments TMS320C10
Motorola 56000

von (prx) A. K. (prx)


Lesenswert?

DSP ist der Oberbegriff für Prozessoren, die nicht für allgemeine 
Aufgaben vorgesehen, sondern auf die Verarbeitung von Signalen optimiert 
sind.

Ein CODEC ist eine von vielen Aufgaben, für die man DSPs nutzen kann.

von Disk F. (diskflopper)


Lesenswert?

Danke für die Antworten:

Hier das was ich gefunden habe, wie würdet ihr es denn erklären? 
Erklärung muss nicht mal in die Tiefe gehen, da es sich nur um einen 10 
Minuten Vortrag handelt.



Erklärung aus meinem Schulbuch:

DSP ist die Abkürzung für Digital Signal Prozessor und bezeichnet 
allgemein einen Prozessor, der spezielle für die Verarbeitung von 
digitalen Signalströmen geeignet ist. Im Zusammenhang mit der Soundkarte 
ist ein spezieller Prozessor zur Verarbeitung von Audioinformationen 
gemeint. Ein solcher DSP ist in der Lage, in Kombination mit einem 
Software-Synthesizer beliebig akustische Signale (Töne, Klänge, 
Geräusche) mit unterschiedlichen Verfahren zu erzeugen. Digitalisierte 
Klänge benötigen sehr viel Speicherkapazität Sk, da ein akustisches 
Signal regelmäßig in sehr kurzen Zeitabständen abgetastet werden muss 
und diese Abtastwerte dann digital gespeichert werden. Der 
Speicherbedarf in Byte eines digitalisierten Signals errechnet sich 
zu...




http://audio-lexikon.com/analog-digital/interne-externe-soundkarte/

Abbildung 2 zeigt die rudimentäre Funktionsweise einer Soundkarte, egal 
welcher Bauart. Über den Input (Mic- /Line-Eingang) gelangt ein analoges 
Audiosignal, eine Wechselspannung, in die Soundkarte. Handelt es sich um 
ein Mikrofonsignal muss dieses noch per Preamp verstärkt werden. Ein 
Line-Signal (z.B. aus dem Keyboard) ist bereits laut genug und würde bei 
Verstärkung Clippen. Anschließend wird die Spannung per AD-Wandlung in 
ein binäres Signal umgewandelt. Jene Samples können nun intern in der 
Soundkarte mittels ihres Digitalen Signal Prozessors bearbeitet werden 
(Es könnte hier zum Beispiel ein Hall beigefügt werden). Soll die 
Bearbeitung mittels des CPU erfolgen, so werden die Samples an diesen 
mit einer bestimmten Sample Buffer Size (SBS)per Datenbus (z.B. PCI) 
weitergereicht. Bei guten Soundkarten lässt sich die Sample Buffer Size 
einstellen, hierbei muss ein Kompromiss aus zwei verschiedenen Fakten 
gefunden werden:

Wird die SBS zu groß gewählt kommt es zu Latenzen, da Änderungen am 
Audiomaterial erst später in den nächsten Buffer kommen (bei kleiner 
Buffersize ist quasi die Frequenz der Bearbeitung höher).
Wird die SBS zu klein gewählt kommt es zwar zu geringen Latenzen, es 
kann jedoch sein, dass der Computer mit dem Schreiben (bei der 
Audiowiedergabe) bzw. mit dem Lesen (bei der Audioaufnahme) der Samples 
nicht hinterherkommt — es entstehen plötzliche Momente der Stille welche 
sich auf Grund von drastischen Audiosprüngen als Plops oder Knackser 
bemerkbar machen.
Über den Kontrollbus einer Soundkarte lässt sich zum Einen ein interner 
Mixer direkt ansteuern (falls dieser vorhanden ist), zum anderen lassen 
sich per MIDI Schnittstelle Befehle an eine Digital Audio Workstation 
geben.

Die Samplingrate einer Soundkarte gibt an, wie oft die AD-Wandler ein 
analoges Signal pro Sekunde abtasten können. Eine hohe Samplingrate 
macht unter Umständen bei der Audiobearbeitung Sinn, siehe hierfür 
unseren Artikel A/D-Wandler und D/A-Wandler.

Die Bauart einer Soundkarte beschreibt, ob es sich um eine interne oder 
externe Soundkarte handelt. Im folgenden wird zunächst die externe und 
dann die interne Soundkarte berschrieben.

https://www.ibr.cs.tu-bs.de/courses/ws9798/seminar/haverkamp/seminar.html

Abbildung 3 zeigt den prinzipiellen Aufbau eines DSP-Systems, welches 
beim Integrationsgrad heutiger ICs mit nur wenigen Bauteilen auskommt. 
Ein solches System könnte z.B. zur Realisierung eines digitalen Filters 
verwendet werden.

Das zeit- und wertekontinuierliche Analogsignal wird so umgewandelt, daß 
am Eingang des DSP ein digitales Signal vorliegt. Der Tiefpaß am Eingang 
des A/D-Wandlers sorgt dafür, daß das Abtasttheorem stets erfüllt ist.

Die eingehenden Messwerte (Samples) werden vom DSP verarbeitet und am 
Ausgang zum D/A-Wandler geführt. Am Ausgang des Tiefpaßses liegt nach 
der D/A-Wandlung wieder ein zeit- und wertekontinuierliches Analogsignal 
an.

Weiter Forum Beitrag:

DSPs sind eigentlich dazu gedacht, das Signal zu verarbeiten. z.B. 
Frequenzfilterung, Implemtierung von Effekten (Echo, Hall, ...) oder 
Spracherkennung. Bei Techniken wie z.B. EAX oder A3D wurden DSPs in den 
Soundchip integriert aber aufgrund der Tatsache, dass sowas heutzutage 
CPU-seitig erledigt werden kann und es auch noch kaum standisierte 
Schnittstellen gibt, um Hardware-DSPs anzusprechen, bestehen Soundchips 
heutzutage überwiegend noch noch aus einem D/A-Wandler für die Ausgänge 
und ein A/D-Wandler für die Eingänge. Siehe dazu auch den AC'97- oder 
HD Audio-Standard von Intel.


https://computer.howstuffworks.com/sound-card3.htm

Digital Signal Processor (DSP): Like a graphics processing unit (GPU), a 
DSP is a specialized microprocessor. It takes some of the workload off 
of the computer's CPU by performing calculations for analog and digital 
conversion. DSPs can process multiple sounds, or channels, 
simultaneously. Sound cards that do not have their own DSP use the CPU 
for processing.

https://en.wikipedia.org/wiki/Digital_signal_processor

A digital signal processor (DSP) is a specialized microprocessor (or a 
SIP block) chip, with its architecture optimized for the operational 
needs of digital signal processing.[1][2] DSPs are fabricated on MOS 
integrated circuit chips.[3][4] They are widely used in audio signal 
processing, telecommunications, digital image processing, radar, sonar 
and speech recognition systems, and in common consumer electronic 
devices such as mobile phones, disk drives and high-definition 
television (HDTV) products.[3]

The goal of DSP is usually to measure, filter or compress continuous 
real-world analog signals. Most general-purpose microprocessors can also 
execute digital signal processing algorithms successfully, but may not 
be able to keep up with such processing continuously in real-time. Also, 
dedicated DSPs usually have better power efficiency, thus they are more 
suitable in portable devices such as mobile phones because of power 
consumption constraints.[5] DSPs often use special memory architectures 
that are able to fetch multiple data or instructions at the same time. 
DSPs often also implement data compression technology, with the discrete 
cosine transform (DCT) in particular being a widely used compression 
technology in DSPs.

https://de.wikipedia.org/wiki/Digitaler_Signalprozessor

Ein digitaler Signalprozessor (engl. digital signal processor, DSP) 
dient der kontinuierlichen Bearbeitung von digitalen Signalen (z. B. 
Audio- oder Videosignale). Zur Verarbeitung von analogen Signalen wird 
der DSP in Verbindung mit Analog-Digital-Umsetzern und 
Digital-Analog-Umsetzern eingesetzt.

https://www.elektronik-kompendium.de/sites/com/0509261.htm:

Der ADC sendet die binären Datenströme an den digitalen Signalprozessor 
(DSP). Er entlastet den Prozessor des Computersystems vor Arbeiten mit 
den Sound-Daten. Der DSP enthält Befehle und Anweisungen mit denen er 
die Sound-Daten verarbeitet. Da Sound-Daten sehr große Datenmengen sein 
können, übernimmt der DSP z. B. auch die Komprimierung der empfangenen 
Daten. Diese Daten werden dann in einem bestimmten Format (z. B. WAV, 
MP3, etc.) vom Arbeitsspeicher auf die Festplatte geschrieben.

Um digitalisierte Sound-Daten durch die Soundkarte wiederzugeben werden 
die Daten vom Prozessor von der Festplatte oder von einem 
Wechselspeicher-Laufwerk gelesen. Diese Daten werden in den DSP geladen. 
Der DSP dekomprimiert die Daten und sendet sie zum 
Digital-Analog-Konverter (DAC), der aus den binären Daten analoge 
Signale erzeugt. Das analoge Signal wird dann verstärkt und über die 
Buchsen an die Lautsprecher ausgegeben. Die Qualität der Tonwiedergabe 
wird durch die Qualität der Klangaufnahme, dem DAC und den Lautsprechern 
bestimmt.

https://www.it-surfer.de/hardware/grundlagen/soundkarte/:

Der digitale Signalprozessor berechnet das Audio-Signal anhand binärer 
Informationen (0 und 1). Deshalb ist ein Konverter erforderlich, der ein 
eingehendes analoges Signal in ein digitales umwandelt. Ebenso muss das 
vom DSP berechnete digitale Signal vom Konverter auch wieder in ein 
analoges Ausgangssignal gewandelt werden, um es an analoge Audio-Geräte 
übertragen zu können.

https://www.itwissen.info/Soundkarte-sound-card.html:

Funktional handelt es sich um eine Erweiterungskarte die analoge Sprach- 
und Audiosignale in einem A/D-Wandler digitalisiert, die digitalisierten 
Daten verarbeitet und komprimiert und in einem Audiodateiformat im 
Arbeitsspeicher ablegt. Die Audioqualität wird durch die Quantisierung 
des A/D-Wandlers bestimmt und durch die Abtastrate. Bei einer 
Digitalisierung mit 16 Bit ergibt sich eine Auflösung von 65.536 
Klangstufen, und bei einer Abtastrate von 44,1 kHz eine Datenmenge 88,2 
kB/s.

Diese Audiodaten werden in einem Digital Signal Processor (DSP) 
verarbeitet und mittels Audiokompression reduziert. Die komprimierten 
Daten werden in einem Audiodateiformat, beispielsweise in MP3 oder als 
Waveform Audio File (WAV) auf dem Arbeitsspeicher der Soundkarte 
zwischengespeichert, bevor sie auf die Festplatte geladen werden.

Diese Audiodaten werden in einem Digital Signal Processor (DSP) 
verarbeitet und mittels Audiokompression reduziert. Die komprimierten 
Daten werden in einem Audiodateiformat, beispielsweise in MP3 oder als 
Waveform Audio File (WAV) auf dem Arbeitsspeicher der Soundkarte 
zwischengespeichert, bevor sie auf die Festplatte geladen werden.

https://www.manualslib.com/manual/547219/Creative-Sb0350.html

https://media.digikey.com/pdf/Data%20Sheets/Texas%20Instruments%20PDFs/TMS320F241,%20243.pdf

Manfred schrieb:
> Der DSP als fertiges IC wird oftmals den AD-Wandler beinhalten, der
> nimmt also direkt das analoge SIgnal entgegen.
>
> Ob ein Signal komprimiert wird oder nicht, hängt auch wieder an der
> Anwendung: Will ich ein .wav oder ein .mp3 speichern? Gerade beim .mp3
> gehe ich davon aus, dass das nicht auf der Soundkarte gerechnet wird,
> sondern man es die CPU des PCs machen lässt.
>
> Warum muß ein Signal auf die Festplatte gespeichert werden? Aktuell
> läuft auf meinem PC SAT-TV, da wird der von Astra digital angelieferte
> Ton einfach nur zum Lautsprecher ausgegeben, vorweg lediglich der
> Frequenzgang verändert.

Da steht sowas oft nicht drinnen oder hab ich es nur übersehen?

Irgend W. schrieb:
> Es kann sein das es sich z.B. um eine Audiosiganl handelt das z.B.
> mittels mp3-encoder eingedampft werden soll.

Hardware DSP und Software Encoder?

>Es kann aber auch eine
>Autosignal sein das mittels eines (software)Equalizer bearbeitet wird.

Also ein Kombination aus Hardware DSP und Bearbeitungssoftware?

von Christoph M. (mchris)


Lesenswert?

>DSP heißt erstmal nur ganz allgemein "Digitaler Signal Prozessor"

Nicht nur. Im englischen wird DSP ganz allgemein für "digital signal 
processing", was im deutschen dann "DSV - digitaler Signalverarbeitung" 
bedeutet.

Die Unterschiede zwischen dem Bauteil "DSP" und dem Bauteil 
"Mikrocontroller" verschwimmen heute ohnehin.

Während früher nur DSPs die Berechnung von gewichteten Summen für z.B. 
FIR und IIR Filter durchführen konnten, sind heute in vielen besseren 
Mikrocontroller und Mikroprozessor spezielle Recheneinheiten eingebaut.

Oder es werden gleich ganze Signalverarbeitungsblöcke für schnelle FFTs 
wie im K210 Risc-V oder manchen PowerPCs Mikrocontrollern eingebaut.

von Christoph M. (mchris)


Lesenswert?

Nachtrag:
Die wichtigste Rechenoperation eines DSPs ist die "MAC"-Operation:

https://de.wikipedia.org/wiki/Multiply-Accumulate

Sie ist die Grundfunktion aller digitalen Filter und neuronalen Netze 
und sie war früher das wesentliche Unterscheidungsmerkmal zwischen 
gewöhnlicher CPU und DSP.

von Bernd (Gast)


Lesenswert?

Disk F. schrieb:
> Digitalisierte
> Klänge benötigen sehr viel Speicherkapazität Sk, da ein akustisches
> Signal regelmäßig in sehr kurzen Zeitabständen abgetastet werden muss
> und diese Abtastwerte dann digital gespeichert werden.

Die Angaben 'sehr viel Speicherkapazität' und 'sehr kurze Zeitabstände' 
haben für Audio (kHz-Bereich) vielleicht Anfang der 1990er Jahre 
gestimmt. Heute triffen diese Angaben eher auf Funksignale im 
GHz-Bereich (WLAN, Radar) zu.

Es ist jede Aussage auch im Kontext ihrer Zeit zu betrachten.

von Harald W. (wilhelms)


Lesenswert?

Disk F. schrieb:

> Erklärung aus meinem Schulbuch:
> DSP ist die Abkürzung für Digital Signal Prozessor und bezeichnet
> allgemein einen Prozessor, der spezielle für die Verarbeitung von
> digitalen Signalströmen geeignet ist.

Diese Aussage würde ich als falsch ansehen. DSPs wurden ursprünglich
zur Verarbeitung von analogen Signalen in Echtzeit entwickelt. Dazu
enthielten sie auch meist AD und DA Wandler. Typisch waren vorallen 
Anwendungen mit digitalen Filtern. Für solche Anwendungen waren die
damals bekannten µCs zu langsam. Da inzwischen normale CPUs deutlich
schneller arbeiten, haben sich die reinen DSPs m.E. überlebt. Natür-
lich werden auch heute noch gewisse Strukturen aus DSPs in audiover-
arbeitenden Chips verwendet. Ob dazu auch der damals übliche schnelle
Produktsummenbildner gehört, weiss ich nicht.

: Bearbeitet durch User
von Nils (Gast)


Lesenswert?

Dann will ich meinen Senf auch noch mal dazugeben:

DSPs müssen nicht zwingend programmierbar sein. Wichtig ist in erster 
Linie für die Definition nur, das sie digital Signale verarbeiten. In 
vielen RF Chips z.B. befinden sich kleine DSP Blöcke, die eine fixe 
Signalbearbeitung vornehmen. Manche sind dabei auch parametrisierbar, 
aber wirklich programmieren kann man die Dinger nicht.

Und dann gibt es noch welche, die so ein bischen programmierbar sind. 
Ein schönes Beispiel ist der FV-1 von Spin Semiconductor. Das ist ein 
Audio DSP der bei jedem Sample einfach stumpf bis zu 128 Befehle 
ausführt. Man kann Befehle überspringen aber im Ablauf keine Sprünge 
zurück ausführen. D.h. mit der Architektur bekommt man nicht mal eine 
for Schleife programmiert.

Nicht desto trotz ist der Chip recht mächtig, weil die Befehle und das 
interne Datenformat zu 100% auf Audio Bearbeitung und Hall Effekte 
ausgelegt sind.

von (prx) A. K. (prx)


Lesenswert?

Harald W. schrieb:
> Da inzwischen normale CPUs deutlich schneller arbeiten,

DSP Befehle wurden zu Prozessoren hinzugefügt, was z.B. einfache 
Aufgaben in PCs von separater Hardware in Treiber verlagerte.

> haben sich die reinen DSPs m.E. überlebt.

Als Komponente sind sie weiterhin oft im Einsatz:
https://en.wikipedia.org/wiki/Qualcomm_Hexagon

Auch wenn es evtl möglich wäre, ergibt es wenig Sinn, in sehr 
energiesensitiven Anwendungen Universalprozessoren für solche Aufgaben 
einzusetzen, weil die für die gleiche Aufgabe viel mehr Energie fressen.

: Bearbeitet durch User
von Gretel (Gast)


Lesenswert?

> DSP Befehle wurden zu Prozessoren hinzugefügt, was z.B. einfache
> Aufgaben in PCs von separater Hardware in Treiber verlagerte.

Was z.B. aus einem ARM mit DSP-Erweiterungen noch immer keinen
richtigen DSP macht.

DSPs haben u.a. zahlreiche Busse, um Operationen parallel
ausführen zu können. Z.B. mehrfache Adressberechnungen parallel
zu arithmetischen Operationen.

DSPs waren eine eigenständige Entwicklung.

Ausnahmen waren vielleicht die DSPs von Microchip, deren
Marktdurchdringung aber nie wesentlich wurde.

von Andreas M. (amesser)


Lesenswert?

Ich würde mal vermuten das 99% der heute verbauten Soundkarten keinen 
einzigen DSP enthalten. Die meisten Audiocodecs machen nicht viel mehr 
als die Daten des AD oder D/A Wandlers vom/ins RAM zu holen/schieben.

Echte Soundkarten mit DSPs will doch heutzutage keiner mehr bezahlen. 
Die kosten gerne mehr als die heute noch verkauften PCs.

Den DSP Part übernimmt heute die CPU ohne mit der Wimper zu zucken 
nebenher. Selbst die meisten teuren Studiokarten bestehen aus kaum mehr 
als ein paar teueren AD oder DA Wandlern.

In Handy's hat man noch am ehesten einen DSP im Codec der dann die 
Klanganpassung für die Mini-Quäke da drinnen macht.

von (prx) A. K. (prx)


Lesenswert?

Andreas M. schrieb:
> In Handy's hat man noch am ehesten einen DSP im Codec der dann die
> Klanganpassung für die Mini-Quäke da drinnen macht.

Die Signale der oft 3 Mikrofone werden ebenfalls per DSP verarbeitet, 
einschliesslich Filtertechniken um Nebengeräusche zu unterdrücken.

Dazu gehört auch Aufweckerkennung per "Ok Google" oder "Hey Siri", denn 
die hören ja permanent mit, dürfen dafür also kaum Strom verbrauchen: 
"Nowadays these same algorithms can run on a specialized audio and 
machine learning DSP in a smart microphone at less than 0.5mW."

: Bearbeitet durch User
von Blechbieger (Gast)


Lesenswert?

Nils schrieb:
> DSPs müssen nicht zwingend programmierbar sein. Wichtig ist in erster
> Linie für die Definition nur, das sie digital Signale verarbeiten. In
> vielen RF Chips z.B. befinden sich kleine DSP Blöcke, die eine fixe
> Signalbearbeitung vornehmen. Manche sind dabei auch parametrisierbar,
> aber wirklich programmieren kann man die Dinger nicht.

Z.B. Ethernet PHY ab 1G. Dort übernehmen sie u.a. Crosstalk- und 
Echocancelation.

von Audiomann (Gast)


Lesenswert?

Nils schrieb:
> Das ist ein
> Audio DSP der bei jedem Sample einfach stumpf bis zu 128 Befehle
> ausführt.
Wie wird das praktisch eingesetzt?
D.h. wie wählt man da die gewollte Funktion aus?

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.