Ich war glücklich, als ich dieses Forum fand, denn ich habe eine Bitte: Wer kann eine Art "Hörgerät im Kästchen" zusammenbauen, das ich dann als Schwerhöriger selber einstellen könnte? Es soll 2 Richtmikros enthalten, D/A-Wandler, leistungsfähige Gleitkomma-DSPs, ladbare Stromversorgung und Bluetooth stereo zu den Ohren. Natürlich gegen Bezahlung, das Basteln. Wer kann das und ist außerdem so lieb und geduldig, mit mir Laien umzugehen? Müsste eigentlich noch mehr Leute geben, die sowas suchen. Käufliche digitale Hörgeräte mit ihrer lächerlichen Stromversorgung und dem Hauptziel, klein, fast unsichtbar zu sein, vernachlässigen nur einen Punkt: Wiedergabequalität. Dabei ist es üblich geworden, dass junge Leute Ohrhörer benutzen und Kabelchen und ein Kästchen vor der Brust... Ich als Älterer möchte mir das mit einem Super-Hörgerät leisten!
> leistungsfähige Gleitkomma-DSPs Dann mal viel Spass beim Schleppen der dicken Akkus. Wie kommst Du eigentlich auf den Gedanken dass ein Festkomma-DSP für so triviale Dinge wie Audioverarbeitung nicht reicht? Oder willst Du nebenbei noch einige zig-Analog-Modememulationen auf dem Hörgerät laufen lassen? :-) So audiophil ist ein Hörgerät im allgemeinen ja nicht. > Bluetooth stereo zu den Ohren Überleg Dir erstmal GENAU was Du willst...
Hallo Klaus, ob es so kompliziert sein muss, wie du es da schreibst, kann ich nicht beurteilen und schon gar nicht bauen, aber deine Bemerkungen zu den gängigen Hörgeräten kann ich bestätigen. Bin zwar selbst (noch) nicht mit dem Problem konfrontiert, wohl aber mein Vater. Aus diesem Grund habe ich ihm einen einfachen Stereoverstärker mit Batterieversorgung gebaut (9V), an dem er einen Kopfhörer mit fest angeschlossenen Mikrofon (Head Set) anschließt. Das Mikro wird etwas zur Seite gebogen, so dass er die Umgebungsgeräusche aufnimmt und sie verstärkt über den Kopfhörer wahrnehmen kann. Ihm ist der Kopfhörer lieber als zwei Ohrstöpsel, was er manchmal auch anschließt. In diesem Fall hat er das Problem, dass er auf ein zweites Mikro umschalten muss, das er am Revers befestigt, das aber wesentlich mehr Raschelgeräusche der Kleidung usw. aufnimmt, als das Mikro des Head Set. Denke, dass eine gescheite Hörhilfe dies aber genauso gut kann, wenn nicht noch besser, aber mein Vater hat, warum auch immer, irgend etwas gegen die käuflichen Hörhilfen.
Lieber Gast, herzlichen Dank für die nützliche und freundliche Antwort. Ich hatte immer gedacht, das Headset-Mikro ist zu schwächlich für Umgebungsgeräusche. Natürlich ist diese Lösung weder Stereo noch verstärkt sie die hohen Töne mehr als die tiefen. Und vielleicht ist eine Begrenzung der Lautstärke wie in Hörgeräten auch sinnvoll. Nett, dass Sie für Ihren Vater so sorgen, obwohl Sie die Schmerzen, die Alter und Schwerhörigkeit mit sich bringen, selber gar nicht kennen. Gruß, Wernerklaus
Hallo wernerklaus: ich möchte hier wirklich keine Schwarzmalerei betreiben, aber die Signalverarbeitung in einem Hörgerät ist ganz gewiss nicht trivial. Zumindest wenn das Gerät mehr können soll als einfach nur zu verstärken. Alle auf dem Markt befindlichen Geräte bieten ja schon diverse Frequenzgangcharakteristiken, Peakclipping (Abschneiden zu hoher Lautstärkepegel),Telefonanpassung etc. ... Unter 10 verschiedenen Geräten ist dann vielleicht eines dabei, das für einen individuellen Hörgerateträger "optimal" ist. Natürlich können wir Ingenieure alle erdenklichen digitalen Filter programmieren, aber die Anpassung an Ihre persönliche Hörminderung ist eine ganz andere Sache. Ich will damit sagen dass jemand mit einer rein technischen Ausbildung nicht unbedingt in der Lage ist soetwas besser hinzubekommen, als Firmen die eine grosse Anzahl von Mitarbeitern in den verschiedensten Disziplinen beschäftigen. Ich weiss wovon ich rede, denn vor 10 Jahren war ich selbst in einem Entwicklerteam, das sich so etwas zur Aufgabe gemacht hat. Natürlich ist inzwischen die Technik vorangeschritten und heute ist Hardware Standard, von der wir damals nur träumen konnten (Allein die Stromaufnahme der Bauteile). Aber vielleicht kann hier wirklich eine Innovation vorangetrieben werden. mit freundlichen Grüssen, reimay
Lieber Reimay, vielen Dank. Ja, das habe ich natürlich auch gedacht, dass ich mich da verheben könnte. Andererseits hatte ich zwei Siemens Triano, also keine schlechten Geräte. Bezüglich der Auswahl der Geräte ist man ziemlich hilflos, bei der Anpassung erst recht. Da würde ich schon gern selber am PC Einstellungen verändern können. Und dann bleibt immer noch die Kleinheit der Lautsprecher und der Stromversorgung sowie, wie ich finde, ein unakzeptabel hoher Klirrfaktor. Also, was ist Ihr Vorschlag? Welches kommerzielle Gerät soll ich versuchen? Soll ich meine "Kästchen"-Hoffnung still begraben? Und auch zur Anbetung der geringen Leistungsaufnahme kommen? Wenn Doofi schreibt, ich soll mir erst mal genau überlegen, was ich eigentlich will, dann ist das leichter gesagt als getan, und wenig hilfreich dazu. Ich habe den subjektiven (Hör-)Eindruck, dass höhere Verstärkung für die höheren Frequenzen das Problem Altersschwerhörigkeit allein nicht löst. Es müssen, so denke ich, diese "Frequenzscheiben" auch (geringfügig) und zeitlich verschieden gegeneinander verschoben werden. Schließlich scheinen alte Ohren Hall oder Echo zu erzeugen, natürlich frequenzabhängig unterschiedlich, die bekämpft werden müssten. Das scheint mir nicht trivial, wie Doofi behauptet, da sind Sie ja derselben Ansicht. Nochmals Dank, und Gruß, Wernerklaus
http://www.google.de/#hl=de&q=Coyote+DSP+Datasheet&meta=&fp=94f4acf69ddccfd1 Hallo wernerklaus, habe einen link gefunden der evtl. interessant ist. Das ist ein dsp chip der speziell für hearing aids entwickelt wurde. Der Hersteller ist AudioLogic in Boulder,Colorado. Mittlerweile würde die Firma aber von Cirrus Logic übernommen. Ich bin leider nicht mehr in der "Szene" beschäftigt und kann nichts über die Verfügbarkeit / Preis des Chips aussagen. Aber vll. kann das ein kleiner Anstoss zur Realisierung sein. mit freundlichen Grüssen, reimay
Von Hörgeräte-DSPs würde ich abraten. Die sind auf geringen Stromverbrauch optimiert, und auf nichts anderes. Das ist für deine Anwendung unnötig, und die Entwicklungsumgebung dürfte exorbitant teuer sein. Die ideale Hardware für dein Projekt wäre das Bluetunes2-Kit von CSR. Alles was du brauchst ist auf einem handlichen Board: CODEC, Kopfhörerverstärker, Bluetooth-Antenne, LiIo-Akku, und es passt gut in eine kleine Schachtel. Der DSP ist leistungsfähiger als das was man in Hörgeräten findet, und relativ einfach zu programmieren. Das ganze kostet $1000. Dann musst du "nur noch" die Software schreiben...
Lieber Reimay, lieber Andreas, herzlichen Dank für Eure Mühe und Freundlichkeit. Ich werde beiden Tipps nachgehen und hier berichten. Aber ich bin auch allergisch, wenn ich etwas von "Optimierung" auf geringen Stromverbrauch lese. Oder von bisher nicht da gewesener Kleinheit oder "Handlichkeit". Übrigens meine Meinung hinsichtlich Gleitkomma kommt daher, dass ich gelesen habe, dass die leichter zu programmieren sind als die Festkommaa-Tierchen. Was das Batterien-Schleppen betrifft (Doofy ist auffällig still), schlafe ich ja auch ab und zu, da müsste man sie aufladen und käme mit 16 Stunden Betriebsdauer hin. Dank und Gruß an alle, Wernerklaus.
Hallo wernerklaus, ja ich lass mich überzeugen, vermutlich ist ein DSP Evaluationkit für allgemeine Anwendungen besser geeignet als ein auf low power getrimmter Spezialchip. Ich hatte einfach die Scheuklappen vergangener Projekte nicht abgelegt. Es ist halt so das in dem Coyote DSP, den ich oben erwähnte, schon fertige Algorithmen für Höranpassung festverdrahtet implementiert sind. Die müssen halt bei einem General Purpose DSP in Software impl. werden. Und das ist schon eine Herausforderung. Um diese spezielle Problematik zu verstehen hier 2 Arbeiten als Anhang. mit freundlichen Grüssen, reimay
Lieber Andreas, ich habe bei CSR über den BlueTunes2 Development Kit gelesen, Product ID: BTN-002-2B, Preis 1000 Dollar. Ich glaube, das ist ein sehr guter Tipp, herzlichen Dank. Ich will an CSR schreiben, hatte aber noch keine Zeit. Lieber Reimay, herzlichen Dank für Deine Ansicht und vor allem für die beiden Texte. Habe sie ausgedruckt und werde sie übers Wochenende lesen. Angenehmes Wochenende an alle, Wernerklaus.
Ich hoffe, Ihr könnt es ansehen - hier im Anhang ist ein ganz gutes Bild des BlueTunes2 Development Kit. Für die Fachleute... Grüße, Wernerklaus
@reimay: Wenn der Hörgerät-Chip fertige Verarbeitungsmodule enthält, dann wäre das natürlich ein Argument dafür. Die die ich kenne enthalten nur Grundbausteine wie Filterbänke, FFT-Coprozessor oder vielleicht noch einen Kompressor, viel Arbeit spart das nicht. Und wie gesagt glaube ich nicht dass man an die Chips und die Entwicklungstools überhaupt zu vernünftigen Preisen herankommt, allein schon weil das meistens ROM-Chips ohne JTAG o.ä. sind die für die Entwicklung einen Menge Kram drumherum brauchen. wernerklaus: Gib doch einfach den Link an: http://parts.digikey.com/1/parts/408113-kit-dev-bluecore5-multimedia-v2-btn-002-2b.html Ich hoffe du unterschätzt nicht wie viel Zeit und Vorkenntnisse man braucht um damit etwas sinnvolles anzufangen.
... Ohne Vorkenntnisse ist es praktisch unmöglich damit etwas sinnvolles anzufangen - ausser vielleicht die vermutlich mitgelieferten Demo Programme laufen zu lassen. Eigene Filteralgos implementieren ohne fundierte Kenntnisse der Signalverarbeitung? Da brauchst Du jemanden der das für Dich erledigt - selbst kannst Du das definitiv nicht wenn Du Dich selbst als "Laie" bezeichnest!
Hallo wernerklaus: alles was ich bisher geschrieben habe soll nur dazu dienen Ihnen bewusst zu machen das es sich bei diesem Projekt um ein technisch/biologisches System handelt, das (noch?) nicht vollständig mathematisch beschrieben werden kann. Es ist somit nur dadurch in den Griff zu bekommen, das viele Parameter laufend (von Hand?) eingestellt werden müssen. Eine Einstellung die an eine Hörsituation gut angepasst ist, kann in einer anderen zu einem unangenehmen, ja schmerzlichen Höreindruck führen. Aber das kennen Sie ja gewiss schon aus eigener Erfahrung. Und um diese Signalmerkmale zu erkennen und in Echtzeit darauf zu reagieren, braucht es eine Menge audiologischer Erfahrung ( über die ich nicht verfüge ). Andernfalls wird man im Ergebnis kaum besser sein, als mit einem konventionellen Hörgerät. Die bisherige Diskussion zeigt, das viele Gründe dafür sprechen, als Hardwareplattform ein leicht erhältliches DSP Starterkit zu verwenden. (Bluetooth etc.) Ich bin mittlerweile übrigens der Meinung, für allererste Versuche, sollte auch ein PC mit Soundkarte ausreichen. Die Erkenntnisse die damit gewonnen werden sollten ausreichen um den meiner Meinung nach bisher wichtigsten Satz in diesem Thread zu beantworten: doofi --> Überleg Dir erstmal GENAU was Du willst... oder anders ausgedrückt, nach einigen Screening Versuchen sollten Sie als allererstes versuchen, das Entwicklungsziel in einem Pflichtenheft festzulegen. z.B. Ist zum Beispiel ein gutes Spachverständniss wichtiger als Musik ? (Ersteres ist nähmlich viel schwieriger zu erreichen ) Möchten Sie wirklich immer diese dicken Kopfhörer tragen oder gibt es noch andere Möglichkeiten ? Stellen Sie sich vor Sie haben bereits ein fertig aufgebautes Signalverarbeitungssystem vor sich ( DSP Starterkit, PC mit Soundkarte oder Spezialchip ;-) " werbung in eigener sache muss auch sein" ) sowie einen umfangreichen Satz an Signalverarbeitungsalgos in der Programmiersprache Ihrer Wahl. Sie haben volle Kontrolle über die Signalkette, die bei den Mikrophonen beginnt und einige Millimeter vor Ihrem Trommelfell endet. Nach welchem Plan soll jetzt an den "Reglern" gedreht werden ? Ich meine an diese Punkte, und an viele mehr die mir aber momentan nicht einfallen, sollte man denken und sie am besten schriftlich fixieren bevor man richtig loslegt. mit freundlichen Grüssen, reimay
Lieber Moppel-Gast, ja, was Sie da schreiben, unterschreibe ich selber gerne mit. Ohne Kenntnisse geht es nicht, und die habe ich eben nicht. Sorry. Andererseits habe ich, glaube ich, auch nicht sowas behauptet. Ich suche aber so etwas, das ist doch ein Unterschied. Oder ich suche Leute, die bereit wären, so etwas für mich gegen Bezahlung zu bauen, so dass ich am Ende nur die Anpassung nach Anweisung mitmachen müsste. Es bleibt, dass ich deutlich feststelle, dass der marktübliche Drang nach immer kleiner und kleiner die Klangqualität vernachlässigen muss. Man muss doch auch als Laie erlaubt bekommen, da auf ein Umdenken zu drängen, zumal die jungen Leute mit iPod längst das tun, was sich ältere Hörgeschädigte nicht trauen, nämlich sich etwas umzuhängen, Kabelchen zu ordnen und Ohrstöpsel einzusetzen. Lieber Reimay, Sie sagen auch, wie Doofi, dass ich endlich ein Pflichtenheft vorlegen soll. Das Vorstehende zeigt aber, dass ich im Gespräch mit Ihnen allen erst vorsichtig tasten muss, was gehen könnte, was es schon gibt und was davon sinnvoll einzusetzen bzw. anzustreben sei. Letzte Woche habe ich mit einem anerkannten Fachmann auf dem Hörgeräte-Gebiet gesprochen, der zwei sehr ansehnliche Bücher darüber geschrieben hat. Dabei sagte er beiläufig, dass alle Fachleute wüssten, dass das bei der Schallerzeugung in Hörgeräten benutzte Prinzip nicht klirrarm sein könne. Aber es müsse eingesetzt werden, weil die in Kopfhörern oder Lautsprechern benutzte Technik zu energieintensiv sei. Daraus schließe ich, dass es vielleicht falsch ist, Bluetooth einzusetzen, weil dann die Ohrstöpsel auch mit wenig Energie auskommen müssen. So würde man mit einem voreilig erstellten Pflichtenheft in die Irre laufen. Wenn ich als S-Bahn-Nutzer sagen würde, dass die Züge kürzer sein, dafür öfter und ohne Zugführer fahren sollten, damit man keinen Fahrplan braucht und die Bahnhöfe kürzer und billiger sein könnten und die Tickets auch, dann mag das eine gute Idee sein, aber es wäre trotzdem zu viel verlangt, wenn man mich auffordern würde, erst mal ein Pflichtenheft für die Wagenhersteller, die Gleisverleger und die Programmierer vorzulegen. Bitte, seien Sie nicht ärgerlich, sondern machen Sie bitte weiter sinnvolle Vorschläge, nicht unbedingt nur in meinem Interesse, denn hier liegt ein großer Bedarf vor, und er wächst noch. P.s.: An CSR habe ich immer noch nicht geschrieben, kommt noch... Wernerklaus.
> (Doofy ist auffällig still) Jaha, das kommt davon wenn man berufstätig ist... :-) Vor einigen Jahren habe ich Effektgeräte für meine musikalischen Ambitionen auf 2 Motorola/Freescale-56302 EVMs selbst in Assembler programmiert. Der Leistungsbereich dieser DSPs wird heute bereits durch Controller abgedeckt, die in der Liste von TI gar nicht mehr als DSPs auftauchen. Die Situation ist heute™ gegenüber früher™ sehr viel besser geworden. Heute kann ich beispielsweise in matlab ein Filter generieren und dann direkt in einem Projekt in der IDE (TI CCS) weiterverwenden. Eine 180-Tage Evalversion dieser IDE ist kostenlos erhältlich. Algorithmen zur Rückkopplungsunterdrückung und für eine adaptive Filterung sind keine Hexerei und von ihrem Resourcenbedarf durchaus mit DSPs/Controllern der 32-Bit-Klasse zu bewerkstelligen (TMS320F2808/9). Die Anpassung an die individuellen Hörgewohnheiten von Schwerhörigen ist das, wo die Hörgerätehersteller sicher mehr Erfahrungen haben, und wo man als Neuling in diesem Gebiet völlig ratlos ist. Zu deinem ursprünglichen Posting: Richtige Studioohrstöpsel mit Kabel dran (Boss/Roland) würde ich Bluetooth allerdings immer noch vorziehen. Sicher erspart einem ein Gleitkomma-DSP einiges an Kopfzerbrechen bezüglich der Normalisierung der Algorithmen, das es aber geht, beweist die Musikinstrumenteindustrie, die verbauen auch fast ausschliesslich Festkomma-DSPs. Schau Dir mal die entsprechenden DSPs bsp. von TI an und vergleiche Leistungsbedarf, Gehäuse, Preisen von Entwicklungskits etc... Da wirst Du schnell merken, dass Gleitkomma-DSPs in einer ganz anderen Liga spielen.
P.S. > Dabei sagte er beiläufig, dass alle Fachleute wüssten, > dass das bei der Schallerzeugung in Hörgeräten benutzte Prinzip nicht > klirrarm sein könne. Es gibt durchaus Begrenzungspolynome die durchaus klirrarm sein können, bspweise nur geradzahlige Oberwellen (warmer Röhrenklang :-) erzeugen. Oder eine Begrenzung im Baseband mit anschliessender Filterung. Hmmm... Ekschperde? Ich weiss ja nicht...
Guten Abend zusammen, ich lese diesen Thread nun schon seit dem Anfang mit. Ich würde meine Erfahrung im Bereich Tontechnik (auch Studiotechnik) und Mikrocontroller/DSP gerne mit einbringen. Für den Anfang würde ich empfehlen, weder auf Größe, Stromverbrauch oder Benutzerfreundlichkeit (drahtlos...) zu achten. Für ein ordentliches Design einer solchen Hörhilfe ist es meiner Ansicht nach erst notwendig, herauszufinden, was in Echtzeit denn alles berechnet werden muss, bzw. wie das für einen guten Höreindruck eingestellt werden muss. Dann ist es enorm wichtig, die Mikrofone an die richtigen Stellen zu setzen (ausprobieren wohin) und so auszurichten, dass es sich 'normal' anhört (besonders die Stereobreite und Schall von hinten oder seitlich). Dazu würde ich zwei handelsübliche Studiomikrofone (oder ein xy-Stereomikro) verwenden, per AD-Wandler in den PC einspeisen und dort auf einer üblichen Audiosoftware rechnen. Das ganze per DA-Wandler dann auf einen hochwertigen Kopfhörer. Ich weiß jetzt nicht, wieviel Geld in das Projekt investiert werden soll, aber man muss ja nicht immer das Beste verwenden. Ich stelle mal einfach etwas von meinem Equipment vor, mit dem sich das problemlos machen ließe: - Standard PC - AD-DA-Wandler HD Qualität Motu 896HD (der ist völlig oversized dafür, aber egal) - Kopfhörer: Sennheiser HD280 pro (Als Alternative In-Ear-Stöpsel von BeyerDynamic DTX-20) - Mikrofone: z.B. 2x Rode M3 - Audiosoftware: Samplitude (www.samplitude.de) Damit kann man zumindest mal ganz intuitiv ausprobieren, was man denn an Signalverarbeitung alles braucht. Und sollte es irgendeine Berechnung nicht direkt in Samplitude geben, kann man auch selbstgeschriebene VST-Plugins einbinden. Samplitude gibts als Demoversion kostenlos (30 Tage) oder auch schon für unter 20 Euro im Internet als veraltete Version mit einer Begrenzung auf 8 analoge Ein-Ausgänge (reicht auch). Samplitude kann vom einfachen Equalizer über FFT-Berechnungen, Stereobreiteänderung und Faltungen bis hin zu komplexen Dynamikprozessoren, Tonunterdrückung im Frequenzbereich und Frequenzshifting eigentlich alles, was man üblicherweise im Tonstudio braucht. Meiner Ansicht nach sollte es möglich sein, einen Prototyp einer solchen hochqualitativen Hörhilfe damit zu realisieren, ohne eine einzige Zeile einer Hochsprache zu programmieren. Wenn man jetzt das Motu gegen etwas einfacheres ersetzt (und das event. gebraucht kauft) und die In-Ear-Stöpsel nimmt, den PC bereits hat und Sam für 20 Euro, dann kann man für etwa 400 Euro schon eine ganze Menge experimentieren. Vielleicht sollte man als Mikro auch gleich etwas nehmen, was man später einsetzen will, was also nicht so groß ist, wie die M3. Vielleicht eignen sich Ansteckmikros besser (z.B. 2 Stück AKG C 577 WR - leider sehr teuer). Wenn dann die zu verwendenden Algorithmen feststehen, würde ich das ganze für Linux schreiben und auf einem Beagleboard laufen lassen. Das ist schön klein, braucht wenig Strom (2,5 Watt) und hat bzgl. Audio bereits alles drauf (sogar Kopfhörerverstärker). Displays und Knöpfe lassen sich da auch einfach dran bauen. Um die Rechenleistung braucht man sich keine Sorgen zu machen, das hat mehr als genug. Alternativ könnte man auch ein entsprechend kleines (!) Laptop mit Windows XP verwenden (das gibts ja mittlerweile in Handygröße) und einfach das Samplitude-Projekt drauf laufen lassen. Vielleicht stellt man aber auch fest, dass sich die gewünschten Funktionen genauso analog in Hardware realisieren lassen und man gar keinen Rechner braucht. Eben deshalb würde ich das mit einer einfach zu bedienenden Studiosoftware alles vorher probieren. Für Fragen bezüglich Studioequipment, Audiosoftware, -Algorithmen und Kaufempfehlungen für Tontechnik stehe ich gerne zur Verfügung. Viele Grüße, Peter
@Peter Diener >Ich weiß jetzt nicht, wieviel Geld in das Projekt investiert werden >soll, aber man muss ja nicht immer das Beste verwenden. So lange man nicht weiss was das Beste ist, ist es auf jeden Fall unsinnig eine teure Entwicklungsumgebung einzurichten. >Vielleicht stellt man aber auch fest, dass sich die gewünschten >Funktionen genauso analog in Hardware realisieren lassen und man gar >keinen Rechner braucht. Der Gedanke kam mir auch schon. Im Prinzip wird ja keine 'Intelligenz' benötigt, warum also nicht? Grüße, Edson
Hallo, liebe Leute, ich danke Doofi, Reimay, Meister Eder und besonders auch Peter Diener für ihre Beiträge. Also können wir uns offenbar einigen auf "kein Bluetooth" für den gegenwärtigen Stand und auf die (zunächst mal) Verwendung eines PC und drittens (noch) nicht auf reine Analogtechnik - oder? Wenn das kein Fortschritt ist!! Ich habe zwar inzwischen an CSR geschrieben, aber habe natürlich noch keine Antwort. Ich besitze einen PC-Tower vom Juli 2004, zusammengebaut für mich von Firma ESCON in Hofheim, mit "Soundkarte" Onboard ADI AD1985 6-Kanal Audio. Ist das zu mies? Müsste wohl sowieso mal umsteigen... Und einen Laptop Fujitsu-Siemens Amilo M1424 vom Januar 2007, beide mit Windows Vista Home Premium. Das Ding ist für mich nur erträglich mit einer Maus und separater Tastatur. Beste Grüße an alle, Wernerklaus.
Kauf dir bloß keine Studiohardware, das ist für so etwas überflüssig und ungeeignet. Onboard-Sound, ein mittelmäßiger Kopfhörer und ein paar Elektretmikros mit Verstärker sind völlig ausreichend. Wenn du allerdings keine Vorstellungen hast was du eigentlich machen willst, dann bringt dir das alles nichts. Professionelle Hörgeräte machen nicht nur ein paar Filter, sondern Beamforming (räumliche Filterung), spektrale Geräuschunterdrückung, Windgeräuschunterdrückung, Expansion, Kompression, alles adaptiv, und die Anpassungen an die Gehörschäden sind da noch gar nicht dabei. Analog oder mit Studiosoftware kannst du das nicht umsetzen. Wenn du nicht die eierlegende Wollmilchsau unter den Hörgeräten, sondern nur etwas für bestimmte Situationen (z.B. Konzert oder Theater) bauen willst, dann ist das schon eher realistisch. Aber auch da musst du wissen was der DSP mit den Signalen überhaupt machen soll bevor du dir Hardware beschaffst.
Das onboard-Auido vom Fujitsu-Siemens Amilo M1424 sollte eigentlich
reichen. Ein Köpfhörerverstärker ist da bereits integriert. Der einzige
Nachteil der Consumer-Audio-Produkte ist die fehlende (bzw. wenn
vorhanden, unbrauchbare) Phantomspeisung. Dafür gibt es aber
batteriegespeiste Mikros (wie das M3) oder Zwischenstecker für die
Spannungsversorgung. Es ist somit kein Problem, das an einen PC direkt
anzuschließen.
Bei den Mikrofonen würde ich dringend von Eigenbaulösungen oder
Consumerartikeln abraten. Es ist extrem wichtig, dass wenig
Eigenrauschen und geringe Windempfindlichkeit vorhanden sind. Weiterhin
ist es ein Vorteil der professionellen Geräte, dass der Frequenzgang und
die Richtcharakteristik (numerisch) bekannt sind, was eventuell
notwendige Berechnungen (z.B. für Beamforming) erheblich erleichtert.
Bei dem Kopfhörer oder In-Ear sollte man schon auf hohen Tragekomfort
achten. Hilfreich ist eine geschlossene Bauweise damit Rückkopplungen
nicht so leicht auftreten.
@ Andreas Schwarz:
>[...] mit Studiosoftware kannst du das nicht umsetzen.
Die meisten genannten Berechnungen lassen sich in Sam ohne weiteres
realisieren und alles, was nicht direkt geht, kann man selbst
programmieren und als Plugin einbinden. Was man so also nicht berechnen
kann, kann man auch ohne Studiosoftware nicht rechnen. Sam ist außerdem
komplett zur Laufzeit aus anderen Programmen heraus parametrierbar, eine
adaptive Verstellung nach eigenen Wünschen ist also einfach.
Diese Vorgehensweise erspart einem den ganzen Ärger mit den
Audiointerfaces, stellt bereits eine nutzerfreundliche Oberfläche zur
Verfügung und bietet eine ganze Reihe an Visualisierungstools, an denen
man sonst Monate programmieren würde.
Ich halte es für keine so gute Idee, alles ohne bereits grundlegend
funktionsfähige Studiosoftware from scratch zu programmieren. So kann
man relativ schnell ausprobieren, was eigentlich benötigt wird, bevor
man es überhaupt programmieren muss. Wenn man alles selbst programmiert,
entwickelt man an einem bestimmten Teil, den man testen will eine ganze
Weile um dann festzustellen, dass das vielleicht gar nichts nützt.
Wenn man alles, was man an Hardware braucht, gebraucht kauft, bekommt
man bei professioneller Hardware sein Geld nahezu komplett wieder, wenn
man es irgendwann verkauft. Das ist bei Billigprodukten nicht so (aber
damit gibt man auch nicht wenig aus).
Vielleicht sollte man am Anfang auch erst mal ganz auf die Mikrofonie
verzichten. Also nur einen Kopfhörer am PC verwenden und Musik oder
Sprache aus irgendwelchen Aufzeichnungen hören. Hier kann man dann alle
möglichen Berechnungen testen und einstellen.
Da ich Studiohardware zur Verfügung habe, könnte ich Aufnahmen von
einigen verschiedenen Situationen (auch mit verschiedenen Störungen wie
z.B. Wind oder anderen Hintergrundgeräuschen) zur Verfügung stellen (als
Datei). Hier kann ich auch verschiedene Mikrofone probieren, von der
billigsten Electretkapsel für 3,50 € über einige dynamische Mikros und
Kleinkondensatoren bis zum Großmembranstudiomikro.
Da ist natürlich noch etwas anderes als wenn ein Sprecher direkt vor
einem steht, aber damit sollte sich die benötigte Mikrofonqualität schon
eingrenzen lassen ohne, dass dadurch Kosten entstehen.
Und man kann ohne größeren Aufwand an Hardware verschiedene
Audioberechnungen testen und vergleichen.
Viele Grüße,
Peter
Hallo wernerklaus: Ich werde mich jetzt nicht mehr so aktiv an der Diskussion beteiligen können, seit Wochenbeginn hat für mich der Ernst des Lebens wieder begonnen :-( bleibe aber so gut es eben geht dabei. Sie schreiben: So würde man mit einem voreilig erstellten Pflichtenheft in die Irre laufen. Dem ist aber ganz sicher nicht so, eher der Gegenteil ist der Fall. Je besser das Entwicklungsziel beschrieben wird, umso leichter fällt nachher die konkrete Umsetzung. Glauben Sie mir, ich habe leider selbst schon oft genug gegen diese Regel verstossen. Den Vorschlag mit der Audiosoftware finde ich ganz interessant, hoffentlich ist die Einarbeitungszeit in dieses Programm nicht allzu hoch. Alternativ ist die Programmiersprache LabView vielleicht geeignet, um erste Tests durchzuführen. Ich selbst besitzte eine (sehr) alte Version von LabView (5.1) die kann noch keinen direkten Soundkartenzugriff. Aber die neueren Versionen, ( kostenlose, zeitbegrenzte Demoversion) können das. Und mit LabView ist es wirklich sehr einfach ohne grössere Programmierkenntnisse etwas zu machen. Allerdings sollte man schon eine gewisse Vorstellung haben, was sich hinter den Schaltungsblöcken (mathematisch) verbirgt. Ich würde die Prototypenentwicklung entweder mit LabView oder mit matlab machen. Dabei würde ich ganz grob gesagt so vorgehen: Transformation des digitalisierten Eingangssignal vom Zeitbereich in den Frequenzbereich (FFT) Aufteilen des Frequenzsignals in (n?) Bänder Gewichten der einzelnen Bänder mit variablen Faktoren. Rücktransformation in den Zeitbereich und Ausgabe. Das ist dann noch lange kein sinnvoller Hörgeräte Algo, aber geeignet um ein Gefühl für das Problem zu entwickeln. wie gesagt das ist meine persönliche Meinung wie ich an das Projekt herangehen würde. mein Pflichtenheft dazu würde etwa so ausschauen: Abtastfrequenz festlegen Anzahl der Samples Anzahl der Frequenzbänder ... Evtl. stellt sich dabei heraus, das es sinnvoller ist das Signal im Zeitbereich zu bearbeiten ( glaube ich allerdings nicht ) dann muss ich meinen Plan ändern und ein neues Pflichtenheft erstellen. Es wird sich zeigen, das die Zeit die in einen Plan investiert wird, ganz bestimmt nicht vergeutet ist. mit freundlichen Grüssen, reimay
Hallo, liebe Leute, Dank an Reimay. Ja, mit dem Pflichtenheft magst Du und andere schon Recht haben, aber an dem Beispiel sehe ich, dass ich es schlicht nicht kann. Außerdem ist es mit mir ähnlich, ich habe mein Interesse keinesfalls verloren, aber werde in der ersten Hälfte September verreist sein, also mich nicht melden können. Hier noch ein Nachtrag zum Gleitkomma-DSP, speziell an Doofi, obwohl ja fürs erste eigentlich kein Thema mehr. Ich erhielt folgende zwei Links genannt: http://hearcom.eu/about/PersonalCommunicationLink.html und http://hearcom.eu/prof/AssistiveTechnologies/PHS.html. Und dazu u.a. folgende Sätze: Unser Master-Hearing-Aid/Personal Hearing System ist sicher ein guter Prototyp, aber derzeit außerhalb der Forschung noch nicht zu gebrauchen. Eine Umsetzung in ein kleineres Kästchen scheitert daran, dass wir für eine einfache Entwicklung der Signalverarbeitung auf Gleitkomma-Arithmetik angewiesen sind, die derzeit nur von PC-Prozessoren geleistet wird. Ich frage den Administrator Andreas Schwarz, ob ich hier meine Mailanschrift nennen darf. Denn ich möchte sehr gern mit Peter Diener direkt mailen, weil mir seine Ansichten und Vorschläge sehr zusagen. Könnte man vielleicht, wenn man die Mikrophone zunächst weglassen will, den Fernsehton (Sprache) nehmen, um ihn (für mich) besser hörbar oder verstehbar zu machen? Habe am Kabel leider nur eine Uralt-Siemens-Fernsehröhre, immerhin mit 100 Hz und gutem BTX, aber der geht und geht nicht kaputt. So warte ich z.Zt. ab, bis man mir das analoge oder PAL-Signal abstellt. Da ich allein lebe, brauche ich so eine riesige Bildfläche nicht, wie sie heute üblich ist, hätte aber gern ein allgemein verwendetes, also zukunftsfähiges HDTV. Grüße an alle, Wernerklaus.
Hi, Kleiner Kommentar zum Thema Gleitkomma: Fuer ein embedded Geraet gibt es eigentlich mehr Contras als Pros, der wohl gewichtigste Grund ist der deutlich hoehere Stromverbrauch. Der Grund, warum die meisten nach einer FPU schreien, ist wohl - boese gesagt - die Faulheit, sich ueber eine effiziente Ausnutzung der Fixkomma-Arithmetik Gedanken zu machen und entsprechend den Code zu gestalten. Dabei gibt es im Audio/Video-Bereich keinen Grund, 'floats' zu benutzen, im Gegenteil liefern einige Algorithmen deutlich weniger Artefakte, wenn man sie in Fixkomma programmiert. Wuerde mich also bei diesem Projekt nicht auf Gleitkomma festlegen, gerade, wenn das Geraet eine Weile lang laufen soll. Fuer schnelles Prototyping zum Thema Audio habe ich mit dem EZKIT BF533 (wuerde allerdings fuer Entwicklung den BF527 empfehlen) gute Erfahrungen gemacht. Gruss, - Strubi
HearCom_D09-12_V1.1.pdf: > The advantage of using > high-level programming languages in algorithm development is partly > reversed by the need > of a foating point processor. Current SmartPhones and PDAs do have only > fixed point processing. Wie es scheint, wird da Grundlagenforschung betrieben und keine Rücksicht auf eine wirklich mobile Implementation genommen. Schade ist, dass deren Forschungsergebnisse bzgl. der Algorithmen auf der Webseite nur unvollständig und unscharf dokumentiert werden. > This information is confidential and may be used only for informatioj > purposes by Community Institutions to whom the Commission has supplied it So stellt man sich Forschung aus Steuermitteln immer vor :-) Die Schlüsselalgorithmen: > Single-channel noise suppression based on perceptually optimized > spectral subtraction (SC1) > Wiener-filter-based single-channel noise suppression (SC2) > spatially preprocessed speech-distortion-weighted multi-channel > Wienerfiltering (MWF) > binaural coherence de-reverberation filter (COH) sollen in: "Proceedings of the 16th European Signal Processing Conference, Lausanne, Switzerland, 2008" näher beschrieben sein. Die solltest Du Dir vielleicht mal besorgen. Das mit einem oder mehreren Festkomma-DSPs zu implementieren, sehe ich durchaus optimistisch. Der dort getriebene hohe Aufwand für das Audiointerface, resultiert eher aus den Schwächen der PC-Architektur bzgl. Latenz und Jitter. Das Bluetooth-Audiohardware weitere unerwünschte Latenzen hat, wird ja dort auch anerkannt. An einem DSP sind ein oder mehrere AD/DA-Wandler sehr einfach anzuschliessen. Mit generischer PC-Audiosoftware (Samplitude etc.) kann man sicher schon das Audiosignal vom TV etwas 'aufhübschen' und verschiedene Algorithmen testen. Für einen Einstieg sicher nicht verkehrt. Auch um z.B. die Ohrstöpsel zu testen. Bei mir läuft z.B. auch immer ein Kompressor (so 6-9 dB) mit, damit die Werbung nicht lauter als der Film wird :-) Schlussendlich kommt man aber für eine mobile Nutzung nicht um eine Implementation auf einem DSP herum. Und da helfen einem die auf einem PC zur Verfügung stehenden Algorithmen nur begrenzt. (Siehe oben) Je eher man also die eigentliche Zielhardware benutzt, um so schneller wird man zu einem Ergebnis kommen.
Ohne jetzt alles gelesen zu haben: http://www.dhi-online.de/DhiNeu/11_Lexika/hglex/lexhga_0.html http://www.dhi-online.de/DhiNeu/11_Lexika/hglex/HgLex_A/AGC.html so einfach iss dit alled nich.;-)) Axelr.
@Wernerklaus: Direkte Emailnachrichten kann man als angemeldeter Benutzer senden, indem man auf den Benutzernamen klickt. So muss man die Emailadresse nicht online stellen (Spamgefahr). Natürlich kann man einen Fernseher als Tonquelle verwenden, wenn es eine Möglichkeit gibt, an das Tonsignal heranzukommen (z.B. Kopfhörerbuchse, SCART-Ausgang oder am besten Cinch-Buchsen). @doofi: Das Problem der Störgeräuschunterdrückung sind die dabei entstehenden Artefakte. Ich denke, dass das hauptsächliche für Nutzer eingesetzt wird, die ohne die Störgeräuschunterdrückung Sprache überhaupt nicht verstehen können. Ich kenne ähnliche Algorithmen zur Störgeräuschunterdrückung bei alten Bandaufnahmen oder Überspielungen von Vinylplatten. Sie bringen nur selten einen praktischen Nutzen, weil die entstehenden Artefakte meist mehr stören als das vorher vorhandene Störgeräusch. Deswegen ist der Einsatz an hochqualitativem Material meist nicht sinnvoll. Anders ist es, wenn beispielsweise Sprache aus einem sehr stark gestörten Signal (stark verrauschte Funkübertragung...) extrahiert werden soll. Hier hilft das Anwenden solcher Algorithmen durchaus um ein Spachsignal überhaupt verständlich zu machen. Die Latenzzeit der Audiointerfaces ist in der Tat nicht leicht in Griff zu bekommen. Wenn onboard Audiointerfaces verwendet werden, kann das durchaus störend viel Latenzzeit sein. Eine weitere Möglichkeit der späteren Implementierung ist mir noch eingefallen. Es gibt für den IPod ein freies Betriebssystem (www.rockbox.org). Der IPod Video hätte beispielsweise einen Audioeingang (auf dem Peripheriestecker) und einen Ausgang mit Kopfhörerverstärker und gleichzeitig genug Rechenleistung, ein integriertes Display und Bedienelemente und einen ausreichend großen Akku. Vor allem aber ist der IPod ausreichend klein und bereits ergonomisch optimiert. Vielleicht kann man Rockbox so abändern, bzw. ein Anwenderprogramm (das kann man einfach auf die Festplatte kopieren und vom laufenden System aus aufrufen) schreiben, das die benötigten Berechnungen durchführt. Das würde nahezu die gesamte Hardwareentwicklung einsparen und man hat ein System, das sich jeder einfach und relativ günstig beschaffen kann. Die eigentliche Arbeit beschränkt sich damit auf den Algorithmenentwurf und die Implementierung sowie die Entwicklung einer Kopfhörer-Mikrofonkombination. Durch die umfangreichen Möglichkeiten am IPod (großes Farbdisplay, Bedienelemtente) ist ein Einstellen der Hörhilfe während dem Betrieb möglich. @Strubi: Das BF533 ist zwar sehr schön, aber doch als Zeilhardware zu groß. So ein Gerät sollte doch am besten in die Hosentasche passen. Als Zwischenschritt (weil man darauf vielleicht leichter programmieren kann als auf der Zielhardware) kann ich es mir schon vorstellen. @Axel Rühr: Ein AGC ist nichts anderes als ein einfacher Kompressor. Selbst als Mehrbandvariante stehen solche Funktionen in Samplitude ohne weitere Programmierung sofort nutzbar zur Verfügung. Einbanddynamikprozessor in Sam: http://www.samplitude.com/uploads/SAMPLITUDE/basisfeature_pics/basis_comp.jpg Mehrbanddynamikprozessor: http://www.samplitude.com/uploads/SAMPLITUDE/basisfeature_pics/basis_multiband.jpg Viele Grüße, Peter
Klaus: > Könnte man vielleicht, wenn man > die Mikrophone zunächst weglassen will, den Fernsehton (Sprache) nehmen, > um ihn (für mich) besser hörbar oder verstehbar zu machen? Klar, kann man machen. Am einfachsten die Kopfhörerbuchse an den Line-In des PCs anschließen und ein bisschen was aufnehmen. Allerdings hat die Studioabmischung die du empfängst nicht viel mit dem zu tun was ein Mikrofon in der Realität aufnimmt. Was beim Fernsehton gut funktioniert muss nicht beim Mikrofon funktionieren, und umgekehrt. Darüber musst du dir im Klaren sein. Wenn es um das Mikrofon geht, besorg dir erst mal irgend eines, z.B. ein Elektretmikro aus einem Telefon, Headset o.ä., nimm damit ein bisschen was auf in den Situationen die dich interessieren, und bastel mit einem Wave-Editor (meinetwegen Samplitude) daran herum, um überhaupt mal einen ersten Eindruck zu bekommen was so ein Mikrofon aufnimmt und was man mit einfachen Verfahren (Kompressor, Filter usw.) daraus machen kann. Wenn du dann noch Lust hast mehr zu machen melde dich wieder hier. Peter: > Anders ist es, wenn beispielsweise Sprache aus einem sehr stark > gestörten Signal (stark verrauschte Funkübertragung...) extrahiert > werden soll. Hier hilft das Anwenden solcher Algorithmen durchaus um ein > Spachsignal überhaupt verständlich zu machen. In realen Umgebungen aufgenommene Sprache kann man immer als "sehr stark gestört" bezeichnen. Wenn man bei einer Unterhaltung am Straßenrand, in einer Menschenmenge oder in einem halligen Raum etwas verstehen will ist eine 2-Kanal-Geräuschunterdrückung unbedingt zu empfehlen. Einkanalige Verfahren bringen vergleichsweise wenig, ein bisschen Rauschunterdrückung mit spektraler Subtraktion macht aber als letztes i-Tüpfelchen durchaus Sinn, und bei ordentlicher Parametrierung stören da auch keine Artefakte. > Die Latenzzeit der Audiointerfaces ist in der Tat nicht leicht in Griff > zu bekommen. Wenn onboard Audiointerfaces verwendet werden, kann das > durchaus störend viel Latenzzeit sein. Das ganze muss gar nicht von Anfang an in Echtzeit geschehen. Einmal ein repräsentatives Signal aufnehmen und daran arbeiten liefert reproduzierbarere Ergebnisse.
Hallo, zu dem Vorschlag, die Anpassung der Lautstärken einzelner Frequenzbänder (s. Pflichtenheftvorschlag) so vorzunehmen, indem zunächst eine FFT, dann die Anpassung in Form einer Multiplikation mit einem Anpassungsvektor und anschließend wieder eine inverse FFT berechnet werden, möchte ich etwas hinzufügen: Die Faltung im Zeitbereich mit den Filterkoeffizienten, die sich ergeben, wenn die inverse FFT des Anpassungsvektor gebildet wird, ergibt dasselbe Ergebnis mit erheblich geringerem Aufwand. Hierbei ist dafür Sorge zu tragen, dass der Anpassungsvektor symmetrisch ist, damit sich ein reelles, linearphasiges Filter ergibt und den Aufwand somit weiter reduziert. Ein FIR-Filter lässt sich hervorragend normieren und anschließend, ohne Kopfzerbrechen zu bereiten, in Festpunktarithmetik implementieren. Vielleicht hilft das etwas weiter.
Hallo Dipl.-Ing. : Bedeutet das, die Übertragungsfunktion würde lauten
wobei die Koeffizienten
gebildet werden durch
mit v = Anpassungs/Gewichtungs - Vektor ? mit freundlichen Grüssen reimay
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.