Forum: Digitale Signalverarbeitung / DSP / Machine Learning DSPs+Mikros+Batt.+BT in Kästchen als Hörhilfe-Prototyp


von Klaus S. (wernerklaus)


Lesenswert?

Ich war glücklich, als ich dieses Forum fand, denn ich habe eine Bitte: 
Wer kann eine Art "Hörgerät im Kästchen" zusammenbauen, das ich dann als 
Schwerhöriger selber einstellen könnte? Es soll 2 Richtmikros enthalten, 
D/A-Wandler, leistungsfähige Gleitkomma-DSPs, ladbare Stromversorgung 
und Bluetooth stereo zu den Ohren. Natürlich gegen Bezahlung, das 
Basteln. Wer kann das und ist außerdem so lieb und geduldig, mit mir 
Laien umzugehen? Müsste eigentlich noch mehr Leute geben, die sowas 
suchen.
Käufliche digitale Hörgeräte mit ihrer lächerlichen Stromversorgung und 
dem Hauptziel, klein, fast unsichtbar zu sein, vernachlässigen nur einen 
Punkt: Wiedergabequalität. Dabei ist es üblich geworden, dass junge 
Leute Ohrhörer benutzen und Kabelchen und ein Kästchen vor der Brust...
Ich als Älterer möchte mir das mit einem Super-Hörgerät leisten!

von doofi (Gast)


Lesenswert?

> leistungsfähige Gleitkomma-DSPs
Dann mal viel Spass beim Schleppen der dicken Akkus.

Wie kommst Du eigentlich auf den Gedanken dass ein Festkomma-DSP
für so triviale Dinge wie Audioverarbeitung nicht reicht?

Oder willst Du nebenbei noch einige zig-Analog-Modememulationen
auf dem Hörgerät laufen lassen? :-)

So audiophil ist ein Hörgerät im allgemeinen ja nicht.

> Bluetooth stereo zu den Ohren
Überleg Dir erstmal GENAU was Du willst...

von Gast (Gast)


Lesenswert?

Hallo Klaus,

ob es so kompliziert sein muss, wie du es da schreibst, kann ich nicht 
beurteilen und schon gar nicht bauen, aber deine Bemerkungen zu den 
gängigen Hörgeräten kann ich bestätigen. Bin zwar selbst (noch) nicht 
mit dem Problem konfrontiert, wohl aber mein Vater. Aus diesem Grund 
habe ich ihm einen einfachen Stereoverstärker mit Batterieversorgung 
gebaut (9V), an dem er einen Kopfhörer mit fest angeschlossenen Mikrofon 
(Head Set) anschließt. Das Mikro wird etwas zur Seite gebogen, so dass 
er die Umgebungsgeräusche aufnimmt und sie verstärkt über den Kopfhörer 
wahrnehmen kann. Ihm ist der Kopfhörer lieber als zwei Ohrstöpsel, was 
er manchmal auch anschließt. In diesem Fall hat er das Problem, dass er 
auf ein zweites Mikro umschalten muss, das er am Revers befestigt, das 
aber wesentlich mehr Raschelgeräusche der Kleidung usw. aufnimmt, als 
das Mikro des Head Set. Denke, dass eine gescheite Hörhilfe dies aber 
genauso gut kann, wenn nicht noch besser, aber mein Vater hat, warum 
auch immer, irgend etwas gegen die käuflichen Hörhilfen.

von wernerklaus (Gast)


Lesenswert?

Lieber Gast,
herzlichen Dank für die nützliche und freundliche Antwort. Ich hatte 
immer gedacht, das Headset-Mikro ist zu schwächlich für 
Umgebungsgeräusche. Natürlich ist diese Lösung weder Stereo noch 
verstärkt sie die hohen Töne mehr als die tiefen. Und vielleicht ist 
eine Begrenzung der Lautstärke wie in Hörgeräten auch sinnvoll.
Nett, dass Sie für Ihren Vater so sorgen, obwohl Sie die Schmerzen, die 
Alter und Schwerhörigkeit mit sich bringen, selber gar nicht kennen.
Gruß, Wernerklaus

von Gast (. (reimay)


Lesenswert?

Hallo wernerklaus:
ich möchte hier wirklich keine Schwarzmalerei betreiben,
aber die Signalverarbeitung in einem Hörgerät ist ganz gewiss nicht 
trivial.
Zumindest wenn das Gerät mehr können soll als einfach nur zu verstärken.
Alle auf dem Markt befindlichen Geräte bieten ja schon diverse
Frequenzgangcharakteristiken, Peakclipping (Abschneiden zu hoher 
Lautstärkepegel),Telefonanpassung etc. ...
Unter 10 verschiedenen Geräten ist dann vielleicht eines dabei, das für 
einen individuellen Hörgerateträger "optimal" ist.
Natürlich können wir Ingenieure alle erdenklichen digitalen Filter 
programmieren, aber die Anpassung an Ihre persönliche Hörminderung ist 
eine ganz andere Sache.
Ich will damit sagen dass jemand mit einer rein technischen Ausbildung 
nicht
unbedingt in der Lage ist soetwas besser hinzubekommen, als Firmen die 
eine grosse Anzahl von Mitarbeitern in den verschiedensten Disziplinen 
beschäftigen.
Ich weiss wovon ich rede, denn vor 10 Jahren war ich selbst in einem
Entwicklerteam, das sich so etwas zur Aufgabe gemacht hat.
Natürlich ist inzwischen die Technik vorangeschritten und heute
ist Hardware Standard, von der wir damals nur träumen konnten
(Allein die Stromaufnahme  der Bauteile).

Aber vielleicht kann hier wirklich eine Innovation vorangetrieben 
werden.

mit freundlichen Grüssen,
reimay

von wernerklaus (Gast)


Lesenswert?

Lieber Reimay,
vielen Dank. Ja, das habe ich natürlich auch gedacht, dass ich mich da 
verheben könnte. Andererseits hatte ich zwei Siemens Triano, also keine 
schlechten Geräte. Bezüglich der Auswahl der Geräte ist man ziemlich 
hilflos, bei der Anpassung erst recht. Da würde ich schon gern selber am 
PC Einstellungen verändern können. Und dann  bleibt immer noch die 
Kleinheit der Lautsprecher und der Stromversorgung sowie, wie ich finde, 
ein unakzeptabel hoher Klirrfaktor.
Also, was ist Ihr Vorschlag? Welches kommerzielle Gerät soll ich 
versuchen? Soll ich meine "Kästchen"-Hoffnung still begraben? Und auch 
zur Anbetung der geringen Leistungsaufnahme kommen?
Wenn Doofi schreibt, ich soll mir erst mal genau überlegen, was ich 
eigentlich will, dann ist das leichter gesagt als getan, und wenig 
hilfreich dazu.
Ich habe den subjektiven (Hör-)Eindruck, dass höhere Verstärkung für die 
höheren Frequenzen das Problem Altersschwerhörigkeit allein nicht löst. 
Es müssen, so denke ich, diese "Frequenzscheiben" auch (geringfügig) und 
zeitlich verschieden gegeneinander verschoben werden. Schließlich 
scheinen alte Ohren Hall oder Echo zu erzeugen, natürlich 
frequenzabhängig unterschiedlich, die bekämpft werden müssten. Das 
scheint mir nicht trivial, wie Doofi behauptet, da sind Sie ja derselben 
Ansicht.
Nochmals Dank, und Gruß, Wernerklaus

von Gast (. (reimay)


Lesenswert?

http://www.google.de/#hl=de&q=Coyote+DSP+Datasheet&meta=&fp=94f4acf69ddccfd1

Hallo wernerklaus,
habe einen link gefunden der evtl. interessant ist.

Das ist ein dsp chip der speziell für hearing aids entwickelt wurde.

Der Hersteller ist AudioLogic in Boulder,Colorado.

Mittlerweile würde die Firma aber von Cirrus Logic übernommen.

Ich bin leider nicht mehr in der "Szene" beschäftigt und kann nichts 
über die
Verfügbarkeit / Preis des Chips aussagen.

Aber vll. kann das ein kleiner Anstoss zur Realisierung sein.

mit freundlichen Grüssen,
reimay

von Andreas S. (andreas) (Admin) Benutzerseite


Lesenswert?

Von Hörgeräte-DSPs würde ich abraten. Die sind auf geringen 
Stromverbrauch optimiert, und auf nichts anderes. Das ist für deine 
Anwendung unnötig, und die Entwicklungsumgebung dürfte exorbitant teuer 
sein.

Die ideale Hardware für dein Projekt wäre das Bluetunes2-Kit von CSR. 
Alles was du brauchst ist auf einem handlichen Board: CODEC, 
Kopfhörerverstärker, Bluetooth-Antenne, LiIo-Akku, und es passt gut in 
eine kleine Schachtel. Der DSP ist leistungsfähiger als das was man in 
Hörgeräten findet, und relativ einfach zu programmieren. Das ganze 
kostet $1000.

Dann musst du "nur noch" die Software schreiben...

von wernerklaus (Gast)


Lesenswert?

Lieber Reimay, lieber Andreas,
herzlichen Dank für Eure Mühe und Freundlichkeit. Ich werde beiden Tipps 
nachgehen und hier berichten. Aber ich bin auch allergisch, wenn ich 
etwas von "Optimierung" auf geringen Stromverbrauch lese. Oder von 
bisher nicht da gewesener Kleinheit oder "Handlichkeit". Übrigens meine 
Meinung hinsichtlich Gleitkomma kommt daher, dass ich gelesen habe, dass 
die leichter zu programmieren sind als die Festkommaa-Tierchen.
Was das Batterien-Schleppen betrifft (Doofy ist auffällig still), 
schlafe ich ja auch ab und zu, da müsste man sie aufladen und käme mit 
16 Stunden Betriebsdauer hin.
Dank und Gruß an alle, Wernerklaus.

von Gast (. (reimay)


Angehängte Dateien:

Lesenswert?

Hallo wernerklaus,
ja ich lass mich überzeugen, vermutlich ist ein DSP Evaluationkit für
allgemeine Anwendungen besser geeignet als ein auf low power getrimmter
Spezialchip.
Ich hatte einfach die Scheuklappen vergangener Projekte nicht abgelegt.
Es ist halt so das in dem Coyote DSP, den ich oben erwähnte, schon
fertige Algorithmen für Höranpassung festverdrahtet implementiert sind.

Die müssen halt bei einem General Purpose DSP in Software impl. werden.
Und das ist schon eine Herausforderung.

Um diese spezielle Problematik zu  verstehen
hier 2 Arbeiten als Anhang.

mit freundlichen Grüssen,
reimay

von Gast (. (reimay)


Angehängte Dateien:

Lesenswert?

hier der 2. Anhang

von wernerklaus (Gast)


Lesenswert?

Lieber Andreas, ich habe bei CSR über den BlueTunes2 Development Kit 
gelesen, Product ID: BTN-002-2B, Preis 1000 Dollar. Ich glaube, das ist 
ein sehr guter Tipp, herzlichen Dank. Ich will an CSR schreiben, hatte 
aber noch keine Zeit.

Lieber Reimay, herzlichen Dank für Deine Ansicht und vor allem für die 
beiden Texte. Habe sie ausgedruckt und werde sie übers Wochenende lesen.

Angenehmes Wochenende an alle, Wernerklaus.

von wernerklaus (Gast)


Angehängte Dateien:

Lesenswert?

Ich hoffe, Ihr könnt es ansehen - hier im Anhang ist ein ganz gutes Bild 
des BlueTunes2 Development Kit. Für die Fachleute...
Grüße, Wernerklaus

von Andreas S. (andreas) (Admin) Benutzerseite


Lesenswert?

@reimay: Wenn der Hörgerät-Chip fertige Verarbeitungsmodule enthält, 
dann wäre das natürlich ein Argument dafür. Die die ich kenne enthalten 
nur Grundbausteine wie Filterbänke, FFT-Coprozessor oder vielleicht noch 
einen Kompressor, viel Arbeit spart das nicht. Und wie gesagt glaube ich 
nicht dass man an die Chips und die Entwicklungstools überhaupt zu 
vernünftigen Preisen herankommt, allein schon weil das meistens 
ROM-Chips ohne JTAG o.ä. sind die für die Entwicklung einen Menge Kram 
drumherum brauchen.

wernerklaus: Gib doch einfach den Link an: 
http://parts.digikey.com/1/parts/408113-kit-dev-bluecore5-multimedia-v2-btn-002-2b.html

Ich hoffe du unterschätzt nicht wie viel Zeit und Vorkenntnisse man 
braucht um damit etwas sinnvolles anzufangen.

von Moppel (Gast)


Lesenswert?

... Ohne Vorkenntnisse ist es praktisch unmöglich damit etwas sinnvolles 
anzufangen - ausser vielleicht die vermutlich mitgelieferten Demo 
Programme laufen zu lassen.


Eigene Filteralgos implementieren ohne fundierte Kenntnisse der 
Signalverarbeitung?
Da brauchst Du jemanden der das für Dich erledigt - selbst kannst Du das 
definitiv nicht wenn Du Dich selbst als "Laie" bezeichnest!

von Gast (. (reimay)


Lesenswert?

Hallo wernerklaus:
alles was ich bisher geschrieben habe soll nur dazu dienen Ihnen bewusst 
zu machen das es sich bei diesem Projekt um ein technisch/biologisches 
System handelt, das (noch?) nicht vollständig mathematisch beschrieben 
werden kann.

Es ist somit nur dadurch in den Griff zu bekommen, das viele Parameter 
laufend (von Hand?) eingestellt werden müssen.
Eine Einstellung die an eine Hörsituation gut angepasst ist, kann in 
einer anderen zu einem unangenehmen, ja schmerzlichen Höreindruck 
führen.
Aber das kennen Sie ja gewiss schon aus eigener Erfahrung.
Und um diese Signalmerkmale zu erkennen und in Echtzeit darauf zu 
reagieren, braucht es eine Menge audiologischer Erfahrung ( über die ich 
nicht verfüge ).
Andernfalls wird man im Ergebnis kaum besser sein, als mit einem 
konventionellen Hörgerät.

Die bisherige Diskussion zeigt, das viele Gründe dafür sprechen, als 
Hardwareplattform ein leicht erhältliches DSP Starterkit zu verwenden. 
(Bluetooth etc.)
Ich bin mittlerweile übrigens der Meinung, für allererste Versuche, 
sollte auch ein PC mit Soundkarte ausreichen.
Die Erkenntnisse die damit gewonnen werden sollten ausreichen um den 
meiner Meinung nach bisher wichtigsten Satz in diesem Thread zu 
beantworten:
  doofi --> Überleg Dir erstmal GENAU was Du willst...
oder anders ausgedrückt, nach einigen Screening Versuchen sollten Sie 
als allererstes versuchen, das Entwicklungsziel in einem Pflichtenheft 
festzulegen.

z.B.
Ist zum Beispiel ein gutes Spachverständniss wichtiger als Musik ?
(Ersteres ist nähmlich viel schwieriger zu erreichen )

Möchten Sie wirklich immer diese dicken Kopfhörer tragen oder gibt es 
noch andere Möglichkeiten ?

Stellen Sie sich vor Sie haben bereits ein fertig aufgebautes 
Signalverarbeitungssystem vor sich
( DSP Starterkit, PC mit Soundkarte oder Spezialchip ;-) " werbung in 
eigener sache muss auch sein" )
sowie einen umfangreichen Satz an Signalverarbeitungsalgos in der 
Programmiersprache Ihrer Wahl.
Sie haben volle Kontrolle über die Signalkette, die bei den Mikrophonen 
beginnt und einige Millimeter
vor Ihrem Trommelfell endet.
Nach welchem Plan soll jetzt an den "Reglern" gedreht werden ?

Ich meine an diese Punkte, und an viele mehr die mir aber momentan nicht 
einfallen, sollte man denken
und sie am besten schriftlich fixieren bevor man richtig loslegt.

mit freundlichen Grüssen,
reimay

von wernerklaus (Gast)


Lesenswert?

Lieber Moppel-Gast,
ja, was Sie da schreiben, unterschreibe ich selber gerne mit. Ohne 
Kenntnisse geht es nicht, und die habe ich eben nicht. Sorry.
Andererseits habe ich, glaube ich, auch nicht sowas behauptet. Ich suche 
aber so etwas, das ist doch ein Unterschied. Oder ich suche Leute, die 
bereit wären, so etwas für mich gegen Bezahlung zu bauen, so dass ich am 
Ende nur die Anpassung nach Anweisung mitmachen müsste.
Es bleibt, dass ich deutlich feststelle, dass der marktübliche Drang 
nach immer kleiner und kleiner die Klangqualität vernachlässigen muss. 
Man muss doch auch als Laie erlaubt bekommen, da auf ein Umdenken zu 
drängen, zumal die jungen Leute mit iPod längst das tun, was sich ältere 
Hörgeschädigte nicht trauen, nämlich sich etwas umzuhängen, Kabelchen zu 
ordnen und Ohrstöpsel einzusetzen.
Lieber Reimay,
Sie sagen auch, wie Doofi, dass ich endlich ein Pflichtenheft vorlegen 
soll. Das Vorstehende zeigt aber, dass ich im Gespräch mit Ihnen allen 
erst vorsichtig tasten muss, was gehen könnte, was es schon gibt und was 
davon sinnvoll einzusetzen bzw. anzustreben sei.
Letzte Woche habe ich mit einem anerkannten Fachmann auf dem 
Hörgeräte-Gebiet gesprochen, der zwei sehr ansehnliche Bücher darüber 
geschrieben hat. Dabei sagte er beiläufig, dass alle Fachleute wüssten, 
dass das bei der Schallerzeugung in Hörgeräten benutzte Prinzip nicht 
klirrarm sein könne. Aber es müsse eingesetzt werden, weil die in 
Kopfhörern oder Lautsprechern benutzte Technik zu energieintensiv sei.
Daraus schließe ich, dass es vielleicht falsch ist, Bluetooth 
einzusetzen, weil dann die Ohrstöpsel auch mit wenig Energie auskommen 
müssen.
So würde man mit einem voreilig erstellten Pflichtenheft in die Irre 
laufen.
Wenn ich als S-Bahn-Nutzer sagen würde, dass die Züge kürzer sein, dafür 
öfter und ohne Zugführer fahren sollten, damit man keinen Fahrplan 
braucht und die Bahnhöfe kürzer und billiger sein könnten und die 
Tickets auch, dann mag das eine gute Idee sein, aber es wäre trotzdem zu 
viel verlangt, wenn man mich auffordern würde, erst mal ein 
Pflichtenheft für die Wagenhersteller, die Gleisverleger und die 
Programmierer vorzulegen.
Bitte, seien Sie nicht ärgerlich, sondern machen Sie bitte weiter 
sinnvolle Vorschläge, nicht unbedingt nur in meinem Interesse, denn hier 
liegt ein großer Bedarf vor, und er wächst noch.
P.s.: An CSR habe ich immer noch nicht geschrieben, kommt noch...
Wernerklaus.

von doofi (Gast)


Lesenswert?

> (Doofy ist auffällig still)

Jaha, das kommt davon wenn man berufstätig ist... :-)

Vor einigen Jahren habe ich Effektgeräte für meine musikalischen
Ambitionen auf 2 Motorola/Freescale-56302 EVMs selbst in Assembler
programmiert.

Der Leistungsbereich dieser DSPs wird heute bereits durch Controller
abgedeckt, die in der Liste von TI gar nicht mehr als DSPs auftauchen.

Die Situation ist heute™ gegenüber früher™ sehr viel besser geworden.

Heute kann ich beispielsweise in matlab ein Filter generieren und
dann direkt in einem Projekt in der IDE (TI CCS) weiterverwenden.
Eine 180-Tage Evalversion dieser IDE ist kostenlos erhältlich.

Algorithmen zur Rückkopplungsunterdrückung und für eine adaptive 
Filterung
sind keine Hexerei und von ihrem Resourcenbedarf durchaus mit 
DSPs/Controllern der 32-Bit-Klasse zu bewerkstelligen (TMS320F2808/9).

Die Anpassung an die individuellen Hörgewohnheiten von Schwerhörigen
ist das, wo die Hörgerätehersteller sicher mehr Erfahrungen haben,
und wo man als Neuling in diesem Gebiet völlig ratlos ist.

Zu deinem ursprünglichen Posting:

Richtige Studioohrstöpsel mit Kabel dran (Boss/Roland) würde ich 
Bluetooth
allerdings immer noch vorziehen.

Sicher erspart einem ein Gleitkomma-DSP einiges an Kopfzerbrechen
bezüglich der Normalisierung der Algorithmen, das es aber geht,
beweist die Musikinstrumenteindustrie, die verbauen auch fast
ausschliesslich Festkomma-DSPs.

Schau Dir mal die entsprechenden DSPs bsp. von TI an und vergleiche
Leistungsbedarf, Gehäuse, Preisen von Entwicklungskits etc...

Da wirst Du schnell merken, dass Gleitkomma-DSPs in einer ganz anderen
Liga spielen.

von doofi (Gast)


Lesenswert?

P.S.

> Dabei sagte er beiläufig, dass alle Fachleute wüssten,
> dass das bei der Schallerzeugung in Hörgeräten benutzte Prinzip nicht
> klirrarm sein könne.

Es gibt durchaus Begrenzungspolynome die durchaus klirrarm sein können,
bspweise nur geradzahlige Oberwellen (warmer Röhrenklang :-) erzeugen.

Oder eine Begrenzung im Baseband mit anschliessender Filterung.

Hmmm... Ekschperde? Ich weiss ja nicht...

von Peter D. (pdiener) Benutzerseite


Lesenswert?

Guten Abend zusammen,

ich lese diesen Thread nun schon seit dem Anfang mit.
Ich würde meine Erfahrung im Bereich Tontechnik (auch Studiotechnik) und 
Mikrocontroller/DSP gerne mit einbringen.

Für den Anfang würde ich empfehlen, weder auf Größe, Stromverbrauch oder 
Benutzerfreundlichkeit (drahtlos...) zu achten. Für ein ordentliches 
Design einer solchen Hörhilfe ist es meiner Ansicht nach erst notwendig, 
herauszufinden, was in Echtzeit denn alles berechnet werden muss, bzw. 
wie das für einen guten Höreindruck eingestellt werden muss. Dann ist es 
enorm wichtig, die Mikrofone an die richtigen Stellen zu setzen 
(ausprobieren wohin) und so auszurichten, dass es sich 'normal' anhört 
(besonders die Stereobreite und Schall von hinten oder seitlich).

Dazu würde ich zwei handelsübliche Studiomikrofone (oder ein 
xy-Stereomikro) verwenden, per AD-Wandler in den PC einspeisen und dort 
auf einer üblichen Audiosoftware rechnen. Das ganze per DA-Wandler dann 
auf einen hochwertigen Kopfhörer.

Ich weiß jetzt nicht, wieviel Geld in das Projekt investiert werden 
soll, aber man muss ja nicht immer das Beste verwenden. Ich stelle mal 
einfach etwas von meinem Equipment vor, mit dem sich das problemlos 
machen ließe:

- Standard PC
- AD-DA-Wandler HD Qualität Motu 896HD (der ist völlig oversized dafür, 
aber egal)
- Kopfhörer: Sennheiser HD280 pro (Als Alternative In-Ear-Stöpsel von 
BeyerDynamic DTX-20)
- Mikrofone: z.B. 2x Rode M3
- Audiosoftware: Samplitude (www.samplitude.de)

Damit kann man zumindest mal ganz intuitiv ausprobieren, was man denn an 
Signalverarbeitung alles braucht. Und sollte es irgendeine Berechnung 
nicht direkt in Samplitude geben, kann man auch selbstgeschriebene 
VST-Plugins einbinden. Samplitude gibts als Demoversion kostenlos (30 
Tage) oder auch schon für unter 20 Euro im Internet als veraltete 
Version mit einer Begrenzung auf 8 analoge Ein-Ausgänge (reicht auch).

Samplitude kann vom einfachen Equalizer über FFT-Berechnungen, 
Stereobreiteänderung und Faltungen bis hin zu komplexen 
Dynamikprozessoren,  Tonunterdrückung im Frequenzbereich und 
Frequenzshifting eigentlich alles, was man üblicherweise im Tonstudio 
braucht. Meiner Ansicht nach sollte es möglich sein, einen Prototyp 
einer solchen hochqualitativen Hörhilfe damit zu realisieren, ohne eine 
einzige Zeile einer Hochsprache zu programmieren.

Wenn man jetzt das Motu gegen etwas einfacheres ersetzt (und das event. 
gebraucht kauft) und die In-Ear-Stöpsel nimmt, den PC bereits hat und 
Sam für 20 Euro, dann kann man für etwa 400 Euro schon eine ganze Menge 
experimentieren. Vielleicht sollte man als Mikro auch gleich etwas 
nehmen, was man später einsetzen will, was also nicht so groß ist, wie 
die M3. Vielleicht eignen sich Ansteckmikros besser (z.B. 2 Stück AKG C 
577 WR - leider sehr teuer).

Wenn dann die zu verwendenden Algorithmen feststehen, würde ich das 
ganze für Linux schreiben und auf einem Beagleboard laufen lassen. Das 
ist schön klein, braucht wenig Strom (2,5 Watt) und hat bzgl. Audio 
bereits alles drauf (sogar Kopfhörerverstärker). Displays und Knöpfe 
lassen sich da auch einfach dran bauen. Um die Rechenleistung braucht 
man sich keine Sorgen zu machen, das hat mehr als genug.

Alternativ könnte man auch ein entsprechend kleines (!) Laptop mit 
Windows XP verwenden (das gibts ja mittlerweile in Handygröße) und 
einfach das Samplitude-Projekt drauf laufen lassen.

Vielleicht stellt man aber auch fest, dass sich die gewünschten 
Funktionen genauso analog in Hardware realisieren lassen und man gar 
keinen Rechner braucht. Eben deshalb würde ich das mit einer einfach zu 
bedienenden Studiosoftware alles vorher probieren.

Für Fragen bezüglich Studioequipment, Audiosoftware, -Algorithmen und 
Kaufempfehlungen für Tontechnik stehe ich gerne zur Verfügung.


Viele Grüße,

Peter

von Meister E. (edson)


Lesenswert?

@Peter Diener
>Ich weiß jetzt nicht, wieviel Geld in das Projekt investiert werden
>soll, aber man muss ja nicht immer das Beste verwenden.

So lange man nicht weiss was das Beste ist, ist es auf jeden Fall 
unsinnig eine teure Entwicklungsumgebung einzurichten.

>Vielleicht stellt man aber auch fest, dass sich die gewünschten
>Funktionen genauso analog in Hardware realisieren lassen und man gar
>keinen Rechner braucht.

Der Gedanke kam mir auch schon. Im Prinzip wird ja keine 'Intelligenz' 
benötigt, warum also nicht?

Grüße,
Edson

von wernerklaus (Gast)


Lesenswert?

Hallo, liebe Leute,
ich danke Doofi, Reimay, Meister Eder und besonders auch Peter Diener 
für ihre Beiträge. Also können wir uns offenbar einigen auf "kein 
Bluetooth" für den gegenwärtigen Stand und auf die (zunächst mal) 
Verwendung eines PC und drittens (noch) nicht auf reine Analogtechnik - 
oder? Wenn das kein Fortschritt ist!!
Ich habe zwar inzwischen an CSR geschrieben, aber habe natürlich noch 
keine Antwort.
Ich besitze einen PC-Tower vom Juli 2004, zusammengebaut für mich von 
Firma ESCON in Hofheim, mit "Soundkarte" Onboard ADI AD1985 6-Kanal 
Audio. Ist das zu mies? Müsste wohl sowieso mal umsteigen...
Und einen Laptop Fujitsu-Siemens Amilo M1424 vom Januar 2007, beide mit 
Windows Vista Home Premium. Das Ding ist für mich nur erträglich mit 
einer Maus und separater Tastatur.
Beste Grüße an alle, Wernerklaus.

von Andreas S. (andreas) (Admin) Benutzerseite


Lesenswert?

Kauf dir bloß keine Studiohardware, das ist für so etwas überflüssig und 
ungeeignet. Onboard-Sound, ein mittelmäßiger Kopfhörer und ein paar 
Elektretmikros mit Verstärker sind völlig ausreichend.

Wenn du allerdings keine Vorstellungen hast was du eigentlich machen 
willst, dann bringt dir das alles nichts. Professionelle Hörgeräte 
machen nicht nur ein paar Filter, sondern Beamforming (räumliche 
Filterung), spektrale Geräuschunterdrückung, Windgeräuschunterdrückung, 
Expansion, Kompression, alles adaptiv, und die Anpassungen an die 
Gehörschäden sind da noch gar nicht dabei. Analog oder mit 
Studiosoftware kannst du das nicht umsetzen.

Wenn du nicht die eierlegende Wollmilchsau unter den Hörgeräten, sondern 
nur etwas für bestimmte Situationen (z.B. Konzert oder Theater) bauen 
willst, dann ist das schon eher realistisch. Aber auch da musst du 
wissen was der DSP mit den Signalen überhaupt machen soll bevor du dir 
Hardware beschaffst.

von Peter D. (pdiener) Benutzerseite


Lesenswert?

Das onboard-Auido vom Fujitsu-Siemens Amilo M1424 sollte eigentlich 
reichen. Ein Köpfhörerverstärker ist da bereits integriert. Der einzige 
Nachteil der Consumer-Audio-Produkte ist die fehlende (bzw. wenn 
vorhanden, unbrauchbare) Phantomspeisung. Dafür gibt es aber 
batteriegespeiste Mikros (wie das M3) oder Zwischenstecker für die 
Spannungsversorgung. Es ist somit kein Problem, das an einen PC direkt 
anzuschließen.

Bei den Mikrofonen würde ich dringend von Eigenbaulösungen oder 
Consumerartikeln abraten. Es ist extrem wichtig, dass wenig 
Eigenrauschen und geringe Windempfindlichkeit vorhanden sind. Weiterhin 
ist es ein Vorteil der professionellen Geräte, dass der Frequenzgang und 
die Richtcharakteristik (numerisch) bekannt sind, was eventuell 
notwendige Berechnungen (z.B. für Beamforming) erheblich erleichtert.

Bei dem Kopfhörer oder In-Ear sollte man schon auf hohen Tragekomfort 
achten. Hilfreich ist eine geschlossene Bauweise damit Rückkopplungen 
nicht so leicht auftreten.

@ Andreas Schwarz:
>[...] mit Studiosoftware kannst du das nicht umsetzen.

Die meisten genannten Berechnungen lassen sich in Sam ohne weiteres 
realisieren und alles, was nicht direkt geht, kann man selbst 
programmieren und als Plugin einbinden. Was man so also nicht berechnen 
kann, kann man auch ohne Studiosoftware nicht rechnen. Sam ist außerdem 
komplett zur Laufzeit aus anderen Programmen heraus parametrierbar, eine 
adaptive Verstellung nach eigenen Wünschen ist also einfach.

Diese Vorgehensweise erspart einem den ganzen Ärger mit den 
Audiointerfaces, stellt bereits eine nutzerfreundliche Oberfläche zur 
Verfügung und bietet eine ganze Reihe an Visualisierungstools, an denen 
man sonst Monate programmieren würde.

Ich halte es für keine so gute Idee, alles ohne bereits grundlegend 
funktionsfähige Studiosoftware from scratch zu programmieren. So kann 
man relativ schnell ausprobieren, was eigentlich benötigt wird, bevor 
man es überhaupt programmieren muss. Wenn man alles selbst programmiert, 
entwickelt man an einem bestimmten Teil, den man testen will eine ganze 
Weile um dann festzustellen, dass das vielleicht gar nichts nützt.

Wenn man alles, was man an Hardware braucht, gebraucht kauft, bekommt 
man bei professioneller Hardware sein Geld nahezu komplett wieder, wenn 
man es irgendwann verkauft. Das ist bei Billigprodukten nicht so (aber 
damit gibt man auch nicht wenig aus).

Vielleicht sollte man am Anfang auch erst mal ganz auf die Mikrofonie 
verzichten. Also nur einen Kopfhörer am PC verwenden und Musik oder 
Sprache aus irgendwelchen Aufzeichnungen hören. Hier kann man dann alle 
möglichen Berechnungen testen und einstellen.

Da ich Studiohardware zur Verfügung habe, könnte ich Aufnahmen von 
einigen verschiedenen Situationen (auch mit verschiedenen Störungen wie 
z.B. Wind oder anderen Hintergrundgeräuschen) zur Verfügung stellen (als 
Datei). Hier kann ich auch verschiedene Mikrofone probieren, von der 
billigsten Electretkapsel für 3,50 € über einige dynamische Mikros und 
Kleinkondensatoren bis zum Großmembranstudiomikro.

Da ist natürlich noch etwas anderes als wenn ein Sprecher direkt vor 
einem steht, aber damit sollte sich die benötigte Mikrofonqualität schon 
eingrenzen lassen ohne, dass dadurch Kosten entstehen.
Und man kann ohne größeren Aufwand an Hardware verschiedene 
Audioberechnungen testen und vergleichen.


Viele Grüße,

Peter

von Gast (. (reimay)


Lesenswert?

Hallo wernerklaus:
Ich werde mich jetzt nicht mehr so aktiv an der Diskussion beteiligen 
können,
seit Wochenbeginn hat für mich der Ernst des Lebens wieder begonnen :-(

bleibe aber so gut es eben geht dabei.

Sie schreiben:
So würde man mit einem voreilig erstellten Pflichtenheft in die Irre
laufen.

Dem ist aber ganz sicher nicht so, eher der Gegenteil ist der Fall.
Je besser das Entwicklungsziel beschrieben wird, umso leichter
fällt nachher die konkrete Umsetzung.
Glauben Sie mir, ich habe leider selbst schon oft genug gegen diese 
Regel verstossen.

Den Vorschlag mit der Audiosoftware finde ich ganz interessant,
hoffentlich ist die Einarbeitungszeit in dieses Programm nicht allzu 
hoch.

Alternativ ist die Programmiersprache LabView vielleicht geeignet,
um erste Tests durchzuführen.

Ich selbst besitzte eine (sehr) alte Version von LabView (5.1)
die kann noch keinen direkten Soundkartenzugriff.

Aber die neueren Versionen, ( kostenlose, zeitbegrenzte Demoversion)
können das.
Und mit LabView ist es wirklich sehr einfach ohne grössere 
Programmierkenntnisse etwas zu machen.

Allerdings sollte man schon eine gewisse Vorstellung haben,
was sich hinter den Schaltungsblöcken (mathematisch) verbirgt.

Ich würde die Prototypenentwicklung entweder mit LabView oder mit matlab 
machen.

Dabei würde ich ganz grob gesagt so vorgehen:

Transformation des digitalisierten Eingangssignal vom Zeitbereich in den 
Frequenzbereich (FFT)
Aufteilen des Frequenzsignals in (n?) Bänder
Gewichten der einzelnen Bänder mit variablen Faktoren.
Rücktransformation in den Zeitbereich und Ausgabe.

Das ist dann noch lange kein sinnvoller Hörgeräte Algo,
aber geeignet um ein Gefühl für das Problem zu entwickeln.

wie gesagt das ist meine persönliche Meinung wie ich an das Projekt 
herangehen würde.

mein Pflichtenheft dazu würde etwa so ausschauen:

Abtastfrequenz festlegen
Anzahl der Samples
Anzahl der Frequenzbänder
...

Evtl. stellt sich dabei heraus, das es sinnvoller ist das Signal im 
Zeitbereich zu bearbeiten
( glaube ich allerdings nicht )
dann muss ich meinen Plan ändern und ein neues Pflichtenheft erstellen.

Es wird sich zeigen, das die Zeit die in einen Plan investiert wird, 
ganz bestimmt nicht vergeutet ist.

mit freundlichen Grüssen,
reimay

von wernerklaus (Gast)


Lesenswert?

Hallo, liebe Leute,
Dank an Reimay. Ja, mit dem Pflichtenheft magst Du und andere schon 
Recht haben, aber an dem Beispiel sehe ich, dass ich es schlicht nicht 
kann. Außerdem ist es mit mir ähnlich, ich habe mein Interesse 
keinesfalls verloren, aber werde in der ersten Hälfte September verreist 
sein, also mich nicht melden können.
Hier noch ein Nachtrag zum Gleitkomma-DSP, speziell an Doofi, obwohl ja 
fürs erste eigentlich kein Thema mehr. Ich erhielt folgende zwei Links 
genannt:
http://hearcom.eu/about/PersonalCommunicationLink.html und
http://hearcom.eu/prof/AssistiveTechnologies/PHS.html.
Und dazu u.a. folgende Sätze:
Unser Master-Hearing-Aid/Personal Hearing System ist sicher ein guter
Prototyp, aber derzeit außerhalb der Forschung noch nicht zu
gebrauchen. Eine Umsetzung in ein kleineres Kästchen scheitert daran,
dass wir für eine einfache Entwicklung der Signalverarbeitung auf
Gleitkomma-Arithmetik angewiesen sind, die derzeit nur von
PC-Prozessoren geleistet wird.
Ich frage den Administrator Andreas Schwarz, ob ich hier meine 
Mailanschrift nennen darf.
Denn ich möchte sehr gern mit Peter Diener direkt mailen, weil mir seine 
Ansichten und Vorschläge sehr zusagen. Könnte man vielleicht, wenn man 
die Mikrophone zunächst weglassen will, den Fernsehton (Sprache) nehmen, 
um ihn (für mich) besser hörbar oder verstehbar zu machen? Habe am Kabel 
leider nur eine Uralt-Siemens-Fernsehröhre, immerhin mit 100 Hz und 
gutem BTX, aber der geht und geht nicht kaputt. So warte ich z.Zt. ab, 
bis man mir das analoge oder PAL-Signal abstellt. Da ich allein lebe, 
brauche ich so eine riesige Bildfläche nicht, wie sie heute üblich ist, 
hätte aber gern ein allgemein verwendetes, also zukunftsfähiges HDTV.
Grüße an alle, Wernerklaus.

von Strubi (Gast)


Lesenswert?

Hi,

Kleiner Kommentar zum Thema Gleitkomma: Fuer ein embedded Geraet gibt es 
eigentlich mehr Contras als Pros, der wohl gewichtigste Grund ist der 
deutlich hoehere Stromverbrauch.
Der Grund, warum die meisten nach einer FPU schreien, ist wohl - boese 
gesagt  - die Faulheit, sich ueber eine effiziente Ausnutzung der 
Fixkomma-Arithmetik Gedanken zu machen und entsprechend den Code zu 
gestalten.
Dabei gibt es im Audio/Video-Bereich keinen Grund, 'floats' zu benutzen, 
im Gegenteil liefern einige Algorithmen deutlich weniger Artefakte, wenn 
man sie in Fixkomma programmiert.
Wuerde mich also bei diesem Projekt nicht auf Gleitkomma festlegen, 
gerade, wenn das Geraet eine Weile lang laufen soll. Fuer schnelles 
Prototyping zum Thema Audio habe ich mit dem EZKIT BF533 (wuerde 
allerdings fuer Entwicklung den BF527 empfehlen) gute Erfahrungen 
gemacht.

Gruss,

- Strubi

von doofi (Gast)


Lesenswert?

HearCom_D09-12_V1.1.pdf:

> The advantage of using
> high-level programming languages in algorithm development is partly
> reversed by the need
> of a foating point processor. Current SmartPhones and PDAs do have only
> fixed point processing.

Wie es scheint, wird da Grundlagenforschung betrieben und keine
Rücksicht auf eine wirklich mobile Implementation genommen.

Schade ist, dass deren Forschungsergebnisse bzgl. der Algorithmen
auf der Webseite nur unvollständig und unscharf dokumentiert werden.

> This information is confidential and may be used only for informatioj
> purposes by Community Institutions to whom the Commission has supplied it

So stellt man sich Forschung aus Steuermitteln immer vor :-)

Die Schlüsselalgorithmen:

> Single-channel noise suppression based on perceptually optimized
> spectral subtraction (SC1)

> Wiener-filter-based single-channel noise suppression (SC2)

> spatially preprocessed speech-distortion-weighted multi-channel
> Wienerfiltering (MWF)

> binaural coherence de-reverberation filter (COH)

sollen in: "Proceedings of the 16th European Signal Processing
Conference, Lausanne, Switzerland, 2008" näher beschrieben sein.

Die solltest Du Dir vielleicht mal besorgen.

Das mit einem oder mehreren Festkomma-DSPs zu implementieren,
sehe ich durchaus optimistisch.

Der dort getriebene hohe Aufwand für das Audiointerface,
resultiert eher aus den Schwächen der PC-Architektur bzgl.
Latenz und Jitter. Das Bluetooth-Audiohardware weitere
unerwünschte Latenzen hat, wird ja dort auch anerkannt.
An einem DSP sind ein oder mehrere AD/DA-Wandler sehr einfach
anzuschliessen.


Mit generischer PC-Audiosoftware (Samplitude etc.) kann man sicher
schon das Audiosignal vom TV etwas 'aufhübschen' und verschiedene
Algorithmen testen. Für einen Einstieg sicher nicht verkehrt.
Auch um z.B. die Ohrstöpsel zu testen.
Bei mir läuft z.B. auch immer ein Kompressor (so 6-9 dB) mit,
damit die Werbung nicht lauter als der Film wird :-)

Schlussendlich kommt man aber für eine mobile Nutzung nicht um eine
Implementation auf einem DSP herum. Und da helfen einem die
auf einem PC zur Verfügung stehenden Algorithmen nur begrenzt.
(Siehe oben)
Je eher man also die eigentliche Zielhardware benutzt, um so
schneller wird man zu einem Ergebnis kommen.

von doofi (Gast)


Lesenswert?


von Axel R. (Gast)


Lesenswert?


von Peter D. (pdiener) Benutzerseite


Lesenswert?

@Wernerklaus:
Direkte Emailnachrichten kann man als angemeldeter Benutzer senden, 
indem man auf den Benutzernamen klickt. So muss man die Emailadresse 
nicht online stellen (Spamgefahr).
Natürlich kann man einen Fernseher als Tonquelle verwenden, wenn es eine 
Möglichkeit gibt, an das Tonsignal heranzukommen (z.B. Kopfhörerbuchse, 
SCART-Ausgang oder am besten Cinch-Buchsen).

@doofi:
Das Problem der Störgeräuschunterdrückung sind die dabei entstehenden 
Artefakte. Ich denke, dass das hauptsächliche für Nutzer eingesetzt 
wird, die ohne die Störgeräuschunterdrückung Sprache überhaupt nicht 
verstehen können.
Ich kenne ähnliche Algorithmen zur Störgeräuschunterdrückung bei alten 
Bandaufnahmen oder Überspielungen von Vinylplatten. Sie bringen nur 
selten einen praktischen Nutzen, weil die entstehenden Artefakte meist 
mehr stören als das vorher vorhandene Störgeräusch. Deswegen ist der 
Einsatz an hochqualitativem Material meist nicht sinnvoll.

Anders ist es, wenn beispielsweise Sprache aus einem sehr stark 
gestörten Signal (stark verrauschte Funkübertragung...) extrahiert 
werden soll. Hier hilft das Anwenden solcher Algorithmen durchaus um ein 
Spachsignal überhaupt verständlich zu machen.

Die Latenzzeit der Audiointerfaces ist in der Tat nicht leicht in Griff 
zu bekommen. Wenn onboard Audiointerfaces verwendet werden, kann das 
durchaus störend viel Latenzzeit sein.


Eine weitere Möglichkeit der späteren Implementierung ist mir noch 
eingefallen. Es gibt für den IPod ein freies Betriebssystem 
(www.rockbox.org). Der IPod Video hätte beispielsweise einen 
Audioeingang (auf dem Peripheriestecker) und einen Ausgang mit 
Kopfhörerverstärker und gleichzeitig genug Rechenleistung, ein 
integriertes Display und Bedienelemente und einen ausreichend großen 
Akku. Vor allem aber ist der IPod ausreichend klein und bereits 
ergonomisch optimiert.
Vielleicht kann man Rockbox so abändern, bzw. ein Anwenderprogramm (das 
kann man einfach auf die Festplatte kopieren und vom laufenden System 
aus aufrufen) schreiben, das die benötigten Berechnungen durchführt.
Das würde nahezu die gesamte Hardwareentwicklung einsparen und man hat 
ein System, das sich jeder einfach und relativ günstig beschaffen kann. 
Die eigentliche Arbeit beschränkt sich damit auf den Algorithmenentwurf 
und die Implementierung sowie die Entwicklung einer 
Kopfhörer-Mikrofonkombination. Durch die umfangreichen Möglichkeiten am 
IPod (großes Farbdisplay, Bedienelemtente) ist ein Einstellen der 
Hörhilfe während dem Betrieb möglich.

@Strubi:
Das BF533 ist zwar sehr schön, aber doch als Zeilhardware zu groß. So 
ein Gerät sollte doch am besten in die Hosentasche passen.
Als Zwischenschritt (weil man darauf vielleicht leichter programmieren 
kann als auf der Zielhardware) kann ich es mir schon vorstellen.

@Axel Rühr:
Ein AGC ist nichts anderes als ein einfacher Kompressor. Selbst als 
Mehrbandvariante stehen solche Funktionen in Samplitude ohne weitere 
Programmierung sofort nutzbar zur Verfügung.
Einbanddynamikprozessor in Sam:
http://www.samplitude.com/uploads/SAMPLITUDE/basisfeature_pics/basis_comp.jpg
Mehrbanddynamikprozessor:
http://www.samplitude.com/uploads/SAMPLITUDE/basisfeature_pics/basis_multiband.jpg



Viele Grüße,

Peter

von Andreas S. (andreas) (Admin) Benutzerseite


Lesenswert?

Klaus:
> Könnte man vielleicht, wenn man
> die Mikrophone zunächst weglassen will, den Fernsehton (Sprache) nehmen,
> um ihn (für mich) besser hörbar oder verstehbar zu machen?

Klar, kann man machen. Am einfachsten die Kopfhörerbuchse an den Line-In 
des PCs anschließen und ein bisschen was aufnehmen. Allerdings hat die 
Studioabmischung die du empfängst nicht viel mit dem zu tun was ein 
Mikrofon in der Realität aufnimmt. Was beim Fernsehton gut funktioniert 
muss nicht beim Mikrofon funktionieren, und umgekehrt. Darüber musst du 
dir im Klaren sein.

Wenn es um das Mikrofon geht, besorg dir erst mal irgend eines, z.B. ein 
Elektretmikro aus einem Telefon, Headset o.ä., nimm damit ein bisschen 
was auf in den Situationen die dich interessieren, und bastel mit einem 
Wave-Editor (meinetwegen Samplitude) daran herum, um überhaupt mal einen 
ersten Eindruck zu bekommen was so ein Mikrofon aufnimmt und was man mit 
einfachen Verfahren (Kompressor, Filter usw.) daraus machen kann. Wenn 
du dann noch Lust hast mehr zu machen melde dich wieder hier.

Peter:
> Anders ist es, wenn beispielsweise Sprache aus einem sehr stark
> gestörten Signal (stark verrauschte Funkübertragung...) extrahiert
> werden soll. Hier hilft das Anwenden solcher Algorithmen durchaus um ein
> Spachsignal überhaupt verständlich zu machen.

In realen Umgebungen aufgenommene Sprache kann man immer als "sehr stark 
gestört" bezeichnen. Wenn man bei einer Unterhaltung am Straßenrand, in 
einer Menschenmenge oder in einem halligen Raum etwas verstehen will ist 
eine 2-Kanal-Geräuschunterdrückung unbedingt zu empfehlen. Einkanalige 
Verfahren bringen vergleichsweise wenig, ein bisschen 
Rauschunterdrückung mit spektraler Subtraktion macht aber als letztes 
i-Tüpfelchen durchaus Sinn, und bei ordentlicher Parametrierung stören 
da auch keine Artefakte.

> Die Latenzzeit der Audiointerfaces ist in der Tat nicht leicht in Griff
> zu bekommen. Wenn onboard Audiointerfaces verwendet werden, kann das
> durchaus störend viel Latenzzeit sein.

Das ganze muss gar nicht von Anfang an in Echtzeit geschehen. Einmal ein 
repräsentatives Signal aufnehmen und daran arbeiten liefert 
reproduzierbarere Ergebnisse.

von Dipl.-Ing. (Gast)


Lesenswert?

Hallo,

zu dem Vorschlag, die Anpassung der Lautstärken einzelner Frequenzbänder 
(s. Pflichtenheftvorschlag) so vorzunehmen, indem zunächst eine FFT, 
dann die Anpassung in Form einer Multiplikation mit einem 
Anpassungsvektor und anschließend wieder eine inverse FFT berechnet 
werden, möchte ich etwas hinzufügen:

Die Faltung im Zeitbereich mit den Filterkoeffizienten, die sich 
ergeben, wenn die inverse FFT des Anpassungsvektor gebildet wird, ergibt 
dasselbe Ergebnis mit erheblich geringerem Aufwand. Hierbei ist dafür 
Sorge zu tragen, dass der Anpassungsvektor symmetrisch ist, damit sich 
ein reelles, linearphasiges Filter ergibt und den Aufwand somit weiter 
reduziert.

Ein FIR-Filter lässt sich hervorragend normieren und anschließend, ohne 
Kopfzerbrechen zu bereiten, in Festpunktarithmetik implementieren.

Vielleicht hilft das etwas weiter.

von Gast (. (reimay)


Lesenswert?

Hallo Dipl.-Ing. :
Bedeutet das, die Übertragungsfunktion würde lauten
wobei die Koeffizienten
 gebildet werden durch
mit v = Anpassungs/Gewichtungs - Vektor ?
mit freundlichen Grüssen
reimay

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.