Ich habe mich nun entschlossen, Teile der von mir entwickelten Audio-Plattform für B2C verfügbar zu machen. Kosten und Lizenmodell müssen noch erörtert werden. Erwerbsfähig sind schon mal alle für mich selber erstellten VHDL-Cores und Module, soweit diese nicht unter NDA liegen oder anderen rechtlichen Beschränkungen unterliegen. Um das Ganze praktisch handhabbar zu machen, wird es ein release der Pyratone-Engine mit einer festen Konfiguration als komplettes bit-file geben, dass in ein konkretes Modul compiliert werden kann. Da Ich (momentan noch nicht) in den Geräteverkauf einsteigen möchte, werde Ich auf ein käufliches FPGA-Modul zurückgreifen, das entsprechend vorkonfiguriert ist und das als eval board für Bastler mitgeliefert wird. Das ist dann quasi der Datenträger :-) Was derjenige sich daraus dann baut, ist seine Sache. Das System ist vielfältig verwendbar und skalierbar, siehe unten. Um die IOs zu bedienen, kann man auf die einschlägigen I2S-Converter zurückgreifen oder sich eigene Hardware bauen. Zudem plane ich eine modulares Platinensystem:
Hier ist der Link: Beitrag "Analog-Audio-Video-IO-board für FPGAs und MCUs" Als kleinen Vorgeschmack zur P2-DSP-Engine: *********************************************************************** Je nach FPGA-Größe (ganz steht es noch nicht fest), sind mehrere Instrumente parallel möglich. Geplant sind 2 bis 4. Momentan sind 2 verschiedene FPGAs im Fokus. Alle, der bis zu geschätzt 4 Instrumente sind jeweils 64-fach parallel polyphon und gfs auch 64 fach multitimbral, d.h. man kann sie anspielen, wie ein Klavier. Jede Taste hat 4 parallele Oszillatoren, 6 Klangpfade mit Oberwellen und Subwellen und eigene LFOs. Jede Taste hat auch einen eigenen ADSR-Generator. Filter haben ebenfalls alle eigene ADSR und LFO je Taste! Es laufen also etwa 4000 Oszillatoren gleichzeitig! Die 4 Instrumente können addiert und gelayert werden, sodass man mit 2 Händen z.B. die rechte Hand mit der Linken zu einem 128 Manual kombiniert und ein komplettes 88er KB fahren kann. Mit Überlappung! Das System versteht Fast MIDI 2000, kann aber auch mit normalem MIDI beschickt werden. Geplant ist auch der Anschluss von USB-Systemen, die speziell für Synthesizer entwickelt wurden, wie spezielle breath controller, das System von "touch keys", das Roli Seaboard und solche analogen Systeme wie Thermine. Zudem gibt es eine UART zum Kontrollieren der Patches und Einstellungen. Dazu gibt es einen Soundprozessor und einen MIDI-Prozessor mit ARPs, gfs auch dem ALGORYTHM-SYSTEM und den speziellen MIDI-Synch-Mechanismen aus dem Drumcomputer wie z.B. "BEATMORPH". Aufgrund der Einzigartigkeit der Klangsynthese mit Echtzeiteingriff in alle Parameter sind Auflösungen bis 768kHz und Effektvariationen im Microsekundenbereich möglich. Damit sind Stereoszenen und Klangeffekte realisierbar, wie sie mit üblichen Stereo-DSPs nicht nachgestellt werden können. Ich bilde z.B. die Wirkung überlagerter Mikrofonsysteme nach AB und ORTF in Echtzeit nach. Mehrere solcher Module sind kaskadierbar, um die Stimmen zu erhöhen. Zudem plane Ich langfristig ein Release des Real Pianos und der PLD-Orgel. *********************************************************************** Das von mir favorisierte FPGA-board hat ein kleines RAM, das für Samples taugt und sogar ein 1920x1080 Bild speichern kann. Damit wären mit 3 solcher FPGAs sogar ein eigener MIDI-Prozessor und HDMI-Grafik mit Zugriff durch Arduino oder Raspberry möglich. Ohnehin wird es beim Thema USB-MIDI wohl auf eine solche Lösung mit RAS/PI oder Arduino als Frontend hinauslaufen. Das USB-MIDI wird ein zentrales Thema sein, weil nur damit entsprechende Bandbreiten externer Geräte zu generieren sind, um das System auch zu füttern.
:
Bearbeitet durch User
Hi Jürgen, das klingt spannend, obwohl ich noch nicht ganz durchblicke und die Historie nicht kenne, da sind ja sicher einige Jahre rein. Der Fokus ist mir nicht ganz klar, soll das ein fertiges Synthese-Modul mit Midi rein->Audio raus werden, oder ein Community-Ding, an dem jeder bisschen rumbastelt? Prinzipiell würde ich (vom Standpunkt des Musikers) bevorzugen, wenn das Ding nicht zuviel kann, aber das was es kann, gut kann. Ich wäre da primär nur User, ausser, es gibt ein Effektmodul, was 56k-Assembly versteht :-) Sonst schreckt mich ehrlich gesagt auf den ersten Blick ab, was das Ding alles kann/können soll. Ist gedacht, dass jemand Code für deinen Audio-DSP entwickeln kann? Oder ist das eine pure HDL-Sache? Primär wäre natürlich eine modulare High-End Audio-Plattform schon cool, aber es gibt da die beiden Dimensionen: - Musiker: Zahlen gut Geld für High End, aber es muss fertig sein - Bastler: Zahlen nix und wollen alles selberfrickeln Wie sollen die bedient werden? und ganz konkret, welches Evalboard müsste ich mir kaufen, um z.B. deine Synthese zu evaluieren? Grüsse, - Strubi
Ja, wie üblich, MIDI-Notennummer mit Velocity und Start on/off rein und Audio raus. Bei den jeweils gültigen Parametern. Benutzt wird entweder ein physischer MIDI-Eingang oder alternativ eine Spannung rein und in eine Frequenz wandeln lassen, also der klassische Gitarreneingang. Langfristig soll es einen VST-Plugin geben, der MIDI in mein MIDI 2000 über S/PDIF sendet, damit alle Stimmen vom Rechner aus ansprechbar sind. Es ist alles stimm- und wählbar, wie man es von Synthies her kennt (global tuning, fine tuning, ocatave und midi shift, doubling, layering, arpeggio etc), von mir aus kann man auch einen Werckmeister oder Kirnberger reinprogrammieren und Cembalo spielen. Momentan ist hartverdrahtet aber er baut angesichts der Frequenzauflösung von 24 Bit ohnehin ein RAM, von daher wird es ein Blockram werden mit überschreibbarer Stimmung. Auch und vor allem wird es die von mir entwickelte 196/185 Schwebstimmung geben, sowie ein gespreiztes Piano! Das alles mit einer sehr hohen Genauigkeit von Bruchteilen von Cents. Klangsynthese und Oszis werde Ich noch auf der Webseite genauer beschreiben, ist aber umfangreich. Im Prinzip müsste man alles, was so klassischerweise an Synthisounds generierbar ist, hinpatchen können. Inklusive SID, 8 BIt PCM und Murmelakkorde. Alle Parameter haben 10 statt 7 bit und können von MIDI oder UART sowohl gesetzt als auch gelesen werden. Praktisch alles an verfügbaren Parametern für die Synthese wie Filtergüte, Frequenzen, Mischverhältnisse, Harmonische Anteile ist automatisierbar, hat also einen eigenen LFO und eine eigene Hüllkurve. Man kann z.B. die Obertöne und Verzerranteile getrennt automatisieren und einen gitarrenähnlichen Ton, der gezupft wird, in einen Flächensound überführen. Und alles wirkt jeweils für jeden Ton einzeln! Wenn also ein Akkord mit 3 Fingern gedrückt wird und dann schnell zwei Noten wechseln, laufen für die 5 Noten rund 30 ADSRs und LFOs parallel los und formen den Klang. Das Zeitverhalten der LFOs und ADSRs wird jeweils mit >10 Bit und 16384kHz aufgelöst, d.h. man kann sie rund 10mal feiner einstellen, als an üblichen Synths. >FPGA Es wird wahrscheinlich ein Steckmodul von Trenz. >Evaluieren Ich werde eine selbstspielende Demo machen, ähnlich wie die Spartan 3 PLD Orgel fürs Digilent. > Basteln Basteln mit Elektonik, ja - man darf sich anschließen was man will. Im einfachsten Fall das im parallelen thread diskutierte Audio-Video-IO board. Dann braucht man nur noch Strom und ein Gehäuse. Momentan arbeite Ich selber über I2S und verwende Chinamodule, um auf S/PDIF oder RCA Analog zu übersetzen. Die liegen bei 8-17 Euro das Stück. Ich habe das IO-board jetzt initiiert, weil Ich viele Kanäle brauche und die 8x S/PDIF lieber intern machen möchte, da billiger und weniger Pins benötigend. Etwaiges eigenes Basteln mit dem VHDL oder virtuelles Umdrahten kann man abhaken. Das Ding ist schon in der monophonen Version nur mit Doku und viel Simulation weiterzuentwickeln und umzuverdrahten. In der multiplex-Version für mehrere Kanäle sind so viele Randbedingungen gleichzeitig einzuhalten, dass da erstens kaum was geht und zweitens keiner durchblickt. An zwei Stellen kommen von mir erfundene Designprinzipien wie die 3D-pipeline und die roll-off-FSM zum Einsatz, die selbst ein geübter FPGA-Entwickler nicht nachbaut, ohne, dass Ich es ihm detailliert verklickere, was da passiert und wie die Zeitebenen konkret in diesem System verhakt sind. Das Excel, in dem das Timing geplant wird, hat 8 Seiten! Zudem steckt in der Art der Klangsynthese ein nicht unerhebliches tontechnisches Fachwissen aus dem Bereich Tonaufnahme und Mikrofonie aus dem sich viele Dinge ableiten. Das zu verbessern wird anspruchsvoll :-) >Was Besonderes? Ja. Insbesondere die Stereoplazierung ist einzigartig und mit normalem Equipment nicht zu machen, es sei denn, man nimmt 64 Soundmodule und einen 64zu8 Mixer, der Panning und samplegenaue Delays auf allen Kanälen kann und versteht etwas von der SATB-Stützmikrofonie bei Chören und Orchestern und deren Randerscheinungen, wie man da wo welche Mikrocharakteristik benutzt um welchen Effekt zu erzeugen. Mit einem klassischen Synth mit nur 2 oder 4 Ausgängen ist der Käse komplett gegessen. Das ist auch der Grund, warum der Mixer mit dem Reverb ins FPGA muss. Ansonsten müssten hunderte Leitungen im Sampletakt auf ein anderes board. Auch mit TDM wären das noch zu viele und würden mir die Pins wegsaugen. Es sollen ja Module kaskadiert werden und für die fertigen 8 Kanäle kann Ich 4xTDM mit LVDS auf S/PDIF Takt fahren, passt bestens. Ich sehe definitiv nicht, dass man das selber umbauen könnte, es gingen höchstens nur Details und dann passen ja sofort die Patches nicht mehr. Ich kenne ja das Problem der routbaren Synths: Jeder findet irgendwann mal "seine" Einstellung und belässt sie, damit wenigstens die eigenen mühsam erarbeiteten patches laufen. Was Ich aber sehe: Um USB zu machen, wird wohl ein RasPI mit ins Spiel kommen, der die MIDI-Daten empfängt und weiter gibt. Der bekommt kurzerhand noch eine UART und kann damit auch den Synth komplett steuern. An der Stelle können sich die Mikrocontrollerentwickler austoben. Und letzlich kann man den I2S-Datenstrom, der faktisch das Audio darstellt, abfangen und in eigene FPGAs umleiten. Es kommen 96kHz mit 24 Bit auf 8 Kanälen. Dazu vielleicht schon Folgendes: Ich habe das schon vor Jahren so gemacht und öfters in den Keyboardgruppen kommuniziert: Man nimmt 4 Klangerzeuger mit Stereoausgang, füttert sie mit dem gleichen MIDI und legt sie tontechnisch auf die Seiten eines Quadrats mit den Punkten 1,2,3.4 "Front" spielt dann auf den Kanälen 1 und 2, "Left" auf 2 und 3 etc... So füllt man einen ganzen Raum. Das Ganze dann in die Höhe und nach Unten und man hat den 8 Punkt Würfel. Abzudecken mit bis zu 12 Stereobasen. Angedacht sind im Modul 4 Instrumente mit 4 mal Short-Delay und 4mal Hall. Das wären dann die Zwölf. Damit spielst Du einen Akkord und er schwebt 3D durch den Raum, je nachdem wie der Frequenzverlauf und Amplitudenverlauf des Patches ist. Sobald das board gebaut ist, gibt es reale Sounds mit Video über YT. Dann kannst Du Dir ja überlegen, ob Du es haben willst:- Am Design muss dann noch etwas gefeilt werden, besonders der PDM-Wandler muss angepasst werden. Ich werde bis dahin schon mal eine Unterseite machen, wo man Interesse bekunden kann. Momentan habe Ich aus den Musikforen etwa 10-20 konkrete Interessenten.
Jürgen S. schrieb: > Damit spielst Du einen Akkord > und er schwebt 3D durch den Raum, je nachdem wie der Frequenzverlauf und > Amplitudenverlauf des Patches ist. Klingt spannend, aber... > Abzudecken mit bis zu 12 > Stereobasen. ... 24 Lautsprecher? Selbst wenn man mit der Hälfte auskommt, der WAF dürfe umgekehrt proportional zur Zahl der Lautsprecher sein. Man bräuchte einen extra Abhörraum dafür, oder? Wenn ds Ding spielt, würde ich gern mal probehören kommen. Duke
Duke Scarring schrieb: > ... 24 Lautsprecher? Selbst wenn man mit der Hälfte auskommt, der WAF > dürfe umgekehrt proportional zur Zahl der Lautsprecher sein. Man > bräuchte einen extra Abhörraum dafür, oder? Bau es doch in dein Auto, das ist doch WAF-freie Zone ?!
>24 Lautsprecher Das muss man natürlich nicht machen. Wie in jedem anderen Klangerzeuger mit mehreren Ausgängen auch - kannst Du natürlich alles auf eine Stereomain mischen. Aber: In den Instrumenten werden unterschiedliche Klangfarben je nach Verfügbarkeit der Resourcen parallel gehalten und erst "am Ende" auf virtuelle Ausgänge geschoben. Minimal kommen damit alle Sounds eines Instruments auf 2 Stereokanälen raus, die man bei mehreren (4) in einem Quadrat verschalten kann oder im Raum platziert - angedeutet durch 4 parallele Geräte mit jeweils L/R-Ausgang. Sowas kann man bisher auch schon machen und Ich habe das mit bis zu 8 Lautsprechern gemacht. Ist halt ein Instrument für live. Nun wird aber noch mehr gehen: Ich werde wohl wenigstens (Zahl der restlichen Multiplier) 8 Ausgänge pro Line haben. Das wären dann schon mal 8 Lautsprecher allein durch ein einziges Instrument! Da die Klänge selber schon auf der Stereobasis verteilt sind, kann man durch leicht unterschiedliches Zeitverhalten oder programmierte Verschiebung die Klänge als Ganzes oder Teile davon durch den Raum bewegen. Da das Ganze nun auch in Echtzeit modifizierbar ist, könnte man die 8 Lautsprecher auch noch gegen die realen Ausgänge rotieren und damit das gesamte Instrument im Raum drehen. Man kann sogar einzelne Samples einzelner Instrumente woanders hinschicken und damit den Klang durch den Raum morphen und verschmieren. Das geht mit keinem anderen Instrument oder DSP weltweit. Die arbeiten alle auf der Stereosumme und könnten immer nur einen einzigen monohponen Kanal deratig manipulieren. Beim MIDI ist es ähnlich flexibel: Es kommen bis zu 4 MIDI-Kanäle, also Keyboards oder Senquencer rein. Per Splitpunkte werden bis zu 16 Keyboardflächen definiert, die sich überlappen können, d.h. man spielt gfs mit einigen Akkorden 2 Fächen gleichzeitig. Die 16 Flächen werden wieder zu 4 virtuellen Keyboards addiert, wobei man durch Konvergenz Manuale bis 127 Tasten herstellen kann, um Klaviere mit 88 Tasten abzudecken, auch wenn man nur 2 kleine Tastaturen hat. Durch Divergenz kann man mit einem Manual wiederum zweimanualige Orgeln abzudecken, auch wenn man nur eine Tastatur hat. Die Manuale sind in den Tönen und Oktaven verschiebbar können MIDI-Töne generieren, die es normal nicht gibt. Es spielen damit bis zu 4 Personen gleichzeitig. Hinzu kommen MIDI-Echos, Arpeggios etc, die selber spielen. Das Ganze geht dann auf die Soundflächen mit den 64 MIDI Tönen mit fester Frequenz von denen Ich einen abzweigen werde, für einen monophonen Eingang beliebiger Frequenz. (In aktuellen P3-Version sind es sogar 128 Töne mit 96 MIDI Noten + 32 freie Kanäle). Im kompakten Modul werden es 64 Töne, d.h. man kann sich mit einem oder zwei Keyboads spielen und sich eine Orgel mit 4 Manualen a 63 Tönen oder 2 Manualen a 126 Tönen zusammenschrauben und hat noch 4 Monophone Synths frei. In Verbindung mit dem Audiolayering bietet dieses Midilayering Optionen, die mit keiner bisherigen Hardware darstellbar sind. Nicht nur quantitativ und kostentechnisch nicht, sondern überhaupt gar nicht :D Die Problematik ist jetzt nur, eine Architektur zu schaffen, die einerseits so flexibel ist, dass sie entsprechend umzuprogrammieren ist und dennoch nicht zu unübersichtlich wird, dass sie noch einsetzbar bleibt. Ich habe übrigens einen Weg gefunden, die 8 dedizierten Klangkanäle in voller Auflösung in einen anderen FPGA zu transportieren und dort die Zeit-Flächenstruktur zu duplizieren abzubilden, die nötig ist, um das 3D-Soundrouting zu vollziehen. Kostet einiges an BRAM, damit könnte man aber den Effektprozessor in einem zweiten FPGA abbilden - inklusive Morphfunktion auch für externe Quellen und meinem Multichannel-Audio-EQ-Mastering-Kompressor. Damit wird es wahrscheinlich auf eine Lösung mit 2 FPGA-Steckboards hinauslaufen. Zusammen mit einem IO-Board sind das unter 300,- Kosten für einen Gegenwert von 3-4 aktuellen Synthesisern + Audio-DSPs. Der Benutzer kann sich dann aussuchen, ob er einen billigen AD-Wandler von M-Audio oder eine Rosetta dranhängt.
Moin, klingt mir alles ehrlich gesagt zu sehr nach Verkomplizierung für den Anwender. Was mir noch mit Fragezeichen ins Auge sticht, ist die Vernetzung, d.h. wie sieht's mit Ethernet (Midi und Soundübertragung) aus? Wenn ich in dem Zusammenhang RasPi lese, stellen sich mir die Nackenhaare auf. High end würde ich nicht mit Frickelkram kombinieren... Aber mal eine konkrete Anregung: Bevor das Ding zuviel kann oder zig Leute ihre Wunschliste posten (ich nehme mich grade selber an der Nase), schau doch mal, ob Du einen der "Grossen Kleinen" mit ins Boot kriegst, z.B. die innovativen Recklinghausener (Kemper). Wenn dann ein paar Tester der einschlägigen Magazine die Sache auch cool finden, kannst du dich im Markt plazieren. Die Studiosachen wie Effekte durch den Raum schwurbeln lassen sind sicher nerdy, aber da sehe ich jetzt weniger den Markt, das gibt es schon auf DSP-Basis in teuren PAs. Da klaut man dir höchstens noch ne Idee.. Habe mal vor Jahren mit nem Chorus rumexperimentiert, der auf 6 Kanälen (Standard-DSP-Evalboard) rausging. Das wabert schon lustig rum, aber wollte im Proberaum niemand haben, hätte man als Preset vielleicht gerade in ein Mischpult aus der anderen Liga einbauen müssen, und auch dann wär's Spielerei, die eher in die Film-Soundeffekt-Liga gehört. Mehr Lautsprecher braucht's IMHO nicht, da mit Phasenlage sehr viel erreicht wird. Übrigens geht sowas mit 2xStereo schon bei uralten Yamaha SY85. Was sonst ein einfaches Expander-Modul angeht: Schlussendlich machen's bei mir (als Hobby-Keyboarder) die Sounds. Also kompliziertes Splitting und Rerouting braucht m.W. seltenst wer, pragmatisch stellt man einfach zwei Keyboards hin. Die meisten passen nicht mal ihre Presets an. Insofern würde ich die Funktionalität zwischen Zielpublikum Studiotechniker und Musiker auftrennen. Den Musiker interessiert nicht, ob FPGA oder DSP drinsteckt. Muss vor allem haptischen Bedingungen genügen. Wenn dann die Sounds "geil" sind, ist der Preis auch fast egal. Das dritte Zielpublikum "High end affiner Tüftler" dürfte mit FPGA schwer zu adressieren sein, weil es genügend DSP-Kits gibt, die für die meisten Low-End-Zwecke (16 bit/48 khz) ähnliches schaffen, vielleicht nicht in der von dir beschriebenen technischen Perfektion, aber das spielt typischerweise keine Rolle. Wie gesagt würde ich als Tüftler nur auf sowas umsteigen, wenn es einen Motorola 56002 in mehrfacher Instanz emulieren kann (mist, da war sie schon, die Wunschliste). Nu genug Sermon, ich warte mal auf ne Demo...
Wenn ich mir Deine Website anschaue und überlege, wieviele Mann-Jahre Arbeit alleine in den Algorithmen stecken, solltest du das ganze an Yamaha/Casio/Roland verkaufen. Im Idealfall hast Du bereits einige zugehörige Patente eingereicht. Ich sehe hier ein ähnliches Problem wie z.B. bei der Bildverarbeitung (Stichwort Mustererkennung, Szenenanalyse): Ein irrer Aufwand, dessen Ergebnisse von den Endnutzern kaum gewürdigt (sprich: bezahlt) werden und sich finanziell nur trägt, wenn es in Massenprodukte einfließt.
Markus schrieb: > solltest du das ganze an Yamaha/Casio/Roland verkaufen. Angebote gab es, allerdings nicht in dem Rahmen, der den Aufwand bezahlt hätte. Da hätte die Firma dann einen super Schnitt gemacht. Immerhin sind da geschätzt 2 Mannjahre an Arbeit drin, um es allein zu programmieren. Ganz abgesehen, vom Knowhow. > Im Idealfall hast Du bereits einige zugehörige Patente eingereicht Eher nicht. Das was das Gerät ausmacht, ist vor allem Musik- und Tonknowhow, sowie die Art der Realisierung. Würde man Patente einreichen, würde man investieren und andere könnten es kostenlos kopieren. Wie willst Du ein Patent verteidigen, nur aufgrund des Verdachtes, dass irgendjemand was rausbringt, was ähnlich arbeitet?
Jürgen S. schrieb: > Wie willst Du ein Patent verteidigen, nur aufgrund des > Verdachtes, dass irgendjemand was rausbringt, was ähnlich arbeitet? Zumal man da i.d.R. auch Wege findet es leicht anders zu implementieren und dann ist das Patent eh für die Katz. Und man muss auch erstmal das Geld haben gegen größere Firmen vorzugehen - wenn sich das durch mehrere Instanzen zieht wirds schnell sehr teuer und man muss das über mehrere Jahre durchhalten.
Strubi schrieb: > klingt mir alles ehrlich gesagt zu sehr nach Verkomplizierung für den > Anwender. Eigentlich nicht: MIDI rein, Audio raus. > Was mir noch mit Fragezeichen ins Auge sticht, ist die Vernetzung, d.h. > wie sieht's mit Ethernet (Midi und Soundübertragung) aus? Wer's braucht. Dafür gibt es ja Lösungen. Wir reden hier ja von der Klangsynthese. > Wenn ich in dem Zusammenhang RasPi lese Das ist nur eine Idee. Es geht mir darum eine einfache kompakte Recheneinheit zu haben, die GUIs verarbeiten kann und die Sounds / Presets speichert. > schau doch mal, ob Du einen der "Grossen Kleinen" mit ins Boot kriegst, > z.B. die innovativen Recklinghausener (Kemper). Access sind die letzten, die Unterstützung bei der Gestaltung eines Synths benötigen. Die Konzepte, die man in DSPs realisieren kann unterscheiden sich auch stark von dem was mit FPGAs geht. > Wenn dann ein paar Tester der einschlägigen Magazine die Sache auch cool > finden, kannst du dich im Markt plazieren. warten wir's ab. > Die Studiosachen wie Effekte durch den Raum schwurbeln lassen sind > sicher nerdy, aber da sehe ich jetzt weniger den Markt, das gibt es > schon auf DSP-Basis in teuren PAs. Richtig: "teuer" und dafür nur zweikanalig. Wenn Du die Samples in Echtzeit auf der Stereobasis verteilst, kannst Du das individuell regeln. Quasi jedes Sample auf einem eigenen Kanal. In DSPs unmöglich. Nicht bei der Kanalzahl. >Übrigens geht sowas mit 2xStereo schon bei uralten Yamaha SY85. Ich weiß sehr wohl, was alte und aktuelle Geräte können und DAS können sie bei Weitem nicht. > Was sonst ein einfaches Expander-Modul angeht: Schlussendlich machen's > bei mir (als Hobby-Keyboarder) die Sounds. Richtig und dazu gehört deren Wirkung im Raum. Wenn Du alles auf einen Punkt mischst, bist Du begrenzt. > auf sowas umsteigen, wenn es einen Motorola 56002 in mehrfacher Instanz > emulieren kann Macht keinen Sinn. DSP-Systeme gibt es ja schon und mit solchen Geräten wie der Chameleon oder heute Mini-DSP ist das ja da. Aber da geht eben nur sequenziell.
Moin, Jürgen S. schrieb: >> schau doch mal, ob Du einen der "Grossen Kleinen" mit ins Boot kriegst, >> z.B. die innovativen Recklinghausener (Kemper). > Access sind die letzten, die Unterstützung bei der Gestaltung eines > Synths benötigen. Die Konzepte, die man in DSPs realisieren kann > unterscheiden sich auch stark von dem was mit FPGAs geht. > Ich meinte eher, dass Du Dir Unterstützung holst bzw. Synergien nutzt, die du von den Grossen im Geschäft sicher nicht kriegen kannst. >> Wenn dann ein paar Tester der einschlägigen Magazine die Sache auch cool >> finden, kannst du dich im Markt plazieren. > warten wir's ab. > >> Die Studiosachen wie Effekte durch den Raum schwurbeln lassen sind >> sicher nerdy, aber da sehe ich jetzt weniger den Markt, das gibt es >> schon auf DSP-Basis in teuren PAs. > Richtig: "teuer" und dafür nur zweikanalig. Wenn Du die Samples in > Echtzeit auf der Stereobasis verteilst, kannst Du das individuell > regeln. Quasi jedes Sample auf einem eigenen Kanal. In DSPs unmöglich. > Nicht bei der Kanalzahl. > Not buying it. Die üblichen Verdächtigen machen genau sowas mit DSPs. Die Sounds können beliebig mit Phasenverzögerung irgendwo hingeroutet werden, das machte schon unser Kirchenmischpult aus den 90ern..dürfte eine Kanalmatrix von 4 auf 12 gewesen sein. Und ein kleiner Audio-DSP kostet gerade mal 3 USD in Stückzahlen... Aus ganz pragmatischen Gründen macht es mehr Sinn, auf dem Mixer viele DSPs zu verteilen als alles in ein dickes FPGA zu packen. >>Übrigens geht sowas mit 2xStereo schon bei uralten Yamaha SY85. > Ich weiß sehr wohl, was alte und aktuelle Geräte können und DAS können > sie bei Weitem nicht. > Mein oller SY85 kann es immerhin mit 4 Kanälen. Und typischerweise reichen mir zwei. Mehr Korrektur brauch ich nicht, und wenn, läufts übers PA. >> Was sonst ein einfaches Expander-Modul angeht: Schlussendlich machen's >> bei mir (als Hobby-Keyboarder) die Sounds. > Richtig und dazu gehört deren Wirkung im Raum. Wenn Du alles auf einen > Punkt mischst, bist Du begrenzt. > Einverstanden. Aber mehr als 4 Lautsprecher für einen MIDI->Audio Expander? Das ist ein bisschen Overkill, sogar schon für einen digitalen Leslie. >> auf sowas umsteigen, wenn es einen Motorola 56002 in mehrfacher Instanz >> emulieren kann > Macht keinen Sinn. DSP-Systeme gibt es ja schon und mit solchen Geräten > wie der Chameleon oder heute Mini-DSP ist das ja da. Aber da geht eben > nur sequenziell. Ich sag mal so: Es gibt für mich bisher auch kaum einen Grund, das alles in ein FPGA zu packen, wenn ein Array vernetzte DSPs dasselbe liefert, der Aufwand ist bei purer HDL definitiv höher, wenngleich man da auch mit der Arithmetik mehr machen kann und was Clocksync angeht mehr Freiheiten hat. Ich sehe den Sinn beim FPGA ansich auch nur in einer weiterverwertbaren DSP engine, allenfalls ein network-on-chip-Ansatz oder einfaches Sound-Routing, wo es einfach ne Menge Muxer braucht. Der Punkt ist v.a. der: Wenn Du der einzige bist, der den hart gegossenen HDL-Code im Griff hat, und es fallen per Zufall 16t aus dem Himmel auf dich drauf, ist das alles nicht wiederverwertbar... So wie ich verstehe, soll es aber nur bedingt ein Community-Projekt werden. Dann also in dem Sinne: Net viel schwätze, back doch einfach deine besten Sounds auf einen Papilio-Pro-Klone mit direkt eindesignten Codecs und ab ins Gehäuse. Das Verkaufsargument "FPGA inside" und welche technischen Fakten auch immer spielen dann da weniger ne Rolle als 3-4 einfach gute Effekte/Sounds. Hauptsache, der Produktfokus und die Innovation ist klar erkennbar.
Jürgen S. schrieb: > Angebote gab es, allerdings nicht in dem Rahmen, der den Aufwand bezahlt > hätte. ???? Einer meiner Kommilitonen entwickelte sein eigenes MP3-Format und hätte es für einen (sehr) niedrigen sechsstelligen Betrag verkaufen können. Gut, das war zur Jahrtausendwende, also zu Zeiten des Internetbooms, trotzdem hätte ich hier ähnliches erwartet.
Martin S. schrieb: > Not buying it. Die üblichen Verdächtigen machen genau sowas mit DSPs. > das machte schon unser Kirchenmischpult aus den 90ern..dürfte Sei Dir mal sicher, dass Ich als musikalischer Nutzer solcher Systeme sowie als Mitentwickler auch industrieller DSP-Systeme und inzwischen >15 Jahren Erfahrung im Bereich digitaler Signalverarbeitung mit DSPs, PLDs und FPGAs sehr genau weiß, was mit DSPs geht und was nicht und dies in qualitativer und quantitativer Hinsicht. Ich selbst habe an mehreren Stellen bereits meine Haltung kundgetan, was Ich von FPGAs im Bereich Musikerzeugung halte und wie groß Ich den Markt dafür einschätze: Beitrag "Re: Ideen für FPGA-Projekte?" Aber: Es gibt eben eine Reihe von Dingen, die eben nur damit gehen, weil Du die Parallelität der Daten über mehrere Zeitebenen hinweg benötigst. Und es gibt quantitative und kostentechnische Aspekte: Wenn der Klang im FPGA vorliegt, ist es ein Leichtes, "Musik-DSP-Effekte" hinzuzufügen und dies sogar preiswert(er): Du kannst mit jeder Verzögerungslinie, ganz gleich wie sie gebaut ist, immer nur einen Kanal individuell verzögern. Eine Deformation eines Frequenzspektrums, wie es durch die schnelle Verschiebung von Objekten zustande kommt, verbunden mit deren Bewegung und Objekten auf mehreren Kanälen erfordert jeweils eine eigene Delayline, es sei denn man fast was zusammen, oder kann es implizit lösen, z.B. durch ein generisches Modell, welches das schon bei der Erzeugung kann. Ansonsten muss man brav jeden Kanal (je Stimme, jeden Klanganteil, jedes Sample etc..) einzeln anfassen, wobei Ich im FPGA einfachere Möglichkeiten und zugleich mehr Optionen habe, das zu realiseren. Ein solches Delay kostet im FPGA in der longitudinalen Achse der Klangverzögerung für Kanäle und Frequenzen entweder gar nichts (da nur Parameter für Phasen und Speicheradressen anders gesetzt werden), oder es kostet auf der transversalen Achse (Verteilung der Kanalgruppen und Reverb) ein ausdrückliches RAM, als etwas BRAM + MUL + Register. Anteilig sind das aber auch nur jeweils Hundertstel der gesamten Resourcen. Wenn Ich überschlage, kostet der 8 Kanal-Router inklusive Matrix für alle 64x8 Kanäle inkusive Stereoplacer zusammen keine 3 Euro, leistet aber rechnerisch schon das 10fache. Dann denke mal an sub sample Verschiebung. Die kann Ich im FPGA ganz einfach diskret bewerkstelligen, weil Ich 1000 ccs pro Sample habe. Das ist ungefiltert schon genauer, als ein DSP das mit bezahlbarem resampling hinbekommen kann. Ich brauche nur ein Filter gegen den glitch mit gerade 16 TAPs. Ein DSP müsste wenigstens Wurzel(16000) = 512 TAPs mit FIR berechnen, um ähnlich präzise zu verschieben. Die Filterrei ist ein gutes Bespiel: Ich rechne für full range mindestens mit 8192 TAPs. Das sind bei 192kHz und Lamba/4 6Hz als niedrigste Frequenz, die noch ausreichend gut prozessiert wird. Das kostet mich 8 lanes mit jeweils Multiplieren und BRAM im Gegenwert von ebenfalls noch unter 3,00! Demgegenüber bräuchte es einen DSP, der z.B. auf 4,5GHz läuft und alle 3 Takte eine komplette Operation wegschaufelt. Das ist selbst für eine aktuelle Intel-CPU Vollauslastung! Dann der Audio-2-MIDI-Converter: Den habe Ich nochmals angepackt und verbessert. Die Details möchte Ich dazu nicht publizieren, aber wie man meiner Website entnehmen kann, hatte die allererste Version von vor einer Dekade schon den Vorteil, dass sie das MIDI kurzerhand umgehen und den Synth direkt antreiben kann - (nur) so kann man auch tiefste Bassfrequenzen schnell genug erfassen und Klangsynthese betreiben. Auf dem klassischen Wege, so wie man es momentan kaufen kann, braucht es immer einen ausreichend langen Zeitraum von z.B: 20 ms, um tiefe Töne zu erfassen, sie sicher der MIDI-Note zuzuordnen, einen Controllerwert für die Deviation zu definieren und dann beides per USB zu verschippern, damit ein Synthie es dann auspackt, interpretiert und verspätet in einen Ton umwandelt. Das Ding wird es als Beipack geben. Wer nicht Gitarre spielen kann, singt einfach rein oder pfeifft. Markus schrieb: > ???? Einer meiner Kommilitonen entwickelte sein eigenes MP3-Format und > hätte es für einen (sehr) niedrigen sechsstelligen Betrag verkaufen Für den Preis hätte Ich das verkauft :) Wenn das Gebot aber leicht unter einem Jahresumsatz liegt, Ich aber etliches mehr investiert habe, bleibt die Entwicklung eben bei mir :-) Da verkaufe Ich lieber weiter Teile und Teilknowhow als Auftrag.
Jürgen S. schrieb: > Da verkaufe Ich lieber weiter Teile und Teilknowhow als Auftrag. Hört sich interessant an, was genau kann der Privatanwender denn kaufen? Oder was kann ein Hersteller kaufen (was er nicht schon hat)? Jürgen S. schrieb: > Klangsynthese und Oszis werde Ich noch auf der Webseite genauer > beschreiben, Da ist aber eher wenig zu finden. Gibt es Näheres zur Technik?
G. B. schrieb: >> Klangsynthese und Oszis werde Ich noch auf der Webseite genauer >> beschreiben, > Da ist aber eher wenig zu finden. Gibt es Näheres zur Technik? Demos wäre wohl mal nicht übel. Z.B. dazu: Jürgen S. schrieb: > Das Ding wird es als Beipack geben. Wer nicht Gitarre spielen kann, > singt einfach rein oder pfeifft.
Tatsächlich interessant wäre eine Plattform, welche die Grenzen der DSP gut aufzeigt, bzw. deren Vorteile - also mehr ein Werkzeug zum Lernen. Musizieren würde ich lieber immer noch (u.a.) mit dem Minimoog, und dem Emax2 - leider wohl auch mit Cubase auf dem Atari. Aber das funktioniert ganz gut, und die Bedienungen und die Manuals vom Minimoog und dem Emax2 sind natürlich top. Ich habe irgendwo mal etwas darüber gelesen, wie man diese Roland-(Synth-)Erweiterungsboards hacken bzw. selber basteln kann. Das fand ich sehr spannend, denn diese Boards waren im normalen Verkauf unangemessen teuer.
Rbx schrieb: > Ich habe irgendwo mal etwas darüber gelesen, wie man diese > Roland-(Synth-)Erweiterungsboards Welche sind das? Enthalten diese dedizierte DSPs oder gar Roland-spezifische Chips, oder sind das allgemeine Plattformen? Ich kenne vom Keyboarder unserer Band soweit nur Erweiterungskarten mit Styles und Klängen. Der hat das Rolandsystem aber rausgeschmissen, seit er sih mit einem JXD rumplagen musste, der schon nach kurzer Zeit Wärme-Probleme bekommenhatte. Ein anderer hat wohl Kontaktprobleme, weil sie eine billige Plastiktastatur verbauen, die schon nach kurzer Zeit den Geist aufgibt. Ein gutes elektronisches Klavier wäre mal ein Bringer. Kein Sample-Ding sondern eines das synthetisiert. Es gibt eines namens V-Piano, hat mich aber klanglich nicht überzeugt. Zudem extrem überteuert. Das Flagschiff von Roland scheint aktuell die Fantome zu sein. Liegt preislich in der Pianisten-tauglichen Version mit 88er-Hammermechanik allerdings auch im Bereich eines guten Gebrauchtwagens, hat aber zu einem großen Teil die guten alten Klänge als neuerlichen Aufguss mit an board.
Thomas U. schrieb: > Welche sind das? https://www.amazona.de/test-roland-soundboards-fuer-jv-und-xp-synthesizer/3/ https://github.com/hackyourlife/srscramble Das Ersetzen dieser Dinger war nicht schwierig oder teuer, sollen ja auch nur Samples einfliegen, eventuell Speicher noch oder Programme bzw. Soundpatches. Ich wollte für meinen JD 990 immer so ein Soundmodul besorgen, weil der ohne ein wenig verbuggt wirkte. Wavetechnisch hab ich aber auch eine Chipkarte (ähnlich SD-Karte) mit Waves (also SoundSamples) und Programmen drauf. Das reichte mir prinzipiell. Abgeschreckt hatte mich bei den Soundboards der übertrieben hohe Preis. Der Selberbau-Preis lag bei etwa 10 - 25 DM weil man leicht verfügbare Standard HW als Ersatz nehmen konnte. Ein DSP ist da nicht drauf, dann wären die wohl 5x so teuer gewesen oder schlimmer (nur eben eine hässliche Verschlüsselung). Klaviere gibt es schon länger ganz gute - deren Gefälligkeit ist letztlich aber auch stark vom Geschmack abhängig. Früher waren diesbezüglich die Kurzweil-Sounds sehr beliebt. https://www.amazona.de/test-roland-v-piano-stage-grand-e-piano/ bzw. was es heute so gibt an Lösungen. Software geht ja auch, Standalone, oder VST-Plugin - wie gesagt, die Geschichte hängt a) vom Geschmack ab und b) mit der neuen Physical Modelling-Technik hat man zusätzliche Ausdrucksmöglichkeiten, ähnlich wie bei einem echten Klavier. Da kann man dann auch abwägen, was dem eigenen Spiel (oder den Übungsstunden) eher dienlich ist.
:
Bearbeitet durch User
Rbx schrieb: > oder VST-Plugin Ganz sicher nicht :-) Plugins und PC sind von der Reaktionsgeschwindigkeit ein Graus! > wie gesagt, die Geschichte hängt a) vom > Geschmack ab und b) mit der neuen Physical Modelling-Technik hat man > zusätzliche Ausdrucksmöglichkeiten, ähnlich wie bei einem echten > Klavier. aber nur in etwa "ähnlich". Kommt sicher darauf an, was da alles so "gemodellet" wird. Aus den einschlägigen Foren hört man, dass Roland seine alten Analogkisten wieder in digital auflegt und dabei Musiker per Gehör starken Soundcheck betreiben, um die Simplifizierungen, die offensichtlich inbegriffen sind, optimieren. Das ist also weitgehend unvollständig und damit immer noch im Bereich Sounddesign anzusiedeln. Ich kann mir auch nicht vorstellen, wie es möglich sein sollte, ein so komplexes Instrument in allen seinen Details genügend gut in Mathematik zu fassen. Schon bei einfachen Saitenschwingungen tun wir uns bekanntlich schon schwer und nutzen vereinfachte Schwingungsgleichungen, die nicht 100%ig sind. Wäre aber ein Thema für einen neuen thread.
Zu dieser und anderer Fragen: T.U. schrieb: > Demos wäre wohl mal nicht übel antworte ich einfach mal musikalisch mit den Worten der "verrückten" Lady: 'I get him hot, show him what I got, and after he's been hooked, I'll play the one that's on (my) heart" Heißt: Man darf sich als Entwickler bei bestimmten Dingen - gerade beim Thema Audio - nicht zu sehr in die Karten schauen lassen. Es kommt bald jede Woche eine Anfrage nach Details und Tipps. Auf konkrete Fragen, wie ich "das" mache, gibt es einen Appetit-Happen aber keine technischen Details. Am Ende ist der Fragende selbst nach Studium meiner Webseite so schlau wie zuvor und er: "Can't read my, can't read my Pokerface" :D Hier also das, was man mit FPGAs und Spektralsynthese (und einer Portion an Erfahrung in Sachen DJ-ing und Mastering) so in Echzeit remixen kann: http://engineer-music.de/demo/happen.mp3 Demnächst wieder in Ihrer Clubdisco :-)
Rolf S. schrieb: > Ja schau an, Lady Gaga im Stimmbruch. Langsamer abgespielt? Nein, sogar schneller wenn man mal vergleicht, aber eben trotzdem einige Töne tiefer, damit die Tonart passt.
Ich habe eine Orgel implementiert, deren heutiger Stand nach Aussagen einiger Nutzer durchaus so klingt, wie eine Hammond, wenn man sie entsprechend einstellt. Inwieweit das stimmt, sei dahin gestellt. Es gibt viele Hammonds, Einstellungen und Leslie-Effekte, sowie Hörergeschmäcker. Eine erste Version ist z.B. hier verfügbar: http://96khz.org/htm/virtualpldorganspartan3e.htm Diese Version von 2005 geht auf meine allererste Orgel von 2001 zurück, die noch teilweise in Elektronik implementiert war. Man braucht das Spartan 3E um es abspielen zu können. Diese Version hatte noch kein Leslie und nur 2 Register. War also noch weit entfernt, von einer B3. In der 2008er auf dem Altera Neek Cyclone 3 gab es schon einen solchen Effekt, auch Vibrato und einen einfachen Echo-Hall. Es gab aufgrund der Rechenfähigkeiten auch die vollen 64 Tasten mit 4 "Manualen". Ich hatte allerdings nie die Ambition, eine B3 nachzubauen, weil es das schon damals zur Genüge gab und gibt und ich selber das auch nicht brauchte. Nicht zuletzt die HOAX, die so ab 2010 auftauchte, konzentrierte sich voll auf die Nachstellung dieses Orgel-Typs. Bei mir ist Orgelsound immer ein Nebenprodukt gewesen. Fakt ist allerdings, dass die Einstelloptionen in Sachen Klangerzeugung, Oberwellenkontrolle, Modulation und "Abgriff" der Oszillatoren, sowie die Manipulationsmöglichkeiten in meinem System deutlich über das hinaus gehen und auch damals schon gingen, was das System kann und andere FPGA-System konnte, soweit es sich überhaupt gab. Es ist also eine Frage des Abgleichs, inwieweit man einem Klang, den man im Ohr hat, nahekommt. Grundsätzlich geht damit "alles". Das gilt auch für die Rhodes- und andere E-Pianos. Ich nutze und höre diese Instrumente aber nicht ausreichend im Original, um den Klang 100% definieren zu können, von daher ist es schwer, einen optimalen patch zu liefern. Ich kenne eben das, was man z.B. mit der E-MU B3 hatte und mit einem Access Virus an B3-Sounds nachstellen konnte. Da ist mein System schon lange sehr viel umfangreicher und qualitativ hochwertiger. Theoretisch kann ich das damit jederzeit emulieren - die E-mu B3 sogar sehr konkret, wenn man einen gesampelten puren Sound aus den E-Proms in mein user RAM lädt. Mit Sounds aus dem Orbit und der Audity habe ich das schon gemacht. Mit Bezug zum aktuellen thread: Beitrag "verschwundene MIDI-Synth-Boards: Nachfolgetechnik?" Selbst echte wavetable Synthese ist damit möglich. Praktisch scheitert es aber daran, dass mein Synth im Detail eben anders funktioniert, anders auf Paramter reagiert und ich den Zusammenhang zwischen den Einstellparametern und deren Wirkung in der SW oder HW nicht genau kenne. Wenn man also an Reglern dreht oder die velocity nutzt, kriegt man eben etwas anderes. Das gilt in Sachen B3 z.B. für die Registrierungen, deren Mischungen und Klangbeiträge. Es braucht dazu wenigstens einen passenden MIDI-Controller mit Zugriegel und einer weitgehend kompatiblen Übersetzung zwischen Weg und Parameter. Das habe ich nicht und werde ich auch nicht bauen, bzw mich da reinarbeiten - vor allem, weil es das schon in Hülle und Fülle gibt. Die HOAX z.B. wird von vielen Nutzern als mit am Nächsten am Original eingestuft, was einfach daran liegen dürfte, dass der Erbauer Carsten Mayer selber solche Instrumente spielt, daher den Klang haarklein genau im Kopf hat und sein System über Jahre hinweg sukkzessive dahin getrimmt hat, dass es ähnlicher wird. Ich arbeite gerade an der V4, die es dann auch für den Endnutzer geben soll. Es steht jedem frei, Zeit zu investieren und das zu patchen, um einen noch besseren Klang rauszuholen. Allerdings muss man sich dann mit anderen Preisen anfreunden. Es sind wenigstens 5 FPGA-Module fällig, was mit dem Minimalen Drumherum allein für die Beschaffung der HW 4-stellig wird. Allerdings dürfte man damit auch eine komplette GX-1 nachstellen können.
:
Bearbeitet durch User
Strubi schrieb: > weil es genügend DSP-Kits gibt, die für die > meisten Low-End-Zwecke (16 bit/48 khz) ähnliches schaffen, Niemand arbeitet mehr mit 48kHz. Die Synthesizer der letzten Generation sind schon seit >10 Jahren auf 192kHz umsgestiegen und das aus gutem Grund. Und selbst das ist vielen zu wenig und sie nutzen modulare analoge Synthesizer, um die Probleme digitaler Geräte zu umgehen.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.