Ich habe hier einen schönen Song von einer CD meiner Frau, den ich nach mp3 gewandelt habe. Im Internet habe ich nirgendwo die Noten und Tabs für diesen Song gefunden. Also habe ich angefangen, durch Hören und Nachspielen die Bassstimme in GuitarPro (ein Programm zum Eingeben und Abspielen von mehrstimmigen Partituren mit Noten und Tabs) einzugeben. Anfangs war das sehr mühsam. Ich merke aber, dass das immer besser geht, je mehr man es macht. Auch wiederholen sich einige Elemente des Songs von Zeit zu Zeit. Bevor ich damit begonnen habe, habe ich gegooglt nach "Noten aus mp3 erzeugen" und bin da auf die Software "Digital Music Mentor" von der Firma Sienzo gestossen. Diese Software gibt es nicht mehr in einer aktuellen Version und die Webseite der Firma ist leer. Wer weiss, wie es dazu gekommen ist? Hat Sienzo es nicht hinbekommen und es ist tatsächlich nicht möglich (wie so viele Leute im Internet behaupten), diese Arbeit zur Zufriedenheit von einer Software erledigen zu lassen? Wer kennt Einzelheiten zu der Sache? Immerhin zeigt meine Stimmapp auf meinem Android-Smartphone den Ton an, den ich spiele. Ein Spektrzumanalyser würe auch einen Peak bei 440 Hz zeigen, wenn ich ein A spiele.
:
Verschoben durch Moderator
Rolf R. schrieb: > Immerhin zeigt meine Stimmapp auf meinem Android-Smartphone den Ton an, > den ich spiele. > > Ein Spektrzumanalyser würe auch einen Peak bei 440 Hz zeigen, wenn ich > ein A spiele. Ja, aber was würde er anzeigen, wenn du das MP3 abspielst? Ich denke, daß es schwierig bis unmöglich ist, aus einem MP3 eine Partitur zu erstellen (wenn es nicht gerade eine Solo-Aufnahme eines Instrumentes ist). Dafür müßte eine Software aus dem ganzen Signalgemisch die einzelnen Instrumente, bei einem Klavier oder Keyboard oder ähnlichem polyphonen Instrument sogar die einzelnen Tasten voneinander trennen, sie einer Spur zuordnen und die Tonhöhe und -länge als Notenwerte in die Partitur einzutragen.
Angeblich geht das schon, ich habs aber nie probiert. http://www.celemony.com/de/melodyne/was-ist-melodyne
avm schrieb: > Ich denke, daß es schwierig bis unmöglich ist, aus einem MP3 eine > Partitur zu erstellen (wenn es nicht gerade eine Solo-Aufnahme eines > Instrumentes ist). Dafür müßte eine Software aus dem ganzen > Signalgemisch die einzelnen Instrumente, bei einem Klavier oder Keyboard > oder ähnlichem polyphonen Instrument sogar die einzelnen Tasten > voneinander trennen, sie einer Spur zuordnen und die Tonhöhe und -länge > als Notenwerte in die Partitur einzutragen. Aber Sienzo hat es ja probiert. Immerhin hatte die letzte Version eine Versionsnummer, die mit einer 2 anfängt, also nicht sowas wie 0.98 Beta 2 oder so. Mich würde es interessieren, mit welchen Methoden sie vorgegangen sind und was die letzte Version des Programms konnte. Eins ist klar: Sie haben es nicht hinbekommen. Mich würde trotzdem interessieren, wo die Hauptprobleme lagen. Auch fände ich es interessant zu erfahren, was sie hinbekommen haben.
:
Bearbeitet durch User
Ich habe mich mit dem Thema auch immer wieder mal beschäftigt. Grundsätzlich bin ach der Meinung von avm. Aber wenn das Musikstück nicht grad ein Orchesterwerk ist, dann gibts evl halbwegs funktionierende Ansätze: Google mal nach mp3 MIDI converter.
Rolf R. schrieb: > Mich würde trotzdem > interessieren, wo die Hauptprobleme lagen. Mit Sicherheit in der Tatsache, dass Musik aus mehreren Noten zusammengesetzt ist, die wieder OBerwellen haben. Wie will einer da entscheiden, von welchem Instrument es kommt? Oberwellen ändern sich ja, wenn die Note gespielt wird.
Mitleser schrieb: > Rolf R. schrieb: >> Mich würde trotzdem >> interessieren, wo die Hauptprobleme lagen. > Mit Sicherheit in der Tatsache, dass Musik aus mehreren Noten > zusammengesetzt ist, die wieder OBerwellen haben. Wie will einer da > entscheiden, von welchem Instrument es kommt? Oberwellen ändern sich ja, > wenn die Note gespielt wird. Genau diese Problematik wird im Video auf der melodyne agnesprochen und dieses Programm hat Methoden, das zu unterscheiden. Ich habe das Video gerade angeschaut. Ich werde mir gleich auch die Testversion dieses Programms installieren.
Mitleser schrieb: >> Mich würde trotzdem >> interessieren, wo die Hauptprobleme lagen. > Mit Sicherheit in der Tatsache, dass Musik aus mehreren Noten > zusammengesetzt ist, die wieder OBerwellen haben. Wie will einer da > entscheiden, von welchem Instrument es kommt? Oberwellen ändern sich ja, > wenn die Note gespielt wird. Bei monophon gespielten Stücken sollte es mit Hilfe der Fourier- transformation noch möglich sein, die Grundfrequenz zu ermitteln. Bei polyphonen Stücken wirds dann schwierig bis unmöglich. Gruss Harald
Ich habe viel mit Samplitude gearbeitet, da ist ein Plugin von Melodyne drin. Damit kann man schon relativ viel machen, aber vorzugsweise auf Einzelspuren. Da kann man beispielsweise bei Gesangsspuren, wo ein paar "scgräge" Töne drin sind, diese dann auf die richtige Tonhöhe geradeziehen (die Töne werden als sogenannte "Blobs" dargestellt, mit Hüllkurve usw). Aber ich habe die Erfahrung gemacht, bei mehrspurigem Material gibt es schon erhebliche Schwierigkeiten in der Erkennung. Es gibt sie schon, die Mehrstimmige Erkennung, aber man muß nach der automatischen Analyse fast jede Note nachbearbeiten. Vor allem, wenn es komplexe Akkorde sind, wo Klänge ineinander übergehen und alles mögliche, was eben eine abwechslungsreiche Musik ausmacht. Also Notenerkennung ist schon möglich, aber "MP3 rein, Partitur raus" ist definitiv nicht drin. Trotzdem finde ich selbst das, was mit Melodyne schon möglich ist, bewundernswert.
Ich habe melodyne gerade mit dem song ausprobiert, bei dem ich durch Hören und Nachspielen die Noten der Bassstimme eingegeben habt. melodyne hat gute Arbeit geleistet und ich konnte in einer kurzen Passage über 4 Takte, die ich mir angeschaut habe, die Noten wiederfinden, die ich eingegeben habe. Man darf nicht erwarten, dass melodyne das alles perfekt darstellt. Es ist aber eine grosse Hilfe. Da ich Bass spiele und mich hautsächlich die Bassstimme interessiert, muss ich mir dann eben auch nur die tiefsten Töne anschauen. Wenn ich von Anfang an melodyne als Hilfsmittel gehabt hätte, wäre ich viel schneller mit der Eingabe in GuitarPro voran gekommen. Wenn mein Eindruck von dem Programm weiterhin so gut bleibt, werde ich es wahrscheinlich kaufen. Die Testphase dauert jetzt noch 30 Tage.
Rolf R. schrieb: > Wenn mein > Eindruck von dem Programm weiterhin so gut bleibt, werde ich es > wahrscheinlich kaufen. Oh, 399 Euro. Das ist für mein Musikhobby dann doch zu viel und ich mache es weiterhin mit Raushören und Nachspielen.
Rolf R. schrieb: > Oh, 399 Euro. Das ist für mein Musikhobby dann doch zu viel und ich > mache es weiterhin mit Raushören und Nachspielen. Es gibt eine günstigere Alternative, die nach einem ersten Test auch das leistet, was ich suche: http://www.seventhstring.com/xscribe/screenshots.html 39 $ , die ich sehr wahrscheinlich sehr gerne nach der Testphase ausgeben werde.
Rolf R. schrieb: > Es gibt eine günstigere Alternative, die nach einem ersten Test auch das > leistet, was ich suche: > > http://www.seventhstring.com/xscribe/screenshots.html > > 39 $ , die ich sehr wahrscheinlich sehr gerne nach der Testphase > ausgeben werde. Ich habe für den Song "UB40 - Red Red Wine" die Bassstimme in GuitarPro eingegeben. Es gibt verschiedene Versionen dieses Songs. Begonnen habe ich mit dieser längeren Version: http://www.youtube.com/watch?v=87mZvdj3f-M Sehr geholfen dabei hat dieses Lernvideo: http://www.youtube.com/watch?v=PcKaa2ZCxfA Bei obiger längeren Version gibt es aber einige Elemente in der Bassstimme, die in dem Lernvideo nicht behandelt werden. >Würde mich mal interessieren, was Du da zu berichten hast. Da habe ich dann mit Raushören und Nachspielen selber die Noten gefunden und leider war http://www.seventhstring.com/xscribe/screenshots.html dabei keine große Hilfe. Mein erster guter Eindruck hat sich nicht bestätigt und deshalb werde ich das Programm nicht kaufen. Letztendlich habe ich von dem Song dann die kürzere Version genommen, bei dem ich die vollständige Bassstimme dann von der längeren übernehmen konnte und dann ganz schnell fertig war. Dies ist die kürzere Version: http://www.youtube.com/watch?v=q13QxaHEowU
Dazu fällt mir, als ebenfalls altem Basser, ein: Bassist zum Schlagzeuger: "Sag mal, was issen eigentlich eine Synkope?" Schlagzeuger: "Deine Eins."
Hallo Rolf! Das ist zwar ein bisschen off-topic, aber ich kann dir für zukünftige Transkriptionen auf manuellem Wege wärmstens den Earmaster empfehlen. Eventuell bist du in 4 Monaten so weit das im Handumdrehen alleine zu schaffen: http://www.earmaster.com/ Eine freie Alternative, die aber leider nicht an den Earmaster rankommt: http://www.solfege.org/
Als professionelle Alternative empfehle ich capella wave kit: [[http://www.capella-software.com/de/index.cfm/produkte/capella-wave-kit]]
Computer-Systeme tun sich sehr schwer, Töne und Musikstücke zu erkennen. Das ist noch schwieriger und weniger entwickelt als Spracherkennung. Es schon geht bei einfachen einstimmigen Stücken, aber sehr bescheiden darüber hinaus. Ich würde einen Aushang an einer Musikhochschule befestigen, und für ein paar Euro macht das ein Musik-Student. Er/sie braucht das nicht aufschreiben, sondern hören und auf einem Midi-Keyboard abspielen und Midi-Spur einfach aufzeichnen.
Wenn du was akademisches dazu finden willst, dann suche mal nach BSS (blind source separation) und NMF (nonnegative matrix factorization)
J. W. schrieb: > Ich würde einen Aushang an einer Musikhochschule befestigen, und für ein > paar Euro macht das ein Musik-Student. > Er/sie braucht das nicht aufschreiben, sondern hören und auf einem > Midi-Keyboard abspielen und Midi-Spur einfach aufzeichnen. Da hast Du vollkommen Recht. Das ist derselbe Ansatz, den man beim Einspielen von Geigen und ähnlichen Instrumenten verfolgt: Noten, Vibrato und Phrasierungen zu programmieren ist extrem aufwändig. Allerdings geht es mitunter ja auch um die Echtzeitanalyse der Musikdaten. Daran wird gearbeitet.
Aber auch die Rhythmus-Struktur herauszuhören ist schwierig bis unmöglich mit Software. Ein Mensch hört im Unterbewusstsein sofort ob 3er oder 4er Takt vorliegt. Ich fragte mich, warum erkennt man einen Offbeat, der die höheren Lautstärken bei unbetonten Taktphasen hat?? Ein Computersystem würde höhere Lautstärken als betonte Taktphasen interpretieren.
Unter Linux kann man sowas mit Sonic Visualizer machen. add new note layer... http://www.sonicvisualiser.org/
bleibt natürlich immer nur der Abklatsch des Orginals und "das Plagiat"
MP3 ist eine Datei zur Schallaufzeichnung. Sie kann problemlos in andere Formate zur Schallaufzeichnung (.wav, .ogg,...)gewandelt werden. Eine Partitur ist eine Musikbeschreibung, ähnlich wie MIDI-Dateien. Aus MIDI-Dateien eine Notenpartitur zu erstellen ist leicht. Aus MIDI-Dateien eine Schalldatei zu erzeugen ist auch kein Problem. Aber umgekehrt ist schwierig. Ahnlich wie Texte leicht in Bilddateien untergebracht werden können, aber die Texterkennung aus Bildern je nach Bild große Probleme aufwerfen kann. Es lässt sich ja nicht jedes Schallereignis als Musik beschreiben. Relativ leicht ist es noch Sinusschwingungen zu detektieren. FFT ist dazu wenig geeignet, da es keine logarithmische sondern eine lineare Frequenzaufteilung hat. Für hohe Töne gibt es reichlich Daten, aber im Bassbereich sieht es mau aus. Ich hab mal mit Resonatoren(simulierten Schwingkreisen) experimentiert, das Ergebnis kann sich schon sehen lassen. Die SVG-Datei zeigt die Analyse eines Ausschnitts von Pink Floyds "Money". Bis zu einer MIDI-Datei oder Partitur wär es aber noch eine Menge Arbeit.
Es ist ja schon sehr schwer, einen Scan einer Partitur in ein Musik-Format zu konvertieren. Capella-Scan ist ein solcher Ansatz. Bei komplexen Partituren muss man aber noch viel manuell nacharbeiten. Nebenbei: ich wünsche mir schon lange ein Musik-Unterforum, in dem all die Themen um Midi, Notensatz, Musikformate, Audio-FFT, Tonerzeugung etc. besprochen werden können.
> Aus MIDI-Dateien eine Notenpartitur zu erstellen ist leicht.
Ja? Nur wenn die Midi-Datei schon in Tracks aufgeteilt ist und die Noten
am Beat ausgerichtet sind.
Live eingespielte MIDI-Musik vom Keyboard hat das nicht: Keine Spuren
und keinen Beat.
Was die Erkennung von Tönen in Audio-Dateien betrifft,
da würde ich googeln nach "Pitch detection algorithm",
oder Roads Curtis "The Computer Music Tutorial"
J. W. schrieb: > Ich fragte mich, warum erkennt man einen Offbeat, der die höheren > Lautstärken bei unbetonten Taktphasen hat?? > Ein Computersystem würde höhere Lautstärken als betonte Taktphasen > interpretieren. Das ist das erlernte Musik- und Rhythmusverständnis, das der Software meistens fehlt, weil es dem Programmierer fehlt.
Jürgen S. schrieb: > Das ist das erlernte Musik- und Rhythmusverständnis, das der Software > meistens fehlt, weil es dem Programmierer fehlt. Ja, nur versuche das mal, in Algorithem zu fassen. Edit: Mir fällt auf, dass es zur (multitonalen) Pitch-Erkennung schon viele brauchbare Algorithmen gibt, aber zur Rhythmuserkennung sehr wenig.
:
Bearbeitet durch User
In der aktuellen CT war ein kleiner Artikel über eine Software, die eine mp3 in Spuren aufsplitten kann. Hier der Online-Artikel dazu: https://www.heise.de/newsticker/meldung/Open-Source-Tool-Spleeter-schneidet-Musikspuren-aus-fertigen-Mixen-4584561.html Das wäre, wenn es denn funktioniert, doch der erste Schritt, um aus einer mp3 eine Notepartitur zu erzeugen, oder? Hier noch ein englischsprachiger Artikel dazu: https://www.theverge.com/2019/11/5/20949338/vocal-isolation-ai-machine-learning-deezer-spleeter-automated-open-source-tensorflow
:
Bearbeitet durch User
Rolf R. schrieb: > Das wäre, wenn es denn funktioniert Das ist bei allen Musikanalysealgorithmen der Fall: Wenn es funktioniert, wäre es eine tolle Sache. Funktioniert halt nur oft nicht :-) Wenn ich mir vorstelle, dass manche Stereospuren aus über 30 Spuren zusammengemischt wurden, die nicht ständig aktiv sind, also auch nicht als Einzelspur separierbar, sondern komplementär agieren, dann kann man leicht sehen, dass das nicht funktionieren kann. Bei einem Eintopf weiß man im Nachhinein auch nicht, ob das Salz durch die Wurst, den Schinken oder durch Johann Lafer reingekommen ist. Natürlich kann man ein Gleichungssystem aufstellen, das rausbekommt, wieviel Schinken drin ist und wie hoch dessen statistischer Salzgehalt ist um das zu trennen. Da aber Instrumente ihren Oberwellenanteil ändern (akustische je nach Bespielen, Mischung und Synthystimmen so wie so) wird das nicht möglich sein, eine Spur wieder in Instrumente zu trennen.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.