In den letzten zehn Jahren hat sich die künstliche Intelligenz (KI) im Alltag immer mehr durchgesetzt, von Online-Anzeigen, die genau zu wissen scheinen, wonach Sie suchen, bis hin zu Musikkompositionen und anderen kreativen Anwendungen.
Allein die Vorstellung, mit KI Musik zu machen, wirft Fragen über die Natur der Kreativität und die Zukunft menschlicher Komponisten auf. Von nützlichen Tools bis hin zu bahnbrechenden Prototypen – hier ist ein Blick auf einige der neuesten Innovationen, die KI im Prozess des Musikschreibens verwenden.
ScoreCloud-Songwriter
DoReMIR Music Research AB gab kürzlich die Einführung von ScoreCloud Songwriter bekannt, einem Tool, das Originalmusik in Leadsheets umwandelt. Die Software verwendet die mit einem einzigen Mikrofon aufgezeichneten Informationen und kann Gesang und Instrumente enthalten. Verschiedene KI-Protokolle trennen den Gesang und transkribieren dann die Musik, einschließlich Melodie und Akkorde, zusammen mit den Texten auf Englisch. Was Sie erhalten, ist ein Leadsheet mit Melodie, Text und Akkordsymbolen.
„Viele etablierte und aufstrebende Songwriter sind brillante Musiker, haben aber Probleme damit, ihre Musik zu notieren, damit andere sie spielen können“, erklärt Sven Ahlback, CEO von DoReMIR, in a Medienmitteilung. „Unsere Vision ist, dass ScoreCloud Songwriter Songwritern, Komponisten und anderen Musikfachleuten wie Pädagogen und Interpreten helfen wird. Es kann sogar Musikliebhaber zum spielerischen Gebrauch anregen, die nie gedacht hätten, dass sie ein Lied schreiben könnten. Wir hoffen, dass es zu einem unverzichtbaren Werkzeug wird, um Musikwerke zu schaffen, zu teilen und zu bewahren.“
Harmonai’s Dance Diffusion
Harmonai ist ein Unternehmen, das Open-Source-Modelle für die Musikindustrie erstellt, und Dance Diffusion ist ihre neueste Innovation in der KI-Audioerzeugung. Es verwendet eine Kombination aus öffentlich verfügbaren Modellen, um Audiobits – bisher etwa 1-3 Sekunden lang – sozusagen aus dem Nichts zu erzeugen, die dann in längere Aufnahmen interpoliert werden können. Da es sich um KI handelt, wird es sich weiterentwickeln und weiterentwickeln, je mehr Benutzer Audiodateien eingeben, von denen es lernen kann. Wenn Sie daran interessiert sind, wie Dance Diffusion entstanden ist, gibt es ein Video-Interview mit den Machern hier.
Hier ist eines ihrer Projekte, ein unendliches KI-Bass-Solo, das seit dem 27. Januar 2021 gespielt wird. Es basiert auf der Arbeit des verstorbenen Musikers Adam Neely.
Es befindet sich noch in der Testphase, aber seine Auswirkungen sind tiefgreifend.
Googles AudioLM
Googles neues AudioLM basiert seinen Ansatz zur Audioerzeugung auf der Art und Weise, wie Sprache verarbeitet wird. Es kann Musik für Klavier mit einem kurzen Ausschnitt der Eingabe erzeugen. Die Sprache verbindet Klänge zu Wörtern und Sätzen, genauso wie es bei der Musik um einzelne Töne geht, die sich zu Melodie und Harmonie zusammenfügen. Die Google-Ingenieure haben sich an den Konzepten der fortgeschrittenen Sprachmodellierung orientiert. Die KI erfasst sowohl die Melodie als auch die Gesamtstruktur und die Details der Audio-Wellenform, um realistische Klänge zu erzeugen. Es rekonstruiert Klänge in Schichten, die darauf ausgelegt sind, die Nuancen einzufangen.
Metas AudioGen
Das neue AudioGen von Meta verwendet ein Text-zu-Audio-KI-Modell, um sowohl Sounds als auch Musik zu erstellen. Der Benutzer gibt eine Textaufforderung wie „Wind weht“ oder sogar eine Kombination wie „Wind weht und Blätter rascheln“ ein und die KI antwortet mit einem entsprechenden Ton. Das System wurde von Met und der Hebrew University of Jerusalem entwickelt und ist in der Lage, Sound von Grund auf neu zu erzeugen. Die KI kann verschiedene Geräusche aus einer komplexen Situation heraustrennen, beispielsweise wenn mehrere Personen gleichzeitig sprechen. Die Forscher trainierten die KI mit einer Mischung aus Audiobeispielen, und sie kann über ihren Trainingsdatensatz hinaus neue Audiodaten erzeugen. Zusammen mit Geräuschen kann es Musik erzeugen, aber dieser Teil seiner Funktionalität steckt noch in den Kinderschuhen.
Was kommt als nächstes?
Da die KI-Musikerzeugung noch in den Kinderschuhen steckt, ist es leicht, ihre zukünftigen Auswirkungen auf die Branche abzutun. Aber es kann nicht ignoriert werden.
Eine elektronische Band namens YACHT hat 2019 ein komplettes Album mit KI aufgenommen und dabei eine Technologie verwendet, die bereits übertroffen wurde. Im Wesentlichen haben sie der KI beigebracht, wie man eine YACHT ist, und sie hat die Musik geschrieben. Die Band verwandelte es dann in ihr nächstes Album.
„Ich bin nicht daran interessiert, ein Reaktionär zu sein“, erwähnte YACHT-Mitglied und Tech-Autorin Claire L. Evans diese Ambivalenz in einem Dokumentarfilm über ihr KI-unterstütztes Album von 2019 Kettenauslösung (wie zitiert in Tech-Crunch). „Ich möchte nicht zu meinen Wurzeln zurückkehren und Akustikgitarre spielen, weil ich vor der bevorstehenden Roboter-Apokalypse so ausgeflippt bin, aber ich möchte auch nicht in die Schützengräben springen und unsere neuen Roboter-Oberherren willkommen heißen.“
Der Ansturm neuer Technologien ist unerbittlich. Die einzige Möglichkeit ist, in den Zug zu steigen.
#LUDWIGVAN
Holen Sie sich die täglichen Kunstnachrichten direkt in Ihren Posteingang.