OpenAI entwickelt neuen KI-Tool für text- und tonbasierte Musikerstellung
OpenAI arbeitet laut einem Bericht von The Information an einem neuen Werkzeug zur generativen Musik, das auf Text- und Audioeingaben basiert. Das geplante Tool soll es Nutzern ermöglichen, Musik automatisch zu erstellen – beispielsweise, um bestehende Videos mit passender Hintergrundmusik zu versehen oder einer Gesangsaufnahme eine Gitarrenbegleitung hinzuzufügen. Die genaue Markteinführung und die Produktform – ob als eigenständige Anwendung oder als Integration in bestehende OpenAI-Plattformen wie ChatGPT oder das Video-Generativmodell Sora – sind bislang unklar. Ein Quelle berichtete, dass OpenAI mit Studierenden der Juilliard School zusammenarbeitet, um Musiknoten zu annotieren und so hochwertige Trainingsdaten für das Modell zu generieren. Diese Zusammenarbeit könnte helfen, die musikalische Genauigkeit und künstlerische Qualität der generierten Musik zu verbessern, insbesondere im Hinblick auf Struktur, Harmonie und Stil. Die Annotierung von Noten ist eine anspruchsvolle Aufgabe, die tiefes musiktheoretisches Wissen erfordert – ein Zeichen dafür, dass OpenAI Wert auf künstlerische Authentizität legt. Bereits vor der Einführung von ChatGPT hatte OpenAI frühere Modelle für generative Musik entwickelt, darunter MuseNet, das in der Lage war, Musikstücke in verschiedenen Stilen zu erstellen. In den letzten Jahren lag der Fokus jedoch stärker auf Sprachmodellen, insbesondere Text-zu-Sprache und Sprache-zu-Text, wie sie in Produkten wie Whisper und den Sprachfunktionen von ChatGPT zum Einsatz kommen. Die Rückkehr zu generativer Musik deutet auf eine Erweiterung des KI-Ökosystems hin, das zunehmend multimediale Inhalte erstellen kann. Andere Tech-Riesen wie Google und Suno haben bereits eigene generative Musikmodelle auf den Markt gebracht. Suno hat mit seinen KI-Tools insbesondere für Musiker und Content-Creator eine hohe Akzeptanz gefunden, während Google mit MusicLM und anderen Projekten im Bereich KI-generierte Musik erforscht. OpenAIs neuer Ansatz könnte sich durch die Kombination von Text- und Audio-Prompts sowie die Zusammenarbeit mit professionellen Musikern unterscheiden. Industriebeobachter sehen in der Entwicklung ein klares Signal: KI wird zunehmend zu einem integralen Werkzeug in kreativen Prozessen. Die Fähigkeit, Musik auf Basis von kurzen Beschreibungen oder Audio-Beispielen zu generieren, könnte die Produktion von Inhalten für Videos, Spiele, Podcasts und Werbung erheblich beschleunigen. Gleichzeitig werfen Fragen zur Urheberrechtslage und zur künstlerischen Authentizität neue Herausforderungen auf. Experten betonen, dass die Qualität der generierten Musik stark von der Qualität der Trainingsdaten abhängt – weshalb die Kooperation mit Institutionen wie der Juilliard School strategisch sinnvoll ist. Sollte OpenAI das Tool erfolgreich auf den Markt bringen, könnte es die KI-Generierung von Musik in der Praxis massiv voranbringen.
