logo



[email protected]

Erste Studie im Kreativbereich: Musikbranche in Angst vor Künstlicher Intelligenz

31-01-2024, 10:27

Wie eine der weltweit ersten Studien über die Auswirkungen generativer Künstlicher Intelligenz auf die Musik- und Kreativbranche zeigt, befürchten 71 Prozent der 15.000 befragten Mitglieder, dass KI ihre wirtschaftliche Grundlage gefährden könnte.

Veröffentlicht wurde die Studie von der deutschen Verwertungsgesellschaft Gema in Kooperation mit ihrem französischen Pendant Sacem.

KI in der Musik: Ängste und Möglichkeiten

Für die Musikbranche werden KI-Anwendungen immer interessanter. Schätzungen der Studie zufolge liegen die möglichen Einbußen, die Musikschaffende durch die wirtschaftliche Verwendung der neuen Techniken bis 2028 erleiden könnten, in Milliardenhöhe. "Ist das der Beginn von einem Prozess, wo es sich für Menschen nicht mehr lohnt, als normalen Brotberuf Musik zu machen und davon leben zu können?", fragte Gema-Chef Tobias Holzmüller bei einer Pressekonferenz in Berlin.

Die Technik eröffnet aber auch Ungeahntes: In Frankreich arbeitet das Label Warner Music daran, der Stimme der verstorbenen Sängerin Edith Piaf wieder Leben einzuhauchen. An der Universität Würzburg will eine neue Forschungsgruppe grundlegende Methoden zur Musikanalyse mithilfe des maschinellen Lernens weiterentwickeln. Dafür haben sie kürzlich eine millionenschwere Förderung erhalten.

KI-Modelle können in der Musikproduktion komplette Arbeitsschritte übernehmen, Songtexte schreiben, alte Aufnahmen der Beatles retten oder etwa Drake Songs rappen lassen, die er nie gesungen hat. Die Technik entwickelt sich rasant weiter.

Wie Künstliche Intelligenz in der Musik eingesetzt wird

Insgesamt arbeiten der Gema-Studie zufolge etwa die Hälfte der unter 35-Jährigen in Deutschland und Frankreich bei der Musikproduktion mit der Unterstützung durch KI-Modelle. Rania Kim ist eine von ihnen. Seit neun Jahren experimentiert die aus Los Angeles stammende Künstlerin mit unterschiedlichen KI-Anwendungen. Heute lehrt sie an einer Universität in Spanien und hat neben Liveauftritten, bei denen sie die Musik mit ihren Bewegungen steuern kann, Kooperationen mit anderen Künstlern. Aber nicht alle sind bereit für das Thema. "Viele Künstler haben Angst, dass sie durch KI ersetzt werden", sagt sie. Es sei aber wichtig, sich damit zu beschäftigen, um die Rolle der Technologie besser zu verstehen.

"Wellenformvorhersage" nennt Rania Kim das System hinter vielen KI-Modellen. Zum Beispiel das, mit dem sie ihre Stimme trainiert hat. Mithilfe eines eigens dafür programmierten Modells speiste sie über 200 ihrer eigenen Songs in die Anwendung ein. Diese analysierte die Audiowellen und versuchte, ähnliche Wellenformen - also neue Songs - auf deren Basis herzustellen. In zweieinhalb Tagen generierte das Programm eine zehnstündige Melodie, aus der die Künstlerin dann Elemente entnahm und damit weiter experimentierte. Daraus entstand das erste KI-Album ihres Projekts "Portrait XO".

Rechtliche Fragen um KI-Unterstützung im Kreativbereich

Die KI-Unterstützung wirft auch rechtliche Fragen auf. "Man hört jetzt schon KI-Musik im Radio, ohne dass man es weiß", sagt Reinher Karl. Er ist Anwalt mit dem Schwerpunkt auf Urheberrecht. Eine Komposition sei erst dann als Musikwerk urheberrechtlich geschützt, wenn sie eine persönliche geistige Schöpfung sei. "Die Frage ist, wie die jeweiligen KIs genutzt werden. Erst wenn so viel persönliche Kreativität im Prozess ist, dass KI lediglich Werkzeug ist, dann kann das Ergebnis ein Musikwerk sein", erklärt Karl.

Die Transparenz im Prozess sei schwierig. "Da werden Kompositionen bei der Gema angemeldet, die kein Mensch komponiert hat", berichtet der Anwalt. Wie viel Künstler im Produktionsprozess auf KI-Anwendungen zurückgreifen, wird von der Gema nach eigenen Angaben bisher nicht kontrolliert. Auch Persönlichkeitsrechte sind ein Thema. Die Rechte an der eigenen Stimme macht sich derzeit zum Beispiel die Plattform Youtube mit dem Experiment "Dream Track" zu eigen, das auf dem Musikgenerierungsmodell Lyria von Google DeepMind basiert. Nutzer können mit einer einfachen Texteingabe 30-sekündige Musikstücke mit der KI-generierten-Stimme der jeweiligen Künstler nach eigenen Vorstellungen erzeugen lassen und diese in ihre Videos einbinden.

(APA/Red.)

Nachrichtenquelle


© 2017-2024 wienpress.at [email protected]