KI
Musik
Endstation?
Stell dir vor...
… Songs, die sich in Echtzeit an deinen Geschmack anpassen – keine festen Alben mehr, sondern Musik als dynamischer Begleiter.
Klingt crazy? KI macht’s möglich!
Oder selbst mal einen Nummer 1 Hit auf Knopfdruck erstellen und nebenbei noch Geld verdienen? Schon jetzt Realität. Vielleicht wird KI aber auch den Musikmarkt zerstören wie viele befürchten… natürlich nur, wenn man davon ausgeht, dass er vorher intakt war.
Die Diskussion um KI in der Musik ist aus meiner Sicht deshalb so spannend, weil sie einerseits Ruhm und Ehre dem cleveren KI-Pionier verspricht und andererseits die ökonomische Verlustängste von Musiker*innen triggert – und dabei fast kategorisch die ökonomischen Fundamente der Musikindustrie (oder sonstige ökonomischen Fundamente) außen vor lässt. Über diesen Zwiespalt möchte ich in diesem Text schreiben.
tl;dr – 3 Key Points
- Das Musikbusiness ist für die allermeisten stets prekär gewesen und auch die KI scheint in der Hinsicht nichts zu ändern.
- Die Frage nach Original vs. Generiert oder menschlich vs. maschinell polarisiert, trotzdem ist sie aus Konsumentensicht weder sinnvoll noch besonders relevant. Wie in den meisten Fällen sind die Grenzen fließend oder nicht vorhanden – und vor allem geht es nicht um den Künstler, auch wenn er sich diesmal in der Maschine befindet.
- Eine friedliche Koexistenz scheint der wahrscheinlichste Weg: Menschen schätzen weiterhin das menschliche Tun, auch wenn die KI längst besser ist. Schach macht es vor.
Verliebt in ein Talahon
Zum Positiven: Dank KI muss sich kein Mensch mehr um „Dune – das Broadway Musical“ kümmern, die KI macht das für uns; sie wird es simultan rezipieren und „Dune 2 – Das Broadway Musical“ generieren. Mit Spin-Off. An dieser Stelle wären wir dann raus und könnten uns die Frage stellen, was wir mit der gewonnenen Zeit anfangen wollen.
Natürlich ist das kein Witz, denn es gibt sowohl hervorragendes Material für „Dune – das Broadway Musical“ als auch einen omnipräsenten, KI-generierten Material-Tsunami, der sich im gleichen Atemzug einsaugt und neu verwurstet. Das betrifft mittlerweile die Mehrheit der Inhalte im Netz und mag sicherlich einer der Gründe sein, warum beliebte LLMs wie ChatGPT von Zeit zu Zeit „dümmer“ oder „ungenauer“ oder einfach nur komisch werden.
Allerdings erlaubt uns KI auch mit Tabus zu brechen und jenseits von Zahlen wieder über das Gefühl zu sprechen. Es kann sehr wohltuend sein, Kunst einmal ohne Künstler zu betrachten, worauf man sich kunsthistorisch ja eigentlich mal geeinigt hatte. Versucht man die kunstschaffende Hand kognitiv auszublenden und sich nur darauf zu konzentrieren, wie man das Geschaffene empfindet, dann lässt sich meiner Ansicht nach eine gute Idee entwickeln, was KI mit dem Musikmarkt so anstellen wird.
Meine Hypothese lautet daher, dass der Autor bzw. der neue, generative Komponist ein zweites Mal über den Jordan gehen muss, um den Rezipienten zu emanzipieren und KI-Musik jenseits technologischer Faszination zu bewerten.
Sicherlich besteht man als zahlenaffiner Mensch auf harte Fakten und Studien wie „AI and Music“ von Goldmedia für sacem und GEMA, in der ein gar nicht so subjektiver Verlust von 3,1 Milliarden US-Dollar prognostiziert wird. Innerhalb von vier Jahren soll sich das Marktvolumen von KI-Musik mehr als verzehnfachen – auf eben jene 3,1 Milliarden US-Dollar, was 28 Prozent der globalen Copyright-Umsätze in 2022 entspricht. Und haben nicht zuletzt über 200 topbekannte Musiker*innen einen Petition unterschrieben, dass der KI im Musikbusiness Einhalt geboten werden muss? Immerhin der Kulturrat NRW setzt noch Hoffnungen in die neuen Technologien, aber im Grunde scheint doch glasklar Gefahr im Verzug und Tantiemen gefährdet zu sein.
Schlimm, schlimm, schlimm...
Mit den Horrormeldungen wie der Goldmedia-Studie beginnend, oder genauer, mit der panischen Berichterstattung darüber, möchte ich den Blick auf den eigentlichen Untersuchungsgegenstand lenken: Alles, was KI in der Musik betrifft. Es geht um Sound Synthesis, Audio to Sheet, Sample Search, Mixing, Editing, Voice Synthesis, Playlist Creation, Trend Prediction, Sectioning, Sound Cleaning, usw.
Die Studie zeigt auf, wie viel Geld Menschen für KI in Themenbereich der Musik ausgeben (und sei es nur für ein dynamischen Hall-Reduzierer, wie er gängige Praxis ist). Dann kommt man auf 3,1 Milliarden, bei denen es wenig Sinn ergibt, sie als Verluste der Musikindustrie zuzuschreiben, geschweige denn, als Verluste von Copyright-Umsätzen, womit implizit immer die Verluste des kleinen Kunstschaffenden gemeint sind. Achtung, es kann jeden treffen!
Unnötig zu erwähnen, dass die Musikindustrie selbst ohne Ende KI-Tools baut. Und unnötig zu erwähnen, dass von den 15.000 GEMA-Befragten 35 Prozent selbst KI nutzen, die Grenzen sind hier ebenfalls fließend.
Was regulatorische Rahmenbedingungen betrifft, gibt es mehrere Fragezeichen, und natürlich ist es nicht okay, wenn beispielsweise die eigene Stimme ohne Zustimmung kopiert wird. In der Masse kann ich die Forderungen nur teilen: Unternehmen sollten mindestens kennzeichnen, wenn sie urhebergeschütztes Material als Trainingsdaten verwenden, besser noch sollte es eine Lizenzvereinbarung geben. Sie sollten aus Transparenzgründen kennzeichnen, wenn Musik KI-generiert ist und politische Entscheidungsträger sollten der Sache mehr Aufmerksamkeit schenken. Nun kann man dem entgegnen, dass die EU mit ihrem neuen AI Act durchaus Transparenzanforderungen stellt, die dann in den Staaten umgesetzt werden müssen. Ansonsten passiert da gerade viel (Klagen) und man wird sehen, wie es juristisch weiter geht. Festzuhalten gilt: Menschen nutzen vermehrt KI-Tools. So weit, so unspektakulär.
Ökonomische Fundamente
Bei KI hätten wir es mit einer disruptiven Technologie zu tun, die, wenn man den einschlägigen Zeitschriften Glauben schenkt, den Musikmarkt für immer verändert. Das Erinnert mich ein bisschen an den letzten großen Hype um Musik auf der Blockchain, der den Musikmarkt ebenfalls für immer verändern sollte. Dieser lebte von der Idee, dass ein digitaler Anteil an Musik den Zugang zu ihr demokratisieren würde. Jeder könne ein Stück Drake-Song besitzen und daran verdienen, wenn er gespielt würde. Heute könne jeder mit KI der nächste Drake werden. Lustigerweise hat sich auch fast das gesamte VC Kapital von Blockchain– auf KI-Start-ups gestürzt.
Das Problem: Es macht einen beides nicht zum echten Drake, auch wenn der Song identisch klünge. Was bei KI genauso wie bei Blockchain mitschwingt, ist das Versprechen, mitzuverdienen – natürlich nur jene, die konsequenterweise vom Krypto-Experten zum Prompt-Engineer umgeschult sind. Und so wird dieses Versprechen auch über Bande befeuert, wenn Künstler*innen davor warnen, dass Millionen ihrer Einkünfte in Gefahr sind. Aber wie genau das geschehen soll, wird leider selten ausgeführt. Gibt es dann eine Dua Lipa-KI-Cover-Band die für 30€ die Kölner Lanxess-Arena füllt? Werde ich Millionen mit artverwandten Drake-Songs verdienen können? Diverse Artikel handeln davon, dass die nächste Hits von einer KI stammen könnten. Nun stammt der erste Hit von einer KI, „Verliebt in ein Talahon“ erklomm die Top 1 Platzierung in den deutschen Spotify-Charts… und nun? Schon kurios aber who really cares?
In der Erzählung um die KI, die die Gesetze der Musikindustrie außer Kraft setzt, werden Annahmen für eine disruptive Technologie getroffen, die selbstredend disruptiv ist, aber für ganz andere Sachverhalte. Schauen wir uns deshalb die beliebteste Annahme an, die KI-generierte Musik von der originären Musikindustrie unterscheiden soll: Musiker*innen werden in Zukunft weniger von ihrer Musik leben können.
Wir werden alle arm
Eigentlich ein no-brainer, aber lässt man die 1 Prozent weg, können Musiker*innen generell kaum von ihrer Musik leben. Autoren übrigens auch nicht. Und beim Wort bildende Kunst… lassen wir das. Die digitale Transformation hat die Lage der Musiker*innen verschärft. Erlöse aus dem Musikstreaming sind super im Einkommensmix, aber nur für die wenigsten Künstler*innen wirklich relevant.
Ärgerlicherweise hilft es kaum, auf die Streaming-Plattformen draufzuhauen, was naheliegend wäre. Stellt sich heraus, dass auch der wirtschaftliche Erfolg von Spotify „überraschend prekär“ ausfällt (Spotify Teardown, 2019, S. 105). Seit der Gründung hat das Unternehmen 2022 überhaupt das erste Mal Gewinn verzeichnet und auch nur verhältnismäßig wenig. Die größten Kosten sind die Lizenzrechte. Die drei Major-Labels Universal Music Group, SonyMusic Entertainment und Warner Music Group haben es geschafft, die Abhängigkeit der Streaming-Plattformen von ihren Musikkatalogen als Hebel einzusetzen. Als eine dieser Plattformen muss Spotify stetig wachsen und seine Haupteinnahmequelle, zahlende Abonnenten, vergrößern. Je stärker die Plattformen wachsen, desto mehr Zugangsrechte auf die Musikkataloge brauchen sie und je mehr Spotify anbietet, desto mehr muss es an Musikrechten bezahlen, an Finanzierungskosten leisten usw. Um ein stabiles Wachstum zu gewährleisten, wurde in 2020 von zwei Milliarden Euro Bruttogewinn allein die Hälfte für den Verkauf und das Marketing ausgegeben. Für eine echte Machtverteilung müsste direkt an das „Kartell der Musikverlage“ (Die Macht der Plattformen, 2021, S. 350) herangetreten werden, sie sind die eigentlichen Preisgestalter.
Überraschenderweise kommt die Forderung nach einer fairen Bezahlung auch von den Plattformen selbst. Der ehemalige Chefökonom von Spotify, Will Page, führte als Argument ins Feld, dass die Musik an sich zu schlecht bezahlt werde. Mit 9,99 Pfund im Monat sei eine höhere Bezahlung der Künstler einfach nicht zu machen (siehe Pro-Rata-Modell). Seit der Einführung dieses Universalpreises im Jahre 2001 und seiner Adaption von Spotify im Jahre 2008 wurde er kaum angepasst. Inflationsbereinigt liegt er heutzutage bei ca. 6 Pfund. Darüber hinaus galten die geflügelten 9,99 im Monat damals noch als Äquivalent für 300 einmalige Streams und 30 Downloads.
Man könnte dem entgegenhalten, dass Spotify immerhin 30 Prozent der Einkünfte pauschal einbehält und trotzdem gibt es immer wieder Kritik an einem zu niedrigen Preis – beispielsweise fragt das Harvard Business Review schon vor 10 Jahren: „How can something [Musik] that is so deeply important for so many of us be so completely mispriced? How can you give this away cheaper than toilet water?“.
Widerstand lässt sich fortwährend beobachten, viele Künstler*innen haben versucht, sich dem Einfluss von Spotify zu entziehen – Taylor Swift zum Beispiel wollte ihr Album 1989 erst gar nicht auf Spotify veröffentlichen – und es lässt sich zeitlebens darüber streiten, wie man in der heutigen Plattformökonomie den Netzwerkeffekten entgegenwirken, Pfadabhängigkeiten vermeiden und faire Alternativen entwickeln kann.
Fakt ist, wir Nutzer*innen zahlen Künstler*innen grundsätzlich viel zu wenig. Aber – das wird man leider fragen müssen – seit wann haben Künstler*innen einen Anspruch darauf, von ihrer Kunst zu leben? Unangenehm, aber die KI ist es in dieser Gemengelage nicht, die hier irgendwas kaputt macht. Wer zahlt denn aktuell überhaupt einen nennenswerten Beitrag für Musik? Seit jeher ist es der Merch, sind es Konzert- und Festivaltickets, die den entscheidenden Einfluss haben, aber die Kunst selbst? Außerdem gehören viele Hits mittlerweile zu Musikkatalogen, die als reine Investments für die Fonds institutionelle Anleger und Vermögensverwalter dienen; ich finde es folgerichtig, sich vom Narrativ des kleinen Künstlers zu verabschieden, um den es in dieser Diskussion gehen soll. Bis zu 70 Jahre werden zehntausende Songs abgegolten, wobei viele Künstler*innen schon lange verstorben sind (Looking at you, Hipgnosis). Aber Philipp, jeder kann dann in Top-Musikkataloge investieren, was soll daran schlecht sein? Vor drei Monaten kaufte Blackstone den kompletten Musik-Fonds für 1,6 Milliarden und setzte den Handel aus. Schade.
Zwischen Körper-Klang-Kopplung und Funktionalität
Da ich zunehmend den Eindruck gewinne, dass in Sachen Musikwirtschaft kein plötzlicher Umbruch zu erwarten ist, will ich den Fokus mehr auf das erwähnte Gefühl legen. Was kann KI hier tun?
Rollen wir das kurz von vorn auf, da es für das Gefühls-Argument meiner Meinung nach ein bisschen Theorie braucht:
Grundsätzlich ist Musik als Mediatisierungsphänomen einer kulturellen Entwicklung zu betrachten. Auf der einen Seite steht die unmittelbare klangliche Kommunikation als menschliches Bedürfnis, sich emotional auszudrücken und auf der anderen Seite die Repräsentation durch externe organisierte Zeichensysteme. Das bedeutet nichts weiter, als das sich Musik immer zwischen basalem Ausdruck und Hochtechnologisierung bewegt – sie ist immer im Fluss.
Der viel referierte und allgemein anerkannte Ausgangspunkt liegt dabei in der anthropologischen Basis von Musik und Sprache: Musik dient als akustisches Kommunikationssystem. Durch den neurophysiologischen Aufbau ist es dem Menschen faktisch unmöglich, sich emotional akustischer Stimuli zu entziehen. Aus dieser Perspektive heraus ist es erstmal unerheblich, ob eine Maschine Musik erzeugt oder nicht; die Frage, was Musik „menschlich“ macht, oder wie sich „maschinelle“ von „menschlicher“ Musik unterscheidet, ergibt keinen Sinn, denn sie wirkt so oder so. Das wird besonders dann deutlich, wenn man sich vom Ursprung entfernt und sich auf der Mediatisierungsskala weiter in Richtung zeichentheoretischer Ansätze bewegt.
Auf dieser Seite der Skala wird Musik mehr und mehr durch ein Medium vermittelt, mit dem Ziel, einen emotionalen Gehalt zu übertragen. Sie erfüllt immer einen Zweck, sei es bewusst oder unbewusst.
Man kennt das beispielsweise aus dem Mood-Management, bei dem der als hedonistisch angesehene Rezipient unterbewusst negative Stimuli meidet und positive Stimuli bevorzugt, um ein ausgeglichenen Gefühlszustand zu erreichen (Rezipient fühlt sich ermattet und wirkt dem unterbewusst mit positiver Musik entgegen). Oder aus dem Uses-and Gratification-Ansatz, bei dem sich der Rezipient seiner Bedürfnisse bewusst ist und deshalb bewusst befriedigende Medien auswählt (Rezipient ist traurig und wählt deshalb bewusst traurige Musik, um sich kontrolliert reinzusteigern). Musik durch KI hat aus medientheoretischer Perspektive lediglich beim Mediatisierungsgrad eine neue Stufe erreicht.
Das ist nicht relativierend oder abwertend gemeint, sondern soll auf den Umstand verweisen, dass vor allem die Trennung zwischen einer zunehmenden Mediatisierung von Musik und ihrer individuellen Relevanz essenziell ist. Der individuelle Wert, also welches Gefühl man mit der Musik verbindet, besteht völlig unabhängig von Kommerzialisierung und Mediatisierungsgrad. Denn vielleicht bleibt gerade jenes hochkommerzielle KI-generierte Lied in einem bedeutsamen Moment in Erinnerung. Vielleicht untermalt sie einen Film, den man toll findet, vielleicht ist es in einem schwierigen Lebensabschnitt ein wichtiger Begleiter, oder hört sich einfach nur gut an und erklärt sich zum Lieblingslied.
Um zu zeigen, wie schwierig es ist, überhaupt ein Original (was ja für menschliche Kreativität gegenüber der unkreativen Maschine steht) in der Musik zu bestimmen, ein kleiner Exkurs:
Die Hoch- oder Minderwertigkeit von Musik an einem Format festzumachen, ist ein Kategorienfehler, den wir nur all zugut kennen: Es gab die Diskussion um die Wertigkeit bei Schallplatten im Verhältnis zur Livemusik, bei Mp3 zur Schallplatten oder beim Streaming zur Musik, „die man damals noch ohne Abo kaufen konnte“. In der Entwicklung von Formaten gab und gibt es seit 150 Jahren einen Streit um Wiedergabetreue und Kriterien für den echten Klang. Es kamen funktionelle, ästhetische, soziale und philosophische Fragen auf, durch die Menschen lernten, wie sie das Verhältnis von Mensch und Maschine einordnen wollen. Und dieser Weg war nicht unbedingt linear. Die Deutungshoheit darüber, was echte oder gute oder originale Musik ist, wurde schon immer durch soziale Aushandlungsprozesse erlangt, bestimmt von Avantgardisten, Unternehmen, sozialen (patriarchalen) Strukturen (Hi-fi für die Männer, Fernsehen für die Frauen) und sonstigen Gegebenheiten – dem chaotischen Konglomerat alltäglicher Gegebenheiten.
Für Walter Benjamin, einer der wichtigsten Vordenker, ist das Echte, das Original mit seiner technologischen Reproduzierbarkeit gestorben, für Adorno, ebenfalls wichtiger Vordenker, wahlweise mit dem Aufschreiben von Noten, der Abschaffung des Grammophons oder der Kommerzialisierung und seinen Angleichungsmechanismen. Wahrscheinlich würde er heute Produzenten wie Max Martin selbst als KI-Maschinen beschreiben: Eingängige Toplines, Funky Beats, einfache Kadenzen, ähnliche Abmische, Part A, Refrain, Part B, Refrain und am Ende vielleicht nochmal Refrain einen Halbton höher. Dieses Muster in eine KI gepromptet wird in zwei Jahren auf der Stelle 100 perfekte Max Martin Songs erzeugen. Dass KI heute als Eingabe Text benötigt (und morgen vielleicht nur noch einen Gedanken), ändert nichts an der Art, wie die Musik zustande kommt: Basierend auf vorhandenen Daten. Es handelt sich ebenfalls um Reproduzierbarkeit, die nach bestimmten Regel funktioniert und ich bin mir sicher, dass es aus einem rein rationalen Verständnis keinen Unterschied macht, wer da reproduziert.
Wenn es aber nicht der Mediatisierungsgrad ist, worum geht es dann? Will ich Dua Lipa werden und habe eine Dua Lipa-KI fehlen mir immer noch ihr Management, ihr Standing, ihre Fanbase, ihre Dance Moves, mir fehlt einfach alles. Logisch, es gibt nun mal nur die Dua Lipa, den Drake oder die Taylor Swift. Musiker*innen ist dieser Sachverhalt sonnenklar, ich wundere mich nur, warum ich das in Artikeln so selten lese.
Übrigens ist man in der elektronischen Musik ehrlicher: Dort spricht man hin und wieder von Tool Musik, also Musik, die für einen ganz bestimmten Zweck gedacht ist. Zum Dynamikaufbau eines Sets zum Beispiel, wenn man nicht alle Drops hintereinander verfeuern will. Die Tracks sind gerade nicht einzigartig oder sonderlich kreativ, sondern verfolgen ein konkretes Ziel und sollen sich in die Set-Idee des Künstlers einfügen. Es geht um die Erfahrung, um das doing, und dazu braucht es Tools. Fernab davon erscheint mir zumindest die Diskussion in der Popmusik recht kulturell aufgeladen zu sein.
Wenn es einen Satz gibt, den man bis hierher mitnehmen sollte und der für mich Sinn ergibt, dann dieser: „If music is a thing, then it is for something.“ (Jonathan Sterne)
Limits
Interessanterweise scheinen die Regeln und Grundsätze, die vor der KI-generierten Musik galten, nach wie vor intakt.
Für den Pionier der Computermusik, Jean-Claude Risset, war die Frage nach Originalität ab der Entdeckung von Computern und dem Aufnehmen von Musik beantwortet. Der Computer habe schlicht keine Limitationen (9:26-10:00). In einer Reihe von Experimenten zeigt er auf, dass Klänge nicht nur in ihren physikalischen Merkmalen verändert werden können, sondern auch, dass das Hören an sich schon eine Interpretation darstellt. Sein Ansatz ist, dass Musik nicht einfach besteht, sondern gehört werden muss, um sie zu erfahren. Ein Klang ist in seiner Wirkung nicht nur durch seine physikalischen Merkmale determiniert. Erst das Ohr entscheidet – zum Beispiel, dass bei einer mathematisch identischen Funktion zwei vollkommen unterschiedliche Klänge gehört werden.
Anderes Beispiel: Robert Henke, Gründer der Musiksoftware Ableton, sagte 2016 in einem Vortrag, es sei nicht mehr länger das Problem, neue Möglichkeiten zu finden oder originell zu sein, da technisch alles ginge und jede Form der Klangerzeugung und -kombinierung möglich sei – für jedermann erschwinglich und leicht zu erlernen. Deshalb war sein Kernpunkt des Vortrags „Gib mir Limits!“. Mir ist sein Vortrag in Erinnerung geblieben, weil er genau die Entwicklung zusammenfasst, die sich seit 2016 weiter beschleunigt hat und dafür einen Ausweg bietet. Seiner Meinung nach ist die große Auswahl nicht nur redundant sondern mittlerweile hinderlich und sogar schädlich für die Inspiration. KI hat uns eine neue Möglichkeit gegeben, doch das Ziel ist es nach wie vor, den Punkt auszumachen, an dem das Vorhandene für einen bestimmten Zweck ausreicht. Es scheint mir also nicht nur die Frage nach der Unterscheidung zwischen „maschinell“ und „menschlich“ unwesentlich zu sein, sondern auch die Frage nach neuen Möglichkeiten des Musikschaffens ist zu ergänzen: Wie soll mit den Möglichkeiten umgegangen werden? Welche Arten findet man, sein Publikum zu erreichen? Wie kann man sich ausdrücken? Für was ist sie?
Dazu habe ich noch eine passende Anekdote über (den Jahrhundert-Musiker, a.d.R) Jean-Michel Jarre, der im Jahr 2019 das Projekt EōN ins Leben rief. Es handelt sich um eine „unendliche musikalische und visuelle Schöpfung, die jedem Einzelnen eine einzigartige Erfahrung bietet“. Man kann sie als App herunterladen und bekommt nie endende, einzigartige, personalisierte, KI-generierte Musik… Im Grunde eine Idee, die uns sicher ganz bald im Alltäglichen umgeben wird – beim Einkaufen, in Fitness-Studios, Restaurants, Museen, you name it. Und trotzdem konnte es auch ein Jean-Michel Jarre nicht lassen, seine Lieblingsparts aus der unendlichen Musik herauszulösen, festzuhalten und auf CD zu pressen:
„I felt compelled to ‘freeze’ some of my personal favorite music moments during the entire creative process; audio snapshots that neither of us will never ever hear again…
… – so inside this Box, I just selfishly wanted to capture a few audio snapshots for my own posterity… Which you happy few also get to share!“
Ohne Limitation, ohne Selbstwirksamkeit, ohne das Herausstellen des Besonderen, das in einem nicht enden wollenden Fluss generativer Komposition unterzugehen droht, macht es eben auch keinen Spaß. Das lässt sich in die Singularisierungs-Theorie von Andreas Reckwitz genauso einhegen, wie in die Kapital-Theorie Bourdieus und sicher weitere, die ich in der Uni dran hatte und mir nicht mehr einfallen… Oder man kommt drauf, wenn man für ein paar Minuten in sich hineinhorcht.
Was bleibt?
Muss man mehr Gleichförmigkeit befürchten? Mit Sicherheit. Mein persönlicher Albtraum ist, dass Max Martin auf den Knopf drückt und ein Max Martin Song rauskommt. Andererseits wird ihm davon bestimmt langweilig und er wird aus reiner Freude Songs schreiben. (Ich will nicht gemein sein, er macht es sicher auch so aus Spaß, aber mal ehrlich…)
In einer Utopie geht der Hype um KI-generierte Musik den meisten Menschen nach kurzer Zeit auf den Nerv gehen und sie wird vor allem funktional eingesetzt und koexistiert. In einer Dystopie kommt hinzu, dass einmal mehr die großen Labels gewinnen, in dem sie selbst unbekannte, kostengünstige Gesichter groß machen und KI generierte Musik darunter setzen. Werden wir das als Konsument*innen vielleicht irgendwann hinnehmen? Ich kann es mir beim besten Willen nicht vorstellen. Aber selbst wenn ich komplett daneben liege, werde ich dann aufhören, eigenständig Musik zu machen? Wird überhaupt irgendjemand aufhören, eigenständig Musik zu machen? Und werden wir aus unerfindlichen Gründen mehr recht als schlecht für Musik bezahlen? Wahrscheinlich auch nicht. Tatsächlich steigt sogar die Anzahl der Erwerbstätigen im Musikbereich seit 2019. Grüße gehen raus!
Wie eine Koexistenz aussehen könnte, zeigt uns ein anderer Bereich, den ich zum Schluss ansprechen will: Schach. Hier hat die KI schon lange den Menschen geschlagen und völlig neue Spielzüge erfunden, die sich Menschen gar nicht mehr erklären können. Der Computer macht nicht nur die bessere Berechnung, Forscher*innen sprechen sogar von einer Art „Intuition“. Die KI spielt also besser UND kreativer, was bei Musik im Moment noch zur Debatte steht. Und trotz allem lernen mehr Menschen als jemals zu vor Schach, geben Geld auf chess.com aus, um mit anderen Menschen Schach zu spielen und zahlen Geld an Twitch-Streamer*innen, um ihnen beim Schachspielen zuzusehen. Wie fast immer spielt das eigene Tun die zentrale Rolle, die eigene Erfahrungen, das Vernetzen, Selbstwirksamkeit, das Menscheln eben. Das ganze wird natürlich parallel von klugen Unternehmer*innen und Influencer*innen befeuert, so ein Hype gestaltet sich schließlich nicht von selbst. Hier schaut niemand zwei Maschinen beim Schachspielen zu, obwohl diese offensichtlich besser sind und kaum jemand ist noch traurig darüber, dass er an die Leistung der Schach-Engines wohl nie mehr rankommen wird. Das Gegenteil ist der Fall, die KI dient dem eigenen Lernen und ist als begleitendes Analysetool nicht mehr wegzudenken.
Der Macher des KI-Hits von „Verliebt in einen Talahon“, Josua Waghubinger aka Butterbro, erklärte vor kurzem im Podcast, dass er inzwischen an die 20 Anfragen von DJs erhalten habe, die seinen Song remixen wollen. Das Werk wird mittlerweile live nachgespielt und wird sicher bald auch auf deinem Festivals zu hören sein.
Butterbro stellt fest: „Ich finde es hochgradig genial, dass ein Song, dem man erstmal vorwirft, unkreativ zu sein, so dermaßen viel Kreativität von wunderbaren Menschen fördert“. Für mich sieht das fast wie ein Happy End aus.