Maximilian von M6Lab & M6LabRec über KI, Kreativität und den Sound von morgen
Maximilian ist einer der Gründer von M6Lab und M6LabRec, dem kreativen Musikdach, unter dem die Projekte ihres Teams zusammengeführt werden. M6Lab vereint unterschiedliche musikalische Projekte unter einem modernen, minimalistischen Label – hier entsteht Musik, die nicht kopiert, sondern weitergedacht wird. Ziel ist es, dort anzusetzen, wo andere gerade stehen, und Klang, Atmosphäre sowie Experiment zu einem unverwechselbaren, innovativen Universum zu verschmelzen.
Unter M6LabRec werden experimentelle Produktionen und KI-gestützte Musik umgesetzt – vom zerbrechlichen Piano-Solo bis hin zu dicht produzierten elektronischen Tracks. Dabei legt das Team besonderen Wert darauf, dass alles stylisch, zusammenpassend und wiedererkennbar ist: Coverart, Branding, Künstlerimage und Message bilden eine Einheit. Kreativität, Wiedererkennbarkeit und Synergie stehen im Mittelpunkt, während verschiedene Künstler aus unterschiedlichen Genres zusammenarbeiten, um einen neuen, unverwechselbaren Kosmos zu erschaffen.
Zu den Projekten und Künstlern gehören: ArsDramaTic, DJ MPiReD, Rêveur, Ted’sGiraffyBand, Philosopher und ReBeLL@HeArT.
Für Maximilian ist KI in diesem Prozess kein Ersatz, sondern Partner: Sie ermöglicht komplexe Klangwelten, überraschende Ideen und Musik, die sonst kaum umsetzbar wäre, ohne den menschlichen Funken zu verlieren.
Vorstellung
Maximilian über sich:
Ich bin kein klassischer Musiker und spiele keine Instrumente im herkömmlichen Sinn, aber Musik begleitet mich seit ich denken kann. Mit 13/14 habe ich als DJ auf kleinen Feiern aufgelegt (meist Charts, aber auch Independent), später in Clubs, immer elektronisch angehaucht: Techno, Trance, House – melodisch, nicht hart. Musikalisch bin ich stark geprägt von den 80ern/90ern, von House und elektronischen Acts wie Cosmic Baby, Hardhouse-Sachen, Low Spirit, WestBam. Mitte 20 zog ich mich aus dem Clubleben zurück, Musik blieb zentral.
Mein Spektrum ist breit: Jazz, HipHop, Pop, Klassik, Rock, House, Soul, R’nB, Oldies, elektronische Musik – nicht mein Ding sind Volksmusik, Schlager, Heavy Metal, Bollywood oder K-Pop. Ich besitze Tausende Vinyls, CDs und etwa 25.000 MP3s. Musik kenne ich, wenn ich darüber spreche, fast immer sehr gut.
Wie beeinflusst KI deine musikalische Identität und deinen Stil?
KI verändert meine Identität nicht. Sie erlaubt mir, alles, was ich im Kopf habe, Wirklichkeit werden zu lassen. Ich schaue, was andere KI und Künstler machen, lasse mich inspirieren, entwickle es aber weiter – mehr, weiter, komplexer.
Am Anfang hatte ich Zweifel: KI-Musik klang oft gut, aber seltsam. Dann stieß ich auf Suno und dachte: „Ey, probier’s mal!“ Ich wollte etwas Persönliches schaffen. So entstand mein erster KI-Song – ein Deutschrap, für den ich gefühlt 235 Versionen gebaut habe, bis die KI musikalisch genau das wiedergab, was ich im Kopf hatte. Texte schreibe ich schon lange, Musik existiert zuerst in meinem Kopf – jetzt wurden Text und Idee fast eins.
Der große Moment: ich schickte den Song los, erstmal keine Reaktion. Dann um 23:23 klingelt das Handy, die Verlobte war dran und hat geweint – der Song kam sehr gut an.
KI ist für mich ein Partner, der meine Vorstellungskraft erweitert, nicht ersetzt. Ich kann Balladen schreiben, Orchester dirigieren, als DJ die Crowd einheizen, singen, rappen, Kirchenchöre auf EDM-Festivals auftreten lassen – oder Daft Punk eine extra Prise Coolness verpassen. Ideen, die vorher unmöglich schienen, kann ich jetzt umsetzen – komplexe Klangwelten, ungewöhnliche Arrangements, alles in meinem Stil.
„Wie beeinflusst die KI deine musikalische Identität und deinen persönlichen Stil?“ 🎶
Als ich damit das erste Mal im erweiterten Freundeskreis rausging, waren die Reaktionen gemischt.
„Wie jetzt… Musik? Wie soll das gehen? Was machst du da?“
Die Neugier war da, aber sehr schnell kam auch das Urteil: „Das macht doch alles die KI.“
Das relativiert sich ziemlich schnell, wenn man ihnen zwei, drei normale generierte Songs vorspielt und danach meine. Dann merkt man den Unterschied.
Ich vergleiche das gern mit einem Instrument: Spielen können viele. Bei vielen kommt nichts raus, manche können spielen, manche gut und manche sind Meister. Ich würde mich als guten Spieler bezeichnen, auch wenn ich eigentlich nicht spiele, sondern baue. Oder noch eher: ich erzähle, erkläre und umschreibe, bis die KI versteht, was ich meine und das auch macht.
Viele finden es schade, dass man das nicht klassisch live aufführen kann. Gerade bei einigen meiner sehr ruhigen Piano-Solo-Stücke wäre das natürlich besonders reizvoll. Andererseits wären viele meiner Stücke ohne KI praktisch unmöglich oder extrem aufwendig umzusetzen. Wer hat schon ein Orchester, afrikanische Stammessänger, einen Mönchschor und gleichzeitig einen EDM-DJ im selben Studio?
Welche Vorteile und Herausforderungen siehst du in der Zusammenarbeit mit KI im Vergleich zu traditionellen Musikmethoden?
Der größte Vorteil ist gleichzeitig die größte Herausforderung: Die Einstiegshürde ist praktisch verschwunden.
Früher brauchte man Instrumente, Musiker, Studiozeit und sehr viel technisches Wissen. Nur wenige konnten mehrere Instrumente selbst spielen, gut singen und gleichzeitig über Produktionswissen und die nötigen Mittel verfügen. Heute kann das eine einzelne Person mit Hilfe von KI umsetzen.
Dadurch wurde allerdings auch eine Art Büchse der Pandora geöffnet. Jeden Tag werden zehntausende Songs veröffentlicht und fast jeder ist überzeugt, etwas Besonderes geschaffen zu haben.
Wie bei klassischer Musik gilt aber auch hier: Nur wenige beherrschen ihr Handwerk wirklich. Beim Klavierlernen brechen etwa 50 bis 80 Prozent wieder ab. Bei KI passiert das nicht, weil man mit sehr einfachen Mitteln sofort akzeptabel klingende Ergebnisse erzeugen kann.
Die Folge ist sehr viel „nett klingendes“ Material.
Ich sehe das ungefähr so verteilt: Der Großteil klingt ordentlich, bleibt aber austauschbar. Ein kleinerer Teil schafft Musik, die man bewusst ein zweites oder drittes Mal hört – radiotauglich. Noch weniger können KI so einsetzen, dass sie menschlich wirkt. Und eine winzige Gruppe nutzt KI kreativ so, dass Dinge entstehen, die mit klassischen Instrumenten kaum umsetzbar wären. Die Technik ersetzt also nicht Können – sie verschiebt nur, worin Können besteht.
Ich denke, mit der Zeit wird sich diese Schwemme selbst regulieren. Viele, die nur „nette Sachen“ machen, werden merken, dass Aufmerksamkeit nicht automatisch entsteht und sich anderen Bereichen zuwenden, in denen sie erfolgreicher oder zufriedener sind.
Am Ende bleibt – wie in jeder Kunstform – eine kleinere Gruppe übrig, die wirklich etwas zu sagen hat. Nicht weil sie Technik besser beherrscht, sondern weil sie eine eigene Vorstellung entwickelt hat, die über das bloße Erzeugen von Klang hinausgeht.
Kannst du ein Beispiel nennen, bei dem die KI eine überraschende oder unerwartete musikalische Idee eingebracht hat?
Ja, ständig. Das ist einer der größten Vor- und Nachteile zugleich – ich nenne es den Überraschungsfaktor.
Ich kann beim Bauen sehr viele Parameter festlegen: Instrumente, Rhythmus, Klangfarbe, Genre, Stimme, Harmonik, Atmosphäre, Dynamik und Tempo. Aber in dem Moment, in dem ich auf „Start“ drücke, kommt der Geist in der Maschine ins Spiel. Vollständig kontrollieren kann man ihn nie.
Wenn ich ein Instrument spiele, spielt es – solange ich es beherrsche – zu fast hundert Prozent das, was ich will, und ich kann es jederzeit reproduzieren.
Bei KI bleibt selbst als erfahrener Nutzer ein Eigenleben. Man ist eher derjenige, der die Lampe reibt, nicht derjenige, der den Wunsch exakt formuliert bekommt.
Deshalb ist es fast unmöglich, zweimal exakt denselben Song zu erzeugen. Und genau das macht es spannend. Ich vergleiche es gern so: Es ist, als würde beim Klavierspielen das Instrument immer zwei zusätzliche Töne spielen. Sie passen harmonisch perfekt, aber sie verändern, wohin dein Stück sich entwickelt.
Ein weiterer praktischer Nebeneffekt: Der Aufwand, aus einer Soulnummer einen EDM-Track zu machen, ist minimal. Oder ich nehme einen dichten Trip-Hop-Song mit weiblicher Stimme, reduziere ihn radikal – und plötzlich entsteht daraus ein zerbrechlicher Piano-Solo-Track mit männlicher Stimme. Die musikalische Identität bleibt, aber die emotionale Perspektive wechselt komplett.
Genau in solchen Momenten arbeitet man nicht mehr nur mit einem Werkzeug, sondern mit einem Gegenüber. Meistens werde ich dabei positiv überrascht – und diese Überraschungen machen die Zusammenarbeit mit KI für mich so spannend und inspirierend.
Wie denkst du, wird KI die Musikindustrie in den nächsten zehn Jahren verändern?
Momentan erleben wir eine regelrechte Flut: Jeder probiert aus, jeden Tag werden zehntausende Songs hochgeladen. Viele Musiker und die Musikindustrie sagen: „Das geht nicht.“ Aber meist nur, weil sie es nicht handhaben können.
Ich denke, in ein bis zwei Jahren wird sich das beruhigen. Ähnlich wie beim Klavierspielen werden 80 Prozent der Leute, die es probieren, nie wirklich erfolgreich sein. Die Masse wird sich selbst regulieren.
Was sich wirklich ändert – und teilweise schon tut – ist, dass KI zu perfekt ist. Sie kann Dinge erzeugen, die selbst erfahrene Musiker nur schwer erreichen. Aber genau darin liegt der Unterschied: Das Bauchgefühl, die minimale Verzögerung, die Pausen, die emotionale Balance – das kann eine KI kaum programmieren. Sie weiß, welche Töne zusammenpassen, aber schafft sie es, ohne menschlichen Input extrem emotionale Momente zu erzeugen? Schwer vorstellbar.
KI wird die Musik nicht verdrängen, sondern sie ergänzen. Es wird KI-Künstler geben, die ihr eigenes Bauchgefühl und die Unperfektheit gezielt einsetzen, um damit beeindruckende Musik zu machen. Gleichzeitig eröffnet KI völlig neue Herangehensweisen: Plötzlich kann eine Coverband einen realistisch klingenden Mönchschor auf der Bühne haben, ohne jahrelang Chorproben.
Die Bühne bleibt ein weiteres spannendes Feld. Echte Musiker bringen Performance, Energie und Persönlichkeit ein – das ist etwas, das KI nur bedingt leisten kann. KI-Acts werden hier wohl komplett neue Formen entwickeln, und wir dürfen gespannt sein, wie das aussieht.
Siehst du ethische Fragen oder Bedenken im Einsatz von KI in der Musik?
Auf jeden Fall. Die größten ethischen Themen drehen sich um Urheberschaft, Identität und Transparenz.
KI kann Stimmen, Stile und musikalische Handschriften nachahmen. Wenn jemand das ohne Erlaubnis des Originals nutzt, kann das problematisch sein – rechtlich wie moralisch. Aber hier muss man wirklich mit Fingerspitzengefühl arbeiten. Nur weil eine KI wie Sänger XY klingt, darf man das nicht automatisch verbieten. Auch im realen Musikbusiness gibt es Stimmen, die sich sehr ähneln, und niemand kann dem anderen das Singen verbieten.
Ein weiteres Thema ist die Verantwortung. KI erzeugt zwar Töne, Harmonien und Arrangements, aber die wichtigen Entscheidungen – welche Version veröffentlicht wird, wie Emotion transportiert wird – liegen immer noch beim Menschen. Die Gefahr besteht nicht darin, dass jemand die KI als „Autor“ angibt – niemand wird das gerne tun – sondern eher, dass manche leugnen, KI überhaupt genutzt zu haben. Dadurch verschwimmt die Grenze zwischen eigenem Schaffen und Werkzeugnutzung, und das Publikum bekommt ein falsches Bild davon, was menschliche Kreativität geleistet hat.
Ich sehe KI nicht als Bedrohung für Künstler, sondern eher als Spiegel. Sie zeigt uns, wie wir arbeiten, was uns ausmacht und welche Entscheidungen unsere Musik wirklich einzigartig machen. Wer das ethisch klar regelt, kann KI kreativ nutzen, ohne dass die Grenzen von Originalität und Fairness verschwimmen.
Welche Tipps würdest du anderen Künstlern geben, die KI in ihre kreative Arbeit integrieren möchten?
Mein wichtigster Tipp: lasst der KI nur so viel Freiraum wie nötig. Viele KI-Systeme neigen dazu, alles perfekt machen zu wollen – und genau das hört man oft. Nehmt Elemente bewusst raus, setzt Pausen, bestimmt, wo die Höhepunkte liegen, und experimentiert. Werft die Rockband raus und stellt einen Dudelsackspieler hin – ihr werdet staunen, was dabei rauskommt.
Wichtig ist auch: macht euer Ding. Inspiration ist gut und notwendig, aber bleibt nicht stehen. Nutzt KI als Partner, nicht als Ersatz, und trefft selbst die Entscheidungen, die euren Stil und die Emotion transportieren.
Unser Wahlspruch lautet: Wir machen da weiter, wo andere stehen. Wir wollen den Sound von morgen machen. KI kann Ideen liefern, Klangwelten bauen, Emotionen unterstützen – aber der Funke, die Richtung und der kreative Ausdruck kommen weiterhin von euch.
Eine KI ist ein mächtiges Werkzeug, wenn man sie zu führen versteht!
Mehr auf https://kibeats.com/M6LabRec




