„Bald nicht mehr zu unterscheiden“
Der Echte: Christian Plasa Foto: Plasa
Ich habe ein E-Mail bekommen: „Sehr geehrter Herr Engel, der in Ihrem Artikel beschriebene Sachverhalt stellt eine missbräuchliche Nutzung meines Namens und meiner Stimme dar.“ Und: „Ich bitte Sie daher um eine kurze Stellungnahme, wie diese Darstellung zustande gekommen ist.“ Es war ein E-Mail des real existierenden Christian Plasa. Vielleicht erinnern Sie sich: Kürzlich habe ich den Anruf einer Künstlichen Intelligenz erhalten, unter dem Namen Christian Plasa. Hier ist ein Gespräch mit dem echten:
Hallo Herr Plasa, es geht um den Artikel Textilien, Besen und Eishockey. Er beschreibt einen Anruf, den ich erhalten habe. Ein Anrufer wollte mir Geld aus der Tasche ziehen, und dieser Anrufer hat sich als Christian Plasa vorgestellt. Aber der Anrufer war KI, eine Künstliche Intelligenz, die auf Gegenfragen antworten kann. Am Ende des Artikels habe ich geschrieben, dass es Christian Plasa wirklich gibt, als Voice Actor, also ein KI-Stimm-Profi. Wie hat das auf Sie gewirkt?
Christian Plasa: Im ersten Moment war ich natürlich schon ein Stück weit erschrocken, dass da eine Verbindung zur echten Person hergestellt wird in einer Sache, über die ich gar keine echte Kontrolle hab, wenn also Dritte meinen Namen verwenden für solche Aktionen.
Meine Absicht war natürlich nicht, Sie als Person in diesen Zusammenhang zu bringen. Ihre Stimme ist missbraucht worden, das hätte ich klarer kennzeichnen sollen. Ich habe Ihnen dann eine Sprachaufnahme aus diesem Anruf geschickt. War das Ihre Stimme?
Plasa: Nein, ich habe mich da akustisch nicht wiedererkannt. Es gibt den KI-Stimmen-Generator ElevenLabs. Dort kann man so genannte „Agenten“ hinterlegen. Aus einer öffentlichen Bibliothek von ElevenLabs kann man dann verschiedene Stimmen auswählen. Und wenn der Name einmal hinterlegt ist und derjenige, der das angelegt hat, wählt eine andere Stimme, bleibt der Name. Und da habe ich meine Stimme hinterlegt, mit meinem Namen, weil ich mir eine Marke aufbauen wollte.
„Man weiß nicht, wer das nutzt“
Sie sind Voice-Actor für KI-Anwendungen, Mit Ihrer Stimme wird die KI trainiert, kann man das so sagen?
Plasa: Es gibt ein Grundmodell, das trainiert werden muss mit einer Vielfalt von Sprachaufnahmen. Das können viele 10 000 Stunden Audiomaterial sein. Damit bringt man der Maschine erst einmal bei, wie man überhaupt spricht. Und dann ist da der Voice Clone selbst. Das ist das, was ich dann betreibe. Im Prinzip ist das ein Replikat meiner Stimme und des Stils. Ich habe über 30 verschiedene solcher Klone, die alle einen verschiedenen Stil haben. Einer hat zum Beispiel eine erzählerische Stimme, ein anderer ist im Konversationsmodus.
Wie oft haben Sie schon erlebt, dass eine KI ihren Namen missbraucht zu Anrufen, die Menschen zu irgend etwas drängen wollen?
Plasa: Bei Anrufen ist mir das zum ersten Mal untergekommen, durch diesen Artikel. Ich höre meine Stimme aber jetzt häufiger bei Tiktok, Instagram, Youtube-Videos.
Sie leben in Hagen, NRW. Wie haben Sie dort von diesem Artikel erfahren?
Plasa: Dadurch, dass ich meinen Klarnamen im Voice Model angegeben habe, googel ich mich ganz schlicht und ergreifend, um zu sehen, was erstellt wird. Und das sind immer mehr Hörbücher, die mit dieser KI-Stimme generiert werden. Das große Problem, das man als Voice Actor hat: Man weiß nicht, wer das nutzt und auch nicht, welche Inhalte generiert werden.
Rechtlich ist es so: Nicht nur das eigene Bild ist als Wiedererkennungsmerkmal geschützt, sondern auch der Name und die Stimme. Aber wie lässt sich dieser Schutz tatsächlich durchsetzen?
Plasa: Ich habe ja meinen Klarnamen freiwillig in diese Bibliothek gegeben. Technisch ist es letztendlich aber kein Problem, jede Stimme zu vervielfältigen ohne Zustimmung des Besitzers.
„Sie werden in Richtung Emotionen gelenkt“
Schon drei Sekunden Sprachaufnahme reichen, um eine Stimme zu klonen. Das Internet ist voll mit Deepfakes, gefälschten Videos und Fotos. Jetzt kommen KI-Stimmen dazu, die dich anrufen und die immer täuschender echt mit dir reden. Wird bald der Tag kommen, an dem solche Anrufe gar nicht mehr als KI zu identifizieren sind?
Plasa: Ich habe die Entwicklung jetzt schon drei Jahre beobachten können, und der Fortschritt ist da gewaltig. Es geht jetzt schon in die Richtung, dass die Modelle gezielt in gewisse Emotionen gelenkt werden, dass man bestimmen kann, soll das Modell freundlich reden, traurig, wütend. Damit kannst du die ganze Emotionspalette gezielt einsetzen. Von daher bin ich schon der Meinung, dass das in einigen Jahren nicht mehr zu unterscheiden ist.
Dann ruft der Enkel an, und du hast keine Chance mehr zu erkennen, dass es eine KI ist, die dich um Geld bittet. Kann das sein?
Plasa: Aus diesem Grund sollte man da in der Familie gewisse Codewörter oder Absprachen verwenden, um das auszuschließen.
Gibt es denn überhaupt Möglichkeiten rauszufinden, wer da Ihren Namen missbraucht hat, um anderen Leuten Geld aus der Tasche zu ziehen?
Plasa: Technisch kann ich natürlich gar nicht sagen, wie da ermittlungstechnisch gearbeitet wird. Ich weiß aber natürlich, wer die Information hätte. Die Plattformen ziehen eine klare Grenze zwischen den Anbietern von Stimmen und den Nutzern. Letztlich hätte der Anbieter diese Daten und wüsste, wer diese Anrufe getätigt hat.
Ist das als jemand, der auf diesem Gebiet arbeitet, ein Thema, das Sie beunruhigt?
Plasa: Eigentlich nicht. Ich habe mich schon ein Stück weit darauf eingestellt, als ich diese Voice Clones angelegt habe. In Ihrem Artikel haben Sie letztendlich ja auch differenziert. Es war da ja doch erkennbar, dass ich nicht dahinterstecke. In der allgemeinen Wahrnehmung kommt diese Problematik auch immer mehr an. Wenn jeder weiß, dass es diese Täuschungsmöglichkeiten gibt, halten sich meine Sorgen in Grenzen.
Christian Plasa, vielen Dank für das Gespräch!
