Connect with us

Dr. Mathilde Pavis, Leiterin Rechtsabteilung, OpenOrigins – Interviewreihe

Interviews

Dr. Mathilde Pavis, Leiterin Rechtsabteilung, OpenOrigins – Interviewreihe

mm

Dr. Mathilde Pavis, Leiterin der Rechtsabteilung bei OpenOrigins, ist eine führende Expertin für KI-Regulierung und digitale Medienregierung, spezialisiert auf Deepfakes, synthetische Medien und Content-Provenienz. Sie berät Unternehmen, Regierungen und Gewerkschaften in Fragen der Einhaltung, Lizenzierung und Risiken bei generativer KI und hat mit Microsoft und ElevenLabs an KI-Politik und -Strategie gearbeitet. Sie hat auch die UNESCO zu KI und geistigem Eigentum beraten und trägt regelmäßig Sachverständigengutachten bei UK-Politikern bei.

OpenOrigins entwickelt Technologien, um Fehlinformationen und Deepfakes durch die Erstellung verifizierbarer, manipulationsicher Aufzeichnungen digitaler Inhalte zu bekämpfen. Die Plattform konzentriert sich auf die Einrichtung klarer Provenienz, sodass Medien, Ersteller und Plattformen nachweisen können, wann und wie Inhalte erstellt, bearbeitet und verteilt wurden – eine immer kritischere Fähigkeit, da synthetische Medien fortschrittlicher und schwerer zu erkennen werden.

Sie haben Regierungen, globale Institutionen wie die UNESCO und Unternehmen wie Microsoft und ElevenLabs zu KI-Regulierung beraten. Was hat Sie dazu geführt, sich speziell auf Deepfakes, digitale Replikate und synthetische Medien zu konzentrieren, und wie hat diese Reise Ihre Entscheidung beeinflusst, Replique zu gründen?

Meine Arbeit an Deepfakes begann nicht mit der Technologie – sie begann mit einem viel älteren juristischen Rätsel. Als ich 2013 mit meiner Promotion zu geistigem Eigentum begann, war ich davon überrascht, wie viel weniger Schutz Darsteller erhalten im Vergleich zu Autoren, Komponisten oder Filmemachern. In der Praxis bedeutet dies, dass Ihre Worte oder Ihre Musik besser geschützt sind als Ihre Stimme, Ihr Gesicht und Ihr Körper. Diese Ungleichheit fühlte sich seltsam an und veranlasste mich, eine tiefere Frage zu stellen: Wie schätzen wir kulturell und rechtlich die Arbeit eines Menschen ein, dessen Beitrag sein Gesicht, seine Stimme und sein Körper auf dem Bildschirm sind?

Diese Frage führte mich zu den Rechten der Darsteller und Daten. Zu dieser Zeit galt es als ein Nischenbereich mit geringer kommerzieller Relevanz. Man riet mir, in lukrativere Bereiche wie Patente oder traditionelles Urheberrecht zu wechseln. Die Annahme war, dass Fragen im Zusammenhang mit der Ähnlichkeit einer Person in erster Linie durch Branchennormen oder “Gentlemen’s Agreements in Hollywood” informell geregelt würden. Aber für mich signalisierte dieser Mangel an formalem Schutz eine Lücke, kein totes Ende für meine Forschung, also blieb ich dabei.

Was sich geändert hat, ist, dass heute fast jeder ein Darsteller ist. Unser Leben wird durch Kameras vermittelt – auf Telefonen, Laptops, Videokonferenzen und sozialen Plattformen. Ob für die Arbeit oder den persönlichen Gebrauch, Menschen nehmen und teilen ständig Versionen von sich selbst auf. Die rechtlichen Fragen, die einst hauptsächlich auf Schauspieler oder Musiker anwendbar waren, gelten jetzt für jeden mit einem Smartphone.

Deepfakes haben diese Probleme nicht geschaffen – sie haben sie bloßgestellt und beschleunigt. Die Forschung, die ich von 2013 an betrieben habe, wurde plötzlich dringend. Um 2017 und 2018 herum begannen Entwicklungen in neuronalen Netzen – insbesondere aus Orten wie dem MIT und der UC Berkeley – zu zeigen, wie überzeugend das Gesicht, die Stimme und der Körper einer Person digital manipuliert werden können. Innerhalb eines Jahres wurde diese Fähigkeit weithin als “Deepfakes” bekannt und gewann zunächst in tief schädlichen Formen an Popularität, insbesondere durch nicht einvernehmliche sexuelle Inhalte, die sich gegen Frauen und Kinder richteten.

Erst später traten die kommerziellen Auswirkungen in den Vordergrund, als die kreativen Branchen synthetische Medien zu nutzen begannen. Das ist der Zeitpunkt, an dem die vertraglichen und wirtschaftlichen Fragen, an denen ich gearbeitet hatte, in den Vordergrund traten. Fast über Nacht wurde das, was als weitgehend theoretischer oder doktrinärer Bereich des Rechts angesehen worden war, zu einem hochgradig praktischen, kommerziell signifikanten und sozial dringenden Feld.

Im Kern hat sich die rechtliche Herausforderung nicht geändert: Menschen möchten Aspekte von sich selbst teilen, aber gleichzeitig eine sinnvolle Kontrolle behalten. Bestehende Rahmenbedingungen haben mit dieser Nuancen Schwierigkeiten. Sie neigen dazu, Individuen entweder als völlig privat oder völlig öffentlich zu behandeln – entweder geschützt oder als Freiwild. Aber die meisten Menschen existieren irgendwo dazwischen. Diese Spannung ist jetzt nicht nur für professionelle Darsteller, sondern für jeden, der am digitalen Leben teilnimmt, von zentraler Bedeutung.

Ich wurde zu jemandem, der in diesem Bereich forschte und arbeitete, was mich dazu führte, mit Regierungen zusammenzuarbeiten, die daran interessiert sind, Menschen vor Deepfakes zu schützen, und mit Unternehmen, die digitale Kloning-Produkte sicher zum Einsatz bringen wollen, wie ElevenLabs. Bei Replique bringe ich alles, was ich gelernt habe, zu Menschen und Unternehmen, die digitale Kloning- oder digitale Replikate-Technologie verantwortungsvoll und sicher nutzen möchten. Ich habe im Wesentlichen meine “Blue-Sky”-Forschung in ein Beratungsgeschäft umgewandelt, das spezialisierte Rechtsberatung für die kreativen Branchen bietet.

Als Leiterin der Rechtsabteilung bei OpenOrigins, einem Unternehmen, das sich auf die Einrichtung eines unveränderlichen Nachweises der Content-Provenienz zur Bekämpfung von Deepfakes konzentriert, wie sehen Sie provenienzbasierende Systeme im Wettbewerb mit oder als Ersatz für traditionelle Deepfake-Erkennungsansätze?

Der Vergleich von Deepfake-Erkennungstools kann schnell zu einem Vergleich von Äpfeln und Orangen werden, da ihre Wirksamkeit von Kontext und Zweck abhängt. Aus einer politischen Perspektive benötigen wir eine Reihe von komplementären Tools – es gibt keine einzige “beste” Lösung, und OpenOrigins ist ein Teil dieses umfassenderen Ökosystems. Wo die Technologie von OpenOrigins als Deepfake-Erkennungslösung hervorsticht, sind Situationen, in denen ein Content-Ersteller oder eine Informationsorganisation die Echtheit des Inhalts, den sie mit Partnern, Zuhörern oder der Öffentlichkeit teilt, nachweisen muss.

Indem sie verifizierbare Provenienz und “Quittungen” im Zeitpunkt der Erstellung bereitstellt, bietet sie eine starke Form der Prävention, indem sie nachweist, dass der Inhalt kein Deepfake ist. Diese Herangehensweise ist jedoch weniger nützlich für den durchschnittlichen Internetnutzer, der den Inhalt, den er online trifft, schnell bewerten möchte. In solchen Fällen hängt die Erkennung mehr von probabilistischen und inhaltsanalytischen Methoden als von provenienzbasierter Verifizierung ab. Wir benötigen unterschiedliche Tools für unterschiedliche Bedürfnisse, und wir müssen akzeptieren, dass es keine silberne Kugel gegen Deepfakes gibt.

Aus rechtlicher Sicht, was ist derzeit die größte Lücke in der Art und Weise, wie Rechtsordnungen mit Zustimmung und Eigentum bei KI-generierten oder KI-replizierten Inhalten umgehen?

Oof, wie viel Zeit haben Sie? Die Antworten hängen davon ab, was wir unter KI-generiertem oder KI-repliziertem Inhalt verstehen. Die Probleme variieren, ob Sie sich auf ein KI-generiertes Bild eines Hauses oder einer Katze oder eine digitale Replikation eines Menschenfaces oder seiner Stimme beziehen. Lassen Sie uns uns auf das Thema Deepfakes und digitale Replikate konzentrieren und Ihre Frage im Kontext von “digitaler Kloning” beantworten.

Bei der Zustimmung ist das Kernproblem, dass die meisten Verträge – ob Arbeitsverträge oder Plattformbedingungen – breite, vage Klauseln enthalten, die umfassende Rechte über Benutzerinhalte gewähren. Diese können als eine Art “Hintertür-Zustimmung” interpretiert werden, bei der die Zustimmung zu den Bedingungen als Zustimmung zu Verwendungen wie Kloning angesehen wird, obwohl die meisten Menschen diese Interpretation stark bestreiten würden. Dies schafft eine signifikante Lücke zwischen rechtlicher Interpretation und Nutzererwartung, die derzeit Unternehmen begünstigt, während die Regulierung hinterherhinkt.

Bei dem Eigentum gibt es keine klare rechtliche Antwort darauf, wer ein digitales Klon besitzt, da bestehende Rahmenbedingungen wie Datenschutz, Urheberrecht und Persönlichkeitsrechte nicht für diese Technologie entwickelt wurden. Heute werden die meisten Menschen auf der Arbeit gescannt und geklont, auf Anfrage und mit der Finanzierung eines Arbeitgebers oder Kunden. Und diese Einheiten erwarten in der Regel einen hohen Grad an Kontrolle über dieses Asset, was verständlich, aber oft problematisch ist, weil dieses Asset eine digitale Nachbildung Ihres Gesichts oder Ihrer Stimme ist und Sie Dinge sagen oder tun kann, die Sie nie gesagt oder getan haben.

Die Frage “Wem gehört Ihr Klon?” ist sehr wichtig, aber noch unbeantwortet im heutigen Recht.

Sie haben eng mit Sprachklon-Technologien zusammengearbeitet. Was sind die am meisten missverstandenen rechtlichen Risiken, wenn es um synthetische Stimmen geht, sowohl für Unternehmen als auch für Einzelpersonen?

Das am meisten missverstandene Problem im Rechtsrahmen ist das Gleichgewicht zwischen dem kommerziellen Interesse eines Unternehmens an der Finanzierung und Ausbeutung eines digitalen Klons und dem Recht des Einzelnen auf Privatsphäre und digitale Würde. Diese Spannung liegt über mehrere Rechtsregime (hauptsächlich geistiges Eigentum, Datenschutz und Privatsphäre), die nie dafür entwickelt wurden, zusammenzuarbeiten und Kloning grundlegend unterschiedlich zu interpretieren. Als Ergebnis ist es komplex und oft unklar, dies in praktikable, unternehmensfreundliche Praktiken zu übersetzen. Unternehmen übersehen daher entweder Schlüsselrisiken oder incurren erhebliche Kosten, um diese richtig zu navigieren. Dies führt zu einem perversen Ergebnis, bei dem verantwortungsvolle Einhaltung der Vorschriften der schwierigere und teurere Weg wird, anstatt der Standard.

Wie sollten Unternehmen an die Architektur der Zustimmung in KI-Systemen denken, insbesondere bei der Behandlung von Ähnlichkeit, Identität und Trainingsdaten?

Unternehmen sollten ihre Systeme um drei Kernfähigkeiten herum entwerfen. Erstens müssen sie informierte, kontextuelle Zustimmung bei der Registrierung sicherstellen. Zweitens müssen sie es den Benutzern ermöglichen, diese Zustimmung zurückzuziehen und einige oder alle ihre Daten zu löschen, was technisch herausfordernd und oft übersehen wird, aber für die Einhaltung von Gesetzen wie der UK- und EU-Datenschutz-Grundverordnung und ähnlichen Regimen in den USA unerlässlich ist. Die Aufrechterhaltung der Zustimmung über die Zeit bedeutet den Aufbau von Systemen, in denen der Rückzug reibungslos und mit dem Geschäftsmodell abgestimmt ist.

Die Zustimmung muss granular sein. Und drittens sollten Benutzer in der Lage sein, Berechtigungen auf der Ebene einzelner Dateien zu verwalten, ihre Ähnlichkeitsdaten zu aktualisieren und zu verstehen, wie sie verwendet werden. Dazu sind Transparenz und Kontrolle erforderlich – Werkzeuge, die es Benutzern ermöglichen, zu überwachen, zu überprüfen und zu moderieren, wie ihre digitalen Klone eingesetzt werden. Diese Flexibilität ist noch selten, aber sie liegt zunehmend im Wettbewerbsvorteil.

Aus Ihrer Erfahrung bei der Beratung von Start-ups und Regierungen, wo liegt die größte Diskrepanz zwischen der Art und Weise, wie KI aufgebaut wird, und der Art und Weise, wie sie reguliert wird?

Die Diskrepanz zwischen der Art und Weise, wie KI aufgebaut wird, und der Art und Weise, wie sie reguliert wird, liegt in grundlegend unterschiedlichen Missionen. Regierungen regulieren im öffentlichen Interesse, während KI-Unternehmen (oft von Risikokapitalgebern unterstützt) in erster Linie von Wachstum, Umsatz und Profit getrieben werden. Diese Prioritäten stehen nicht immer im Widerspruch, aber sie ziehen häufig in unterschiedliche Richtungen, wobei die Regulierung als Einschränkung und nicht als Unterstützung angesehen wird.

Dies schafft eine strukturelle Spannung: Regulierer und Innovatoren operieren mit unterschiedlichen Anreizen, Werten und sogar Sprachen. Dies macht die Ausrichtung in der Praxis schwierig, auch wenn sie nicht unmöglich ist. Wir sehen eine neue Welle von Technologieunternehmen, die sich mehr mit öffentlichen Interessenziehlen ausrichten, aber sie bleiben die Ausnahme und nicht die Regel – insbesondere unter denen, die erfolgreich skalieren.

OpenOrigins konzentriert sich auf die Verifizierung von Inhalten am Punkt der Erstellung mithilfe kryptographischer Provenienz. Wie kritisch ist dieser origin-first-Ansatz im Vergleich zu Sicherheitsmaßnahmen nach der Verteilung?

Dies führt zurück zu meiner Antwort oben. Die Authentifizierung von Inhalten bei der Erstellung, “upstream”, ist viel effektiver als der Versuch, sie bei der Verteilung oder sogar beim Verbrauch, d. h. “downstream”, zu verifizieren. Die Authentifizierung von Inhalten bei der Erstellung ist wie die Rückverfolgung von Lebensmitteln vom Moment ihrer Produktion auf dem Bauernhof, anstatt zu versuchen, es aus dem, was auf Ihrem Teller ist, zu erraten. Wenn Sie wissen, wo das Huhn aufgezogen wurde, wie es behandelt wurde und wie es durch die Lieferkette bewegt wurde, können Sie dem vertrauen, was Sie essen. Wenn Sie stattdessen versuchen, all dies nur durch Betrachtung des fertigen Gerichts zu erraten, verlassen Sie sich auf Vermutungen. Es ist dasselbe mit der Unterscheidung zwischen menschlich erstellten und KI-generierten Inhalten im Internet: Provenienz an der Quelle bietet verifizierbare Sicherheit, während die Erkennung nach der Verteilung inhärent unsicherer und reaktiv ist.

Welche Rolle sehen Sie für Standards wie C2PA in der Zukunft der Medien, und sind sie ausreichend, um allein das Vertrauen im Internet wiederherzustellen?

C2PA ist eine willkommene Initiative, und auf viele Weise unterstützt sie die gleiche Bewegung für Content-Authentizität wie OpenOrigins. Sie sind ein wichtiger Teil des Ökosystems für Content-Sicherheit und Content-Authentizität. Wie bei jedem Sicherheitstool gibt es keine silberne Kugel.

Für Kreative und Talente in Branchen wie Film, Musik und Gaming, welche praktischen Schritte sollten sie heute unternehmen, um sich vor nicht autorisierter digitaler Replikation zu schützen?

Künstler heute stehen vor zwei unterschiedlichen Risiken: der Replikation ihrer Arbeit (wie Musik, Bilder oder Schriften) und der Replikation ihrer Ähnlichkeit, einschließlich ihres Gesichts, ihrer Stimme und ihres Körpers. Mit minimaler Eingabe können KI-Systeme jetzt beides mit hoher Treue reproduzieren. In praktischer Hinsicht beginnt der Schutz damit, bewusst zu sein, was man online teilt, und zu erkennen, dass jeder online veröffentlichte Inhalt abgerufen und für Trainingsdatensätze verwendet werden kann, oft ohne klare Zustimmung oder Sichtbarkeit.

Dieses Risiko ist jetzt eine Grundrealität des Online-Betriebs. Aber das unmittelbarere und kontrollierbarere Risiko liegt oft in den Verträgen. Vereinbarungen, die Künstler mit ihren Mitarbeitern, Verteilern oder Plattformen treffen, können Klauseln enthalten, die die KI-Nutzung, -Wiederverwendung oder -Weiterveräußerung von Inhalten für Trainingszwecke erlauben – häufig ohne bedeutende Beteiligung an nachgelagerten Einnahmen.

Für Künstler macht dies die sorgfältige Prüfung von Verträgen kritisch. Das Verständnis, wie ihre Arbeit und ihre Ähnlichkeit verwendet, lizenziert oder wiederverwendet werden können, ist jetzt ebenso wichtig wie der kreative Prozess selbst. Viele der aktuellen Debatten (über Gewerkschaften, Branchenverbände und Plattformen) konzentrieren sich auf die Korrektur dieser Ungleichheit und die Sicherstellung, dass Kreative Kontrolle und faire Entlohnung behalten.

Also zwei wichtige Ratschläge: Seien Sie vorsichtig, was Sie online teilen, und lesen Sie Ihre Verträge und suchen Sie nach KI-Klauseln, bevor Sie unterschreiben.

Blicken Sie drei bis fünf Jahre voraus, glauben Sie, dass wir einen Punkt erreichen werden, an dem jeder digitale Inhalt verifizierbare Provenienz tragen muss, oder wird das Vertrauen weiterhin fragmentiert über Plattformen und Rechtsordnungen bleiben?

Ich würde gerne sagen, ja, aber realistisch, nein – nicht innerhalb von fünf Jahren. In der Technologiebranche fühlt sich fünf Jahre lang; bei der Änderung von Nutzerverhalten und -gewohnheiten ist es sehr kurz. Die meisten Verbraucher werden ihre Entscheidungen wahrscheinlich nicht auf der Grundlage treffen, ob der Inhalt verifizierbare Provenienz mit sich bringt. Plattformen neigen dazu, Benutzerbedürfnissen zu folgen, optimiert für Engagement und nicht für Provenienz.

Dies könnte sich ändern, wenn die Regulierung eingreift. Wir sehen bereits erste Schritte in Orten wie Kalifornien, wo Kennzeichnungs- und Moderationsanforderungen entstehen, aber die globale Skalierung wird Zeit beanspruchen – wahrscheinlich eher ein Jahrzehnt als fünf Jahre.

Ein weiterer Bereich der Veränderung ist der branchenspezifische: Branchen wie Journalismus, Finanzen, Versicherungen und Gesundheitswesen könnten beginnen, Provenienz und Authentifizierung zu erfordern, da Vertrauen für ihre Betriebe von grundlegender Bedeutung ist.

Zuletzt werden Verbraucher sich vielleicht nicht um Provenienzinformationen kümmern, aber sie werden sich um die Qualität des Inhalts und die Qualität der Informationen kümmern. Wenn KI-generierte Inhalte zu homogen oder “langweilig” werden, könnten Zuhörer beginnen, menschlich erstellte Inhalte ausdrücklich zu schätzen. Dies könnte zu einer Segmentierung des Marktes führen, bei der einige Plattformen Skalierbarkeit und KI-generierte Inhalte priorisieren und andere kuratieren, um Authentizität, Provenienz und hochwertige, menschlich geführte Materialien zu fördern – aber diese Verschiebung bleibt ungewiss.

Vielen Dank für Ihre großartigen Antworten. Leser, die mehr erfahren möchten, sollten OpenOrigins besuchen.

Antoine ist ein visionärer Führer und Gründungspartner von Unite.AI, getrieben von einer unerschütterlichen Leidenschaft für die Gestaltung und Förderung der Zukunft von KI und Robotik. Ein Serienunternehmer, glaubt er, dass KI so disruptiv für die Gesellschaft sein wird wie Elektrizität, und wird oft dabei ertappt, wie er über das Potenzial disruptiver Technologien und AGI schwärmt.

Als futurist ist er darauf fokussiert, zu erforschen, wie diese Innovationen unsere Welt formen werden. Zusätzlich ist er der Gründer von Securities.io, einer Plattform, die sich auf Investitionen in hochmoderne Technologien konzentriert, die die Zukunft neu definieren und ganze Branchen umgestalten.