Entrevistas
Dra. Mathilde Pavis, Chefe de Jurídico, OpenOrigins – Série de Entrevistas

Dra. Mathilde Pavis, Chefe de Jurídico da OpenOrigins, é uma especialista líder em regulação de IA e governança de mídia digital, especializando-se em deepfakes, mídia sintética e proveniência de conteúdo. Ela aconselha empresas, governos e sindicatos sobre conformidade, licenciamento e risco em IA geradora, e trabalhou com a Microsoft e a ElevenLabs em política e estratégia de IA. Ela também aconselhou a UNESCO sobre IA e propriedade intelectual, e regularmente contribui com evidências especializadas para formuladores de políticas do Reino Unido.
OpenOrigins desenvolve tecnologia para combater desinformação e deepfakes criando registros verificáveis e à prova de violação de conteúdo digital. Sua plataforma se concentra em estabelecer uma proveniência clara, permitindo que mídia, criadores e plataformas provem quando e como o conteúdo foi criado, editado e distribuído — uma capacidade cada vez mais crítica à medida que a mídia sintética se torna mais avançada e difícil de detectar.
Você aconselhou governos, instituições globais como a UNESCO, e empresas como a Microsoft e a ElevenLabs sobre regulação de IA. O que a levou a se concentrar especificamente em deepfakes, réplicas digitais e mídia sintética, e como essa jornada moldou sua decisão de fundar a Replique?
Meu trabalho com deepfakes não começou com a tecnologia — começou com um quebra-cabeça jurídico muito mais antigo. Quando comecei a pesquisar propriedade intelectual para meu doutorado em 2013, fiquei impressionada com o quanto menos proteção os intérpretes recebem em comparação com autores, compositores ou cineastas. Na prática, isso significa que suas palavras ou sua música acabam melhor protegidas em lei do que sua voz, seu rosto e seu corpo. Essa falta de equilíbrio me pareceu estranha e me levou a fazer uma pergunta mais profunda: como valoramos cultural e juridicamente o trabalho de alguém cuja contribuição é seu rosto, voz e corpo na tela?
Essa pergunta me levou aos direitos dos intérpretes e aos dados. Na época, era considerada uma área de nicho com pouca relevância comercial. Fui ativamente aconselhada a mudar para campos mais “lucrativos” como patentes ou direitos autorais tradicionais. A suposição era que questões sobre a semelhança ou a voz de uma pessoa eram amplamente gerenciadas de forma informal — por meio de normas da indústria ou “acordos de cavalheiros em Hollywood”. Mas, para mim, essa falta de proteção formal sinalizava uma lacuna, não um beco sem saída para minha pesquisa, então continuei com ela.
O que mudou é que, hoje, quase todos são intérpretes. Nossas vidas são mediadas por câmeras — em telefones, laptops, chamadas de vídeo e plataformas sociais. Seja para trabalho ou uso pessoal, as pessoas estão constantemente gravando e compartilhando versões de si mesmas. As questões jurídicas que antes se aplicavam principalmente a atores ou músicos agora se aplicam a qualquer pessoa com um smartphone.
Os deepfakes não criaram esses problemas — os expuseram e aceleraram. A pesquisa que eu estava fazendo desde 2013 tornou-se repentinamente urgente. Por volta de 2017 e 2018, desenvolvimentos em redes neurais — particularmente provenientes de lugares como o MIT e a UC Berkeley — começaram a demonstrar como convincentemente o rosto, a voz e o corpo de uma pessoa podiam ser manipulados digitalmente. Dentro de um ano, essa capacidade se tornou amplamente conhecida como “deepfakes” e ganhou tração de forma prejudicial, especialmente por meio de conteúdo sexual não consensual que visava mulheres e crianças.
Somente mais tarde as implicações comerciais surgiram, à medida que as indústrias criativas começaram a adotar a mídia sintética. Foi quando as questões contratuais e econômicas que eu vinha trabalhando vieram à tona. Quase da noite para o dia, o que havia sido visto como uma área de direito amplamente teórica ou doutrinária tornou-se um campo altamente prático, comercialmente significativo e socialmente urgente.
No núcleo, o desafio jurídico não mudou: as pessoas querem compartilhar aspectos de si mesmas, mas ainda retêm um controle significativo. Os quadros existentes lutam com essa nuances. Eles tendem a tratar os indivíduos como completamente privados ou completamente públicos — seja protegidos ou justos. Mas a maioria das pessoas existe em algum lugar entre esses extremos. Essa tensão agora é central não apenas para intérpretes profissionais, mas para qualquer pessoa que participe da vida digital.
Eu me tornei conhecida como alguém que pesquisava e trabalhava nesse espaço, o que me levou a trabalhar com governos interessados em proteger as pessoas contra os deepfakes, e empresas que desejam tornar os produtos de clonagem digital seguros para uso, como a ElevenLabs. Na Replique, eu trago tudo o que aprendi para as pessoas e empresas que desejam usar a tecnologia de clonagem digital ou réplica digital de forma responsável e segura. Eu basicamente transformei minha pesquisa “céu azul” em um negócio de consultoria que traz conselhos jurídicos especializados para as indústrias criativas.
Como Chefe de Jurídico da OpenOrigins, uma empresa focada em estabelecer um registro imutável de proveniência de conteúdo para combater os deepfakes, como você vê os sistemas baseados em proveniência competindo ou substituindo as abordagens tradicionais de detecção de deepfakes?
Comparar ferramentas de detecção de deepfakes pode rapidamente se tornar um exercício de comparação de maçãs e laranjas, porque sua eficácia depende do contexto e do propósito. Do ponto de vista da política, o que precisamos é uma gama de ferramentas complementares — não há uma única “melhor” solução, e a OpenOrigins é apenas uma parte desse ecossistema mais amplo. Onde a tecnologia da OpenOrigins se destaca como uma solução de detecção de deepfakes é em situações em que um criador de conteúdo ou organização de informações precisa provar a autenticidade do conteúdo que compartilha com parceiros, audiências ou o público.
Ao fornecer proveniência verificável e “recibos” no momento da criação, oferece uma forma forte de prevenção, demonstrando que o conteúdo não é um deepfake. No entanto, essa abordagem é menos útil para usuários comuns da internet que desejam avaliar rapidamente o conteúdo que encontram online. Nesses casos, a detecção depende mais de métodos probabilísticos e de análise de conteúdo, em vez de verificação baseada em proveniência. Precisamos de diferentes ferramentas para diferentes necessidades, e precisamos aceitar que não há uma bala de prata contra os deepfakes.
Do ponto de vista jurídico, qual é a maior lacuna atualmente na forma como as jurisdições estão lidando com o consentimento e a propriedade em conteúdo gerado ou replicado por IA?
Oof, quanto tempo você tem? As respostas dependem do que entendemos por conteúdo gerado ou replicado por IA. As questões variam se estamos olhando para uma imagem gerada por IA de uma casa ou um gato. Ou uma recriação digital do rosto de uma pessoa ou sua voz. Vamos nos concentrar no tópico de deepfakes e réplicas digitais e responder à sua pergunta no contexto de “clonagem digital”.
Em relação ao consentimento, a questão central é que a maioria dos contratos — sejam acordos de emprego ou termos de plataforma — contém cláusulas amplas e vagas que concedem direitos extensivos sobre o conteúdo do usuário. Essas cláusulas podem ser interpretadas como uma forma de “consentimento de porta dos fundos” onde concordar com os termos pode ser interpretado como consentimento para usos como clonagem, mesmo que a maioria das pessoas disputaria fortemente essa interpretação. Isso cria uma lacuna significativa entre a interpretação jurídica e a expectativa do usuário, uma lacuna que atualmente beneficia as empresas, enquanto a regulação fica atrás.
Em relação à propriedade, não há uma resposta jurídica clara sobre quem é o dono de uma réplica digital, porque os quadros existentes, como a proteção de dados, direitos autorais e direitos de personalidade, não foram projetados para essa tecnologia. Hoje, a maioria das pessoas é digitalmente clonada no trabalho, a pedido e com o financiamento de um empregador ou cliente. E essas entidades geralmente esperam um alto grau de controle sobre esse ativo, o que é compreensível, mas frequentemente problemático, porque esse ativo é uma imitação digital do seu rosto ou sua voz e pode fazê-lo dizer coisas que você nunca disse ou fazer coisas que você nunca fez.
A questão de “quem é o dono do seu clone?” é muito importante, mas ainda não respondida em lei hoje.
Você trabalhou em estreita colaboração com tecnologias de clonagem de voz. Quais são os riscos jurídicos mais mal compreendidos quando se trata de vozes sintéticas, tanto para empresas quanto para indivíduos?
A questão mais mal compreendida em termos de conformidade jurídica é o equilíbrio entre o interesse comercial de uma empresa em financiar e explorar uma réplica digital e o direito de uma pessoa à privacidade e dignidade digital. Essa tensão se estende por vários regimes jurídicos (primariamente propriedade intelectual, proteção de dados e privacidade) que nunca foram projetados para operar juntos e interpretam a clonagem de forma fundamentalmente diferente. Como resultado, traduzir isso em práticas de negócios viáveis e amigáveis é complexo e frequentemente incerto. As empresas, portanto, ou ignoram os riscos-chave ou incorrem em custos significativos para navegar por eles adequadamente. Isso cria um resultado perverso em que a conformidade responsável se torna o caminho mais difícil e caro, em vez do padrão.
Como as empresas devem pensar sobre a arquitetura de consentimento em sistemas de IA, especialmente quando lidam com semelhança, identidade e dados de treinamento?
As empresas devem projetar seus sistemas em torno de três capacidades principais. Primeiro, elas precisam garantir o consentimento informado e contextual no momento do cadastro. Em segundo lugar, devem tornar fácil para os usuários revogar esse consentimento e excluir alguns ou todos os seus dados, algo que é tecnicamente desafiador e frequentemente negligenciado, mas essencial para a conformidade com leis como o GDPR do Reino Unido e da UE e regimes semelhantes nos EUA. Manter o consentimento ao longo do tempo significa construir sistemas onde a revogação é operacionalmente suave e alinhada com o modelo de negócios.
O consentimento deve ser granular. E, em terceiro lugar, os usuários devem ser capazes de gerenciar permissões no nível de arquivos individuais, atualizar seus dados de semelhança e entender como eles estão sendo usados. Isso requer transparência e controle — ferramentas que permitem que os usuários monitorem, revisem e moderem como seus clones digitais são implantados. Esse nível de flexibilidade ainda é raro, mas é onde a vantagem competitiva aumenta.
Em sua experiência, aconselhando tanto startups quanto governos, onde é a maior desconexão entre como a IA está sendo construída e como está sendo regulamentada?
A desconexão entre como a IA está sendo construída e como está sendo regulamentada vem de missões fundamentalmente diferentes. Os governos regulamentam no interesse público, enquanto as empresas de IA (frequentemente financiadas por venture capital) são impulsionadas principalmente por crescimento, receita e lucro. Essas prioridades não sempre entram em conflito, mas frequentemente puxam em direções diferentes, com a regulação vista como uma restrição, em vez de um apoio.
Isso cria uma tensão estrutural: os reguladores e inovadores estão operando com diferentes incentivos, valores e até mesmo linguagens. Isso torna o alinhamento difícil na prática, mesmo que não seja impossível. Estamos começando a ver uma nova onda de empresas de tecnologia se alinhando mais estreitamente com os objetivos de interesse público, mas elas ainda são a exceção, e não a regra — especialmente entre aquelas que escalonam com sucesso.
A OpenOrigins se concentra em verificar o conteúdo no momento da criação usando proveniência criptográfica. Quão crítica é essa abordagem de origem em relação às salvaguardas pós-distribuição?
Isso volta à minha resposta acima. Autenticar o conteúdo na criação, “upstream”, é muito mais eficaz do que tentar verificá-lo no momento da distribuição ou até do consumo, ou seja, “downstream”. Autenticar o conteúdo na criação é como rastrear alimentos desde o momento em que são cultivados na fazenda, em vez de tentar descobrir a partir do que está no seu prato. Se você sabe onde o frango foi criado, como foi manuseado e como se moveu pela cadeia de suprimentos, você pode confiar no que está comendo. Se, em vez disso, você está tentando inferir tudo isso apenas olhando para o prato pronto, você está confiando em palpites. É o mesmo com discernir entre conteúdo criado por humanos e conteúdo gerado por IA online: a proveniência na fonte fornece uma garantia verificável, enquanto a detecção downstream é inerentemente mais incerta e reativa.
Qual papel você vê as normas como a C2PA desempenhando no futuro da mídia, e elas são suficientes por si só para restaurar a confiança online?
A C2PA é uma iniciativa bem-vinda, e de muitas maneiras apoia o mesmo movimento para a autenticidade do conteúdo que a OpenOrigins. Elas são uma parte importante do ecossistema de segurança de conteúdo e autenticidade de conteúdo. Como com qualquer ferramenta de cibersegurança, não há uma bala de prata.
Para criadores e talentos em indústrias como cinema, música e jogos, quais passos práticos devem ser tomados hoje para se proteger contra a replicação digital não autorizada?
Os artistas hoje enfrentam dois riscos distintos: a replicação de seu trabalho (como música, imagens ou escrita) e a replicação de sua semelhança, incluindo seu rosto, voz e corpo. Com entrada mínima, os sistemas de IA agora podem reproduzir ambos com um alto grau de fidelidade. Em termos práticos, a proteção começa com ser deliberado sobre o que você compartilha online, reconhecendo que qualquer conteúdo publicado pode ser raspado e usado em conjuntos de dados de treinamento, frequentemente sem consentimento claro ou visibilidade.
Esse risco agora é uma realidade de base de operar online. Mas o risco mais imediato e controlável frequentemente está nos contratos. Acordos que os artistas fazem com seus colaboradores, distribuidores ou plataformas podem incluir cláusulas que permitem o uso, reuso ou revenda de conteúdo para fins de treinamento — frequentemente sem participação significativa na receita downstream.
Para os artistas, isso torna a análise de contrato crítica. Entender como seu trabalho e semelhança podem ser usados, licenciados ou reutilizados é agora tão importante quanto o próprio processo criativo. Muito do debate atual (por meio de sindicatos, órgãos da indústria e plataformas) centra-se em corrigir esse desequilíbrio e garantir que os criadores retenham tanto o controle quanto a compensação justa.
Então, dois conselhos principais: seja cuidadoso com o que você compartilha online e leia seus contratos e procure por cláusulas de IA antes de assinar.
Olhando para os próximos três a cinco anos, você acredita que chegaremos a um ponto em que cada peça de conteúdo digital deve ter proveniência verificável, ou a confiança permanecerá fragmentada em plataformas e jurisdições?
Eu gostaria de dizer sim, mas realisticamente, não — não dentro de cinco anos. Na tecnologia, cinco anos parecem longos; em termos de mudança de comportamento e hábitos do usuário, é muito curto. A maioria dos consumidores é improvável de basear suas decisões com base na proveniência autenticada do conteúdo. As plataformas tendem a seguir a demanda do usuário, otimizando para engajamento em vez de proveniência.
Isso poderia mudar se a regulação intervir. Estamos começando a ver os primeiros movimentos em lugares como a Califórnia, onde os requisitos de rotulagem e moderação estão surgindo, mas escalar isso globalmente levará tempo — provavelmente mais próximo de uma década do que cinco anos.
Outra área de mudança é setorial: indústrias como jornalismo, finanças, seguros e saúde podem começar a exigir proveniência e autenticação porque a confiança é fundamental para suas operações.
Por fim, os consumidores podem não se importar com informações de proveniência no curto prazo, mas eles provavelmente se importarão com a qualidade do conteúdo e a qualidade da informação. Se o conteúdo gerado por IA se tornar muito homogêneo ou “sem graça”, as audiências podem começar a valorizar explicitamente o conteúdo criado por humanos. Isso poderia impulsionar uma segmentação do mercado, com algumas plataformas priorizando a escala e o conteúdo gerado por IA, e outras curando a autenticidade, a proveniência e o material de alta confiança liderado por humanos — mas essa mudança permanece desconhecida.
Obrigado por suas grandes respostas, leitores que desejam aprender mais devem visitar OpenOrigins.












