Líderes de pensamento
Quem nos Protegerá da Desinformação Gerada por IA?

A IA gerativa passou de zero a cem em menos de um ano. Embora seja cedo, já demonstrou seu potencial para transformar os negócios. Todos podemos concordar com isso. Onde divergimos é sobre como conter os perigos que ela apresenta.
Para ser claro, sou a favor da inovação e estou longe de ser um alarmista. Mas o recente aumento da desinformação — em grande parte direcionada à polarização em torno de questões controversas do momento — tornou claro que, se não for controlada, a IA gerativa pode causar estragos nas sociedades.
Já vimos esse filme antes com as mídias sociais, mas levou anos e lições difíceis para acordarmos para seus defeitos. Aprendemos algo (supostamente). A pergunta de hoje é quem vai ajudar a conter a maré de distorção da realidade da IA gerativa, e como?
Previsivelmente, os governos estão começando a agir. A Europa está liderando o caminho, como tem demonstrado cada vez mais na regulação da tecnologia. Os EUA estão logo atrás, com o Presidente Biden emitindo uma ordem executiva no passado outubro.
Mas vai levar uma aldeia global agindo juntos para “manter a IA gerativa honesta”. E antes que o governo possa ajudar, precisa entender as limitações das abordagens disponíveis.
O problema de identidade piorou muito
Nesse novo mundo, a verdade se torna a agulha no palheiro de opiniões disfarçadas de fatos. Saber quem é o criador do conteúdo importa mais do que nunca.
E não é tão fácil quanto decretar que todas as contas de mídia social devem ser verificadas por identidade. Há uma forte oposição a isso, e em alguns casos a anonimato é necessário para proteger justificadamente os titulares da conta. Além disso, muitos consumidores do pior conteúdo não se importam se ele é credível, nem de onde veio.
Apesar dessas ressalvas, o papel potencial da identidade no combate à IA gerativa é subestimado. Céticos, ouçam-me.
Vamos imaginar que a regulação ou a consciência social causem as plataformas a darem a cada titular de conta essas escolhas:
- Verificar sua identidade ou não, e
- Revelar publicamente sua identidade verificada, ou apenas ser rotulada como “ID Verificada”
Então, o público das mídias sociais pode decidir melhor quem é credível. Igualmente importante, se não mais, a identidade apoia a responsabilização. As plataformas podem decidir sobre ações a serem tomadas contra “desinformadores” sérios e abusadores repetidos de conteúdo gerado por IA, mesmo que eles surjam sob diferentes nomes de conta.
Com a IA gerativa aumentando as apostas, acredito que a identidade — saber exatamente quem postou o que — é crítica. Alguns se oporão a isso, e a identidade não é uma resposta abrangente. Na verdade, nenhuma solução satisfará todos os stakeholders. Mas se a regulação compelir as plataformas a oferecer verificação de identidade para todas as contas, estou convencido de que o impacto será enormemente positivo.
O enigma da moderação
A moderação de conteúdo — automatizada e humana — é a última linha de defesa contra conteúdo indesejável. A moderação humana é um trabalho árduo, com risco de dano psicológico pela exposição ao pior que a humanidade pode oferecer. É também caro e frequentemente acusado de censura tendenciosa que as plataformas se esforçam para reduzir.
A moderação automatizada escala além da capacidade humana de lidar com as torrentes de novo conteúdo, mas falha em entender o contexto (memes sendo um exemplo comum) e nuances culturais. Ambas as formas de moderação são cruciais e necessárias, mas são apenas parte da resposta.
A prescrição convencional e frequentemente ouvida para controlar a IA gerativa é: “Colaboração entre líderes de tecnologia, governo e sociedade civil é necessária.” Claro, mas o que específico?
Os governos, por sua parte, podem pressionar as plataformas de mídia social a oferecer verificação de identidade e exibir isso de forma proeminente em todas as postagens. Os reguladores também podem abrir caminho para métricas de credibilidade que realmente ajudem a avaliar se uma fonte é confiável. A colaboração é necessária para desenvolver padrões universais que deem orientação e direção específicas para que o setor privado não precise adivinhar.
Finalmente, deveria ser ilegal criar saídas de IA maliciosas? Legislação para proibir conteúdo destinado a atividades ilegais pode reduzir o volume de conteúdo tóxico e aliviar a carga sobre os moderadores. Não vejo regulação e leis como capazes de derrotar a desinformação, mas elas são essenciais para enfrentar a ameaça.
O lado ensolarado da rua: inovação
A promessa da inovação me torna um otimista aqui. Não podemos esperar que políticos ou proprietários de plataformas protejam totalmente contra a decepção gerada por IA. Eles deixam uma grande lacuna, e é exatamente isso que inspirará a invenção de nova tecnologia para autenticar conteúdo e detectar falsificações.
Desde que agora sabemos o lado negativo das mídias sociais, fomos rápidos em perceber que a IA gerativa pode se tornar uma grande negatividade para a humanidade, com sua capacidade de polarizar e enganar.
Otiminalmente, vejo benefícios em abordagens multilaterais onde métodos de controle trabalham juntos, primeiro na fonte, limitando a criação de conteúdo projetado para uso ilegal. Em seguida, antes da publicação, verificando a identidade daqueles que declinam a anonimato. Em seguida, rotulagem clara para mostrar classificações de credibilidade e a identidade do postador ou falta dela. Finalmente, moderação automatizada e humana podem filtrar parte do pior. Antecipo que nova tecnologia de autenticação estará online em breve.
Some tudo, e teremos uma solução muito melhor, embora nunca perfeita. Enquanto isso, devemos desenvolver nossas habilidades para descobrir o que é real, quem está dizendo a verdade e quem está tentando nos enganar.












