Connect with us

Líderes de pensamento

Quem nos Protegerá da Desinformação Gerada por IA?

mm

A IA gerativa passou de zero a cem em menos de um ano. Embora seja cedo, já demonstrou seu potencial para transformar os negócios. Todos podemos concordar com isso. Onde divergimos é sobre como conter os perigos que ela apresenta. 

Para ser claro, sou a favor da inovação e estou longe de ser um alarmista. Mas o recente aumento da desinformação — em grande parte direcionada à polarização em torno de questões controversas do momento — tornou claro que, se não for controlada, a IA gerativa pode causar estragos nas sociedades.

Já vimos esse filme antes com as mídias sociais, mas levou anos e lições difíceis para acordarmos para seus defeitos. Aprendemos algo (supostamente). A pergunta de hoje é quem vai ajudar a conter a maré de distorção da realidade da IA gerativa, e como? 

Previsivelmente, os governos estão começando a agir. A Europa está liderando o caminho, como tem demonstrado cada vez mais na regulação da tecnologia. Os EUA estão logo atrás, com o Presidente Biden emitindo uma ordem executiva no passado outubro.

Mas vai levar uma aldeia global agindo juntos para “manter a IA gerativa honesta”. E antes que o governo possa ajudar, precisa entender as limitações das abordagens disponíveis.

O problema de identidade piorou muito

Nesse novo mundo, a verdade se torna a agulha no palheiro de opiniões disfarçadas de fatos. Saber quem é o criador do conteúdo importa mais do que nunca. 

E não é tão fácil quanto decretar que todas as contas de mídia social devem ser verificadas por identidade. Há uma forte oposição a isso, e em alguns casos a anonimato é necessário para proteger justificadamente os titulares da conta. Além disso, muitos consumidores do pior conteúdo não se importam se ele é credível, nem de onde veio. 

Apesar dessas ressalvas, o papel potencial da identidade no combate à IA gerativa é subestimado. Céticos, ouçam-me. 

Vamos imaginar que a regulação ou a consciência social causem as plataformas a darem a cada titular de conta essas escolhas: 

  1. Verificar sua identidade ou não, e
  2. Revelar publicamente sua identidade verificada, ou apenas ser rotulada como “ID Verificada”

Então, o público das mídias sociais pode decidir melhor quem é credível. Igualmente importante, se não mais, a identidade apoia a responsabilização. As plataformas podem decidir sobre ações a serem tomadas contra “desinformadores” sérios e abusadores repetidos de conteúdo gerado por IA, mesmo que eles surjam sob diferentes nomes de conta. 

Com a IA gerativa aumentando as apostas, acredito que a identidade — saber exatamente quem postou o que — é crítica. Alguns se oporão a isso, e a identidade não é uma resposta abrangente. Na verdade, nenhuma solução satisfará todos os stakeholders. Mas se a regulação compelir as plataformas a oferecer verificação de identidade para todas as contas, estou convencido de que o impacto será enormemente positivo. 

O enigma da moderação

A moderação de conteúdo — automatizada e humana — é a última linha de defesa contra conteúdo indesejável. A moderação humana é um trabalho árduo, com risco de dano psicológico pela exposição ao pior que a humanidade pode oferecer. É também caro e frequentemente acusado de censura tendenciosa que as plataformas se esforçam para reduzir.

A moderação automatizada escala além da capacidade humana de lidar com as torrentes de novo conteúdo, mas falha em entender o contexto (memes sendo um exemplo comum) e nuances culturais. Ambas as formas de moderação são cruciais e necessárias, mas são apenas parte da resposta. 

A prescrição convencional e frequentemente ouvida para controlar a IA gerativa é: “Colaboração entre líderes de tecnologia, governo e sociedade civil é necessária.” Claro, mas o que específico?

Os governos, por sua parte, podem pressionar as plataformas de mídia social a oferecer verificação de identidade e exibir isso de forma proeminente em todas as postagens. Os reguladores também podem abrir caminho para métricas de credibilidade que realmente ajudem a avaliar se uma fonte é confiável. A colaboração é necessária para desenvolver padrões universais que deem orientação e direção específicas para que o setor privado não precise adivinhar.

Finalmente, deveria ser ilegal criar saídas de IA maliciosas? Legislação para proibir conteúdo destinado a atividades ilegais pode reduzir o volume de conteúdo tóxico e aliviar a carga sobre os moderadores. Não vejo regulação e leis como capazes de derrotar a desinformação, mas elas são essenciais para enfrentar a ameaça.

O lado ensolarado da rua: inovação

A promessa da inovação me torna um otimista aqui. Não podemos esperar que políticos ou proprietários de plataformas protejam totalmente contra a decepção gerada por IA. Eles deixam uma grande lacuna, e é exatamente isso que inspirará a invenção de nova tecnologia para autenticar conteúdo e detectar falsificações. 

Desde que agora sabemos o lado negativo das mídias sociais, fomos rápidos em perceber que a IA gerativa pode se tornar uma grande negatividade para a humanidade, com sua capacidade de polarizar e enganar. 

Otiminalmente, vejo benefícios em abordagens multilaterais onde métodos de controle trabalham juntos, primeiro na fonte, limitando a criação de conteúdo projetado para uso ilegal. Em seguida, antes da publicação, verificando a identidade daqueles que declinam a anonimato. Em seguida, rotulagem clara para mostrar classificações de credibilidade e a identidade do postador ou falta dela. Finalmente, moderação automatizada e humana podem filtrar parte do pior. Antecipo que nova tecnologia de autenticação estará online em breve. 

Some tudo, e teremos uma solução muito melhor, embora nunca perfeita. Enquanto isso, devemos desenvolver nossas habilidades para descobrir o que é real, quem está dizendo a verdade e quem está tentando nos enganar. 

Jeff Sakasegawa é o Arquiteto de Confiança e Segurança da Persona. Com mais de uma década de experiência no espaço de Confiança e Segurança em empresas como Google, Facebook, Square e Sift, Jeff é um especialista em Gerenciamento de Riscos e Conformidade. Ele é apaixonado por garantir experiências online seguras para todos os usuários.