Entre em contato

Não estamos mais alinhando IAs. Estamos alinhando civilizações.

Inteligência artificial

Não estamos mais alinhando IAs. Estamos alinhando civilizações.

mm

Durante muitos anos, a principal questão na inteligência artificial (IA) foi como alinhar os modelos de IA aos valores humanos. Pesquisadores tentaram definir regras de segurança, princípios éticos e mecanismos de controle que orientassem as decisões da IA. Esse trabalho alcançou progressos significativos. Mas agora, à medida que esses sistemas de IA se tornam mais capazes e difundidos, o foco do alinhamento está começando a mudar. O que começou como o desafio de alinhar um único modelo a um único conjunto de instruções tornou-se o desafio muito maior de alinhar civilizações inteiras que utilizam esses sistemas em escala global. A IA não é mais apenas uma ferramenta. Ela está evoluindo para um ambiente onde as sociedades trabalham, se comunicam, negociam e competem. Como resultado, o alinhamento deixou de ser um problema técnico e se tornou um problema civilizacional. Neste artigo, explico por que o alinhamento não se resume mais a modelos e por que devemos começar a pensar em termos de civilizações em vez de máquinas. Também discuto como essa mudança afeta nossas responsabilidades e o que ela significa para a cooperação global.

A quem a IA realmente representa em termos de valores?

Se você perguntar a uma IA sobre um evento histórico sensível, a resposta dependerá dos dados que ela estudou. Se esses dados vierem principalmente da internet ocidental, a resposta terá um viés ocidental. Ela priorizará o individualismo, a liberdade de expressão e os ideais democráticos. Esses são bons valores para muitas pessoas. Mas não são os únicos valores que existem no mundo.

Um usuário em Singapura, um usuário em Riade e um usuário em São Francisco têm definições diferentes do que é "útil" e do que é "prejudicial". Em algumas culturas, a harmonia social é mais importante do que a liberdade de expressão absoluta. Em outras, o respeito à hierarquia é mais importante do que a perturbação.

Quando uma empresa do Vale do Silício usa “Aprendizagem por Reforço com Feedback Humano(RLHF), eles contratam humanos para avaliar as respostas da IA. Mas quem são esses humanos? Quais são suas crenças? Se eles alinharem o modelo aos padrões americanos, estarão, sem querer, criando um produto de exportação cultural americana. Estarão criando um diplomata digital que impõe as regras de uma civilização específica ao resto do mundo.

A Ascensão dos Ciclos de Feedback

O desafio não é apenas o fato de a IA refletir as crenças de uma cultura. É como essas crenças podem nos transformar. Os sistemas modernos de IA têm o potencial de moldar o comportamento de indivíduos, organizações e até mesmo nações. Eles podem influenciar como pensamos, trabalhamos, confiamos e competimos. Isso cria ciclos de feedback entre os sistemas de IA e as sociedades humanas; nós treinamos a IA e a IA molda como pensamos e agimos. Esses ciclos estão se tornando mais fortes à medida que a IA se torna mais onipresente. Para entender como esse ciclo de feedback funciona, aqui estão dois exemplos:

  • A implementação em larga escala de IA altera o comportamento social, e o comportamento social altera os dados que treinam novos sistemas. Por exemplo, um algoritmo de recomendação pode influenciar o que as pessoas assistem, leem e acreditam. Ferramentas de produtividade remodelam a forma como as equipes colaboram e como os alunos aprendem. Essas mudanças de comportamento alteram os padrões de dados na forma de diferentes hábitos de visualização, padrões de comunicação no ambiente de trabalho ou estilos de escrita. Quando esses dados são incorporados a conjuntos de dados de treinamento futuros, os modelos ajustam suas premissas e resultados de acordo. O comportamento humano molda os modelos, e os modelos, por sua vez, moldam o comportamento humano.
  • Ferramentas automatizadas de tomada de decisão influenciam políticas públicas, e políticas públicas influenciam o treinamento de modelos futuros. Por exemplo, muitos governos agora usam IA para sugerir onde alocar recursos, como identificar quais bairros precisam de mais apoio na área da saúde ou quais áreas podem apresentar maior risco de criminalidade. Quando os formuladores de políticas agem com base nessas recomendações, os resultados dessas decisões posteriormente passam a fazer parte de novos conjuntos de dados. Com o tempo, as decisões políticas moldadas pela IA acabam moldando a próxima geração de modelos de IA.

Ao reconhecer esse ciclo de feedback, torna-se evidente que a IA está gradualmente moldando e alinhando civilizações. Como resultado, as nações começam a se perguntar: como podem salvaguardar seus valores ao mesmo tempo em que integram a IA em suas sociedades e instituições?

O surgimento da IA ​​soberana

Esse desafio de alinhamento provocou reações significativas de governos em todo o mundo. As nações perceberam que depender de IA importada representa um risco para sua soberania. Elas não podem se dar ao luxo de ter seus cidadãos educados, informados e aconselhados por uma caixa preta que pensa como um estrangeiro.

Essa constatação levou ao surgimento de “IA soberanaA França é investir A Índia está fortemente empenhada em construir modelos que falem francês e compreendam a lei e a cultura francesas. prédio Modelos de IA autóctones para garantir seus valores culturais. Os Emirados Árabes Unidos e a China estão construindo modelos de IA alinhados com suas próprias visões nacionais.

Esta é a nova corrida armamentista. É uma corrida pelo controle da narrativa. Uma civilização que não possui sua própria IA acabará perdendo sua própria memória. Se seus filhos fizerem uma pergunta a uma máquina e ela responder com a lógica de uma cultura diferente, sua cultura começará a se deteriorar. Essa constatação, no entanto, pode levar à formação de blocos digitais distintos. Podemos acabar com uma IA ocidental, uma IA chinesa, uma IA indiana e assim por diante. Esses sistemas operarão com fatos e bússolas morais diferentes. Esses desenvolvimentos deixam claro que, se quisermos criar um modelo de IA único e verdadeiramente alinhado, primeiro precisamos encontrar uma maneira de alinhar as civilizações.

Necessidade de uma IA Diplomática

O alinhamento tradicional pressupõe que um modelo pode ser alinhado por meio de treinamento cuidadoso, instruções e mecanismos de controle. Essa linha de pensamento deriva da mentalidade técnica das primeiras pesquisas sobre segurança em IA. Mas mesmo um alinhamento perfeito em nível de modelo não consegue resolver os desafios de alinhar civilizações. O alinhamento não se mantém estável quando as sociedades tendem a seguir direções opostas. Se países, empresas e comunidades têm objetivos conflitantes, eles pressionarão os sistemas de IA a refletirem esses conflitos. Essas limitações demonstram que o alinhamento não é apenas um problema técnico. É um problema de governança, cultural e de coordenação. E esses problemas exigem não apenas especialistas ou desenvolvedores. Eles envolvem civilizações inteiras.

Então, como avançamos? Se aceitarmos que o alinhamento universal é impossível, precisamos mudar nossa estratégia. Precisamos parar de buscar uma solução técnica para um problema filosófico. Precisamos começar a pensar como diplomatas. Precisaremos construir protocolos para o “Alinhamento Civilizacional”. Precisamos descobrir como a IA pode respeitar as crenças e os valores de uma sociedade sem impor a ela as crenças de outras culturas. Em outras palavras, precisamos de uma ONU digital para nossos algoritmos.

Isso exige transparência. Atualmente, não sabemos realmente quais valores estão ocultos nas camadas mais profundas de uma rede neural. Vemos apenas a saída. Para alinhar civilizações, precisamos ter clareza sobre a "Constituição" de cada modelo. Um modelo deve ser capaz de declarar seu viés. Deve ser capaz de dizer: "Fui treinado com estes dados, com estas regras de segurança, priorizando estes valores". Somente quando o viés for visível poderemos confiar no sistema. Um usuário deve poder alternar entre perspectivas. Deve ser possível fazer uma pergunta e ver como um modelo "ocidental" responde em comparação com a resposta de um modelo "oriental". Isso transformaria a IA em uma ferramenta para compreensão, em vez de uma ferramenta para doutrinação.

Concluindo!

Passamos tempo demais nos preocupando com o Exterminador do Futuro. O verdadeiro risco não é que um robô nos destrua. O verdadeiro risco é que um robô nos faça esquecer quem somos. Alinhamento não é um código que escrevemos uma vez e esquecemos. É uma negociação constante com modelos de IA para mantê-los alinhados com nossas crenças e valores. É um ato político. Ao entrarmos nesta próxima fase da era da inteligência artificial, devemos olhar além da tela. Devemos considerar como a IA interpreta nossa história, nossas fronteiras e nossas crenças. Estamos construindo as mentes que nos ajudarão a governar o mundo. Devemos garantir que essas mentes respeitem as diferenças entre as civilizações.

mm

Tehseen Zia é professor associado titular na COMSATS University Islamabad, com doutorado em IA pela Universidade de Tecnologia de Viena, Áustria. Especializado em Inteligência Artificial, Aprendizado de Máquina, Ciência de Dados e Visão Computacional, ele fez contribuições significativas com publicações em revistas científicas de renome. Tehseen também liderou vários projetos industriais como investigador principal e atuou como consultor de IA.