Connect with us

Inteligência artificial

O que são Alucinações de LLM? Causas, Preocupação Ética e Prevenção

mm

Modelos de linguagem grande (LLMs) são sistemas de inteligência artificial capazes de analisar e gerar texto semelhante ao humano. Mas eles têm um problema – LLMs alucinam, ou seja, inventam coisas. As alucinações de LLMs fizeram com que os pesquisadores se preocupassem com o progresso neste campo, porque se os pesquisadores não conseguirem controlar o resultado dos modelos, então não poderão construir sistemas críticos para servir à humanidade. Mais sobre isso mais tarde.

Geralmente, LLMs usam vastas quantidades de dados de treinamento e algoritmos de aprendizado complexos para gerar saídas realistas. Em alguns casos, o aprendizado em contexto é usado para treinar esses modelos usando apenas alguns exemplos. LLMs estão se tornando cada vez mais populares em várias áreas de aplicação, desde tradução de máquina, análise de sentimento, assistência de IA virtual, anotação de imagens, processamento de linguagem natural, etc.

Apesar da natureza de ponta dos LLMs, eles ainda são propensos a vieses, erros e alucinações. Yann LeCun, atual cientista-chefe de IA da Meta, mencionou recentemente a falha central nos LLMs que causa alucinações: “Modelos de linguagem grande não têm ideia da realidade subjacente que a linguagem descreve. Esses sistemas geram texto que soa bem, gramatical e semanticamente, mas não têm realmente algum tipo de objetivo além de satisfazer a consistência estatística com o prompt”.

Alucinações em LLMs

Imagem por Gerd Altmann do Pixabay

Alucinações se referem ao modelo que gera saídas que são sintaticamente e semanticamente corretas, mas estão desconectadas da realidade e baseadas em suposições falsas. Alucinação é uma das principais preocupações éticas dos LLMs, e pode ter consequências prejudiciais, pois os usuários sem conhecimento adequado do domínio começam a confiar demais nesses modelos de linguagem cada vez mais convincentes.

Um certo grau de alucinação é inevitável em todos os LLMs autoregressivos. Por exemplo, um modelo pode atribuir uma citação falsa a um celebridade que nunca foi dita. Eles podem afirmar algo sobre um tópico específico que é factualmente incorreto ou citar fontes inexistentes em artigos de pesquisa, espalhando assim informações falsas.

No entanto, fazer com que os modelos de IA alucinem não sempre tem efeitos adversos. Por exemplo, um novo estudo sugere que cientistas estão descobrindo ‘novas proteínas com uma variedade ilimitada de propriedades’ por meio de LLMs que alucinam.

O que Causa Alucinações em LLMs?

LLMs podem alucinar devido a vários fatores, que variam de erros de sobreajuste e decodificação para vieses de treinamento.

Sobreajuste

Imagem por janjf93 do Pixabay

Sobreajuste é um problema em que um modelo de IA se ajusta muito bem aos dados de treinamento, mas não consegue representar completamente a gama de entradas que pode encontrar, ou seja, falha em generalizar seu poder de previsão para novos dados não vistos. O sobreajuste pode levar o modelo a produzir conteúdo alucinado.

Erros de Codificação e Decodificação

Imagem por geralt do Pixabay

Se houver erros na codificação e decodificação do texto e suas representações subsequentes, isso também pode causar o modelo gerar saídas sem sentido e erradas.

Vieses de Treinamento

Imagem por Quince Creative do Pixabay

Outro fator é a presença de certos vieses nos dados de treinamento, o que pode causar o modelo dar resultados que representam esses vieses em vez da natureza real dos dados. Isso é semelhante à falta de diversidade nos dados de treinamento, o que limita a capacidade do modelo de generalizar para novos dados.

A estrutura complexa dos LLMs torna bastante desafiador para os pesquisadores de IA e práticos identificar, interpretar e corrigir as causas subjacentes das alucinações.

Preocupações Éticas das Alucinações de LLM

LLMs podem perpetuar e amplificar vieses prejudiciais por meio de alucinações e podem, por sua vez, ter consequências sociais negativas. Algumas dessas preocupações éticas mais importantes são listadas abaixo:

Conteúdo Discriminatório e Tóxico

Imagem por ar130405 do Pixabay

Já que os dados de treinamento de LLMs são frequentemente cheios de estereótipos socioculturais devido aos vieses inerentes e falta de diversidade. LLMs podem, assim, produzir e reforçar essas ideias prejudiciais contra grupos desfavorecidos na sociedade.

Eles podem gerar esse conteúdo discriminatório e odioso com base em raça, gênero, religião, etnia, etc.

Problemas de Privacidade

Imagem por JanBaby do Pixabay

LLMs são treinados em um corpus de treinamento maciço que frequentemente inclui informações pessoais de indivíduos. Houve casos em que esses modelos violaram a privacidade das pessoas. Eles podem vazar informações específicas, como números de seguridade social, endereços residenciais, números de telefone celular e detalhes médicos.

Desinformação e Misinformação

Imagem por geralt do Pixabay

Modelos de linguagem podem produzir conteúdo semelhante ao humano que parece preciso, mas é, na verdade, falso e não apoiado por evidências empíricas. Isso pode ser acidental, levando a desinformação, ou pode ter intenção maliciosa por trás para espalhar desinformação. Se isso não for verificado, pode criar tendências sociais, culturais, econômicas e políticas adversas.

Prevenindo Alucinações de LLM

Imagem por athree23 do Pixabay

Pesquisadores e práticos estão adotando várias abordagens para abordar o problema das alucinações em LLMs. Isso inclui melhorar a diversidade dos dados de treinamento, eliminar vieses inerentes, usar técnicas de regularização mais eficazes e empregar treinamento adversarial e aprendizado por reforço, entre outros:

  • Desenvolver técnicas de regularização mais eficazes está no cerne de lidar com as alucinações. Elas ajudam a prevenir o sobreajuste e outros problemas que causam alucinações.
  • Aumento de dados pode reduzir a frequência de alucinações, como evidenciado por um estudo de pesquisa. Aumento de dados envolve aumentar o conjunto de treinamento adicionando um token aleatório em qualquer lugar da sentença. Isso dobra o tamanho do conjunto de treinamento e causa uma diminuição na frequência de alucinações.
  • OpenAI e Google’s DeepMind desenvolveram uma técnica chamada aprendizado por reforço com feedback humano (RLHF) para lidar com o problema de alucinação do ChatGPT. Isso envolve um avaliador humano que revisa frequentemente as respostas do modelo e escolhe as mais apropriadas para os prompts do usuário. Esse feedback é então usado para ajustar o comportamento do modelo. Ilya Sutskever, cientista-chefe da OpenAI, mencionou recentemente que essa abordagem pode potencialmente resolver as alucinações no ChatGPT: “Estou bastante otimista de que, simplesmente melhorando esse passo subsequente de aprendizado por reforço com feedback humano, podemos ensinar a não alucinar”.
  • Identificar conteúdo alucinado para usá-lo como exemplo para treinamento futuro também é um método usado para lidar com as alucinações. Uma técnica nova nesse sentido detecta alucinações no nível de token e prevê se cada token na saída é alucinado. Isso também inclui um método para aprendizado não supervisionado de detectores de alucinação.

Em resumo, as alucinações de LLMs são uma preocupação crescente. E, apesar dos esforços, ainda há muito trabalho a ser feito para abordar o problema. A complexidade desses modelos torna geralmente desafiador identificar e corrigir corretamente as causas subjacentes das alucinações.

No entanto, com a continuação da pesquisa e desenvolvimento, é possível mitigar as alucinações em LLMs e reduzir suas consequências éticas.

Se você deseja aprender mais sobre LLMs e as técnicas preventivas que estão sendo desenvolvidas para retificar as alucinações de LLMs, verifique unite.ai para expandir seu conhecimento.

Haziqa é uma Cientista de Dados com ampla experiência em escrever conteúdo técnico para empresas de IA e SaaS.