Entre em contato

Líderes de pensamento

Os RAGs são a solução para as alucinações de IA?

mm

Publicado

 on

A IA, por design, tem uma “mente própria”. Uma desvantagem disso é que os modelos de IA generativa ocasionalmente fabricam informações em um fenômeno chamado “Alucinações de IA”, um dos primeiros exemplos do qual ganhou destaque quando um juiz de Nova York repreendido advogados por usarem um resumo jurídico escrito pelo ChatGPT que fazia referência a processos judiciais inexistentes. Mais recentemente, houve incidentes de mecanismos de pesquisa gerados por IA que diziam aos usuários para consumir pedras para benefícios à saúde ou para usar produtos não tóxicos cola para ajudar o queijo a grudar na pizza.

À medida que a GenAI se torna cada vez mais omnipresente, é importante que os adotantes reconheçam que as alucinações são, a partir de agora, um inevitável aspecto das soluções GenAI. Construídas em grandes modelos de linguagem (LLMs), essas soluções são muitas vezes informadas por grandes quantidades de fontes díspares que provavelmente contêm pelo menos algumas informações imprecisas ou desatualizadas – essas respostas fabricadas constituem entre 3% e 10% de respostas geradas por chatbot de IA às solicitações do usuário. À luz da IA ​​“caixa-pretaNa natureza – na qual, como humanos, temos uma dificuldade extraordinária em examinar exatamente como a IA gera seus resultados – essas alucinações podem ser quase impossíveis de serem rastreadas e compreendidas pelos desenvolvedores.

Inevitáveis ​​ou não, as alucinações de IA são, na melhor das hipóteses, frustrantes, e, na pior das hipóteses, perigosas e antiéticas.

Em vários setores, incluindo cuidados de saúde, finanças e segurança pública, as ramificações das alucinações incluem tudo, desde a propagação de desinformação e o comprometimento de dados sensíveis até acidentes potencialmente fatais. Se as alucinações continuarem a não ser controladas, o bem-estar dos utilizadores e a confiança da sociedade nos sistemas de IA ficarão ambos comprometidos.

Como tal, é imperativo que os administradores desta tecnologia poderosa reconheçam e abordem os riscos das alucinações de IA, a fim de garantir a credibilidade dos resultados gerados pelo LLM.

RAGs como ponto de partida para resolver alucinações

Um método que ganhou destaque na mitigação de alucinações é geração aumentada de recuperaçãoou RAG. Esta solução aumenta a confiabilidade do LLM por meio da integração de armazenamentos externos de informações – extraindo informações relevantes de um banco de dados confiável escolhido de acordo com a natureza da consulta – para garantir respostas mais confiáveis ​​a consultas específicas.

Alguma indústria especialistas postularam que o RAG sozinho pode resolver alucinações. Mas as bases de dados integradas no RAG ainda podem incluir dados desatualizados, o que poderá gerar informações falsas ou enganosas. Em certos casos, a integração de dados externos através de RAG pode até aumentar a probabilidade de alucinações em grandes modelos linguísticos: se um modelo de IA depende desproporcionalmente de uma base de dados desatualizada que percebe por estar totalmente atualizado, a extensão das alucinações pode tornar-se ainda mais grave.

AI Guardrails – Preenchendo lacunas do RAG

Como você pode ver, os RAGs são promissores para mitigar as alucinações de IA. No entanto, as indústrias e as empresas que recorrem a estas soluções também devem compreender as suas limitações inerentes. Na verdade, quando usados ​​em conjunto com RAGs, existem metodologias complementares que devem ser usadas ao abordar alucinações LLM.

Por exemplo, as empresas podem empregar IA em tempo real guarda corpos para garantir respostas LLM e mitigar alucinações de IA. Guardrails atuam como uma rede que examina todas as saídas do LLM em busca de conteúdo fabricado, profano ou fora do tópico antes que ele chegue aos usuários. Essa abordagem proativa de middleware garante a confiabilidade e a relevância da recuperação em sistemas RAG, aumentando, em última análise, a confiança entre os usuários e garantindo interações seguras que se alinham com a marca da empresa.

Alternativamente, existe a abordagem de “engenharia de prompt”, que exige que o engenheiro altere o prompt mestre de back-end. Ao adicionar restrições pré-determinadas aos prompts aceitáveis ​​– em outras palavras, monitorando não apenas onde o LLM está obtendo informações, mas também como os usuários estão solicitando respostas – os prompts projetados podem orientar os LLMs em direção a resultados mais confiáveis. A principal desvantagem dessa abordagem é que esse tipo de engenharia imediata pode ser uma tarefa extremamente demorada para os programadores, que muitas vezes já estão sobrecarregados de tempo e recursos.

A abordagem de “ajuste fino” envolve o treinamento de LLMs em conjuntos de dados especializados para refinar o desempenho e mitigar o risco de alucinações. Este método treina LLMs especializados em tarefas para extrair domínios específicos e confiáveis, melhorando a precisão e a confiabilidade na produção.

Também é importante considerar o impacto do comprimento da entrada no desempenho do raciocínio dos LLMs – na verdade, muitos usuários tendem a pensar que quanto mais extenso e cheio de parâmetros for o seu prompt, mais precisos serão os resultados. No entanto, um estudo recente revelou que a precisão dos resultados do LLM realmente diminui conforme o comprimento da entrada aumenta. Consequentemente, aumentar o número de diretrizes atribuídas a qualquer prompt não garante confiabilidade consistente na geração de aplicações de IA generativas confiáveis.

Este fenómeno, conhecido como sobrecarga de prompts, destaca os riscos inerentes a designs de prompts excessivamente complexos – quanto mais amplamente um prompt é formulado, mais portas são abertas para informações imprecisas e alucinações à medida que o LLM se esforça para cumprir todos os parâmetros.

Engenharia imediata requer atualizações e ajustes constantes e ainda luta para prevenir eficazmente alucinações ou respostas absurdas. Os guardrails, por outro lado, não criarão riscos adicionais de resultados fabricados, tornando-os uma opção atraente para proteger a IA. Ao contrário da engenharia imediata, os guardrails oferecem uma solução abrangente em tempo real que garante que a IA generativa criará apenas resultados dentro de limites predefinidos.

Embora não seja uma solução por si só, o feedback do usuário também pode ajudar a mitigar as alucinações com ações como votos positivos e negativos, ajudando a refinar modelos, melhorar a precisão dos resultados e reduzir o risco de alucinações.

Por si só, as soluções RAG exigem experimentação extensiva para alcançar resultados precisos. Mas quando combinados com ajustes finos, engenharia rápida e grades de proteção, eles podem oferecer soluções mais direcionadas e eficientes para lidar com alucinações. A exploração dessas estratégias complementares continuará a melhorar a mitigação de alucinações em LLMs, auxiliando no desenvolvimento de modelos mais confiáveis ​​e confiáveis ​​em diversas aplicações.

RAGs não são a solução para alucinações de IA

As soluções RAG agregam imenso valor aos LLMs, enriquecendo-os com conhecimento externo. Mas com tanta coisa ainda desconhecida sobre a IA generativa, as alucinações continuam a ser um desafio inerente. A chave para combatê-los não reside em tentar eliminá-los, mas sim em aliviar a sua influência com uma combinação de barreiras estratégicas, processos de verificação e instruções aperfeiçoadas.

Quanto mais confiarmos no que a GenAI nos diz, mais eficaz e eficiente seremos capazes de aproveitar o seu poderoso potencial.

Liran Hason é o co-fundador e CEO da aporia, a plataforma líder de controle de IA, na qual empresas da Fortune 500 e líderes do setor em todo o mundo confiam para garantir a confiança na GenAI. Aporia também foi reconhecida como Pioneira em Tecnologia pelo Fórum Econômico Mundial. Antes de fundar a Aporia, Liran foi arquiteto de ML na Adallom (adquirida pela Microsoft) e mais tarde investidor na Vertex Ventures. Liran fundou a Aporia depois de ver em primeira mão os efeitos da IA ​​sem grades de proteção. Em 2022, a Forbes nomeou Aporia como a “Próxima Empresa Bilionária”