Connect with us

Impedindo que a IA crie histórias: um guia para prevenir alucinações

Líderes de pensamento

Impedindo que a IA crie histórias: um guia para prevenir alucinações

mm

A IA está revolucionando a forma como quase todas as indústrias operam. Está nos tornando mais eficientes, mais produtivos e – quando implementada corretamente – melhores em nossos trabalhos em geral. Mas à medida que nossa dependência dessa tecnologia nova aumenta rapidamente, devemos nos lembrar de um simples fato: a IA não é infalível. Suas saídas não devem ser aceitas como verdade porque, assim como os humanos, a IA pode cometer erros.

Chamamos esses erros de “alucinações da IA”. Tais deslizes variam desde responder um problema de matemática incorretamente até fornecer informações imprecisas sobre políticas governamentais. Em indústrias altamente regulamentadas, alucinações podem levar a multas caras e problemas legais, sem mencionar clientes insatisfeitos.

A frequência das alucinações da IA deve, portanto, ser causa de preocupação: estima-se que os modernos grandes modelos de linguagem (LLMs) alucinam em qualquer lugar de 1% a 30% do tempo. Isso resulta em centenas de respostas falsas geradas diariamente, o que significa que as empresas que buscam aproveitar essa tecnologia devem ser extremamente seletivas ao escolher quais ferramentas implementar.

Vamos explorar por que as alucinações da IA acontecem, o que está em jogo e como podemos identificá-las e corrigi-las.

Lixo entra, lixo sai

Lembra de jogar o jogo “telefone” quando era criança? Como a frase inicial se distorcia à medida que passava de jogador para jogador, resultando em uma declaração completamente diferente no final?

A forma como a IA aprende com suas entradas é semelhante. As respostas que os LLMs geram são tão boas quanto as informações que recebem, o que significa que um contexto incorreto pode levar à geração e disseminação de informações falsas. Se um sistema de IA for construído com dados imprecisos, desatualizados ou tendenciosos, então suas saídas refletirão isso.

Como tal, um LLM é tão bom quanto suas entradas, especialmente quando há falta de intervenção ou supervisão humana. À medida que mais soluções de IA autônomas se proliferam, é crítico que forneçamos às ferramentas o contexto de dados correto para evitar causar alucinações. Precisamos de um treinamento rigoroso desses dados e/ou a capacidade de orientar os LLMs de tal forma que respondam apenas a partir do contexto que lhes é fornecido, em vez de buscar informações em qualquer lugar da internet.

Por que as alucinações importam?

Para empresas que atendem ao cliente, a precisão é tudo. Se os funcionários estão confiando na IA para tarefas como sintetizar dados do cliente ou responder a consultas do cliente, eles precisam confiar que as respostas que essas ferramentas geram são precisas.

Caso contrário, as empresas arriscam danos à sua reputação e lealdade do cliente. Se os clientes são alimentados com respostas insuficientes ou falsas por um chatbot, ou se são deixados esperando enquanto os funcionários verificam as saídas do chatbot, eles podem levar seus negócios para outro lugar. As pessoas não devem se preocupar se as empresas com as quais interagem estão alimentando-as com informações falsas – elas querem suporte rápido e confiável, o que significa que obter essas interações certas é de suma importância.

Os líderes empresariais devem fazer sua devida diligência ao selecionar a ferramenta de IA certa para seus funcionários. A IA deve liberar tempo e energia para que os funcionários se concentrem em tarefas de maior valor; investir em um chatbot que exige constante supervisão humana derrota o propósito da adoção. Mas a existência de alucinações é realmente tão proeminente ou o termo é simplesmente sobreutilizado para se identificar com qualquer resposta que supomos ser incorreta?

Combate às alucinações da IA

Considere: Teoria do Significado Dinâmico (DMT), o conceito de que um entendimento entre duas pessoas – nesse caso, o usuário e a IA – está sendo trocado. Mas as limitações da linguagem e do conhecimento dos assuntos causam um desalinhamento na interpretação da resposta.

No caso de respostas geradas pela IA, é possível que os algoritmos subjacentes não estejam ainda totalmente equipados para interpretar ou gerar texto de forma que se alinhe com as expectativas que temos como humanos. Essa discrepância pode levar a respostas que podem parecer precisas na superfície, mas que, no final, carecem da profundidade ou nuances necessárias para uma compreensão verdadeira.

Além disso, a maioria dos LLMs de propósito geral tira informações apenas do conteúdo disponível publicamente na internet. As aplicações empresariais da IA performam melhor quando são informadas por dados e políticas específicas de indústrias e empresas. Os modelos também podem ser aprimorados com feedback humano direto – particularmente soluções agênticas que são projetadas para responder ao tom e à sintaxe.

Tais ferramentas também devem ser rigorosamente testadas antes de se tornarem voltadas para o consumidor. Isso é uma parte crítica de prevenir alucinações da IA. Todo o fluxo deve ser testado usando conversas baseadas em turnos com o LLM desempenhando o papel de uma persona. Isso permite que as empresas suponham melhor o sucesso geral das conversas com um modelo de IA antes de liberá-lo no mundo.

É essencial que tanto os desenvolvedores quanto os usuários da tecnologia de IA permaneçam cientes da teoria do significado dinâmico nas respostas que recebem, bem como da dinâmica da linguagem sendo usada na entrada. Lembre-se, o contexto é a chave. E, como humanos, a maior parte de nosso contexto é entendida por meios não expressos, seja por linguagem corporal, tendências sociais – até mesmo nosso tom. Como humanos, temos o potencial de alucinar em resposta a perguntas. Mas, em nossa iteração atual de IA, nossa compreensão humano-humano não é facilmente contextualizada, então precisamos ser mais críticos do contexto que fornecemos por escrito.

Basta dizer – nem todos os modelos de IA são criados iguais. À medida que a tecnologia se desenvolve para completar tarefas cada vez mais complexas, é crucial que as empresas que visam implementá-la identifiquem ferramentas que melhorarão as interações e experiências do cliente em vez de prejudicá-las.

A responsabilidade não é apenas dos provedores de soluções para garantir que tenham feito tudo ao seu alcance para minimizar a chance de alucinações ocorrerem. Os compradores potenciais também têm seu papel a desempenhar. Priorizando soluções que são rigorosamente treinadas e testadas e que podem aprender a partir de dados proprietários (em vez de qualquer coisa e tudo na internet), as empresas podem aproveitar ao máximo seus investimentos em IA para preparar funcionários e clientes para o sucesso.

Dan Balaceanu, Chief Product Officer at DRUID AI, tem experiência em gerenciar departamentos e processos de desenvolvimento dentro de organizações empresariais. Ele é um arquiteto de soluções altamente proficiente e gerente de projetos técnicos com mais de 15 anos de experiência em liderar projetos de desenvolvimento e implementação de médio porte, com coleta de requisitos de clientes, análise de sistemas, desenvolvimento de aplicações e testes, em equipes focadas no cliente.