Líderes de pensamento
Quando ‘Chatbot’ É uma Palavra Suja: 3 Conceitos Errados que Líderes Empresariais Têm Sobre IA Conversacional
A proliferação de LLMs como o ChatGPT da OpenAI, o Llama da Meta e o Claude da Anthropic levou a um chatbot para todas as ocasiões. Existem chatbots para conselhos de carreira, chatbots que permitem que você fale com seu eu futuro, e até um chatbot de frango que fornece conselhos de culinária.
Mas esses não são os chatbots de dez anos atrás – naquela época, eles estavam limitados a “conversas” rigidamente pré-definidas e estreitas, frequentemente baseadas em um grande fluxograma com múltipla escolha ou respostas equivalentes. Em essência, eles eram apenas ligeiramente mais sofisticados do que os menus de telefone IVR pré-internet.
Os “chatbots” de hoje, por outro lado, se referem com mais frequência à IA conversacional, uma ferramenta com capacidades e casos de uso muito mais amplos. E porque nos encontramos no meio do ciclo de hype da IA gerativa, todos esses termos estão sendo usados de forma intercambiável. Infelizmente, como consequência, há muitos mal-entendidos em torno dos riscos, casos de uso e ROI de investir em IA conversacional entre os líderes empresariais, especialmente em indústrias altamente regulamentadas como a financeira.
Então, gostaria de esclarecer alguns conceitos errados comuns sobre “chatbots”, quando na verdade estamos discutindo IA conversacional.
Mito 1: Os Clientes Odeiam Chatbots
Os consumidores têm sido questionados durante a melhor parte da última década se preferem agentes humanos ou chatbots – o que é como perguntar a alguém se preferiria um massagem profissional ou sentar-se em uma cadeira de massagem de um shopping.
Mas o lançamento do ChatGPT em 2022 (junto com todas as ferramentas que surgiram a partir dele) virou completamente de cabeça para baixo nossa percepção das capacidades de um chatbot. Como mencionado acima, os chatbots mais antigos operavam em scripts, de modo que qualquer desvio de seus caminhos prescritos frequentemente levava à confusão e respostas ineficazes. Incapazes de entender o contexto e a intenção do usuário, as respostas fornecidas eram frequentemente genéricas e inúteis, e tinham capacidade limitada de coletar, armazenar e fornecer informações.
Em contraste, a IA conversacional envolve as pessoas em conversas naturais que espelham a fala humana, permitindo uma troca mais fluida e intuitiva. Ela demonstra flexibilidade e adaptabilidade notáveis para resultados inesperados. É capaz de entender o contexto que rodeia a intenção do usuário, detectar emoções e responder de forma empática.
Esse nível mais profundo de compreensão permite que a IA de hoje navegue eficazmente os usuários por caminhos lógicos em direção a seus objetivos. Isso inclui passar rapidamente os clientes para assistentes humanos quando necessário. Além disso, a IA conversacional usa filtros de informação avançados, mecanismos de recuperação e a capacidade de reter dados relevantes, melhorando significativamente suas habilidades de resolução de problemas, o que resulta em uma melhor experiência do usuário.
Então, não é que os clientes odeiem cegamente os chatbots, o que eles odeiam é um mau serviço, que as versões anteriores dos chatbots eram definitivamente culpadas de fornecer. Os agentes conversacionais de hoje são tão mais sofisticados que mais de um quarto dos consumidores não se sentem confiantes em sua capacidade de distinguir entre agentes humanos e de IA, e alguns até percebem os chatbots de IA como melhores em tarefas selecionadas do que seus equivalentes humanos.
Em testes piloto, a minha empresa viu os agentes de IA triplicar as taxas de conversão de leads, o que é um indicador bastante poderoso de que não se trata de ser um bot – trata-se da qualidade do trabalho realizado.
Mito 2: Os Chatbots São Muito Arriscados
Em discussões com líderes empresariais sobre IA, surgem preocupações em torno de alucinações, proteção de dados e viés que podem levar a violações regulamentares. Embora sejam riscos legítimos, eles podem ser mitigados por meio de algumas abordagens: fine-tuning, Geração Aumentada por Recuperação (RAG) e engenharia de prompts.
Embora não esteja disponível em todos os LLMs, o fine-tuning pode especializar um modelo pré-treinado para uma tarefa ou domínio específico, resultando em uma IA melhor adaptada às necessidades específicas. Por exemplo, uma empresa de saúde pode ajustar finamente um modelo para entender e responder melhor a consultas médicas.
O RAG melhora a precisão do chatbot integrando dinamicamente conhecimento externo. Isso permite que o chatbot recupere informações atualizadas de bancos de dados externos. Por exemplo, um chatbot de serviços financeiros pode usar o RAG para fornecer respostas em tempo real sobre preços de ações.
Por fim, a engenharia de prompts otimiza os LLMs criando prompts que guiam o chatbot a produzir respostas mais precisas ou conscientes do contexto. Por exemplo, uma plataforma de comércio eletrônico pode usar prompts personalizados para ajudar o chatbot a fornecer recomendações de produtos personalizadas com base nas preferências e histórico de busca do cliente.
Além de usar uma ou mais dessas abordagens, você também pode controlar a “temperatura” de criatividade de uma IA conversacional para ajudar a prevenir alucinações. Definir uma temperatura mais baixa nas chamadas de API limita a IA a fornecer respostas mais determinísticas e consistentes, especialmente quando combinada com uma base de conhecimento que garante que a IA extraia de conjuntos de dados especificados e confiáveis. Para mitigar ainda mais os riscos, evite implantar a IA em funções de tomada de decisão onde o viés ou a desinformação possam levar a problemas legais.
Quanto à privacidade de dados, certifique-se de que os provedores de IA externos estejam em conformidade com as regulamentações, ou implante modelos de código aberto em sua própria infraestrutura para reter o controle total sobre seus dados, essencial para a conformidade com o GDPR.
Finalmente, é sempre sábio investir em um seguro de responsabilidade profissional que possa oferecer proteção adicional, cobrindo empresas em cenários improváveis, como tentativas de litígio. Por meio dessas medidas, as empresas podem confiantemente aproveitar a IA enquanto mantêm a segurança da marca e do cliente.
Mito 3: Os Chatbots Não Estão Prontos para Tarefas Complexas
Depois de ver os problemas que as grandes empresas de tecnologia estão tendo ao implantar ferramentas de IA, pode parecer ingênuo pensar que uma PME teria uma tarefa mais fácil. Mas a IA está atualmente em uma fase em que a frase “jack of all trades and master of none” não é terrivelmente imprecisa. Isso ocorre principalmente porque essas ferramentas estão sendo solicitadas a realizar muitas tarefas diferentes em ambientes que ainda não estão projetados para uma implantação de IA eficaz. Em outras palavras, não é que elas não sejam capazes, é que estão sendo solicitadas a patinar no gelo sobre um lago cheio de gelo fino e fraturado.
Por exemplo, organizações cheias de dados siloados e/ou desorganizados tenderão a ser mais propensas a que a IA apresente informações desatualizadas, imprecisas ou conflitantes. Ironia, isso é uma consequência de sua complexidade! Enquanto os chatbots mais antigos simplesmente regurgitavam informações básicas de forma linear, a IA conversacional pode analisar conjuntos de dados robustos, considerando vários fatores influentes ao mesmo tempo para traçar o caminho mais apropriado para frente.
Consequentemente, o sucesso com a IA conversacional depende de parâmetros estritos e limites extremamente claros com relação a fontes de dados e tarefas. Com os dados de treinamento certos e prompts projetados por especialistas, a funcionalidade da IA conversacional pode se estender muito além do escopo de um simples chatbot. Por exemplo, ela pode coletar e filtrar dados de conversas de clientes e usá-los para atualizar automaticamente um CRM. Isso não apenas simplifica tarefas administrativas, mas também garante que as informações do cliente sejam consistentemente precisas e atualizadas. Ao automatizar essas tarefas, as empresas podem se concentrar mais em atividades estratégicas em vez de se preocupar com as cargas administrativas.
Se vamos continuar usando o termo “chatbot”, é imperativo que diferenciamos entre plataformas que estão incorporando IA conversacional de ponta e aquelas que ainda oferecem as ferramentas limitadas de ontem. Do mesmo modo que hoje a palavra “telefone” mais frequentemente evoca a imagem de um smartphone com tela sensível ao toque do que uma linha de terra com fio espiral, acredito que não estamos longe de “chatbot” ser substituído pela ideia de agentes de IA avançados em vez de avatares de múltipla escolha desajeitados.












