Entre em contato

Como os LLMs multiagentes podem permitir que modelos de IA resolvam tarefas complexas de maneira mais eficaz

Líderes de pensamento

Como os LLMs multiagentes podem permitir que modelos de IA resolvam tarefas complexas de maneira mais eficaz

mm

A maioria das organizações hoje deseja utilizar grandes modelos de linguagem (LLMs) e implementar prova de conceitos e agentes de inteligência artificial (IA) para otimizar custos em seus processos de negócios e oferecer experiências de usuário novas e criativas. Contudo, a maioria destas implementações são “únicas”. Como resultado, as empresas lutam para obter retorno sobre o investimento (ROI) em muitos desses casos de uso.

A IA generativa (GenAI) promete ir além do software como o copiloto. Em vez de apenas fornecer orientação e ajuda a um especialista no assunto (PME), estas soluções poderiam tornar-se os intervenientes das PME, executando ações de forma autónoma. Para que as soluções GenAI cheguem a este ponto, as organizações devem fornecer-lhes conhecimento e memória adicionais, a capacidade de planear e replanear, bem como a capacidade de colaborar com outros agentes para executar ações.

Embora os modelos únicos sejam adequados em alguns cenários, atuando como copilotos, as arquiteturas de agente abrem a porta para que os LLMs se tornem componentes ativos da automação de processos de negócios. Como tal, as empresas devem considerar alavancar Sistemas multiagentes baseados em LLM (LLM-MA) para agilizar processos de negócios complexos e melhorar o ROI.

O que é um sistema LLM-MA?

Então, o que é um sistema LLM-MA? Em suma, este novo paradigma na tecnologia de IA descreve um ecossistema de agentes de IA, e não de entidades isoladas, que trabalham em conjunto de forma coesa para resolver desafios complexos.

As decisões devem ocorrer numa vasta gama de contextos, tal como a tomada de decisões fiável entre os seres humanos requer especialização. Os sistemas LLM-MA constroem essa mesma 'inteligência coletiva' que um grupo de humanos desfruta por meio de múltiplos agentes especializados interagindo entre si para atingir um objetivo comum. Em outras palavras, da mesma forma que uma empresa reúne diferentes especialistas de diversas áreas para resolver um problema, também funcionam os sistemas LLM-MA.

As demandas de negócios são demais para um único LLM. No entanto, ao distribuir capacidades entre agentes especializados com competências e conhecimentos únicos, em vez de ter um LLM a assumir todos os encargos, estes agentes podem concluir tarefas de forma mais eficiente e eficaz. LLMs multiagentes podem até “verificar” o trabalho uns dos outros por meio de verificação cruzada, reduzindo 'alucinações' para máxima produtividade e precisão.

Em particular, os sistemas LLM-MA utilizam um método de dividir e conquistar para adquirir um controle mais refinado sobre outros aspectos de sistemas complexos habilitados por IA – nomeadamente, melhor ajuste fino para conjuntos de dados específicos, seleção de métodos (incluindo IA pré-transformador) para melhor explicabilidade, governação, segurança e fiabilidade e utilização de ferramentas que não sejam de IA como parte de uma solução complexa. Dentro desta abordagem de dividir para conquistar, os agentes realizam ações e recebem feedback de outros agentes e dados, permitindo a adoção de uma estratégia de execução ao longo do tempo.

Oportunidades e casos de uso de sistemas LLM-MA

Os sistemas LLM-MA podem automatizar efetivamente os processos de negócios, pesquisando documentos estruturados e não estruturados, gerando código para consultar modelos de dados e realizando outras gerações de conteúdo. As empresas podem usar sistemas LLM-MA para diversos casos de uso, incluindo desenvolvimento de software, simulação de hardware, desenvolvimento de jogos (especificamente, desenvolvimento mundial), descobertas científicas e farmacêuticas, processos de gestão de capital, economia financeira e comercial, etc.

Uma aplicação digna de nota dos sistemas LLM-MA é a automação de call/service center. Neste exemplo, uma combinação de modelos e outros atores programáticos utilizando fluxos de trabalho e procedimentos predefinidos poderia automatizar as interações do usuário final e realizar a triagem de solicitações por meio de texto, voz ou vídeo. Além disso, esses sistemas poderiam navegar pelo caminho de resolução ideal, aproveitando o conhecimento processual e de PME com dados de personalização e invocando agentes do tipo Retrieval Augmented Generation (RAG) e não LLM.

No curto prazo, este sistema não será totalmente automatizado – erros acontecerão e será necessário que haja humanos no circuito. A IA não está pronta para replicar experiências semelhantes às humanas devido à complexidade de testar conversas de fluxo livre em relação, por exemplo, a preocupações responsáveis ​​de IA. No entanto, a IA pode treinar milhares de tíquetes de suporte históricos e ciclos de feedback para automatizar partes significativas das operações da central de atendimento/serviço, aumentando a eficiência, reduzindo o tempo de inatividade na resolução de tíquetes e aumentando a satisfação do cliente.

Outra aplicação poderosa de LLMs multiagentes é a criação de interfaces de colaboração humano-IA para conversas em tempo real, resolvendo tarefas que antes não eram possíveis. Inteligência de enxame conversacional (CSI), por exemplo, é um método que permite que milhares de pessoas mantenham conversas em tempo real. Especificamente, o CSI permite que pequenos grupos dialoguem entre si enquanto, simultaneamente, diferentes grupos de agentes resumem os tópicos da conversa. Em seguida, promove a propagação de conteúdo por um grupo mais amplo de pessoas, capacitando a coordenação humana em uma escala sem precedentes.

Segurança, IA responsável e outros desafios dos sistemas LLM-MA

Apesar das excelentes oportunidades dos sistemas LLM-MA, alguns desafios a esta abordagem surgem à medida que o número de agentes e o tamanho dos seus espaços de ação aumentam. Por exemplo, as empresas terão de abordar a questão das velhas alucinações, o que exigirá a presença de humanos no circuito – uma parte designada deve ser responsável pelos sistemas agentes, especialmente aqueles com potencial impacto crítico, como a descoberta automatizada de medicamentos.

Haverá também problemas com vieses de dados, que podem se transformar em vieses de interação. Da mesma forma, os futuros sistemas LLM-MA que executam centenas de agentes exigirão arquiteturas mais complexas, ao mesmo tempo em que levarão em conta outras deficiências do LLM, dados e operações de aprendizado de máquina.

Além disso, as organizações devem abordar questões de segurança e promover práticas responsáveis ​​de IA (RAI). Mais LLMs e agentes aumentam a superfície de ataque para todas as ameaças de IA. As empresas devem decompor diferentes partes dos seus sistemas LLM-MA em intervenientes especializados para fornecer mais controlo sobre os riscos tradicionais do LLM, incluindo elementos de segurança e RAI.

Além disso, à medida que as soluções se tornam mais complexas, os quadros de governação da IA ​​também devem garantir que os produtos de IA sejam fiáveis ​​(ou seja, robustos, responsáveis, monitorizados e explicáveis), residentes (ou seja, seguros, protegidos, privados e eficazes) e responsáveis ​​(ou seja, justos). , ético, inclusivo, sustentável e proposital). A crescente complexidade também levará a regulamentações mais rígidas, tornando ainda mais fundamental que a segurança e o RAI façam parte de cada caso de negócios e design de solução desde o início, bem como atualizações contínuas de políticas, treinamento e educação corporativa e TEVV (teste, avaliação, verificação e validação).

Extraindo o valor total de um sistema LLM-MA: considerações de dados

Para que as empresas extraiam todo o valor de um sistema LLM-MA, elas devem reconhecer que os LLMs, por si só, possuem apenas conhecimento de domínio geral. No entanto, os LLMs podem tornar-se produtos de IA geradores de valor quando dependem de conhecimento de domínio empresarial, que geralmente consiste em ativos de dados diferenciados, documentação corporativa, conhecimento de PME e informações recuperadas de fontes de dados públicas.

As empresas devem mudar de uma abordagem centrada em dados, onde os dados apoiam os relatórios, para uma abordagem centrada na IA, onde as fontes de dados se combinam para capacitar a IA para se tornar um interveniente no ecossistema empresarial. Como tal, a capacidade das empresas de organizar e gerir ativos de dados de alta qualidade deve estender-se a esses novos tipos de dados. Da mesma forma, as organizações precisam de modernizar a sua abordagem de consumo de dados e insights, mudar o seu modelo operacional e introduzir uma governação que una dados, IA e RAI.

Do ponto de vista das ferramentas, o GenAI pode fornecer ajuda adicional em relação aos dados. Em particular, as ferramentas GenAI podem gerar ontologias, criar metadados, extrair sinais de dados, dar sentido a esquemas de dados complexos, automatizar a migração de dados e realizar a conversão de dados. A GenAI também pode ser usada para melhorar a qualidade dos dados e atuar como especialistas em governança, bem como como copilotos ou agentes semiautônomos. Muitas organizações já usam GenAI para ajudar a democratizar os dados, como pode ser visto nos recursos “fale com seus dados”.

Adoção contínua na era das mudanças rápidas

Um LLM não agrega valor nem alcança um ROI positivo por si só, mas como parte de aplicações focadas em resultados de negócios. O desafio é que, ao contrário do passado, quando as capacidades tecnológicas dos LLMs eram um tanto conhecidas, hoje, novas capacidades surgem semanalmente e por vezes diariamente, apoiando novas oportunidades de negócio. Além desta rápida mudança, há um cenário regulatório e de conformidade em constante evolução, tornando a capacidade de adaptação rápida crucial para o sucesso.

A flexibilidade necessária para tirar partido destas novas oportunidades exige que as empresas passem por uma mudança de mentalidade, passando de silos para colaboração, promovendo o mais alto nível de adaptabilidade em tecnologia, processos e pessoas, ao mesmo tempo que implementam uma gestão robusta de dados e inovação responsável. Em última análise, as empresas que adotarem estes novos paradigmas liderarão a próxima onda de transformação digital.

Alexei Zhukov lidera a prática de Ciência de Dados e IA na EPAM Systems, Inc.., onde ajuda a definir a estratégia de IA para a organização e vários clientes EPAM em verticais e locais de negócios. Seu grupo forneceu mais de 100 soluções habilitadas para IA para produção, dando vida a soluções avançadas de análise, otimização e automação, visão computacional, processamento de linguagem natural, privacidade, segurança, conformidade e MLOps. Como veterano do setor, ele é apaixonado por inovação tecnológica. Sua carreira abrangeu muitas funções, incluindo chefe de entrega e arquiteto de soluções/empresas, e ele tem experiência na defesa de dados e soluções analíticas para os setores de informações financeiras e de negócios.