toco Solicitação analógica e de retrocesso: um mergulho nos avanços recentes do Google DeepMind - Unite.AI
Entre em contato

Engenharia imediata

Solicitação analógica e retroativa: um mergulho nos avanços recentes do Google DeepMind

mm

Publicado

 on

Google DeepMind Prompt Engineering nova pesquisa

Introdução

A engenharia de prompts se concentra no desenvolvimento de prompts eficazes para orientar modelos de linguagem grande (LLMs), como o GPT-4, na geração das respostas desejadas. Uma solicitação bem elaborada pode ser a diferença entre uma resposta vaga ou imprecisa e uma resposta precisa e esclarecedora.

No ecossistema mais amplo da IA, a engenharia imediata é um dos vários métodos usados ​​para extrair informações mais precisas e contextualmente relevantes dos modelos de linguagem. Outros incluem técnicas como aprendizagem rápida, em que o modelo recebe alguns exemplos para ajudá-lo a compreender a tarefa, e ajuste fino, em que o modelo é treinado posteriormente em um conjunto de dados menor para especializar suas respostas.

Google DeepMind publicou recentemente dois artigos que investigam a engenharia imediata e seu potencial para melhorar as respostas em diversas situações.

Esses artigos fazem parte da exploração contínua na comunidade de IA para refinar e otimizar a forma como nos comunicamos com modelos de linguagem e fornecem novos insights sobre a estruturação de prompts para melhor tratamento de consultas e interação com o banco de dados.

Este artigo se aprofunda nos detalhes desses trabalhos de pesquisa, elucidando os conceitos, metodologias e implicações das técnicas propostas, tornando-os acessíveis até mesmo para leitores com conhecimento limitado em IA e PNL.

Artigo 1: Grandes modelos de linguagem como raciocinadores analógicos

O primeiro artigo, intitulado “Grandes modelos de linguagem como raciocinadores analógicos”, apresenta uma nova abordagem de solicitação chamada Solicitação Analógica. Os autores, Michihiro Yasunaga, Xinyun Chen e outros, inspiram-se no raciocínio analógico – um processo cognitivo em que os humanos aproveitam experiências passadas para resolver novos problemas.

Principais conceitos e metodologia

A solicitação analógica incentiva os LLMs a autogerar exemplos ou conhecimentos relevantes no contexto antes de prosseguir para a resolução de um determinado problema. Esta abordagem elimina a necessidade de exemplares rotulados, oferecendo generalidade e conveniência, e adapta os exemplares gerados a cada problema específico, garantindo adaptabilidade.

Esquerda: Os métodos tradicionais de solicitação de LLMs dependem de entradas genéricas (CoT de 0 disparos) ou necessitam de exemplos rotulados (CoT de poucos disparos). Certo: A nova abordagem incentiva os LLMs a criarem exemplos relevantes antes da resolução de problemas, eliminando a necessidade de rotulagem enquanto personalizam exemplos para cada problema único

Esquerda: Os métodos tradicionais de solicitação de LLMs dependem de entradas genéricas (CoT de 0 disparos) ou necessitam de exemplos rotulados (CoT de poucos disparos). Certo: A nova abordagem incentiva os LLMs a criarem exemplos relevantes antes da resolução de problemas, eliminando a necessidade de rotulagem enquanto personalizam exemplos para cada um

Exemplos autogerados

A primeira técnica apresentada no artigo são exemplares autogerados. A ideia é aproveitar o amplo conhecimento que os LLMs adquiriram durante a formação para ajudá-los a resolver novos problemas. O processo envolve aumentar um problema alvo com instruções que levam o modelo a relembrar ou gerar problemas e soluções relevantes.

Por exemplo, dado um problema, o modelo é instruído a recordar três problemas distintos e relevantes, descrevê-los e explicar as suas soluções. Este processo foi projetado para ser realizado em uma única passagem, permitindo ao LLM gerar exemplos relevantes e resolver o problema inicial de forma integrada. O uso de símbolos '#' nos prompts auxilia na estruturação da resposta, tornando-a mais organizada e fácil de seguir pelo modelo.

As principais decisões técnicas destacadas no documento incluem a ênfase na geração de exemplares relevantes e diversos, a adoção de uma abordagem de passagem única para maior conveniência e a constatação de que a geração de três a cinco exemplares produz os melhores resultados.

Conhecimento autogerado + exemplos

A segunda técnica, conhecimento autogerado + exemplares, é introduzida para enfrentar desafios em tarefas mais complexas, como geração de código. Nestes cenários, os LLMs podem confiar excessivamente em exemplares de baixo nível e ter dificuldade em generalizar ao resolver os problemas alvo. Para mitigar isso, os autores propõem aprimorar o prompt com uma instrução adicional que incentive o modelo a identificar os conceitos centrais do problema e fornecer um tutorial ou conclusão de alto nível.

Uma consideração crítica é a ordem em que o conhecimento e os exemplares são gerados. Os autores descobriram que gerar conhecimento antes dos exemplares leva a melhores resultados, pois ajuda o LLM a se concentrar nas abordagens fundamentais de resolução de problemas, em vez de apenas nas semelhanças superficiais.

Vantagens e aplicações

A abordagem de prompt analógico oferece diversas vantagens. Ele fornece exemplos detalhados de raciocínio sem a necessidade de rotulagem manual, abordando desafios associados aos métodos de cadeia de pensamento (CoT) de disparo zero e de poucos disparos. Além disso, os exemplares gerados são adaptados a problemas individuais, oferecendo orientação mais relevante do que o CoT tradicional de poucos disparos, que utiliza exemplares fixos.

O artigo demonstra a eficácia desta abordagem em várias tarefas de raciocínio, incluindo resolução de problemas matemáticos, geração de código e outras tarefas de raciocínio no BIG-Bench.

As tabelas abaixo apresentam métricas de desempenho de vários métodos de solicitação em diferentes arquiteturas de modelo. Notavelmente, o método “Exemplos autogerados” supera consistentemente outros métodos em termos de precisão. Na precisão GSM8K, este método atinge o desempenho mais alto no modelo PaLM2 com 81.7%. Da mesma forma, para precisão MATH, ele está no topo da tabela no GPT3.5-turbo com 37.3%.

Desempenho em tarefas matemáticas, GSM8K e MATH

Desempenho em tarefas matemáticas, GSM8K e MATH

Na segunda tabela, para os modelos GPT3.5-turbo-16k e GPT4, “Conhecimento Autogerado + Exemplos” apresenta melhor desempenho.

Desempenho na tarefa de geração de código Codeforces

Desempenho na tarefa de geração de código Codeforces

Artigo 2: Dê um passo para trás: evocando o raciocínio por meio da abstração em grandes modelos de linguagem

Visão geral

O segundo artigo, “Dê um passo para trás: evocando o raciocínio por meio da abstração em grandes modelos de linguagem”apresenta Step-Back Prompting, uma técnica que incentiva LLMs a abstrair conceitos de alto nível e primeiros princípios de instâncias detalhadas. Os autores, Huaixiu Steven Zheng, Swaroop Mishra e outros visam melhorar as habilidades de raciocínio dos LLMs, orientando-os a seguir um caminho de raciocínio correto em direção à solução.

Representando o STEP-BACK PROMPTING através de duas fases de Abstração e Raciocínio, guiado por conceitos e princípios-chave.

Representando o STEP-BACK PROMPTING através de duas fases de Abstração e Raciocínio, guiado por conceitos e princípios-chave.

Vamos criar um exemplo mais simples usando uma questão matemática básica para demonstrar a técnica da “Pergunta Stepback”:

Original Question: If a train travels at a speed of 60 km/h and covers a distance of 120 km, how long will it take?

Options:

3 hours
2 hours
1 hour
4 hours
Original Answer [Incorrect]: The correct answer is 1).

Stepback Question: What is the basic formula to calculate time given speed and distance?

Principles:
To calculate time, we use the formula:
Time = Distance / Speed

Final Answer:
Using the formula, Time = 120 km / 60 km/h = 2 hours.
The correct answer is 2) 2 hours.

Embora os LLMs hoje em dia possam responder facilmente à pergunta acima, este exemplo é apenas para demonstrar como funcionaria a técnica de stepback. Para cenários mais desafiadores, a mesma técnica pode ser aplicada para dissecar e abordar o problema de forma sistemática. Abaixo está um caso mais complexo demonstrado no artigo:

PROMPTING STEP-BACK no conjunto de dados MMLU-Chemistry

PROMPTING STEP-BACK no conjunto de dados MMLU-Chemistry

Principais conceitos e metodologia

A essência do Step-Back Prompting reside na sua capacidade de fazer com que os LLMs dêem um passo metafórico para trás, encorajando-os a olhar para o quadro geral em vez de se perderem nos detalhes. Isto é conseguido através de uma série de instruções cuidadosamente elaboradas que orientam os LLMs para abstrair informações, derivar conceitos de alto nível e aplicar esses conceitos para resolver o problema em questão.

O processo começa com o LLM sendo solicitado a abstrair detalhes das instâncias dadas, incentivando-o a focar nos conceitos e princípios subjacentes. Esta etapa é crucial, pois prepara o terreno para que o LLM aborde o problema a partir de uma perspectiva mais informada e baseada em princípios.

Uma vez derivados os conceitos de alto nível, eles são usados ​​para orientar o LLM através das etapas de raciocínio em direção à solução. Esta orientação garante que o LLM permaneça no caminho certo, seguindo um caminho lógico e coerente que se baseia em conceitos e princípios abstraídos.

Os autores conduzem uma série de experimentos para validar a eficácia do Step-Back Prompting, usando modelos PaLM-2L em uma série de tarefas desafiadoras de raciocínio intensivo. Essas tarefas incluem problemas STEM, controle de qualidade de conhecimento e raciocínio multi-hop, fornecendo um ambiente de teste abrangente para avaliar a técnica.

Melhorias substanciais em todas as tarefas

Os resultados são impressionantes, com o Step-Back Prompting levando a ganhos substanciais de desempenho em todas as tarefas. Por exemplo, a técnica melhora o desempenho do PaLM-2L em Física e Química MMLU em 7% e 11%, respectivamente. Da mesma forma, aumenta o desempenho no TimeQA em 27% e no MuSiQue em 7%.

Desempenho do PROMPTING STEP-BACK

Desempenho de STEP-BACK PROMPTING vs CoT

Esses resultados ressaltam o potencial do Step-Back Prompting para melhorar significativamente as habilidades de raciocínio dos LLMs.

Conclusão

Ambos os artigos do Google DeepMind apresentam abordagens inovadoras para a engenharia imediata, com o objetivo de aprimorar as capacidades de raciocínio de grandes modelos de linguagem. O prompt analógico aproveita o conceito de raciocínio analógico, incentivando os modelos a gerar seus próprios exemplos e conhecimento, levando a uma resolução de problemas mais adaptável e eficiente. Por outro lado, Step-Back Prompting concentra-se na abstração, orientando modelos para derivar conceitos e princípios de alto nível, que por sua vez, melhoram suas habilidades de raciocínio.

Esses artigos de pesquisa fornecem insights e metodologias valiosas que podem ser aplicadas em vários domínios, levando a modelos de linguagem mais inteligentes e capazes. À medida que continuamos a explorar e compreender os meandros da engenharia imediata, estas abordagens servem como trampolins cruciais para alcançar sistemas de IA mais avançados e sofisticados.

Passei os últimos cinco anos mergulhando no fascinante mundo do Machine Learning e Deep Learning. Minha paixão e experiência me levaram a contribuir para mais de 50 projetos diversos de engenharia de software, com foco particular em AI/ML. Minha curiosidade contínua também me atraiu para o Processamento de Linguagem Natural, um campo que estou ansioso para explorar mais.