taló Indicacions analògiques i de retrocés: una immersió en els avenços recents de Google DeepMind - Unite.AI
Connecteu-vos amb nosaltres

Enginyeria ràpida

Indicacions analògiques i de retrocés: una immersió en els avenços recents de Google DeepMind

mm

publicat

 on

Nova investigació de Google DeepMind Prompt Engineering

introducció

L'enginyeria del prompte se centra a dissenyar indicacions efectives per guiar els grans models de llenguatge (LLM) com ara GPT-4 per generar les respostes desitjades. Una indicació ben feta pot ser la diferència entre una resposta vaga o inexacta i una de precisa i perspicaz.

En l'ecosistema més ampli de la IA, l'enginyeria ràpida és un dels diversos mètodes utilitzats per extreure informació més precisa i rellevant per al context dels models lingüístics. Altres inclouen tècniques com l'aprenentatge de pocs cops, on el model es dóna uns quants exemples per ajudar-lo a entendre la tasca, i l'ajustament, on el model s'entrena més en un conjunt de dades més petit per especialitzar les seves respostes.

Google DeepMind ha publicat recentment dos articles que aprofundeixen en l'enginyeria ràpida i el seu potencial per millorar les respostes a múltiples situacions.

Aquests articles formen part de l'exploració en curs a la comunitat d'IA per perfeccionar i optimitzar la manera en què ens comuniquem amb els models lingüístics, i proporcionen informació nova sobre l'estructuració de les indicacions per a una millor gestió de consultes i interacció amb bases de dades.

Aquest article aprofundeix en els detalls d'aquests treballs de recerca, dilucidant els conceptes, metodologies i implicacions de les tècniques proposades, fent-lo accessible fins i tot per a lectors amb coneixements limitats en IA i PNL.

Ponència 1: Grans models lingüístics com a raonadors analògics

El primer article, titulat "Grans models de llenguatge com a raonadors analògics", presenta un nou enfocament d'incitació anomenat "Analogical Prompting". Els autors, Michihiro Yasunaga, Xinyun Chen i altres, s'inspiren en el raonament analògic, un procés cognitiu on els humans aprofiten les experiències passades per abordar nous problemes.

Conceptes clau i metodologia

La guia analògica anima els LLM a autogenerar exemplars o coneixements rellevants en context abans de procedir a resoldre un problema determinat. Aquest enfocament elimina la necessitat d'exemplars etiquetats, oferint generalitat i comoditat, i adapta els exemplars generats a cada problema específic, garantint l'adaptabilitat.

Esquerra: els mètodes tradicionals per sol·licitar els LLM es basen en entrades genèriques (CoT 0-shot) o necessiten exemples etiquetats (CoT pocs tirs). Dreta: el nou enfocament demana als LLM que creïn ells mateixos exemples rellevants abans de resoldre problemes, eliminant la necessitat d'etiquetar i personalitzar els exemples per a cada problema únic.

Esquerra: els mètodes tradicionals per sol·licitar els LLM es basen en entrades genèriques (CoT 0-shot) o necessiten exemples etiquetats (CoT pocs tirs). Dreta: el nou enfocament demana als LLM que creïn ells mateixos exemples rellevants abans de resoldre problemes, eliminant la necessitat d'etiquetar i personalitzar els exemples per a cadascun.

Exemples autogenerats

La primera tècnica que es presenta a l'article són els exemplars autogenerats. La idea és aprofitar els amplis coneixements que els LLM han adquirit durant la seva formació per ajudar-los a resoldre nous problemes. El procés implica augmentar un problema objectiu amb instruccions que demanen al model que recordi o generi problemes i solucions rellevants.

Per exemple, donat un problema, es demana al model que recordi tres problemes diferents i rellevants, que els descrigui i expliqui les seves solucions. Aquest procés està dissenyat per realitzar-se en una sola passada, permetent al LLM generar exemples rellevants i resoldre el problema inicial sense problemes. L'ús de símbols '#' a les indicacions ajuda a estructurar la resposta, fent-la més organitzada i més fàcil de seguir pel model.

Les decisions tècniques clau destacades al document inclouen l'èmfasi en la generació d'exemplars rellevants i diversos, l'adopció d'un enfocament d'un sol pas per a una major comoditat i la constatació que la generació de tres a cinc exemplars dóna els millors resultats.

Coneixement autogenerat + Exemplars

La segona tècnica, coneixement autogenerat + exemplars, s'introdueix per abordar reptes en tasques més complexes, com ara la generació de codi. En aquests escenaris, els LLM poden confiar excessivament en exemplars de baix nivell i lluiten per generalitzar a l'hora de resoldre els problemes objectiu. Per mitigar-ho, els autors proposen millorar la indicació amb una instrucció addicional que encoratja el model a identificar els conceptes bàsics del problema i proporcionar un tutorial o una explicació d'alt nivell.

Una consideració crítica és l'ordre en què es generen els coneixements i els exemplars. Els autors van trobar que generar coneixement abans d'exemplars condueix a millors resultats, ja que ajuda al LLM a centrar-se en els enfocaments fonamentals de resolució de problemes en lloc de només en les similituds a nivell superficial.

Avantatges i Aplicacions

L'enfocament d'incitació analògica ofereix diversos avantatges. Proporciona exemples detallats de raonament sense necessitat d'etiquetatge manual, abordant els reptes associats amb els mètodes de la cadena de pensament (CoT) de 0 tirs i pocs tirs. A més, els exemplars generats s'adapten a problemes individuals, oferint una guia més rellevant que el CoT tradicional de pocs tirs, que utilitza exemplars fixos.

El document demostra l'eficàcia d'aquest enfocament en diverses tasques de raonament, incloses la resolució de problemes matemàtics, la generació de codi i altres tasques de raonament a BIG-Bench.

Les taules següents presenten mètriques de rendiment de diversos mètodes de sol·licitud a través de diferents arquitectures de models. En particular, el mètode "Exemplars autogenerats" supera constantment altres mètodes en termes de precisió. En precisió GSM8K, aquest mètode aconsegueix el rendiment més alt en el model PaLM2 amb un 81.7%. De la mateixa manera, per a la precisió de MATH, encapçala el gràfic a GPT3.5-turbo amb un 37.3%.

Rendiment en tasques matemàtiques, GSM8K i MATH

Rendiment en tasques matemàtiques, GSM8K i MATH

A la segona taula, per als models GPT3.5-turbo-16k i GPT4, "Self-generated Knowledge + Exemplars" mostra el millor rendiment.

Rendiment a la tasca de generació de codi de Codeforces

Rendiment a la tasca de generació de codi de Codeforces

Ponència 2: Fer un pas enrere: evocar el raonament mitjançant l'abstracció en grans models de llenguatge

Descripció

El segon paper, "Fes un pas enrere: evocar el raonament mitjançant l'abstracció en grans models de llenguatge” presenta Step-Back Prompting, una tècnica que anima els LLM a abstraure conceptes d'alt nivell i primers principis a partir de casos detallats. Els autors, Huaixiu Steven Zheng, Swaroop Mishra i altres tenen com a objectiu millorar les habilitats de raonament dels LLM guiant-los a seguir un camí de raonament correcte cap a la solució.

Representant l'indicació del pas enrere a través de dues fases d'abstracció i raonament, guiades per conceptes i principis clau.

Representant l'indicació del pas enrere a través de dues fases d'abstracció i raonament, guiades per conceptes i principis clau.

Creem un exemple més senzill utilitzant una pregunta bàsica de matemàtiques per demostrar la tècnica de la "Pregunta de pas enrere":

Original Question: If a train travels at a speed of 60 km/h and covers a distance of 120 km, how long will it take?

Options:

3 hours
2 hours
1 hour
4 hours
Original Answer [Incorrect]: The correct answer is 1).

Stepback Question: What is the basic formula to calculate time given speed and distance?

Principles:
To calculate time, we use the formula:
Time = Distance / Speed

Final Answer:
Using the formula, Time = 120 km / 60 km/h = 2 hours.
The correct answer is 2) 2 hours.

Tot i que els LLM avui dia poden respondre fàcilment a la pregunta anterior, aquest exemple és només per demostrar com funcionaria la tècnica de retrocés. Per a escenaris més difícils, es pot aplicar la mateixa tècnica per disseccionar i abordar el problema de manera sistemàtica. A continuació es mostra un cas més complex demostrat en el document:

SOL·LICITUD DE PAS ENREERA sobre el conjunt de dades MMLU-Chemistry

SOL·LICITUD DE PAS ENREERA sobre el conjunt de dades MMLU-Chemistry

Conceptes clau i metodologia

L'essència de Step-Back Prompting rau en la seva capacitat per fer que els LLM facin un pas metafòric enrere, animant-los a mirar la imatge més gran en lloc de perdre's en els detalls. Això s'aconsegueix a través d'una sèrie d'indicacions elaborades amb cura que guien els LLM a abstractar informació, derivar conceptes d'alt nivell i aplicar aquests conceptes per resoldre el problema donat.

El procés comença amb la petició al LLM d'abstraure detalls dels casos donats, animant-lo a centrar-se en els conceptes i principis subjacents. Aquest pas és crucial, ja que prepara l'escenari perquè el LLM abordi el problema des d'una perspectiva més informada i basada en principis.

Un cop derivats els conceptes d'alt nivell, s'utilitzen per guiar el LLM a través dels passos de raonament cap a la solució. Aquesta orientació garanteix que el LLM es mantingui en el camí correcte, seguint un camí lògic i coherent que es fonamenta en els conceptes i principis abstractes.

Els autors duen a terme una sèrie d'experiments per validar l'eficàcia de la indicació de pas enrere, utilitzant models PaLM-2L en una sèrie de tasques de raonament intenses i desafiants. Aquestes tasques inclouen problemes STEM, Knowledge QA i Multi-Hop Reasoning, que ofereixen un banc de proves complet per avaluar la tècnica.

Millores substancials en totes les tasques

Els resultats són impressionants, amb el pas enrere que condueix a guanys de rendiment substancials en totes les tasques. Per exemple, la tècnica millora el rendiment de PaLM-2L en física i química MMLU en un 7% i un 11%, respectivament. De la mateixa manera, augmenta el rendiment a TimeQA un 27% i a MuSiQue un 7%.

Rendiment de STEP-BACK PROMPTING

Rendiment de STEP-BACK PROMPTING vs CoT

Aquests resultats subratllen el potencial de Step-Back Prompting per millorar significativament les habilitats de raonament dels LLM.

Conclusió

Tots dos articles de Google DeepMind presenten enfocaments innovadors per a l'enginyeria ràpida, amb l'objectiu de millorar les capacitats de raonament dels grans models de llenguatge. Analogical Prompting aprofita el concepte de raonament analògic, fomentant els models a generar els seus propis exemples i coneixements, donant lloc a una resolució de problemes més adaptable i eficient. D'altra banda, Step-Back Prompting se centra en l'abstracció, orientant models per derivar conceptes i principis d'alt nivell, que al seu torn milloren les seves capacitats de raonament.

Aquests treballs de recerca proporcionen coneixements i metodologies valuoses que es poden aplicar en diversos dominis, donant lloc a models lingüístics més intel·ligents i capaços. A mesura que continuem explorant i comprenent les complexitats de l'enginyeria ràpida, aquests enfocaments serveixen com a passos crucials per aconseguir sistemes d'IA més avançats i sofisticats.

He passat els últims cinc anys submergint-me en el fascinant món de l'aprenentatge automàtic i l'aprenentatge profund. La meva passió i experiència m'han portat a contribuir a més de 50 projectes diversos d'enginyeria de programari, amb un enfocament particular en IA/ML. La meva curiositat contínua també m'ha atret cap al processament del llenguatge natural, un camp que tinc ganes d'explorar més.