ciot Îndemnări analogice și de pas înapoi: o scufundare în progresele recente de către Google DeepMind - Unite.AI
Conectează-te cu noi

Inginerie promptă

Îndemnări analogice și de pas înapoi: o scufundare în progresele recente de la Google DeepMind

mm

Publicat

 on

Noua cercetare Google DeepMind Prompt Engineering

Introducere

Ingineria promptă se concentrează pe conceperea de prompturi eficiente pentru a ghida modelele de limbaj mari (LLM) precum GPT-4 în generarea răspunsurilor dorite. Un prompt bine elaborat poate fi diferența dintre un răspuns vag sau inexact și unul precis, perspicace.

În ecosistemul mai larg al inteligenței artificiale, ingineria promptă este una dintre numeroasele metode utilizate pentru a extrage informații mai precise și mai relevante din punct de vedere contextual din modelele de limbaj. Altele includ tehnici precum învățarea cu câteva inregistrări, în care modelului i se oferă câteva exemple pentru a-l ajuta să înțeleagă sarcina și reglajul fin, în care modelul este instruit în continuare pe un set de date mai mic pentru a-și specializa răspunsurile.

Google DeepMind a publicat recent două lucrări care analizează ingineria promptă și potențialul său de a îmbunătăți răspunsurile la mai multe situații.

Aceste lucrări fac parte din explorările în curs de desfășurare în comunitatea AI pentru a perfecționa și optimiza modul în care comunicăm cu modelele lingvistice și oferă perspective noi în structurarea solicitărilor pentru o mai bună gestionare a interogărilor și a interacțiunii cu bazele de date.

Acest articol aprofundează în detaliile acestor lucrări de cercetare, elucidând conceptele, metodologiile și implicațiile tehnicilor propuse, făcându-l accesibil chiar și pentru cititorii cu cunoștințe limitate în AI și NLP.

Lucrarea 1: Modelele de limbaj mari ca raționamente analogice

Prima lucrare, intitulată „Large Language Models as Analogical Reasoners”, introduce o nouă abordare de îndemnare numită Analogical Prompting. Autorii, Michihiro Yasunaga, Xinyun Chen și alții, se inspiră din raționamentul analogic - un proces cognitiv în care oamenii folosesc experiențele trecute pentru a aborda noi probleme.

Concepte cheie și metodologie

Îndemnarea analogică încurajează LLM-urile să-și autogenereze exemple relevante sau cunoștințe în context înainte de a trece la rezolvarea unei anumite probleme. Această abordare elimină nevoia de exemplare etichetate, oferind generalitate și comoditate și adaptează exemplarele generate la fiecare problemă specifică, asigurând adaptabilitatea.

Stânga: Metodele tradiționale de a solicita LLM se bazează pe intrări generice (CoT cu injecție 0) sau necesită exemple etichetate (CoT cu puține injecții). Dreapta: Abordarea inedită îi determină pe LLM să-și creeze singure exemple relevante înainte de rezolvarea problemelor, eliminând nevoia de etichetare în timp ce personalizează exemplele pentru fiecare problemă unică.

Stânga: Metodele tradiționale de a solicita LLM se bazează pe intrări generice (CoT cu injecție 0) sau necesită exemple etichetate (CoT cu puține injecții). Dreapta: Abordarea inedită îi determină LLM-urilor să-și creeze singuri exemple relevante înainte de rezolvarea problemelor, eliminând nevoia de etichetare în timp ce personalizează exemplele pentru fiecare

Exemplare autogenerate

Prima tehnică prezentată în lucrare este exemplarele autogenerate. Ideea este de a valorifica cunoștințele extinse pe care LLM-urile le-au dobândit în timpul formării lor pentru a-i ajuta să rezolve noi probleme. Procesul implică creșterea unei probleme țintă cu instrucțiuni care determină modelul să-și amintească sau să genereze probleme și soluții relevante.

De exemplu, având în vedere o problemă, modelul este instruit să-și amintească trei probleme distincte și relevante, să le descrie și să le explice soluțiile. Acest proces este conceput pentru a fi efectuat într-o singură trecere, permițând LLM să genereze exemple relevante și să rezolve problema inițială fără probleme. Utilizarea simbolurilor „#” în solicitări ajută la structurarea răspunsului, făcându-l mai organizat și mai ușor de urmat pentru model.

Deciziile tehnice cheie evidențiate în lucrare includ accentul pe generarea de exemplare relevante și diverse, adoptarea unei abordări cu o singură trecere pentru o mai mare comoditate și constatarea că generarea a trei până la cinci exemplare dă cele mai bune rezultate.

Cunoștințe autogenerate + Exemplare

A doua tehnică, cunoștințe autogenerate + exemple, este introdusă pentru a aborda provocările în sarcini mai complexe, cum ar fi generarea de cod. În aceste scenarii, LLM-urile s-ar putea baza în exces pe exemplare de nivel scăzut și ar putea lupta să generalizeze atunci când rezolvă problemele țintă. Pentru a atenua acest lucru, autorii propun îmbunătățirea promptului cu o instrucțiune suplimentară care încurajează modelul să identifice conceptele de bază ale problemei și să ofere un tutorial sau o concluzie la nivel înalt.

O considerație critică este ordinea în care sunt generate cunoștințele și exemplele. Autorii au descoperit că generarea de cunoștințe înainte de exemplare duce la rezultate mai bune, deoarece ajută LLM să se concentreze pe abordările fundamentale de rezolvare a problemelor, mai degrabă decât pe asemănările la nivel de suprafață.

Avantaje și aplicații

Abordarea indemnării analogice oferă mai multe avantaje. Oferă exemple detaliate de raționament fără a fi nevoie de etichetare manuală, abordând provocările asociate cu metodele de lanț de gândire (CoT) 0-shot și câteva shot-uri. În plus, exemplarele generate sunt adaptate problemelor individuale, oferind îndrumări mai relevante decât CoT tradiționale cu câteva injecții, care utilizează exemplare fixe.

Lucrarea demonstrează eficacitatea acestei abordări în diferite sarcini de raționament, inclusiv rezolvarea de probleme de matematică, generarea de cod și alte sarcini de raționament în BIG-Bench.

Tabelele de mai jos prezintă valorile de performanță ale diferitelor metode de solicitare în diferite arhitecturi de model. În special, metoda „exemplare autogenerate” eclipsează în mod constant alte metode în ceea ce privește acuratețea. În acuratețea GSM8K, această metodă atinge cea mai mare performanță pe modelul PaLM2 la 81.7%. În mod similar, pentru acuratețea MATH, se află în fruntea topului pe GPT3.5-turbo cu 37.3%.

Performanță la sarcini matematice, GSM8K și MATH

Performanță la sarcini matematice, GSM8K și MATH

În cel de-al doilea tabel, pentru modelele GPT3.5-turbo-16k și GPT4, „Self-generated Knowledge + Exemplars” arată cele mai bune performanțe.

Performanță la sarcina de generare a codului Codeforces

Performanță la sarcina de generare a codului Codeforces

Lucrarea 2: Fă un pas înapoi: Evocarea raționamentului prin abstracție în modele lingvistice mari

Descriere

A doua lucrare, „Fă un pas înapoi: evocarea raționamentului prin abstracție în modele lingvistice mari” prezintă Step-Back Prompting, o tehnică care încurajează LLM-urile să abstragă concepte de nivel înalt și primele principii din cazuri detaliate. Autorii, Huaixiu Steven Zheng, Swaroop Mishra și alții urmăresc să îmbunătățească abilitățile de raționament ale LLM-urilor, îndrumându-i să urmeze o cale corectă de raționament către soluție.

Înfățișând PROMPTARE DE PASUL ÎNAPOI prin două faze de abstracție și raționament, conduse de concepte și principii cheie.

Înfățișând PROMPTARE DE PASUL ÎNAPOI prin două faze de abstracție și raționament, conduse de concepte și principii cheie.

Să creăm un exemplu mai simplu folosind o întrebare de matematică de bază pentru a demonstra tehnica „Întrebare cu pas înapoi”:

Original Question: If a train travels at a speed of 60 km/h and covers a distance of 120 km, how long will it take?

Options:

3 hours
2 hours
1 hour
4 hours
Original Answer [Incorrect]: The correct answer is 1).

Stepback Question: What is the basic formula to calculate time given speed and distance?

Principles:
To calculate time, we use the formula:
Time = Distance / Speed

Final Answer:
Using the formula, Time = 120 km / 60 km/h = 2 hours.
The correct answer is 2) 2 hours.

Deși LLM-urile din zilele noastre pot răspunde cu ușurință la întrebarea de mai sus, acest exemplu este doar pentru a demonstra cum ar funcționa tehnica stepback. Pentru scenarii mai provocatoare, aceeași tehnică poate fi aplicată pentru a diseca și aborda problema în mod sistematic. Mai jos este un caz mai complex demonstrat în lucrare:

PROMPTARE PAS-INAPOI pe setul de date MMLU-Chimie

PROMPTARE PAS-INAPOI pe setul de date MMLU-Chimie

Concepte cheie și metodologie

Esența Step-Back Prompting constă în capacitatea sa de a face LLM-urile să facă un pas metaforic înapoi, încurajându-i să privească imaginea de ansamblu, mai degrabă decât să se piardă în detalii. Acest lucru se realizează printr-o serie de solicitări elaborate cu atenție care ghidează LLM-urile către informații abstracte, derivă concepte de nivel înalt și aplică aceste concepte pentru a rezolva problema dată.

Procesul începe cu LLM fiind solicitat să abstragă detalii din cazurile date, încurajându-l să se concentreze asupra conceptelor și principiilor care stau la baza. Acest pas este esențial, deoarece setează scena pentru ca LLM să abordeze problema dintr-o perspectivă mai informată și mai bazată pe principii.

Odată ce conceptele de nivel înalt sunt derivate, acestea sunt utilizate pentru a ghida LLM prin pașii de raționament către soluție. Acest ghid asigură că LLM rămâne pe drumul cel bun, urmând o cale logică și coerentă care se bazează pe conceptele și principiile abstracte.

Autorii desfășoară o serie de experimente pentru a valida eficacitatea avertismentului Step-Back, folosind modele PaLM-2L într-o serie de sarcini provocatoare, intensive în raționament. Aceste sarcini includ probleme STEM, Knowledge QA și Multi-Hop Reasoning, oferind un banc de testare cuprinzător pentru evaluarea tehnicii.

Îmbunătățiri substanțiale în cadrul sarcinilor

Rezultatele sunt impresionante, cu indicarea Step-Back care duce la câștiguri substanțiale de performanță în toate sarcinile. De exemplu, tehnica îmbunătățește performanța PaLM-2L la fizica și chimia MMLU cu 7% și, respectiv, 11%. În mod similar, crește performanța pe TimeQA cu 27% și pe MuSiQue cu 7%.

Performanța STEP-BACK PROMPTING

Performanța STEP-BACK PROMPTING vs CoT

Aceste rezultate subliniază potențialul Step-Back Prompting de a îmbunătăți semnificativ abilitățile de raționament ale LLM-urilor.

Concluzie

Ambele lucrări de la Google DeepMind prezintă abordări inovatoare ale ingineriei prompte, cu scopul de a îmbunătăți capacitățile de raționament ale modelelor de limbaj mari. Analogical Prompting folosește conceptul de raționament analogic, încurajând modelele să-și genereze propriile exemple și cunoștințe, conducând la rezolvarea problemelor mai adaptabile și mai eficiente. Pe de altă parte, Step-Back Prompting se concentrează pe abstractizare, ghidând modelele pentru a deriva concepte și principii de nivel înalt, care, la rândul lor, le îmbunătățesc abilitățile de raționament.

Aceste lucrări de cercetare oferă perspective și metodologii valoroase care pot fi aplicate în diferite domenii, conducând la modele de limbaj mai inteligente și mai capabile. Pe măsură ce continuăm să explorăm și să înțelegem complexitățile ingineriei prompte, aceste abordări servesc drept trepte esențiale către realizarea unor sisteme AI mai avansate și mai sofisticate.

Mi-am petrecut ultimii cinci ani scufundându-mă în lumea fascinantă a învățării automate și a învățării profunde. Pasiunea și expertiza mea m-au determinat să contribui la peste 50 de proiecte diverse de inginerie software, cu un accent deosebit pe AI/ML. Curiozitatea mea continuă m-a atras și către Procesarea limbajului natural, un domeniu pe care sunt dornic să îl explorez în continuare.