Connect with us

Promptarea Analogică și Step-Back: O Plonjare în Progresele Recentă ale Google DeepMind

Prompt engineering

Promptarea Analogică și Step-Back: O Plonjare în Progresele Recentă ale Google DeepMind

mm
Google DeepMind Prompt Engineering new Research

Introducere

Ingineria promtului se axează pe conceperea unor promturi eficiente pentru a ghida Modelele Lingvistice Mari (LLM) precum GPT-4 în generarea unor răspunsuri dorite. Un promt bine conceput poate face diferența între un răspuns vag sau inexact și unul precis și intuitiv.

În ecosistemul mai larg al inteligenței artificiale, ingineria promtului este una dintre metodele utilizate pentru a extrage informații mai precise și contextual relevante din modelele lingvistice. Alte metode includ tehnici precum învățarea cu few-shot, în care modelul primește câteva exemple pentru a-l ajuta să înțeleagă sarcina, și fine-tuning, în care modelul este antrenat suplimentar pe un set de date mai mic pentru a-și specializa răspunsurile.

Google DeepMind a publicat recent două articole care explorează ingineria promtului și potențialul său de a îmbunătăți răspunsurile în multiple situații.

Aceste articole fac parte din explorarea continuă în comunitatea de inteligență artificială de a rafina și optimiza modul în care comunicăm cu modelele lingvistice, oferind perspective proaspete asupra structurării promtului pentru o gestionare mai bună a interogărilor și interacțiunii cu bazele de date.

Acest articol explorează detaliile acestor articole de cercetare, elucidând conceptele, metodologiile și implicațiile tehnicilor propuse, făcându-le accesibile chiar și cititorilor cu cunoștințe limitate în domeniul inteligenței artificiale și al prelucrării limbajului natural.

Articolul 1: Modele Lingvistice Mari ca Raționamente Analogice

Primul articol, intitulat “Modele Lingvistice Mari ca Raționamente Analogice”, introduce o nouă abordare de promt numită Promptare Analogică. Autorii, Michihiro Yasunaga, Xinyun Chen și alții, se inspiră din raționamentul analogic – un proces cognitiv în care oamenii folosesc experiențe trecute pentru a aborda noi probleme.

Concepte și Metodologie Cheie

Promptarea Analogică încurajează LLM-urile să se genereze singure exemple sau cunoștințe relevante în context, înainte de a aborda o problemă dată. Această abordare elimină nevoia de exemple etichetate, oferind generalitate și conveniență, și adaptează exemplele generate la fiecare problemă specifică, asigurând adaptabilitatea.

Stânga: Metodele tradiționale de promt pentru LLM-uri se bazează pe intrări generice (0-shot CoT) sau necesită exemple etichetate (few-shot CoT). Dreapta: Abordarea nouă promt LLM-urile pentru a se crea exemple relevante înainte de a rezolva problema, eliminând nevoia de etichetare și personalizând exemplele pentru fiecare problemă unică

Stânga: Metodele tradiționale de promt pentru LLM-uri se bazează pe intrări generice (0-shot CoT) sau necesită exemple etichetate (few-shot CoT). Dreapta: Abordarea nouă promt LLM-urile pentru a se crea exemple relevante înainte de a rezolva problema, eliminând nevoia de etichetare și personalizând exemplele pentru fiecare problemă unică

Exemple Auto-Generate

Prima tehnică prezentată în articol este cea a exemplului auto-generat. Ideea este de a folosi cunoștințele extinse pe care LLM-urile le-au dobândit în timpul antrenamentului pentru a le ajuta să rezolve noi probleme. Procesul implică completarea unei probleme țintă cu instrucțiuni care promt modelul să recunoască sau să genereze probleme și soluții relevante.

De exemplu, dată fiind o problemă, modelul este instruit să recunoască trei probleme distincte și relevante, să le descrie și să explice soluțiile. Acest proces este conceput pentru a fi realizat într-o singură trecere, permițând LLM-ului să genereze exemple relevante și să rezolve problema inițială fără întrerupere. Utilizarea simbolurilor ‘#’ în promturi ajută la structurarea răspunsului, făcându-l mai organizat și mai ușor de urmat pentru model.

Deciziile tehnice cheie evidențiate în articol includ accentul pe generarea de exemple relevante și diverse, adoptarea unei abordări într-o singură trecere pentru o conveniență mai mare și constatarea că generarea a trei până la cinci exemple oferă cele mai bune rezultate.

Cunoștințe Auto-Generate + Exemple

A doua tehnică, cunoștințe auto-generate + exemple, este introdusă pentru a aborda provocări în sarcini mai complexe, cum ar fi generarea de cod. În aceste scenarii, LLM-urile pot depinde prea mult de exemple de nivel scăzut și pot lupta pentru a generaliza atunci când rezolvă problemele țintă. Pentru a atenua acest lucru, autorii propun îmbunătățirea promtului cu o instrucțiune suplimentară care încurajează modelul să identifice concepte de bază în problemă și să ofere un tutorial sau o idee de nivel înalt.

O considerație critică este ordinea în care se generează cunoștințele și exemplele. Autorii au constatat că generarea cunoștințelor înainte de exemple conduce la rezultate mai bune, deoarece ajută LLM-ul să se concentreze pe abordările fundamentale de rezolvare a problemelor, mai degrabă decât doar pe asemănările de suprafață.

Avantaje și Aplicații

Abordarea promptării analogice oferă mai multe avantaje. Ea oferă exemple detaliate de raționament fără a necesita etichetarea manuală, abordând provocările asociate cu metodele 0-shot și few-shot chain-of-thought (CoT). De asemenea, exemplele generate sunt personalizate pentru fiecare problemă, oferind o ghidare mai relevantă decât few-shot CoT tradițional, care utilizează exemple fixe.

Articolul demonstrează eficacitatea acestei abordări în diverse sarcini de raționament, inclusiv rezolvarea problemelor matematice, generarea de cod și alte sarcini de raționament în BIG-Bench.

Tabelele de mai jos prezintă metrice de performanță ale diferitelor metode de promt pe diverse arhitecturi de modele. În mod remarcabil, metoda “Exemple Auto-Generate” depășește constant alte metode în ceea ce privește acuratețea. În ceea ce privește acuratețea GSM8K, această metodă atinge cea mai bună performanță pe modelul PaLM2, cu 81,7%. Similar, pentru acuratețea MATH, se situează în fruntea clasamentului pe GPT3.5-turbo, cu 37,3%.

Performanță în sarcini matematice, GSM8K și MATH

Performanță în sarcini matematice, GSM8K și MATH

În a doua tabelă, pentru modelele GPT3.5-turbo-16k și GPT4, “Cunoștințe Auto-Generate + Exemple” arată cea mai bună performanță.

Performanță în sarcina de generare de cod Codeforces

Performanță în sarcina de generare de cod Codeforces

Articolul 2: Faceți Un Pas Înapoi: Evocarea Raționamentului prin Abstracție în Modele Lingvistice Mari

Prezentare Generală

Al doilea articol, “Faceți Un Pas Înapoi: Evocarea Raționamentului prin Abstracție în Modele Lingvistice Mari” prezintă o tehnică numită Promptare cu Pas Înapoi, care încurajează LLM-urile să abstractizeze concepte de nivel înalt și principii de la instanțe detaliate. Autorii, Huaixiu Steven Zheng, Swaroop Mishra și alții, își propun să îmbunătățească capacitățile de raționament ale LLM-urilor, ghidându-le să urmeze un drum corect de raționament către soluție.

Ilustrarea Promptării cu Pas Înapoi prin două faze de Abstracție și Raționament, conduse de concepte și principii cheie.

Ilustrarea Promptării cu Pas Înapoi prin două faze de Abstracție și Raționament, conduse de concepte și principii cheie.

Să creăm un exemplu mai simplu, utilizând o întrebare matematică de bază, pentru a demonstra tehnica “Întrebare cu Pas Înapoi”:

Întrebare Originală: Dacă un tren călătorește cu o viteză de 60 km/h și parcurge o distanță de 120 km, cât timp va dura?

Opțiuni:

3 ore
2 ore
1 oră
4 ore
Răspuns Original [Incorect]: Răspunsul corect este 1).

Întrebare cu Pas Înapoi: Care este formula de bază pentru a calcula timpul dat viteza și distanța?

Principii:
Pentru a calcula timpul, se utilizează formula:
Timp = Distanță / Viteză

Răspuns Final:
Folosind formula, Timp = 120 km / 60 km/h = 2 ore.
Răspunsul corect este 2) 2 ore.

Deși LLM-urile de astăzi pot răspunde cu ușurință la întrebarea de mai sus, acest exemplu este doar pentru a demonstra cum ar funcționa tehnica cu pas înapoi. Pentru scenarii mai complexe, aceeași tehnică poate fi aplicată pentru a aborda și rezolva problema în mod sistematic. Mai jos este prezentat un caz mai complex demonstrat în articol:

Promptarea cu Pas Înapoi pe setul de date MMLU-Chimie

Promptarea cu Pas Înapoi pe setul de date MMLU-Chimie

Concepte și Metodologie Cheie

Esența Promptării cu Pas Înapoi constă în capacitatea sa de a face LLM-urile să ia un pas înapoi, încurajându-le să se uite la imaginea de ansamblu, mai degrabă decât să se piardă în detalii. Acest lucru se realizează printr-o serie de promturi atent concepute care îndrumă LLM-urile să abstractizeze informații, să deriveze concepte de nivel înalt și să aplice aceste concepte pentru a rezolva problema dată.

Procesul începe cu LLM-ul care este promtat să abstractizeze detalii din instanțele date, încurajându-l să se concentreze pe conceptele și principiile subiacente. Acest pas este crucial, deoarece stabilește cadrul pentru LLM-ul de a aborda problema dintr-o perspectivă mai informată și mai ghidată.

Odată ce se obțin conceptele de nivel înalt, acestea sunt utilizate pentru a îndruma LLM-ul prin pașii de raționament către soluție. Această îndrumare asigură că LLM-ul rămâne pe drumul cel bun, urmând un drum logic și coerent care se bazează pe conceptele și principiile abstractizate.

Autorii efectuează o serie de experimente pentru a valida eficacitatea Promptării cu Pas Înapoi, utilizând modele PaLM-2L pe o gamă largă de sarcini complexe care necesită raționament. Aceste sarcini includ probleme STEM, întrebări de cunoaștere și raționament multi-hop, oferind un test cuprinzător pentru evaluarea tehnicii.

Îmbunătățiri Substanțiale în Toate Sarcinile

Rezultatele sunt impresionante, Promptarea cu Pas Înapoi conducând la îmbunătățiri semnificative ale performanței în toate sarcinile. De exemplu, tehnica îmbunătățește performanța modelului PaLM-2L pe seturile de date MMLU Fizică și Chimie cu 7% și, respectiv, 11%. De asemenea, aceasta crește performanța pe TimeQA cu 27% și pe MuSiQue cu 7%.

Performanța Promptării cu Pas Înapoi

Performanța Promptării cu Pas Înapoi vs CoT

Aceste rezultate subliniază potențialul Promptării cu Pas Înapoi de a îmbunătăți semnificativ capacitățile de raționament ale LLM-urilor.

Concluzie

Ambele articole de la Google DeepMind prezintă abordări inovatoare de inginerie a promtului, având ca scop îmbunătățirea capacităților de raționament ale modelelor lingvistice mari. Promptarea Analogică se bazează pe conceptul de raționament analogic, încurajând modelele să-și genereze singure exemple și cunoștințe, conducând la o rezolvare a problemelor mai adaptabilă și mai eficientă. Pe de altă parte, Promptarea cu Pas Înapoi se concentrează pe abstracție, ghidând modelele să deriveze concepte de nivel înalt și principii, ceea ce, la rândul său, îmbunătățește capacitățile lor de raționament.

Aceste articole de cercetare oferă perspective valoroase și metodologii care pot fi aplicate în diverse domenii, conducând la modele lingvistice mai inteligente și mai capabile. Pe măsură ce continuăm să explorăm și să înțelegem complexitățile ingineriei promtului, aceste abordări servesc ca etape importante către realizarea unor sisteme de inteligență artificială mai avansate și mai sofisticate.

Am petrecut ultimii cinci ani scufundându-mă în lumea fascinantă a Învățării Automate și a Învățării Profunde. Pasiunea și expertiza mea m-au condus să contribui la peste 50 de proiecte diverse de inginerie software, cu un accent deosebit pe AI/ML. Curiozitatea mea continuă m-a atras și spre Procesarea Limbajului Natural, un domeniu pe care sunt dornic să-l explorez mai departe.