Connect with us

Prompt engineering

Analog og Tilbage-Trin Prompting: Et Dyk i Seneste Fremskridt af Google DeepMind

mm
Google DeepMind Prompt Engineering new Research

Introduktion

Prompt-teknik fokuserer på at udvikle effektive prompts til at guide Large Language Models (LLM’er) som GPT-4 i at generere ønskede svar. En veludarbejdet prompt kan være forskellen på et vagt eller ukorrekt svar og et præcist, indsigtsfuldt svar.

I det bredere økosystem af AI er prompt-teknik en af flere metoder, der bruges til at udtrække mere præcis og kontekstrellevant information fra sprogmodeller. Andre metoder inkluderer teknikker som few-shot learning, hvor modellen får nogle eksempler for at hjælpe den med at forstå opgaven, og finjustering, hvor modellen trænes yderligere på en mindre dataset for at specialisere dens svar.

Google DeepMind har nyligt offentliggjort to artikler, der dykker ned i prompt-teknik og dens potentiale til at forbedre svar i multiple situationer.

Disse artikler er en del af den pågående udforskning i AI-samfundet til at raffinere og optimere, hvordan vi kommunikerer med sprogmodeller, og de giver nye indsigt i, hvordan man strukturerer prompts for bedre spørgsmålsbehandling og databaseinteraktion.

Denne artikel dykker ned i detaljerne om disse forskningsartikler, og forklarer koncepter, metoder og implikationer af de foreslåede teknikker, så det bliver tilgængeligt, selv for læsere med begrænset viden i AI og NLP.

Artikel 1: Large Language Models som Analogiske Ræsonnerere

Den første artikel, “Large Language Models som Analogiske Ræsonnerere”, introducerer en ny prompting-tilgang kaldet Analogisk Prompting. Forfatterne, Michihiro Yasunaga, Xinyun Chen og andre, henter inspiration fra analogisk ræsonnering – en kognitiv proces, hvor mennesker udnytter tidligere erfaringer til at tackle nye problemer.

Nøglekoncepter og Metodik

Analogisk Prompting opmuntrer LLM’er til selv at generere relevante eksempler eller viden i kontekst, før de går videre til at løse et givet problem. Denne tilgang eliminerer behovet for labeled eksempler, og tilbyder generel og bekvemmelighed, og tilpasser de genererede eksempler til hvert specifikt problem, hvilket sikrer tilpasning.

Venstre: Traditionelle metoder til at prompte LLM'er afhænger af generiske input (0-shot CoT) eller kræver labeled eksempler (few-shot CoT). Højre: Den nye tilgang prompter LLM'er til selv at oprette relevante eksempler før problem-løsning, og fjerner behovet for labeling, samtidig med at tilpasse eksemplerne til hvert unikt problem

Venstre: Traditionelle metoder til at prompte LLM’er afhænger af generiske input (0-shot CoT) eller kræver labeled eksempler (few-shot CoT). Højre: Den nye tilgang prompter LLM’er til selv at oprette relevante eksempler før problem-løsning, og fjerner behovet for labeling, samtidig med at tilpasse eksemplerne til hvert unikt problem

Selv-Genererede Eksempler

Den første teknik, der præsenteres i artiklen, er selv-genererede eksempler. Ideen er at udnytte den omfattende viden, som LLM’er har erhvervet under deres træning, til at hjælpe dem med at løse nye problemer. Processen indebærer at supplere et mål-problem med instruktioner, der prompter modellen til at huske eller generere relevante problemer og løsninger.

For eksempel, givet et problem, instrueres modellen til at huske tre forskellige og relevante problemer, beskrive dem, og forklare deres løsninger. Denne proces er designet til at udføres i en enkelt omgang, og giver LLM’en mulighed for at generere relevante eksempler og løse det oprindelige problem uden problemer. Brugen af ‘#’ symboler i prompterne hjælper med at strukturere svaret, og gør det mere organiseret og let for modellen at følge.

Nøgle-tekniske beslutninger, der fremhæves i artiklen, inkluderer betoningen af at generere relevante og diverse eksempler, adoptionen af en enkelt-omgangs-tilgang for større bekvemmelighed, og fundet af, at generering af tre til fem eksempler giver de bedste resultater.

Selv-Genereret Viden + Eksempler

Den anden teknik, selv-genereret viden + eksempler, introduceres for at tackle udfordringer i mere komplekse opgaver, såsom kode-generering. I disse scenarier kan LLM’er være for afhængige af lav-niveau-eksempler og have svært ved at generalisere, når de løser mål-problemet. For at afhjælpe dette, foreslår forfatterne at supplere prompten med en yderligere instruktion, der opmuntrer modellen til at identificere kerne-koncepter i problemet og give en vejledning eller høj-niveau-indsigt.

En kritisk overvejelse er rækkefølgen, hvori viden og eksempler genereres. Forfatterne fandt, at generering af viden før eksempler giver bedre resultater, da det hjælper LLM’en med at fokusere på de grundlæggende problem-løsnings-tilgange, snarere end kun overfladiske ligheder.

Fordele og Anvendelser

Analogisk prompting-tilgangen tilbyder flere fordele. Den giver detaljerede eksempler på ræsonnering uden behov for manuel labeling, og adresserer udfordringer forbundet med 0-shot og few-shot chain-of-thought (CoT) metoder. Derudover er de genererede eksempler tilpasset til individuelle problemer, og giver mere relevant vejledning end traditionel few-shot CoT, som bruger faste eksempler.

Artiklen demonstrerer effektiviteten af denne tilgang på tværs af forskellige ræsonnering-opgaver, herunder matematik-problem-løsning, kode-generering og andre ræsonnering-opgaver i BIG-Bench.

De følgende tabeller præsenterer ydelses-målinger for forskellige prompting-metoder på tværs af forskellige model-arkitekturer. Bemærkelsesværdigt er, at “Selv-genererede Eksempler”-metoden konsekvent overgår andre metoder i nøjagtighed. I GSM8K-nøjagtighed opnår denne metode den højeste ydelse på PaLM2-modellen på 81,7%. Lignende, for MATH-nøjagtighed, er den øverst på listen på GPT3.5-turbo på 37,3%.

Ydelse på matematiske opgaver, GSM8K og MATH

Ydelse på matematiske opgaver, GSM8K og MATH

I den anden tabel viser “Selv-genereret Viden + Eksempler” den bedste ydelse for modellerne GPT3.5-turbo-16k og GPT4.

Ydelse på Codeforces kode-generering-opgave

Ydelse på Codeforces kode-generering-opgave

Artikel 2: Tag et Tilbage-Skridt: Fremkalde Ræsonnering via Abstraktion i Large Language Models

Overblik

Den anden artikel, “Tag et Tilbage-Skridt: Fremkalde Ræsonnering via Abstraktion i Large Language Models” præsenterer Tilbage-Skridt-Prompting, en teknik, der opmuntrer LLM’er til at abstrahere høj-niveau-koncepter og først-principper fra detaljerede eksempler. Forfatterne, Huaixiu Steven Zheng, Swaroop Mishra og andre, sigter mod at forbedre ræsonneringsevnerne hos LLM’er ved at guide dem til at følge en korrekt ræsonnerings-vej mod løsningen.

 Fremstiller TILBAGE-SKRIDT-PROMPTING gennem to faser af Abstraktion og Ræsonnering, styret af nøgle-koncepter og principper.

Fremstiller TILBAGE-SKRIDT-PROMPTING gennem to faser af Abstraktion og Ræsonnering, styret af nøgle-koncepter og principper.

Lad os oprette et enkelt eksempel ved hjælp af et grundlæggende matematik-spørgsmål for at demonstrere “Tilbage-Skridt”-teknikken:

Originalt Spørgsmål: Hvis et tog rejser med en hastighed på 60 km/t og dækker en distance på 120 km, hvor lang tid vil det tage?

Valgmuligheder:

3 timer
2 timer
1 time
4 timer
Originalt Svar [Forkert]: Det korrekte svar er 1).

Tilbage-Skridt-Spørgsmål: Hvad er den grundlæggende formel til at beregne tid, given hastighed og distance?

Principper:
Til at beregne tid, bruger vi formelen:
Tid = Distance / Hastighed

Endeligt Svar:
Med formelen, Tid = 120 km / 60 km/t = 2 timer.
Det korrekte svar er 2) 2 timer.

Selvom LLM’er i dag kan let svare på ovenstående spørgsmål, er dette eksempel kun til at demonstrere, hvordan tilbage-skridt-teknikken ville fungere. For mere komplekse scenarier kan samme teknik anvendes til at dissekere og adressere problemet systematisk. Herunder følger et mere komplekst eksempel, der demonstreres i artiklen:

TILBAGE-SKRIDT-PROMPTING på MMLU-Kemi-dataset

TILBAGE-SKRIDT-PROMPTING på MMLU-Kemi-dataset

Nøgle-Koncepter og Metodik

Essensen af Tilbage-Skridt-Prompting ligger i dens evne til at få LLM’er til at tage et metaforisk tilbage-skridt, og opmuntrer dem til at se på det større billede, snarere end at blive fanget i detaljerne. Dette opnås gennem en række omhyggeligt udarbejdede prompts, der guider LLM’er til at abstrahere information, udlede høj-niveau-koncepter og anvende disse koncepter til at løse det givne problem.

Processen begynder med, at LLM’en promptes til at abstrahere detaljer fra de givne eksempler, og opmuntrer den til at fokusere på de underliggende koncepter og principper. Dette skridt er afgørende, da det sætter scenen for, at LLM’en kan tilgangs-problemet fra en mere informeret og princip-fast perspektiv.

Når høj-niveau-koncepterne er udledt, bruges de til at guide LLM’en gennem ræsonneringsskridtene mod løsningen. Denne vejledning sikrer, at LLM’en forbliver på den rette vej, og følger en logisk og koherent vej, der er grundet i de abstraherede koncepter og principper.

Forfatterne gennemfører en række eksperimenter for at validere effektiviteten af Tilbage-Skridt-Prompting, ved hjælp af PaLM-2L-modeller på tværs af en række udfordrende ræsonnering-intensiv-opgaver. Disse opgaver inkluderer STEM-problemer, Viden-KA og Multi-Hop-Ræsonnering, og giver en omfattende test-bane for at evaluere teknikken.

Betydelige Forbedringer på tværs af Opgaver

Resultaterne er imponerende, og Tilbage-Skridt-Prompting fører til betydelige ydelses-forbedringer på tværs af alle opgaver. For eksempel forbedrer teknikken PaLM-2L-ydelse på MMLU-Fysik og -Kemi med 7% og 11%, henholdsvis. Lignende forbedrer den ydelse på TimeQA med 27% og på MuSiQue med 7%.

Ydelse af TILBAGE-SKRIDT-PROMPTING

Ydelse af TILBAGE-SKRIDT-PROMPTING vs CoT

Disse resultater understreger potentialet for Tilbage-Skridt-Prompting til at betydeligt forbedre ræsonneringsevnerne hos LLM’er.

Konklusion

Begge artikler fra Google DeepMind præsenterer innovative tilgange til prompt-teknik, med det formål at forbedre ræsonneringsevnerne hos large language-modeller. Analogisk Prompting udnytter konceptet om analogisk ræsonnering, og opmuntrer modeller til at generere deres egne eksempler og viden, hvilket fører til mere tilpasningsdygtig og effektiv problem-løsning. På den anden side fokuserer Tilbage-Skridt-Prompting på abstraktion, og guider modeller til at udlede høj-niveau-koncepter og principper, hvilket forbedrer deres ræsonneringsevner.

Disse forskningsartikler giver værdifulde indsigt og metoder, der kan anvendes på tværs af forskellige domæner, og fører til mere avancerede og sofistikerede AI-systemer. Da vi fortsætter med at udforske og forstå detaljerne i prompt-teknik, fungerer disse tilgange som afgørende skridt mod at opnå mere avancerede og sofistikerede AI-systemer.

Jeg har brugt de sidste fem år på at dykke ned i den fascinerende verden af Machine Learning og Deep Learning. Min passion og ekspertise har ført til, at jeg har bidraget til over 50 forskellige software-udviklingsprojekter, med særlig fokus på AI/ML. Min vedvarende nysgerrighed har også ført mig i retning af Natural Language Processing, et felt jeg er ivrig efter at udforske yderligere.