stomp Analoog en terugstap-aansporing: 'n Duik in onlangse vooruitgang deur Google DeepMind - Unite.AI
Verbinding met ons

Vinnige Ingenieurswese

Analoog en terugstap-aansporing: 'n Duik in onlangse vooruitgang deur Google DeepMind

mm

Gepubliseer

 on

Google DeepMind Prompt Engineering nuwe navorsing

Inleiding

Vinnige ingenieurswese fokus op die ontwerp van effektiewe aanwysings om groottaalmodelle (LLM's) soos GPT-4 te lei om gewenste antwoorde te genereer. 'n Goed opgestelde vraag kan die verskil wees tussen 'n vae of onakkurate antwoord en 'n presiese, insiggewende een.

In die breër ekosisteem van KI is vinnige ingenieurswese een van verskeie metodes wat gebruik word om meer akkurate en kontekstueel relevante inligting uit taalmodelle te onttrek. Ander sluit tegnieke in soos min-skoot-leer, waar die model 'n paar voorbeelde gegee word om dit te help om die taak te verstaan, en fynafstelling, waar die model verder opgelei word op 'n kleiner datastel om sy antwoorde te spesialiseer.

Google DeepMind het onlangs twee referate gepubliseer wat delf in vinnige ingenieurswese en die potensiaal daarvan om reaksies op verskeie situasies te verbeter.

Hierdie referate is deel van die voortdurende verkenning in die KI-gemeenskap om te verfyn en te optimaliseer hoe ons met taalmodelle kommunikeer, en hulle verskaf vars insigte in die strukturering van aansporings vir beter navraaghantering en databasisinteraksie.

Hierdie artikel delf in die besonderhede van hierdie navorsingsartikels en verduidelik die konsepte, metodologieë en implikasies van die voorgestelde tegnieke, wat dit selfs toeganklik maak vir lesers met beperkte kennis in KI en NLP.

Vraestel 1: Groot Taalmodelle as Analogiese Redeneerders

Die eerste referaat, getiteld "Groot Taalmodelle as Analogiese Redeneerders," stel 'n nuwe aansporingsbenadering bekend genaamd Analogiese Aansporing. Die skrywers, Michihiro Yasunaga, Xinyun Chen en ander, put inspirasie uit analogiese redenasie - 'n kognitiewe proses waar mense vorige ervarings gebruik om nuwe probleme aan te pak.

Sleutelkonsepte en -metodologie

Analogiese aansporing moedig LLM's aan om self relevante voorbeelde of kennis in konteks te genereer voordat hulle voortgaan om 'n gegewe probleem op te los. Hierdie benadering elimineer die behoefte aan benoemde voorbeelde, wat algemeenheid en gerief bied, en pas die gegenereerde voorbeelde by elke spesifieke probleem aan, wat aanpasbaarheid verseker.

Links: Tradisionele metodes om LLM's aan te spoor maak staat op generiese insette (0-shot CoT) of noodsaak gemerkte voorbeelde (min-shot CoT). Regs: Die nuwe benadering spoor LLM's aan om self relevante voorbeelde te skep voor probleemoplossing, wat die behoefte aan etikettering verwyder terwyl voorbeelde vir elke unieke probleem aangepas word

Links: Tradisionele metodes om LLM's aan te spoor maak staat op generiese insette (0-shot CoT) of noodsaak gemerkte voorbeelde (min-shot CoT). Regs: Die nuwe benadering spoor LLM's aan om self relevante voorbeelde te skep voor probleemoplossing, wat die behoefte aan etikettering verwyder terwyl voorbeelde vir elkeen aangepas word.

Self-gegenereerde voorbeelde

Die eerste tegniek wat in die referaat aangebied word, is self-gegenereerde voorbeelde. Die idee is om die uitgebreide kennis wat LLM's tydens hul opleiding opgedoen het te benut om hulle te help om nuwe probleme op te los. Die proses behels die aanvulling van 'n teikenprobleem met instruksies wat die model aanspoor om relevante probleme en oplossings te herroep of te genereer.

Byvoorbeeld, gegewe 'n probleem, word die model opdrag gegee om drie afsonderlike en relevante probleme te herroep, dit te beskryf en hul oplossings te verduidelik. Hierdie proses is ontwerp om in 'n enkele pas uitgevoer te word, wat die LLM in staat stel om relevante voorbeelde te genereer en die aanvanklike probleem naatloos op te los. Die gebruik van '#'-simbole in die aanwysings help om die reaksie te struktureer, wat dit meer georganiseerd maak en makliker maak vir die model om te volg.

Sleutel tegniese besluite wat in die referaat uitgelig word, sluit in die klem op die generering van relevante en diverse voorbeelde, die aanvaarding van 'n enkelpasbenadering vir groter gerief, en die bevinding dat die generering van drie tot vyf voorbeelde die beste resultate lewer.

Self-gegenereerde kennis + voorbeelde

Die tweede tegniek, self-gegenereerde kennis + voorbeelde, word bekendgestel om uitdagings in meer komplekse take, soos kodegenerering, aan te spreek. In hierdie scenario's kan LLM's te veel staatmaak op lae-vlak voorbeelde en sukkel om te veralgemeen wanneer die teikenprobleme opgelos word. Om dit te versag, stel die skrywers voor om die aansporing te verbeter met 'n bykomende instruksie wat die model aanmoedig om kernkonsepte in die probleem te identifiseer en 'n tutoriaal of hoëvlak-wegneemetes te verskaf.

Een kritiese oorweging is die volgorde waarin kennis en voorbeelde gegenereer word. Die skrywers het bevind dat die generering van kennis voor voorbeelde tot beter resultate lei, aangesien dit die LLM help om op die fundamentele probleemoplossingsbenaderings eerder as net oppervlakvlak-ooreenkomste te fokus.

Voordele en toepassings

Die analogiese aansporingsbenadering bied verskeie voordele. Dit verskaf gedetailleerde voorbeelde van redenasie sonder die behoefte aan handmatige etikettering, en spreek uitdagings aan wat verband hou met 0-skoot en min-skoot ketting-van-gedagte (CoT) metodes. Boonop is die gegenereerde voorbeelde aangepas vir individuele probleme, en bied meer relevante leiding as tradisionele paar-skoot CoT, wat vaste voorbeelde gebruik.

Die vraestel demonstreer die doeltreffendheid van hierdie benadering oor verskeie redenasietake, insluitend wiskundige probleemoplossing, kodegenerering en ander redenasietake in BIG-Bench.

Die onderstaande tabelle bied prestasiemaatstawwe van verskeie aansporingsmetodes oor verskillende modelargitekture aan. Opmerklik is dat die "Self-gegenereerde voorbeelde" metode konsekwent ander metodes oortref in terme van akkuraatheid. In GSM8K-akkuraatheid behaal hierdie metode die hoogste werkverrigting op die PaLM2-model teen 81.7%. Net so, vir MATH-akkuraatheid, is dit boaan die grafiek op GPT3.5-turbo teen 37.3%.

Prestasie op wiskundige take, GSM8K en MATH

Prestasie op wiskundige take, GSM8K en MATH

In die tweede tabel, vir modelle GPT3.5-turbo-16k en GPT4, toon "Selfgegenereerde kennis + voorbeelde" die beste prestasie.

Prestasie op Codeforces kode generering taak

Prestasie op Codeforces kode generering taak

Vraestel 2: Neem 'n stap terug: Redenering oproep deur abstraksie in groot taalmodelle

Oorsig

Die tweede vraestel, "Neem 'n stap terug: roep redenering op via abstraksie in groot taalmodelle” bied Step-Back Prompting aan, 'n tegniek wat LLM's aanmoedig om hoëvlakkonsepte en eerste beginsels uit gedetailleerde gevalle te abstraheer. Die skrywers, Huaixiu Steven Zheng, Swaroop Mishra, en ander poog om die redenasievermoë van LLM's te verbeter deur hulle te lei om 'n korrekte redenasiepad na die oplossing te volg.

Uitbeelding van STAP-TERUG-PROMPING deur twee fases van Abstraksie en Redenering, gerig deur sleutelkonsepte en -beginsels.

Uitbeelding van STAP-TERUG-PROMPING deur twee fases van Abstraksie en Redenering, gerig deur sleutelkonsepte en -beginsels.

Kom ons skep 'n eenvoudiger voorbeeld deur 'n basiese wiskundevraag te gebruik om die "Stepback Question"-tegniek te demonstreer:

Original Question: If a train travels at a speed of 60 km/h and covers a distance of 120 km, how long will it take?

Options:

3 hours
2 hours
1 hour
4 hours
Original Answer [Incorrect]: The correct answer is 1).

Stepback Question: What is the basic formula to calculate time given speed and distance?

Principles:
To calculate time, we use the formula:
Time = Distance / Speed

Final Answer:
Using the formula, Time = 120 km / 60 km/h = 2 hours.
The correct answer is 2) 2 hours.

Alhoewel LLM'e deesdae maklik die bogenoemde vraag kan beantwoord, is hierdie voorbeeld net om te demonstreer hoe die terugstaptegniek sal werk. Vir meer uitdagende scenario's kan dieselfde tegniek toegepas word om die probleem sistematies te dissekteer en aan te spreek. Hieronder is 'n meer komplekse geval wat in die referaat gedemonstreer word:

STAP-TERUG VRAAG op MMLU-Chemie-datastel

STAP-TERUG VRAAG op MMLU-Chemie-datastel

Sleutelkonsepte en -metodologie

Die essensie van Step-Back Prompting lê in die vermoë daarvan om LLM's 'n metaforiese stap terug te laat neem, wat hulle aanmoedig om na die groter prentjie te kyk eerder as om in die besonderhede te verdwaal. Dit word bereik deur 'n reeks sorgvuldig vervaardigde aanwysings wat die LLM'e lei tot abstrakte inligting, hoëvlakkonsepte aflei en hierdie konsepte toepas om die gegewe probleem op te los.

Die proses begin met die LLM wat aangespoor word om besonderhede uit die gegewe gevalle te abstraheer, wat dit aanmoedig om op die onderliggende konsepte en beginsels te fokus. Hierdie stap is van kardinale belang aangesien dit die stadium vir die LLM skep om die probleem vanuit 'n meer ingeligte en beginselvaste perspektief te benader.

Sodra die hoëvlakkonsepte afgelei is, word dit gebruik om die LLM deur die redenasiestappe na die oplossing te lei. Hierdie leiding verseker dat die LLM op die regte pad bly, en volg 'n logiese en samehangende pad wat gegrond is op die geabstraheerde konsepte en beginsels.

Die skrywers voer 'n reeks eksperimente uit om die doeltreffendheid van Step-Back Prompting te bekragtig, met behulp van PaLM-2L-modelle oor 'n reeks uitdagende redenasie-intensiewe take. Hierdie take sluit STEM-probleme, Kennis QA en Multi-Hop Redenering in, wat 'n omvattende toetsbed bied vir die evaluering van die tegniek.

Aansienlike verbeterings oor take

Die resultate is indrukwekkend, met stap-terug-aansporing wat lei tot aansienlike prestasiewinste oor alle take. Die tegniek verbeter byvoorbeeld PaLM-2L-prestasie op MMLU Fisika en Chemie met onderskeidelik 7% en 11%. Net so verhoog dit prestasie op TimeQA met 27% en op MuSiQue met 7%.

Prestasie van STEP-TERUG-PROMPTING

Prestasie van STEP-TERUG PROMPTING vs CoT

Hierdie resultate onderstreep die potensiaal van Stap-terug-aansporing om die redenasievermoë van LLM's aansienlik te verbeter.

Gevolgtrekking

Albei referate van Google DeepMind bied innoverende benaderings tot vinnige ingenieurswese, met die doel om die redenasievermoë van groot taalmodelle te verbeter. Analogiese Aansporing maak gebruik van die konsep van analogiese redenasie, en moedig modelle aan om hul eie voorbeelde en kennis te genereer, wat lei tot meer aanpasbare en doeltreffende probleemoplossing. Aan die ander kant fokus Step-Back Prompting op abstraksie, wat modelle rig om hoëvlak konsepte en beginsels af te lei, wat op hul beurt hul redenasievermoë verbeter.

Hierdie navorsingsreferate verskaf waardevolle insigte en metodologieë wat oor verskeie domeine toegepas kan word, wat lei tot meer intelligente en bekwame taalmodelle. Terwyl ons voortgaan om die ingewikkeldhede van vinnige ingenieurswese te verken en te verstaan, dien hierdie benaderings as belangrike stapstene om meer gevorderde en gesofistikeerde KI-stelsels te bereik.

Ek het die afgelope vyf jaar my verdiep in die fassinerende wêreld van Masjienleer en Deep Learning. My passie en kundigheid het daartoe gelei dat ek bygedra het tot meer as 50 diverse sagteware-ingenieursprojekte, met 'n spesifieke fokus op KI/ML. My voortdurende nuuskierigheid het my ook na natuurlike taalverwerking gelok, 'n veld wat ek gretig is om verder te verken.