cung Kërkesa analogjike dhe mbrapa: Një zhytje në avancimet e fundit nga Google DeepMind - Unite.AI
Lidhu me ne

Inxhinieri e shpejtë

Kërkesa analogjike dhe mbrapa: Një zhytje në avancimet e fundit nga Google DeepMind

mm

Publikuar

 on

Hulumtimi i ri i Inxhinierisë së Prompt të Google DeepMind

Prezantimi

Inxhinieria e shpejtë përqendrohet në hartimin e kërkesave efektive për të udhëhequr Modelet e Mëdha të Gjuhës (LLM) si GPT-4 në gjenerimin e përgjigjeve të dëshiruara. Një kërkesë e hartuar mirë mund të jetë ndryshimi midis një përgjigjeje të paqartë ose të pasaktë dhe një përgjigjeje të saktë dhe të thellë.

Në ekosistemin më të gjerë të AI, inxhinieria e shpejtë është një nga disa metoda të përdorura për të nxjerrë informacione më të sakta dhe më të rëndësishme në kontekst nga modelet gjuhësore. Të tjera përfshijnë teknika si të mësuarit me disa goditje, ku modelit i jepen disa shembuj për ta ndihmuar atë të kuptojë detyrën dhe rregullimin e imët, ku modeli trajnohet më tej në një grup të dhënash më të vogël për të specializuar përgjigjet e tij.

Google DeepMind kohët e fundit ka publikuar dy punime që gërmojnë në inxhinierinë e shpejtë dhe potencialin e saj për të përmirësuar përgjigjet në situata të shumta.

Këto dokumente janë pjesë e eksplorimit të vazhdueshëm në komunitetin e AI për të rafinuar dhe optimizuar mënyrën se si ne komunikojmë me modelet e gjuhës, dhe ato ofrojnë njohuri të reja në strukturimin e kërkesave për trajtimin më të mirë të pyetjeve dhe ndërveprimin e bazës së të dhënave.

Ky artikull thellohet në detajet e këtyre punimeve kërkimore, duke sqaruar konceptet, metodologjitë dhe implikimet e teknikave të propozuara, duke e bërë atë të aksesueshme edhe për lexuesit me njohuri të kufizuara në AI dhe NLP.

Punimi 1: Modelet e mëdha gjuhësore si arsyetues analogjik

Punimi i parë, i titulluar "Modelet e mëdha gjuhësore si arsyetues analogjikë", prezanton një qasje të re nxitëse të quajtur Nxitja analogjike. Autorët, Michihiro Yasunaga, Xinyun Chen dhe të tjerë, marrin frymëzim nga arsyetimi analogjik - një proces njohës ku njerëzit përdorin përvojat e kaluara për të trajtuar probleme të reja.

Konceptet dhe Metodologjia kryesore

Nxitja analogjike inkurajon LLM-të që të gjenerojnë vetë ekzemplarë ose njohuri përkatëse në kontekst përpara se të vazhdojnë me zgjidhjen e një problemi të caktuar. Kjo qasje eliminon nevojën për ekzemplarë të etiketuar, duke ofruar përgjithësi dhe komoditet, dhe i përshtat ekzemplarët e krijuar për çdo problem specifik, duke siguruar përshtatshmëri.

Majtas: Metodat tradicionale të nxitjes së LLM-ve mbështeten në inputet gjenerike (0-shot CoT) ose kërkojnë shembuj të etiketuar (CoT pak-shot). E drejta: Qasja e re i nxit LLM-të të krijojnë vetë shembuj përkatës përpara zgjidhjes së problemeve, duke hequr nevojën për etiketim ndërsa përshtatin shembujt për çdo problem unik

Majtas: Metodat tradicionale të nxitjes së LLM-ve mbështeten në inputet gjenerike (0-shot CoT) ose kërkojnë shembuj të etiketuar (CoT pak-shot). E drejta: Qasja e re i nxit LLM-të të krijojnë vetë shembuj përkatës përpara zgjidhjes së problemeve, duke hequr nevojën për etiketim ndërsa përshtatin shembujt për secilin

Shembuj të krijuar nga vetë

Teknika e parë e paraqitur në punim janë ekzemplarë të vetë-gjeneruar. Ideja është të shfrytëzohet njohuria e gjerë që LLM-të kanë marrë gjatë trajnimit të tyre për t'i ndihmuar ata të zgjidhin probleme të reja. Procesi përfshin shtimin e një problemi të synuar me udhëzime që e nxisin modelin të rikujtojë ose të gjenerojë probleme dhe zgjidhje përkatëse.

Për shembull, duke pasur parasysh një problem, modeli udhëzohet të kujtojë tre probleme të dallueshme dhe relevante, t'i përshkruajë ato dhe të shpjegojë zgjidhjet e tyre. Ky proces është projektuar për t'u kryer në një kalim të vetëm, duke i lejuar LLM të gjenerojë shembuj përkatës dhe të zgjidhë problemin fillestar pa probleme. Përdorimi i simboleve '#' në prompt ndihmon në strukturimin e përgjigjes, duke e bërë atë më të organizuar dhe më të lehtë për modelin për t'u ndjekur.

Vendimet kryesore teknike të theksuara në punim përfshijnë theksin në gjenerimin e ekzemplarëve përkatës dhe të ndryshëm, miratimin e një qasjeje me kalim të vetëm për lehtësi më të madhe dhe gjetjen se gjenerimi i tre deri në pesë ekzemplarë jep rezultatet më të mira.

Njohuri e krijuar nga Vetë + Shembuj

Teknika e dytë, njohuritë e krijuara nga vetë + ekzemplarë, është prezantuar për të adresuar sfidat në detyra më komplekse, siç është gjenerimi i kodit. Në këta skenarë, LLM-të mund të mbështeten tepër në ekzemplarë të nivelit të ulët dhe të luftojnë për të përgjithësuar kur zgjidhin problemet e synuara. Për të zbutur këtë, autorët propozojnë përmirësimin e kërkesës me një udhëzim shtesë që inkurajon modelin të identifikojë konceptet thelbësore në problem dhe të ofrojë një tutorial ose udhëzim të nivelit të lartë.

Një konsideratë kritike është rendi në të cilin krijohen njohuritë dhe shembujt. Autorët zbuluan se gjenerimi i njohurive përpara ekzemplarëve çon në rezultate më të mira, pasi ndihmon LLM të përqendrohet në qasjet themelore të zgjidhjes së problemeve dhe jo vetëm në ngjashmëritë e nivelit sipërfaqësor.

Avantazhet dhe Aplikimet

Qasja analogjike e nxitjes ofron disa përparësi. Ai ofron shembuj të detajuar të arsyetimit pa nevojën e etiketimit manual, duke adresuar sfidat që lidhen me metodat e zinxhirit të mendimit 0-shot dhe me disa goditje (CoT). Për më tepër, ekzemplarët e gjeneruar janë përshtatur për problemet individuale, duke ofruar udhëzime më të rëndësishme sesa CoT tradicionale me disa shkrepje, e cila përdor ekzemplarë fiks.

Punimi demonstron efektivitetin e kësaj qasjeje në detyra të ndryshme arsyetimi, duke përfshirë zgjidhjen e problemeve matematikore, gjenerimin e kodit dhe detyra të tjera arsyetimi në BIG-Bench.

Tabelat e mëposhtme paraqesin matjet e performancës të metodave të ndryshme nxitëse në arkitektura të ndryshme modelesh. Veçanërisht, metoda "Shembullët e gjeneruar nga vetë" vazhdimisht i kalon metodat e tjera për sa i përket saktësisë. Në saktësinë GSM8K, kjo metodë arrin performancën më të lartë në modelin PaLM2 në 81.7%. Në mënyrë të ngjashme, për saktësinë MATH, ai kryeson grafikun në GPT3.5-turbo me 37.3%.

Performanca në detyrat matematikore, GSM8K dhe MATH

Performanca në detyrat matematikore, GSM8K dhe MATH

Në tabelën e dytë, për modelet GPT3.5-turbo-16k dhe GPT4, "Njohuria e gjeneruar nga vetja + ekzemplarë" tregon performancën më të mirë.

Performanca në detyrën e gjenerimit të kodit Codeforces

Performanca në detyrën e gjenerimit të kodit Codeforces

Punimi 2: Bëni një hap prapa: Evokimi i arsyetimit nëpërmjet abstraksionit në modele të mëdha gjuhësore

Përmbledhje

Gazeta e dytë, "Bëni një hap prapa: Evokimi i arsyetimit nëpërmjet abstraksionit në modele të mëdha gjuhësore” prezanton Step-Back Prompting, një teknikë që inkurajon LLM-të të abstraktojnë konceptet e nivelit të lartë dhe parimet e para nga shembuj të detajuar. Autorët, Huaixiu Steven Zheng, Swaroop Mishra dhe të tjerë synojnë të përmirësojnë aftësitë e arsyetimit të LLM-ve duke i udhëzuar ata të ndjekin një rrugë të saktë arsyetimi drejt zgjidhjes.

Paraqitja e NXHITJES SË KOSOVËS NË dy faza të Abstraksionit dhe Arsyetimit, të drejtuar nga konceptet dhe parimet kryesore.

Paraqitja e NXHITJES SË KOSOVËS NË dy faza të Abstraksionit dhe Arsyetimit, të drejtuar nga konceptet dhe parimet kryesore.

Le të krijojmë një shembull më të thjeshtë duke përdorur një pyetje themelore matematikore për të demonstruar teknikën "Pyetja e hapit":

Original Question: If a train travels at a speed of 60 km/h and covers a distance of 120 km, how long will it take?

Options:

3 hours
2 hours
1 hour
4 hours
Original Answer [Incorrect]: The correct answer is 1).

Stepback Question: What is the basic formula to calculate time given speed and distance?

Principles:
To calculate time, we use the formula:
Time = Distance / Speed

Final Answer:
Using the formula, Time = 120 km / 60 km/h = 2 hours.
The correct answer is 2) 2 hours.

Megjithëse LLM-të në ditët e sotme mund t'i përgjigjen lehtësisht pyetjes së mësipërme, ky shembull është vetëm për të demonstruar se si do të funksiononte teknika e hapit. Për skenarë më sfidues, e njëjta teknikë mund të zbatohet për të zbërthyer dhe trajtuar problemin në mënyrë sistematike. Më poshtë është një rast më kompleks i demonstruar në punim:

NJOFTIM HAPI PRAPA në grupin e të dhënave MMLU-Chemistry

NJOFTIM HAPI PRAPA në grupin e të dhënave MMLU-Chemistry

Konceptet dhe Metodologjia kryesore

Thelbi i "Step-Back Prompting" qëndron në aftësinë e tij për t'i bërë LLM-të të bëjnë një hap metaforik prapa, duke i inkurajuar ata të shikojnë pamjen më të madhe në vend që të humbasin në detaje. Kjo arrihet përmes një sërë kërkesash të hartuara me kujdes që i drejtojnë LLM-të drejt informacionit abstrakt, nxjerrin koncepte të nivelit të lartë dhe zbatojnë këto koncepte për të zgjidhur problemin e dhënë.

Procesi fillon me LLM që nxitet të abstraktojë detaje nga rastet e dhëna, duke e inkurajuar atë të fokusohet në konceptet dhe parimet themelore. Ky hap është vendimtar pasi krijon bazën që LLM t'i qaset problemit nga një perspektivë më e informuar dhe parimore.

Pasi të përftohen konceptet e nivelit të lartë, ato përdoren për të udhëhequr LLM përmes hapave të arsyetimit drejt zgjidhjes. Ky udhëzim siguron që LLM të qëndrojë në rrugën e duhur, duke ndjekur një rrugë logjike dhe koherente që bazohet në konceptet dhe parimet e abstraktuara.

Autorët kryejnë një seri eksperimentesh për të vërtetuar efektivitetin e nxitjes për hapa prapa, duke përdorur modele PaLM-2L në një sërë detyrash sfiduese që kërkojnë arsyetim intensiv. Këto detyra përfshijnë problemet STEM, sigurimin e njohurive dhe arsyetimin Multi-Hop, duke ofruar një shtrat testimi gjithëpërfshirës për vlerësimin e teknikës.

Përmirësime thelbësore në të gjitha detyrat

Rezultatet janë mbresëlënëse, me nxitjen e hapit prapa që çon në përfitime të konsiderueshme të performancës në të gjitha detyrat. Për shembull, teknika përmirëson performancën e PaLM-2L në MMLU Fizikë dhe Kimi me përkatësisht 7% dhe 11%. Në mënyrë të ngjashme, ai rrit performancën në TimeQA me 27% dhe në MuSiQue me 7%.

Performanca e STEP-BACK PROMPTING

Performanca e STEP-BACK PROMPTING vs CoT

Këto rezultate nënvizojnë potencialin e Nxitjes për të kaluar prapa për të rritur ndjeshëm aftësitë e arsyetimit të LLM-ve.

Përfundim

Të dy punimet nga Google DeepMind paraqesin qasje novatore për inxhinierinë e shpejtë, duke synuar të rrisin aftësitë e arsyetimit të modeleve të mëdha gjuhësore. Nxitja analogjike përdor konceptin e arsyetimit analogjik, duke inkurajuar modelet të gjenerojnë shembujt dhe njohuritë e tyre, duke çuar në zgjidhje më të adaptueshme dhe efikase të problemeve. Nga ana tjetër, Step-Back Prompting fokusohet në abstraksion, duke udhëhequr modelet për të nxjerrë koncepte dhe parime të nivelit të lartë, të cilat nga ana tjetër përmirësojnë aftësitë e tyre të arsyetimit.

Këto dokumente kërkimore ofrojnë njohuri dhe metodologji të vlefshme që mund të aplikohen në fusha të ndryshme, duke çuar në modele gjuhësore më inteligjente dhe më të afta. Ndërsa vazhdojmë të eksplorojmë dhe kuptojmë ndërlikimet e inxhinierisë së shpejtë, këto qasje shërbejnë si gurë hapësinorë të rëndësishëm drejt arritjes së sistemeve më të avancuara dhe të sofistikuara të AI.

Kam kaluar pesë vitet e fundit duke u zhytur në botën magjepsëse të Mësimit të Makinerisë dhe Mësimit të Thellë. Pasioni dhe ekspertiza ime më kanë shtyrë të kontribuoj në mbi 50 projekte të ndryshme inxhinierike softuerike, me një fokus të veçantë në AI/ML. Kurioziteti im i vazhdueshëm më ka tërhequr gjithashtu drejt Përpunimit të Gjuhëve Natyrore, një fushë që mezi pres ta eksploroj më tej.