кочан Подкани за аналогови и крачки назад: Потапяне в последните постижения на Google DeepMind – Unite.AI
Свържете се с нас

Бърз инженеринг

Подкани по аналогия и стъпка назад: Потапяне в последните постижения от Google DeepMind

mm

Публикуван

 on

Google DeepMind Prompt Engineering нови изследвания

Въведение

Бързото инженерство се фокусира върху разработването на ефективни подкани за насочване на големи езикови модели (LLM) като GPT-4 при генериране на желани отговори. Една добре изработена подкана може да бъде разликата между неясен или неточен отговор и точен, проницателен.

В по-широката екосистема на AI бързото инженерство е един от няколкото метода, използвани за извличане на по-точна и контекстуално релевантна информация от езикови модели. Други включват техники като обучение с няколко изстрела, при което на модела се дават няколко примера, които да му помогнат да разбере задачата, и фина настройка, при която моделът се обучава допълнително на по-малък набор от данни, за да специализира своите отговори.

Google DeepMind наскоро публикува две статии, които се задълбочават в бързото инженерство и потенциала му да подобри реакциите при множество ситуации.

Тези документи са част от продължаващото проучване в общността на AI за усъвършенстване и оптимизиране на начина, по който комуникираме с езикови модели, и те предоставят свежи прозрения за структуриране на подкани за по-добро обработване на заявки и взаимодействие с бази данни.

Тази статия се задълбочава в детайлите на тези изследователски статии, изяснявайки концепциите, методологиите и последиците от предложените техники, което я прави достъпна дори за читатели с ограничени познания в AI и NLP.

Документ 1: Големи езикови модели като аналогови разсъждения

Първата статия, озаглавена „Големите езикови модели като аналогови разсъждения“, въвежда нов подсказващ подход, наречен Аналогично подсказване. Авторите, Мичихиро Ясунага, Синюн Чен и други, черпят вдъхновение от аналогово разсъждение – когнитивен процес, при който хората използват минали преживявания, за да се справят с нови проблеми.

Ключови понятия и методология

Аналогичното подсказване насърчава LLM да генерират сами подходящи примери или знания в контекста, преди да пристъпят към решаване на даден проблем. Този подход елиминира необходимостта от етикетирани примери, предлагайки общоприетост и удобство, и адаптира генерираните примери към всеки конкретен проблем, осигурявайки адаптивност.

Отляво: Традиционните методи за подсказване на LLMs разчитат на общи входове (0-shot CoT) или изискват обозначени примери (few-shot CoT). Правилно: Новият подход подтиква магистърите по право да създават сами уместни примери преди решаването на проблеми, премахвайки необходимостта от етикетиране, като същевременно персонализират примерите за всеки уникален проблем

Отляво: Традиционните методи за подсказване на LLMs разчитат на общи входове (0-shot CoT) или изискват обозначени примери (few-shot CoT). Правилно: Новият подход подтиква магистърите по право да създават сами подходящи примери преди решаването на проблеми, като премахва необходимостта от етикетиране, като същевременно персонализира примери за всеки

Самогенерирани екземпляри

Първата техника, представена в документа, е самостоятелно генерирани екземпляри. Идеята е да се използват обширните познания, които LLM са придобили по време на обучението си, за да им помогнат да решават нови проблеми. Процесът включва разширяване на целевия проблем с инструкции, които подканват модела да си припомни или генерира подходящи проблеми и решения.

Например, даден проблем, моделът е инструктиран да си припомни три отделни и подходящи проблема, да ги опише и да обясни решенията им. Този процес е проектиран да се извършва с едно преминаване, което позволява на LLM да генерира подходящи примери и да реши безпроблемно първоначалния проблем. Използването на символи „#“ в подканите помага за структурирането на отговора, което го прави по-организиран и по-лесен за следване на модела.

Ключовите технически решения, подчертани в документа, включват акцента върху генерирането на подходящи и разнообразни примери, възприемането на подход с едно преминаване за по-голямо удобство и констатацията, че генерирането на три до пет екземпляра дава най-добри резултати.

Самогенерирано знание + образци

Втората техника, самостоятелно генерирано знание + примери, се въвежда за справяне с предизвикателствата при по-сложни задачи, като генериране на код. В тези сценарии LLM може да разчитат прекалено на примери от ниско ниво и да се борят да обобщават при решаването на целевите проблеми. За да смекчат това, авторите предлагат подобряване на подканата с допълнителна инструкция, която насърчава модела да идентифицира основните концепции в проблема и да предостави урок или извод на високо ниво.

Едно критично съображение е редът, в който се генерират знания и примери. Авторите установиха, че генерирането на знания преди примерите води до по-добри резултати, тъй като помага на LLM да се съсредоточи върху основните подходи за решаване на проблеми, а не само върху прилики на повърхностно ниво.

Предимства и приложения

Аналогичният подканващ подход предлага няколко предимства. Той предоставя подробни примери за разсъждения без необходимост от ръчно етикетиране, като се справя с предизвикателствата, свързани с методите на нулева и няколко изстрела верига от мисли (CoT). Освен това, генерираните примери са съобразени с индивидуалните проблеми, като предлагат по-подходящи насоки от традиционния CoT с няколко изстрела, който използва фиксирани примери.

Документът демонстрира ефективността на този подход при различни задачи за разсъждение, включително решаване на математически проблеми, генериране на код и други задачи за разсъждение в BIG-Bench.

Таблиците по-долу представят показатели за ефективност на различни методи за подсказване в различни архитектури на модели. Трябва да се отбележи, че методът „Самогенерирани екземпляри“ постоянно засенчва други методи по отношение на точност. При точност на GSM8K този метод постига най-висока производителност на модела PaLM2 при 81.7%. По същия начин, за точност на МАТЕМАТИКАТА, той оглавява класацията на GPT3.5-turbo с 37.3%.

Изпълнение на математически задачи, GSM8K и MATH

Изпълнение на математически задачи, GSM8K и MATH

Във втората таблица, за модели GPT3.5-turbo-16k и GPT4, „Самогенерирани знания + примери“ показва най-добра производителност.

Изпълнение на задача за генериране на код на Codeforces

Изпълнение на задача за генериране на код на Codeforces

Документ 2: Направете крачка назад: Извикване на разсъждение чрез абстракция в големи езикови модели

Overview

Вторият документ, „Направете крачка назад: Извикване на разсъждение чрез абстракция в големи езикови модели” представя Step-Back Prompting, техника, която насърчава LLM да абстрахират концепции от високо ниво и първи принципи от подробни случаи. Авторите Huaixiu Steven Zheng, Swaroop Mishra и други имат за цел да подобрят способностите за разсъждение на LLM, като ги насочват да следват правилния път на разсъждение към решението.

Изобразяване на ПОДСКАЗВАНЕ НА СТЪПКА НАЗАД през две фази на абстракция и разсъждение, ръководени от ключови концепции и принципи.

Изобразяване на ПОДСКАЗВАНЕ НА СТЪПКА НАЗАД през две фази на абстракция и разсъждение, ръководени от ключови концепции и принципи.

Нека създадем по-прост пример, като използваме основен математически въпрос, за да демонстрираме техниката „Въпрос с стъпка назад“:

Original Question: If a train travels at a speed of 60 km/h and covers a distance of 120 km, how long will it take?

Options:

3 hours
2 hours
1 hour
4 hours
Original Answer [Incorrect]: The correct answer is 1).

Stepback Question: What is the basic formula to calculate time given speed and distance?

Principles:
To calculate time, we use the formula:
Time = Distance / Speed

Final Answer:
Using the formula, Time = 120 km / 60 km/h = 2 hours.
The correct answer is 2) 2 hours.

Въпреки че LLM в днешно време могат лесно да отговорят на горния въпрос, този пример е само за да демонстрира как би работила техниката стъпка назад. За по-предизвикателни сценарии същата техника може да се приложи за систематично анализиране и адресиране на проблема. По-долу е даден по-сложен случай, демонстриран в статията:

ПОДСКАЗКА НА СТЪПКА НАЗАД за набор от данни MMLU-Chemistry

ПОДСКАЗКА НА СТЪПКА НАЗАД за набор от данни MMLU-Chemistry

Ключови понятия и методология

Същността на Step-Back Prompting се крие в способността му да накара LLM да направят метафорична крачка назад, насърчавайки ги да погледнат по-голямата картина, вместо да се изгубят в детайлите. Това се постига чрез поредица от внимателно изработени подкани, които насочват LLMs към абстрактна информация, извличат концепции от високо ниво и прилагат тези концепции за решаване на даден проблем.

Процесът започва с подканването на LLM да абстрахира подробности от дадените случаи, насърчавайки го да се съсредоточи върху основните концепции и принципи. Тази стъпка е от решаващо значение, тъй като поставя началото на LLM да подходи към проблема от по-информирана и принципна гледна точка.

След като се извлекат концепциите от високо ниво, те се използват за насочване на LLM през стъпките на разсъждение към решението. Това ръководство гарантира, че LLM остава на правилния път, следвайки логичен и последователен път, който се основава на абстрактните концепции и принципи.

Авторите провеждат серия от експерименти, за да потвърдят ефективността на Step-Back Prompting, използвайки PaLM-2L модели в набор от предизвикателни задачи, изискващи интензивно мислене. Тези задачи включват проблеми със STEM, QA на знанието и Multi-Hop Reasoning, предоставяйки цялостна тестова платформа за оценка на техниката.

Съществени подобрения в различните задачи

Резултатите са впечатляващи, като Step-Back Prompting води до значително повишаване на производителността при всички задачи. Например, техниката подобрява производителността на PaLM-2L при MMLU Physics и Chemistry съответно със 7% и 11%. По същия начин той повишава производителността на TimeQA с 27% и на MuSiQue със 7%.

Изпълнение на ПОДСКАЗВАНЕ НА СТЪПКА НАЗАД

Изпълнение на STEP-BACK PROMPTING срещу CoT

Тези резултати подчертават потенциала на Step-Back Prompting да подобри значително способността за разсъждение на LLM.

Заключение

И двата документа от Google DeepMind представят иновативни подходи за бързо инженерство, целящи да подобрят възможностите за разсъждение на големите езикови модели. Analogical Prompting използва концепцията за аналогово разсъждение, като насърчава моделите да генерират свои собствени примери и знания, което води до по-адаптивно и ефективно решаване на проблеми. От друга страна, Step-Back Prompting се фокусира върху абстракцията, като насочва моделите да извличат концепции и принципи на високо ниво, което от своя страна подобрява техните способности за разсъждение.

Тези научни статии предоставят ценни прозрения и методологии, които могат да се прилагат в различни области, което води до по-интелигентни и способни езикови модели. Докато продължаваме да изследваме и разбираме тънкостите на бързото инженерство, тези подходи служат като решаващи стъпала към постигането на по-напреднали и усъвършенствани AI системи.

Прекарах последните пет години, потапяйки се в завладяващия свят на машинното обучение и дълбокото обучение. Моята страст и опит ме накараха да допринеса за над 50 различни проекта за софтуерно инженерство, със специален фокус върху AI/ML. Продължаващото ми любопитство също ме насочи към обработката на естествен език, област, която нямам търпение да проуча по-нататък.