ກ້ານໃບ ການກະຕຸ້ນເຕືອນແບບອະນາລົກ ແລະ ບາດກ້າວກັບຄືນ: ກ້າວເຂົ້າສູ່ຄວາມກ້າວໜ້າທີ່ຜ່ານມາໂດຍ Google DeepMind - Unite.AI
ເຊື່ອມຕໍ່ກັບພວກເຮົາ

ວິສະວະກໍາດ່ວນ

ການກະຕຸ້ນເຕືອນແບບອະນາລັອກ ແລະ ກັບຄືນ: ກ້າວເຂົ້າສູ່ຄວາມກ້າວໜ້າທີ່ຜ່ານມາໂດຍ Google DeepMind

mm

ຈັດພີມມາ

 on

ການຄົ້ນຄວ້າໃຫມ່ຂອງ Google DeepMind Prompt Engineering

ການນໍາສະເຫນີ

ວິສະວະກໍາວ່ອງໄວສຸມໃສ່ການວາງແຜນການກະຕຸ້ນເຕືອນທີ່ມີປະສິດທິພາບເພື່ອແນະນໍາຕົວແບບພາສາຂະຫນາດໃຫຍ່ (LLMs) ເຊັ່ນ GPT-4 ໃນການສ້າງການຕອບສະຫນອງທີ່ຕ້ອງການ. ການກະຕຸ້ນເຕືອນທີ່ເຮັດໄດ້ດີສາມາດເປັນຄວາມແຕກຕ່າງລະຫວ່າງຄໍາຕອບທີ່ບໍ່ຊັດເຈນຫຼືບໍ່ຖືກຕ້ອງແລະຄວາມຊັດເຈນ, ຄວາມເຂົ້າໃຈ.

ໃນລະບົບນິເວດທີ່ກວ້າງຂວາງຂອງ AI, ວິສະວະກໍາທັນທີແມ່ນຫນຶ່ງໃນຫຼາຍວິທີການນໍາໃຊ້ເພື່ອສະກັດຂໍ້ມູນທີ່ຖືກຕ້ອງແລະສະພາບການທີ່ກ່ຽວຂ້ອງຫຼາຍຂຶ້ນຈາກຕົວແບບພາສາ. ອື່ນ ໆ ລວມມີເຕັກນິກຕ່າງໆເຊັ່ນ: ການຮຽນຮູ້ການຍິງບໍ່ຫຼາຍປານໃດ, ບ່ອນທີ່ຕົວແບບໄດ້ຖືກຍົກຕົວຢ່າງບາງຢ່າງເພື່ອຊ່ວຍໃຫ້ມັນເຂົ້າໃຈວຽກງານ, ແລະການປັບຕົວແບບລະອຽດ, ບ່ອນທີ່ຕົວແບບໄດ້ຖືກຝຶກອົບຮົມຕື່ມອີກໃນຊຸດຂໍ້ມູນຂະຫນາດນ້ອຍເພື່ອຊ່ຽວຊານການຕອບສະຫນອງຂອງມັນ.

Google DeepMind ບໍ່ດົນມານີ້ໄດ້ຈັດພີມມາສອງເອກະສານທີ່ delve ເຂົ້າໄປໃນວິສະວະກໍາທັນທີທັນໃດແລະທ່າແຮງຂອງຕົນໃນການເສີມຂະຫຍາຍການຕອບສະຫນອງໃນຫຼາຍສະຖານະການ.

ເອກະສານເຫຼົ່ານີ້ແມ່ນສ່ວນຫນຶ່ງຂອງການຂຸດຄົ້ນຢ່າງຕໍ່ເນື່ອງໃນຊຸມຊົນ AI ເພື່ອປັບປຸງແລະເພີ່ມປະສິດທິພາບວິທີທີ່ພວກເຮົາຕິດຕໍ່ສື່ສານກັບຕົວແບບພາສາ, ແລະພວກເຂົາສະຫນອງຄວາມເຂົ້າໃຈໃຫມ່ໃນໂຄງສ້າງການກະຕຸ້ນເຕືອນສໍາລັບການຈັດການຄໍາຖາມທີ່ດີກວ່າແລະການໂຕ້ຕອບຖານຂໍ້ມູນ.

ບົດຄວາມນີ້ delves ເຂົ້າໄປໃນລາຍລະອຽດຂອງເອກະສານຄົ້ນຄ້ວາເຫຼົ່ານີ້, ອະທິບາຍແນວຄວາມຄິດ, ວິທີການ, ແລະຜົນສະທ້ອນຂອງເຕັກນິກການສະເຫນີ, ເຮັດໃຫ້ມັນສາມາດເຂົ້າເຖິງໄດ້ເຖິງແມ່ນວ່າຜູ້ອ່ານທີ່ມີຄວາມຮູ້ຈໍາກັດໃນ AI ແລະ NLP.

ເອກະສານທີ 1: ແບບຈໍາລອງພາສາຂະຫນາດໃຫຍ່ເປັນຕົວຊີ້ບອກເຫດຜົນ

ເອກະສານສະບັບທໍາອິດ, ຫົວຂໍ້ "ແບບຈໍາລອງພາສາຂະຫນາດໃຫຍ່ເປັນເຫດຜົນອະນາລັອກ," ແນະນໍາວິທີການກະຕຸ້ນເຕືອນໃຫມ່ທີ່ມີຊື່ວ່າ "Analogical Prompting". ຜູ້ຂຽນ, Michihiro Yasunaga, Xinyun Chen ແລະຜູ້ອື່ນໆ, ດຶງແຮງບັນດານໃຈຈາກການໃຫ້ເຫດຜົນປຽບທຽບ - ຂະບວນການທາງດ້ານສະຕິປັນຍາທີ່ມະນຸດໃຊ້ປະສົບການທີ່ຜ່ານມາເພື່ອແກ້ໄຂບັນຫາໃຫມ່.

ແນວຄວາມຄິດຫຼັກ ແລະວິທີການ

ການກະຕຸ້ນເຕືອນແບບອະນາລັອກຊຸກຍູ້ໃຫ້ LLMs ສ້າງຕົວຢ່າງທີ່ກ່ຽວຂ້ອງ ຫຼືຄວາມຮູ້ໃນສະພາບການດ້ວຍຕົນເອງກ່ອນທີ່ຈະດໍາເນີນການແກ້ໄຂບັນຫາໃດໜຶ່ງ. ວິທີການນີ້ກໍາຈັດຄວາມຕ້ອງການສໍາລັບຕົວຢ່າງທີ່ຕິດສະຫຼາກ, ສະເຫນີໂດຍທົ່ວໄປແລະຄວາມສະດວກສະບາຍ, ແລະດັດແປງຕົວຢ່າງທີ່ສ້າງຂຶ້ນໃຫ້ກັບແຕ່ລະບັນຫາສະເພາະ, ຮັບປະກັນການປັບຕົວ.

ຊ້າຍ: ວິທີການແບບດັ້ງເດີມຂອງການກະຕຸ້ນເຕືອນ LLMs ອີງໃສ່ການປ້ອນຂໍ້ມູນທົ່ວໄປ (0-shot CoT) ຫຼືຈໍາເປັນຕ້ອງມີຕົວຢ່າງທີ່ມີປ້າຍຊື່ (CoT ສອງສາມການສັກຢາ). ຖືກຕ້ອງ: ວິທີການນະວະນິຍາຍໄດ້ກະຕຸ້ນໃຫ້ LLMs ສ້າງຕົວຢ່າງທີ່ກ່ຽວຂ້ອງດ້ວຍຕົນເອງກ່ອນທີ່ຈະແກ້ໄຂບັນຫາ, ກໍາຈັດຄວາມຕ້ອງການສໍາລັບການຕິດສະຫຼາກໃນຂະນະທີ່ປັບແຕ່ງຕົວຢ່າງໃຫ້ກັບແຕ່ລະບັນຫາທີ່ເປັນເອກະລັກ.

ຊ້າຍ: ວິທີການແບບດັ້ງເດີມຂອງການກະຕຸ້ນເຕືອນ LLMs ອີງໃສ່ການປ້ອນຂໍ້ມູນທົ່ວໄປ (0-shot CoT) ຫຼືຈໍາເປັນຕ້ອງມີຕົວຢ່າງທີ່ມີປ້າຍຊື່ (CoT ສອງສາມການສັກຢາ). ສິດ: ວິທີການນະວະນິຍາຍໄດ້ກະຕຸ້ນໃຫ້ LLMs ຕົນເອງສ້າງຕົວຢ່າງທີ່ກ່ຽວຂ້ອງກ່ອນທີ່ຈະແກ້ໄຂບັນຫາ, ກໍາຈັດຄວາມຕ້ອງການສໍາລັບການຕິດສະຫຼາກໃນຂະນະທີ່ປັບແຕ່ງຕົວຢ່າງໃຫ້ກັບແຕ່ລະຄົນ.

ຕົວຢ່າງທີ່ສ້າງຂຶ້ນເອງ

ເຕັກນິກທໍາອິດທີ່ນໍາສະເຫນີຢູ່ໃນເຈ້ຍແມ່ນຕົວຢ່າງທີ່ສ້າງດ້ວຍຕົນເອງ. ແນວຄວາມຄິດແມ່ນເພື່ອໃຊ້ຄວາມຮູ້ຢ່າງກວ້າງຂວາງທີ່ LLMs ໄດ້ມາໃນລະຫວ່າງການຝຶກອົບຮົມຂອງພວກເຂົາເພື່ອຊ່ວຍໃຫ້ພວກເຂົາແກ້ໄຂບັນຫາໃຫມ່. ຂະບວນການກ່ຽວຂ້ອງກັບການເພີ່ມບັນຫາເປົ້າຫມາຍທີ່ມີຄໍາແນະນໍາທີ່ກະຕຸ້ນໃຫ້ຕົວແບບໃນການເອີ້ນຄືນຫຼືສ້າງບັນຫາທີ່ກ່ຽວຂ້ອງແລະວິທີແກ້ໄຂ.

ສໍາລັບຕົວຢ່າງ, ບັນຫາໃດຫນຶ່ງ, ຮູບແບບໄດ້ຖືກແນະນໍາໃຫ້ຈື່ຈໍາສາມບັນຫາທີ່ແຕກຕ່າງກັນແລະທີ່ກ່ຽວຂ້ອງ, ອະທິບາຍໃຫ້ເຂົາເຈົ້າ, ແລະອະທິບາຍວິທີແກ້ໄຂຂອງເຂົາເຈົ້າ. ຂະບວນການນີ້ໄດ້ຖືກອອກແບບເພື່ອດໍາເນີນການໃນ pass ດຽວ, ໃຫ້ LLM ສ້າງຕົວຢ່າງທີ່ກ່ຽວຂ້ອງແລະແກ້ໄຂບັນຫາເບື້ອງຕົ້ນ seamlessly. ການນໍາໃຊ້ສັນຍາລັກ '#' ໃນການກະຕຸ້ນເຕືອນຊ່ວຍໃນໂຄງສ້າງການຕອບສະຫນອງ, ເຮັດໃຫ້ມັນເປັນລະບຽບແລະງ່າຍສໍາລັບຕົວແບບທີ່ຈະປະຕິບັດຕາມ.

ການຕັດສິນໃຈທາງດ້ານວິຊາການທີ່ສໍາຄັນທີ່ເນັ້ນໃສ່ໃນເອກະສານປະກອບມີການເນັ້ນຫນັກໃສ່ການສ້າງຕົວຢ່າງທີ່ກ່ຽວຂ້ອງແລະຫຼາກຫຼາຍ, ການຮັບຮອງເອົາວິທີການຜ່ານດຽວເພື່ອຄວາມສະດວກຫຼາຍກວ່າເກົ່າ, ແລະການຄົ້ນພົບວ່າການສ້າງຕົວຢ່າງສາມຫາຫ້າໃຫ້ຜົນໄດ້ຮັບທີ່ດີທີ່ສຸດ.

ຄວາມຮູ້ທີ່ສ້າງຂຶ້ນເອງ + ຕົວຢ່າງ

ເຕັກນິກທີສອງ, ຄວາມຮູ້ທີ່ສ້າງຂຶ້ນເອງ + ຕົວຢ່າງ, ໄດ້ຖືກນໍາສະເຫນີເພື່ອແກ້ໄຂບັນຫາສິ່ງທ້າທາຍໃນວຽກງານທີ່ສັບສົນຫຼາຍ, ເຊັ່ນການສ້າງລະຫັດ. ໃນສະຖານະການເຫຼົ່ານີ້, LLMs ອາດຈະອີງໃສ່ຕົວຢ່າງລະດັບຕ່ໍາເກີນໄປແລະຕໍ່ສູ້ເພື່ອສະຫຼຸບໂດຍທົ່ວໄປໃນເວລາທີ່ແກ້ໄຂບັນຫາເປົ້າຫມາຍ. ເພື່ອຫຼຸດຜ່ອນການນີ້, ຜູ້ຂຽນສະເຫນີໃຫ້ປັບປຸງການກະຕຸ້ນເຕືອນດ້ວຍຄໍາແນະນໍາເພີ່ມເຕີມທີ່ຊຸກຍູ້ໃຫ້ຮູບແບບການກໍານົດແນວຄວາມຄິດຫຼັກໃນບັນຫາແລະສະຫນອງການສອນຫຼືການເອົາອອກໃນລະດັບສູງ.

ການພິຈາລະນາທີ່ສໍາຄັນອັນຫນຶ່ງແມ່ນຄໍາສັ່ງທີ່ຈະສ້າງຄວາມຮູ້ແລະຕົວຢ່າງ. ຜູ້ຂຽນພົບວ່າການສ້າງຄວາມຮູ້ກ່ອນທີ່ຈະເປັນຕົວຢ່າງເຮັດໃຫ້ຜົນໄດ້ຮັບທີ່ດີກວ່າ, ຍ້ອນວ່າມັນຊ່ວຍໃຫ້ LLM ສຸມໃສ່ວິທີການແກ້ໄຂບັນຫາພື້ນຖານແທນທີ່ຈະເປັນພຽງແຕ່ຄວາມຄ້າຍຄືກັນໃນລະດັບຫນ້າດິນ.

ຂໍ້ໄດ້ປຽບແລະຄໍາຮ້ອງສະຫມັກ

ວິທີການກະຕຸ້ນແບບປຽບທຽບໃຫ້ຂໍ້ໄດ້ປຽບຫຼາຍຢ່າງ. ມັນສະຫນອງຕົວຢ່າງລາຍລະອຽດຂອງການໃຫ້ເຫດຜົນໂດຍບໍ່ຈໍາເປັນຕ້ອງມີການຕິດສະຫຼາກຄູ່ມື, ການແກ້ໄຂສິ່ງທ້າທາຍທີ່ກ່ຽວຂ້ອງກັບວິທີການ 0-shot ແລະຈໍານວນຫນ້ອຍ-shot chain-of-thought (CoT). ນອກຈາກນັ້ນ, ຕົວຢ່າງທີ່ສ້າງຂຶ້ນແມ່ນເຫມາະສົມກັບບັນຫາສ່ວນບຸກຄົນ, ສະເຫນີຄໍາແນະນໍາທີ່ກ່ຽວຂ້ອງຫຼາຍກ່ວາ CoT ຈໍານວນຫນ້ອຍແບບດັ້ງເດີມ, ເຊິ່ງໃຊ້ຕົວຢ່າງຄົງທີ່.

ເອກະສານສະແດງໃຫ້ເຫັນປະສິດທິພາບຂອງວິທີການນີ້ໃນທົ່ວວຽກງານສົມເຫດສົມຜົນ, ລວມທັງການແກ້ໄຂບັນຫາຄະນິດສາດ, ການສ້າງລະຫັດ, ແລະວຽກງານເຫດຜົນອື່ນໆໃນ BIG-Bench.

ຕາຕະລາງຂ້າງລຸ່ມນີ້ນໍາສະເຫນີການວັດແທກການປະຕິບັດຂອງວິທີການກະຕຸ້ນເຕືອນຕ່າງໆໃນທົ່ວສະຖາປັດຕະຍະກໍາແບບຈໍາລອງທີ່ແຕກຕ່າງກັນ. ໂດຍສະເພາະ, ວິທີການ "ຕົວແບບທີ່ສ້າງຂຶ້ນເອງ" ສະເຫມີ outshines ວິທີການອື່ນໆໃນແງ່ຂອງຄວາມຖືກຕ້ອງ. ໃນຄວາມຖືກຕ້ອງຂອງ GSM8K, ວິທີການນີ້ບັນລຸປະສິດທິພາບສູງສຸດໃນແບບ PaLM2 ທີ່ 81.7%. ເຊັ່ນດຽວກັນ, ສໍາລັບຄວາມຖືກຕ້ອງຂອງ MATH, ມັນຢູ່ເທິງສຸດຂອງຕາຕະລາງໃນ GPT3.5-turbo ຢູ່ 37.3%.

ການປະຕິບັດວຽກງານຄະນິດສາດ, GSM8K ແລະ MATH

ການປະຕິບັດວຽກງານຄະນິດສາດ, GSM8K ແລະ MATH

ໃນຕາຕະລາງທີສອງ, ສໍາລັບແບບຈໍາລອງ GPT3.5-turbo-16k ແລະ GPT4, "ຄວາມຮູ້ທີ່ສ້າງຂຶ້ນເອງ + ຕົວຢ່າງ" ສະແດງໃຫ້ເຫັນເຖິງການປະຕິບັດທີ່ດີທີ່ສຸດ.

ການປະຕິບັດວຽກງານການສ້າງລະຫັດ Codeforces

ການປະຕິບັດວຽກງານການສ້າງລະຫັດ Codeforces

ເອກະສານທີ 2: ເອົາບາດກ້າວກັບຄືນ: ຖອດຖອນເຫດຜົນຜ່ານຕົວແບບພາສາໃຫຍ່

ພາບລວມ

ເອກະສານທີສອງ, "ເອົາບາດກ້າວກັບຄືນ: ຖອດຖອນເຫດຜົນຜ່ານຕົວແບບພາສາໃຫຍ່” ສະເຫນີ Step-Back Prompting, ເຕັກນິກທີ່ຊຸກຍູ້ໃຫ້ LLMs ມີແນວຄວາມຄິດລະດັບສູງທີ່ບໍ່ມີຕົວຕົນແລະຫຼັກການທໍາອິດຈາກຕົວຢ່າງລາຍລະອຽດ. ຜູ້ຂຽນ, Huaixiu Steven Zheng, Swaroop Mishra, ແລະອື່ນໆມີຈຸດປະສົງເພື່ອປັບປຸງຄວາມສາມາດໃນການສົມເຫດສົມຜົນຂອງ LLMs ໂດຍການຊີ້ນໍາໃຫ້ເຂົາເຈົ້າປະຕິບັດຕາມເສັ້ນທາງສົມເຫດສົມຜົນທີ່ຖືກຕ້ອງໄປສູ່ການແກ້ໄຂ.

ການພັນລະນາເຖິງການກະຕຸ້ນເຕືອນແບບກ້າວກະໂດດຂັ້ນຜ່ານສອງໄລຍະຂອງການບໍ່ມີເຫດຜົນ ແລະ ການໃຫ້ເຫດຜົນ, ຊີ້ນຳໂດຍແນວຄວາມຄິດ ແລະ ຫຼັກການຫຼັກ.

ການພັນລະນາເຖິງການກະຕຸ້ນເຕືອນແບບກ້າວກະໂດດຂັ້ນຜ່ານສອງໄລຍະຂອງການບໍ່ມີເຫດຜົນ ແລະ ການໃຫ້ເຫດຜົນ, ຊີ້ນຳໂດຍແນວຄວາມຄິດ ແລະ ຫຼັກການຫຼັກ.

ໃຫ້ເຮົາສ້າງຕົວຢ່າງທີ່ງ່າຍກວ່າໂດຍການໃຊ້ຄຳຖາມຄະນິດສາດພື້ນຖານເພື່ອສະແດງເທັກນິກ “ຄຳຖາມຂັ້ນຕອນຫຼັງ”:

Original Question: If a train travels at a speed of 60 km/h and covers a distance of 120 km, how long will it take?

Options:

3 hours
2 hours
1 hour
4 hours
Original Answer [Incorrect]: The correct answer is 1).

Stepback Question: What is the basic formula to calculate time given speed and distance?

Principles:
To calculate time, we use the formula:
Time = Distance / Speed

Final Answer:
Using the formula, Time = 120 km / 60 km/h = 2 hours.
The correct answer is 2) 2 hours.

ເຖິງແມ່ນວ່າ LLMs ໃນປະຈຸບັນສາມາດຕອບຄໍາຖາມຂ້າງເທິງໄດ້ງ່າຍໆ, ຕົວຢ່າງນີ້ແມ່ນພຽງແຕ່ເພື່ອສະແດງໃຫ້ເຫັນວິທີການຂັ້ນຕອນການກັບຄືນຈະເຮັດວຽກ. ສໍາລັບສະຖານະການທີ່ທ້າທາຍຫຼາຍ, ເຕັກນິກດຽວກັນສາມາດຖືກນໍາໃຊ້ເພື່ອຕັດແລະແກ້ໄຂບັນຫາຢ່າງເປັນລະບົບ. ຂ້າງລຸ່ມນີ້ແມ່ນກໍລະນີທີ່ສັບສົນກວ່າທີ່ສະແດງໃຫ້ເຫັນໃນເອກະສານ:

STEP-Back ProMPTING ໃນຊຸດຂໍ້ມູນ MMLU-Chemistry

STEP-Back ProMPTING ໃນຊຸດຂໍ້ມູນ MMLU-Chemistry

ແນວຄວາມຄິດຫຼັກ ແລະວິທີການ

ໂດຍເນື້ອແທ້ແລ້ວຂອງ Step-Back Prompting ແມ່ນຢູ່ໃນຄວາມສາມາດຂອງມັນທີ່ຈະເຮັດໃຫ້ LLMs ເອົາບາດກ້າວກັບຄືນແບບ metaphorical, ຊຸກຍູ້ໃຫ້ພວກເຂົາເບິ່ງຮູບພາບທີ່ໃຫຍ່ກວ່າແທນທີ່ຈະສູນເສຍລາຍລະອຽດ. ນີ້ແມ່ນບັນລຸໄດ້ໂດຍຜ່ານຊຸດການກະຕຸ້ນເຕືອນຢ່າງລະມັດລະວັງທີ່ນໍາພາ LLMs ໄປສູ່ຂໍ້ມູນທີ່ບໍ່ມີຕົວຕົນ, ມາຈາກແນວຄວາມຄິດລະດັບສູງ, ແລະນໍາໃຊ້ແນວຄວາມຄິດເຫຼົ່ານີ້ເພື່ອແກ້ໄຂບັນຫາທີ່ລະບຸໄວ້.

ຂະບວນການເລີ່ມຕົ້ນດ້ວຍ LLM ໄດ້ຖືກກະຕຸ້ນໃຫ້ລາຍລະອຽດທີ່ບໍ່ມີຕົວຕົນຈາກຕົວຢ່າງທີ່ໃຫ້, ຊຸກຍູ້ໃຫ້ມັນສຸມໃສ່ແນວຄວາມຄິດແລະຫຼັກການພື້ນຖານ. ຂັ້ນຕອນນີ້ແມ່ນສໍາຄັນຍ້ອນວ່າມັນກໍານົດຂັ້ນຕອນສໍາລັບ LLM ເພື່ອເຂົ້າຫາບັນຫາຈາກທັດສະນະທີ່ມີຄວາມເຂົ້າໃຈແລະມີຫຼັກການຫຼາຍຂຶ້ນ.

ເມື່ອແນວຄວາມຄິດລະດັບສູງໄດ້ມາ, ພວກມັນຖືກນໍາໃຊ້ເພື່ອນໍາພາ LLM ໂດຍຜ່ານຂັ້ນຕອນທີ່ສົມເຫດສົມຜົນໄປສູ່ການແກ້ໄຂ. ການຊີ້ນໍານີ້ຮັບປະກັນວ່າ LLM ຢູ່ໃນເສັ້ນທາງທີ່ຖືກຕ້ອງ, ປະຕິບັດຕາມເສັ້ນທາງທີ່ມີເຫດຜົນແລະສອດຄ່ອງກັນທີ່ມີພື້ນຖານໃນແນວຄວາມຄິດແລະຫຼັກການທີ່ບໍ່ມີຕົວຕົນ.

ຜູ້ຂຽນດໍາເນີນການທົດລອງຫຼາຍໆຢ່າງເພື່ອກວດສອບປະສິດທິພາບຂອງ Step-Back Prompting, ໂດຍໃຊ້ຕົວແບບ PaLM-2L ໃນທົ່ວວຽກງານທີ່ທ້າທາຍຫຼາຍດ້ານທີ່ສົມເຫດສົມຜົນ. ວຽກງານເຫຼົ່ານີ້ລວມມີບັນຫາ STEM, Knowledge QA, ແລະ Multi-Hop Reasoning, ສະຫນອງການທົດສອບທີ່ສົມບູນແບບສໍາລັບການປະເມີນເຕັກນິກ.

ການປັບປຸງຢ່າງຫຼວງຫຼາຍໃນທົ່ວວຽກງານ

ຜົນໄດ້ຮັບແມ່ນຫນ້າປະທັບໃຈ, ດ້ວຍ Step-Back Prompting ນໍາໄປສູ່ການເພີ່ມປະສິດທິພາບຢ່າງຫຼວງຫຼາຍໃນທຸກໆຫນ້າວຽກ. ສໍາລັບຕົວຢ່າງ, ເຕັກນິກປັບປຸງການປະຕິບັດຂອງ PaLM-2L ໃນ MMLU Physics ແລະເຄມີສາດໂດຍ 7% ແລະ 11%, ຕາມລໍາດັບ. ເຊັ່ນດຽວກັນ, ມັນເພີ່ມປະສິດທິພາບໃນ TimeQA 27% ແລະ MuSiQue 7%.

ປະສິດທິພາບຂອງ STEP-BACK PROMPTING

ປະສິດທິພາບຂອງ STEP-BACK PROMPTING ທຽບກັບ CoT

ຜົນໄດ້ຮັບເຫຼົ່ານີ້ຊີ້ໃຫ້ເຫັນເຖິງທ່າແຮງຂອງ Step-Back Prompting ເພື່ອເພີ່ມຄວາມສາມາດສົມເຫດສົມຜົນຂອງ LLMs.

ສະຫຼຸບ

ເອກະສານທັງສອງຈາກ Google DeepMind ນໍາສະເຫນີວິທີການປະດິດສ້າງເພື່ອວິສະວະກໍາທັນທີ, ເພື່ອແນໃສ່ເສີມຂະຫຍາຍຄວາມສາມາດໃນການສົມເຫດສົມຜົນຂອງຮູບແບບພາສາຂະຫນາດໃຫຍ່. Analogical Prompting ໝູນໃຊ້ແນວຄວາມຄິດຂອງການໃຫ້ເຫດຜົນແບບປຽບທຽບ, ຊຸກຍູ້ໃຫ້ຕົວແບບໃນການສ້າງຕົວຢ່າງ ແລະ ຄວາມຮູ້ຂອງຕົນເອງ, ນໍາໄປສູ່ການປັບຕົວ ແລະ ປະສິດທິພາບໃນການແກ້ໄຂບັນຫາ. ໃນອີກດ້ານຫນຶ່ງ, Step-Back Prompting ເນັ້ນໃສ່ສິ່ງທີ່ບໍ່ມີຕົວຕົນ, ນໍາພາແບບຈໍາລອງເພື່ອນໍາເອົາແນວຄວາມຄິດແລະຫຼັກການໃນລະດັບສູງ, ເຊິ່ງໃນນັ້ນ, ປັບປຸງຄວາມສາມາດໃນການສົມເຫດສົມຜົນຂອງພວກເຂົາ.

ເອກະສານການຄົ້ນຄວ້າເຫຼົ່ານີ້ສະຫນອງຄວາມເຂົ້າໃຈທີ່ມີຄຸນຄ່າແລະວິທີການທີ່ສາມາດນໍາໃຊ້ໃນທົ່ວໂດເມນຕ່າງໆ, ນໍາໄປສູ່ຮູບແບບພາສາທີ່ສະຫລາດແລະມີຄວາມສາມາດຫຼາຍຂຶ້ນ. ໃນຂະນະທີ່ພວກເຮົາສືບຕໍ່ຄົ້ນຄວ້າ ແລະ ເຂົ້າໃຈຄວາມຊັບຊ້ອນຂອງວິສະວະກຳທີ່ທັນສະໃໝ, ວິທີການເຫຼົ່ານີ້ເຮັດໜ້າທີ່ເປັນແກນກ້າວທີ່ສຳຄັນໄປສູ່ການບັນລຸລະບົບ AI ທີ່ກ້າວໜ້າ ແລະ ທັນສະໄໝກວ່າ.

ຂ້ອຍໄດ້ໃຊ້ເວລາ 50 ປີທີ່ຜ່ານມາເພື່ອເຂົ້າໄປໃນໂລກທີ່ໜ້າສົນໃຈຂອງການຮຽນຮູ້ເຄື່ອງຈັກ ແລະການຮຽນຮູ້ຢ່າງເລິກເຊິ່ງ. ຄວາມກະຕືລືລົ້ນແລະຄວາມຊໍານານຂອງຂ້ອຍໄດ້ເຮັດໃຫ້ຂ້ອຍປະກອບສ່ວນເຂົ້າໃນໂຄງການວິສະວະກໍາຊອບແວທີ່ຫຼາກຫຼາຍຊະນິດຫຼາຍກວ່າ XNUMX ໂຄງການ, ໂດຍເນັ້ນໃສ່ສະເພາະກັບ AI/ML. ຄວາມຢາກຮູ້ຢາກເຫັນຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍຍັງໄດ້ດຶງຂ້ອຍໄປສູ່ການປຸງແຕ່ງພາສາທໍາມະຊາດ, ເຊິ່ງຂ້ອຍກະຕືລືລົ້ນທີ່ຈະຄົ້ນຫາຕື່ມອີກ.