ວິສະວະກໍາດ່ວນ
ການກະຕຸ້ນເຕືອນແບບອະນາລັອກ ແລະ ກັບຄືນ: ກ້າວເຂົ້າສູ່ຄວາມກ້າວໜ້າທີ່ຜ່ານມາໂດຍ Google DeepMind
ການນໍາສະເຫນີ
ວິສະວະກໍາວ່ອງໄວສຸມໃສ່ການວາງແຜນການກະຕຸ້ນເຕືອນທີ່ມີປະສິດທິພາບເພື່ອແນະນໍາຕົວແບບພາສາຂະຫນາດໃຫຍ່ (LLMs) ເຊັ່ນ GPT-4 ໃນການສ້າງການຕອບສະຫນອງທີ່ຕ້ອງການ. ການກະຕຸ້ນເຕືອນທີ່ເຮັດໄດ້ດີສາມາດເປັນຄວາມແຕກຕ່າງລະຫວ່າງຄໍາຕອບທີ່ບໍ່ຊັດເຈນຫຼືບໍ່ຖືກຕ້ອງແລະຄວາມຊັດເຈນ, ຄວາມເຂົ້າໃຈ.
ໃນລະບົບນິເວດທີ່ກວ້າງຂວາງຂອງ AI, ວິສະວະກໍາທັນທີແມ່ນຫນຶ່ງໃນຫຼາຍວິທີການນໍາໃຊ້ເພື່ອສະກັດຂໍ້ມູນທີ່ຖືກຕ້ອງແລະສະພາບການທີ່ກ່ຽວຂ້ອງຫຼາຍຂຶ້ນຈາກຕົວແບບພາສາ. ອື່ນ ໆ ລວມມີເຕັກນິກຕ່າງໆເຊັ່ນ: ການຮຽນຮູ້ການຍິງບໍ່ຫຼາຍປານໃດ, ບ່ອນທີ່ຕົວແບບໄດ້ຖືກຍົກຕົວຢ່າງບາງຢ່າງເພື່ອຊ່ວຍໃຫ້ມັນເຂົ້າໃຈວຽກງານ, ແລະການປັບຕົວແບບລະອຽດ, ບ່ອນທີ່ຕົວແບບໄດ້ຖືກຝຶກອົບຮົມຕື່ມອີກໃນຊຸດຂໍ້ມູນຂະຫນາດນ້ອຍເພື່ອຊ່ຽວຊານການຕອບສະຫນອງຂອງມັນ.
Google DeepMind ບໍ່ດົນມານີ້ໄດ້ຈັດພີມມາສອງເອກະສານທີ່ delve ເຂົ້າໄປໃນວິສະວະກໍາທັນທີທັນໃດແລະທ່າແຮງຂອງຕົນໃນການເສີມຂະຫຍາຍການຕອບສະຫນອງໃນຫຼາຍສະຖານະການ.
ເອກະສານເຫຼົ່ານີ້ແມ່ນສ່ວນຫນຶ່ງຂອງການຂຸດຄົ້ນຢ່າງຕໍ່ເນື່ອງໃນຊຸມຊົນ AI ເພື່ອປັບປຸງແລະເພີ່ມປະສິດທິພາບວິທີທີ່ພວກເຮົາຕິດຕໍ່ສື່ສານກັບຕົວແບບພາສາ, ແລະພວກເຂົາສະຫນອງຄວາມເຂົ້າໃຈໃຫມ່ໃນໂຄງສ້າງການກະຕຸ້ນເຕືອນສໍາລັບການຈັດການຄໍາຖາມທີ່ດີກວ່າແລະການໂຕ້ຕອບຖານຂໍ້ມູນ.
ບົດຄວາມນີ້ delves ເຂົ້າໄປໃນລາຍລະອຽດຂອງເອກະສານຄົ້ນຄ້ວາເຫຼົ່ານີ້, ອະທິບາຍແນວຄວາມຄິດ, ວິທີການ, ແລະຜົນສະທ້ອນຂອງເຕັກນິກການສະເຫນີ, ເຮັດໃຫ້ມັນສາມາດເຂົ້າເຖິງໄດ້ເຖິງແມ່ນວ່າຜູ້ອ່ານທີ່ມີຄວາມຮູ້ຈໍາກັດໃນ AI ແລະ NLP.
ເອກະສານທີ 1: ແບບຈໍາລອງພາສາຂະຫນາດໃຫຍ່ເປັນຕົວຊີ້ບອກເຫດຜົນ
ເອກະສານສະບັບທໍາອິດ, ຫົວຂໍ້ "ແບບຈໍາລອງພາສາຂະຫນາດໃຫຍ່ເປັນເຫດຜົນອະນາລັອກ," ແນະນໍາວິທີການກະຕຸ້ນເຕືອນໃຫມ່ທີ່ມີຊື່ວ່າ "Analogical Prompting". ຜູ້ຂຽນ, Michihiro Yasunaga, Xinyun Chen ແລະຜູ້ອື່ນໆ, ດຶງແຮງບັນດານໃຈຈາກການໃຫ້ເຫດຜົນປຽບທຽບ - ຂະບວນການທາງດ້ານສະຕິປັນຍາທີ່ມະນຸດໃຊ້ປະສົບການທີ່ຜ່ານມາເພື່ອແກ້ໄຂບັນຫາໃຫມ່.
ແນວຄວາມຄິດຫຼັກ ແລະວິທີການ
ການກະຕຸ້ນເຕືອນແບບອະນາລັອກຊຸກຍູ້ໃຫ້ LLMs ສ້າງຕົວຢ່າງທີ່ກ່ຽວຂ້ອງ ຫຼືຄວາມຮູ້ໃນສະພາບການດ້ວຍຕົນເອງກ່ອນທີ່ຈະດໍາເນີນການແກ້ໄຂບັນຫາໃດໜຶ່ງ. ວິທີການນີ້ກໍາຈັດຄວາມຕ້ອງການສໍາລັບຕົວຢ່າງທີ່ຕິດສະຫຼາກ, ສະເຫນີໂດຍທົ່ວໄປແລະຄວາມສະດວກສະບາຍ, ແລະດັດແປງຕົວຢ່າງທີ່ສ້າງຂຶ້ນໃຫ້ກັບແຕ່ລະບັນຫາສະເພາະ, ຮັບປະກັນການປັບຕົວ.
ຕົວຢ່າງທີ່ສ້າງຂຶ້ນເອງ
ເຕັກນິກທໍາອິດທີ່ນໍາສະເຫນີຢູ່ໃນເຈ້ຍແມ່ນຕົວຢ່າງທີ່ສ້າງດ້ວຍຕົນເອງ. ແນວຄວາມຄິດແມ່ນເພື່ອໃຊ້ຄວາມຮູ້ຢ່າງກວ້າງຂວາງທີ່ LLMs ໄດ້ມາໃນລະຫວ່າງການຝຶກອົບຮົມຂອງພວກເຂົາເພື່ອຊ່ວຍໃຫ້ພວກເຂົາແກ້ໄຂບັນຫາໃຫມ່. ຂະບວນການກ່ຽວຂ້ອງກັບການເພີ່ມບັນຫາເປົ້າຫມາຍທີ່ມີຄໍາແນະນໍາທີ່ກະຕຸ້ນໃຫ້ຕົວແບບໃນການເອີ້ນຄືນຫຼືສ້າງບັນຫາທີ່ກ່ຽວຂ້ອງແລະວິທີແກ້ໄຂ.
ສໍາລັບຕົວຢ່າງ, ບັນຫາໃດຫນຶ່ງ, ຮູບແບບໄດ້ຖືກແນະນໍາໃຫ້ຈື່ຈໍາສາມບັນຫາທີ່ແຕກຕ່າງກັນແລະທີ່ກ່ຽວຂ້ອງ, ອະທິບາຍໃຫ້ເຂົາເຈົ້າ, ແລະອະທິບາຍວິທີແກ້ໄຂຂອງເຂົາເຈົ້າ. ຂະບວນການນີ້ໄດ້ຖືກອອກແບບເພື່ອດໍາເນີນການໃນ pass ດຽວ, ໃຫ້ LLM ສ້າງຕົວຢ່າງທີ່ກ່ຽວຂ້ອງແລະແກ້ໄຂບັນຫາເບື້ອງຕົ້ນ seamlessly. ການນໍາໃຊ້ສັນຍາລັກ '#' ໃນການກະຕຸ້ນເຕືອນຊ່ວຍໃນໂຄງສ້າງການຕອບສະຫນອງ, ເຮັດໃຫ້ມັນເປັນລະບຽບແລະງ່າຍສໍາລັບຕົວແບບທີ່ຈະປະຕິບັດຕາມ.
ການຕັດສິນໃຈທາງດ້ານວິຊາການທີ່ສໍາຄັນທີ່ເນັ້ນໃສ່ໃນເອກະສານປະກອບມີການເນັ້ນຫນັກໃສ່ການສ້າງຕົວຢ່າງທີ່ກ່ຽວຂ້ອງແລະຫຼາກຫຼາຍ, ການຮັບຮອງເອົາວິທີການຜ່ານດຽວເພື່ອຄວາມສະດວກຫຼາຍກວ່າເກົ່າ, ແລະການຄົ້ນພົບວ່າການສ້າງຕົວຢ່າງສາມຫາຫ້າໃຫ້ຜົນໄດ້ຮັບທີ່ດີທີ່ສຸດ.
ຄວາມຮູ້ທີ່ສ້າງຂຶ້ນເອງ + ຕົວຢ່າງ
ເຕັກນິກທີສອງ, ຄວາມຮູ້ທີ່ສ້າງຂຶ້ນເອງ + ຕົວຢ່າງ, ໄດ້ຖືກນໍາສະເຫນີເພື່ອແກ້ໄຂບັນຫາສິ່ງທ້າທາຍໃນວຽກງານທີ່ສັບສົນຫຼາຍ, ເຊັ່ນການສ້າງລະຫັດ. ໃນສະຖານະການເຫຼົ່ານີ້, LLMs ອາດຈະອີງໃສ່ຕົວຢ່າງລະດັບຕ່ໍາເກີນໄປແລະຕໍ່ສູ້ເພື່ອສະຫຼຸບໂດຍທົ່ວໄປໃນເວລາທີ່ແກ້ໄຂບັນຫາເປົ້າຫມາຍ. ເພື່ອຫຼຸດຜ່ອນການນີ້, ຜູ້ຂຽນສະເຫນີໃຫ້ປັບປຸງການກະຕຸ້ນເຕືອນດ້ວຍຄໍາແນະນໍາເພີ່ມເຕີມທີ່ຊຸກຍູ້ໃຫ້ຮູບແບບການກໍານົດແນວຄວາມຄິດຫຼັກໃນບັນຫາແລະສະຫນອງການສອນຫຼືການເອົາອອກໃນລະດັບສູງ.
ການພິຈາລະນາທີ່ສໍາຄັນອັນຫນຶ່ງແມ່ນຄໍາສັ່ງທີ່ຈະສ້າງຄວາມຮູ້ແລະຕົວຢ່າງ. ຜູ້ຂຽນພົບວ່າການສ້າງຄວາມຮູ້ກ່ອນທີ່ຈະເປັນຕົວຢ່າງເຮັດໃຫ້ຜົນໄດ້ຮັບທີ່ດີກວ່າ, ຍ້ອນວ່າມັນຊ່ວຍໃຫ້ LLM ສຸມໃສ່ວິທີການແກ້ໄຂບັນຫາພື້ນຖານແທນທີ່ຈະເປັນພຽງແຕ່ຄວາມຄ້າຍຄືກັນໃນລະດັບຫນ້າດິນ.
ຂໍ້ໄດ້ປຽບແລະຄໍາຮ້ອງສະຫມັກ
ວິທີການກະຕຸ້ນແບບປຽບທຽບໃຫ້ຂໍ້ໄດ້ປຽບຫຼາຍຢ່າງ. ມັນສະຫນອງຕົວຢ່າງລາຍລະອຽດຂອງການໃຫ້ເຫດຜົນໂດຍບໍ່ຈໍາເປັນຕ້ອງມີການຕິດສະຫຼາກຄູ່ມື, ການແກ້ໄຂສິ່ງທ້າທາຍທີ່ກ່ຽວຂ້ອງກັບວິທີການ 0-shot ແລະຈໍານວນຫນ້ອຍ-shot chain-of-thought (CoT). ນອກຈາກນັ້ນ, ຕົວຢ່າງທີ່ສ້າງຂຶ້ນແມ່ນເຫມາະສົມກັບບັນຫາສ່ວນບຸກຄົນ, ສະເຫນີຄໍາແນະນໍາທີ່ກ່ຽວຂ້ອງຫຼາຍກ່ວາ CoT ຈໍານວນຫນ້ອຍແບບດັ້ງເດີມ, ເຊິ່ງໃຊ້ຕົວຢ່າງຄົງທີ່.
ເອກະສານສະແດງໃຫ້ເຫັນປະສິດທິພາບຂອງວິທີການນີ້ໃນທົ່ວວຽກງານສົມເຫດສົມຜົນ, ລວມທັງການແກ້ໄຂບັນຫາຄະນິດສາດ, ການສ້າງລະຫັດ, ແລະວຽກງານເຫດຜົນອື່ນໆໃນ BIG-Bench.
ຕາຕະລາງຂ້າງລຸ່ມນີ້ນໍາສະເຫນີການວັດແທກການປະຕິບັດຂອງວິທີການກະຕຸ້ນເຕືອນຕ່າງໆໃນທົ່ວສະຖາປັດຕະຍະກໍາແບບຈໍາລອງທີ່ແຕກຕ່າງກັນ. ໂດຍສະເພາະ, ວິທີການ "ຕົວແບບທີ່ສ້າງຂຶ້ນເອງ" ສະເຫມີ outshines ວິທີການອື່ນໆໃນແງ່ຂອງຄວາມຖືກຕ້ອງ. ໃນຄວາມຖືກຕ້ອງຂອງ GSM8K, ວິທີການນີ້ບັນລຸປະສິດທິພາບສູງສຸດໃນແບບ PaLM2 ທີ່ 81.7%. ເຊັ່ນດຽວກັນ, ສໍາລັບຄວາມຖືກຕ້ອງຂອງ MATH, ມັນຢູ່ເທິງສຸດຂອງຕາຕະລາງໃນ GPT3.5-turbo ຢູ່ 37.3%.
ໃນຕາຕະລາງທີສອງ, ສໍາລັບແບບຈໍາລອງ GPT3.5-turbo-16k ແລະ GPT4, "ຄວາມຮູ້ທີ່ສ້າງຂຶ້ນເອງ + ຕົວຢ່າງ" ສະແດງໃຫ້ເຫັນເຖິງການປະຕິບັດທີ່ດີທີ່ສຸດ.
ເອກະສານທີ 2: ເອົາບາດກ້າວກັບຄືນ: ຖອດຖອນເຫດຜົນຜ່ານຕົວແບບພາສາໃຫຍ່
ພາບລວມ
ເອກະສານທີສອງ, "ເອົາບາດກ້າວກັບຄືນ: ຖອດຖອນເຫດຜົນຜ່ານຕົວແບບພາສາໃຫຍ່” ສະເຫນີ Step-Back Prompting, ເຕັກນິກທີ່ຊຸກຍູ້ໃຫ້ LLMs ມີແນວຄວາມຄິດລະດັບສູງທີ່ບໍ່ມີຕົວຕົນແລະຫຼັກການທໍາອິດຈາກຕົວຢ່າງລາຍລະອຽດ. ຜູ້ຂຽນ, Huaixiu Steven Zheng, Swaroop Mishra, ແລະອື່ນໆມີຈຸດປະສົງເພື່ອປັບປຸງຄວາມສາມາດໃນການສົມເຫດສົມຜົນຂອງ LLMs ໂດຍການຊີ້ນໍາໃຫ້ເຂົາເຈົ້າປະຕິບັດຕາມເສັ້ນທາງສົມເຫດສົມຜົນທີ່ຖືກຕ້ອງໄປສູ່ການແກ້ໄຂ.
ໃຫ້ເຮົາສ້າງຕົວຢ່າງທີ່ງ່າຍກວ່າໂດຍການໃຊ້ຄຳຖາມຄະນິດສາດພື້ນຖານເພື່ອສະແດງເທັກນິກ “ຄຳຖາມຂັ້ນຕອນຫຼັງ”:
Original Question: If a train travels at a speed of 60 km/h and covers a distance of 120 km, how long will it take?
Options:
3 hours
2 hours
1 hour
4 hours
Original Answer [Incorrect]: The correct answer is 1).
Stepback Question: What is the basic formula to calculate time given speed and distance?
Principles:
To calculate time, we use the formula:
Time = Distance / Speed
Final Answer:
Using the formula, Time = 120 km / 60 km/h = 2 hours.
The correct answer is 2) 2 hours.
ເຖິງແມ່ນວ່າ LLMs ໃນປະຈຸບັນສາມາດຕອບຄໍາຖາມຂ້າງເທິງໄດ້ງ່າຍໆ, ຕົວຢ່າງນີ້ແມ່ນພຽງແຕ່ເພື່ອສະແດງໃຫ້ເຫັນວິທີການຂັ້ນຕອນການກັບຄືນຈະເຮັດວຽກ. ສໍາລັບສະຖານະການທີ່ທ້າທາຍຫຼາຍ, ເຕັກນິກດຽວກັນສາມາດຖືກນໍາໃຊ້ເພື່ອຕັດແລະແກ້ໄຂບັນຫາຢ່າງເປັນລະບົບ. ຂ້າງລຸ່ມນີ້ແມ່ນກໍລະນີທີ່ສັບສົນກວ່າທີ່ສະແດງໃຫ້ເຫັນໃນເອກະສານ:
ແນວຄວາມຄິດຫຼັກ ແລະວິທີການ
ໂດຍເນື້ອແທ້ແລ້ວຂອງ Step-Back Prompting ແມ່ນຢູ່ໃນຄວາມສາມາດຂອງມັນທີ່ຈະເຮັດໃຫ້ LLMs ເອົາບາດກ້າວກັບຄືນແບບ metaphorical, ຊຸກຍູ້ໃຫ້ພວກເຂົາເບິ່ງຮູບພາບທີ່ໃຫຍ່ກວ່າແທນທີ່ຈະສູນເສຍລາຍລະອຽດ. ນີ້ແມ່ນບັນລຸໄດ້ໂດຍຜ່ານຊຸດການກະຕຸ້ນເຕືອນຢ່າງລະມັດລະວັງທີ່ນໍາພາ LLMs ໄປສູ່ຂໍ້ມູນທີ່ບໍ່ມີຕົວຕົນ, ມາຈາກແນວຄວາມຄິດລະດັບສູງ, ແລະນໍາໃຊ້ແນວຄວາມຄິດເຫຼົ່ານີ້ເພື່ອແກ້ໄຂບັນຫາທີ່ລະບຸໄວ້.
ຂະບວນການເລີ່ມຕົ້ນດ້ວຍ LLM ໄດ້ຖືກກະຕຸ້ນໃຫ້ລາຍລະອຽດທີ່ບໍ່ມີຕົວຕົນຈາກຕົວຢ່າງທີ່ໃຫ້, ຊຸກຍູ້ໃຫ້ມັນສຸມໃສ່ແນວຄວາມຄິດແລະຫຼັກການພື້ນຖານ. ຂັ້ນຕອນນີ້ແມ່ນສໍາຄັນຍ້ອນວ່າມັນກໍານົດຂັ້ນຕອນສໍາລັບ LLM ເພື່ອເຂົ້າຫາບັນຫາຈາກທັດສະນະທີ່ມີຄວາມເຂົ້າໃຈແລະມີຫຼັກການຫຼາຍຂຶ້ນ.
ເມື່ອແນວຄວາມຄິດລະດັບສູງໄດ້ມາ, ພວກມັນຖືກນໍາໃຊ້ເພື່ອນໍາພາ LLM ໂດຍຜ່ານຂັ້ນຕອນທີ່ສົມເຫດສົມຜົນໄປສູ່ການແກ້ໄຂ. ການຊີ້ນໍານີ້ຮັບປະກັນວ່າ LLM ຢູ່ໃນເສັ້ນທາງທີ່ຖືກຕ້ອງ, ປະຕິບັດຕາມເສັ້ນທາງທີ່ມີເຫດຜົນແລະສອດຄ່ອງກັນທີ່ມີພື້ນຖານໃນແນວຄວາມຄິດແລະຫຼັກການທີ່ບໍ່ມີຕົວຕົນ.
ຜູ້ຂຽນດໍາເນີນການທົດລອງຫຼາຍໆຢ່າງເພື່ອກວດສອບປະສິດທິພາບຂອງ Step-Back Prompting, ໂດຍໃຊ້ຕົວແບບ PaLM-2L ໃນທົ່ວວຽກງານທີ່ທ້າທາຍຫຼາຍດ້ານທີ່ສົມເຫດສົມຜົນ. ວຽກງານເຫຼົ່ານີ້ລວມມີບັນຫາ STEM, Knowledge QA, ແລະ Multi-Hop Reasoning, ສະຫນອງການທົດສອບທີ່ສົມບູນແບບສໍາລັບການປະເມີນເຕັກນິກ.
ການປັບປຸງຢ່າງຫຼວງຫຼາຍໃນທົ່ວວຽກງານ
ຜົນໄດ້ຮັບແມ່ນຫນ້າປະທັບໃຈ, ດ້ວຍ Step-Back Prompting ນໍາໄປສູ່ການເພີ່ມປະສິດທິພາບຢ່າງຫຼວງຫຼາຍໃນທຸກໆຫນ້າວຽກ. ສໍາລັບຕົວຢ່າງ, ເຕັກນິກປັບປຸງການປະຕິບັດຂອງ PaLM-2L ໃນ MMLU Physics ແລະເຄມີສາດໂດຍ 7% ແລະ 11%, ຕາມລໍາດັບ. ເຊັ່ນດຽວກັນ, ມັນເພີ່ມປະສິດທິພາບໃນ TimeQA 27% ແລະ MuSiQue 7%.
ຜົນໄດ້ຮັບເຫຼົ່ານີ້ຊີ້ໃຫ້ເຫັນເຖິງທ່າແຮງຂອງ Step-Back Prompting ເພື່ອເພີ່ມຄວາມສາມາດສົມເຫດສົມຜົນຂອງ LLMs.
ສະຫຼຸບ
ເອກະສານທັງສອງຈາກ Google DeepMind ນໍາສະເຫນີວິທີການປະດິດສ້າງເພື່ອວິສະວະກໍາທັນທີ, ເພື່ອແນໃສ່ເສີມຂະຫຍາຍຄວາມສາມາດໃນການສົມເຫດສົມຜົນຂອງຮູບແບບພາສາຂະຫນາດໃຫຍ່. Analogical Prompting ໝູນໃຊ້ແນວຄວາມຄິດຂອງການໃຫ້ເຫດຜົນແບບປຽບທຽບ, ຊຸກຍູ້ໃຫ້ຕົວແບບໃນການສ້າງຕົວຢ່າງ ແລະ ຄວາມຮູ້ຂອງຕົນເອງ, ນໍາໄປສູ່ການປັບຕົວ ແລະ ປະສິດທິພາບໃນການແກ້ໄຂບັນຫາ. ໃນອີກດ້ານຫນຶ່ງ, Step-Back Prompting ເນັ້ນໃສ່ສິ່ງທີ່ບໍ່ມີຕົວຕົນ, ນໍາພາແບບຈໍາລອງເພື່ອນໍາເອົາແນວຄວາມຄິດແລະຫຼັກການໃນລະດັບສູງ, ເຊິ່ງໃນນັ້ນ, ປັບປຸງຄວາມສາມາດໃນການສົມເຫດສົມຜົນຂອງພວກເຂົາ.
ເອກະສານການຄົ້ນຄວ້າເຫຼົ່ານີ້ສະຫນອງຄວາມເຂົ້າໃຈທີ່ມີຄຸນຄ່າແລະວິທີການທີ່ສາມາດນໍາໃຊ້ໃນທົ່ວໂດເມນຕ່າງໆ, ນໍາໄປສູ່ຮູບແບບພາສາທີ່ສະຫລາດແລະມີຄວາມສາມາດຫຼາຍຂຶ້ນ. ໃນຂະນະທີ່ພວກເຮົາສືບຕໍ່ຄົ້ນຄວ້າ ແລະ ເຂົ້າໃຈຄວາມຊັບຊ້ອນຂອງວິສະວະກຳທີ່ທັນສະໃໝ, ວິທີການເຫຼົ່ານີ້ເຮັດໜ້າທີ່ເປັນແກນກ້າວທີ່ສຳຄັນໄປສູ່ການບັນລຸລະບົບ AI ທີ່ກ້າວໜ້າ ແລະ ທັນສະໄໝກວ່າ.