ກ້ານໃບ ທ່ານສາມາດສ້າງແບບຈໍາລອງພາສາຂະຫນາດໃຫຍ່ເຊັ່ນ ChatGPT ດ້ວຍຄ່າໃຊ້ຈ່າຍເຄິ່ງຫນຶ່ງບໍ? - Unite.AI
ເຊື່ອມຕໍ່ກັບພວກເຮົາ

ປັນຍາປະດິດ

ທ່ານສາມາດສ້າງແບບຈໍາລອງພາສາຂະຫນາດໃຫຍ່ເຊັ່ນ ChatGPT ດ້ວຍຄ່າໃຊ້ຈ່າຍເຄິ່ງຫນຶ່ງບໍ?

mm

ຈັດພີມມາ

 on

ຮູບແບບພາສາຂະຫນາດໃຫຍ່ (LLMs) ເຊັ່ນ GPT-3 ແລະ ChatGPT ໄດ້ປະຕິວັດ AI ໂດຍສະເຫນີຄວາມເຂົ້າໃຈພາສາທໍາມະຊາດແລະຄວາມສາມາດໃນການສ້າງເນື້ອຫາ. ແຕ່ການພັດທະນາຂອງພວກເຂົາມາໃນລາຄາທີ່ຈໍາກັດການເຂົ້າເຖິງແລະການຄົ້ນຄວ້າຕື່ມອີກ. ນັກຄົ້ນຄວ້າຄາດຄະເນວ່າການຝຶກອົບຮົມ GPT-3 ຄ່າໃຊ້ຈ່າຍ OpenAI ປະມານ 5 $ ລ້ານ. ຢ່າງໃດກໍຕາມ, Microsoft ໄດ້ຮັບຮູ້ທ່າແຮງແລະການລົງທຶນ 1 $ ພັນລ້ານ ໃນ 2019 ແລະ 10 $ ພັນລ້ານ ໃນປີ 2023 ໃນບໍລິສັດ OpenAI ຂອງ GPT-3 ແລະບໍລິສັດ ChatGPT.

LLMs ແມ່ນຕົວແບບການຮຽນຮູ້ເຄື່ອງຈັກທີ່ໄດ້ຮັບການຝຶກອົບຮົມກ່ຽວກັບຂໍ້ມູນຂໍ້ຄວາມຢ່າງກວ້າງຂວາງສໍາລັບຄໍາຮ້ອງສະຫມັກ NLP. ພວກເຂົາເຈົ້າແມ່ນອີງໃສ່ຖາປັດຕະຍະການຫັນເປັນແລະນໍາໃຊ້ກົນໄກຄວາມສົນໃຈສໍາລັບວຽກງານ NLP ເຊັ່ນ: ການຕອບຄໍາຖາມ, ການແປພາສາເຄື່ອງຈັກ, ການວິເຄາະຄວາມຮູ້ສຶກ, ແລະອື່ນໆ.

ຄໍາຖາມທີ່ເກີດຂື້ນ: ປະສິດທິພາບຂອງແບບຈໍາລອງຂະຫນາດໃຫຍ່ເຫຼົ່ານີ້ສາມາດເພີ່ມຂຶ້ນໃນຂະນະທີ່ການຫຼຸດຜ່ອນຄ່າໃຊ້ຈ່າຍໃນຄອມພິວເຕີ້ແລະເວລາການຝຶກອົບຮົມໃນເວລາດຽວກັນບໍ?

ວິທີການຫຼາຍເຊັ່ນ: Progressive Neural Networks, ເຄືອຂ່າຍ Morphism, ຄວາມຂະໜານຕົວແບບພາຍໃນຊັ້ນ, ການສືບທອດຄວາມຮູ້, ແລະອື່ນໆ, ໄດ້ຖືກພັດທະນາເພື່ອຫຼຸດຜ່ອນຄ່າໃຊ້ຈ່າຍຄອມພິວເຕີຂອງການຝຶກອົບຮົມເຄືອຂ່າຍ neural. ນະວະນິຍາຍ LiGO ວິທີການ (ຜູ້ປະຕິບັດການຂະຫຍາຍຕົວ Linear) ທີ່ພວກເຮົາຈະປຶກສາຫາລືແມ່ນກໍານົດມາດຕະຖານໃຫມ່. ມັນເຄິ່ງຄ່າໃຊ້ຈ່າຍໃນຄອມພິວເຕີ້ຂອງການຝຶກອົບຮົມ LLMs.

ກ່ອນທີ່ຈະປຶກສາຫາລືກ່ຽວກັບເຕັກນິກນີ້, ການກວດສອບປັດໃຈທີ່ປະກອບສ່ວນເຮັດໃຫ້ລາຄາສູງຂອງ LLMs ແມ່ນມີຄວາມຈໍາເປັນ.

ຄ່າໃຊ້ຈ່າຍໃນການກໍ່ສ້າງແບບຈໍາລອງພາສາຂະຫນາດໃຫຍ່

ສາມຄ່າໃຊ້ຈ່າຍຕົ້ນຕໍສໍາລັບການພັດທະນາ LLMs ມີດັ່ງນີ້:

1. ຊັບພະຍາກອນຄອມພິວເຕີ

ການສ້າງ LLMs ຕ້ອງການຊັບພະຍາກອນຄອມພິວເຕີ້ຂະຫນາດໃຫຍ່ເພື່ອຝຶກອົບຮົມກ່ຽວກັບຊຸດຂໍ້ມູນຂະຫນາດໃຫຍ່. ພວກເຂົາຕ້ອງປະມວນຜົນຫຼາຍຕື້ຕົວກໍານົດການແລະຮຽນຮູ້ຮູບແບບສະລັບສັບຊ້ອນຈາກຂໍ້ມູນຂໍ້ຄວາມຂະຫນາດໃຫຍ່.

ການ​ລົງ​ທຶນ​ໃນ​ຮາດ​ແວ​ພິ​ເສດ​ເຊັ່ນ​: ຫນ່ວຍ​ປະ​ມວນ​ຜົນ​ຮູບ​ພາບ (GPUs) ແລະຫນ່ວຍປະມວນຜົນ Tensor (TPUs) ແມ່ນຈໍາເປັນສໍາລັບການກໍ່ສ້າງແລະການຝຶກອົບຮົມ LLMs ເພື່ອບັນລຸການປະຕິບັດທີ່ທັນສະໄຫມ.

ສໍາລັບຕົວຢ່າງ, GPT-3 ໄດ້ຮັບການຝຶກອົບຮົມກ່ຽວກັບ a supercomputer ດ້ວຍ 10000 GPU ລະດັບວິສາຫະກິດ (H100 ແລະ A100) ແລະ 285,000 CPU cores.

2. ການບໍລິໂພກພະລັງງານ

ຊັບພະຍາກອນຄອມພິວເຕີທີ່ເຂັ້ມຂຸ້ນທີ່ຈໍາເປັນສໍາລັບການກໍ່ສ້າງ LLMs ສົ່ງຜົນໃຫ້ມີການໃຊ້ພະລັງງານຢ່າງຫຼວງຫຼາຍ. ສໍາລັບຕົວຢ່າງ, ການຝຶກອົບຮົມ 175 ຕື້ຕົວກໍານົດການ GPT-3 ໄດ້ 14.8 ວັນ ໃຊ້ 10,000 V100 GPUs, ເທົ່າກັບ 3.55 ລ້ານ GPU ຊົ່ວໂມງ. ການບໍລິໂພກພະລັງງານໃນລະດັບສູງດັ່ງກ່າວກໍ່ມີຜົນກະທົບດ້ານສິ່ງແວດລ້ອມຢ່າງຫຼວງຫຼາຍ.

3. ການເກັບຮັກສາຂໍ້ມູນ & ການຄຸ້ມຄອງ

LLMs ໄດ້ຮັບການຝຶກອົບຮົມກ່ຽວກັບຊຸດຂໍ້ມູນຂະຫນາດໃຫຍ່. ສໍາລັບຕົວຢ່າງ, GPT-3 ໄດ້ຖືກຝຶກອົບຮົມຢູ່ໃນໂຄງສ້າງທີ່ກວ້າງຂວາງ ຂໍ້ມູນ, ລວມທັງການລວບລວມຂໍ້ມູນທົ່ວໄປ, WebText2, Books1, Books2, ແລະ Wikipedia, ໃນບັນດາແຫຼ່ງອື່ນໆ. ການລົງທຶນພື້ນຖານໂຄງລ່າງທີ່ສໍາຄັນແມ່ນຈໍາເປັນເພື່ອເກັບກໍາ, ຈັດການແລະເກັບຮັກສາຊຸດຂໍ້ມູນເຫຼົ່ານີ້.

ນອກຈາກນີ້, ການເກັບຮັກສາຟັງແມ່ນຈໍາເປັນສໍາລັບການເກັບຮັກສາຂໍ້ມູນ, ແລະຄວາມຊໍານານຂອງມະນຸດສໍາລັບການປະມວນຜົນຂໍ້ມູນກ່ອນແລະການຄວບຄຸມສະບັບ. ຍິ່ງໄປກວ່ານັ້ນ, ການຮັບປະກັນວ່າຍຸດທະສາດຂໍ້ມູນຂອງທ່ານປະຕິບັດຕາມກົດລະບຽບເຊັ່ນ GDPR ຍັງເພີ່ມຄ່າໃຊ້ຈ່າຍ.

ເຕັກນິກ LiGO: ຫຼຸດຜ່ອນຄ່າໃຊ້ຈ່າຍໃນການກໍ່ສ້າງຕົວແບບພາສາຂະຫນາດໃຫຍ່ລົງເຄິ່ງຫນຶ່ງ

LiGO (Linear Growth Operator) ແມ່ນເຕັກນິກການປະດິດສ້າງໂດຍນັກຄົ້ນຄວ້າຢູ່ MIT ເພື່ອຫຼຸດຜ່ອນຄ່າໃຊ້ຈ່າຍໃນຄອມພິວເຕີ້ຂອງການຝຶກອົບຮົມ LLMs ໂດຍ 50%. ວິທີການດັ່ງກ່າວປະກອບດ້ວຍການເລີ່ມຕົ້ນການນ້ໍາຫນັກຂອງຕົວແບບຂະຫນາດໃຫຍ່ຈາກແບບຈໍາລອງທີ່ນ້ອຍກ່ອນການຝຶກອົບຮົມ, ເຮັດໃຫ້ການຂະຫຍາຍເຄືອຂ່າຍ neural ທີ່ມີປະສິດທິພາບ.

Yoon Kim, ຜູ້ຂຽນອາວຸໂສຂອງເອກະສານ, ເວົ້າວ່າ:

"ມັນໄດ້ຖືກຄາດຄະເນວ່າຮູບແບບການຝຶກອົບຮົມໃນລະດັບຂອງສິ່ງທີ່ ChatGPT ຖືກສົມມຸດຕິຖານທີ່ຈະດໍາເນີນການສາມາດໃຊ້ເວລາຫຼາຍລ້ານໂດລາສໍາລັບການແລ່ນການຝຶກອົບຮົມຄັ້ງດຽວ. ພວກເຮົາສາມາດປັບປຸງປະສິດທິພາບຂອງວິທີການຝຶກອົບຮົມເຫຼົ່ານີ້, ດັ່ງນັ້ນພວກເຮົາຍັງສາມາດໄດ້ຮັບຮູບແບບທີ່ດີໃນເວລາຫນ້ອຍແລະເງິນຫນ້ອຍ? ພວກ​ເຮົາ​ສະ​ເໜີ​ໃຫ້​ເຮັດ​ສິ່ງ​ນີ້​ໂດຍ​ການ​ນຳ​ໃຊ້​ຕົວ​ແບບ​ພາ​ສາ​ຂະ​ຫນາດ​ນ້ອຍ​ທີ່​ໄດ້​ຮັບ​ການ​ຝຶກ​ອົບ​ຮົມ​ມາ​ກ່ອນ.”

ວິທີການນີ້ຮັກສາຜົນປະໂຫຍດດ້ານການປະຕິບັດຂອງຕົວແບບຂະຫນາດໃຫຍ່ທີ່ມີຄ່າໃຊ້ຈ່າຍໃນຄອມພິວເຕີ້ຫຼຸດລົງແລະເວລາການຝຶກອົບຮົມເມື່ອທຽບກັບການຝຶກອົບຮົມແບບຈໍາລອງຂະຫນາດໃຫຍ່ຈາກ scratch. LiGO ນໍາໃຊ້ຕົວປະຕິບັດການການຂະຫຍາຍຕົວເສັ້ນທີ່ຂັບເຄື່ອນດ້ວຍຂໍ້ມູນເຊິ່ງລວມຕົວປະຕິບັດການຄວາມເລິກແລະຄວາມກວ້າງສໍາລັບການປະຕິບັດທີ່ດີທີ່ສຸດ.

ເອກະສານດັ່ງກ່າວໄດ້ນໍາໃຊ້ຊຸດຂໍ້ມູນຕ່າງໆເພື່ອດໍາເນີນການທົດລອງທີ່ອີງໃສ່ຂໍ້ຄວາມ, ລວມທັງພາສາອັງກິດ Wikipedia corpus ສໍາລັບການຝຶກອົບຮົມແບບຈໍາລອງ BERT ແລະ RoBERTa ແລະຊຸດຂໍ້ມູນ C4 ສໍາລັບການຝຶກອົບຮົມ GPT2.

ການທົດລອງເຕັກນິກ LiGO ລວມມີການຂະຫຍາຍຕົວຂອງ BERT-Small ຫາ BERT-Base, BERT-Base to BERT-Large, RoBERTaSmall to RoBERTa-Base, GPT2-Base to GPT2-Medium, ແລະ CaiT-XS to CaiT-S.

ນັກຄົ້ນຄວ້າໄດ້ປຽບທຽບວິທີການຂອງເຂົາເຈົ້າກັບພື້ນຖານອື່ນໆຈໍານວນຫນຶ່ງ, ລວມທັງການຝຶກອົບຮົມຈາກ scratch, ການຝຶກອົບຮົມກ້າວຫນ້າ, bert2BERT, ແລະ KI.

ເຕັກນິກ LiGO ສະຫນອງການປະຫຍັດ 44.7% ໃນ FLOPs (ການດໍາເນີນງານຈຸດລອຍຕໍ່ວິນາທີ) ແລະປະຫຍັດເວລາກໍາແພງ 40.7% ເມື່ອທຽບກັບການຝຶກອົບຮົມ BERT-Base ຈາກຈຸດເລີ່ມຕົ້ນໂດຍການນໍາໃຊ້ຮູບແບບ BERT-Small ຄືນໃໝ່. ຜູ້ປະກອບການການເຕີບໂຕຂອງ LiGO ດີກວ່າ StackBERT, MSLT, bert2BERT, ແລະ KI ໃນການຝຶກອົບຮົມທີ່ມີປະສິດທິພາບ.

ຜົນປະໂຫຍດຂອງການນໍາໃຊ້ເຕັກນິກການເພີ່ມປະສິດທິພາບການຝຶກອົບຮົມຄືກັບ LiGO

LiGO ແມ່ນວິທີການຝຶກອົບຮົມເຄືອຂ່າຍ neural ທີ່ມີປະສິດທິພາບທີ່ມີຜົນປະໂຫຍດຕ່າງໆທີ່ມີລາຍຊື່ດັ່ງຕໍ່ໄປນີ້:

1. ການຝຶກອົບຮົມໄວຂຶ້ນ

ດັ່ງທີ່ໄດ້ກ່າວກ່ອນຫນ້ານີ້, ການຝຶກອົບຮົມໄວແມ່ນປະໂຫຍດຕົ້ນຕໍຂອງເຕັກນິກ LiGO. ມັນຝຶກອົບຮົມ LLMs ໃນເຄິ່ງເວລາ, ເພີ່ມຜົນຜະລິດແລະການຫຼຸດຜ່ອນຄ່າໃຊ້ຈ່າຍ.

2. ຊັບພະຍາກອນທີ່ມີປະສິດທິພາບ

LiGO ແມ່ນຊັບພະຍາກອນທີ່ມີປະສິດທິພາບເນື່ອງຈາກມັນຫຼຸດຜ່ອນເວລາກໍາແພງຫີນແລະ FLOPs, ນໍາໄປສູ່ວິທີການທີ່ມີປະສິດທິພາບດ້ານຄ່າໃຊ້ຈ່າຍແລະເປັນມິດກັບສິ່ງແວດລ້ອມໃນການຝຶກອົບຮົມຕົວແບບການຫັນປ່ຽນຂະຫນາດໃຫຍ່.

3. ໂດຍທົ່ວໄປ

ເຕັກນິກ LiGO ໄດ້ປັບປຸງການປະຕິບັດຂອງທັງສອງພາສາແລະວິໄສທັດ transformers ແນະນໍາວ່າມັນເປັນເຕັກນິກທົ່ວໄປທີ່ສາມາດຖືກນໍາໃຊ້ກັບວຽກງານຕ່າງໆ.

ການສ້າງຜະລິດຕະພັນ AI ທາງດ້ານການຄ້າແມ່ນພຽງແຕ່ຫນຶ່ງດ້ານຂອງຄ່າໃຊ້ຈ່າຍລວມທີ່ກ່ຽວຂ້ອງກັບລະບົບ AI. ອົງປະກອບທີ່ສໍາຄັນອີກອັນຫນຶ່ງຂອງຄ່າໃຊ້ຈ່າຍແມ່ນມາຈາກການດໍາເນີນງານປະຈໍາວັນ. ສໍາລັບຕົວຢ່າງ, ມັນມີມູນຄ່າ OpenAI ກ່ຽວກັບ $700,000 ທຸກໆມື້ເພື່ອຕອບຄໍາຖາມໂດຍໃຊ້ ChatGPT. ນັກຄົ້ນຄວ້າຄາດວ່າຈະສືບຕໍ່ຂຸດຄົ້ນວິທີການທີ່ເຮັດໃຫ້ LLMs ມີຄ່າໃຊ້ຈ່າຍທີ່ມີປະສິດທິພາບໃນລະຫວ່າງການຝຶກອົບຮົມແລະສາມາດເຂົ້າເຖິງໄດ້ຫຼາຍຂຶ້ນໃນເວລາແລ່ນ.

ສໍາລັບເນື້ອຫາທີ່ກ່ຽວຂ້ອງກັບ AI ເພີ່ມເຕີມ, ເຂົ້າໄປເບິ່ງ unite.ai.