ເຊື່ອມຕໍ່ກັບພວກເຮົາ

ປັນຍາປະດິດ

ການຕໍ່ສູ້ຂອງແຫຼ່ງເປີດທຽບກັບຕົວແບບພາສາແຫຼ່ງປິດ: ການວິເຄາະດ້ານວິຊາການ

mm

ຈັດພີມມາ

 on

ແຫຼ່ງເປີດທຽບກັບແຫຼ່ງທີ່ໃກ້ຊິດ LLM

ຮູບແບບພາສາຂະຫນາດໃຫຍ່ (LLMs) ໄດ້ດຶງດູດຊຸມຊົນ AI ໃນຊຸມປີມໍ່ໆມານີ້, ເປັນຈຸດສໍາຄັນໃນການພັດທະນາພາສາທໍາມະຊາດ. ເບື້ອງຫລັງການ hype ແມ່ນການໂຕ້ວາທີທີ່ສັບສົນ - ຮູບແບບທີ່ມີປະສິດທິພາບເຫຼົ່ານີ້ຄວນເປັນແຫຼ່ງເປີດຫຼືແຫຼ່ງປິດບໍ?

ໃນບົດຂຽນນີ້, ພວກເຮົາຈະວິເຄາະຄວາມແຕກຕ່າງທາງວິຊາການລະຫວ່າງວິທີການເຫຼົ່ານີ້ເພື່ອເຂົ້າໃຈໂອກາດແລະຂໍ້ຈໍາກັດໃນແຕ່ລະການສະເຫນີ. ພວກເຮົາຈະກວມເອົາລັກສະນະທີ່ສໍາຄັນຕໍ່ໄປນີ້:

  • ການກໍານົດແຫຼ່ງເປີດທຽບກັບແຫຼ່ງປິດ LLMs
  • ຄວາມໂປ່ງໃສທາງສະຖາປັດຕະຍະກໍາ ແລະການປັບແຕ່ງ
  • ການປຽບທຽບການປະຕິບັດ
  • ຄວາມຕ້ອງການຄອມພິວເຕີ
  • versatility ຄໍາຮ້ອງສະຫມັກ
  • ການ​ເຂົ້າ​ເຖິງ​ແລະ​ໃບ​ອະ​ນຸ​ຍາດ​
  • ຄວາມ​ເປັນ​ສ່ວນ​ຕົວ​ຂອງ​ຂໍ້​ມູນ​ແລະ​ຄວາມ​ລັບ​
  • ສະຫນັບສະຫນູນດ້ານການຄ້າແລະການສະຫນັບສະຫນູນ

ໃນທີ່ສຸດ, ທ່ານຈະມີທັດສະນະທີ່ຈະແຈ້ງກ່ຽວກັບການຊື້ຂາຍທາງດ້ານວິຊາການລະຫວ່າງແຫຼ່ງເປີດແລະແຫຼ່ງປິດ LLMs ເພື່ອນໍາພາຍຸດທະສາດ AI ຂອງທ່ານເອງ. ມາເຊົາກັນເລີຍ!

ການກໍານົດ Open Source vs Closed Source LLMs

LLMs ແຫຼ່ງເປີດມີສະຖາປັດຕະຍະກໍາແບບຈໍາລອງທີ່ສາມາດເຂົ້າເຖິງສາທາລະນະ, ລະຫັດແຫຼ່ງ, ແລະຕົວກໍານົດການນ້ໍາຫນັກ. ນີ້ອະນຸຍາດໃຫ້ນັກຄົ້ນຄວ້າກວດກາພາຍໃນ, ປະເມີນຄຸນນະພາບ, ຜະລິດຄືນຜົນໄດ້ຮັບ, ແລະສ້າງຕົວແປທີ່ກໍາຫນົດເອງ. ຕົວຢ່າງຊັ້ນນໍາປະກອບມີ Anthropic's ConstitutionalAI, Meta's LLaMA, ແລະ EleutherAI's GPT-NeoX.

ໃນທາງກົງກັນຂ້າມ, ແຫຼ່ງປິດ LLMs ປະຕິບັດຕໍ່ສະຖາປັດຕະຍະກໍາແບບຈໍາລອງແລະນ້ໍາຫນັກເປັນຊັບສິນທີ່ເປັນເຈົ້າຂອງ. ຫົວໜ່ວຍການຄ້າເຊັ່ນ: Anthropic, DeepMind, ແລະ OpenAI ພັດທະນາພວກມັນພາຍໃນ. ໂດຍບໍ່ມີລະຫັດທີ່ສາມາດເຂົ້າເຖິງໄດ້ຫຼືລາຍລະອຽດການອອກແບບ, ການແຜ່ພັນແລະການປັບແຕ່ງຕ້ອງມີຄວາມຈໍາກັດ.

ຄວາມໂປ່ງໃສທາງສະຖາປັດຕະຍະກໍາ ແລະການປັບແຕ່ງ

ການເຂົ້າເຖິງແຫຼ່ງເປີດ LLM ພາຍໃນຈະປົດລັອກໂອກາດການປັບແຕ່ງທີ່ເປັນໄປບໍ່ໄດ້ດ້ວຍທາງເລືອກແຫຼ່ງປິດ.

ໂດຍການປັບຕົວແບບສະຖາປັດຕະຍະກໍາ, ນັກຄົ້ນຄວ້າສາມາດຄົ້ນຫາເຕັກນິກຕ່າງໆເຊັ່ນ: ການແນະນໍາການເຊື່ອມຕໍ່ລະຫວ່າງຊັ້ນຕ່າງໆຫຼືການເພີ່ມເຄື່ອງຫມາຍການຈັດປະເພດທີ່ອຸທິດຕົນເພື່ອເພີ່ມປະສິດທິພາບໃນຫນ້າວຽກສະເພາະ. ດ້ວຍການເຂົ້າເຖິງຕົວກໍານົດການນ້ໍາຫນັກ, ນັກພັດທະນາສາມາດໂອນຮຽນຮູ້ການເປັນຕົວແທນທີ່ມີຢູ່ຫຼືເລີ່ມຕົ້ນຕົວແປທີ່ມີການກໍ່ສ້າງທາງສ່ວນຫນ້າຂອງການຝຶກອົບຮົມເຊັ່ນ T5 ແລະ BERT ຝັງ.

ການປັບແຕ່ງນີ້ຊ່ວຍໃຫ້ LLMs ແຫຼ່ງເປີດສາມາດຮັບໃຊ້ໂດເມນພິເສດໄດ້ດີຂຶ້ນເຊັ່ນ: ການຄົ້ນຄວ້າຊີວະວິທະຍາ, ການສ້າງລະຫັດ ແລະການສຶກສາ. ​ເຖິງ​ຢ່າງ​ໃດ​ກໍ​ຕາມ, ຄວາມ​ຊຳນານ​ທີ່​ຈຳ​ເປັນ​ສາມາດ​ຍົກ​ສູງ​ຄວາມ​ຫຍຸ້ງຍາກ​ໃຫ້​ແກ່​ການ​ປະຕິບັດ​ຄຸນ​ນະພາ​ບການ​ຜະລິດ.

ແຫຼ່ງປິດ LLMs ສະເຫນີການປັບແຕ່ງທີ່ຈໍາກັດຍ້ອນວ່າລາຍລະອຽດດ້ານວິຊາການຂອງພວກເຂົາຍັງຄົງເປັນເຈົ້າຂອງ. ຢ່າງໃດກໍຕາມ, ຜູ້ສະຫນັບສະຫນູນຂອງພວກເຂົາຫມັ້ນສັນຍາຊັບພະຍາກອນອັນກວ້າງຂວາງເພື່ອການຄົ້ນຄວ້າແລະການພັດທະນາພາຍໃນ. ລະບົບຜົນໄດ້ຮັບຍູ້ຊອງຈົດຫມາຍກ່ຽວກັບສິ່ງທີ່ເປັນໄປໄດ້ດ້ວຍສະຖາປັດຕະຍະກໍາ LLM ທົ່ວໄປ.

ດັ່ງນັ້ນ, ໃນຂະນະທີ່ມີຄວາມຍືດຫຍຸ່ນຫນ້ອຍ, LLMs ແຫຼ່ງປິດແມ່ນດີເລີດໃນວຽກງານພາສາທໍາມະຊາດທີ່ໃຊ້ໄດ້ຢ່າງກວ້າງຂວາງ. ພວກເຂົາຍັງເຮັດໃຫ້ການລວມເຂົ້າກັນງ່າຍຂຶ້ນໂດຍການສອດຄ່ອງກັບການໂຕ້ຕອບທີ່ຖືກສ້າງຕັ້ງຂຶ້ນເຊັ່ນມາດຕະຖານ OpenAPI.

ການປະເມີນປະສິດທິພາບ

ເຖິງວ່າຈະມີຄວາມໂປ່ງໃສທາງຖາປັດຕະຍະ, ການວັດແທກປະສິດທິພາບ LLM ແຫຼ່ງເປີດແນະນໍາສິ່ງທ້າທາຍ. ຄວາມຢືດຢຸ່ນຂອງພວກມັນເຮັດໃຫ້ການກຳນົດຄ່າທີ່ເປັນໄປໄດ້ນັບບໍ່ຖ້ວນ ແລະຍຸດທະສາດການປັບແຕ່ງ. ມັນຍັງອະນຸຍາດໃຫ້ຕົວແບບທີ່ມີຄໍານໍາຫນ້າເປັນ "ແຫຼ່ງເປີດ" ຕົວຈິງແລ້ວປະກອບມີເຕັກນິກການເປັນເຈົ້າຂອງທີ່ບິດເບືອນການປຽບທຽບ.

ແຫຼ່ງປິດ LLMs ໂອ້ອວດເປົ້າຫມາຍການປະຕິບັດທີ່ກໍານົດໄວ້ຢ່າງຊັດເຈນເປັນຕົວຊີ້ບອກຂອງ backers ຂອງພວກເຂົາແລະໂຄສະນາຂອບເຂດ metric ສະເພາະ. ຕົວຢ່າງ, Anthropic ເຜີຍແຜ່ຄວາມຖືກຕ້ອງຂອງ ConstitutionalAI ກ່ຽວກັບຊຸດບັນຫາ NLU ທີ່ຖືກຄັດເລືອກ. Microsoft ເນັ້ນໃຫ້ເຫັນວິທີ GPT-4 ເໜືອກວ່າພື້ນຖານຂອງມະນຸດຢູ່ໃນຊຸດເຄື່ອງມືຄວາມເຂົ້າໃຈພາສາ SuperGLUE.

ທີ່ເວົ້າວ່າ, ມາດຕະຖານທີ່ກໍານົດແຄບເຫຼົ່ານີ້ໄດ້ປະເຊີນກັບການວິພາກວິຈານສໍາລັບການ overstating ການປະຕິບັດໃນຫນ້າວຽກຕົວຈິງແລະ underpresenting ຄວາມລົ້ມເຫຼວ. ການປະເມີນ LLM ທີ່ບໍ່ມີອະຄະຕິຢ່າງແທ້ຈິງຍັງຄົງເປັນຄໍາຖາມການຄົ້ນຄວ້າເປີດ - ສໍາລັບວິທີການທັງເປີດແລະປິດ.

ຄວາມຕ້ອງການຄອມພິວເຕີ

ການຝຶກອົບຮົມແບບຈໍາລອງພາສາຂະຫນາດໃຫຍ່ຕ້ອງການຊັບພະຍາກອນຄອມພິວເຕີ້ຢ່າງກວ້າງຂວາງ. OpenAI ໄດ້ໃຊ້ເວລາຫຼາຍລ້ານການຝຶກອົບຮົມ GPT-3 ໃນໂຄງສ້າງພື້ນຖານຂອງຄລາວ, ໃນຂະນະທີ່ Anthropic ໄດ້ບໍລິໂພກ GPUs ມູນຄ່າ 10 ລ້ານໂດລາສໍາລັບ ConstitutionalAI.

ບັນຊີລາຍການສໍາລັບຮູບແບບດັ່ງກ່າວບໍ່ລວມເອົາບຸກຄົນສ່ວນໃຫຍ່ແລະທີມງານຂະຫນາດນ້ອຍຈາກຊຸມຊົນແຫຼ່ງເປີດ. ໃນຄວາມເປັນຈິງ, EleutherAI ຕ້ອງເອົາແບບຈໍາລອງ GPT-J ອອກຈາກການເຂົ້າເຖິງສາທາລະນະເນື່ອງຈາກຄ່າໃຊ້ຈ່າຍໃນການໂຮດລະເບີດ.

ໂດຍບໍ່ມີຖົງເລິກ, ບົດເລື່ອງຄວາມສໍາເລັດ LLM ແຫຼ່ງເປີດນໍາໃຊ້ຊັບພະຍາກອນຄອມພິວເຕີທີ່ບໍລິຈາກ. LAION ຄັດສັນແບບຈໍາລອງ LAION-5B ທີ່ເນັ້ນໃສ່ເທັກໂນໂລຢີຂອງເຂົາເຈົ້າໂດຍໃຊ້ຂໍ້ມູນຈາກຝູງຊົນ. ໂຄງການ Anthropic ConstitutionalAI ທີ່ບໍ່ຫວັງຜົນກໍາໄລໄດ້ນໍາໃຊ້ຄອມພິວເຕີ້ອາສາສະຫມັກ.

ການສະຫນັບສະຫນູນດ້ານເຕັກໂນໂລຢີອັນໃຫຍ່ຫຼວງຂອງບໍລິສັດເຊັ່ນ Google, Meta, ແລະ Baidu ສະຫນອງຄວາມພະຍາຍາມແຫຼ່ງປິດຂອງນໍ້າມັນເຊື້ອໄຟທາງດ້ານການເງິນທີ່ຈໍາເປັນເພື່ອອຸດສາຫະກໍາການພັດທະນາ LLM. ອັນນີ້ເຮັດໃຫ້ສາມາດຂະຫຍາຍໄດ້ເຖິງຄວາມຍາວທີ່ບໍ່ສາມາດເຂົ້າໃຈໄດ້ສໍາລັບການລິເລີ່ມຂອງຮາກຖານ - ພຽງແຕ່ເບິ່ງຕົວແບບ Gopher ຂອງ DeepMind's 280 ຕື້ພາລາມິເຕີ.

ຄໍາຮ້ອງສະຫມັກ Versatility

ການປັບແຕ່ງຂອງ LLMs ແຫຼ່ງເປີດໃຫ້ອໍານາດໃນການຮັບມືກັບກໍລະນີການນໍາໃຊ້ທີ່ມີຄວາມຊ່ຽວຊານສູງ. ນັກຄົ້ນຄວ້າສາມາດແກ້ໄຂຕົວແບບພາຍໃນຢ່າງຮຸກຮານເພື່ອເພີ່ມປະສິດທິພາບໃນວຽກງານສະເພາະເຊັ່ນ: ການຄາດຄະເນໂຄງສ້າງທາດໂປຼຕີນ, ການສ້າງເອກະສານລະຫັດ, ແລະການກວດສອບຫຼັກຖານທາງຄະນິດສາດ.

ທີ່ເວົ້າວ່າ, ຄວາມສາມາດໃນການເຂົ້າເຖິງແລະແກ້ໄຂລະຫັດບໍ່ໄດ້ຮັບປະກັນການແກ້ໄຂສະເພາະໂດເມນທີ່ມີປະສິດທິພາບໂດຍບໍ່ມີຂໍ້ມູນທີ່ຖືກຕ້ອງ. ຊຸດຂໍ້ມູນການຝຶກອົບຮົມທີ່ສົມບູນແບບສໍາລັບຄໍາຮ້ອງສະຫມັກແຄບໃຊ້ຄວາມພະຍາຍາມຢ່າງໃຫຍ່ຫຼວງໃນການຮັກສາແລະປັບປຸງໃຫມ່.

ທີ່ນີ້ LLMs ແຫຼ່ງປິດໄດ້ຮັບຜົນປະໂຫຍດຈາກແຫຼ່ງຂໍ້ມູນການຝຶກອົບຮົມຈາກບ່ອນເກັບຂໍ້ມູນພາຍໃນແລະຄູ່ຮ່ວມງານການຄ້າ. ສໍາລັບຕົວຢ່າງ, DeepMind ອະນຸຍາດໃຫ້ຖານຂໍ້ມູນເຊັ່ນ ChEMBL ສໍາລັບເຄມີສາດແລະ UniProt ສໍາລັບທາດໂປຼຕີນເພື່ອຂະຫຍາຍການເຂົ້າເຖິງຄໍາຮ້ອງສະຫມັກ. ການເຂົ້າເຖິງຂໍ້ມູນຂະຫນາດອຸດສາຫະກໍາຊ່ວຍໃຫ້ຕົວແບບເຊັ່ນ Gopher ບັນລຸຄວາມຍືດຫຍຸ່ນທີ່ໂດດເດັ່ນເຖິງວ່າຈະມີຄວາມໂປ່ງໃສທາງສະຖາປັດຕະຍະກໍາ.

ການ​ເຂົ້າ​ເຖິງ​ແລະ​ໃບ​ອະ​ນຸ​ຍາດ​

ການອະນຸຍາດຂອງແຫຼ່ງເປີດ LLMs ສົ່ງເສີມການເຂົ້າເຖິງຟຣີແລະການຮ່ວມມື. ຕົວແບບເຊັ່ນ GPT-NeoX, LLaMA, ແລະ Jurassic-1 Jumbo ໃຊ້ຂໍ້ຕົກລົງເຊັ່ນ Creative Commons ແລະ Apache 2.0 ເພື່ອເຮັດໃຫ້ການຄົ້ນຄວ້າທີ່ບໍ່ແມ່ນການຄ້າແລະການຄ້າຍຸດຕິທໍາ.

ໃນທາງກົງກັນຂ້າມ, LLMs ແຫຼ່ງປິດມີໃບອະນຸຍາດຈໍາກັດທີ່ຈໍາກັດການມີແບບຈໍາລອງ. ຫົວໜ່ວຍການຄ້າຄວບຄຸມການເຂົ້າເຖິງຢ່າງເຂັ້ມງວດເພື່ອປົກປ້ອງແຫຼ່ງລາຍຮັບທີ່ເປັນໄປໄດ້ຈາກ APIs ຄາດຄະເນ ແລະການຮ່ວມມືວິສາຫະກິດ.

ເຂົ້າໃຈໄດ້, ອົງການຈັດຕັ້ງເຊັ່ນ Anthropic ແລະ Cohere ຮັບຜິດຊອບສໍາລັບການເຂົ້າເຖິງ ConstitutionalAI ແລະ Cohere-512 interfaces. ຢ່າງໃດກໍຕາມ, ນີ້ມີຄວາມສ່ຽງຕໍ່ລາຄາອອກໂດເມນການຄົ້ນຄວ້າທີ່ສໍາຄັນ, ການພັດທະນາ skewing ໄປສູ່ອຸດສາຫະກໍາທີ່ໄດ້ຮັບທຶນທີ່ດີ.

ການອອກໃບອະນຸຍາດເປີດກໍ່ເຮັດໃຫ້ເກີດສິ່ງທ້າທາຍເຊັ່ນກັນ, ໂດຍສະເພາະກ່ຽວກັບການໃຫ້ເຫດຜົນ ແລະຄວາມຮັບຜິດຊອບ. ຢ່າງໃດກໍຕາມ, ສໍາລັບກໍລະນີການນໍາໃຊ້ການຄົ້ນຄວ້າ, ສິດເສລີພາບໃນການເຂົ້າເຖິງແຫຼ່ງເປີດສະເຫນີຂໍ້ໄດ້ປຽບທີ່ຈະແຈ້ງ.

ຄວາມ​ເປັນ​ສ່ວນ​ຕົວ​ຂອງ​ຂໍ້​ມູນ​ແລະ​ຄວາມ​ລັບ​

ຊຸດຂໍ້ມູນການຝຶກອົບຮົມສໍາລັບ LLMs ໂດຍປົກກະຕິຈະລວບລວມເນື້ອຫາຈາກແຫຼ່ງອອນໄລນ໌ຕ່າງໆເຊັ່ນຫນ້າເວັບ, ບົດຄວາມວິທະຍາສາດ, ແລະເວທີສົນທະນາ. ອັນນີ້ມີຄວາມສ່ຽງຕໍ່ການເປີດເຜີຍຂໍ້ມູນສ່ວນບຸກຄົນ ຫຼືຂໍ້ມູນທີ່ລະອຽດອ່ອນໃນຜົນໄດ້ຮັບຂອງຕົວແບບ.

ສໍາລັບ LLMs ແຫຼ່ງເປີດ, ການກວດສອບອົງປະກອບຊຸດຂໍ້ມູນສະຫນອງການປົກປ້ອງທີ່ດີທີ່ສຸດຕໍ່ກັບບັນຫາຄວາມລັບ. ການປະເມີນແຫຼ່ງຂໍ້ມູນ, ຂັ້ນຕອນການກັ່ນຕອງ, ແລະເອກະສານກ່ຽວກັບຕົວຢ່າງທີ່ພົບເຫັນໃນລະຫວ່າງການທົດສອບສາມາດຊ່ວຍລະບຸຈຸດອ່ອນໄດ້.

ແຕ່ຫນ້າເສຍດາຍ, ແຫຼ່ງປິດ LLMs ຂັດຂວາງການກວດສອບສາທາລະນະດັ່ງກ່າວ. ແທນທີ່ຈະ, ຜູ້ບໍລິໂພກຕ້ອງອີງໃສ່ຄວາມເຄັ່ງຄັດຂອງຂະບວນການທົບທວນພາຍໃນໂດຍອີງໃສ່ນະໂຍບາຍທີ່ປະກາດ. ສໍາລັບສະພາບການ, Azure Cognitive Services ສັນຍາວ່າຈະກັ່ນຕອງຂໍ້ມູນສ່ວນຕົວໃນຂະນະທີ່ Google ກໍານົດການກວດສອບຄວາມເປັນສ່ວນຕົວຢ່າງເປັນທາງການແລະການຕິດສະຫຼາກຂໍ້ມູນ.

ໂດຍລວມແລ້ວ, LLMs ແຫຼ່ງເປີດໃຫ້ສິດອໍານາດໃນການກໍານົດຄວາມສ່ຽງດ້ານຄວາມລັບໃນລະບົບ AI ທີ່ມີການເຄື່ອນໄຫວຫຼາຍຂຶ້ນກ່ອນທີ່ຂໍ້ບົກພ່ອງເຫຼົ່ານັ້ນຈະປາກົດຂຶ້ນໃນລະດັບຂະຫນາດ. ຄູ່ຮ່ວມງານທີ່ປິດລັບສະເຫນີຄວາມໂປ່ງໃສທີ່ຂ້ອນຂ້າງຈໍາກັດໃນການປະຕິບັດການຈັດການຂໍ້ມູນ.

ການສະໜັບສະໜູນດ້ານການຄ້າ ແລະການຊ່ວຍເຫຼືອ

ທ່າແຮງທີ່ຈະສ້າງລາຍໄດ້ຈາກແຫຼ່ງປິດ LLMs ກະຕຸ້ນການລົງທຶນທາງການຄ້າທີ່ສໍາຄັນສໍາລັບການພັດທະນາແລະການບໍາລຸງຮັກສາ. ຕົວຢ່າງ, ຄາດວ່າຈະມີຜົນຕອບແທນທີ່ມີລາຍໄດ້ຈາກຫຼັກຊັບ Azure AI ຂອງຕົນ, Microsoft ໄດ້ຕົກລົງທີ່ຈະຮ່ວມມືຫຼາຍຕື້ໂດລາກັບ OpenAI ປະມານຮູບແບບ GPT.

ໃນທາງກົງກັນຂ້າມ, LLMs ແຫຼ່ງເປີດແມ່ນອີງໃສ່ອາສາສະຫມັກທີ່ຈັດສັນເວລາສ່ວນຕົວສໍາລັບການດູແລຫຼືການຊ່ວຍເຫຼືອລ້າທີ່ສະຫນອງທຶນໃນໄລຍະສັ້ນ. ຄວາມບໍ່ສົມດຸນຂອງຊັບພະຍາກອນນີ້ມີຄວາມສ່ຽງຕໍ່ຄວາມຕໍ່ເນື່ອງແລະຄວາມຍືນຍົງຂອງໂຄງການແຫຼ່ງເປີດ.

ຢ່າງໃດກໍຕາມ, ອຸປະສັກຕໍ່ການຄ້າຍັງເຮັດໃຫ້ຊຸມຊົນແຫຼ່ງເປີດທີ່ບໍ່ເສຍຄ່າເພື່ອສຸມໃສ່ຄວາມກ້າວຫນ້າທາງດ້ານວິທະຍາສາດຫຼາຍກວ່າກໍາໄລ. ແລະລັກສະນະການແບ່ງແຍກຂອງລະບົບນິເວດທີ່ເປີດ ຫຼຸດຜ່ອນການເອື່ອຍອີງເກີນກວ່າຜົນປະໂຫຍດທີ່ຍືນຍົງຂອງຜູ້ສະຫນັບສະຫນູນຝ່າຍດຽວ.

ໃນທີ່ສຸດ, ແຕ່ລະວິທີການປະຕິບັດການຄ້າຂາຍກັບຊັບພະຍາກອນແລະແຮງຈູງໃຈ. LLMs ແຫຼ່ງທີ່ປິດແລ້ວມີຄວາມສຸກກັບຄວາມປອດໄພດ້ານການສະຫນອງທຶນຫຼາຍກວ່າເກົ່າແຕ່ສຸມໃສ່ອິດທິພົນ. ລະບົບນິເວດເປີດສົ່ງເສີມຄວາມຫຼາກຫຼາຍ ແຕ່ປະສົບກັບຄວາມບໍ່ແນ່ນອນເພີ່ມຂຶ້ນ.

ການນຳທາງ Open Source vs Closed Source LLM Landscape

ການຕັດສິນໃຈລະຫວ່າງ LLMs ທີ່ເປີດຫຼືປິດແມ່ນຮຽກຮ້ອງໃຫ້ມີການຈັດລໍາດັບຄວາມສໍາຄັນຂອງອົງການຈັດຕັ້ງທີ່ກົງກັນເຊັ່ນ: ການປັບແຕ່ງ, ການເຂົ້າຫາ, ແລະການຂະຫຍາຍທີ່ມີຄວາມສາມາດຂອງຕົວແບບ.

ສໍາລັບນັກຄົ້ນຄວ້າ ແລະຜູ້ເລີ່ມຕົ້ນ, ແຫຼ່ງເປີດໃຫ້ການຄວບຄຸມເພີ່ມເຕີມເພື່ອປັບຕົວແບບໃຫ້ກັບວຽກສະເພາະ. ການອອກໃບອະນຸຍາດຍັງອໍານວຍຄວາມສະດວກໃນການແບ່ງປັນຄວາມເຂົ້າໃຈຟຣີໃນທົ່ວຜູ້ຮ່ວມມື. ເຖິງຢ່າງໃດກໍ່ຕາມ, ພາລະຂອງການຈັດຫາຂໍ້ມູນການຝຶກອົບຮົມ ແລະພື້ນຖານໂຄງລ່າງສາມາດທໍາລາຍຄວາມເປັນໄປໄດ້ໃນໂລກຕົວຈິງ.

ໃນທາງກົງກັນຂ້າມ, ແຫຼ່ງປິດ LLMs ສັນຍາວ່າການປັບປຸງຄຸນນະພາບທີ່ໃຫຍ່ໄດ້ຕາມມາລະຍາດຂອງເງິນທຶນທີ່ພຽງພໍແລະຂໍ້ມູນ. ຢ່າງໃດກໍຕາມ, ຂໍ້ຈໍາກັດກ່ຽວກັບການເຂົ້າເຖິງແລະການດັດແກ້ຈໍາກັດຄວາມໂປ່ງໃສທາງວິທະຍາສາດໃນຂະນະທີ່ຜູກມັດການນໍາໄປໃຊ້ກັບແຜນທີ່ຖະຫນົນຂອງຜູ້ຂາຍ.

ໃນທາງປະຕິບັດ, ມາດຕະຖານທີ່ເປີດເຜີຍກ່ຽວກັບສະຖາປັດຕະຍະກໍາ, ຈຸດກວດກາແບບຈໍາລອງ, ແລະຂໍ້ມູນການປະເມີນຜົນສາມາດຊ່ວຍຊົດເຊີຍຂໍ້ເສຍຂອງທັງສອງວິທີການ. ພື້ນຖານທີ່ແບ່ງປັນເຊັ່ນ Transformer ຂອງ Google ຫຼື REALTO ຂອງ Oxford ປັບປຸງການແຜ່ພັນ. ມາດຕະຖານການເຮັດວຽກຮ່ວມກັນເຊັ່ນ ONNX ອະນຸຍາດໃຫ້ປະສົມອົງປະກອບຈາກແຫຼ່ງເປີດແລະປິດ.

ໃນ​ທີ່​ສຸດ​ສິ່ງ​ທີ່​ສໍາ​ຄັນ​ແມ່ນ​ການ​ເລືອກ​ເຄື່ອງ​ມື​ທີ່​ເຫມາະ​ສົມ - ແຫຼ່ງ​ເປີດ​ຫຼື​ປິດ - ສໍາ​ລັບ​ວຽກ​ເຮັດ​ງານ​ທໍາ​ຢູ່​ໃນ​ມື​. ຫົວໜ່ວຍການຄ້າທີ່ສະໜັບສະໜູນແຫຼ່ງປິດ LLMs ມີອິດທິພົນທີ່ບໍ່ສາມາດປະຕິເສດໄດ້. ແຕ່ຄວາມກະຕືລືລົ້ນແລະຫຼັກການຂອງຊຸມຊົນວິທະຍາສາດເປີດຈະສືບຕໍ່ມີບົດບາດສໍາຄັນໃນການຊຸກຍູ້ຄວາມກ້າວຫນ້າຂອງ AI.

ຂ້ອຍໄດ້ໃຊ້ເວລາ 50 ປີທີ່ຜ່ານມາເພື່ອເຂົ້າໄປໃນໂລກທີ່ໜ້າສົນໃຈຂອງການຮຽນຮູ້ເຄື່ອງຈັກ ແລະການຮຽນຮູ້ຢ່າງເລິກເຊິ່ງ. ຄວາມກະຕືລືລົ້ນແລະຄວາມຊໍານານຂອງຂ້ອຍໄດ້ເຮັດໃຫ້ຂ້ອຍປະກອບສ່ວນເຂົ້າໃນໂຄງການວິສະວະກໍາຊອບແວທີ່ຫຼາກຫຼາຍຊະນິດຫຼາຍກວ່າ XNUMX ໂຄງການ, ໂດຍເນັ້ນໃສ່ສະເພາະກັບ AI/ML. ຄວາມຢາກຮູ້ຢາກເຫັນຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍຍັງໄດ້ດຶງຂ້ອຍໄປສູ່ການປຸງແຕ່ງພາສາທໍາມະຊາດ, ເຊິ່ງຂ້ອຍກະຕືລືລົ້ນທີ່ຈະຄົ້ນຫາຕື່ມອີກ.