ກ້ານໃບ Llama 2: ດຳ​ເນີນ​ການ​ລົງ​ເລິກ​ໃນ​ການ​ທ້າ​ທາຍ Open-Source ກັບ ChatGPT - Unite.AI
ເຊື່ອມຕໍ່ກັບພວກເຮົາ

ປັນຍາປະດິດ

Llama 2: A Deep Dive into the Open-Source Challenger to ChatGPT

mm

ຈັດພີມມາ

 on

META LLAMA 2 LLM

ຮູບແບບພາສາຂະຫນາດໃຫຍ່ (LLMs) ມີຄວາມສາມາດໃນວຽກງານທີ່ສົມເຫດສົມຜົນທີ່ສັບສົນໄດ້ສະແດງໃຫ້ເຫັນຄໍາສັນຍາໃນໂດເມນພິເສດເຊັ່ນການຂຽນໂປລແກລມແລະການສ້າງສັນ. ຢ່າງໃດກໍຕາມ, ໂລກຂອງ LLMs ບໍ່ພຽງແຕ່ເປັນຄໍາຂວັນ plug-and-play; ມີຄວາມທ້າທາຍໃນການນຳໃຊ້, ຄວາມປອດໄພ, ແລະຄວາມຕ້ອງການຄອມພິວເຕີ. ໃນບົດຄວາມນີ້, ພວກເຮົາຈະ dive ເລິກເຂົ້າໄປໃນຄວາມສາມາດຂອງ ລາມາ 2, ໃນຂະນະທີ່ສະຫນອງຂັ້ນຕອນລະອຽດສໍາລັບການຕັ້ງຄ່າ LLM ທີ່ມີປະສິດທິພາບສູງນີ້ຜ່ານ Hugging Face ແລະ T4 GPUs ໃນ Google Colab.

ພັດທະນາໂດຍ Meta ກັບການຮ່ວມມືກັບ Microsoft, ຮູບແບບພາສາຂະຫນາດໃຫຍ່ທີ່ເປີດແຫຼ່ງນີ້ມີຈຸດປະສົງເພື່ອກໍານົດຂອບເຂດຂອງ AI ທົ່ວໄປແລະຄວາມເຂົ້າໃຈພາສາທໍາມະຊາດ. Llama 2 ບໍ່ແມ່ນພຽງແຕ່ຕົວແບບສະຖິຕິອື່ນທີ່ໄດ້ຮັບການຝຶກອົບຮົມກ່ຽວກັບຂໍ້ມູນ terabytes; ມັນເປັນສັນຍາລັກຂອງປັດຊະຍາ. ຫນຶ່ງທີ່ເນັ້ນຫນັກເຖິງວິທີການເປີດແຫຼ່ງທີ່ເປັນກະດູກສັນຫຼັງຂອງການພັດທະນາ AI, ໂດຍສະເພາະໃນພື້ນທີ່ AI ການຜະລິດ.

Llama 2 ແລະຕົວແທນທີ່ປັບແຕ່ງໃຫ້ເໝາະສົມ, Llama 2-Chat, ມາພ້ອມກັບຕົວກໍານົດການສູງເຖິງ 70 ຕື້. ເຂົາເຈົ້າຜ່ານຂະບວນການປັບປ່ຽນທີ່ອອກແບບມາເພື່ອຈັດວາງພວກມັນໃຫ້ໃກ້ຊິດກັບຄວາມມັກຂອງມະນຸດ, ເຮັດໃຫ້ມັນມີຄວາມປອດໄພ ແລະມີປະສິດທິພາບຫຼາຍກວ່າແບບຈໍາລອງອື່ນໆທີ່ມີຢູ່ທົ່ວໄປ. ລະດັບຂອງ granularity ໃນການປັບປຸງລະອຽດແມ່ນມັກຈະສະຫງວນໄວ້ສໍາລັບການປິດ "ຜະລິດຕະພັນ" LLMs, ເຊັ່ນ: ສົນທະນາ GPT ແລະ BARD, ເຊິ່ງໂດຍທົ່ວໄປແລ້ວແມ່ນບໍ່ມີສໍາລັບການກວດກາສາທາລະນະຫຼືການປັບແຕ່ງ.

ວິ​ຊາ​ການ​ເລິກ​ຊ​້​ໍາ​ຂອງ Llama 2​

ສໍາລັບການຝຶກອົບຮົມຮູບແບບ Llama 2; ຄືກັບລຸ້ນກ່ອນຂອງມັນ, ມັນໃຊ້ການຖອຍຫຼັງອັດຕະໂນມັດ ຖາປັດຕະຍະການຫັນປ່ຽນ, ການຝຶກອົບຮົມລ່ວງໜ້າກ່ຽວກັບ corpus ຢ່າງກວ້າງຂວາງຂອງຂໍ້ມູນການເບິ່ງແຍງຕົນເອງ. ຢ່າງໃດກໍ່ຕາມ, ມັນເພີ່ມຊັ້ນເພີ່ມເຕີມຂອງຄວາມຊັບຊ້ອນໂດຍໃຊ້ Reinforcement Learning with Human Feedback (RLHF) ເພື່ອໃຫ້ສອດຄ່ອງກັບພຶດຕິກໍາແລະຄວາມມັກຂອງມະນຸດ. ອັນນີ້ແມ່ນມີລາຄາແພງໃນຄອມພິວເຕີ້ ແຕ່ມີຄວາມສຳຄັນຕໍ່ການປັບປຸງຄວາມປອດໄພ ແລະປະສິດທິພາບຂອງຕົວແບບ.

ຖາປັດຕະຍະການຝຶກອົບຮົມ Meta Llama 2

ຖາປັດຕະຍະການຝຶກອົບຮົມ Meta Llama 2

Pretraining & ປະສິດທິພາບຂໍ້ມູນ

ນະວັດຕະກໍາພື້ນຖານຂອງ Llama 2 ແມ່ນຢູ່ໃນລະບົບ pretraining ຂອງມັນ. ຮູບແບບດັ່ງກ່າວໄດ້ຮັບຮູ້ຈາກລຸ້ນກ່ອນ, Llama 1, ແຕ່ແນະນຳການປັບປຸງທີ່ສຳຄັນຫຼາຍອັນເພື່ອຍົກລະດັບປະສິດທິພາບຂອງມັນ. ເປັນທີ່ຫນ້າສັງເກດ, ການເພີ່ມຂຶ້ນ 40% ໃນຈໍານວນ tokens ທັງຫມົດທີ່ໄດ້ຮັບການຝຶກອົບຮົມແລະການຂະຫຍາຍສອງເທົ່າໃນຄວາມຍາວຂອງສະພາບການແມ່ນໂດດເດັ່ນ. ຍິ່ງໄປກວ່ານັ້ນ, ຮູບແບບດັ່ງກ່າວໄດ້ໃຊ້ຄວາມສົນໃຈແບບສອບຖາມແບບກຸ່ມ (GQA) ເພື່ອຂະຫຍາຍການຂະຫຍາຍການອ້າງອີງ.

Supervised Fine-Tuning (SFT) & Reinforcement Learning with Human Feedback (RLHF)

Llama-2-chat ໄດ້ຮັບການປັບປຸງຢ່າງເຂັ້ມງວດໂດຍໃຊ້ທັງ SFT ແລະ Reinforcement Learning with Human Feedback (RLHF). ໃນສະພາບການນີ້, SFT ເຮັດຫນ້າທີ່ເປັນອົງປະກອບທີ່ສໍາຄັນຂອງກອບ RLHF, ປັບປຸງການຕອບສະຫນອງຂອງຕົວແບບເພື່ອໃຫ້ສອດຄ່ອງຢ່າງໃກ້ຊິດກັບຄວາມມັກແລະຄວາມຄາດຫວັງຂອງມະນຸດ.

OpenAI ໄດ້ໃຫ້ຕົວຢ່າງຄວາມເຂົ້າໃຈທີ່ອະທິບາຍວິທີການ SFT ແລະ RLHF ທີ່ໃຊ້ໃນ InstructGPT. ຄືກັນກັບ LLaMa 2, InstructGPT ຍັງໃຊ້ເຕັກນິກການຝຶກອົບຮົມຂັ້ນສູງເຫຼົ່ານີ້ເພື່ອເພີ່ມປະສິດທິພາບຂອງຕົວແບບຂອງມັນ.

ຂັ້ນຕອນທີ 1 ໃນຮູບຂ້າງລຸ່ມນີ້ເນັ້ນໃສ່ Supervised Fine-Tuning (SFT), ໃນຂະນະທີ່ຂັ້ນຕອນຕໍ່ໄປສໍາເລັດຂະບວນການ Reinforcement Learning from Human Feedback (RLHF).

Supervised Fine-Tuning (SFT) ແມ່ນຂະບວນການພິເສດທີ່ແນໃສ່ການເພີ່ມປະສິດທິພາບຂອງຕົວແບບພາສາຂະໜາດໃຫຍ່ (LLM) ທີ່ໄດ້ຮັບການຝຶກອົບຮົມໄວ້ລ່ວງໜ້າສໍາລັບວຽກງານສະເພາະລຸ່ມນໍ້າ. ບໍ່ເຫມືອນກັບວິທີການທີ່ບໍ່ມີການເບິ່ງແຍງ, ເຊິ່ງບໍ່ຈໍາເປັນຕ້ອງມີການກວດສອບຂໍ້ມູນ, SFT ໃຊ້ຊຸດຂໍ້ມູນທີ່ໄດ້ຮັບການກວດສອບກ່ອນແລະຕິດສະຫຼາກ.

ໂດຍທົ່ວໄປແລ້ວການສ້າງຊຸດຂໍ້ມູນເຫຼົ່ານີ້ແມ່ນມີຄ່າໃຊ້ຈ່າຍຫຼາຍ ແລະໃຊ້ເວລາຫຼາຍ. ວິທີການ Llama 2 ແມ່ນຄຸນນະພາບຫຼາຍກວ່າປະລິມານ. ດ້ວຍພຽງແຕ່ 27,540 ຄໍາບັນຍາຍ, ທີມງານຂອງ Meta ໄດ້ບັນລຸລະດັບການປະຕິບັດທີ່ແຂ່ງຂັນກັບຜູ້ບັນຍາຍຂອງມະນຸດ. ນີ້ສອດຄ່ອງດີກັບ ການສຶກສາທີ່ຜ່ານມາ ສະແດງໃຫ້ເຫັນວ່າເຖິງແມ່ນວ່າຊຸດຂໍ້ມູນທີ່ຈໍາກັດແຕ່ສະອາດສາມາດຂັບລົດຜົນໄດ້ຮັບທີ່ມີຄຸນນະພາບສູງ.

ໃນຂະບວນການ SFT, LLM ທີ່ໄດ້ຮັບການຝຶກອົບຮົມລ່ວງໜ້າຈະຖືກເປີດເຜີຍຕໍ່ກັບຊຸດຂໍ້ມູນທີ່ມີປ້າຍກຳກັບ, ບ່ອນທີ່ລະບົບການຮຽນຮູ້ທີ່ມີການເບິ່ງແຍງກວດກາ. ນ້ຳໜັກພາຍໃນຂອງຕົວແບບແມ່ນຖືກຄິດໄລ່ຄືນໃໝ່ໂດຍອ້າງອີງຈາກລະດັບຄວາມສູງທີ່ຄິດໄລ່ຈາກຟັງຊັນການສູນເສຍສະເພາະໜ້າວຽກ. ຟັງຊັນການສູນເສຍນີ້ປະເມີນຄວາມແຕກຕ່າງລະຫວ່າງຜົນໄດ້ຮັບທີ່ຄາດຄະເນຂອງຕົວແບບແລະປ້າຍຊື່ຄວາມຈິງ.

ການເພີ່ມປະສິດທິພາບນີ້ເຮັດໃຫ້ LLM ສາມາດເຂົ້າໃຈຮູບແບບທີ່ສັບສົນ ແລະຄວາມແຕກຕ່າງທີ່ຝັງຢູ່ໃນຊຸດຂໍ້ມູນທີ່ຕິດສະຫຼາກ. ດັ່ງນັ້ນ, ຮູບແບບດັ່ງກ່າວບໍ່ພຽງແຕ່ເປັນເຄື່ອງມືທົ່ວໄປ, ແຕ່ພັດທະນາໄປສູ່ຊັບສິນພິເສດ, ຊໍານິຊໍານານໃນການປະຕິບັດວຽກງານເປົ້າຫມາຍທີ່ມີຄວາມຖືກຕ້ອງສູງ.

ການເສີມສ້າງການຮຽນຮູ້ແມ່ນບາດກ້າວຕໍ່ໄປ, ແນໃສ່ການຈັດລຽງພຶດຕິກຳຕົວແບບກັບຄວາມມັກຂອງມະນຸດໃຫ້ໃກ້ຊິດກວ່າ.

ໄລຍະການປັບປ່ຽນໄດ້ໃຊ້ການເສີມສ້າງການຮຽນຮູ້ຈາກຄວາມຄິດເຫັນຂອງມະນຸດ (RLHF), ການໃຊ້ເຕັກນິກເຊັ່ນ: ການເກັບຕົວຢ່າງຄວາມສໍາຄັນ ແລະ ການເພີ່ມປະສິດທິພາບນະໂຍບາຍໃກ້ຄຽງ ເພື່ອແນະນໍາສິ່ງລົບກວນ algorithmic, ດັ່ງນັ້ນຈຶ່ງຫລີກລ້ຽງ optima ທ້ອງຖິ່ນ. ການປັບປຸງແບບຊໍ້າໆນີ້ບໍ່ພຽງແຕ່ປັບປຸງຕົວແບບເທົ່ານັ້ນ ແຕ່ຍັງເຮັດໃຫ້ຜົນຜະລິດຂອງມັນສອດຄ່ອງກັບຄວາມຄາດຫວັງຂອງມະນຸດ.

Llama 2-Chat ໄດ້ໃຊ້ໂປຣໂຕຄອນການປຽບທຽບແບບຄູ່ເພື່ອເກັບກຳຂໍ້ມູນຄວາມມັກຂອງມະນຸດ, ເຊິ່ງໝາຍເຖິງທ່າອ່ຽງທີ່ໂດດເດັ່ນຕໍ່ກັບວິທີການທີ່ມີຄຸນນະພາບຫຼາຍຂຶ້ນ. ກົນໄກນີ້ໄດ້ແຈ້ງໃຫ້ຕົວແບບຈໍາລອງລາງວັນ, ເຊິ່ງຫຼັງຈາກນັ້ນຖືກນໍາໃຊ້ເພື່ອປັບຕົວແບບ AI ການສົນທະນາ.

Ghost ເອົາ ໃຈ ໃສ່: ການ ສົນ ທະ ນາ ຫຼາຍ ຫັນ

Meta ໄດ້ນໍາສະເຫນີຄຸນສົມບັດໃຫມ່, Ghost Attention (GAtt) ເຊິ່ງຖືກອອກແບບມາເພື່ອເພີ່ມປະສິດທິພາບຂອງ Llama 2 ໃນການສົນທະນາຫຼາຍຄັ້ງ. ອັນນີ້ຊ່ວຍແກ້ໄຂບັນຫາທີ່ຍັງຄົງຄ້າງຂອງການສູນເສຍບໍລິບົດໃນການສົນທະນາຢ່າງຕໍ່ເນື່ອງ. GAtt ປະຕິບັດຄືກັບສະມໍ, ເຊື່ອມຕໍ່ຄໍາແນະນໍາເບື້ອງຕົ້ນກັບທຸກຂໍ້ຄວາມຂອງຜູ້ໃຊ້ຕໍ່ມາ. ຄຽງຄູ່ກັບເຕັກນິກການຮຽນຮູ້ການເສີມສ້າງ, ມັນຊ່ວຍໃນການຜະລິດຄໍາຕອບທີ່ສອດຄ່ອງ, ທີ່ກ່ຽວຂ້ອງ, ແລະສອດຄ່ອງກັບຜູ້ໃຊ້ຫຼາຍກວ່າການສົນທະນາທີ່ຍາວກວ່າ.

ຈາກ Meta Git Repository ໂດຍໃຊ້ download.sh

  1. ໄປຢ້ຽມຢາມເວັບໄຊທ໌ Meta: ນຳ ທາງໄປຫາ ເວັບໄຊທ໌ຢ່າງເປັນທາງການຂອງ Meta Llama 2 ແລະ​ໃຫ້​ຄລິກ​ໃສ່ 'ດາວ​ໂຫລດ​ຮູບ​ແບບ​ໄດ້​'
  2. ຕື່ມຂໍ້ມູນໃສ່ໃນລາຍລະອຽດ: ອ່ານຜ່ານແລະຍອມຮັບຂໍ້ກໍານົດແລະເງື່ອນໄຂເພື່ອດໍາເນີນການ.
  3. ການຢັ້ງຢືນອີເມວ: ເມື່ອແບບຟອມຖືກສົ່ງ, ທ່ານຈະໄດ້ຮັບອີເມວຈາກ Meta ທີ່ມີລິ້ງເພື່ອດາວໂຫລດຮູບແບບຈາກບ່ອນເກັບ git ຂອງພວກເຂົາ.
  4. ປະຕິບັດ download.sh: Clone the Git repository and execute the download.sh ສະຄຣິບ. ສະຄຣິບນີ້ຈະເຕືອນໃຫ້ທ່ານພິສູດຢືນຢັນໂດຍໃຊ້ URL ຈາກ Meta ທີ່ໝົດອາຍຸໃນ 24 ຊົ່ວໂມງ. ນອກນັ້ນທ່ານຍັງຈະເລືອກຂະຫນາດຂອງຕົວແບບ - 7B, 13B, ຫຼື 70B.

ຈາກ Hugging Face

  1. ໄດ້ຮັບອີເມວການຍອມຮັບ: ຫຼັງຈາກໄດ້ຮັບການເຂົ້າເຖິງຈາກ Meta, ໄປຫາ ໃບຫນ້າກອດ.
  2. ຂໍການເຂົ້າເຖິງ: ເລືອກຮູບແບບທີ່ທ່ານຕ້ອງການແລະສົ່ງຄໍາຮ້ອງຂໍເພື່ອອະນຸຍາດໃຫ້ເຂົ້າເຖິງ.
  3. ການຢືນຢັນ: ຄາດວ່າຈະມີອີເມວ 'ອະນຸຍາດເຂົ້າເຖິງ' ພາຍໃນ 1-2 ມື້.
  4. ສ້າງໂທເຄັນການເຂົ້າເຖິງ: ທ່ອງໄປຫາ 'Settings' ໃນບັນຊີ Hugging Face ຂອງທ່ານເພື່ອສ້າງ tokens ການເຂົ້າເຖິງ.

ການປ່ອຍ Transformers 4.31 ແມ່ນເຂົ້າກັນໄດ້ຢ່າງເຕັມສ່ວນກັບ LLaMa 2 ແລະເປີດເຄື່ອງມືແລະການທໍາງານຫຼາຍຢ່າງພາຍໃນລະບົບນິເວດ Hugging Face. ຈາກ​ການ​ຝຶກ​ອົບ​ຮົມ​ແລະ inference scripts ກັບ 4-bit quantization ກັບ bitsandbytes ແລະ Parameter Efficient Fine-tuning (PEFT), ຊຸດເຄື່ອງມືແມ່ນກວ້າງຂວາງ. ເພື່ອເລີ່ມຕົ້ນ, ໃຫ້ແນ່ໃຈວ່າທ່ານຢູ່ໃນການປ່ອຍ Transformers ຫຼ້າສຸດ ແລະເຂົ້າສູ່ລະບົບບັນຊີ Hugging Face ຂອງທ່ານ.

ນີ້ແມ່ນ ຄຳ ແນະ ນຳ ທີ່ຄ່ອງແຄ້ວໃນການແລ່ນຕົວແບບ LLaMa 2 inference in a google colab ສະພາບແວດລ້ອມ, ການໃຊ້ GPU runtime:

Google Colab Model - T4 GPU

Google Colab Model – T4 GPU

 

 

 

 

 

 

ການຕິດຕັ້ງຊຸດ

!pip install transformers
!huggingface-cli login

ນໍາເຂົ້າຫ້ອງສະຫມຸດ Python ທີ່ຈໍາເປັນ.

from transformers import AutoTokenizer
import transformers
import torch

ເລີ່ມຕົ້ນຕົວແບບ ແລະໂຕເຄນເຊີ

ໃນຂັ້ນຕອນນີ້, ໃຫ້ລະບຸຕົວແບບ Llama 2 ທີ່ເຈົ້າຈະໃຊ້. ສໍາລັບຄໍາແນະນໍານີ້, ພວກເຮົາໃຊ້ meta-llama/Llama-2-7b-chat-hf.

model = "meta-llama/Llama-2-7b-chat-hf"
tokenizer = AutoTokenizer.from_pretrained(model)

ຕັ້ງທໍ່

ໃຊ້ທໍ່ Hugging Face ສໍາລັບການສ້າງຂໍ້ຄວາມທີ່ມີການຕັ້ງຄ່າສະເພາະ:

pipeline = transformers.pipeline(
    "text-generation",
    model=model,
    torch_dtype=torch.float16,
    device_map="auto")

ສ້າງລໍາດັບຂໍ້ຄວາມ

ສຸດທ້າຍ, ດໍາເນີນການທໍ່ແລະສ້າງລໍາດັບຂໍ້ຄວາມໂດຍອີງໃສ່ຂໍ້ມູນຂອງທ່ານ:

sequences = pipeline(
    'Who are the key contributors to the field of artificial intelligence?\n',
    do_sample=True,
    top_k=10,
    num_return_sequences=1,
    eos_token_id=tokenizer.eos_token_id,
    max_length=200)
for seq in sequences:
    print(f"Result: {seq['generated_text']}")

UI ຂອງ A16Z ສໍາລັບ LLaMa 2

Andreessen Horowitz (A16Z) ບໍ່ດົນມານີ້ໄດ້ເປີດຕົວການໂຕ້ຕອບ chatbot ແບບ Streamlit ທີ່ທັນສະ ໄໝ ເໝາະ ສົມກັບ Llama 2. Hosted on GitHub, UI ນີ້ຮັກສາປະຫວັດການສົນທະນາຂອງເຊດຊັນແລະຍັງໃຫ້ຄວາມຍືດຫຍຸ່ນໃນການເລືອກຈາກຫຼາຍຈຸດສິ້ນສຸດຂອງ Llama 2 API ທີ່ໂຮດຢູ່ໃນ ຈຳ ລອງ. ການອອກແບບທີ່ເນັ້ນຜູ້ໃຊ້ເປັນສູນກາງນີ້ມີຈຸດປະສົງເພື່ອເຮັດໃຫ້ການໂຕ້ຕອບກັບ Llama 2 ງ່າຍຂຶ້ນ, ເຮັດໃຫ້ມັນເປັນເຄື່ອງມືທີ່ເຫມາະສົມສໍາລັບທັງນັກພັດທະນາແລະຜູ້ໃຊ້ສຸດທ້າຍ. ສໍາລັບຜູ້ທີ່ສົນໃຈໃນປະສົບການນີ້, ການສາທິດສົດແມ່ນມີຢູ່ Llama2.ai.

Llama 2: ສິ່ງທີ່ເຮັດໃຫ້ມັນແຕກຕ່າງຈາກ GPT Models ແລະ Llama 1 predecessor ຂອງມັນ?

ຄວາມຫຼາກຫຼາຍໃນຂະໜາດ

ບໍ່ເຫມືອນກັບຕົວແບບພາສາຈໍານວນຫຼາຍທີ່ສະຫນອງການຂະຫຍາຍທີ່ຈໍາກັດ, Llama 2 ໃຫ້ທ່ານມີຫຼາຍທາງເລືອກທີ່ແຕກຕ່າງກັນສໍາລັບຕົວແບບທີ່ມີຕົວກໍານົດການທີ່ແຕກຕ່າງກັນ. ຮູບແບບດັ່ງກ່າວມີຂະຫນາດຈາກ 7 ຕື້ຫາ 70 ຕື້ພາລາມິເຕີ, ດັ່ງນັ້ນຈຶ່ງສະຫນອງການກໍານົດຂອບເຂດທີ່ເຫມາະສົມກັບຄວາມຕ້ອງການຄອມພິວເຕີ້ທີ່ຫຼາກຫຼາຍ.

ປັບປຸງຄວາມຍາວຂອງເນື້ອໃນ

ຮູບແບບດັ່ງກ່າວມີຄວາມຍາວບໍລິບົດເພີ່ມຂຶ້ນຂອງ 4K tokens ກ່ວາ Llama 1. ນີ້ອະນຸຍາດໃຫ້ສາມາດເກັບຂໍ້ມູນເພີ່ມເຕີມ, ດັ່ງນັ້ນການເພີ່ມຄວາມສາມາດໃນການເຂົ້າໃຈແລະສ້າງເນື້ອຫາສະລັບສັບຊ້ອນແລະກວ້າງຂວາງ.

ການໃສ່ໃຈແບບສອບຖາມເປັນກຸ່ມ (GQA)

ສະຖາປັດຕະຍະກໍາໃຊ້ແນວຄວາມຄິດຂອງ GQA, ອອກແບບມາເພື່ອເລັ່ງຂະບວນການຄິດໄລ່ຄວາມສົນໃຈໂດຍການຈັດເກັບຄູ່ token ທີ່ຜ່ານມາ. ອັນນີ້ຊ່ວຍປັບປຸງການຂະຫຍາຍຕົວແບບ inference ໄດ້ຢ່າງມີປະສິດທິພາບ ເພື່ອເພີ່ມການເຂົ້າເຖິງ.

ມາດຕະຖານການປະຕິບັດ

ການວິເຄາະການປະຕິບັດການປຽບທຽບຂອງ Llama 2-Chat Models ກັບ ChatGPT ແລະຄູ່ແຂ່ງອື່ນໆ

ການວິເຄາະປະສິດທິພາບຂອງ Llama 2-Chat Models ກັບ ChatGPT ແລະຄູ່ແຂ່ງອື່ນໆ

LLama 2 ໄດ້ກໍານົດມາດຕະຖານໃຫມ່ໃນການວັດແທກການປະຕິບັດ. ມັນບໍ່ພຽງແຕ່ດີກວ່າລຸ້ນກ່ອນ, LLama 1 ແຕ່ຍັງສະຫນອງການແຂ່ງຂັນທີ່ສໍາຄັນກັບແບບອື່ນໆເຊັ່ນ Falcon ແລະ GPT-3.5.

ຮູບແບບທີ່ໃຫຍ່ທີ່ສຸດຂອງ Llama 2-Chat, 70B, ຍັງດີກວ່າ ChatGPT ໃນ 36% ຂອງຕົວຢ່າງ ແລະກົງກັບການປະຕິບັດໃນອີກ 31.5% ຂອງກໍລະນີ. ທີ່ມາ: Paper

ແຫຼ່ງເປີດ: ພະລັງງານຂອງຊຸມຊົນ

Meta ແລະ Microsoft ຕັ້ງໃຈໃຫ້ Llama 2 ເປັນຫຼາຍກ່ວາພຽງແຕ່ຜະລິດຕະພັນ; ເຂົາເຈົ້າຄິດວ່າມັນເປັນເຄື່ອງມືທີ່ຂັບເຄື່ອນໂດຍຊຸມຊົນ. Llama 2 ແມ່ນບໍ່ເສຍຄ່າເພື່ອເຂົ້າເຖິງສໍາລັບທັງການຄົ້ນຄວ້າແລະຈຸດປະສົງທີ່ບໍ່ແມ່ນການຄ້າ. ເຫຼົ່ານີ້ແມ່ນມີຈຸດປະສົງເພື່ອປະຊາທິປະໄຕຄວາມສາມາດຂອງ AI, ເຮັດໃຫ້ມັນສາມາດເຂົ້າເຖິງການເລີ່ມຕົ້ນ, ນັກຄົ້ນຄວ້າ, ແລະທຸລະກິດ. ແຜນວາດໂອເພນຊອດອະນຸຍາດໃຫ້ໃຊ້ 'ການແກ້ໄຂບັນຫາຈາກແຫຼ່ງທີ່ມາຂອງຕົວແບບ'. ນັກພັດທະນາແລະນັກຈັນຍາບັນ AI ສາມາດທົດສອບຄວາມກົດດັນ, ກໍານົດຈຸດອ່ອນ, ແລະສະເຫນີການແກ້ໄຂໃນຈັງຫວະທີ່ເລັ່ງ.

ໃນຂະນະທີ່ເງື່ອນໄຂການອອກໃບອະນຸຍາດສໍາລັບ LLaMa 2 ໂດຍທົ່ວໄປແມ່ນອະນຸຍາດ, ຍົກເວັ້ນ ມີຢູ່. ວິສາຫະກິດຂະຫນາດໃຫຍ່ທີ່ມີຜູ້ໃຊ້ປະຈໍາເດືອນຫຼາຍກວ່າ 700 ລ້ານຄົນ, ເຊັ່ນ Google, ຮຽກຮ້ອງໃຫ້ມີການອະນຸຍາດຢ່າງຊັດເຈນຈາກ Meta ສໍາລັບການນໍາໃຊ້ຂອງມັນ. ນອກຈາກນັ້ນ, ໃບອະນຸຍາດຫ້າມໃຊ້ LLaMa 2 ສໍາລັບການປັບປຸງຮູບແບບພາສາອື່ນໆ.

ສິ່ງທ້າທາຍໃນປະຈຸບັນກັບ Llama 2

  1. ຂໍ້ມູນທົ່ວໄປ: ທັງສອງ Llama 2 ແລະ GPT-4 ບາງຄັ້ງກໍ່ລົ້ມລົງໃນການປະຕິບັດທີ່ສູງເທົ່າທຽມກັນໃນທົ່ວວຽກງານທີ່ຫຼາກຫຼາຍ. ຄຸນນະພາບຂໍ້ມູນແລະຄວາມຫຼາກຫຼາຍແມ່ນເປັນຈຸດສໍາຄັນເທົ່າກັບປະລິມານໃນສະຖານະການເຫຼົ່ານີ້.
  2. ຄວາມໂປ່ງໃສແບບຈໍາລອງ: ເນື່ອງຈາກຄວາມເສຍປຽບກ່ອນຫນ້າກັບ AI ຜະລິດຜົນຜະລິດທີ່ເຂົ້າໃຈຜິດ, ການຂຸດຄົ້ນເຫດຜົນການຕັດສິນໃຈທີ່ຢູ່ເບື້ອງຫລັງແບບຈໍາລອງທີ່ສັບສົນເຫຼົ່ານີ້ແມ່ນສໍາຄັນທີ່ສຸດ.

Code Llama – ການເປີດຕົວຫຼ້າສຸດຂອງ Meta

Meta ປະກາດເມື່ອບໍ່ດົນມານີ້ ລະຫັດ Llama ເຊິ່ງເປັນຕົວແບບພາສາຂະຫນາດໃຫຍ່ທີ່ມີຄວາມຊ່ຽວຊານໃນການຂຽນໂປຼແກຼມທີ່ມີຂະຫນາດພາລາມິເຕີຕັ້ງແຕ່ 7B ຫາ 34B. ຄ້າຍ​ຄື​ກັບ ຕົວແປລະຫັດ ChatGPT; ລະຫັດ Llama ສາມາດປັບປຸງຂະບວນການເຮັດວຽກຂອງຜູ້ພັດທະນາແລະເຮັດໃຫ້ການຂຽນໂປຼແກຼມເຂົ້າເຖິງໄດ້ຫຼາຍຂຶ້ນ. ມັນຮອງຮັບພາສາການຂຽນໂປລແກລມຕ່າງໆແລະມາໃນຮູບແບບພິເສດ, ເຊັ່ນ: Code Llama-Python ສໍາລັບວຽກງານສະເພາະ Python. ຮູບແບບດັ່ງກ່າວຍັງສະຫນອງລະດັບການປະຕິບັດທີ່ແຕກຕ່າງກັນເພື່ອຕອບສະຫນອງຄວາມຕ້ອງການ latency ທີ່ມີຄວາມຫຼາກຫຼາຍ. ມີໃບອະນຸຍາດຢ່າງເປີດເຜີຍ, Code Llama ເຊີນການປ້ອນຂໍ້ມູນຊຸມຊົນເພື່ອການປັບປຸງຢ່າງຕໍ່ເນື່ອງ.

ແນະນຳ Code Llama, ເຄື່ອງມື AI ສຳລັບການເຂົ້າລະຫັດ

ສະຫຼຸບ

ບົດ​ຄວາມ​ນີ້​ໄດ້​ຍ່າງ​ໃຫ້​ທ່ານ​ໂດຍ​ຜ່ານ​ການ​ຕັ້ງ​ຮູບ​ແບບ Llama 2 ສໍາ​ລັບ​ການ​ຜະ​ລິດ​ຂໍ້​ຄວາມ​ໃນ Google Colab ທີ່​ມີ​ການ​ຮອງ​ຮັບ Hugging Face​. ການປະຕິບັດຂອງ Llama 2 ແມ່ນການຂັບເຄື່ອນດ້ວຍເຕັກນິກຂັ້ນສູງຈາກສະຖາປັດຕະຍະກຳການຫັນປ່ຽນອັດຕະໂນມັດໄປສູ່ການຮຽນຮູ້ການເສີມສ້າງດ້ວຍຄຳຕິຊົມຂອງມະນຸດ (RLHF). ມີເຖິງ 70 ພັນລ້ານພາລາມິເຕີ ແລະລັກສະນະຕ່າງໆເຊັ່ນ Ghost Attention, ຮູບແບບນີ້ປະຕິບັດໄດ້ມາດຕະຖານອຸດສາຫະກໍາໃນປະຈຸບັນໃນບາງຂົງເຂດ, ແລະດ້ວຍລັກສະນະເປີດຂອງມັນ, ມັນປູທາງໄປສູ່ຍຸກໃຫມ່ໃນຄວາມເຂົ້າໃຈພາສາທໍາມະຊາດ ແລະ AI ການຜະລິດ.

ຂ້ອຍໄດ້ໃຊ້ເວລາ 50 ປີທີ່ຜ່ານມາເພື່ອເຂົ້າໄປໃນໂລກທີ່ໜ້າສົນໃຈຂອງການຮຽນຮູ້ເຄື່ອງຈັກ ແລະການຮຽນຮູ້ຢ່າງເລິກເຊິ່ງ. ຄວາມກະຕືລືລົ້ນແລະຄວາມຊໍານານຂອງຂ້ອຍໄດ້ເຮັດໃຫ້ຂ້ອຍປະກອບສ່ວນເຂົ້າໃນໂຄງການວິສະວະກໍາຊອບແວທີ່ຫຼາກຫຼາຍຊະນິດຫຼາຍກວ່າ XNUMX ໂຄງການ, ໂດຍເນັ້ນໃສ່ສະເພາະກັບ AI/ML. ຄວາມຢາກຮູ້ຢາກເຫັນຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍຍັງໄດ້ດຶງຂ້ອຍໄປສູ່ການປຸງແຕ່ງພາສາທໍາມະຊາດ, ເຊິ່ງຂ້ອຍກະຕືລືລົ້ນທີ່ຈະຄົ້ນຫາຕື່ມອີກ.