ກ້ານໃບ Auto-GPT & GPT-Engineer: ຄູ່ມືລະອຽດສໍາລັບຕົວແທນ AI ຊັ້ນນໍາຂອງມື້ນີ້ - Unite.AI
ເຊື່ອມຕໍ່ກັບພວກເຮົາ

ປັນຍາປະດິດ

Auto-GPT & GPT-Engineer: ຄູ່ມືລະອຽດສໍາລັບຕົວແທນ AI ຊັ້ນນໍາຂອງມື້ນີ້

mm

ຈັດພີມມາ

 on

ເມື່ອປຽບທຽບ ChatGPT ກັບຕົວແທນ AI Autonomous ເຊັ່ນ Auto-GPT ແລະ GPT-Engineer, ຄວາມແຕກຕ່າງທີ່ສໍາຄັນເກີດຂື້ນໃນຂະບວນການຕັດສິນໃຈ. ໃນຂະນະທີ່ ChatGPT ຮຽກຮ້ອງໃຫ້ມີການມີສ່ວນຮ່ວມຂອງມະນຸດຢ່າງຫ້າວຫັນເພື່ອຂັບລົດການສົນທະນາ, ການໃຫ້ຄໍາແນະນໍາໂດຍອີງໃສ່ການເຕືອນຂອງຜູ້ໃຊ້, ຂະບວນການວາງແຜນແມ່ນສ່ວນໃຫຍ່ແມ່ນຂຶ້ນກັບການແຊກແຊງຂອງມະນຸດ.

AI ສ້າງ ຕົວແບບເຊັ່ນເຄື່ອງຫັນປ່ຽນເປັນເທັກໂນໂລຍີຫຼັກທີ່ທັນສະໄໝ, ຂັບເຄື່ອນຕົວແທນ AI ທີ່ເປັນເອກະລາດເຫຼົ່ານີ້. ໝໍ້ແປງເຫຼົ່ານີ້ໄດ້ຮັບການຝຶກອົບຮົມກ່ຽວກັບຊຸດຂໍ້ມູນຂະຫນາດໃຫຍ່, ເຮັດໃຫ້ພວກເຂົາສາມາດຈໍາລອງການສົມເຫດສົມຜົນທີ່ສັບສົນແລະຄວາມສາມາດໃນການຕັດສິນໃຈ.

Open-Source Roots of Autonomous Agents: Auto-GPT ແລະ GPT-Engineer

ຫຼາຍໆຕົວແທນ AI ທີ່ເປັນເອກະລາດເຫຼົ່ານີ້ມາຈາກການລິເລີ່ມແຫຼ່ງເປີດທີ່ນໍາພາໂດຍບຸກຄົນທີ່ມີນະວັດຕະກໍາທີ່ຫັນປ່ຽນຂະບວນການເຮັດວຽກແບບທໍາມະດາ. ແທນທີ່ຈະພຽງແຕ່ສະເຫນີຄໍາແນະນໍາ, ຕົວແທນເຊັ່ນ: Auto-GPT ສາມາດຈັດການວຽກຢ່າງເປັນອິດສະຫຼະ, ຈາກການຊື້ອອນໄລນ໌ຈົນເຖິງການສ້າງແອັບຯພື້ນຖານ. ນາຍແປພາສາລະຫັດຂອງ OpenAI ມີຈຸດປະສົງເພື່ອຍົກລະດັບ ສົນທະນາ GPT ຈາກພຽງແຕ່ແນະນໍາແນວຄວາມຄິດເພື່ອແກ້ໄຂບັນຫາຢ່າງຈິງຈັງກັບແນວຄວາມຄິດເຫຼົ່ານັ້ນ.

ທັງ Auto-GPT ແລະ GPT-Engineer ແມ່ນຕິດຕັ້ງດ້ວຍພະລັງງານຂອງ GPT 3.5 ແລະ GPT-4. ມັນເຂົ້າໃຈເຫດຜົນຂອງລະຫັດ, ປະສົມປະສານຫຼາຍໄຟລ໌, ແລະເລັ່ງຂະບວນການພັດທະນາ.

ຈຸດສໍາຄັນຂອງການເຮັດວຽກຂອງ Auto-GPT ແມ່ນຢູ່ໃນຕົວແທນ AI ຂອງມັນ. ຕົວແທນເຫຼົ່ານີ້ຖືກຕັ້ງໂຄງການເພື່ອປະຕິບັດວຽກງານສະເພາະ, ຈາກສິ່ງທີ່ເປັນໂລກເຊັ່ນການກໍານົດເວລາໄປຫາວຽກງານທີ່ສັບສົນຫຼາຍທີ່ຕ້ອງການການຕັດສິນໃຈຍຸດທະສາດ. ຢ່າງໃດກໍຕາມ, ຕົວແທນ AI ເຫຼົ່ານີ້ດໍາເນີນການພາຍໃນຂອບເຂດທີ່ກໍານົດໄວ້ໂດຍຜູ້ໃຊ້. ໂດຍການຄວບຄຸມການເຂົ້າເຖິງຂອງພວກເຂົາຜ່ານ APIs, ຜູ້ໃຊ້ສາມາດກໍານົດຄວາມເລິກແລະຂອບເຂດຂອງການກະທໍາທີ່ AI ສາມາດປະຕິບັດໄດ້.

ຕົວຢ່າງເຊັ່ນ, ຖ້າມີຫນ້າທີ່ສ້າງແອັບຯສົນທະນາທີ່ປະສົມປະສານກັບ ChatGPT, Auto-GPT ແຍກເປົ້າຫມາຍໂດຍອັດຕະໂນມັດເຂົ້າໄປໃນຂັ້ນຕອນທີ່ສາມາດປະຕິບັດໄດ້, ເຊັ່ນ: ການສ້າງ HTML front-end ຫຼືການຂຽນ Python back-end. ໃນຂະນະທີ່ແອັບພລິເຄຊັນສ້າງການກະຕຸ້ນເຕືອນເຫຼົ່ານີ້ໂດຍອັດຕະໂນມັດ, ຜູ້ໃຊ້ຍັງສາມາດຕິດຕາມແລະດັດແປງພວກມັນໄດ້. ດັ່ງທີ່ສະແດງໂດຍຜູ້ສ້າງ AutoGPT @SigGravitas, ມັນສາມາດສ້າງແລະປະຕິບັດໂຄງການທົດສອບໂດຍອີງໃສ່ Python.

ໃນຂະນະທີ່ແຜນວາດຂ້າງລຸ່ມນີ້ອະທິບາຍສະຖາປັດຕະຍະກໍາທົ່ວໄປກວ່າຂອງຕົວແທນ AI ທີ່ປົກຄອງຕົນເອງ, ມັນສະຫນອງຄວາມເຂົ້າໃຈທີ່ມີຄຸນຄ່າກ່ຽວກັບຂະບວນການທີ່ຢູ່ເບື້ອງຫຼັງ.

AI Agent Architecture ເຊັ່ນ Autogpt, GPT Engineer

ສະຖາປັດຕະຍະກຳຕົວແທນ AI ທີ່ເປັນເອກະລາດ

ຂະບວນການແມ່ນເລີ່ມຕົ້ນໂດຍການກວດສອບ OpenAI API Key ແລະເລີ່ມຕົ້ນຕົວກໍານົດການຕ່າງໆ, ລວມທັງຄວາມຊົງຈໍາໄລຍະສັ້ນແລະເນື້ອໃນຖານຂໍ້ມູນ. ເມື່ອຂໍ້ມູນກະແຈຖືກສົ່ງກັບຕົວແທນ, ໂມເດວຈະໂຕ້ຕອບກັບ GPT3.5/GPT4 ເພື່ອດຶງຂໍ້ມູນການຕອບ. ຫຼັງຈາກນັ້ນ, ການຕອບສະ ໜອງ ນີ້ຈະຖືກປ່ຽນເປັນຮູບແບບ JSON, ເຊິ່ງຕົວແທນຕີຄວາມ ໝາຍ ເພື່ອປະຕິບັດຫນ້າທີ່ຕ່າງໆ, ເຊັ່ນ: ການຄົ້ນຫາອອນໄລນ໌, ການອ່ານຫຼືການຂຽນໄຟລ໌, ຫຼືແມ້ກະທັ້ງການແລ່ນລະຫັດ. Auto-GPT ໃຊ້ຕົວແບບທີ່ໄດ້ຮັບການຝຶກອົບຮົມໄວ້ກ່ອນເພື່ອເກັບຮັກສາຄໍາຕອບເຫຼົ່ານີ້ຢູ່ໃນຖານຂໍ້ມູນ, ແລະການຕິດຕໍ່ພົວພັນໃນອະນາຄົດໃຊ້ຂໍ້ມູນທີ່ຖືກເກັບໄວ້ນີ້ສໍາລັບການອ້າງອີງ. loop ສືບຕໍ່ຈົນກ່ວາວຽກງານໄດ້ຖືກຖືວ່າສໍາເລັດ.

ຄູ່ມືການຕິດຕັ້ງສໍາລັບ Auto-GPT ແລະ GPT-Engineer

ການຕັ້ງຄ່າເຄື່ອງມືທີ່ທັນສະໄໝເຊັ່ນ GPT-Engineer ແລະ Auto-GPT ສາມາດປັບປຸງຂະບວນການພັດທະນາຂອງທ່ານໄດ້. ຂ້າງລຸ່ມນີ້ແມ່ນຄູ່ມືທີ່ມີໂຄງສ້າງເພື່ອຊ່ວຍໃຫ້ທ່ານຕິດຕັ້ງແລະກໍາຫນົດຄ່າເຄື່ອງມືທັງສອງ.

ອັດຕະໂນມັດ-GPT

ການຕັ້ງຄ່າ Auto-GPT ສາມາດປະກົດວ່າສະລັບສັບຊ້ອນ, ແຕ່ດ້ວຍຂັ້ນຕອນທີ່ຖືກຕ້ອງ, ມັນຈະກາຍເປັນເລື່ອງກົງໄປກົງມາ. ຄູ່ມືນີ້ກວມເອົາຂັ້ນຕອນການຕັ້ງຄ່າ Auto-GPT ແລະໃຫ້ຄວາມເຂົ້າໃຈໃນສະຖານະການທີ່ຫຼາກຫຼາຍຂອງມັນ.

1. ເງື່ອນໄຂເບື້ອງຕົ້ນ:

  1. ສະພາບແວດລ້ອມ Python: ໃຫ້ແນ່ໃຈວ່າທ່ານມີການຕິດຕັ້ງ Python 3.8 ຫຼືຫຼັງຈາກນັ້ນ. ທ່ານສາມາດໄດ້ຮັບ Python ຈາກມັນ ເວັບໄຊທ໌ຢ່າງເປັນທາງການ.
  2. ຖ້າທ່ານວາງແຜນທີ່ຈະ clone repositories, ຕິດຕັ້ງ Git.
  3. OpenAI API Key: ເພື່ອພົວພັນກັບ OpenAI, ລະຫັດ API ແມ່ນມີຄວາມຈໍາເປັນ. ເອົາກະແຈຈາກເຈົ້າ ບັນຊີ OpenAI
ເປີດ AI API Key

ເປີດ AI API Key Generation

ຕົວເລືອກ Backend Memory: Backend ຫນ່ວຍຄວາມຈໍາເຮັດຫນ້າທີ່ເປັນກົນໄກການເກັບຮັກສາສໍາລັບ AutoGPT ເພື່ອເຂົ້າເຖິງຂໍ້ມູນທີ່ສໍາຄັນສໍາລັບການປະຕິບັດງານຂອງມັນ. AutoGPT ນຳໃຊ້ທັງຄວາມສາມາດໃນການເກັບຮັກສາໃນໄລຍະສັ້ນ ແລະໄລຍະຍາວ. ໝາກນັດ, ມິວວັສ, Redis, ແລະອື່ນໆແມ່ນບາງທາງເລືອກທີ່ມີຢູ່.

2. ຕັ້ງຄ່າພື້ນທີ່ເຮັດວຽກຂອງທ່ານ:

  1. ສ້າງສະພາບແວດລ້ອມ virtual: python3 -m venv myenv
  2. ເປີດໃຊ້ສະພາບແວດລ້ອມ:
    1. MacOS ຫຼື Linux: source myenv/bin/activate

3 ການຕິດຕັ້ງ:

  1. Clone the Auto-GPT repository (ໃຫ້ແນ່ໃຈວ່າທ່ານໄດ້ຕິດຕັ້ງ Git): git clone https://github.com/Significant-Gravitas/Auto-GPT.git
  2. ເພື່ອຮັບປະກັນວ່າທ່ານກໍາລັງເຮັດວຽກກັບສະບັບ 0.2.2 ຂອງ Auto-GPT, ເຈົ້າຈະຕ້ອງການ ກວດ​ເບິ່ງ ສະບັບສະເພາະນັ້ນ: git checkout stable-0.2.2
  3. ທ່ອງໄປຫາບ່ອນເກັບມ້ຽນທີ່ດາວໂຫລດມາ: cd Auto-GPT
  4. ຕິດ​ຕັ້ງ​ການ​ອີງ​ໃສ່​ທີ່​ຕ້ອງ​ການ​: pip install -r requirements.txt

ການຕັ້ງຄ່າ:

  1. ສະຖານທີ່ .env.template ໃນຕົ້ນຕໍ /Auto-GPT ໄດເລກະທໍລີ. ຊໍ້າກັນ ແລະປ່ຽນຊື່ເປັນ .env
  2. ເປີດ .env ແລະຕັ້ງ OpenAI API Key ຂອງທ່ານຕໍ່ໄປ OPENAI_API_KEY=
  3. ເຊັ່ນ​ດຽວ​ກັນ​, ການ​ນໍາ​ໃຊ້ Pinecone ຫຼື backends ຫນ່ວຍ​ຄວາມ​ຈໍາ​ອື່ນໆ​ປັບ​ປຸງ​ .env ໄຟລ໌ທີ່ມີລະຫັດ Pinecone API ແລະພາກພື້ນຂອງທ່ານ.

5. ຄໍາແນະນໍາເສັ້ນຄໍາສັ່ງ:

Auto-GPT ສະຫນອງຊຸດການໂຕ້ຖຽງແຖວຄໍາສັ່ງທີ່ອຸດົມສົມບູນເພື່ອປັບແຕ່ງພຶດຕິກໍາຂອງມັນ:

  • ການ ນຳ ໃຊ້ທົ່ວໄປ:
    • ສະແດງການຊ່ວຍເຫຼືອ: python -m autogpt --help
    • ປັບການຕັ້ງຄ່າ AI: python -m autogpt --ai-settings <filename>
    • ລະບຸ Backend ໜ່ວຍຄວາມຈຳ: python -m autogpt --use-memory <memory-backend>
AutoGPT CLI

AutoGPT ໃນ CLI

6. ການເປີດຕົວ Auto-GPT:

ເມື່ອການຕັ້ງຄ່າສຳເລັດແລ້ວ, ເລີ່ມຕົ້ນ Auto-GPT ໂດຍໃຊ້:

  • Linux ຫຼື Mac: ./run.sh start
  • Windows: .\run.bat

ການເຊື່ອມໂຍງ Docker (ວິທີການຕິດຕັ້ງທີ່ແນະນໍາ)

ສໍາລັບຜູ້ທີ່ຊອກຫາທີ່ຈະບັນຈຸ Auto-GPT, Docker ສະຫນອງວິທີການປັບປຸງ. ຢ່າງໃດກໍ່ຕາມ, ຈົ່ງຈື່ໄວ້ວ່າການຕິດຕັ້ງເບື້ອງຕົ້ນຂອງ Docker ສາມາດສັບສົນເລັກນ້ອຍ. ອ້າງ​ເຖິງ ຄູ່ມືການຕິດຕັ້ງ Docker ສໍາລັບການຊ່ວຍເຫຼືອ.

ດໍາເນີນການໂດຍປະຕິບັດຕາມຂັ້ນຕອນຂ້າງລຸ່ມນີ້ເພື່ອດັດແປງລະຫັດ OpenAI API. ໃຫ້ແນ່ໃຈວ່າ Docker ແລ່ນຢູ່ໃນພື້ນຫຼັງ. ຕອນນີ້ໄປທີ່ໄດເລກະທໍລີຫຼັກຂອງ AutoGPT ແລະປະຕິບັດຕາມຂັ້ນຕອນຂ້າງລຸ່ມນີ້ຢູ່ໃນເຄື່ອງບິນຂອງເຈົ້າ

  • ສ້າງຮູບພາບ Docker: docker build -t autogpt .
  • ຕອນນີ້ແລ່ນ: docker run -it --env-file=./.env -v$PWD/auto_gpt_workspace:/app/auto_gpt_workspace autogpt

ດ້ວຍ docker-compose:

  • ແລ່ນ: docker-compose run --build --rm auto-gpt
  • ສໍາລັບການປັບແຕ່ງເພີ່ມເຕີມ, ທ່ານສາມາດປະສົມປະສານການໂຕ້ຖຽງເພີ່ມເຕີມ. ຕົວຢ່າງ, ເພື່ອແລ່ນດ້ວຍທັງ –gpt3only ແລະ –continuous: docker-compose run --rm auto-gpt --gpt3only--continuous
  • ເນື່ອງຈາກການປົກຄອງຕົນເອງຢ່າງກວ້າງຂວາງ Auto-GPT ມີຢູ່ໃນການສ້າງເນື້ອຫາຈາກຊຸດຂໍ້ມູນຂະຫນາດໃຫຍ່, ມັນມີຄວາມສ່ຽງທີ່ອາດຈະເຂົ້າເຖິງແຫຼ່ງເວັບທີ່ເປັນອັນຕະລາຍໂດຍບໍ່ໄດ້ຕັ້ງໃຈ.

ເພື່ອຫຼຸດຜ່ອນຄວາມສ່ຽງ, ດໍາເນີນການ Auto-GPT ພາຍໃນຖັງ virtual ເຊັ່ນ Docker. ອັນນີ້ຮັບປະກັນວ່າເນື້ອໃນທີ່ອາດຈະເປັນອັນຕະລາຍຈະຖືກກັກຂັງຢູ່ພາຍໃນພື້ນທີ່ສະເໝືອນ, ຮັກສາໄຟລ໌ພາຍນອກ ແລະລະບົບຂອງທ່ານບໍ່ໃຫ້ຖືກແຕະຕ້ອງ. ອີກທາງເລືອກ, Windows Sandbox ແມ່ນທາງເລືອກ, ເຖິງແມ່ນວ່າມັນຈະຕັ້ງຄືນໃຫມ່ຫຼັງຈາກແຕ່ລະກອງປະຊຸມ, ລົ້ມເຫລວໃນການຮັກສາສະຖານະຂອງມັນ.

ເພື່ອຄວາມປອດໄພ, ປະຕິບັດ Auto-GPT ໃນສະພາບແວດລ້ອມສະເໝືອນຈິງສະເໝີ, ຮັບປະກັນວ່າລະບົບຂອງທ່ານຍັງຄົງຖືກປ້ອງກັນຈາກຜົນໄດ້ຮັບທີ່ບໍ່ຄາດຄິດ.

ເນື່ອງຈາກທັງຫມົດນີ້, ຍັງມີໂອກາດທີ່ທ່ານຈະບໍ່ສາມາດໄດ້ຮັບຜົນໄດ້ຮັບທີ່ຕ້ອງການ. ລາຍງານຜູ້ໃຊ້ Auto-GPT ບັນຫາທີ່ເກີດຂຶ້ນຊ້ຳໆ ເມື່ອພະຍາຍາມຂຽນໃສ່ໄຟລ໌, ມັກຈະພົບກັບຄວາມພະຍາຍາມທີ່ລົ້ມເຫລວເນື່ອງຈາກຊື່ໄຟລ໌ທີ່ມີບັນຫາ. ນີ້ແມ່ນຫນຶ່ງຄວາມຜິດພາດດັ່ງກ່າວ: Auto-GPT (release 0.2.2) doesn't append the text after error "write_to_file returned: Error: File has already been updated

ວິທີແກ້ໄຂຕ່າງໆເພື່ອແກ້ໄຂບັນຫານີ້ໄດ້ຖືກປຶກສາຫາລືກ່ຽວກັບບັນຫາທີ່ກ່ຽວຂ້ອງ ກະທູ້ GitHub ສໍາລັບການກະສານອ້າງອີງ.

GPT-ວິສະວະກອນ

GPT-Engineer Workflow:

  1. ຄໍານິຍາມເຕືອນ: ສ້າງລາຍລະອຽດຂອງໂຄງການຂອງທ່ານໂດຍໃຊ້ພາສາທໍາມະຊາດ.
  2. ການສ້າງລະຫັດ: ອີງຕາມການເຕືອນຂອງທ່ານ, GPT-Engineer ເຮັດວຽກ, churning out code snippets, functions, or even complete applications.
  3. ການປັບປຸງແລະການເພີ່ມປະສິດທິພາບ: ຫຼັງຈາກການຜະລິດ, ມີຫ້ອງສໍາລັບການປັບປຸງສະເຫມີ. ນັກພັດທະນາສາມາດດັດແປງລະຫັດທີ່ສ້າງຂຶ້ນເພື່ອຕອບສະຫນອງຄວາມຕ້ອງການສະເພາະ, ຮັບປະກັນຄຸນນະພາບສູງສຸດ.

ຂະບວນການສ້າງຕັ້ງ GPT-Engineer ໄດ້ຖືກ condensed ເຂົ້າໄປໃນຄໍາແນະນໍາທີ່ງ່າຍທີ່ຈະປະຕິບັດຕາມ. ນີ້ແມ່ນການແບ່ງຂັ້ນໄດເທື່ອລະຂັ້ນຕອນ:

1. ການກະກຽມສະພາບແວດລ້ອມ: ກ່ອນທີ່ຈະດໍານ້ໍາ, ໃຫ້ແນ່ໃຈວ່າທ່ານມີລາຍຊື່ໂຄງການຂອງທ່ານກຽມພ້ອມ. ເປີດ terminal ແລະດໍາເນີນການຄໍາສັ່ງຂ້າງລຸ່ມນີ້

  • ສ້າງໄດເລກະທໍລີໃຫມ່ທີ່ມີຊື່ວ່າ 'ເວັບໄຊທ໌': mkdir website
  • ຍ້າຍໄປໄດເລກະທໍລີ: cd website

2. Clone the Repository:  git clone https://github.com/AntonOsika/gpt-engineer.git .

3. ນຳທາງ ແລະຕິດຕັ້ງການເພິ່ງພາອາໄສ: ເມື່ອ cloned, ສະຫຼັບໄປຫາໄດເລກະທໍລີ cd gpt-engineer ແລະຕິດຕັ້ງການເພິ່ງພາອາໄສທີ່ຈໍາເປັນທັງຫມົດ make install

4. ເປີດໃຊ້ສະພາບແວດລ້ອມສະເໝືອນຈິງ: ອີງຕາມລະບົບປະຕິບັດການຂອງທ່ານ, ເປີດໃຊ້ສະພາບແວດລ້ອມ virtual ທີ່ສ້າງຂຶ້ນ.

  • ສໍາລັບການ macOS / Linux: source venv/bin/activate
  • ສໍາລັບການ Windows, ມັນແຕກຕ່າງກັນເລັກນ້ອຍເນື່ອງຈາກການຕັ້ງຄ່າລະຫັດ API: set OPENAI_API_KEY=[your api key]

5. ການຕັ້ງຄ່າ – ການຕັ້ງຄ່າ API Key: ເພື່ອໂຕ້ຕອບກັບ OpenAI, ທ່ານຈະຕ້ອງມີລະຫັດ API. ຖ້າທ່ານຍັງບໍ່ມີ, ລົງທະບຽນໃນເວທີ OpenAI, ຫຼັງຈາກນັ້ນ:

  • ສໍາລັບການ macOS / Linux: export OPENAI_API_KEY=[your api key]
  • ສໍາລັບການ Windows (ດັ່ງທີ່ໄດ້ກ່າວມາກ່ອນຫນ້ານີ້): set OPENAI_API_KEY=[your api key]

6. ການລິເລີ່ມໂຄງການ ແລະການສ້າງລະຫັດ: magic ຂອງ GPT-Engineer ເລີ່ມຕົ້ນດ້ວຍ main_prompt ໄຟລ໌ທີ່ພົບເຫັນຢູ່ໃນ projects ໂຟນເດີ.

  • ຖ້າທ່ານຕ້ອງການເລີ່ມຕົ້ນໂຄງການໃຫມ່: cp -r projects/example/ projects/website

ທີ່ນີ້, ແທນທີ່ 'ເວັບໄຊທ໌' ດ້ວຍຊື່ໂຄງການທີ່ທ່ານເລືອກ.

  • ແກ້ໄຂໄດ້ main_prompt ໄຟລ໌ໂດຍໃຊ້ຕົວແກ້ໄຂຂໍ້ຄວາມທີ່ທ່ານເລືອກ, ຂຽນລົງຄວາມຕ້ອງການຂອງໂຄງການຂອງທ່ານ.

  • ເມື່ອທ່ານພໍໃຈກັບການກະຕຸ້ນເຕືອນ: gpt-engineer projects/website

ລະຫັດທີ່ສ້າງຂຶ້ນຂອງທ່ານຈະຢູ່ໃນ workspace ໄດເລກະທໍລີພາຍໃນໂຟເດີໂຄງການ.

7. Post-Generation: ໃນຂະນະທີ່ GPT-Engineer ມີພະລັງ, ມັນອາດຈະບໍ່ສົມບູນແບບສະເໝີໄປ. ກວດ​ສອບ​ລະ​ຫັດ​ທີ່​ສ້າງ​ຂຶ້ນ​, ເຮັດ​ການ​ປ່ຽນ​ແປງ​ຄູ່​ມື​ຖ້າ​ຫາກ​ວ່າ​ຈໍາ​ເປັນ​, ແລະ​ຮັບ​ປະ​ກັນ​ວ່າ​ທຸກ​ສິ່ງ​ທຸກ​ຢ່າງ​ດໍາ​ເນີນ​ການ​ກ້ຽງ​.

ແລ່ນຕົວຢ່າງ

Prompt:

"ຂ້ອຍຕ້ອງການພັດທະນາແອັບຯ Streamlit ພື້ນຖານໃນ Python ທີ່ເບິ່ງເຫັນຂໍ້ມູນຜູ້ໃຊ້ຜ່ານຕາຕະລາງການໂຕ້ຕອບ. ແອັບຯຄວນອະນຸຍາດໃຫ້ຜູ້ໃຊ້ສາມາດອັບໂຫລດໄຟລ໌ CSV, ເລືອກປະເພດຂອງຕາຕະລາງ (ເຊັ່ນ: ແຖບ, pie, ເສັ້ນ), ແລະເບິ່ງຂໍ້ມູນແບບໄດນາມິກ. ມັນສາມາດນໍາໃຊ້ຫ້ອງສະຫມຸດເຊັ່ນ Pandas ສໍາລັບການຈັດການຂໍ້ມູນແລະ Plotly ສໍາລັບການເບິ່ງເຫັນ."
ການຕັ້ງຄ່າ ແລະແລ່ນວິສະວະກຳ-GPT

ຕັ້ງຄ່າ ແລະແລ່ນ GPT-Engineer

ຄືກັບ Auto-GPT, GPT-Engineer ບາງຄັ້ງສາມາດພົບຂໍ້ຜິດພາດເຖິງແມ່ນວ່າຫຼັງຈາກການຕິດຕັ້ງສໍາເລັດແລ້ວ. ຢ່າງໃດກໍຕາມ, ໃນຄວາມພະຍາຍາມຄັ້ງທີສາມຂອງຂ້ອຍ, ຂ້ອຍໄດ້ເຂົ້າເຖິງຫນ້າເວັບທີ່ມີນ້ໍາຕໍ່ໄປນີ້ຢ່າງສໍາເລັດຜົນ. ໃຫ້ແນ່ໃຈວ່າທ່ານກວດເບິ່ງຂໍ້ຜິດພາດໃດໆກ່ຽວກັບເຈົ້າຫນ້າທີ່ ໜ້າບັນຫາຂອງບ່ອນເກັບມ້ຽນ GPT-Engineer.

ແອັບ Streamlit ທີ່ສ້າງຂຶ້ນໂດຍໃຊ້ Engineering-GPT

ແອັບ Streamlit ທີ່ສ້າງຂຶ້ນໂດຍໃຊ້ GPT-Engineer

ຄໍຄໍເຕົ້າໄຂ່ທີ່ປະຈຸບັນຂອງຕົວແທນ AI

ຄ່າໃຊ້ຈ່າຍໃນການດໍາເນີນງານ

ວຽກງານດຽວທີ່ຖືກປະຕິບັດໂດຍ Auto-GPT ອາດຈະກ່ຽວຂ້ອງກັບຂັ້ນຕອນຈໍານວນຫລາຍ. ສໍາຄັນ, ແຕ່ລະຂັ້ນຕອນເຫຼົ່ານີ້ອາດຈະເປັນ ຮຽກເກັບເປັນສ່ວນບຸກຄົນ, ການເພີ່ມຄ່າໃຊ້ຈ່າຍ. Auto-GPT ສາມາດຖືກຕິດຢູ່ໃນ loops ຊໍ້າຊ້ອນ, ລົ້ມເຫລວໃນການສົ່ງຜົນໄດ້ຮັບທີ່ສັນຍາໄວ້. ການປະກົດຕົວດັ່ງກ່າວເຮັດໃຫ້ຄວາມຫນ້າເຊື່ອຖືຂອງມັນທໍາລາຍແລະທໍາລາຍການລົງທຶນ.

ຈິນຕະນາການຢາກສ້າງບົດເລື່ອງສັ້ນດ້ວຍ Auto-GPT. ຄວາມຍາວທີ່ເຫມາະສົມຂອງ essay ແມ່ນ 8K tokens, ແຕ່ໃນລະຫວ່າງຂະບວນການສ້າງ, ຮູບແບບ delves ເຂົ້າໄປໃນຫຼາຍຂັ້ນຕອນຕົວກາງເພື່ອສະຫຼຸບເນື້ອໃນ. ຖ້າ​ຫາກ​ວ່າ​ທ່ານ​ກໍາ​ລັງ​ໃຊ້ GPT-4 ກັບ​ຄວາມ​ຍາວ​ຂອງ​ເນື້ອ​ໃນ 8k ຫຼັງ​ຈາກ​ນັ້ນ​ສໍາ​ລັບ​ການ​ປ້ອນ​ຂໍ້​ມູນ​, ທ່ານ​ຈະ​ໄດ້​ຮັບ​ການ​ເກັບ​ເງິນ​ $0.03. ແລະສໍາລັບຜົນຜະລິດ, ຄ່າໃຊ້ຈ່າຍຈະເປັນ $0.06. ດຽວນີ້, ໃຫ້ເວົ້າວ່າຕົວແບບດັ່ງກ່າວແລ່ນເຂົ້າໄປໃນວົງຈອນທີ່ບໍ່ໄດ້ຄາດຄິດ, ເຮັດຄືນບາງສ່ວນຫຼາຍຄັ້ງ. ບໍ່ພຽງແຕ່ຂະບວນການຕໍ່ໄປອີກແລ້ວ, ແຕ່ການຄ້າງຫ້ອງແຕ່ລະຄົນຍັງເພີ່ມຄ່າໃຊ້ຈ່າຍ.

ເພື່ອ​ປົກ​ປ້ອງ​ສິ່ງ​ນີ້​:

ຕັ້ງຂີດ ຈຳ ກັດການ ນຳ ໃຊ້ at OpenAI ໃບບິນ & ຂອບເຂດຈໍາກັດ:

  • ຈຳກັດຍາກ: ຈຳກັດການໃຊ້ເກີນກວ່າເກນທີ່ທ່ານຕັ້ງໄວ້.
  • Soft Limit: ສົ່ງອີເມວແຈ້ງເຕືອນໃຫ້ທ່ານເມື່ອຮອດເກນກຳນົດ.

ຂໍ້​ຈໍາ​ກັດ​ການ​ທໍາ​ງານ​

ຄວາມສາມາດຂອງ Auto-GPT, ດັ່ງທີ່ສະແດງຢູ່ໃນລະຫັດແຫຼ່ງຂອງມັນ, ມາພ້ອມກັບຂອບເຂດທີ່ແນ່ນອນ. ຍຸດທະສາດການແກ້ໄຂບັນຫາຂອງມັນຖືກຄຸ້ມຄອງໂດຍຫນ້າທີ່ພາຍໃນຂອງມັນແລະການເຂົ້າຫາທີ່ສະຫນອງໃຫ້ໂດຍ API ຂອງ GPT-4. ສໍາລັບການສົນທະນາໃນຄວາມເລິກແລະການແກ້ໄຂທີ່ເປັນໄປໄດ້, ພິຈາລະນາການຢ້ຽມຢາມ: ການສົນທະນາອັດຕະໂນມັດ-GPT.

ຜົນກະທົບຂອງ AI ໃນຕະຫຼາດແຮງງານ

ການເຄື່ອນໄຫວລະຫວ່າງ AI ແລະຕະຫຼາດແຮງງານແມ່ນພັດທະນາຕະຫຼອດໄປແລະຖືກບັນທຶກໄວ້ຢ່າງກວ້າງຂວາງໃນເລື່ອງນີ້ ຄົ້ນຄວ້າວິໄຈ. ສິ່ງທີ່ສໍາຄັນແມ່ນວ່າໃນຂະນະທີ່ຄວາມກ້າວຫນ້າທາງດ້ານເຕັກໂນໂລຢີມັກຈະເປັນປະໂຫຍດຕໍ່ແຮງງານທີ່ມີຄວາມຊໍານິຊໍານານ, ມັນເຮັດໃຫ້ເກີດຄວາມສ່ຽງຕໍ່ຜູ້ທີ່ມີສ່ວນຮ່ວມໃນວຽກງານປົກກະຕິ. ແທ້ຈິງແລ້ວ, ຄວາມກ້າວຫນ້າທາງດ້ານເຕັກໂນໂລຢີອາດຈະເຮັດໃຫ້ວຽກງານບາງສ່ວນ, ແຕ່ພ້ອມໆກັນໄດ້ເປີດທາງໃຫ້ແກ່ວຽກງານທີ່ຫຼາກຫຼາຍ, ໃຊ້ແຮງງານຫຼາຍ.

ຕະຫຼາດແຮງງານ AI ຕົວແທນປົກຄອງຕົນເອງໄດ້ລື່ນກາຍ

ຄາດ​ຄະ​ເນ​ວ່າ 80% ຂອງ​ຄົນ​ງານ​ອາ​ເມ​ລິ​ກາ​ອາດ​ຈະ​ພົບ​ເຫັນ​ວ່າ LLMs (Language Learning Models) ມີ​ອິດ​ທິ​ພົນ​ປະ​ມານ 10% ຂອງ​ວຽກ​ງານ​ປະ​ຈຳ​ວັນ​ຂອງ​ເຂົາ​ເຈົ້າ. ສະຖິຕິນີ້ຊີ້ໃຫ້ເຫັນເຖິງການລວມຕົວຂອງ AI ແລະບົດບາດຂອງມະນຸດ.

ບົດບາດສອງດ້ານຂອງ AI ໃນແຮງງານ:

  • ດ້ານບວກ: AI ສາມາດອັດຕະໂນມັດວຽກງານຫຼາຍຢ່າງ, ຈາກການບໍລິການລູກຄ້າໄປຫາຄໍາແນະນໍາທາງດ້ານການເງິນ, ການໃຫ້ຄໍາປຶກສາແກ່ວິສາຫະກິດຂະຫນາດນ້ອຍທີ່ຂາດທຶນສໍາລັບທີມງານທີ່ອຸທິດຕົນ.
  • ຄວາມກັງວົນ: ຜົນປະໂຫຍດຂອງເຄື່ອງຈັກອັດຕະໂນມັດເຮັດໃຫ້ສາຍຕາກ່ຽວກັບການສູນເສຍວຽກທີ່ອາດຈະເກີດຂື້ນ, ໂດຍສະເພາະໃນຂະແຫນງການທີ່ມະນຸດມີສ່ວນຮ່ວມຫຼາຍ, ເຊັ່ນ: ການສະຫນັບສະຫນູນລູກຄ້າ. ຄຽງຄູ່ກັບການນີ້ແມ່ນ maze ຈັນຍາບັນ tied ກັບ AI ການເຂົ້າເຖິງຂໍ້ມູນລັບ. ນີ້ຮຽກຮ້ອງໃຫ້ມີໂຄງສ້າງພື້ນຖານທີ່ເຂັ້ມແຂງເພື່ອຮັບປະກັນຄວາມໂປ່ງໃສ, ຄວາມຮັບຜິດຊອບ, ແລະການນໍາໃຊ້ດ້ານຈັນຍາບັນຂອງ AI.

ສະຫຼຸບ

ຢ່າງຊັດເຈນ, ເຄື່ອງມືເຊັ່ນ ChatGPT, Auto-GPT, ແລະ GPT-Engineer ຢືນຢູ່ໃນແຖວຫນ້າຂອງການປ່ຽນແປງປະຕິສໍາພັນລະຫວ່າງເຕັກໂນໂລຢີແລະຜູ້ໃຊ້ຂອງມັນ. ດ້ວຍຮາກຂອງການເຄື່ອນໄຫວທີ່ເປີດແຫຼ່ງ, ຕົວແທນ AI ເຫຼົ່ານີ້ສະແດງໃຫ້ເຫັນເຖິງຄວາມເປັນໄປໄດ້ຂອງການເປັນເອກະລາດຂອງເຄື່ອງຈັກ, ປັບປຸງວຽກງານຈາກການກໍານົດເວລາໄປສູ່ການພັດທະນາຊອບແວ.

ໃນຂະນະທີ່ພວກເຮົາກ້າວໄປສູ່ອະນາຄົດທີ່ AI ເຊື່ອມໂຍງເຂົ້າກັບວຽກງານປະຈໍາວັນຂອງພວກເຮົາຢ່າງເລິກເຊິ່ງ, ຄວາມສົມດູນລະຫວ່າງການຮັບເອົາຄວາມສາມາດຂອງ AI ແລະການປົກປ້ອງບົດບາດຂອງມະນຸດກາຍເປັນຈຸດສໍາຄັນ. ໃນຂອບເຂດທີ່ກວ້າງຂວາງ, ຕະຫຼາດແຮງງານ AI ໄດ້ແຕ້ມຮູບພາບຄູ່ຂອງກາລະໂອກາດການຂະຫຍາຍຕົວ ແລະສິ່ງທ້າທາຍ, ຮຽກຮ້ອງໃຫ້ມີການເຊື່ອມໂຍງຢ່າງມີສະຕິຂອງຈັນຍາບັນດ້ານເຕັກໂນໂລຊີ ແລະ ຄວາມໂປ່ງໃສ.

ຂ້ອຍໄດ້ໃຊ້ເວລາ 50 ປີທີ່ຜ່ານມາເພື່ອເຂົ້າໄປໃນໂລກທີ່ໜ້າສົນໃຈຂອງການຮຽນຮູ້ເຄື່ອງຈັກ ແລະການຮຽນຮູ້ຢ່າງເລິກເຊິ່ງ. ຄວາມກະຕືລືລົ້ນແລະຄວາມຊໍານານຂອງຂ້ອຍໄດ້ເຮັດໃຫ້ຂ້ອຍປະກອບສ່ວນເຂົ້າໃນໂຄງການວິສະວະກໍາຊອບແວທີ່ຫຼາກຫຼາຍຊະນິດຫຼາຍກວ່າ XNUMX ໂຄງການ, ໂດຍເນັ້ນໃສ່ສະເພາະກັບ AI/ML. ຄວາມຢາກຮູ້ຢາກເຫັນຢ່າງຕໍ່ເນື່ອງຂອງຂ້ອຍຍັງໄດ້ດຶງຂ້ອຍໄປສູ່ການປຸງແຕ່ງພາສາທໍາມະຊາດ, ເຊິ່ງຂ້ອຍກະຕືລືລົ້ນທີ່ຈະຄົ້ນຫາຕື່ມອີກ.