ปัญญาประดิษฐ์
Auto-GPT & GPT-Engineer: คู่มือที่ครอบคลุมเกี่ยวกับตัวแทน AI ที่นำหน้าในปัจจุบัน

เมื่อเปรียบเทียบ ChatGPT กับตัวแทน AI อิสระ เช่น Auto-GPT และ GPT-Engineer จะเห็นความแตกต่างที่สำคัญในกระบวนการตัดสินใจ ในขณะที่ ChatGPT ต้องการการมีส่วนร่วมของมนุษย์อย่างแข็งขันในการขับเคลื่อนการสนทนา โดยให้คำแนะนำตามคำสั่งผู้ใช้ กระบวนการวางแผนจะพึ่งพาการแทรกแซงของมนุษย์เป็นส่วนใหญ่
โมเดล AI ที่สร้างสรรค์ เช่น Transformer เป็นเทคโนโลยีหลักที่เป็นรากฐานของตัวแทน AI อิสระเหล่านี้ โมเดลเหล่านี้ได้รับการฝึกอบรมจากชุดข้อมูลขนาดใหญ่ ทำให้สามารถจำลองการให้เหตุผลและความสามารถในการตัดสินใจที่ซับซ้อน
รากฐานของตัวแทน AI อิสระที่เปิดแหล่งที่มา: Auto-GPT และ GPT-Engineer
ตัวแทน AI อิสระหลายตัวมีต้นกำเนิดมาจากโครงการที่เปิดแหล่งที่มา ซึ่งนำโดยบุคคลที่มีความคิดสร้างสรรค์ที่เปลี่ยนแปลงกระบวนการทำงานแบบเดิมๆ ไม่เพียงแต่ให้คำแนะนำ แต่ตัวแทน เช่น Auto-GPT สามารถจัดการงานได้อย่างอิสระ ตั้งแต่การช้อปปิ้งออนไลน์ไปจนถึงการสร้างแอปพื้นฐาน Generative AI ของ OpenAI มีเป้าหมายที่จะอัปเกรด ChatGPT จากการให้คำแนะนำไปสู่การแก้ปัญหาโดยใช้แนวคิดเหล่านั้น
ทั้ง Auto-GPT และ GPT-Engineer มีความสามารถของ GPT 3.5 และ GPT-4 ซึ่งเข้าใจตรรกะของโค้ด รวมไฟล์หลายไฟล์ และเร่งกระบวนการพัฒนา
จุดสำคัญของฟังก์ชัน Auto-GPT อยู่ที่ตัวแทน AI เหล่านี้ ซึ่งได้รับการเขียนโปรแกรมให้ดำเนินงานเฉพาะจุด ตั้งแต่งานประจำไปจนถึงงานที่ซับซ้อนที่ต้องใช้การตัดสินใจเชิงกลยุทธ์ อย่างไรก็ตาม ตัวแทน AI เหล่านี้ทำงานภายในขอบเขตที่ผู้ใช้กำหนด โดยการควบคุมการเข้าถึงผ่าน API ผู้ใช้สามารถกำหนดความลึกและขอบเขตของการกระทำที่ AI สามารถทำได้
ตัวอย่างเช่น หากได้รับมอบหมายให้สร้างเว็บแชทที่รวมกับ ChatGPT Auto-GPT จะแบ่งเป้าหมายออกเป็นขั้นตอนที่สามารถดำเนินการได้ เช่น การสร้างหน้าเว็บ HTML หรือการเขียนสคริปต์ Python หลัง โดยที่แอปพลิเคชันจะสร้างคำสั่งเหล่านี้โดยอัตโนมัติ ผู้ใช้สามารถยังคงตรวจสอบและแก้ไขคำสั่งเหล่านี้ได้
ตามที่ผู้สร้าง AutoGPT @SigGravitas แสดงให้เห็นว่าสามารถสร้างและดำเนินโปรแกรมทดสอบตาม Python ได้
https://twitter.com/SigGravitas/status/1642181498278408193
ในขณะที่แผนภาพด้านล่างอธิบายถึงสถาปัตยกรรมทั่วไปของตัวแทน AI อิสระ มันให้ข้อมูลเชิงลึกที่มีคุณค่าเกี่ยวกับกระบวนการที่อยู่เบื้องหลัง
กระบวนการเริ่มต้นด้วยการตรวจสอบ OpenAI API Key และการเริ่มต้นพารามิเตอร์ต่างๆ รวมถึงหน่วยความจำระยะสั้นและเนื้อหาของฐานข้อมูล เมื่อข้อมูลสำคัญถูกส่งไปยังตัวแทน AI โมเดลจะโต้ตอบกับ GPT3.5/GPT4 เพื่อรับการตอบกลับ การตอบกลับนี้จะถูกแปลงเป็นรูปแบบ JSON ซึ่งตัวแทน AI จะตีความเพื่อดำเนินฟังก์ชันต่างๆ เช่น การค้นหาเว็บ อ่านหรือเขียนไฟล์ หรือแม้แต่การรันโค้ด Auto-GPT ใช้โมเดลที่ได้รับการฝึกอบรมล่วงหน้าเพื่อจัดเก็บการตอบกลับเหล่านี้ในฐานข้อมูล และการโต้ตอบในอนาคตจะใช้ข้อมูลที่จัดเก็บไว้เพื่อใช้อ้างอิง การวนซ้ำจะดำเนินต่อไปจนกว่างานจะถือว่าเสร็จสิ้น
คู่มือการตั้งค่าสำหรับ Auto-GPT และ GPT-Engineer
การตั้งค่าเครื่องมือที่ทันสมัย เช่น GPT-Engineer และ Auto-GPT สามารถทำให้กระบวนการพัฒนาของคุณง่ายขึ้น ด้านล่างนี้เป็นคู่มือที่มีโครงสร้างเพื่อช่วยคุณติดตั้งและกำหนดค่าทั้งสองเครื่องมือ
Auto-GPT
การตั้งค่า Auto-GPT อาจดูซับซ้อน แต่ด้วยขั้นตอนที่ถูกต้อง จะกลายเป็นเรื่องง่าย คู่มือนี้ครอบคลุมขั้นตอนในการตั้งค่า Auto-GPT และให้ข้อมูลเชิงลึกเกี่ยวกับสถานการณ์ที่หลากหลาย
1. สิ่งที่ต้องทำก่อน:
- สภาพแวดล้อม Python: ตรวจสอบให้แน่ใจว่าคุณมี Python 3.8 หรือใหม่กว่าติดตั้งแล้ว คุณสามารถรับ Python ได้จาก เว็บไซต์อย่างเป็นทางการ ของ Python
- หากคุณวางแผนจะโคลน存ถาบัน ให้ติดตั้ง Git
- OpenAI API Key: เพื่อโต้ตอบกับ OpenAI คุณต้องมี API Key คุณสามารถรับ Key ได้จากบัญชี OpenAI ของคุณ
ตัวเลือกแบ็คเอนด์หน่วยความจำ: แบ็คเอนด์หน่วยความจำทำหน้าที่เป็นกลไกจัดเก็บข้อมูลที่ AutoGPT ใช้ในการเข้าถึงข้อมูลสำคัญสำหรับการดำเนินงาน AutoGPT ใช้ทั้งความสามารถจัดเก็บข้อมูลระยะสั้นและระยะยาว Pinecone, Milvus, Redis และอื่นๆ เป็นตัวเลือกที่มีอยู่
2. การตั้งค่าพื้นที่ทำงานของคุณ:
- สร้างสภาพแวดล้อมเสมือน:
python3 -m venv myenv - เรียกใช้สภาพแวดล้อม:
- MacOS หรือ Linux:
source myenv/bin/activate
- MacOS หรือ Linux:
3. การติดตั้ง:
- โคลน存ถาบัน Auto-GPT (ตรวจสอบให้แน่ใจว่าคุณมี Git ติดตั้งแล้ว):
git clone https://github.com/Significant-Gravitas/Auto-GPT.git - เพื่อให้แน่ใจว่าคุณทำงานกับ เวอร์ชัน 0.2.2 ของ Auto-GPT คุณจะต้อง checkout ไปยังเวอร์ชันนั้น:
git checkout stable-0.2.2 - ไปยังที่เก็บที่โหลดมา:
cd Auto-GPT - ติดตั้งความต้องการที่จำเป็น:
pip install -r requirements.txt
4. การกำหนดค่า:
- ค้นหา
.env.templateในไดเร็กทอรี/Auto-GPTหลัก คัดลอกและเปลี่ยนชื่อเป็น.env - เปิด
.envและตั้งค่า OpenAI API Key ไว้ข้างOPENAI_API_KEY= - ในทำนองเดียวกัน หากต้องการใช้ Pinecone หรือแบ็คเอนด์หน่วยความจำอื่นๆ อัปเดต
.envไฟล์ด้วย Pinecone API Key และภูมิภาคของคุณ
5. คำสั่งบรรทัดคำสั่ง:
Auto-GPT มีชุดคำสั่งบรรทัดคำสั่งที่มีคุณสมบัติอัน phong Phúในการปรับแต่งพฤติกรรมของมัน:
- การใช้งานทั่วไป:
- แสดงความช่วยเหลือ:
python -m autogpt --help - ปรับแต่งการตั้งค่า AI:
python -m autogpt --ai-settings <filename> - ระบุแบ็คเอนด์หน่วยความจำ:
python -m autogpt --use-memory <memory-backend>
- แสดงความช่วยเหลือ:
6. การเปิดตัว Auto-GPT:
เมื่อดำเนินการกำหนดค่าเสร็จสิ้นแล้ว เริ่มต้น Auto-GPT โดยใช้:
- Linux หรือ Mac:
./run.sh start - Windows:
.run.bat
การรวม Docker (วิธีการตั้งค่าที่แนะนำ)
สำหรับผู้ที่ต้องการใช้ Auto-GPT ในรูปแบบคอนเทนเนอร์ Docker มีวิธีการที่เป็นระบบและง่ายต่อการปฏิบัติตาม แต่โปรดทราบว่าการตั้งค่า Docker ในตอนแรกอาจซับซ้อนเล็กน้อย อ้างอิงจาก คู่มือการติดตั้ง Docker สำหรับการช่วยเหลือ
ดำเนินการต่อโดยทำตามขั้นตอนต่อไปนี้เพื่อแก้ไข OpenAI API Key ตรวจสอบให้แน่ใจว่า Docker กำลังทำงานอยู่เบื้องหลัง จากนั้นไปที่ไดเร็กทอรีหลักของ AutoGPT และทำตามขั้นตอนต่อไปนี้ในเทอร์มินัลของคุณ
- สร้างภาพ Docker:
docker build -t autogpt . - เรียกใช้:
docker run -it --env-file=./.env -v$PWD/auto_gpt_workspace:/app/auto_gpt_workspace autogpt
ด้วย docker-compose:
- เรียกใช้:
docker-compose run --build --rm auto-gpt - สำหรับการปรับแต่งเพิ่มเติม คุณสามารถรวมอาร์กิวเมนต์เสริมได้ ตัวอย่างเช่น เพื่อเรียกใช้ด้วย –gpt3only และ –continuous:
docker-compose run --rm auto-gpt --gpt3only--continuous - เนื่องจาก Auto-GPT มีความเป็นอิสระสูงในการสร้างเนื้อหาจากรายการข้อมูลขนาดใหญ่ จึงมีความเสี่ยงที่จะเข้าถึงแหล่งข้อมูลเว็บที่เป็นอันตรายโดยไม่ตั้งใจ
เพื่อลดความเสี่ยง ให้ดำเนินการ Auto-GPT ภายในคอนเทนเนอร์เสมือน เช่น Docker ซึ่งจะทำให้เนื้อหาที่อาจเป็นอันตรายถูกจำกัดอยู่ภายในพื้นที่เสมือน และไม่ส่งผลกระทบต่อไฟล์หรือระบบภายนอกของคุณ
ในทางเลือกอื่น Windows Sandbox เป็นตัวเลือกหนึ่ง แม้ว่าจะมีการรีเซ็ตหลังจากแต่ละเซสชัน และไม่สามารถรักษาสถานะได้
สำหรับการรักษาความปลอดภัย ให้เรียกใช้ Auto-GPT ในสภาพแวดล้อมเสมือนเสมอ เพื่อให้แน่ใจว่าระบบของคุณจะไม่ถูกกระทำโดยผลลัพธ์ที่ไม่คาดคิด
แม้จะมีคำแนะนำทั้งหมด แต่ยังมีโอกาสที่คุณจะไม่สามารถรับผลลัพธ์ที่คุณต้องการได้ ผู้ใช้ Auto-GPT รายงาน ปัญหาเกิดซ้ำ เมื่อพยายามเขียนลงในไฟล์ โดยมีการพยายามล้มเหลวบ่อยครั้งเนื่องจากชื่อไฟล์ที่มีปัญหา
มีการอภิปรายเกี่ยวกับวิธีแก้ปัญหาเหล่านี้ใน ส่วนอภิปรายของ GitHub สำหรับการอ้างอิง
GPT-Engineer
การทำงานของ GPT-Engineer:
- การกำหนดคำสั่ง: สร้างคำอธิบายรายละเอียดเกี่ยวกับโครงการของคุณโดยใช้ภาษาธรรมชาติ
- การสร้างโค้ด: ตามคำสั่งของคุณ GPT-Engineer จะสร้างโค้ดส่วนโค้ด ฟังก์ชัน หรือแม้กระทั่งแอปพลิเคชันที่สมบูรณ์
- การปรับปรุงและเพิ่มประสิทธิภาพ: หลังจากระบุโค้ดแล้ว มักจะมีโอกาสในการปรับปรุงให้ดีขึ้น นักพัฒนาสามารถแก้ไขโค้ดที่สร้างขึ้นเพื่อตอบสนองความต้องการเฉพาะ และรับประกันคุณภาพสูงสุด
กระบวนการตั้งค่า GPT-Engineer ถูกย่อให้เข้าใจง่ายในคู่มือต่อไปนี้:
1. การเตรียมสภาพแวดล้อม: ก่อนที่จะเริ่มต้น ตรวจสอบให้แน่ใจว่าคุณมีไดเร็กทอรีโปรเจ็กต์พร้อมแล้ว เปิดเทอร์มินัลและรันคำสั่งต่อไปนี้
- สร้างไดเร็กทอรีใหม่ชื่อ ‘website’:
mkdir website- ไปยังไดเร็กทอรี:
cd website
2. โคลน存ถาบัน: git clone https://github.com/AntonOsika/gpt-engineer.git .
3. นำทางและติดตั้งความต้องการ: หลังจากโคลนแล้ว เปลี่ยนไปที่ไดเร็กทอรี cd gpt-engineer และติดตั้งความต้องการที่จำเป็นทั้งหมด make install
4. การเรียกใช้สภาพแวดล้อมเสมือน: ขึ้นอยู่กับระบบปฏิบัติการของคุณ เรียกใช้สภาพแวดล้อมเสมือนที่สร้างขึ้น
- สำหรับ macOS/Linux:
source venv/bin/activate
- สำหรับ Windows (ซึ่งแตกต่างเล็กน้อยเนื่องจากการตั้งค่า API Key):
set OPENAI_API_KEY=[your api key]
5. การกำหนดค่า – การตั้งค่า API Key: เพื่อโต้ตอบกับ OpenAI คุณจะต้องมี API Key หากคุณยังไม่มี ลงทะเบียนบนแพลตฟอร์ม OpenAI แล้ว:
- สำหรับ macOS/Linux:
export OPENAI_API_KEY=[your api key]
- สำหรับ Windows (ตามที่กล่าวไว้ก่อนหน้านี้):
set OPENAI_API_KEY=[your api key]
6. การเริ่มต้นโปรเจ็กต์และการสร้างโค้ด: ความสามารถพิเศษของ GPT-Engineer เริ่มต้นด้วย main_prompt ไฟล์ที่พบใน projects โฟลเดอร์
- หากคุณต้องการเริ่มต้นโปรเจ็กต์ใหม่:
cp -r projects/example/ projects/website
ที่นี่ ให้แทนที่ ‘website’ ด้วยชื่อโปรเจ็กต์ที่คุณเลือก
- แก้ไข
main_promptไฟล์โดยใช้โปรแกรมแก้ไขข้อความที่คุณชอบ โดยเขียนข้อกำหนดของโปรเจ็กต์ของคุณ
- เมื่อคุณพอใจกับคำสั่งแล้ว ให้รัน:
gpt-engineer projects/website
โค้ดที่สร้างขึ้นของคุณจะอยู่ใน workspace ไดเร็กทอรีภายในโฟลเดอร์โปรเจ็กต์
7. หลังการสร้าง: แม้ว่า GPT-Engineer จะมีพลัง แต่อาจไม่สมบูรณ์เสมอไป ตรวจสอบโค้ดที่สร้างขึ้น และทำการเปลี่ยนแปลงด้วยมือหากจำเป็น เพื่อให้แน่ใจว่าทุกอย่างทำงานได้อย่างราบรื่น
ตัวอย่างการรัน
คำสั่ง:
“ฉันต้องการพัฒนาแอปพลิเคชัน Streamlit พื้นฐานใน Python ที่แสดงข้อมูลผู้ใช้โดยใช้แผนภูมิแบบโต้ตอบ แอปพลิเคชันควรอนุญาตให้ผู้ใช้อัปโหลดไฟล์ CSV เลือกประเภทของแผนภูมิ (เช่น แบр ไพ พาย) และแสดงข้อมูลไดนามิก มันสามารถใช้ไลบรารีเช่น Pandas สำหรับการจัดการข้อมูลและ Plotly สำหรับการแสดงภาพ”
เหมือนกับ Auto-GPT GPT-Engineer อาจพบปัญหาได้แม้หลังจากการตั้งค่าเสร็จสิ้น แต่หลังจากความพยายามครั้งที่สาม ฉันก็สามารถเข้าถึงเว็บเพจ Streamlit ได้สำเร็จ ตรวจสอบให้แน่ใจว่าคุณตรวจสอบข้อผิดพลาดใดๆ ใน หน้าปัญหาของ GPT-Engineer
ข้อจำกัดในปัจจุบันของตัวแทน AI
ค่าใช้จ่ายในการดำเนินงาน
งานเดียวที่ดำเนินการโดย Auto-GPT อาจเกี่ยวข้องกับหลายขั้นตอน ซึ่งแต่ละขั้นตอนอาจ ถูกเรียกเก็บเงินแยกกัน ทำให้ค่าใช้จ่ายเพิ่มขึ้น Auto-GPT สามารถติดอยู่ในลูปซ้ำๆ และไม่สามารถส่งมอบผลลัพธ์ที่สัญญาไว้ได้ เหตุการณ์ดังกล่าวทำให้ความน่าเชื่อถือของมันลดลงและบ่อนทำลายการลงทุน
ลองนึกภาพว่าคุณต้องการสร้างบทความสั้นโดยใช้ Auto-GPT ความยาวที่เหมาะสมของบทความคือ 8K โทเค็น แต่ระหว่างกระบวนการสร้าง โมเดลจะแบ่งออกเป็นขั้นตอนต่างๆ เพื่อสรุปเนื้อหา หากคุณใช้ GPT-4 ที่มีความยาวบริบท 8k สำหรับการรับเข้า คุณจะถูกเรียกเก็บเงิน $0.03 และสำหรับการส่งออก ค่าใช้จ่ายจะเป็น $0.06 สมมติว่าโมเดลเกิดลูปที่ไม่คาดคิดและทำซ้ำบางส่วนหลายครั้ง ไม่เพียงแต่กระบวนการจะยาวขึ้น แต่การทำซ้ำแต่ละครั้งจะเพิ่มค่าใช้จ่ายด้วย
เพื่อป้องกันสิ่งนี้:
ตั้งค่าขีดจำกัดการใช้งาน ที่ OpenAI Billing & Limits:
- ขีดจำกัดที่เข้มงวด: 限制การใช้งานเกินขีดจำกัดที่คุณกำหนด
- ขีดจำกัดที่ยืดหยุ่น: ส่งอีเมลแจ้งเตือนเมื่อถึงขีดจำกัด
ข้อจำกัดของฟังก์ชัน
ความสามารถของ Auto-GPT ตามที่แสดงในโค้ดต้นฉบับ มีขอบเขตที่แน่นอน ฟังก์ชันการแก้ปัญหาได้รับการควบคุมโดยฟังก์ชันภายในและความสามารถในการเข้าถึงที่ได้รับจาก API ของ GPT-4 สำหรับการอภิปรายอย่างลึกซึ้งและวิธีแก้ปัญหาที่เป็นไปได้ ให้เยี่ยมชม: การอภิปรายของ Auto-GPT
ผลกระทบของ AI ต่อตลาดแรงงาน
ความสัมพันธ์ระหว่าง AI และตลาดแรงงานมีการเปลี่ยนแปลงอย่างต่อเนื่อง และได้รับการบันทึกไว้อย่างกว้างขวางใน เอกสารวิจัย นี้ ซึ่งมีใจความสำคัญคือ แม้ว่าการพัฒนาทางเทคโนโลยีจะส่งผลดีต่อคนงานที่มีทักษะ แต่ก็อาจก่อให้เกิดความเสี่ยงต่อผู้ที่มีส่วนร่วมในงานที่ซ้ำซาก
ในความเป็นจริง การพัฒนาทางเทคโนโลยีอาจแทนที่งานบางอย่าง แต่ก็เปิดโอกาสให้เกิดงานที่หลากหลายซึ่งต้องใช้แรงงาน
ประมาณ 80% ของคนงานอเมริกันอาจพบว่าโมเดลการเรียนรู้ภาษา (LLMs) มีอิทธิพลต่อประมาณ 10% ของงานประจำวันของพวกเขา สถิตินี้เน้นย้ำถึงการรวมกันของบทบาท AI และมนุษย์
บทบาทสองด้านของ AI ในกำลังแรงงาน:
- ด้านบวก: AI สามารถทำให้งานอัตโนมัติได้มากมาย ตั้งแต่บริการลูกค้าไปจนถึงคำแนะนำทางการเงิน ซึ่งให้ความช่วยเหลือแก่ธุรกิจขนาดเล็กที่ไม่มีเงินทุนสำหรับทีมที่专注
- ข้อกังวล: การอัตโนมัติที่ดีสามารถทำให้เกิดความกังวลเกี่ยวกับการสูญเสียงาน โดยเฉพาะในภาคส่วนที่ต้องมีการมีส่วนร่วมของมนุษย์ เช่น การสนับสนุนลูกค้า นอกจากนี้ยังมีเรื่องของความเป็นส่วนตัวและความปลอดภัยที่เกี่ยวข้องกับการเข้าถึงข้อมูลที่ละเอียดอ่อน ซึ่งต้องการโครงสร้างพื้นฐานที่แข็งแกร่งเพื่อรับรองความโปร่งใส ความรับผิดชอบ และการใช้ AI อย่างมีจริยธรรม
สรุป
ชัดเจนว่าเครื่องมือ เช่น ChatGPT, Auto-GPT และ GPT-Engineer ยืนอยู่ที่จุดนำหน้าในการเปลี่ยนแปลงปฏิสัมพันธ์ระหว่างเทคโนโลยีกับผู้ใช้ ด้วยรากฐานที่มาจากโครงการที่เปิดแหล่งที่มา ตัวแทน AI เหล่านี้แสดงให้เห็นถึงความเป็นไปได้ของการทำงานอิสระของเครื่องจักร โดยทำให้งานต่างๆ ง่ายขึ้น ตั้งแต่การนัดหมายไปจนถึงการพัฒนาซอฟต์แวร์
เมื่อเราก้าวไปสู่อนาคตที่ AI รวมเข้ากับกิจวัตรประจำวันของเรา การสร้างสมดุลระหว่างการยอมรับความสามารถของ AI และการปกป้องบทบาทของมนุษย์กลายเป็นสิ่งสำคัญ ในภาพรวมที่กว้างขึ้น ความสัมพันธ์ระหว่าง AI และตลาดแรงงานวาดภาพที่ซับซ้อนของโอกาสและความท้าทาย ซึ่งต้องการการบูรณาการที่ตระหนักถึงจริยธรรมด้านเทคโนโลยีและความโปร่งใส


















