Connect with us

Auto-GPT & GPT-Engineer: คู่มือที่ครอบคลุมเกี่ยวกับตัวแทน AI ที่นำหน้าในปัจจุบัน

ปัญญาประดิษฐ์

Auto-GPT & GPT-Engineer: คู่มือที่ครอบคลุมเกี่ยวกับตัวแทน AI ที่นำหน้าในปัจจุบัน

mm

เมื่อเปรียบเทียบ ChatGPT กับตัวแทน AI อิสระ เช่น Auto-GPT และ GPT-Engineer จะเห็นความแตกต่างที่สำคัญในกระบวนการตัดสินใจ ในขณะที่ ChatGPT ต้องการการมีส่วนร่วมของมนุษย์อย่างแข็งขันในการขับเคลื่อนการสนทนา โดยให้คำแนะนำตามคำสั่งผู้ใช้ กระบวนการวางแผนจะพึ่งพาการแทรกแซงของมนุษย์เป็นส่วนใหญ่

โมเดล AI ที่สร้างสรรค์ เช่น Transformer เป็นเทคโนโลยีหลักที่เป็นรากฐานของตัวแทน AI อิสระเหล่านี้ โมเดลเหล่านี้ได้รับการฝึกอบรมจากชุดข้อมูลขนาดใหญ่ ทำให้สามารถจำลองการให้เหตุผลและความสามารถในการตัดสินใจที่ซับซ้อน

รากฐานของตัวแทน AI อิสระที่เปิดแหล่งที่มา: Auto-GPT และ GPT-Engineer

ตัวแทน AI อิสระหลายตัวมีต้นกำเนิดมาจากโครงการที่เปิดแหล่งที่มา ซึ่งนำโดยบุคคลที่มีความคิดสร้างสรรค์ที่เปลี่ยนแปลงกระบวนการทำงานแบบเดิมๆ ไม่เพียงแต่ให้คำแนะนำ แต่ตัวแทน เช่น Auto-GPT สามารถจัดการงานได้อย่างอิสระ ตั้งแต่การช้อปปิ้งออนไลน์ไปจนถึงการสร้างแอปพื้นฐาน Generative AI ของ OpenAI มีเป้าหมายที่จะอัปเกรด ChatGPT จากการให้คำแนะนำไปสู่การแก้ปัญหาโดยใช้แนวคิดเหล่านั้น

ทั้ง Auto-GPT และ GPT-Engineer มีความสามารถของ GPT 3.5 และ GPT-4 ซึ่งเข้าใจตรรกะของโค้ด รวมไฟล์หลายไฟล์ และเร่งกระบวนการพัฒนา

จุดสำคัญของฟังก์ชัน Auto-GPT อยู่ที่ตัวแทน AI เหล่านี้ ซึ่งได้รับการเขียนโปรแกรมให้ดำเนินงานเฉพาะจุด ตั้งแต่งานประจำไปจนถึงงานที่ซับซ้อนที่ต้องใช้การตัดสินใจเชิงกลยุทธ์ อย่างไรก็ตาม ตัวแทน AI เหล่านี้ทำงานภายในขอบเขตที่ผู้ใช้กำหนด โดยการควบคุมการเข้าถึงผ่าน API ผู้ใช้สามารถกำหนดความลึกและขอบเขตของการกระทำที่ AI สามารถทำได้

ตัวอย่างเช่น หากได้รับมอบหมายให้สร้างเว็บแชทที่รวมกับ ChatGPT Auto-GPT จะแบ่งเป้าหมายออกเป็นขั้นตอนที่สามารถดำเนินการได้ เช่น การสร้างหน้าเว็บ HTML หรือการเขียนสคริปต์ Python หลัง โดยที่แอปพลิเคชันจะสร้างคำสั่งเหล่านี้โดยอัตโนมัติ ผู้ใช้สามารถยังคงตรวจสอบและแก้ไขคำสั่งเหล่านี้ได้

ตามที่ผู้สร้าง AutoGPT @SigGravitas แสดงให้เห็นว่าสามารถสร้างและดำเนินโปรแกรมทดสอบตาม Python ได้

https://twitter.com/SigGravitas/status/1642181498278408193

ในขณะที่แผนภาพด้านล่างอธิบายถึงสถาปัตยกรรมทั่วไปของตัวแทน AI อิสระ มันให้ข้อมูลเชิงลึกที่มีคุณค่าเกี่ยวกับกระบวนการที่อยู่เบื้องหลัง

สถาปัตยกรรมตัวแทน AI อิสระ เช่น Autogpt, GPT Engineer

สถาปัตยกรรมตัวแทน AI อิสระ

กระบวนการเริ่มต้นด้วยการตรวจสอบ OpenAI API Key และการเริ่มต้นพารามิเตอร์ต่างๆ รวมถึงหน่วยความจำระยะสั้นและเนื้อหาของฐานข้อมูล เมื่อข้อมูลสำคัญถูกส่งไปยังตัวแทน AI โมเดลจะโต้ตอบกับ GPT3.5/GPT4 เพื่อรับการตอบกลับ การตอบกลับนี้จะถูกแปลงเป็นรูปแบบ JSON ซึ่งตัวแทน AI จะตีความเพื่อดำเนินฟังก์ชันต่างๆ เช่น การค้นหาเว็บ อ่านหรือเขียนไฟล์ หรือแม้แต่การรันโค้ด Auto-GPT ใช้โมเดลที่ได้รับการฝึกอบรมล่วงหน้าเพื่อจัดเก็บการตอบกลับเหล่านี้ในฐานข้อมูล และการโต้ตอบในอนาคตจะใช้ข้อมูลที่จัดเก็บไว้เพื่อใช้อ้างอิง การวนซ้ำจะดำเนินต่อไปจนกว่างานจะถือว่าเสร็จสิ้น

คู่มือการตั้งค่าสำหรับ Auto-GPT และ GPT-Engineer

การตั้งค่าเครื่องมือที่ทันสมัย เช่น GPT-Engineer และ Auto-GPT สามารถทำให้กระบวนการพัฒนาของคุณง่ายขึ้น ด้านล่างนี้เป็นคู่มือที่มีโครงสร้างเพื่อช่วยคุณติดตั้งและกำหนดค่าทั้งสองเครื่องมือ

Auto-GPT

การตั้งค่า Auto-GPT อาจดูซับซ้อน แต่ด้วยขั้นตอนที่ถูกต้อง จะกลายเป็นเรื่องง่าย คู่มือนี้ครอบคลุมขั้นตอนในการตั้งค่า Auto-GPT และให้ข้อมูลเชิงลึกเกี่ยวกับสถานการณ์ที่หลากหลาย

1. สิ่งที่ต้องทำก่อน:

  1. สภาพแวดล้อม Python: ตรวจสอบให้แน่ใจว่าคุณมี Python 3.8 หรือใหม่กว่าติดตั้งแล้ว คุณสามารถรับ Python ได้จาก เว็บไซต์อย่างเป็นทางการ ของ Python
  2. หากคุณวางแผนจะโคลน存ถาบัน ให้ติดตั้ง Git
  3. OpenAI API Key: เพื่อโต้ตอบกับ OpenAI คุณต้องมี API Key คุณสามารถรับ Key ได้จากบัญชี OpenAI ของคุณ
Open AI API Key

Open AI API Key Generation

ตัวเลือกแบ็คเอนด์หน่วยความจำ: แบ็คเอนด์หน่วยความจำทำหน้าที่เป็นกลไกจัดเก็บข้อมูลที่ AutoGPT ใช้ในการเข้าถึงข้อมูลสำคัญสำหรับการดำเนินงาน AutoGPT ใช้ทั้งความสามารถจัดเก็บข้อมูลระยะสั้นและระยะยาว Pinecone, Milvus, Redis และอื่นๆ เป็นตัวเลือกที่มีอยู่

2. การตั้งค่าพื้นที่ทำงานของคุณ:

  1. สร้างสภาพแวดล้อมเสมือน: python3 -m venv myenv
  2. เรียกใช้สภาพแวดล้อม:
    1. MacOS หรือ Linux: source myenv/bin/activate

3. การติดตั้ง:

  1. โคลน存ถาบัน Auto-GPT (ตรวจสอบให้แน่ใจว่าคุณมี Git ติดตั้งแล้ว): git clone https://github.com/Significant-Gravitas/Auto-GPT.git
  2. เพื่อให้แน่ใจว่าคุณทำงานกับ เวอร์ชัน 0.2.2 ของ Auto-GPT คุณจะต้อง checkout ไปยังเวอร์ชันนั้น: git checkout stable-0.2.2
  3. ไปยังที่เก็บที่โหลดมา: cd Auto-GPT
  4. ติดตั้งความต้องการที่จำเป็น: pip install -r requirements.txt

4. การกำหนดค่า:

  1. ค้นหา .env.template ในไดเร็กทอรี /Auto-GPT หลัก คัดลอกและเปลี่ยนชื่อเป็น .env
  2. เปิด .env และตั้งค่า OpenAI API Key ไว้ข้าง OPENAI_API_KEY=
  3. ในทำนองเดียวกัน หากต้องการใช้ Pinecone หรือแบ็คเอนด์หน่วยความจำอื่นๆ อัปเดต .env ไฟล์ด้วย Pinecone API Key และภูมิภาคของคุณ

5. คำสั่งบรรทัดคำสั่ง:

Auto-GPT มีชุดคำสั่งบรรทัดคำสั่งที่มีคุณสมบัติอัน phong Phúในการปรับแต่งพฤติกรรมของมัน:

  • การใช้งานทั่วไป:
    • แสดงความช่วยเหลือ: python -m autogpt --help
    • ปรับแต่งการตั้งค่า AI: python -m autogpt --ai-settings <filename>
    • ระบุแบ็คเอนด์หน่วยความจำ: python -m autogpt --use-memory <memory-backend>
AutoGPT CLI

AutoGPT ใน CLI

6. การเปิดตัว Auto-GPT:

เมื่อดำเนินการกำหนดค่าเสร็จสิ้นแล้ว เริ่มต้น Auto-GPT โดยใช้:

  • Linux หรือ Mac: ./run.sh start
  • Windows: .run.bat

การรวม Docker (วิธีการตั้งค่าที่แนะนำ)

สำหรับผู้ที่ต้องการใช้ Auto-GPT ในรูปแบบคอนเทนเนอร์ Docker มีวิธีการที่เป็นระบบและง่ายต่อการปฏิบัติตาม แต่โปรดทราบว่าการตั้งค่า Docker ในตอนแรกอาจซับซ้อนเล็กน้อย อ้างอิงจาก คู่มือการติดตั้ง Docker สำหรับการช่วยเหลือ

ดำเนินการต่อโดยทำตามขั้นตอนต่อไปนี้เพื่อแก้ไข OpenAI API Key ตรวจสอบให้แน่ใจว่า Docker กำลังทำงานอยู่เบื้องหลัง จากนั้นไปที่ไดเร็กทอรีหลักของ AutoGPT และทำตามขั้นตอนต่อไปนี้ในเทอร์มินัลของคุณ

  • สร้างภาพ Docker: docker build -t autogpt .
  • เรียกใช้: docker run -it --env-file=./.env -v$PWD/auto_gpt_workspace:/app/auto_gpt_workspace autogpt

ด้วย docker-compose:

  • เรียกใช้: docker-compose run --build --rm auto-gpt
  • สำหรับการปรับแต่งเพิ่มเติม คุณสามารถรวมอาร์กิวเมนต์เสริมได้ ตัวอย่างเช่น เพื่อเรียกใช้ด้วย –gpt3only และ –continuous: docker-compose run --rm auto-gpt --gpt3only--continuous
  • เนื่องจาก Auto-GPT มีความเป็นอิสระสูงในการสร้างเนื้อหาจากรายการข้อมูลขนาดใหญ่ จึงมีความเสี่ยงที่จะเข้าถึงแหล่งข้อมูลเว็บที่เป็นอันตรายโดยไม่ตั้งใจ

เพื่อลดความเสี่ยง ให้ดำเนินการ Auto-GPT ภายในคอนเทนเนอร์เสมือน เช่น Docker ซึ่งจะทำให้เนื้อหาที่อาจเป็นอันตรายถูกจำกัดอยู่ภายในพื้นที่เสมือน และไม่ส่งผลกระทบต่อไฟล์หรือระบบภายนอกของคุณ

ในทางเลือกอื่น Windows Sandbox เป็นตัวเลือกหนึ่ง แม้ว่าจะมีการรีเซ็ตหลังจากแต่ละเซสชัน และไม่สามารถรักษาสถานะได้

สำหรับการรักษาความปลอดภัย ให้เรียกใช้ Auto-GPT ในสภาพแวดล้อมเสมือนเสมอ เพื่อให้แน่ใจว่าระบบของคุณจะไม่ถูกกระทำโดยผลลัพธ์ที่ไม่คาดคิด

แม้จะมีคำแนะนำทั้งหมด แต่ยังมีโอกาสที่คุณจะไม่สามารถรับผลลัพธ์ที่คุณต้องการได้ ผู้ใช้ Auto-GPT รายงาน ปัญหาเกิดซ้ำ เมื่อพยายามเขียนลงในไฟล์ โดยมีการพยายามล้มเหลวบ่อยครั้งเนื่องจากชื่อไฟล์ที่มีปัญหา

มีการอภิปรายเกี่ยวกับวิธีแก้ปัญหาเหล่านี้ใน ส่วนอภิปรายของ GitHub สำหรับการอ้างอิง

GPT-Engineer

การทำงานของ GPT-Engineer:

  1. การกำหนดคำสั่ง: สร้างคำอธิบายรายละเอียดเกี่ยวกับโครงการของคุณโดยใช้ภาษาธรรมชาติ
  2. การสร้างโค้ด: ตามคำสั่งของคุณ GPT-Engineer จะสร้างโค้ดส่วนโค้ด ฟังก์ชัน หรือแม้กระทั่งแอปพลิเคชันที่สมบูรณ์
  3. การปรับปรุงและเพิ่มประสิทธิภาพ: หลังจากระบุโค้ดแล้ว มักจะมีโอกาสในการปรับปรุงให้ดีขึ้น นักพัฒนาสามารถแก้ไขโค้ดที่สร้างขึ้นเพื่อตอบสนองความต้องการเฉพาะ และรับประกันคุณภาพสูงสุด

กระบวนการตั้งค่า GPT-Engineer ถูกย่อให้เข้าใจง่ายในคู่มือต่อไปนี้:

1. การเตรียมสภาพแวดล้อม: ก่อนที่จะเริ่มต้น ตรวจสอบให้แน่ใจว่าคุณมีไดเร็กทอรีโปรเจ็กต์พร้อมแล้ว เปิดเทอร์มินัลและรันคำสั่งต่อไปนี้

  • สร้างไดเร็กทอรีใหม่ชื่อ ‘website’: mkdir website
  • ไปยังไดเร็กทอรี: cd website

2. โคลน存ถาบัน:  git clone https://github.com/AntonOsika/gpt-engineer.git .

3. นำทางและติดตั้งความต้องการ: หลังจากโคลนแล้ว เปลี่ยนไปที่ไดเร็กทอรี cd gpt-engineer และติดตั้งความต้องการที่จำเป็นทั้งหมด make install

4. การเรียกใช้สภาพแวดล้อมเสมือน: ขึ้นอยู่กับระบบปฏิบัติการของคุณ เรียกใช้สภาพแวดล้อมเสมือนที่สร้างขึ้น

  • สำหรับ macOS/Linux: source venv/bin/activate
  • สำหรับ Windows (ซึ่งแตกต่างเล็กน้อยเนื่องจากการตั้งค่า API Key): set OPENAI_API_KEY=[your api key]

5. การกำหนดค่า – การตั้งค่า API Key: เพื่อโต้ตอบกับ OpenAI คุณจะต้องมี API Key หากคุณยังไม่มี ลงทะเบียนบนแพลตฟอร์ม OpenAI แล้ว:

  • สำหรับ macOS/Linux: export OPENAI_API_KEY=[your api key]
  • สำหรับ Windows (ตามที่กล่าวไว้ก่อนหน้านี้): set OPENAI_API_KEY=[your api key]

6. การเริ่มต้นโปรเจ็กต์และการสร้างโค้ด: ความสามารถพิเศษของ GPT-Engineer เริ่มต้นด้วย main_prompt ไฟล์ที่พบใน projects โฟลเดอร์

  • หากคุณต้องการเริ่มต้นโปรเจ็กต์ใหม่: cp -r projects/example/ projects/website

ที่นี่ ให้แทนที่ ‘website’ ด้วยชื่อโปรเจ็กต์ที่คุณเลือก

  • แก้ไข main_prompt ไฟล์โดยใช้โปรแกรมแก้ไขข้อความที่คุณชอบ โดยเขียนข้อกำหนดของโปรเจ็กต์ของคุณ

  • เมื่อคุณพอใจกับคำสั่งแล้ว ให้รัน: gpt-engineer projects/website

โค้ดที่สร้างขึ้นของคุณจะอยู่ใน workspace ไดเร็กทอรีภายในโฟลเดอร์โปรเจ็กต์

7. หลังการสร้าง: แม้ว่า GPT-Engineer จะมีพลัง แต่อาจไม่สมบูรณ์เสมอไป ตรวจสอบโค้ดที่สร้างขึ้น และทำการเปลี่ยนแปลงด้วยมือหากจำเป็น เพื่อให้แน่ใจว่าทุกอย่างทำงานได้อย่างราบรื่น

ตัวอย่างการรัน

คำสั่ง:

“ฉันต้องการพัฒนาแอปพลิเคชัน Streamlit พื้นฐานใน Python ที่แสดงข้อมูลผู้ใช้โดยใช้แผนภูมิแบบโต้ตอบ แอปพลิเคชันควรอนุญาตให้ผู้ใช้อัปโหลดไฟล์ CSV เลือกประเภทของแผนภูมิ (เช่น แบр ไพ พาย) และแสดงข้อมูลไดนามิก มันสามารถใช้ไลบรารีเช่น Pandas สำหรับการจัดการข้อมูลและ Plotly สำหรับการแสดงภาพ”

การตั้งค่าและการรัน GPT-Engineer

การตั้งค่าและการรัน GPT-Engineer

เหมือนกับ Auto-GPT GPT-Engineer อาจพบปัญหาได้แม้หลังจากการตั้งค่าเสร็จสิ้น แต่หลังจากความพยายามครั้งที่สาม ฉันก็สามารถเข้าถึงเว็บเพจ Streamlit ได้สำเร็จ ตรวจสอบให้แน่ใจว่าคุณตรวจสอบข้อผิดพลาดใดๆ ใน หน้าปัญหาของ GPT-Engineer

แอปพลิเคชัน Streamlit ที่สร้างโดย GPT-Engineer

แอปพลิเคชัน Streamlit ที่สร้างโดย GPT-Engineer

ข้อจำกัดในปัจจุบันของตัวแทน AI

ค่าใช้จ่ายในการดำเนินงาน

งานเดียวที่ดำเนินการโดย Auto-GPT อาจเกี่ยวข้องกับหลายขั้นตอน ซึ่งแต่ละขั้นตอนอาจ ถูกเรียกเก็บเงินแยกกัน ทำให้ค่าใช้จ่ายเพิ่มขึ้น Auto-GPT สามารถติดอยู่ในลูปซ้ำๆ และไม่สามารถส่งมอบผลลัพธ์ที่สัญญาไว้ได้ เหตุการณ์ดังกล่าวทำให้ความน่าเชื่อถือของมันลดลงและบ่อนทำลายการลงทุน

ลองนึกภาพว่าคุณต้องการสร้างบทความสั้นโดยใช้ Auto-GPT ความยาวที่เหมาะสมของบทความคือ 8K โทเค็น แต่ระหว่างกระบวนการสร้าง โมเดลจะแบ่งออกเป็นขั้นตอนต่างๆ เพื่อสรุปเนื้อหา หากคุณใช้ GPT-4 ที่มีความยาวบริบท 8k สำหรับการรับเข้า คุณจะถูกเรียกเก็บเงิน $0.03 และสำหรับการส่งออก ค่าใช้จ่ายจะเป็น $0.06 สมมติว่าโมเดลเกิดลูปที่ไม่คาดคิดและทำซ้ำบางส่วนหลายครั้ง ไม่เพียงแต่กระบวนการจะยาวขึ้น แต่การทำซ้ำแต่ละครั้งจะเพิ่มค่าใช้จ่ายด้วย

เพื่อป้องกันสิ่งนี้:

ตั้งค่าขีดจำกัดการใช้งาน ที่ OpenAI Billing & Limits:

  • ขีดจำกัดที่เข้มงวด: 限制การใช้งานเกินขีดจำกัดที่คุณกำหนด
  • ขีดจำกัดที่ยืดหยุ่น: ส่งอีเมลแจ้งเตือนเมื่อถึงขีดจำกัด

ข้อจำกัดของฟังก์ชัน

ความสามารถของ Auto-GPT ตามที่แสดงในโค้ดต้นฉบับ มีขอบเขตที่แน่นอน ฟังก์ชันการแก้ปัญหาได้รับการควบคุมโดยฟังก์ชันภายในและความสามารถในการเข้าถึงที่ได้รับจาก API ของ GPT-4 สำหรับการอภิปรายอย่างลึกซึ้งและวิธีแก้ปัญหาที่เป็นไปได้ ให้เยี่ยมชม: การอภิปรายของ Auto-GPT

ผลกระทบของ AI ต่อตลาดแรงงาน

ความสัมพันธ์ระหว่าง AI และตลาดแรงงานมีการเปลี่ยนแปลงอย่างต่อเนื่อง และได้รับการบันทึกไว้อย่างกว้างขวางใน เอกสารวิจัย นี้ ซึ่งมีใจความสำคัญคือ แม้ว่าการพัฒนาทางเทคโนโลยีจะส่งผลดีต่อคนงานที่มีทักษะ แต่ก็อาจก่อให้เกิดความเสี่ยงต่อผู้ที่มีส่วนร่วมในงานที่ซ้ำซาก

ในความเป็นจริง การพัฒนาทางเทคโนโลยีอาจแทนที่งานบางอย่าง แต่ก็เปิดโอกาสให้เกิดงานที่หลากหลายซึ่งต้องใช้แรงงาน

AI ตลาดแรงงาน ตัวแทน AI อิสระเข้าครอง

ประมาณ 80% ของคนงานอเมริกันอาจพบว่าโมเดลการเรียนรู้ภาษา (LLMs) มีอิทธิพลต่อประมาณ 10% ของงานประจำวันของพวกเขา สถิตินี้เน้นย้ำถึงการรวมกันของบทบาท AI และมนุษย์

บทบาทสองด้านของ AI ในกำลังแรงงาน:

  • ด้านบวก: AI สามารถทำให้งานอัตโนมัติได้มากมาย ตั้งแต่บริการลูกค้าไปจนถึงคำแนะนำทางการเงิน ซึ่งให้ความช่วยเหลือแก่ธุรกิจขนาดเล็กที่ไม่มีเงินทุนสำหรับทีมที่专注
  • ข้อกังวล: การอัตโนมัติที่ดีสามารถทำให้เกิดความกังวลเกี่ยวกับการสูญเสียงาน โดยเฉพาะในภาคส่วนที่ต้องมีการมีส่วนร่วมของมนุษย์ เช่น การสนับสนุนลูกค้า นอกจากนี้ยังมีเรื่องของความเป็นส่วนตัวและความปลอดภัยที่เกี่ยวข้องกับการเข้าถึงข้อมูลที่ละเอียดอ่อน ซึ่งต้องการโครงสร้างพื้นฐานที่แข็งแกร่งเพื่อรับรองความโปร่งใส ความรับผิดชอบ และการใช้ AI อย่างมีจริยธรรม

สรุป

ชัดเจนว่าเครื่องมือ เช่น ChatGPT, Auto-GPT และ GPT-Engineer ยืนอยู่ที่จุดนำหน้าในการเปลี่ยนแปลงปฏิสัมพันธ์ระหว่างเทคโนโลยีกับผู้ใช้ ด้วยรากฐานที่มาจากโครงการที่เปิดแหล่งที่มา ตัวแทน AI เหล่านี้แสดงให้เห็นถึงความเป็นไปได้ของการทำงานอิสระของเครื่องจักร โดยทำให้งานต่างๆ ง่ายขึ้น ตั้งแต่การนัดหมายไปจนถึงการพัฒนาซอฟต์แวร์

เมื่อเราก้าวไปสู่อนาคตที่ AI รวมเข้ากับกิจวัตรประจำวันของเรา การสร้างสมดุลระหว่างการยอมรับความสามารถของ AI และการปกป้องบทบาทของมนุษย์กลายเป็นสิ่งสำคัญ ในภาพรวมที่กว้างขึ้น ความสัมพันธ์ระหว่าง AI และตลาดแรงงานวาดภาพที่ซับซ้อนของโอกาสและความท้าทาย ซึ่งต้องการการบูรณาการที่ตระหนักถึงจริยธรรมด้านเทคโนโลยีและความโปร่งใส

ฉันใช้เวลา 5 ปีที่ผ่านมาในการศึกษาและเรียนรู้เกี่ยวกับโลกของ Machine Learning และ Deep Learning อย่างลึกซึ้ง ความรู้และความเชี่ยวชาญของฉันทำให้ฉันได้เข้าร่วมในโครงการพัฒนาซอฟต์แวร์มากกว่า 50 โครงการที่มีความหลากหลาย โดยมุ่งเน้นไปที่ AI/ML ความอยากรู้อยากเห็นของฉันยังดึงดูดให้ฉันสนใจไปที่ Natural Language Processing ซึ่งเป็นสาขาที่ฉันกระตือรือร้นที่จะสำรวจเพิ่มเติม