Connect with us

Auto-GPT & GPT-Engineer: Hướng Dẫn Chi Tiết Về Các Đại Diện AI Hàng Đầu Hôm Nay

Trí tuệ nhân tạo

Auto-GPT & GPT-Engineer: Hướng Dẫn Chi Tiết Về Các Đại Diện AI Hàng Đầu Hôm Nay

mm

Khi so sánh ChatGPT với các đại diện AI tự động như Auto-GPT và GPT-Engineer, một sự khác biệt đáng kể xuất hiện trong quá trình ra quyết định. Trong khi ChatGPT yêu cầu sự can thiệp tích cực của con người để thúc đẩy cuộc trò chuyện, cung cấp hướng dẫn dựa trên các gợi ý của người dùng, quá trình lập kế hoạch chủ yếu phụ thuộc vào can thiệp của con người.

Generative AI như các mô hình transformer là công nghệ lõi hiện đại, thúc đẩy các đại diện AI tự động này. Những transformer này được đào tạo trên các tập dữ liệu lớn, cho phép chúng mô phỏng các khả năng suy luận và ra quyết định phức tạp.

Nguyên Tắc Mở của Các Đại Diện Tự Động: Auto-GPT và GPT-Engineer

Nhiều đại diện AI tự động này bắt nguồn từ các sáng kiến mở do các cá nhân đổi mới dẫn đầu, biến đổi các quy trình làm việc truyền thống. Thay vì chỉ cung cấp đề xuất, các đại diện như Auto-GPT có thể xử lý các nhiệm vụ một cách độc lập, từ mua sắm trực tuyến đến xây dựng các ứng dụng cơ bản. Trình giải mã code của OpenAI nhằm nâng cấp ChatGPT từ việc chỉ đề xuất ý tưởng đến việc giải quyết các vấn đề một cách tích cực với những ý tưởng đó.

Cả Auto-GPT và GPT-Engineer đều được trang bị sức mạnh của GPT 3.5 và GPT-4. Nó nắm bắt logic code, kết hợp nhiều tệp và tăng tốc quá trình phát triển.

Nhìn chung, Auto-GPT hoạt động dựa trên các đại diện AI của nó. Những đại diện này được lập trình để thực hiện các nhiệm vụ cụ thể, từ những việc tầm thường như lên lịch đến các nhiệm vụ phức tạp đòi hỏi quyết định chiến lược. Tuy nhiên, những đại diện AI này hoạt động trong khuôn khổ do người dùng đặt ra. Bằng cách kiểm soát quyền truy cập của chúng thông qua API, người dùng có thể xác định độ sâu và phạm vi của các hành động mà AI có thể thực hiện.

Ví dụ, nếu được giao nhiệm vụ tạo một ứng dụng web trò chuyện tích hợp với ChatGPT, Auto-GPT tự động chia nhỏ mục tiêu thành các bước có thể thực hiện, như tạo giao diện người dùng HTML hoặc lập trình backend bằng Python. Trong khi ứng dụng tự động tạo ra những gợi ý này, người dùng vẫn có thể theo dõi và sửa đổi chúng. Như được thể hiện bởi người tạo ra AutoGPT @SigGravitas, nó có thể xây dựng và thực hiện một chương trình thử nghiệm dựa trên Python.

https://twitter.com/SigGravitas/status/1642181498278408193

Mặc dù sơ đồ dưới đây mô tả một kiến trúc chung hơn của một đại diện AI tự động, nó cung cấp thông tin quý giá về các quá trình diễn ra sau hậu trường.

Kiến Trúc Đại Diện AI Tự Động như Autogpt, GPT Engineer

Kiến Trúc Đại Diện AI Tự Động

Quá trình được bắt đầu bằng cách xác minh khóa API OpenAI và khởi tạo các tham số khác nhau, bao gồm bộ nhớ ngắn hạn và nội dung cơ sở dữ liệu. Một khi các dữ liệu chính được truyền đến Đại Diện, mô hình tương tác với GPT3.5/GPT4 để lấy một phản hồi. Phản hồi này sau đó được chuyển đổi thành định dạng JSON, mà Đại Diện giải thích để thực hiện nhiều chức năng, như thực hiện tìm kiếm trực tuyến, đọc hoặc ghi tệp, hoặc thậm chí chạy code. Auto-GPT sử dụng một mô hình được đào tạo trước để lưu trữ các phản hồi này trong một cơ sở dữ liệu, và các tương tác trong tương lai sử dụng thông tin lưu trữ này làm tham khảo. Vòng lặp tiếp tục cho đến khi nhiệm vụ được coi là hoàn thành.

Hướng Dẫn Cài Đặt cho Auto-GPT và GPT-Engineer

Cài đặt các công cụ tiên tiến như GPT-Engineer và Auto-GPT có thể giúp tối ưu hóa quá trình phát triển của bạn. Dưới đây là hướng dẫn có cấu trúc để giúp bạn cài đặt và cấu hình cả hai công cụ.

Auto-GPT

Cài đặt Auto-GPT có thể xuất hiện phức tạp, nhưng với các bước đúng, nó trở nên đơn giản. Hướng dẫn này bao gồm quy trình để cài đặt Auto-GPT và cung cấp thông tin về các kịch bản đa dạng của nó.

1. Điều Kiện Tiên Quyết:

  1. Môi Trường Python: Đảm bảo bạn đã cài đặt Python 3.8 hoặc mới hơn. Bạn có thể tải Python từ trang web chính thức của nó.
  2. Nếu bạn dự định sao chép các kho lưu trữ, hãy cài đặt Git.
  3. Khóa API OpenAI: Để tương tác với OpenAI, một khóa API là cần thiết. Nhận khóa từ tài khoản OpenAI của bạn
Khóa API Open AI

Tạo Khóa API Open AI

选项 Lưu Trữ Bộ Nhớ: Một cơ chế lưu trữ bộ nhớ phục vụ như một cơ chế lưu trữ cho AutoGPT để truy cập dữ liệu thiết yếu cho các hoạt động của nó. AutoGPT sử dụng cả khả năng lưu trữ ngắn hạn và dài hạn. Pinecone, Milvus, Redis, và các lựa chọn khác có sẵn.

2. Cài Đặt Không Gian Làm Việc:

  1. Tạo một môi trường ảo: python3 -m venv myenv
  2. Kích hoạt môi trường:
    1. MacOS hoặc Linux: source myenv/bin/activate

3. Cài Đặt:

  1. Sao chép kho lưu trữ Auto-GPT (đảm bảo bạn đã cài đặt Git): git clone https://github.com/Significant-Gravitas/Auto-GPT.git
  2. Để đảm bảo bạn đang làm việc với phiên bản 0.2.2 của Auto-GPT, bạn sẽ muốn kiểm tra phiên bản cụ thể đó: git checkout stable-0.2.2
  3. Di chuyển đến thư mục đã tải xuống: cd Auto-GPT
  4. Cài đặt các phụ thuộc cần thiết: pip install -r requirements.txt

4. Cấu Hình:

  1. Tìm tệp .env.template trong thư mục chính /Auto-GPT. Sao chép và đổi tên nó thành .env
  2. Mở .env và đặt khóa API OpenAI của bạn bên cạnh OPENAI_API_KEY=
  3. Tương tự, để sử dụng Pinecone hoặc các backend lưu trữ bộ nhớ khác, cập nhật tệp .env với khóa API Pinecone và khu vực của bạn.

5. Hướng Dẫn Dòng Lệnh:

Auto-GPT cung cấp một tập hợp phong phú các đối số dòng lệnh để tùy chỉnh hành vi của nó:

  • Sử Dụng Chung:
    • Hiển Thị Trợ Giúp: python -m autogpt --help
    • Điều Chỉnh Cài Đặt AI: python -m autogpt --ai-settings <filename>
    • Xác Định Backend Lưu Trữ Bộ Nhớ: python -m autogpt --use-memory <backend lưu trữ bộ nhớ>
AutoGPT CLI

AutoGPT trong CLI

6. Khởi Chạy Auto-GPT:

Một khi cấu hình hoàn tất, khởi chạy Auto-GPT bằng:

  • Linux hoặc Mac: ./run.sh start
  • Windows: .run.bat

Tích Hợp Docker (Phương Pháp Cài Đặt Khuyến Nghị)

Đối với những người muốn chứa Auto-GPT, Docker cung cấp một phương pháp tiếp cận được tối ưu hóa. Tuy nhiên, hãy lưu ý rằng cài đặt ban đầu của Docker có thể hơi phức tạp. Tham khảo hướng dẫn cài đặt Docker để được hỗ trợ.

Tiến hành theo các bước dưới đây để sửa đổi khóa API OpenAI. Đảm bảo Docker đang chạy ở chế độ nền. Bây giờ, hãy chuyển đến thư mục chính của AutoGPT và làm theo các bước sau trên thiết bị đầu cuối

  • Xây dựng hình ảnh Docker: docker build -t autogpt .
  • Chạy: docker run -it --env-file=./.env -v$PWD/auto_gpt_workspace:/app/auto_gpt_workspace autogpt

Với docker-compose:

  • Chạy: docker-compose run --build --rm auto-gpt
  • Để tùy chỉnh thêm, bạn có thể tích hợp các đối số bổ sung. Ví dụ, để chạy với cả –gpt3only và –continuous: docker-compose run --rm auto-gpt --gpt3only--continuous
  • Do sự tự chủ rộng lớn mà Auto-GPT sở hữu trong việc tạo nội dung từ các tập dữ liệu lớn, có nguy cơ nó vô tình truy cập vào các nguồn web độc hại.

Để giảm thiểu rủi ro, hãy vận hành Auto-GPT trong một container ảo, như Docker. Điều này đảm bảo rằng bất kỳ nội dung nào có khả năng gây hại sẽ bị giới hạn trong không gian ảo, giữ cho các tệp và hệ thống của bạn không bị ảnh hưởng.

Để đảm bảo an toàn, hãy luôn chạy Auto-GPT trong một môi trường ảo, đảm bảo hệ thống của bạn được cách ly khỏi các đầu ra không mong muốn.

Dù vậy, vẫn có khả năng bạn sẽ không thể đạt được kết quả mong muốn. Người dùng Auto-GPT đã báo cáo các vấn đề lặp lại khi cố gắng viết vào một tệp, thường gặp phải các nỗ lực thất bại do tên tệp có vấn đề. Đây là một lỗi như vậy: Auto-GPT (phiên bản 0.2.2) không thêm văn bản sau lỗi "write_to_file returned: Error: File đã được cập nhật

Các giải pháp để giải quyết vấn đề này đã được thảo luận trên luồng thảo luận GitHub để tham khảo.

GPT-Engineer

Quy Trình Làm Việc GPT-Engineer:

  1. Định Nghĩa Gợi Ý: Tạo một mô tả chi tiết về dự án của bạn bằng ngôn ngữ tự nhiên.
  2. Thế Hệ Code: Dựa trên gợi ý của bạn, GPT-Engineer bắt đầu tạo ra các đoạn code, hàm hoặc thậm chí các ứng dụng hoàn chỉnh.
  3. Định Nghĩa Lại và Tối Ưu Hóa: Sau khi tạo, luôn có chỗ cho việc cải thiện. Các nhà phát triển có thể sửa đổi code được tạo để đáp ứng các yêu cầu cụ thể, đảm bảo chất lượng hàng đầu.

Quá trình cài đặt GPT-Engineer đã được cô đọng thành một hướng dẫn dễ theo dõi. Dưới đây là phân tích từng bước:

1. Chuẩn Bị Môi Trường: Trước khi bắt đầu, hãy đảm bảo bạn đã sẵn sàng thư mục dự án. Mở một thiết bị đầu cuối và chạy lệnh dưới đây

  • Tạo một thư mục mới tên ‘website’: mkdir website
  • Chuyển đến thư mục: cd website

2. Sao Chép Kho Lưu Trữ:  git clone https://github.com/AntonOsika/gpt-engineer.git .

3. Điều Hướng & Cài Đặt Phụ Thuộc: Một khi đã sao chép, chuyển đến thư mục cd gpt-engineer và cài đặt tất cả các phụ thuộc cần thiết make install

4. Kích Hoạt Môi Trường Ảo: Tùy thuộc vào hệ điều hành của bạn, kích hoạt môi trường ảo được tạo.

  • Đối với macOS/Linux: source venv/bin/activate
  • Đối với Windows, nó hơi khác do thiết lập khóa API: set OPENAI_API_KEY=[khóa api của bạn]

5. Cấu Hình – Thiết Lập Khóa API: Để tương tác với OpenAI, bạn sẽ cần một khóa API. Nếu bạn chưa có, hãy đăng ký trên nền tảng OpenAI, sau đó:

  • Đối với macOS/Linux: export OPENAI_API_KEY=[khóa api của bạn]
  • Đối với Windows (như đã đề cập): set OPENAI_API_KEY=[khóa api của bạn]

6. Khởi Chạy Dự Án & Thế Hệ Code: Sự kỳ diệu của GPT-Engineer bắt đầu với tệp main_prompt được tìm thấy trong thư mục projects .

  • Nếu bạn muốn bắt đầu một dự án mới: cp -r projects/example/ projects/website

Tại đây, thay thế ‘website’ bằng tên dự án bạn đã chọn.

  • Chỉnh sửa tệp main_prompt sử dụng một trình soạn thảo văn bản của bạn, viết xuống các yêu cầu của dự án.

  • Một khi bạn hài lòng với gợi ý, hãy chạy: gpt-engineer projects/website

Code được tạo sẽ nằm trong thư mục workspace trong thư mục dự án.

7. Sau Thế Hệ: Mặc dù GPT-Engineer rất mạnh mẽ, nó không phải lúc nào cũng hoàn hảo. Kiểm tra code được tạo, thực hiện các thay đổi thủ công nếu cần, và đảm bảo mọi thứ chạy trơn tru.

Ví Dụ Chạy

Gợi Ý:

“Tôi muốn phát triển một ứng dụng Streamlit cơ bản trong Python để trực quan hóa dữ liệu người dùng thông qua các biểu đồ tương tác. Ứng dụng nên cho phép người dùng tải lên một tệp CSV, chọn loại biểu đồ (ví dụ: thanh, bánh, đường) và trực quan hóa dữ liệu một cách động. Nó có thể sử dụng các thư viện như Pandas để xử lý dữ liệu và Plotly để trực quan hóa.”

Cài Đặt và Chạy GPT-Engineer

Cài Đặt và Chạy GPT-Engineer

Giống như Auto-GPT, GPT-Engineer đôi khi có thể gặp lỗi ngay cả sau khi cài đặt hoàn tất. Tuy nhiên, trong lần thử thứ ba, tôi đã thành công truy cập vào trang web Streamlit sau. Hãy đảm bảo bạn xem xét bất kỳ lỗi nào trên trang vấn đề chính thức của GPT-Engineer.

Ứng Dụng Streamlit được tạo bằng GPT-Engineer

Ứng Dụng Streamlit được tạo bằng GPT-Engineer

Điểm Nghẽn Hiện Tại Của Các Đại Diện AI

Chi Phí Hoạt Động

Một nhiệm vụ đơn lẻ được thực hiện bởi Auto-GPT có thể liên quan đến nhiều bước. Điều quan trọng là mỗi bước này có thể được tính phí riêng, làm tăng chi phí. Auto-GPT có thể bị kẹt trong các vòng lặp lặp lại, không thể cung cấp kết quả như mong đợi. Những sự cố này làm suy yếu sự tin cậy của nó và làm suy yếu khoản đầu tư.

Hãy tưởng tượng bạn muốn tạo một bài luận ngắn với Auto-GPT. Độ dài lý tưởng của bài luận là 8K token, nhưng trong quá trình tạo, mô hình đi sâu vào nhiều bước trung gian để hoàn thiện nội dung. Nếu bạn sử dụng GPT-4 với độ dài ngữ cảnh 8k thì cho đầu vào, bạn sẽ bị tính phí $0.03. Và cho đầu ra, chi phí sẽ là $0.06. Bây giờ, hãy nói rằng mô hình gặp phải một vòng lặp không lường trước, làm lại một số phần nhiều lần. Không chỉ quá trình trở nên dài hơn, mà mỗi lần lặp lại cũng thêm vào chi phí.

Để bảo vệ chống lại điều này:

Đặt giới hạn sử dụng tại OpenAI Billing & Limits:

  • Giới Hạn Cứng: Hạn chế sử dụng vượt quá ngưỡng đặt của bạn.
  • Giới Hạn Mềm: Gửi cho bạn một thông báo email khi ngưỡng được đáp ứng.

Giới Hạn Chức Năng

Khả năng của Auto-GPT, như được mô tả trong mã nguồn của nó, đi kèm với một số ranh giới. Các chiến lược giải quyết vấn đề của nó được quản lý bởi các chức năng nội tại và khả năng truy cập được cung cấp bởi API của GPT-4. Đối với các cuộc thảo luận sâu và các giải pháp có thể, hãy xem xét việc truy cập: Thảo Luận Auto-GPT.

Tác Động Của AI Đối Với Thị Trường Lao Động

Mối quan hệ giữa AI và thị trường lao động đang不断 thay đổi và được ghi lại rộng rãi trong bài báo nghiên cứu này. Một điểm quan trọng cần lưu ý là trong khi tiến bộ công nghệ thường có lợi cho công nhân có kỹ năng, nó cũng đặt ra rủi ro cho những người tham gia vào các nhiệm vụ thường xuyên. Trên thực tế, tiến bộ công nghệ có thể thay thế một số nhiệm vụ nhưng đồng thời mở ra con đường cho các nhiệm vụ đa dạng và đòi hỏi lao động.

Thị Trường Lao Động AI Đại Diện Tự Động Overtake

Khoảng 80% công nhân Mỹ có thể thấy rằng các mô hình học ngôn ngữ (LLM) ảnh hưởng đến khoảng 10% công việc hàng ngày của họ. Thống kê này nhấn mạnh sự kết hợp của AI và vai trò con người.

Vai trò kép của AI trong lực lượng lao động:

  • Khía Cạnh Dương: AI có thể tự động hóa nhiều nhiệm vụ, từ dịch vụ khách hàng đến tư vấn tài chính, mang lại sự giảm nhẹ cho các doanh nghiệp nhỏ không có đủ nguồn lực cho các đội chuyên dụng.
  • Lo Lắng: Lợi ích của tự động hóa làm dấy lên những lo ngại về việc mất việc làm, đặc biệt là trong các lĩnh vực mà sự tham gia của con người là tối quan trọng, như hỗ trợ khách hàng. Cùng với đó là mê cung đạo đức gắn liền với việc AI truy cập dữ liệu bí mật. Điều này đòi hỏi một cơ sở hạ tầng mạnh mẽ đảm bảo tính minh bạch, trách nhiệm và sử dụng AI một cách đạo đức.

Kết Luận

Rõ ràng, các công cụ như ChatGPT, Auto-GPT và GPT-Engineer đang đứng ở tiền phong của việc thay đổi cách tương tác giữa công nghệ và người dùng. Với gốc rễ trong các phong trào mã nguồn mở, những đại diện AI này thể hiện khả năng của tự chủ máy, tối ưu hóa các nhiệm vụ từ lên lịch đến phát triển phần mềm.

Khi chúng ta tiến vào một tương lai mà AI tích hợp sâu hơn vào các thói quen hàng ngày, việc tìm kiếm sự cân bằng giữa việc chấp nhận khả năng của AI và bảo vệ vai trò con người trở nên quan trọng. Trên quy mô rộng lớn hơn, động lực AI-lao động描绘 một hình ảnh kép của cơ hội tăng trưởng và thách thức, đòi hỏi sự tích hợp có ý thức của đạo đức công nghệ và tính minh bạch.

Tôi đã dành 5 năm qua để đắm mình trong thế giới hấp dẫn của Máy học và Học sâu. Đam mê và chuyên môn của tôi đã dẫn tôi đến việc đóng góp vào hơn 50 dự án kỹ thuật phần mềm đa dạng, với trọng tâm đặc biệt là AI/ML. Sự tò mò liên tục của tôi cũng đã thu hút tôi đến Xử lý Ngôn ngữ Tự nhiên, một lĩnh vực tôi渴望 khám phá thêm.