Trí tuệ nhân tạo
Tích hợp mã nguồn mở Auto-GPT & BabyAGI tích hợp đệ quy vào ứng dụng AI

Các phát triển gần đây liên quan đến Auto-GPT và BabyAGI đã chứng minh tiềm năng ấn tượng của các tác nhân tự động, tạo ra sự hào hứng đáng kể trong lĩnh vực nghiên cứu và phát triển phần mềm AI. Các tác nhân này, dựa trên mô hình ngôn ngữ lớn (LLM), có khả năng thực hiện các trình tự nhiệm vụ phức tạp để đáp ứng các yêu cầu của người dùng. Bằng cách sử dụng nhiều tài nguyên như truy cập internet và tệp tin cục bộ, các API khác và cấu trúc bộ nhớ cơ bản, các tác nhân này thể hiện những tiến bộ ban đầu trong việc tích hợp đệ quy vào các ứng dụng AI.
BabyAGI là gì?
BabyAGI, được giới thiệu bởi Yohei Nakajima qua Twitter vào ngày 28 tháng 3 năm 2023, là một phiên bản tinh gọn của Tác nhân Tự động Được Đạo diễn Bởi Nhiệm vụ. Sử dụng khả năng xử lý ngôn ngữ tự nhiên (NLP) của OpenAI và Pinecone để lưu trữ và lấy kết quả nhiệm vụ trong ngữ cảnh, BabyAGI cung cấp một trải nghiệm hiệu quả và thân thiện với người dùng. Với 140 dòng mã code tinh gọn, BabyAGI dễ dàng hiểu và mở rộng.
Tên BabyAGI thực sự có ý nghĩa khi các công cụ này liên tục thúc đẩy xã hội hướng tới các hệ thống AI, mặc dù chưa đạt được Trí tuệ Tổng quát Nhân tạo (AGI), nhưng đang tăng trưởng theo cấp số nhân về sức mạnh. Hệ sinh thái AI trải qua những tiến bộ mới mỗi ngày, và với những đột phá trong tương lai và tiềm năng của một phiên bản GPT có thể tự nhắc nhở để giải quyết các vấn đề phức tạp, những hệ thống này hiện nay mang lại cho người dùng cảm giác như đang tương tác với AGI.
Auto-GPT là gì?
Auto-GPT là một tác nhân AI được thiết kế để đạt được các mục tiêu được thể hiện bằng ngôn ngữ tự nhiên bằng cách chia chúng thành các nhiệm vụ con nhỏ hơn và sử dụng tài nguyên như internet và các công cụ khác trong một vòng lặp tự động. Tác nhân này sử dụng API GPT-4 hoặc GPT-3.5 của OpenAI và nổi bật như một trong những ứng dụng tiên phong sử dụng GPT-4 để thực hiện các nhiệm vụ tự động.
Không giống như các hệ thống tương tác như ChatGPT, phụ thuộc vào hướng dẫn thủ công cho từng nhiệm vụ, Auto-GPT tự đặt mục tiêu cho mình để đạt được một mục tiêu lớn hơn, mà không nhất thiết cần sự can thiệp của con người. Có khả năng tạo ra phản hồi cho các yêu cầu để hoàn thành một nhiệm vụ cụ thể, Auto-GPT cũng có thể tạo và sửa đổi các yêu cầu của riêng mình cho các trường hợp đệ quy dựa trên thông tin mới thu được.
Điều này có nghĩa là gì khi di chuyển tiến về phía trước
Mặc dù vẫn còn trong giai đoạn thử nghiệm và với một số hạn chế, các tác nhân này có khả năng thúc đẩy tăng trưởng năng suất được tạo điều kiện bởi chi phí giảm của phần cứng và phần mềm AI. Theo nghiên cứu của ARK Invest, phần mềm AI có thể tạo ra tới 14 nghìn tỷ đô la doanh thu và 90 nghìn tỷ đô la giá trị doanh nghiệp vào năm 2030. Khi các mô hình cơ bản như GPT-4 tiếp tục tiến bộ, nhiều công ty đang chọn đào tạo các mô hình chuyên dụng nhỏ hơn của riêng họ. Mặc dù các mô hình cơ bản có nhiều ứng dụng, nhưng các mô hình chuyên dụng nhỏ hơn cung cấp các lợi thế như giảm chi phí suy luận.
Hơn nữa, nhiều doanh nghiệp lo ngại về các vấn đề bản quyền và quản lý dữ liệu đang chọn phát triển các mô hình độc quyền của riêng họ bằng cách kết hợp dữ liệu công khai và riêng tư. Một ví dụ đáng chú ý là một mô hình LLM 2,7 tỷ tham số được đào tạo trên dữ liệu y sinh PubMed, đã đạt được kết quả đầy hứa hẹn trên bài kiểm tra câu hỏi và trả lời của Kỳ thi cấp phép Y tế Hoa Kỳ (USMLE). Chi phí đào tạo khoảng 38.000 đô la trên nền tảng MosaicML, với thời gian tính toán là 6,25 ngày. Ngược lại, lần chạy đào tạo cuối cùng của GPT-3 được ước tính có chi phí gần 5 triệu đô la tính toán.












