Штучний інтелект
Відкритий Джерельний Авто-GPT та BabyAGI Інтегрують Рекурсію До Застосувань Штучного Інтелекту

Останні розробки, що涉ють Auto-GPT та BabyAGI, продемонстрували вражаючий потенціал автономних агентів, викликаючи значний ентузіазм у сфері дослідження штучного інтелекту та розробки програмного забезпечення. Ці агенти, засновані на великих моделях мови (LLM), здатні виконувати складні послідовності завдань у відповідь на запити користувача. Використовуючи різноманітні ресурси, такі як Інтернет та локальний доступ до файлів, інші API та базові структури пам’яті, ці агенти демонструють перші кроки у інтеграції рекурсії до застосувань штучного інтелекту.
Що таке BabyAGI?
BabyAGI, представлений Йоєю Накадзіма через Twitter 28 березня 2023 року, є оптимізованою ітерацією оригінального автономного агента, керованого завданнями. Використовуючи можливості обробки природної мови OpenAI та Pinecone для зберігання та відновлення результатів завдань у контексті, BabyAGI забезпечує ефективний та зручний досвід. З компактним кодом у 140 рядків, BabyAGI легко зрозуміти та розширити.
Ім’я BabyAGI дійсно значуще, оскільки ці інструменти постійно рухають суспільство до систем штучного інтелекту, які, хоча ще не досягають штучного загального інтелекту (AGI), експоненційно зростають у потужності. Екосистема штучного інтелекту переживає нові досягнення щодня, а з майбутніми проривами та потенційною можливістю версії GPT, здатної ініціювати себе для вирішення складних проблем, ці системи зараз дають користувачам враження взаємодії з AGI.
Що таке Auto-GPT?
Auto-GPT – це агент штучного інтелекту, призначений для виконання цілей, виражених у природній мові, шляхом розділення їх на менші підзадачі та використання ресурсів, таких як Інтернет та інші інструменти, у автоматичному циклі. Цей агент використовує API OpenAI GPT-4 або GPT-3.5 та виділяється як одна з піонерських застосувань, які використовують GPT-4 для виконання автономних завдань.
На відміну від інтерактивних систем, таких як ChatGPT, які залежать від ручних інструкцій для кожного завдання, Auto-GPT встановлює нові цілі для себе для досягнення більшої мети, без необхідності людського втручання. Здатний генерувати відповіді на запити для виконання конкретного завдання, Auto-GPT також може створювати та модифікувати свої власні запити для рекурсивних випадків на основі нової інформації.
Що це означає для майбутнього
Хоча все ще перебуває у експериментальній фазі та має деякі обмеження, агенти готуються до підвищення продуктивності, спричиненої зниженням витрат на апаратне та програмне забезпечення штучного інтелекту. Згідно з дослідженням ARK Invest, програмне забезпечення штучного інтелекту потенційно може виробляти до 14 трильйонів доларів доходу та 90 трильйонів доларів вартості підприємства до 2030 року. Коли фундаментальні моделі, такі як GPT-4, продовжують розвиватися, багато компаній обирають тренування своїх власних менших, спеціалізованих моделей. Хоча фундаментальні моделі мають широкий спектр застосувань, менші спеціалізовані моделі пропонують переваги, такі як зниження витрат на висновок.
Крім того, багато підприємств, які турбуються про питання авторських прав та управління даними, обирають розробку власних пропріетарних моделей, використовуючи суміш публічних та приватних даних. Видатним прикладом є модель LLM з 2,7 мільярдами параметрів, навчена на PubMed біомедичних даних, яка досягла перспективних результатів на тести з питань та відповідей ліцензійного іспиту лікарів США (USMLE). Витрати на тренування становили приблизно 38 000 доларів на платформі MosaicML, з тривалістю обчислень 6,25 днів. Для порівняння, остаточний тренувальний запуск GPT-3 оцінюється у майже 5 мільйонів доларів витрат на обчислення.












