заглушки Auto-GPT & GPT-Engineer: поглиблений посібник для сучасних провідних агентів ШІ - Unite.AI
Зв'язатися з нами

Штучний Інтелект

Auto-GPT & GPT-Engineer: поглиблений посібник для сучасних провідних агентів ШІ

mm

опублікований

 on

Порівнюючи ChatGPT з автономними агентами AI, такими як Auto-GPT і GPT-Engineer, виявляється значна різниця в процесі прийняття рішень. У той час як ChatGPT вимагає активної участі людини для ведення розмови, надання вказівок на основі підказок користувача, процес планування переважно залежить від втручання людини.

Генеративний ШІ Такі моделі, як трансформери, є найсучаснішою основною технологією, яка керує цими автономними агентами ШІ. Ці трансформатори навчаються на великих наборах даних, що дозволяє їм імітувати складні міркування та можливості прийняття рішень.

Коріння автономних агентів з відкритим кодом: Auto-GPT і GPT-Engineer

Багато з цих автономних агентів штучного інтелекту походять від ініціатив з відкритим кодом, очолюваних інноваційними людьми, які трансформують звичайні робочі процеси. Замість того, щоб просто пропонувати пропозиції, такі агенти, як Auto-GPT, можуть самостійно вирішувати завдання, від онлайн-покупок до створення базових програм. Інтерпретатор коду OpenAI спрямований на оновлення ChatGPT від простої пропозиції ідей до активного вирішення проблем на основі цих ідей.

І Auto-GPT, і GPT-Engineer оснащені потужністю GPT 3.5 і GPT-4. Він вловлює логіку коду, об’єднує декілька файлів і прискорює процес розробки.

Суть функціональності Auto-GPT полягає в його агентах ШІ. Ці агенти запрограмовані на виконання конкретних завдань, від повсякденних, як-от планування, до більш складних завдань, які вимагають прийняття стратегічних рішень. Однак ці агенти ШІ діють у межах, встановлених користувачами. Контролюючи свій доступ через API, користувачі можуть визначати глибину та обсяг дій, які може виконувати ШІ.

Наприклад, якщо поставлено завдання створити веб-програму для чату, інтегровану з ChatGPT, Auto-GPT автономно розбиває ціль на практичні кроки, як-от створення HTML-інтерфейсу або сценарію бек-енду на Python. Хоча програма автономно створює ці підказки, користувачі все ще можуть відстежувати та змінювати їх. Як показав творець AutoGPT @SigGravitas, він здатний створювати та виконувати тестову програму на основі Python.

Хоча діаграма нижче описує більш загальну архітектуру автономного агента штучного інтелекту, вона пропонує цінне розуміння процесів, що відбуваються за лаштунками.

Архітектура AI Agent, наприклад Autogpt, GPT Engineer

Архітектура автономного агента AI

Процес ініціюється перевіркою ключа OpenAI API та ініціалізацією різних параметрів, включаючи короткочасну пам’ять і вміст бази даних. Коли ключові дані передаються агенту, модель взаємодіє з GPT3.5/GPT4 для отримання відповіді. Потім ця відповідь перетворюється у формат JSON, який агент інтерпретує для виконання різноманітних функцій, як-от проведення онлайн-пошуку, читання чи записування файлів або навіть виконання коду. Auto-GPT використовує попередньо навчену модель для зберігання цих відповідей у ​​базі даних, і майбутні взаємодії використовують цю збережену інформацію для довідки. Цикл продовжується, доки завдання не буде визнано виконаним.

Посібник із налаштування Auto-GPT і GPT-Engineer

Налаштування передових інструментів, таких як GPT-Engineer і Auto-GPT, може оптимізувати процес розробки. Нижче наведено структурований посібник, який допоможе вам встановити та налаштувати обидва інструменти.

Auto-GPT

Налаштування Auto-GPT може здатися складним, але з правильними кроками це стає простим. У цьому посібнику описано процедуру налаштування Auto-GPT і запропоновано розуміння різноманітних сценаріїв.

1. Передумови:

  1. Середовище Python: переконайтеся, що у вас встановлено Python 3.8 або новішої версії. Ви можете отримати Python з його Офіційний сайт.
  2. Якщо ви плануєте клонувати репозиторії, встановіть Git.
  3. Ключ OpenAI API: Для взаємодії з OpenAI потрібен ключ API. Отримайте ключ від свого Обліковий запис OpenAI
Відкрийте ключ AI API

Відкрийте генерацію ключа API AI

Параметри серверної пам'яті: сервер пам’яті служить механізмом зберігання для AutoGPT для доступу до необхідних даних для його операцій. AutoGPT використовує як короткострокові, так і довгострокові можливості зберігання. Соснова шишка, Мільвус, Redis, а інші – деякі доступні варіанти.

2. Налаштування робочого простору:

  1. Створіть віртуальне середовище: python3 -m venv myenv
  2. Активізуйте середовище:
    1. MacOS або Linux: source myenv/bin/activate

3 Установка:

  1. Клонуйте репозиторій Auto-GPT (переконайтеся, що у вас встановлено Git): git clone https://github.com/Significant-Gravitas/Auto-GPT.git
  2. Щоб переконатися, що ви працюєте з версією 0.2.2 Auto-GPT, ти захочеш контроль до цієї конкретної версії: git checkout stable-0.2.2
  3. Перейдіть до завантаженого репозиторію: cd Auto-GPT
  4. Встановіть необхідні залежності: pip install -r requirements.txt

4. Конфігурація:

  1. Знайдіть .env.template в основному /Auto-GPT каталог. Створіть копію та перейменуйте її на .env
  2. відкритий .env і встановіть ключ OpenAI API поруч OPENAI_API_KEY=
  3. Так само, щоб використовувати Pinecone або інші модулі пам’яті, оновіть .env файл із вашим ключем Pinecone API та регіоном.

5. Інструкції командного рядка:

Auto-GPT пропонує багатий набір аргументів командного рядка для налаштування своєї поведінки:

  • Загальне використання:
    • Показати довідку: python -m autogpt --help
    • Налаштуйте параметри AI: python -m autogpt --ai-settings <filename>
    • Укажіть серверну частину пам’яті: python -m autogpt --use-memory <memory-backend>
AutoGPT CLI

AutoGPT в CLI

6. Запуск Auto-GPT:

Після завершення налаштування запустіть Auto-GPT за допомогою:

  • Linux або Mac: ./run.sh start
  • Windows: .\run.bat

Інтеграція Docker (рекомендований підхід до налаштування)

Для тих, хто хоче контейнеризувати Auto-GPT, Docker пропонує спрощений підхід. Однак пам’ятайте, що початкове налаштування Docker може бути дещо складним. Відноситься до Інструкція зі встановлення Docker для отримання допомоги.

Щоб змінити ключ OpenAI API, виконайте наведені нижче дії. Переконайтеся, що Docker працює у фоновому режимі. Тепер перейдіть до основного каталогу AutoGPT і виконайте наведені нижче дії на вашому терміналі

  • Створіть образ Docker: docker build -t autogpt .
  • Тепер запустіть: docker run -it --env-file=./.env -v$PWD/auto_gpt_workspace:/app/auto_gpt_workspace autogpt

З docker-compose:

  • Пробіг: docker-compose run --build --rm auto-gpt
  • Для додаткового налаштування ви можете інтегрувати додаткові аргументи. Наприклад, щоб запустити як –gpt3only, так і –continuous: docker-compose run --rm auto-gpt --gpt3only--continuous
  • Враховуючи широку автономію, яку Auto-GPT має у створенні вмісту з великих наборів даних, існує потенційний ризик ненавмисного доступу до шкідливих веб-джерел.

Щоб зменшити ризики, використовуйте Auto-GPT у віртуальному контейнері, як-от Docker. Це гарантує, що будь-який потенційно шкідливий вміст залишається у віртуальному просторі, зберігаючи ваші зовнішні файли та систему недоторканими. Крім того, Windows Sandbox є опцією, хоча вона скидається після кожного сеансу, не зберігаючи свій стан.

З міркувань безпеки завжди виконуйте Auto-GPT у віртуальному середовищі, щоб ваша система залишалася ізольованою від неочікуваних виходів.

Зважаючи на все це, все ще є шанс, що ви не зможете отримати бажані результати. Повідомлено про користувачів Auto-GPT проблеми, що повторюються під час спроби запису у файл часто трапляються невдалі спроби через проблемні імена файлів. Ось одна з таких помилок: Auto-GPT (release 0.2.2) doesn't append the text after error "write_to_file returned: Error: File has already been updated

На сайті обговорювалися різні рішення для вирішення цієї проблеми Потік GitHub для довідки

GPT-інженер

Робочий процес GPT-Engineer:

  1. Підказка визначення: створіть детальний опис вашого проекту за допомогою природної мови.
  2. Генерація коду: Грунтуючись на вашій підказці, GPT-Engineer приступає до роботи, створюючи фрагменти коду, функції чи навіть повні програми.
  3. Доопрацювання та оптимізація: після генерації завжди є місце для вдосконалення. Розробники можуть змінювати згенерований код відповідно до конкретних вимог, забезпечуючи найвищу якість.

Процес налаштування GPT-Engineer було скорочено до легкого посібника. Ось покрокова розбивка:

1. Підготовка середовища: Перш ніж почати, переконайтеся, що у вас є готовий каталог проекту. Відкрийте термінал і виконайте наведену нижче команду

  • Створіть новий каталог під назвою «веб-сайт»: mkdir website
  • Перейти до каталогу: cd website

2. Клонуйте репозиторій:  git clone https://github.com/AntonOsika/gpt-engineer.git .

3. Навігація та встановлення залежностей: Після клонування перейдіть до каталогу cd gpt-engineer і встановіть усі необхідні залежності make install

4. Активуйте віртуальне середовище: Залежно від вашої операційної системи активуйте створене віртуальне середовище.

  • для macOS / Linux: source venv/bin/activate
  • для Windows, це дещо відрізняється через налаштування ключа API: set OPENAI_API_KEY=[your api key]

5. Конфігурація – налаштування ключа API: Для взаємодії з OpenAI вам знадобиться ключ API. Якщо у вас його ще немає, зареєструйтеся на платформі OpenAI, а потім:

  • для macOS / Linux: export OPENAI_API_KEY=[your api key]
  • для Windows (як згадувалося раніше): set OPENAI_API_KEY=[your api key]

6. Ініціалізація проекту та генерація коду: Магія GPT-Engineer починається з main_prompt файл знайдено в projects папку.

  • Якщо ви хочете розпочати новий проект: cp -r projects/example/ projects/website

Тут замініть «веб-сайт» на вибрану назву проекту.

  • Редагувати main_prompt файл за допомогою текстового редактора на ваш вибір, записуючи вимоги вашого проекту.

  • Коли ви задоволені підказкою: gpt-engineer projects/website

Згенерований код буде зберігатися в workspace каталог у папці проекту.

7. Постгенерація: Хоча GPT-Engineer потужний, він не завжди може бути ідеальним. Перевірте згенерований код, внесіть будь-які зміни вручну, якщо це необхідно, і переконайтеся, що все працює гладко.

Приклад запуску

підкажіть:

«Я хочу розробити базову програму Streamlit на Python, яка візуалізує дані користувача за допомогою інтерактивних діаграм. Додаток має дозволяти користувачам завантажувати файл CSV, вибирати тип діаграми (наприклад, стовпчик, кругова діаграма, лінія) і динамічно візуалізувати дані. Він може використовувати такі бібліотеки, як Pandas для обробки даних і Plotly для візуалізації».
Налаштування та запуск Engineering-GPT

Налаштування та запуск GPT-Engineer

Подібно до Auto-GPT, GPT-Engineer іноді може стикатися з помилками навіть після повного налаштування. Проте з третьої спроби я успішно отримав доступ до наступної світлої веб-сторінки. Переконайтеся, що ви перевіряєте будь-які помилки на офіційному сайті Сторінка проблем репозиторію GPT-Engineer.

Програма Streamlit створена за допомогою Engineering-GPT

Програма Streamlit створена за допомогою GPT-Engineer

Поточні вузькі місця агентів ШІ

Операційні витрати

Одне завдання, яке виконує Auto-GPT, може включати багато кроків. Важливо, що кожен із цих кроків може бути виставляється індивідуально, збільшуючи витрати. Auto-GPT може потрапити в пастку повторюваних циклів, не досягаючи обіцяних результатів. Такі випадки підривають його надійність і підривають інвестиції.

Уявіть, що ви хочете створити короткий нарис за допомогою Auto-GPT. Ідеальна довжина есе – 8K токенів, але під час процесу створення модель заглиблюється в кілька проміжних кроків, щоб завершити вміст. Якщо ви використовуєте GPT-4 із довжиною контексту 8 КБ, тоді для введення вам буде виставлено рахунок $0.03. А на виході собівартість була б $0.06. Тепер, припустімо, модель потрапляє в непередбачений цикл, переробляючи певні частини кілька разів. Процес не тільки стає довшим, але й кожне повторення збільшує вартість.

Щоб захиститися від цього:

Установіть обмеження використання at Оплата та ліміти OpenAI:

  • Жорсткий ліміт: обмежує використання понад встановлений поріг.
  • М'який ліміт: надсилає сповіщення електронною поштою, коли буде досягнуто порогове значення.

Обмеження функціональності

Можливості Auto-GPT, як показано у вихідному коді, мають певні межі. Його стратегії вирішення проблем регулюються його внутрішніми функціями та доступністю, яку забезпечує API GPT-4. Для поглибленого обговорення та можливих обхідних шляхів відвідайте: Обговорення Auto-GPT.

Вплив ШІ на ринок праці

Динаміка між штучним інтелектом і ринками праці постійно розвивається, і це широко задокументовано дипломну роботу. Ключовий висновок полягає в тому, що хоча технологічний прогрес часто приносить користь кваліфікованим працівникам, він створює ризики для тих, хто займається рутинними завданнями. По суті, технологічний прогрес може витіснити певні завдання, але водночас прокладає шлях до різноманітних, трудомістких завдань.

AI Ринок праці Автономні агенти обганяють

Приблизно 80% американських працівників можуть виявити, що LLM (моделі вивчення мови) впливають приблизно на 10% їхніх повсякденних завдань. Ця статистика підкреслює злиття ШІ та людських ролей.

Двогранна роль ШІ в робочій силі:

  • Позитивні аспекти: штучний інтелект може автоматизувати багато завдань, від обслуговування клієнтів до фінансових консультацій, надаючи відстрочку малим підприємствам, яким бракує коштів для виділених команд.
  • Турбота: Благо автоматизації викликає здивування щодо потенційних втрат робочих місць, особливо в секторах, де людська участь має першочергове значення, наприклад у підтримці клієнтів. Разом з цим існує етичний лабіринт, пов’язаний із доступом ШІ до конфіденційних даних. Це потребує потужної інфраструктури, що забезпечує прозорість, підзвітність та етичне використання ШІ.

Висновок

Очевидно, що такі інструменти, як ChatGPT, Auto-GPT і GPT-Engineer, стоять на передньому краї зміни взаємодії між технологією та її користувачами. Ці агенти штучного інтелекту мають коріння в рухах з відкритим кодом і демонструють можливості автономії машин, оптимізуючи завдання від планування до розробки програмного забезпечення.

У міру того, як ми рухаємось у майбутнє, де штучний інтелект глибше інтегрується в наші повсякденні справи, баланс між використанням можливостей штучного інтелекту та захистом людських ролей стає ключовим. У ширшому спектрі динаміка штучного інтелекту на ринку праці створює подвійний образ можливостей і викликів для зростання, вимагаючи свідомої інтеграції технічної етики та прозорості.

Останні п’ять років я провів, занурюючись у захоплюючий світ машинного та глибокого навчання. Моя пристрасть і досвід допомогли мені внести свій внесок у понад 50 різноманітних проектів розробки програмного забезпечення, зосередивши особливу увагу на ШІ/ML. Моя постійна цікавість також привела мене до обробки природної мови, галузі, яку я хочу досліджувати далі.