кочан Auto-GPT & GPT-Engineer: Задълбочено ръководство за съвременните водещи AI агенти - Unite.AI
Свържете се с нас

Изкуствен интелект

Auto-GPT & GPT-Engineer: Задълбочено ръководство за съвременните водещи AI агенти

mm

Публикуван

 on

Когато сравнявате ChatGPT с автономни AI агенти като Auto-GPT и GPT-Engineer, се появява значителна разлика в процеса на вземане на решения. Докато ChatGPT изисква активно човешко участие, за да управлява разговора, предоставяйки насоки въз основа на подкани на потребителя, процесът на планиране зависи предимно от човешка намеса.

Генеративен AI модели като трансформатори са най-съвременната основна технология, движеща тези автономни AI агенти. Тези трансформатори са обучени на големи масиви от данни, което им позволява да симулират сложни разсъждения и възможности за вземане на решения.

Корени с отворен код на автономни агенти: Auto-GPT и GPT-Engineer

Много от тези автономни AI агенти произлизат от инициативи с отворен код, водени от иновативни индивиди, трансформиращи конвенционалните работни процеси. Вместо просто да предлагат предложения, агенти като Auto-GPT могат самостоятелно да се справят със задачи, от онлайн пазаруване до създаване на основни приложения. Кодов интерпретатор на OpenAI има за цел надграждане ChatGPT от просто предлагане на идеи до активно решаване на проблеми с тези идеи.

Както Auto-GPT, така и GPT-Engineer са оборудвани с мощността на GPT 3.5 и GPT-4. Той схваща логиката на кода, комбинира множество файлове и ускорява процеса на разработка.

Същността на функционалността на Auto-GPT се крие в неговите AI агенти. Тези агенти са програмирани да изпълняват специфични задачи, от обикновени като планиране до по-сложни задачи, които изискват вземане на стратегически решения. Въпреки това, тези AI агенти работят в рамките на границите, определени от потребителите. Като контролират достъпа си чрез API, потребителите могат да определят дълбочината и обхвата на действията, които AI може да извършва.

Например, ако е натоварен със създаването на уеб приложение за чат, интегрирано с ChatGPT, Auto-GPT автономно разбива целта на изпълними стъпки, като създаване на HTML преден край или скриптиране на задния край на Python. Докато приложението автономно произвежда тези подкани, потребителите все още могат да ги наблюдават и променят. Както е показано от създателя на AutoGPT @SigGravitas, той е в състояние да изгради и изпълни тестова програма, базирана на Python.

Докато диаграмата по-долу описва по-обща архитектура на автономен AI агент, тя предлага ценна представа за процесите зад кулисите.

AI Agent Architecture като Autogpt, GPT Engineer

Автономна архитектура на AI агент

Процесът се инициира чрез проверка на OpenAI API ключа и инициализиране на различни параметри, включително краткосрочна памет и съдържание на база данни. След като ключовите данни бъдат предадени на агента, моделът взаимодейства с GPT3.5/GPT4, за да извлече отговор. След това този отговор се трансформира във формат JSON, който агентът интерпретира за изпълнение на различни функции, като извършване на онлайн търсения, четене или писане на файлове или дори изпълнение на код. Auto-GPT използва предварително обучен модел за съхраняване на тези отговори в база данни и бъдещите взаимодействия използват тази съхранена информация за справка. Цикълът продължава, докато задачата се счита за завършена.

Ръководство за настройка за Auto-GPT и GPT-Engineer

Настройването на авангардни инструменти като GPT-Engineer и Auto-GPT може да рационализира вашия процес на разработка. По-долу е структурирано ръководство, което ще ви помогне да инсталирате и конфигурирате и двата инструмента.

Автоматичен GPT

Настройването на Auto-GPT може да изглежда сложно, но с правилните стъпки става лесно. Това ръководство обхваща процедурата за настройка на Auto-GPT и предлага прозрения за нейните различни сценарии.

1. Предварителни условия:

  1. Python среда: Уверете се, че имате инсталиран Python 3.8 или по-нова версия. Можете да получите Python от него официален сайт.
  2. Ако планирате да клонирате хранилища, инсталирайте отивам.
  3. OpenAI API ключ: За взаимодействие с OpenAI е необходим API ключ. Вземете ключа от вашия OpenAI акаунт
Отворете AI API ключ

Отворете AI API Key Generation

Опции за бекенда на паметта: Бекендът на паметта служи като механизъм за съхранение на AutoGPT за достъп до основни данни за своите операции. AutoGPT използва както краткосрочни, така и дългосрочни възможности за съхранение. Шишарка, Милвус, Redis, а други са някои налични опции.

2. Настройване на вашето работно пространство:

  1. Създайте виртуална среда: python3 -m venv myenv
  2. Активирайте средата:
    1. MacOS или Linux: source myenv/bin/activate

3. Инсталация:

  1. Клонирайте Auto-GPT хранилището (уверете се, че имате инсталиран Git): git clone https://github.com/Significant-Gravitas/Auto-GPT.git
  2. За да сте сигурни, че работите с версия 0.2.2 от Auto-GPT, ще искате Поръчка към тази конкретна версия: git checkout stable-0.2.2
  3. Отидете до изтегленото хранилище: cd Auto-GPT
  4. Инсталирайте необходимите зависимости: pip install -r requirements.txt

4. Конфигурация:

  1. Намерете .env.template в главното /Auto-GPT указател. Дублирайте и го преименувайте на .env
  2. отворено .env и задайте вашия OpenAI API ключ до OPENAI_API_KEY=
  3. По същия начин, за да използвате Pinecone или други бекендове на паметта, актуализирайте .env файл с вашия Pinecone API ключ и регион.

5. Инструкции от командния ред:

Auto-GPT предлага богат набор от аргументи на командния ред за персонализиране на поведението му:

  • Основна употреба:
    • Показване на помощ: python -m autogpt --help
    • Коригирайте настройките на AI: python -m autogpt --ai-settings <filename>
    • Посочете бекенд на паметта: python -m autogpt --use-memory <memory-backend>
AutoGPT CLI

AutoGPT в CLI

6. Стартиране на Auto-GPT:

След като конфигурациите са завършени, инициирайте Auto-GPT, като използвате:

  • Linux или Mac: ./run.sh start
  • Windows: .\run.bat

Интегриране на Docker (препоръчителен подход за настройка)

За тези, които искат да контейнеризират Auto-GPT, Docker предоставя рационализиран подход. Имайте предвид обаче, че първоначалната настройка на Docker може да бъде леко сложна. Препоръчай на Ръководство за инсталиране на Docker за съдействие.

Продължете, като следвате стъпките по-долу, за да промените OpenAI API ключа. Уверете се, че Docker работи във фонов режим. Сега отидете в главната директория на AutoGPT и следвайте стъпките по-долу на вашия терминал

  • Създайте изображението на Docker: docker build -t autogpt .
  • Сега стартирайте: docker run -it --env-file=./.env -v$PWD/auto_gpt_workspace:/app/auto_gpt_workspace autogpt

С docker-compose:

  • Стартирайте: docker-compose run --build --rm auto-gpt
  • За допълнително персонализиране можете да интегрирате допълнителни аргументи. Например, за да работите с –gpt3only и –continuous: docker-compose run --rm auto-gpt --gpt3only--continuous
  • Като се има предвид широката автономност, която Auto-GPT притежава при генериране на съдържание от големи набори от данни, съществува потенциален риск от неволно достъп до злонамерени уеб източници.

За да намалите рисковете, управлявайте Auto-GPT във виртуален контейнер, като Docker. Това гарантира, че всяко потенциално опасно съдържание остава ограничено във виртуалното пространство, запазвайки вашите външни файлове и система недокоснати. Алтернативно, Windows Sandbox е опция, въпреки че се нулира след всяка сесия, като не успява да запази състоянието си.

За сигурност винаги изпълнявайте Auto-GPT във виртуална среда, като гарантирате, че вашата система остава изолирана от неочаквани изходи.

Като се има предвид всичко това, все още има шанс да не успеете да получите желаните резултати. Докладвани потребители на Auto-GPT повтарящи се проблеми когато се опитвате да пишете във файл, често срещате неуспешни опити поради проблемни имена на файлове. Ето една такава грешка: Auto-GPT (release 0.2.2) doesn't append the text after error "write_to_file returned: Error: File has already been updated

Различни решения за справяне с това бяха обсъдени в асоциирания Нишка на GitHub за справка.

GPT-инженер

Работен процес на GPT-инженер:

  1. Бързо определение: Създайте подробно описание на вашия проект, като използвате естествен език.
  2. Генериране на код: Въз основа на вашата подкана GPT-Engineer се захваща за работа, изработвайки кодови фрагменти, функции или дори цели приложения.
  3. Усъвършенстване и оптимизиране: След поколение винаги има място за подобрение. Разработчиците могат да променят генерирания код, за да отговарят на специфични изисквания, гарантирайки първокласно качество.

Процесът на настройка на GPT-Engineer е съкратен в лесно за следване ръководство. Ето разбивка стъпка по стъпка:

1. Подготовка на средата: Преди да се гмурнете, уверете се, че имате готова директория на проекта. Отворете терминал и изпълнете командата по-долу

  • Създайте нова директория с име „website“: mkdir website
  • Преместване в директорията: cd website

2. Клонирайте хранилището:  git clone https://github.com/AntonOsika/gpt-engineer.git .

3. Навигирайте и инсталирайте зависимости: Веднъж клониран, превключете към директорията cd gpt-engineer и инсталирайте всички необходими зависимости make install

4. Активирайте виртуална среда: В зависимост от вашата операционна система, активирайте създадената виртуална среда.

  • За macOS / Linux: source venv/bin/activate
  • За Windows, това е малко по-различно поради настройката на API ключ: set OPENAI_API_KEY=[your api key]

5. Конфигурация – Настройка на API ключ: За да взаимодействате с OpenAI, ще ви е необходим API ключ. Ако все още нямате такъв, регистрирайте се в платформата OpenAI, след което:

  • За macOS / Linux: export OPENAI_API_KEY=[your api key]
  • За Windows (както е споменато по-рано): set OPENAI_API_KEY=[your api key]

6. Инициализация на проекта и генериране на код: Магията на GPT-Engineer започва с main_prompt файл, намерен в projects папка.

  • Ако искате да започнете нов проект: cp -r projects/example/ projects/website

Тук заменете „уебсайт“ с избраното от вас име на проект.

  • Редактирайте main_prompt файл с помощта на текстов редактор по ваш избор, като напишете изискванията на вашия проект.

  • След като сте доволни от подканата: gpt-engineer projects/website

Вашият генериран код ще се намира в workspace директория в папката на проекта.

7. След генериране: Въпреки че GPT-Engineer е мощен, той може да не винаги е перфектен. Проверете генерирания код, направете ръчни промени, ако е необходимо, и се уверете, че всичко работи гладко.

Примерно изпълнение

подкани:

„Искам да разработя основно приложение Streamlit в Python, което визуализира потребителски данни чрез интерактивни диаграми. Приложението трябва да позволява на потребителите да качват CSV файл, да избират типа на диаграмата (напр. стълбова, кръгова, линейна) и динамично да визуализират данните. Може да използва библиотеки като Pandas за манипулиране на данни и Plotly за визуализация.“
Настройване и стартиране на Engineering-GPT

Настройване и стартиране на GPT-Engineer

Подобно на Auto-GPT, GPT-Engineer понякога може да срещне грешки дори след пълна настройка. При третия си опит обаче успешно осъществих достъп до следната осветена уеб страница. Уверете се, че сте прегледали всички грешки на официалния Проблемна страница на хранилището на GPT-Engineer.

Приложение Streamlit, генерирано с помощта на Engineering-GPT

Приложение Streamlit, генерирано с помощта на GPT-Engineer

Текущи тесни места на AI агенти

Оперативни разходи

Една единствена задача, изпълнена от Auto-GPT, може да включва множество стъпки. Важно е, че всяка от тези стъпки може да бъде таксувани индивидуално, увеличавайки разходите. Auto-GPT може да попадне в капана на повтарящи се цикли, като не успява да осигури обещаните резултати. Подобни събития компрометират неговата надеждност и подкопават инвестицията.

Представете си, че искате да създадете кратко есе с Auto-GPT. Идеалната дължина на есето е 8K токена, но по време на процеса на създаване моделът се задълбочава в множество междинни стъпки, за да финализира съдържанието. Ако използвате GPT-4 с дължина на контекста 8 k тогава за входа, ще бъдете таксувани $0.03. А за продукцията цената ще бъде $0.06. Сега, да кажем, че моделът попада в непредвиден цикъл, повтаряйки определени части многократно. Процесът не само става по-дълъг, но и всяко повторение увеличава цената.

За да се предпазите от това:

Задайте ограничения за използване at Таксуване и лимити на OpenAI:

  • Твърд лимит: Ограничава използването над зададения от вас праг.
  • Мека граница: Изпраща ви предупреждение по имейл, след като прагът бъде достигнат.

Ограничения на функционалността

Възможностите на Auto-GPT, както е показано в неговия изходен код, идват с определени граници. Стратегиите му за решаване на проблеми се управляват от присъщите му функции и достъпността, предоставена от API на GPT-4. За задълбочени дискусии и възможни заобиколни решения можете да посетите: Авто-GPT дискусия.

Въздействието на ИИ върху пазара на труда

Динамиката между ИИ и пазарите на труда непрекъснато се развива и е широко документирана в това изследвания хартия. Ключов извод е, че докато технологичният прогрес често е от полза за квалифицираните работници, той крие рискове за тези, които се занимават с рутинни задачи. В интерес на истината, технологичният напредък може да измести определени задачи, но същевременно да проправи пътя за разнообразни, трудоемки задачи.

AI Пазар на труда Автономните агенти изпреварват

Приблизително 80% от американските работници може да установят, че LLM (модели за изучаване на езици) влияят на около 10% от ежедневните им задачи. Тази статистика подчертава сливането на AI и човешки роли.

Двустранната роля на AI в работната сила:

  • Положителни страни: AI може да автоматизира много задачи, от обслужване на клиенти до финансови съвети, предоставяйки отсрочка на малки предприятия, които нямат средства за специализирани екипи.
  • Загрижеността: Благодатта на автоматизацията повдига вежди относно потенциалните загуби на работни места, особено в сектори, където човешкото участие е от първостепенно значение, като поддръжката на клиенти. Заедно с това е етичният лабиринт, свързан с достъпа на AI до поверителни данни. Това изисква силна инфраструктура, гарантираща прозрачност, отчетност и етично използване на AI.

Заключение

Ясно е, че инструменти като ChatGPT, Auto-GPT и GPT-Engineer стоят в челните редици на промяната на взаимодействието между технологията и нейните потребители. С корени в движенията с отворен код, тези AI агенти проявяват възможностите за автономия на машината, рационализирайки задачите от планиране до разработка на софтуер.

Докато вървим към бъдеще, в което AI се интегрира по-дълбоко в ежедневието ни, балансът между възприемането на възможностите на AI и запазването на човешките роли става основен. В по-широкия спектър динамиката на AI-пазара на труда рисува двоен образ на възможности за растеж и предизвикателства, изисквайки съзнателно интегриране на технологична етика и прозрачност.

Прекарах последните пет години, потапяйки се в завладяващия свят на машинното обучение и дълбокото обучение. Моята страст и опит ме накараха да допринеса за над 50 различни проекта за софтуерно инженерство, със специален фокус върху AI/ML. Продължаващото ми любопитство също ме насочи към обработката на естествен език, област, която нямам търпение да проуча по-нататък.