Изкуствен интелект
Auto-GPT & GPT-Engineer: Задълбочено ръководство за съвременните водещи AI агенти
Когато сравнявате ChatGPT с автономни AI агенти като Auto-GPT и GPT-Engineer, се появява значителна разлика в процеса на вземане на решения. Докато ChatGPT изисква активно човешко участие, за да управлява разговора, предоставяйки насоки въз основа на подкани на потребителя, процесът на планиране зависи предимно от човешка намеса.
Генеративен AI модели като трансформатори са най-съвременната основна технология, движеща тези автономни AI агенти. Тези трансформатори са обучени на големи масиви от данни, което им позволява да симулират сложни разсъждения и възможности за вземане на решения.
Корени с отворен код на автономни агенти: Auto-GPT и GPT-Engineer
Много от тези автономни AI агенти произлизат от инициативи с отворен код, водени от иновативни индивиди, трансформиращи конвенционалните работни процеси. Вместо просто да предлагат предложения, агенти като Auto-GPT могат самостоятелно да се справят със задачи, от онлайн пазаруване до създаване на основни приложения. Кодов интерпретатор на OpenAI има за цел надграждане ChatGPT от просто предлагане на идеи до активно решаване на проблеми с тези идеи.
Както Auto-GPT, така и GPT-Engineer са оборудвани с мощността на GPT 3.5 и GPT-4. Той схваща логиката на кода, комбинира множество файлове и ускорява процеса на разработка.
Същността на функционалността на Auto-GPT се крие в неговите AI агенти. Тези агенти са програмирани да изпълняват специфични задачи, от обикновени като планиране до по-сложни задачи, които изискват вземане на стратегически решения. Въпреки това, тези AI агенти работят в рамките на границите, определени от потребителите. Като контролират достъпа си чрез API, потребителите могат да определят дълбочината и обхвата на действията, които AI може да извършва.
Например, ако е натоварен със създаването на уеб приложение за чат, интегрирано с ChatGPT, Auto-GPT автономно разбива целта на изпълними стъпки, като създаване на HTML преден край или скриптиране на задния край на Python. Докато приложението автономно произвежда тези подкани, потребителите все още могат да ги наблюдават и променят. Както е показано от създателя на AutoGPT @SigGravitas, той е в състояние да изгради и изпълни тестова програма, базирана на Python.
Масивна актуализация за Auto-GPT: Изпълнение на код! 🤖💻
Auto-GPT вече може да пише свой собствен код с помощта на #gpt4 и изпълнява скриптове на Python!
Това му позволява рекурсивно да отстранява грешки, да развива и да се самоусъвършенства... 🤯 👇 pic.twitter.com/GEkMb1LyxV
— Значителна тежест (@SigGravitas) Април 1, 2023
Докато диаграмата по-долу описва по-обща архитектура на автономен AI агент, тя предлага ценна представа за процесите зад кулисите.
Процесът се инициира чрез проверка на OpenAI API ключа и инициализиране на различни параметри, включително краткосрочна памет и съдържание на база данни. След като ключовите данни бъдат предадени на агента, моделът взаимодейства с GPT3.5/GPT4, за да извлече отговор. След това този отговор се трансформира във формат JSON, който агентът интерпретира за изпълнение на различни функции, като извършване на онлайн търсения, четене или писане на файлове или дори изпълнение на код. Auto-GPT използва предварително обучен модел за съхраняване на тези отговори в база данни и бъдещите взаимодействия използват тази съхранена информация за справка. Цикълът продължава, докато задачата се счита за завършена.
Ръководство за настройка за Auto-GPT и GPT-Engineer
Настройването на авангардни инструменти като GPT-Engineer и Auto-GPT може да рационализира вашия процес на разработка. По-долу е структурирано ръководство, което ще ви помогне да инсталирате и конфигурирате и двата инструмента.
Автоматичен GPT
Настройването на Auto-GPT може да изглежда сложно, но с правилните стъпки става лесно. Това ръководство обхваща процедурата за настройка на Auto-GPT и предлага прозрения за нейните различни сценарии.
1. Предварителни условия:
- Python среда: Уверете се, че имате инсталиран Python 3.8 или по-нова версия. Можете да получите Python от него официален сайт.
- Ако планирате да клонирате хранилища, инсталирайте отивам.
- OpenAI API ключ: За взаимодействие с OpenAI е необходим API ключ. Вземете ключа от вашия OpenAI акаунт
Опции за бекенда на паметта: Бекендът на паметта служи като механизъм за съхранение на AutoGPT за достъп до основни данни за своите операции. AutoGPT използва както краткосрочни, така и дългосрочни възможности за съхранение. Шишарка, Милвус, Redis, а други са някои налични опции.
2. Настройване на вашето работно пространство:
- Създайте виртуална среда:
python3 -m venv myenv
- Активирайте средата:
- MacOS или Linux:
source myenv/bin/activate
- MacOS или Linux:
3. Инсталация:
- Клонирайте Auto-GPT хранилището (уверете се, че имате инсталиран Git):
git clone https://github.com/Significant-Gravitas/Auto-GPT.git
- За да сте сигурни, че работите с версия 0.2.2 от Auto-GPT, ще искате Поръчка към тази конкретна версия:
git checkout stable-0.2.2
- Отидете до изтегленото хранилище:
cd Auto-GPT
- Инсталирайте необходимите зависимости:
pip install -r requirements.txt
4. Конфигурация:
- Намерете
.env.template
в главното/Auto-GPT
указател. Дублирайте и го преименувайте на.env
- отворено
.env
и задайте вашия OpenAI API ключ доOPENAI_API_KEY=
- По същия начин, за да използвате Pinecone или други бекендове на паметта, актуализирайте
.env
файл с вашия Pinecone API ключ и регион.
5. Инструкции от командния ред:
Auto-GPT предлага богат набор от аргументи на командния ред за персонализиране на поведението му:
- Основна употреба:
- Показване на помощ:
python -m autogpt --help
- Коригирайте настройките на AI:
python -m autogpt --ai-settings <filename>
- Посочете бекенд на паметта:
python -m autogpt --use-memory <memory-backend>
- Показване на помощ:
6. Стартиране на Auto-GPT:
След като конфигурациите са завършени, инициирайте Auto-GPT, като използвате:
- Linux или Mac:
./run.sh start
- Windows:
.\run.bat
Интегриране на Docker (препоръчителен подход за настройка)
За тези, които искат да контейнеризират Auto-GPT, Docker предоставя рационализиран подход. Имайте предвид обаче, че първоначалната настройка на Docker може да бъде леко сложна. Препоръчай на Ръководство за инсталиране на Docker за съдействие.
Продължете, като следвате стъпките по-долу, за да промените OpenAI API ключа. Уверете се, че Docker работи във фонов режим. Сега отидете в главната директория на AutoGPT и следвайте стъпките по-долу на вашия терминал
- Създайте изображението на Docker:
docker build -t autogpt .
- Сега стартирайте:
docker run -it --env-file=./.env -v$PWD/auto_gpt_workspace:/app/auto_gpt_workspace autogpt
С docker-compose:
- Стартирайте:
docker-compose run --build --rm auto-gpt
- За допълнително персонализиране можете да интегрирате допълнителни аргументи. Например, за да работите с –gpt3only и –continuous:
docker-compose run --rm auto-gpt --gpt3only--continuous
- Като се има предвид широката автономност, която Auto-GPT притежава при генериране на съдържание от големи набори от данни, съществува потенциален риск от неволно достъп до злонамерени уеб източници.
За да намалите рисковете, управлявайте Auto-GPT във виртуален контейнер, като Docker. Това гарантира, че всяко потенциално опасно съдържание остава ограничено във виртуалното пространство, запазвайки вашите външни файлове и система недокоснати. Алтернативно, Windows Sandbox е опция, въпреки че се нулира след всяка сесия, като не успява да запази състоянието си.
За сигурност винаги изпълнявайте Auto-GPT във виртуална среда, като гарантирате, че вашата система остава изолирана от неочаквани изходи.
Като се има предвид всичко това, все още има шанс да не успеете да получите желаните резултати. Докладвани потребители на Auto-GPT повтарящи се проблеми когато се опитвате да пишете във файл, често срещате неуспешни опити поради проблемни имена на файлове. Ето една такава грешка: Auto-GPT (release 0.2.2) doesn't append the text after error "write_to_file returned: Error: File has already been updated
Различни решения за справяне с това бяха обсъдени в асоциирания Нишка на GitHub за справка.
GPT-инженер
Работен процес на GPT-инженер:
- Бързо определение: Създайте подробно описание на вашия проект, като използвате естествен език.
- Генериране на код: Въз основа на вашата подкана GPT-Engineer се захваща за работа, изработвайки кодови фрагменти, функции или дори цели приложения.
- Усъвършенстване и оптимизиране: След поколение винаги има място за подобрение. Разработчиците могат да променят генерирания код, за да отговарят на специфични изисквания, гарантирайки първокласно качество.
Процесът на настройка на GPT-Engineer е съкратен в лесно за следване ръководство. Ето разбивка стъпка по стъпка:
1. Подготовка на средата: Преди да се гмурнете, уверете се, че имате готова директория на проекта. Отворете терминал и изпълнете командата по-долу
- Създайте нова директория с име „website“:
mkdir website
- Преместване в директорията:
cd website
2. Клонирайте хранилището: git clone https://github.com/AntonOsika/gpt-engineer.git .
3. Навигирайте и инсталирайте зависимости: Веднъж клониран, превключете към директорията cd gpt-engineer
и инсталирайте всички необходими зависимости make install
4. Активирайте виртуална среда: В зависимост от вашата операционна система, активирайте създадената виртуална среда.
- За macOS / Linux:
source venv/bin/activate
- За Windows, това е малко по-различно поради настройката на API ключ:
set OPENAI_API_KEY=[your api key]
5. Конфигурация – Настройка на API ключ: За да взаимодействате с OpenAI, ще ви е необходим API ключ. Ако все още нямате такъв, регистрирайте се в платформата OpenAI, след което:
- За macOS / Linux:
export OPENAI_API_KEY=[your api key]
- За Windows (както е споменато по-рано):
set OPENAI_API_KEY=[your api key]
6. Инициализация на проекта и генериране на код: Магията на GPT-Engineer започва с main_prompt
файл, намерен в projects
папка.
- Ако искате да започнете нов проект:
cp -r projects/example/ projects/website
Тук заменете „уебсайт“ с избраното от вас име на проект.
- Редактирайте
main_prompt
файл с помощта на текстов редактор по ваш избор, като напишете изискванията на вашия проект.
- След като сте доволни от подканата:
gpt-engineer projects/website
Вашият генериран код ще се намира в workspace
директория в папката на проекта.
7. След генериране: Въпреки че GPT-Engineer е мощен, той може да не винаги е перфектен. Проверете генерирания код, направете ръчни промени, ако е необходимо, и се уверете, че всичко работи гладко.
Примерно изпълнение
подкани:
Подобно на Auto-GPT, GPT-Engineer понякога може да срещне грешки дори след пълна настройка. При третия си опит обаче успешно осъществих достъп до следната осветена уеб страница. Уверете се, че сте прегледали всички грешки на официалния Проблемна страница на хранилището на GPT-Engineer.
Текущи тесни места на AI агенти
Оперативни разходи
Една единствена задача, изпълнена от Auto-GPT, може да включва множество стъпки. Важно е, че всяка от тези стъпки може да бъде таксувани индивидуално, увеличавайки разходите. Auto-GPT може да попадне в капана на повтарящи се цикли, като не успява да осигури обещаните резултати. Подобни събития компрометират неговата надеждност и подкопават инвестицията.
Представете си, че искате да създадете кратко есе с Auto-GPT. Идеалната дължина на есето е 8K токена, но по време на процеса на създаване моделът се задълбочава в множество междинни стъпки, за да финализира съдържанието. Ако използвате GPT-4 с дължина на контекста 8 k тогава за входа, ще бъдете таксувани $0.03. А за продукцията цената ще бъде $0.06. Сега, да кажем, че моделът попада в непредвиден цикъл, повтаряйки определени части многократно. Процесът не само става по-дълъг, но и всяко повторение увеличава цената.
За да се предпазите от това:
Задайте ограничения за използване at Таксуване и лимити на OpenAI:
- Твърд лимит: Ограничава използването над зададения от вас праг.
- Мека граница: Изпраща ви предупреждение по имейл, след като прагът бъде достигнат.
Ограничения на функционалността
Възможностите на Auto-GPT, както е показано в неговия изходен код, идват с определени граници. Стратегиите му за решаване на проблеми се управляват от присъщите му функции и достъпността, предоставена от API на GPT-4. За задълбочени дискусии и възможни заобиколни решения можете да посетите: Авто-GPT дискусия.
Въздействието на ИИ върху пазара на труда
Динамиката между ИИ и пазарите на труда непрекъснато се развива и е широко документирана в това изследвания хартия. Ключов извод е, че докато технологичният прогрес често е от полза за квалифицираните работници, той крие рискове за тези, които се занимават с рутинни задачи. В интерес на истината, технологичният напредък може да измести определени задачи, но същевременно да проправи пътя за разнообразни, трудоемки задачи.
Приблизително 80% от американските работници може да установят, че LLM (модели за изучаване на езици) влияят на около 10% от ежедневните им задачи. Тази статистика подчертава сливането на AI и човешки роли.
Двустранната роля на AI в работната сила:
- Положителни страни: AI може да автоматизира много задачи, от обслужване на клиенти до финансови съвети, предоставяйки отсрочка на малки предприятия, които нямат средства за специализирани екипи.
- Загрижеността: Благодатта на автоматизацията повдига вежди относно потенциалните загуби на работни места, особено в сектори, където човешкото участие е от първостепенно значение, като поддръжката на клиенти. Заедно с това е етичният лабиринт, свързан с достъпа на AI до поверителни данни. Това изисква силна инфраструктура, гарантираща прозрачност, отчетност и етично използване на AI.
Заключение
Ясно е, че инструменти като ChatGPT, Auto-GPT и GPT-Engineer стоят в челните редици на промяната на взаимодействието между технологията и нейните потребители. С корени в движенията с отворен код, тези AI агенти проявяват възможностите за автономия на машината, рационализирайки задачите от планиране до разработка на софтуер.
Докато вървим към бъдеще, в което AI се интегрира по-дълбоко в ежедневието ни, балансът между възприемането на възможностите на AI и запазването на човешките роли става основен. В по-широкия спектър динамиката на AI-пазара на труда рисува двоен образ на възможности за растеж и предизвикателства, изисквайки съзнателно интегриране на технологична етика и прозрачност.