Dirbtinis intelektas
„Auto-GPT“ ir „GPT-Inžinierius“: išsamus šių dienų pirmaujančių AI agentų vadovas
Lyginant ChatGPT su autonominiais AI agentais, tokiais kaip Auto-GPT ir GPT-Engineer, sprendimų priėmimo procese išryškėja reikšmingas skirtumas. Nors „ChatGPT“ reikalauja aktyvaus žmogaus dalyvavimo, kad padėtų pokalbiui ir būtų teikiamos gairės, pagrįstos vartotojo raginimais, planavimo procesas daugiausia priklauso nuo žmogaus įsikišimo.
Generatyvinis AI modeliai, tokie kaip transformatoriai, yra pažangiausia pagrindinė technologija, valdanti šiuos autonominius AI agentus. Šie transformatoriai yra apmokyti naudoti didelius duomenų rinkinius, todėl jie gali imituoti sudėtingus samprotavimus ir sprendimų priėmimo galimybes.
Atvirojo kodo autonominių agentų šaknys: Auto-GPT ir GPT-Engineer
Daugelis šių autonominių dirbtinio intelekto agentų kyla iš atvirojo kodo iniciatyvų, kurioms vadovauja novatoriški asmenys, keičiantys įprastas darbo eigas. Užuot teikę tik pasiūlymus, agentai, tokie kaip „Auto-GPT“, gali savarankiškai atlikti užduotis – nuo apsipirkimo internetu iki pagrindinių programų kūrimo. OpenAI kodų interpretatorius siekiama atnaujinti ChatGPT nuo tiesiog idėjų siūlymo iki aktyvaus problemų sprendimo tomis idėjomis.
Tiek Auto-GPT, tiek GPT-Engineer yra aprūpinti GPT 3.5 ir GPT-4 galia. Jis suvokia kodo logiką, sujungia kelis failus ir pagreitina kūrimo procesą.
„Auto-GPT“ funkcionalumo esmė slypi jos AI agentuose. Šie agentai yra užprogramuoti vykdyti konkrečias užduotis – nuo kasdieninių, pavyzdžiui, planavimo, iki sudėtingesnių užduočių, kurioms reikia strateginių sprendimų. Tačiau šie AI agentai veikia neperžengdami vartotojų nustatytų ribų. Valdydami savo prieigą per API, vartotojai gali nustatyti veiksmų, kuriuos gali atlikti AI, gylį ir apimtį.
Pavyzdžiui, jei pavesta sukurti pokalbių žiniatinklio programą, integruotą su ChatGPT, „Auto-GPT“ savarankiškai suskaido tikslą į veiksmingus veiksmus, pvz., sukuria HTML sąsają arba „Python“ užpakalinės dalies scenarijų. Nors programa savarankiškai kuria šiuos raginimus, vartotojai vis tiek gali juos stebėti ir keisti. Kaip parodė „AutoGPT“ kūrėjas @SigGravitas, ji gali sukurti ir vykdyti bandomąją programą, pagrįstą Python.
Didelis automatinio GPT atnaujinimas: kodo vykdymas! 🤖💻
Automatinis GPT dabar gali parašyti savo kodą naudodamas #gpt4 ir vykdyti python scenarijus!
Tai leidžia rekursyviai derinti, tobulinti ir tobulėti... 🤯 👇 pic.twitter.com/GEkMb1LyxV
— Significant Gravitas (@SigGravitas) Balandis 1, 2023
Nors toliau pateiktoje diagramoje aprašoma bendresnė autonominio AI agento architektūra, ji suteikia vertingos informacijos apie procesus užkulisiuose.
Procesas inicijuojamas patikrinus OpenAI API raktą ir inicijuojant įvairius parametrus, įskaitant trumpalaikę atmintį ir duomenų bazės turinį. Kai pagrindiniai duomenys perduodami agentui, modelis sąveikauja su GPT3.5 / GPT4, kad gautų atsakymą. Tada šis atsakymas paverčiamas JSON formatu, kurį agentas interpretuoja, kad atliktų įvairias funkcijas, pvz., internetinę paiešką, failų skaitymą ar rašymą ar net kodo vykdymą. Auto-GPT naudoja iš anksto paruoštą modelį šiems atsakymams saugoti duomenų bazėje, o būsimose sąveikose ši saugoma informacija naudojama kaip nuoroda. Ciklas tęsiasi tol, kol užduotis laikoma baigta.
„Auto-GPT“ ir „GPT-Engineer“ sąrankos vadovas
Pažangių įrankių, pvz., GPT-Engineer ir Auto-GPT, nustatymas gali supaprastinti kūrimo procesą. Toliau pateikiamas struktūrinis vadovas, padėsiantis įdiegti ir konfigūruoti abu įrankius.
Automatinis GPT
Automatinio GPT nustatymas gali pasirodyti sudėtingas, tačiau atlikus tinkamus veiksmus tai tampa nesudėtinga. Šiame vadove aprašoma automatinio GPT nustatymo procedūra ir pateikiama įžvalgų apie įvairius jo scenarijus.
1. Būtinos sąlygos:
- Python aplinka: Įsitikinkite, kad įdiegėte Python 3.8 arba naujesnę versiją. Python galite gauti iš jo Oficiali svetainė.
- Jei planuojate klonuoti saugyklas, įdiekite git.
- OpenAI API raktas: norint bendrauti su OpenAI, reikalingas API raktas. Gaukite raktą iš savo OpenAI paskyra
Atminties fono parinktys: Atminties užpakalinė programa yra saugojimo mechanizmas, skirtas AutoGPT pasiekti esminius duomenis savo operacijoms. „AutoGPT“ naudoja trumpalaikes ir ilgalaikes saugojimo galimybes. Pušis, Milvus, Redisir kitos yra kai kurios galimos parinktys.
2. Darbo srities nustatymas:
- Sukurkite virtualią aplinką:
python3 -m venv myenv
- Suaktyvinkite aplinką:
- MacOS arba Linux:
source myenv/bin/activate
- MacOS arba Linux:
3. Montavimas:
- Klonuokite „Auto-GPT“ saugyklą (įsitikinkite, kad įdiegėte „Git“):
git clone https://github.com/Significant-Gravitas/Auto-GPT.git
- Kad įsitikintumėte, jog dirbate su versija 0.2.2 automatinio GPT, tu norėsi išsiregistravimo laikas į konkrečią versiją:
git checkout stable-0.2.2
- Eikite į atsisiųstą saugyklą:
cd Auto-GPT
- Įdiekite reikiamas priklausomybes:
pip install -r requirements.txt
4. Konfigūracija:
- Įsikurti
.env.template
pagrindiniame/Auto-GPT
katalogas. Kopijuokite ir pervardykite į.env
- Atviras
.env
ir šalia nustatykite OpenAI API raktąOPENAI_API_KEY=
- Panašiai, norėdami naudoti Pinecone ar kitas atminties programas, atnaujinkite
.env
failą su Pinecone API raktu ir regionu.
5. Komandinės eilutės instrukcijos:
Automatinis GPT siūlo gausų komandinės eilutės argumentų rinkinį, kad pritaikytų savo elgesį:
- Bendrojo naudojimo:
- Rodyti žinyną:
python -m autogpt --help
- Koreguokite AI nustatymus:
python -m autogpt --ai-settings <filename>
- Nurodykite atminties foną:
python -m autogpt --use-memory <memory-backend>
- Rodyti žinyną:
6. Auto-GPT paleidimas:
Baigę konfigūruoti, inicijuokite automatinį GPT naudodami:
- Linux arba Mac:
./run.sh start
- Windows:
.\run.bat
„Docker“ integravimas (rekomenduojamas sąrankos metodas)
Tiems, kurie nori konteinerizuoti Auto-GPT, „Docker“ siūlo supaprastintą metodą. Tačiau atminkite, kad pradinė „Docker“ sąranka gali būti šiek tiek sudėtinga. Atsižvelgti į „Docker“ diegimo vadovas pagalbos.
Norėdami pakeisti OpenAI API raktą, atlikite toliau nurodytus veiksmus. Įsitikinkite, kad „Docker“ veikia fone. Dabar eikite į pagrindinį AutoGPT katalogą ir savo terminale atlikite toliau nurodytus veiksmus
- Sukurkite „Docker“ vaizdą:
docker build -t autogpt .
- Dabar paleisti:
docker run -it --env-file=./.env -v$PWD/auto_gpt_workspace:/app/auto_gpt_workspace autogpt
Su docker-compose:
- Paleisti:
docker-compose run --build --rm auto-gpt
- Norėdami papildomai tinkinti, galite integruoti papildomų argumentų. Pavyzdžiui, norint paleisti su –gpt3only ir –continuous:
docker-compose run --rm auto-gpt --gpt3only--continuous
- Atsižvelgiant į didelę autonomiją, kurią „Auto-GPT“ turi kuriant turinį iš didelių duomenų rinkinių, yra galimas pavojus, kad jis netyčia pasieks kenkėjiškų žiniatinklio šaltinių.
Norėdami sumažinti riziką, naudokite „Auto-GPT“ virtualiame konteineryje, pvz., „Docker“. Taip užtikrinama, kad bet koks potencialiai žalingas turinys liktų tik virtualioje erdvėje, nepaliesdami išorinių failų ir sistemos. Arba galima pasirinkti „Windows Sandbox“, nors po kiekvieno seanso ji nustatoma iš naujo, tačiau neišlaiko savo būsenos.
Saugumo sumetimais visada vykdykite Auto-GPT virtualioje aplinkoje, užtikrindami, kad jūsų sistema liktų izoliuota nuo netikėtų išėjimų.
Atsižvelgiant į visa tai, vis dar yra tikimybė, kad nepavyks pasiekti norimų rezultatų. Pranešė apie automatinio GPT naudotojus pasikartojančios problemos bandant rašyti į failą, dažnai susiduriama su nesėkmingais bandymais dėl probleminių failų pavadinimų. Štai viena tokia klaida: Auto-GPT (release 0.2.2) doesn't append the text after error "write_to_file returned: Error: File has already been updated
Susijusiose svetainėse buvo aptarti įvairūs sprendimai, kaip tai išspręsti GitHub gija nuoroda.
GPT-inžinierius
GPT inžinieriaus darbo eiga:
- Greitas apibrėžimas: Sukurkite išsamų savo projekto aprašymą naudodami natūralią kalbą.
- Kodo generavimas: Pagal jūsų raginimą GPT-Engineer pradeda dirbti, išleidžia kodo fragmentus, funkcijas ar net visas programas.
- Patikslinimas ir optimizavimas: Po kartos, visada yra kur tobulėti. Kūrėjai gali modifikuoti sugeneruotą kodą, kad atitiktų konkrečius reikalavimus, užtikrinant aukščiausią kokybę.
GPT-Engineer sąrankos procesas buvo sutrumpintas į lengvai sekamą vadovą. Štai žingsnis po žingsnio suskirstymas:
1. Aplinkos paruošimas: Prieš nardydami įsitikinkite, kad turite paruoštą projekto katalogą. Atidarykite terminalą ir paleiskite žemiau esančią komandą
- Sukurkite naują katalogą pavadinimu „svetainė“:
mkdir website
- Pereiti į katalogą:
cd website
2. Klonuoti saugyklą: git clone https://github.com/AntonOsika/gpt-engineer.git .
3. Naršykite ir įdiekite priklausomybes: Klonavę pereikite prie katalogo cd gpt-engineer
ir įdiekite visas reikalingas priklausomybes make install
4. Suaktyvinkite virtualią aplinką: Priklausomai nuo jūsų operacinės sistemos, suaktyvinkite sukurtą virtualią aplinką.
- Dėl „macOS“ / „Linux“:
source venv/bin/activate
- Dėl Windows, tai šiek tiek skiriasi dėl API rakto sąrankos:
set OPENAI_API_KEY=[your api key]
5. Konfigūracija – API rakto sąranka: Norėdami bendrauti su OpenAI, jums reikės API rakto. Jei dar neturite, prisiregistruokite OpenAI platformoje, tada:
- Dėl „macOS“ / „Linux“:
export OPENAI_API_KEY=[your api key]
- Dėl Windows (kaip minėta anksčiau):
set OPENAI_API_KEY=[your api key]
6. Projekto inicijavimas ir kodo generavimas: GPT-inžinieriaus magija prasideda nuo main_prompt
failas, rastas projects
aplankas.
- Jei norite pradėti naują projektą:
cp -r projects/example/ projects/website
Čia pakeiskite „svetainė“ pasirinktu projekto pavadinimu.
- Redaguoti
main_prompt
failą naudodami pasirinktą teksto rengyklę, nustatydami savo projekto reikalavimus.
- Kai būsite patenkinti greitu paleidimu:
gpt-engineer projects/website
Jūsų sugeneruotas kodas bus workspace
katalogą projekto aplanke.
7. Po karta: Nors GPT-Engineer yra galingas, jis ne visada gali būti tobulas. Patikrinkite sugeneruotą kodą, jei reikia, atlikite bet kokius rankinius pakeitimus ir įsitikinkite, kad viskas veikia sklandžiai.
Vykdymo pavyzdys
greitai:
Panašiai kaip „Auto-GPT“, „GPT-Engineer“ kartais gali susidurti su klaidomis net ir baigus sąranką. Tačiau trečiuoju bandymu sėkmingai pasiekiau šį supaprastintą tinklalapį. Įsitikinkite, kad peržiūrėjote visas pareigūno klaidas GPT-Engineer saugyklos problemos puslapis.
Dabartinės AI agentų kliūtys
Veiklos išlaidos
Viena „Auto-GPT“ atliekama užduotis gali apimti daugybę veiksmų. Svarbu tai, kad kiekvienas iš šių žingsnių gali būti atsiskaitoma individualiai, didina išlaidas. Automatinis GPT gali įstrigti pasikartojančiose kilpose ir nepasiekti pažadėtų rezultatų. Tokie įvykiai kenkia jos patikimumui ir mažina investicijas.
Įsivaizduokite, kad norite sukurti trumpą esė naudodami „Auto-GPT“. Idealus esė ilgis yra 8K žetonų, tačiau kūrimo proceso metu modelis įsigilina į kelis tarpinius veiksmus, kad užbaigtų turinį. Jei naudojate GPT-4 su 8k konteksto ilgiu, tada už įvestį būsite apmokestinti $0.03. O produkcijos kaina būtų $0.06. Tarkime, kad modelis patenka į nenumatytą kilpą, kai kurios dalys perdaromos kelis kartus. Procesas ne tik pailgėja, bet ir kiekvienas pakartojimas padidina išlaidas.
Norėdami apsisaugoti nuo to:
Nustatykite naudojimo apribojimus at OpenAI atsiskaitymas ir apribojimai:
- Sunkus limitas: ribojamas naudojimas viršijant nustatytą slenkstį.
- Minkštas limitas: Pasiekus slenkstį, siunčiamas įspėjimas el. paštu.
Funkcionalumo apribojimai
Automatinio GPT galimybės, kaip parodyta šaltinio kode, turi tam tikras ribas. Jo problemų sprendimo strategijas valdo esminės jo funkcijos ir pasiekiamumas, kurį suteikia GPT-4 API. Jei norite išsamių diskusijų ir galimų sprendimų, apsilankykite: Auto-GPT diskusija.
AI poveikis darbo rinkai
Dirbtinio intelekto ir darbo rinkų dinamika nuolat kinta ir tai yra plačiai aprašyta Darbe. Svarbiausias dalykas yra tai, kad nors technologinė pažanga dažnai naudinga kvalifikuotiems darbuotojams, ji kelia pavojų tiems, kurie atlieka įprastas užduotis. Tiesą sakant, technologinė pažanga gali išstumti tam tikras užduotis, bet kartu atverti kelią įvairioms, daug darbo reikalaujančioms užduotims.
Apytiksliai 80 % amerikiečių darbuotojų gali pastebėti, kad LLM (kalbų mokymosi modeliai) daro įtaką maždaug 10 % jų kasdienių užduočių. Ši statistika pabrėžia AI ir žmogaus vaidmenų susiliejimą.
Dvipusis AI vaidmuo darbo rinkoje:
- Teigiami aspektai: AI gali automatizuoti daugybę užduočių – nuo klientų aptarnavimo iki finansinių patarimų, suteikdamas atidėjimą mažoms įmonėms, kurioms trūksta lėšų tam skirtoms komandoms.
- Susirūpinimas: Automatizavimo palaima kelia nerimą dėl galimo darbo praradimo, ypač tuose sektoriuose, kuriuose žmogaus dalyvavimas yra svarbiausias, pavyzdžiui, klientų aptarnavimas. Be to, yra etinis labirintas, susietas su AI prieiga prie konfidencialių duomenų. Tam reikalinga stipri infrastruktūra, užtikrinanti skaidrumą, atskaitomybę ir etišką AI naudojimą.
Išvada
Akivaizdu, kad tokie įrankiai kaip „ChatGPT“, „Auto-GPT“ ir „GPT-Engineer“ yra priešakyje keičiant technologijos ir jos vartotojų sąveiką. Šie dirbtinio intelekto agentai, kurių šaknys yra atvirojo kodo judėjimas, parodo mašinos autonomijos galimybes, supaprastindami užduotis nuo planavimo iki programinės įrangos kūrimo.
Kai žengiame į ateitį, kurioje dirbtinis intelektas vis labiau integruojasi į mūsų kasdienę veiklą, pusiausvyra tarp dirbtinio intelekto galimybių panaudojimo ir žmogaus vaidmenų išsaugojimo tampa esminė. Kalbant apie platesnį spektrą, dirbtinio intelekto darbo rinkos dinamika sukuria dvejopą augimo galimybių ir iššūkių įvaizdį, reikalaujantį sąmoningo technologijų etikos ir skaidrumo integravimo.