stomp Auto-GPT en GPT-ingenieur: 'n In-diepte gids tot vandag se voorste KI-agente - Unite.AI
Verbinding met ons

Kunsmatige Intelligensie

Auto-GPT en GPT-ingenieur: 'n In-diepte gids tot vandag se toonaangewende KI-agente

mm

Gepubliseer

 on

Wanneer ChatGPT met outonome KI-agente soos Auto-GPT en GPT-Engineer vergelyk word, kom 'n beduidende verskil in die besluitnemingsproses na vore. Terwyl ChatGPT aktiewe menslike betrokkenheid vereis om die gesprek te dryf, wat leiding verskaf op grond van gebruikersaanwysings, is die beplanningsproses hoofsaaklik afhanklik van menslike ingryping.

Generatiewe AI modelle soos transformators is die moderne kerntegnologie wat hierdie outonome KI-agente aandryf. Hierdie transformators word op groot datastelle opgelei, wat hulle in staat stel om komplekse redenasie- en besluitnemingsvermoëns te simuleer.

Oopbronwortels van outonome agente: Auto-GPT en GPT-ingenieur

Baie van hierdie outonome KI-agente spruit uit oopbron-inisiatiewe wat gelei word deur innoverende individue wat konvensionele werkvloeie transformeer. Eerder as om net voorstelle te bied, kan agente soos Auto-GPT onafhanklik take hanteer, van aanlyn inkopies tot die bou van basiese toepassings. OpenAI se kode-tolk beoog om op te gradeer Klets GPT van om net idees voor te stel tot om probleme met daardie idees aktief op te los.

Beide Auto-GPT en GPT-Engineer is toegerus met die krag van GPT 3.5 en GPT-4. Dit begryp kodelogika, kombineer veelvuldige lêers en versnel die ontwikkelingsproses.

Die kern van Auto-GPT se funksionaliteit lê in sy KI-agente. Hierdie agente is geprogrammeer om spesifieke take uit te voer, van alledaagse take soos skedulering tot meer komplekse take wat strategiese besluitneming vereis. Hierdie KI-agente werk egter binne die grense wat deur gebruikers gestel word. Deur hul toegang via API's te beheer, kan gebruikers die diepte en omvang van aksies wat die KI kan uitvoer, bepaal.

As dit byvoorbeeld die taak is om 'n kletswebtoepassing te skep wat met ChatGPT geïntegreer is, breek Auto-GPT die doel outonoom af in uitvoerbare stappe, soos om 'n HTML-voorkant te skep of 'n Python-agterkant te skryf. Terwyl die toepassing outonoom hierdie opdragte produseer, kan gebruikers dit steeds monitor en wysig. Soos getoon deur die skepper van AutoGPT @SigGravitas, is dit in staat om 'n toetsprogram gebaseer op Python te bou en uit te voer.

Terwyl die onderstaande diagram 'n meer algemene argitektuur van 'n outonome KI-agent beskryf, bied dit waardevolle insig in die prosesse agter die skerms.

AI Agent-argitektuur soos Autogpt, GPT Engineer

Outonome AI Agent-argitektuur

Die proses word begin deur die OpenAI API-sleutel te verifieer en verskeie parameters te initialiseer, insluitend korttermyngeheue en databasisinhoud. Sodra die sleuteldata aan die Agent oorgedra is, werk die model met die GPT3.5/GPT4 om 'n antwoord te kry. Hierdie reaksie word dan omskep in 'n JSON-formaat, wat die Agent interpreteer om 'n verskeidenheid funksies uit te voer, soos om aanlyn soektogte uit te voer, lêers te lees of te skryf, of selfs kode uit te voer. Auto-GPT gebruik 'n vooraf-opgeleide model om hierdie antwoorde in 'n databasis te stoor, en toekomstige interaksies gebruik hierdie gestoorde inligting vir verwysing. Die lus gaan voort totdat die taak as voltooi beskou word.

Opstelgids vir Auto-GPT en GPT-ingenieur

Die opstel van die nuutste gereedskap soos GPT-Engineer en Auto-GPT kan jou ontwikkelingsproses stroomlyn. Hieronder is 'n gestruktureerde gids om jou te help om beide gereedskap te installeer en op te stel.

Outo-GPT

Die opstel van Auto-GPT kan ingewikkeld lyk, maar met die regte stappe word dit eenvoudig. Hierdie gids dek die prosedure om Auto-GPT op te stel en bied insigte in die uiteenlopende scenario's.

1. Voorvereistes:

  1. Python-omgewing: Maak seker jy het Python 3.8 of later geïnstalleer. Jy kan Python van sy Amptelike webwerf.
  2. As jy van plan is om bewaarplekke te kloon, installeer gaan.
  3. OpenAI API-sleutel: Om met OpenAI te kommunikeer, is 'n API-sleutel nodig. Kry die sleutel van jou OpenAI rekening
Maak AI API-sleutel oop

Maak AI API-sleutelgenerasie oop

Geheue Backend Opsies: 'n Geheue-agterkant dien as 'n stoormeganisme vir AutoGPT om toegang tot noodsaaklike data vir sy bedrywighede te verkry. AutoGPT gebruik beide korttermyn- en langtermynbergingsvermoëns. Dennebol, Milvus, Redis, en ander is 'n paar opsies wat beskikbaar is.

2. Stel jou werkspasie op:

  1. Skep 'n virtuele omgewing: python3 -m venv myenv
  2. Aktiveer die omgewing:
    1. MacOS of Linux: source myenv/bin/activate

3. installasie:

  1. Kloon die Auto-GPT-bewaarplek (maak seker jy het Git geïnstalleer): git clone https://github.com/Significant-Gravitas/Auto-GPT.git
  2. Om te verseker dat jy met weergawe werk 0.2.2 van Auto-GPT, jy sal wil checkout na daardie spesifieke weergawe: git checkout stable-0.2.2
  3. Navigeer na die afgelaaide bewaarplek: cd Auto-GPT
  4. Installeer die vereiste afhanklikhede: pip install -r requirements.txt

4. Opstelling:

  1. Spoor .env.template hoofsaaklik /Auto-GPT gids. Dupliseer en hernoem dit na .env
  2. Opening .env en stel jou OpenAI API-sleutel langs OPENAI_API_KEY=
  3. Net so, om Pinecone of ander geheue backends te gebruik, werk die op .env lêer met jou Pinecone API sleutel en streek.

5. Opdragreëlinstruksies:

Die Auto-GPT bied 'n ryk stel opdragreëlargumente om sy gedrag aan te pas:

  • Algemene Gebruik:
    • Vertoon hulp: python -m autogpt --help
    • Pas KI-instellings aan: python -m autogpt --ai-settings <filename>
    • Spesifiseer 'n geheue-agterkant: python -m autogpt --use-memory <memory-backend>
AutoGPT CLI

AutoGPT in CLI

6. Begin Auto-GPT:

Sodra konfigurasies voltooi is, begin Auto-GPT deur:

  • Linux of Mac: ./run.sh start
  • Windows: .\run.bat

Docker-integrasie (aanbevole opstellingsbenadering)

Vir diegene wat Auto-GPT wil hou, bied Docker 'n vaartbelynde benadering. Hou egter in gedagte dat Docker se aanvanklike opstelling effens ingewikkeld kan wees. Verwys na Docker se installasiegids vir hulp.

Gaan voort deur die stappe hieronder te volg om die OpenAI API-sleutel te verander. Maak seker dat Docker op die agtergrond loop. Gaan nou na die hoofgids van AutoGPT en volg die onderstaande stappe op jou terminaal

  • Bou die Docker-beeld: docker build -t autogpt .
  • Nou hardloop: docker run -it --env-file=./.env -v$PWD/auto_gpt_workspace:/app/auto_gpt_workspace autogpt

Met docker-compose:

  • hardloop: docker-compose run --build --rm auto-gpt
  • Vir aanvullende aanpassing, kan jy addisionele argumente integreer. Byvoorbeeld, om met beide –gpt3only en –continuous te hardloop: docker-compose run --rm auto-gpt --gpt3only--continuous
  • Gegewe die uitgebreide outonomie wat Auto-GPT het om inhoud uit groot datastelle te genereer, is daar 'n potensiële risiko dat dit onbedoeld toegang tot kwaadwillige webbronne verkry.

Om risiko's te verminder, bedryf Auto-GPT binne 'n virtuele houer, soos Docker. Dit verseker dat enige potensieel skadelike inhoud binne die virtuele ruimte beperk bly, wat jou eksterne lêers en stelsel onaangeraak hou. Alternatiewelik is Windows Sandbox 'n opsie, alhoewel dit na elke sessie teruggestel word, sonder om sy toestand te behou.

Vir sekuriteit, voer altyd Auto-GPT in 'n virtuele omgewing uit, om te verseker dat jou stelsel geïsoleer bly teen onverwagte uitsette.

Gegewe dit alles, is daar steeds 'n kans dat jy nie die gewenste resultate sal kan kry nie. Outo-GPT-gebruikers is aangemeld herhalende kwessies wanneer jy probeer om na 'n lêer te skryf, dikwels mislukte pogings teëkom as gevolg van problematiese lêername. Hier is een so 'n fout: Auto-GPT (release 0.2.2) doesn't append the text after error "write_to_file returned: Error: File has already been updated

Verskeie oplossings om dit aan te spreek is op die gepaardgaande bespreek GitHub-draad vir verwysing.

GPT-ingenieur

GPT-ingenieurswerkvloei:

  1. Vinnige definisie: Skep 'n gedetailleerde beskrywing van jou projek deur natuurlike taal te gebruik.
  2. Kode Generasie: Op grond van jou opdrag begin GPT-Ingenieur aan die werk deur kodebrokkies, funksies of selfs volledige toepassings uit te laai.
  3. Verfyning en optimalisering: Na-generasie, daar is altyd ruimte vir verbetering. Ontwikkelaars kan die gegenereerde kode wysig om aan spesifieke vereistes te voldoen, wat die hoogste gehalte verseker.

Die proses van die opstel van GPT-Ingenieur is saamgevat in 'n maklik-om-te volg gids. Hier is 'n stap-vir-stap uiteensetting:

1. Voorbereiding van die omgewing: Voordat jy induik, maak seker dat jy jou projekgids gereed het. Maak 'n terminaal oop en voer die opdrag hieronder uit

  • Skep 'n nuwe gids met die naam 'webwerf': mkdir website
  • Skuif na die gids: cd website

2. Kloon die bewaarplek:  git clone https://github.com/AntonOsika/gpt-engineer.git .

3. Navigeer en installeer afhanklikhede: Sodra gekloon, skakel oor na die gids cd gpt-engineer en installeer alle nodige afhanklikhede make install

4. Aktiveer virtuele omgewing: Afhangende van jou bedryfstelsel, aktiveer die geskepde virtuele omgewing.

  • vir MacOS / Linux: source venv/bin/activate
  • vir Windows, is dit effens anders as gevolg van API-sleutelopstelling: set OPENAI_API_KEY=[your api key]

5. Opstelling – API-sleutelopstelling: Om met OpenAI te kommunikeer, het jy 'n API-sleutel nodig. As jy nog nie een het nie, teken aan op die OpenAI-platform, dan:

  • vir MacOS / Linux: export OPENAI_API_KEY=[your api key]
  • vir Windows (soos vroeër genoem): set OPENAI_API_KEY=[your api key]

6. Projekinisialisering en kodegenerering: GPT-Ingenieur se magie begin met die main_prompt lêer gevind in die projects gids.

  • As jy 'n nuwe projek wil afskop: cp -r projects/example/ projects/website

Vervang hier 'webwerf' met jou gekose projeknaam.

  • Wysig die main_prompt lêer met behulp van 'n teksredigeerder van jou keuse, wat jou projek se vereistes neerpen.

  • Sodra jy tevrede is met die vinnige hardloop: gpt-engineer projects/website

Jou gegenereerde kode sal in die workspace gids in die projekgids.

7. Na-generasie: Alhoewel GPT-ingenieur kragtig is, is dit dalk nie altyd perfek nie. Inspekteer die gegenereerde kode, maak enige handmatige veranderinge indien nodig, en maak seker dat alles glad verloop.

Voorbeeld Hardloop

Prompt:

“Ek wil 'n basiese Streamlit-toepassing in Python ontwikkel wat gebruikersdata deur interaktiewe kaarte visualiseer. Die toepassing moet gebruikers toelaat om 'n CSV-lêer op te laai, die tipe grafiek (bv. staaf, sirkel, lyn) te kies en die data dinamies te visualiseer. Dit kan biblioteke soos Pandas gebruik vir datamanipulasie en Plotly vir visualisering.”
Ingenieurswese-GPT opstel en uitvoer

Opstel en uitvoer van GPT-ingenieur

Net soos Auto-GPT, kan GPT-ingenieur soms foute ondervind selfs na 'n volledige opstelling. Met my derde poging het ek egter suksesvol toegang tot die volgende stroombeligte webblad verkry. Maak seker dat u enige foute op die amptenaar hersien GPT-Ingenieur-bewaarplek se uitgawebladsy.

Streamlit App gegenereer met behulp van Engineering-GPT

Streamlit App gegenereer met behulp van GPT-Engineer

Huidige knelpunte van KI-agente

Bedryfsuitgawes

'n Enkele taak wat deur Auto-GPT uitgevoer word, kan talle stappe behels. Wat belangrik is, kan elkeen van hierdie stappe wees individueel gefaktureer, verhoog die koste. Outo-GPT kan vasgevang word in herhalende lusse, wat nie beloofde uitkomste lewer nie. Sulke gebeurtenisse kompromitteer die betroubaarheid daarvan en ondermyn die belegging.

Stel jou voor dat jy 'n kort opstel wil maak met Auto-GPT. Die opstel se ideale lengte is 8K-tekens, maar tydens die skeppingsproses delf die model in verskeie tussengangerstappe om die inhoud te finaliseer. As jy GPT-4 met 8k kontekslengte gebruik, sal jy vir die invoer gefaktureer word $0.03. En vir die uitset sou die koste wees $0.06. Nou, kom ons sê die model loop in 'n onvoorsiene lus, wat sekere dele verskeie kere oordoen. Nie net word die proses langer nie, maar elke herhaling dra ook by tot die koste.

Om hierteen te beskerm:

Stel gebruiksgrense op at OpenAI-fakturering en -limiete:

  • Harde limiet: Beperk gebruik buite jou vasgestelde drempel.
  • Sagte limiet: Stuur vir jou 'n e-poswaarskuwing sodra die drempel bereik is.

Funksionaliteitsbeperkings

Auto-GPT se vermoëns, soos uitgebeeld in sy bronkode, kom met sekere grense. Sy probleemoplossingstrategieë word beheer deur sy intrinsieke funksies en die toeganklikheid wat deur GPT-4 se API verskaf word. Vir in-diepte besprekings en moontlike oplossings, oorweeg dit om te besoek: Outo-GPT Bespreking.

KI se impak op die arbeidsmark

Die dinamiek tussen KI en arbeidsmarkte is voortdurend aan die ontwikkel en word breedvoerig hierin gedokumenteer navorsingsverslag. 'n Belangrike wegneemete is dat hoewel tegnologiese vooruitgang dikwels geskoolde werkers bevoordeel, dit risiko's inhou vir diegene wat met roetine-take besig is. Trouens, tegnologiese vooruitgang kan sekere take verplaas, maar terselfdertyd die weg baan vir diverse, arbeidsintensiewe take.

KI Arbeidsmark Outonome Agente inhaal

Na raming kan 80% van Amerikaanse werkers vind dat LLM's (Language Learning Models) ongeveer 10% van hul daaglikse take beïnvloed. Hierdie statistiek onderstreep die samesmelting van KI en menslike rolle.

KI se dubbelfasette rol in die arbeidsmag:

  • Positiewe aspekte: KI kan baie take outomatiseer, van kliëntediens tot finansiële advies, wat 'n uitstel gee aan klein ondernemings wat nie fondse vir toegewyde spanne het nie.
  • Bekommernisse: Die seën van outomatisering laat wenkbroue lig oor potensiële werkverliese, veral in sektore waar menslike betrokkenheid uiters belangrik is, soos kliëntediens. Hiermee saam is die etiese doolhof gekoppel aan KI wat toegang tot vertroulike data verkry. Dit vereis 'n sterk infrastruktuur wat deursigtigheid, aanspreeklikheid en etiese gebruik van KI verseker.

Gevolgtrekking

Dit is duidelik dat gereedskap soos ChatGPT, Auto-GPT en GPT-Engineer aan die voorpunt staan ​​om die interaksie tussen tegnologie en sy gebruikers te hervorm. Met wortels in oopbronbewegings, manifesteer hierdie KI-agente die moontlikhede van masjien-outonomie, wat take vaartbelyn maak van skedulering tot sagteware-ontwikkeling.

Soos ons 'n toekoms binnegaan waar KI dieper in ons daaglikse roetines integreer, word 'n balans tussen die omhelsing van KI se vermoëns en die beskerming van menslike rolle deurslaggewend. Op die breër spektrum skets die KI-arbeidsmarkdinamiek 'n dubbele beeld van groeigeleenthede en -uitdagings, wat 'n bewuste integrasie van tegnologiese etiek en deursigtigheid vereis.

Ek het die afgelope vyf jaar my verdiep in die fassinerende wêreld van Masjienleer en Deep Learning. My passie en kundigheid het daartoe gelei dat ek bygedra het tot meer as 50 diverse sagteware-ingenieursprojekte, met 'n spesifieke fokus op KI/ML. My voortdurende nuuskierigheid het my ook na natuurlike taalverwerking gelok, 'n veld wat ek gretig is om verder te verken.