stub Auto-GPT & GPT-Engineer: En dybdegående guide til dagens førende AI-agenter - Unite.AI
Følg os

Kunstig intelligens

Auto-GPT & GPT-Engineer: En dybdegående guide til nutidens førende AI-agenter

mm

Udgivet

 on

Når man sammenligner ChatGPT med Autonome AI-agenter som Auto-GPT og GPT-Engineer, opstår der en væsentlig forskel i beslutningsprocessen. Mens ChatGPT kræver aktiv menneskelig involvering for at drive samtalen og give vejledning baseret på brugerprompter, er planlægningsprocessen overvejende afhængig af menneskelig indgriben.

Generativ AI modeller som transformere er den nyeste kerneteknologi, der driver disse autonome AI-agenter. Disse transformere er trænet på store datasæt, hvilket giver dem mulighed for at simulere komplekse ræsonnementer og beslutningstagningsevner.

Open-Source rødder af autonome agenter: Auto-GPT og GPT-Engineer

Mange af disse autonome AI-agenter stammer fra open source-initiativer ledet af innovative individer, der transformerer konventionelle arbejdsgange. I stedet for blot at give forslag kan agenter som Auto-GPT selvstændigt håndtere opgaver, fra online shopping til at konstruere grundlæggende apps. OpenAI's kodetolk har til formål at opgradere ChatGPT fra blot at foreslå ideer til aktivt at løse problemer med disse ideer.

Både Auto-GPT og GPT-Engineer er udstyret med kraften fra GPT 3.5 og GPT-4. Det forstår kodelogik, kombinerer flere filer og fremskynder udviklingsprocessen.

Kernen i Auto-GPTs funktionalitet ligger i dets AI-agenter. Disse agenter er programmeret til at udføre specifikke opgaver, fra hverdagsagtige opgaver som planlægning til mere komplekse opgaver, der kræver strategisk beslutningstagning. Disse AI-agenter opererer dog inden for de grænser, der er fastsat af brugerne. Ved at kontrollere deres adgang via API'er kan brugere bestemme dybden og omfanget af handlinger, som AI kan udføre.

For eksempel, hvis den har til opgave at skabe en chat-webapp integreret med ChatGPT, opdeler Auto-GPT autonomt målet i handlingsrettede trin, som at oprette en HTML-frontend eller scripte en Python-backend. Selvom applikationen selvstændigt producerer disse prompter, kan brugerne stadig overvåge og ændre dem. Som vist af skaberen af ​​AutoGPT @SigGravitas, den er i stand til at bygge og udføre et testprogram baseret på Python.

Mens nedenstående diagram beskriver en mere generel arkitektur af en Autonom AI-agent, giver det værdifuld indsigt i processerne bag kulisserne.

AI Agent-arkitektur som Autogpt, GPT Engineer

Autonom AI Agent-arkitektur

Processen initieres ved at verificere OpenAI API-nøglen og initialisere forskellige parametre, herunder korttidshukommelse og databaseindhold. Når nøgledataene er overført til agenten, interagerer modellen med GPT3.5/GPT4 for at hente et svar. Dette svar transformeres derefter til et JSON-format, som agenten fortolker til at udføre en række funktioner, såsom at udføre onlinesøgninger, læse eller skrive filer eller endda køre kode. Auto-GPT anvender en forudtrænet model til at gemme disse svar i en database, og fremtidige interaktioner bruger denne lagrede information til reference. Løkken fortsætter, indtil opgaven anses for afsluttet.

Opsætningsvejledning til Auto-GPT og GPT-Engineer

Opsætning af avancerede værktøjer som GPT-Engineer og Auto-GPT kan strømline din udviklingsproces. Nedenfor er en struktureret guide til at hjælpe dig med at installere og konfigurere begge værktøjer.

Auto-GPT

Opsætning af Auto-GPT kan virke kompleks, men med de rigtige trin bliver det ligetil. Denne vejledning dækker proceduren til opsætning af Auto-GPT og giver indsigt i de forskellige scenarier.

1. Forudsætninger:

  1. Python miljø: Sørg for, at du har Python 3.8 eller nyere installeret. Du kan få Python fra dens officiel hjemmeside.
  2. Hvis du planlægger at klone depoter, skal du installere Git.
  3. OpenAI API nøgle: For at interagere med OpenAI er en API-nøgle nødvendig. Få nøglen fra din OpenAI-konto
Åbn AI API Key

Åbn AI API Key Generation

Memory Backend-indstillinger: En hukommelsesbackend fungerer som en lagringsmekanisme for AutoGPT for at få adgang til væsentlige data til dens operationer. AutoGPT anvender både kortsigtede og langsigtede lagringskapaciteter. Grankogle, Milvus, Omfor, og andre er nogle muligheder, der er tilgængelige.

2. Opsætning af dit arbejdsområde:

  1. Opret et virtuelt miljø: python3 -m venv myenv
  2. Aktiver miljøet:
    1. MacOS eller Linux: source myenv/bin/activate

3. Installation:

  1. Klon Auto-GPT-depotet (sørg for, at du har Git installeret): git clone https://github.com/Significant-Gravitas/Auto-GPT.git
  2. For at sikre, at du arbejder med version 0.2.2 af Auto-GPT, vil du gerne gå til kassen til den pågældende version: git checkout stable-0.2.2
  3. Naviger til det downloadede lager: cd Auto-GPT
  4. Installer de nødvendige afhængigheder: pip install -r requirements.txt

4. Konfiguration:

  1. Find .env.template hovedsageligt /Auto-GPT vejviser. Dupliker og omdøb den til .env
  2. Åbne .env og sæt din OpenAI API-nøgle ved siden af OPENAI_API_KEY=
  3. Tilsvarende, for at bruge Pinecone eller andre hukommelsesbackends skal du opdatere .env fil med din Pinecone API-nøgle og område.

5. Kommandolinjeinstruktioner:

Auto-GPT tilbyder et rigt sæt kommandolinjeargumenter til at tilpasse dens adfærd:

  • Generelt Brug:
    • Vis Hjælp: python -m autogpt --help
    • Juster AI-indstillinger: python -m autogpt --ai-settings <filename>
    • Angiv en hukommelsesbackend: python -m autogpt --use-memory <memory-backend>
AutoGPT CLI

AutoGPT i CLI

6. Start af Auto-GPT:

Når konfigurationerne er færdige, skal du starte Auto-GPT ved hjælp af:

  • Linux eller Mac: ./run.sh start
  • Windows: .\run.bat

Docker-integration (anbefalet opsætningsmetode)

For dem, der ønsker at containerisere Auto-GPT, tilbyder Docker en strømlinet tilgang. Vær dog opmærksom på, at Dockers indledende opsætning kan være lidt indviklet. Henvise til Dockers installationsvejledning for hjælp.

Fortsæt ved at følge nedenstående trin for at ændre OpenAI API-nøglen. Sørg for, at Docker kører i baggrunden. Gå nu til hovedbiblioteket i AutoGPT og følg nedenstående trin på din terminal

  • Byg Docker-billedet: docker build -t autogpt .
  • Kør nu: docker run -it --env-file=./.env -v$PWD/auto_gpt_workspace:/app/auto_gpt_workspace autogpt

Med docker-compose:

  • Løb: docker-compose run --build --rm auto-gpt
  • For yderligere tilpasning kan du integrere yderligere argumenter. For eksempel at køre med både –gpt3only og –continuous: docker-compose run --rm auto-gpt --gpt3only--continuous
  • I betragtning af den omfattende autonomi, Auto-GPT besidder med hensyn til at generere indhold fra store datasæt, er der en potentiel risiko for, at den utilsigtet får adgang til ondsindede webkilder.

For at mindske risici skal du betjene Auto-GPT i en virtuel container, som Docker. Dette sikrer, at alt potentielt skadeligt indhold forbliver indespærret i det virtuelle rum, og holder dine eksterne filer og system urørt. Alternativt er Windows Sandbox en mulighed, selvom den nulstilles efter hver session, uden at dens tilstand bevares.

Af sikkerhedsmæssige årsager skal du altid udføre Auto-GPT i et virtuelt miljø, og sikre, at dit system forbliver isoleret fra uventede output.

I betragtning af alt dette er der stadig en chance for, at du ikke vil være i stand til at få de ønskede resultater. Auto-GPT-brugere rapporteret tilbagevendende problemer når man forsøger at skrive til en fil, støder man ofte på mislykkede forsøg på grund af problematiske filnavne. Her er en sådan fejl: Auto-GPT (release 0.2.2) doesn't append the text after error "write_to_file returned: Error: File has already been updated

Forskellige løsninger til at løse dette er blevet diskuteret på den tilknyttede GitHub tråd til reference.

GPT-ingeniør

GPT-ingeniør arbejdsgang:

  1. Hurtig definition: Lav en detaljeret beskrivelse af dit projekt ved hjælp af naturligt sprog.
  2. Kodegenerering: Baseret på din prompt går GPT-Engineer i gang med at udskille kodestykker, funktioner eller endda komplette applikationer.
  3. Forfining og optimering: Efter generation er der altid plads til forbedringer. Udviklere kan ændre den genererede kode for at imødekomme specifikke krav, hvilket sikrer topkvalitet.

Processen med at konfigurere GPT-Engineer er blevet kondenseret til en nem at følge guide. Her er en trin-for-trin opdeling:

1. Forberedelse af miljøet: Før du dykker ind, skal du sikre dig, at du har din projektmappe klar. Åbn en terminal og kør kommandoen nedenfor

  • Opret en ny mappe med navnet 'websted': mkdir website
  • Flyt til mappen: cd website

2. Klon depotet:  git clone https://github.com/AntonOsika/gpt-engineer.git .

3. Naviger og installer afhængigheder: Når du er klonet, skal du skifte til mappen cd gpt-engineer og installer alle nødvendige afhængigheder make install

4. Aktiver virtuelt miljø: Afhængigt af dit operativsystem skal du aktivere det oprettede virtuelle miljø.

  • Til macOS / Linux: source venv/bin/activate
  • Til Windows, det er lidt anderledes på grund af API-nøgleopsætning: set OPENAI_API_KEY=[your api key]

5. Konfiguration – API-nøgleopsætning: For at interagere med OpenAI skal du bruge en API-nøgle. Hvis du ikke har en endnu, tilmeld dig på OpenAI-platformen, så:

  • Til macOS / Linux: export OPENAI_API_KEY=[your api key]
  • Til Windows (Som tidligere nævnt): set OPENAI_API_KEY=[your api key]

6. Projektinitialisering og kodegenerering: GPT-Engineers magi starter med main_prompt fil fundet i projects mappe.

  • Hvis du ønsker at starte et nyt projekt: cp -r projects/example/ projects/website

Erstat her 'hjemmeside' med dit valgte projektnavn.

  • Rediger main_prompt fil ved hjælp af en teksteditor efter eget valg, der nedskriver dit projekts krav.

  • Når du er tilfreds med prompten: gpt-engineer projects/website

Din genererede kode vil ligge i workspace bibliotek i projektmappen.

7. Post-generation: Selvom GPT-Engineer er kraftfuld, er den måske ikke altid perfekt. Undersøg den genererede kode, foretag eventuelle manuelle ændringer, hvis det er nødvendigt, og sørg for, at alt kører glat.

Eksempel Kørsel

Spørg:

"Jeg vil udvikle en grundlæggende Streamlit-app i Python, der visualiserer brugerdata gennem interaktive diagrammer. Appen skal give brugerne mulighed for at uploade en CSV-fil, vælge diagramtypen (f.eks. søjle, cirkel, linje) og dynamisk visualisere dataene. Det kan bruge biblioteker som Pandas til datamanipulation og Plotly til visualisering."
Opsætning og drift af Engineering-GPT

Opsætning og drift af GPT-Engineer

Ligesom Auto-GPT kan GPT-Engineer nogle gange støde på fejl, selv efter en komplet opsætning. På mit tredje forsøg fik jeg dog adgang til følgende strømbelyste webside. Sørg for at gennemgå eventuelle fejl på embedsmanden GPT-Engineer repositorys problemside.

Streamlit App genereret ved hjælp af Engineering-GPT

Streamlit app genereret ved hjælp af GPT-Engineer

Nuværende flaskehalse af AI-agenter

Driftsudgifter

En enkelt opgave udført af Auto-GPT kan involvere adskillige trin. Det er vigtigt, at hvert af disse trin kan være faktureres individuelt, hvilket øger omkostningerne. Auto-GPT kan blive fanget i gentagne løkker og ikke levere lovede resultater. Sådanne hændelser kompromitterer dets pålidelighed og underminerer investeringen.

Forestil dig, at du vil lave et kort essay med Auto-GPT. Essayets ideelle længde er 8K tokens, men under oprettelsesprocessen dykker modellen ned i flere mellemliggende trin for at færdiggøre indholdet. Hvis du bruger GPT-4 med 8k kontekstlængde, vil du blive faktureret for input $0.03. Og for output ville omkostningerne være $0.06. Lad os nu sige, at modellen løber ind i en uforudset løkke, hvor visse dele gentages flere gange. Ikke alene bliver processen længere, men hver gentagelse øger også omkostningerne.

For at sikre dig mod dette:

Indstil brugsgrænser at OpenAI Billing & Limits:

  • Hård grænse: Begrænser brug ud over din indstillede tærskel.
  • Blød grænse: Sender dig en e-mail-advarsel, når tærsklen er nået.

Funktionsbegrænsninger

Auto-GPT's muligheder, som afbildet i dens kildekode, kommer med visse grænser. Dets problemløsningsstrategier er styret af dets iboende funktioner og tilgængeligheden, som GPT-4's API giver. For dybdegående diskussioner og mulige løsninger kan du overveje at besøge: Auto-GPT-diskussion.

AI's indflydelse på arbejdsmarkedet

Dynamikken mellem kunstig intelligens og arbejdsmarked er under konstant udvikling og er dokumenteret omfattende i dette forskningsartikel. En vigtig takeaway er, at selvom teknologiske fremskridt ofte kommer faglærte arbejdere til gode, udgør det risici for dem, der er involveret i rutineopgaver. Faktisk kan teknologiske fremskridt fortrænge visse opgaver, men samtidig bane vejen for forskelligartede, arbejdskrævende opgaver.

AI Arbejdsmarked Autonome Agenter overhaler

Det anslås, at 80 % af de amerikanske arbejdere vil opleve, at LLM'er (Language Learning Models) påvirker omkring 10 % af deres daglige opgaver. Denne statistik understreger sammensmeltningen af ​​AI og menneskelige roller.

AI's dobbeltsidede rolle i arbejdsstyrken:

  • Positive aspekter: AI kan automatisere masser af opgaver, fra kundeservice til finansiel rådgivning, hvilket giver en udsættelse til små virksomheder, der mangler midler til dedikerede teams.
  • Bekymringer: Automatiseringens velsignelse vækker øjenbryn for potentielle jobtab, især i sektorer, hvor menneskelig involvering er altafgørende, såsom kundesupport. Sammen med dette er den etiske labyrint knyttet til AI med adgang til fortrolige data. Dette kræver en stærk infrastruktur, der sikrer gennemsigtighed, ansvarlighed og etisk brug af kunstig intelligens.

Konklusion

Det er klart, at værktøjer som ChatGPT, Auto-GPT og GPT-Engineer står i spidsen for at omforme interaktionen mellem teknologi og dens brugere. Med rødder i open source-bevægelser manifesterer disse AI-agenter mulighederne for maskinautonomi, og strømliner opgaver fra planlægning til softwareudvikling.

Efterhånden som vi bevæger os ind i en fremtid, hvor AI integreres dybere i vores daglige rutiner, bliver en balance mellem at omfavne AI's evner og at beskytte menneskelige roller afgørende. På det bredere spektrum tegner AI-arbejdsmarkedsdynamikken et dobbelt billede af vækstmuligheder og udfordringer, hvilket kræver en bevidst integration af teknologisk etik og gennemsigtighed.

Jeg har brugt de sidste fem år på at fordybe mig i den fascinerende verden af ​​Machine Learning og Deep Learning. Min passion og ekspertise har ført mig til at bidrage til over 50 forskellige software engineering projekter, med særligt fokus på AI/ML. Min vedvarende nysgerrighed har også trukket mig hen imod Natural Language Processing, et felt jeg er ivrig efter at udforske yderligere.