mozzicone Auto-GPT e GPT-Engineer: una guida approfondita ai principali agenti IA di oggi - Unite.AI
Seguici sui social

Intelligenza Artificiale

Auto-GPT e GPT-Engineer: una guida approfondita ai principali agenti IA di oggi

mm

Pubblicato il

 on

Confrontando ChatGPT con agenti AI autonomi come Auto-GPT e GPT-Engineer, emerge una differenza significativa nel processo decisionale. Sebbene ChatGPT richieda un coinvolgimento umano attivo per guidare la conversazione, fornendo indicazioni basate sulle richieste dell'utente, il processo di pianificazione dipende prevalentemente dall'intervento umano.

AI generativa modelli come i trasformatori sono la tecnologia di base all’avanguardia che guida questi agenti IA autonomi. Questi trasformatori vengono addestrati su set di dati di grandi dimensioni, consentendo loro di simulare ragionamenti complessi e capacità decisionali.

Radici open source degli agenti autonomi: Auto-GPT e GPT-Engineer

Molti di questi agenti IA autonomi derivano da iniziative open source guidate da individui innovativi che trasformano i flussi di lavoro convenzionali. Invece di limitarsi a offrire suggerimenti, agenti come Auto-GPT possono gestire in modo indipendente le attività, dallo shopping online alla creazione di app di base. Interprete di codice di OpenAI mira ad aggiornarsi ChatGPT dal semplice suggerimento di idee alla risoluzione attiva dei problemi con tali idee.

Sia Auto-GPT che GPT-Engineer sono dotati della potenza di GPT 3.5 e GPT-4. Comprende la logica del codice, combina più file e accelera il processo di sviluppo.

Il punto cruciale della funzionalità di Auto-GPT risiede nei suoi agenti AI. Questi agenti sono programmati per eseguire compiti specifici, da quelli banali come la pianificazione a compiti più complessi che richiedono un processo decisionale strategico. Tuttavia, questi agenti IA operano entro i limiti stabiliti dagli utenti. Controllando il proprio accesso tramite API, gli utenti possono determinare la profondità e la portata delle azioni che l'intelligenza artificiale può eseguire.

Ad esempio, se viene incaricato di creare un'app Web di chat integrata con ChatGPT, Auto-GPT suddivide autonomamente l'obiettivo in passaggi attuabili, come la creazione di un front-end HTML o lo scripting di un back-end Python. Sebbene l'applicazione produca autonomamente questi prompt, gli utenti possono comunque monitorarli e modificarli. Come mostrato dal creatore di AutoGPT @SigGravitas, è in grado di costruire ed eseguire un programma di test basato su Python.

Sebbene il diagramma seguente descriva un'architettura più generale di un agente AI autonomo, offre preziose informazioni sui processi dietro le quinte.

Architettura dell'agente AI come Autogpt, GPT Engineer

Architettura dell'agente AI autonomo

Il processo viene avviato verificando la chiave API OpenAI e inizializzando vari parametri, tra cui la memoria a breve termine e il contenuto del database. Una volta passati i dati chiave all'agente, il modello interagisce con GPT3.5/GPT4 per recuperare una risposta. Questa risposta viene quindi trasformata in un formato JSON, che l'agente interpreta per eseguire una varietà di funzioni, come condurre ricerche online, leggere o scrivere file o persino eseguire codice. Auto-GPT utilizza un modello preaddestrato per archiviare queste risposte in un database e le interazioni future utilizzano queste informazioni archiviate come riferimento. Il ciclo continua finché l'attività non viene considerata completata.

Guida all'installazione per Auto-GPT e GPT-Engineer

L'impostazione di strumenti all'avanguardia come GPT-Engineer e Auto-GPT può semplificare il processo di sviluppo. Di seguito è riportata una guida strutturata per aiutarti a installare e configurare entrambi gli strumenti.

GPT automatico

La configurazione di Auto-GPT può sembrare complessa, ma con i passaggi giusti diventa semplice. Questa guida illustra la procedura per impostare Auto-GPT e offre approfondimenti sui suoi diversi scenari.

1. Prerequisiti:

  1. Ambiente Python: assicurati di avere Python 3.8 o successivo installato. Puoi ottenere Python dal suo file Sito ufficiale.
  2. Se prevedi di clonare i repository, installa Idiota.
  3. Chiave API OpenAI: Per interagire con OpenAI è necessaria una chiave API. Prendi la chiave dal tuo Conto OpenAI
Apri la chiave API AI

Generazione di chiavi API AI aperte

Opzioni di backend della memoria: un backend di memoria funge da meccanismo di archiviazione per AutoGPT per accedere ai dati essenziali per le sue operazioni. AutoGPT utilizza funzionalità di archiviazione sia a breve che a lungo termine. pigna, Milvo, Redise altre sono alcune opzioni disponibili.

2. Configurazione dello spazio di lavoro:

  1. Crea un ambiente virtuale: python3 -m venv myenv
  2. Attiva l'ambiente:
    1. MacOS o Linux: source myenv/bin/activate

3. Installazione:

  1. Clona il repository Auto-GPT (assicurati di avere Git installato): git clone https://github.com/Significant-Gravitas/Auto-GPT.git
  2. Per assicurarti di lavorare con la versione 0.2.2 dell'Auto-GPT, vorrai cassa a quella particolare versione: git checkout stable-0.2.2
  3. Passare al repository scaricato: cd Auto-GPT
  4. Installa le dipendenze richieste: pip install -r requirements.txt

4. Configurazione:

  1. Individuare .env.template nel principale /Auto-GPT directory. Duplicalo e rinominalo in .env
  2. Apri .env e imposta la chiave API OpenAI accanto a OPENAI_API_KEY=
  3. Allo stesso modo, per utilizzare Pinecone o altri backend di memoria, aggiorna il file .env file con la chiave API e la regione Pinecone.

5. Istruzioni della riga di comando:

L'Auto-GPT offre un ricco set di argomenti della riga di comando per personalizzare il suo comportamento:

  • Uso Generale:
    • Visualizza la guida: python -m autogpt --help
    • Regola le impostazioni dell'IA: python -m autogpt --ai-settings <filename>
    • Specificare un backend di memoria: python -m autogpt --use-memory <memory-backend>
CLI AutoGPT

AutoGPT nella CLI

6. Avvio di Auto-GPT:

Una volta completate le configurazioni, avvia Auto-GPT utilizzando:

  • Linux o Mac: ./run.sh start
  • Windows: .\run.bat

Integrazione Docker (approccio di installazione consigliato)

Per coloro che desiderano containerizzare Auto-GPT, Docker fornisce un approccio semplificato. Tuttavia, tieni presente che la configurazione iniziale di Docker può essere leggermente complessa. Fare riferimento a Guida all'installazione di Docker per assistenza.

Procedi seguendo i passaggi seguenti per modificare la chiave API OpenAI. Assicurati che Docker sia in esecuzione in background. Ora vai alla directory principale di AutoGPT e segui i passaggi seguenti sul tuo terminale

  • Costruisci l'immagine Docker: docker build -t autogpt .
  • Ora esegui: docker run -it --env-file=./.env -v$PWD/auto_gpt_workspace:/app/auto_gpt_workspace autogpt

Con docker-compose:

  • Esegui: docker-compose run --build --rm auto-gpt
  • Per una personalizzazione supplementare è possibile integrare argomenti aggiuntivi. Ad esempio, per eseguire sia –gpt3only che –continuous: docker-compose run --rm auto-gpt --gpt3only--continuous
  • Data l'ampia autonomia di cui dispone Auto-GPT nella generazione di contenuti da set di dati di grandi dimensioni, esiste il rischio potenziale che acceda involontariamente a fonti Web dannose.

Per mitigare i rischi, utilizza Auto-GPT all'interno di un contenitore virtuale, come Docker. Ciò garantisce che qualsiasi contenuto potenzialmente dannoso rimanga confinato nello spazio virtuale, mantenendo intatti i file esterni e il sistema. In alternativa, Windows Sandbox è un'opzione, sebbene si reimposti dopo ogni sessione, non riuscendo a mantenere il suo stato.

Per motivi di sicurezza, esegui sempre Auto-GPT in un ambiente virtuale, assicurandoti che il tuo sistema rimanga isolato da output imprevisti.

Considerato tutto ciò, c'è ancora la possibilità che non sarai in grado di ottenere i risultati desiderati. Utenti Auto-GPT segnalati problemi ricorrenti quando si tenta di scrivere su un file, spesso si riscontrano tentativi falliti a causa di nomi di file problematici. Ecco uno di questi errori: Auto-GPT (release 0.2.2) doesn't append the text after error "write_to_file returned: Error: File has already been updated

Varie soluzioni per risolvere questo problema sono state discusse nella sezione associata Thread di GitHub per riferimento.

Ingegnere GPT

Flusso di lavoro di GPT-Engineer:

  1. Definizione immediata: crea una descrizione dettagliata del tuo progetto utilizzando il linguaggio naturale.
  2. Generazione di codice: in base alla tua richiesta, GPT-Engineer si mette al lavoro, sfornando frammenti di codice, funzioni o persino applicazioni complete.
  3. Perfezionamento e ottimizzazione: Dopo la generazione, c'è sempre spazio per miglioramenti. Gli sviluppatori possono modificare il codice generato per soddisfare requisiti specifici, garantendo una qualità di prim'ordine.

Il processo di configurazione di GPT-Engineer è stato condensato in una guida facile da seguire. Ecco una ripartizione passo passo:

1. Preparazione dell'ambiente: Prima di immergerti, assicurati di avere la directory del progetto pronta. Apri un terminale ed esegui il comando seguente

  • Crea una nuova directory denominata "sito web": mkdir website
  • Passare alla directory: cd website

2. Clonare il repository:  git clone https://github.com/AntonOsika/gpt-engineer.git .

3. Naviga e installa le dipendenze: Una volta clonato, passa alla directory cd gpt-engineer e installare tutte le dipendenze necessarie make install

4. Attiva l'ambiente virtuale: A seconda del tuo sistema operativo, attiva l'ambiente virtuale creato.

  • Nel macOS / Linux: source venv/bin/activate
  • Nel Windows, è leggermente diverso a causa della configurazione della chiave API: set OPENAI_API_KEY=[your api key]

5. Configurazione – Impostazione chiave API: Per interagire con OpenAI, avrai bisogno di una chiave API. Se non ne hai ancora uno, registrati sulla piattaforma OpenAI, quindi:

  • Nel macOS / Linux: export OPENAI_API_KEY=[your api key]
  • Nel Windows (come menzionato prima): set OPENAI_API_KEY=[your api key]

6. Inizializzazione del progetto e generazione del codice: La magia di GPT-Engineer inizia con main_prompt file trovato nel projects cartella.

  • Se desideri avviare un nuovo progetto: cp -r projects/example/ projects/website

Qui, sostituisci "sito web" con il nome del progetto scelto.

  • Modificare il main_prompt file utilizzando un editor di testo di tua scelta, annotando i requisiti del tuo progetto.

  • Una volta che sei soddisfatto del prompt, esegui: gpt-engineer projects/website

Il codice generato risiederà nel file workspace directory all'interno della cartella del progetto.

7. Post-generazione: Sebbene GPT-Engineer sia potente, potrebbe non essere sempre perfetto. Ispeziona il codice generato, apporta eventuali modifiche manuali se necessario e assicurati che tutto funzioni senza intoppi.

Esempio Esegui

chiederà:

“Voglio sviluppare un'app Streamlit di base in Python che visualizzi i dati dell'utente attraverso grafici interattivi. L'app dovrebbe consentire agli utenti di caricare un file CSV, selezionare il tipo di grafico (ad esempio, a barre, a torta, a linee) e visualizzare dinamicamente i dati. Può utilizzare librerie come Pandas per la manipolazione dei dati e Plotly per la visualizzazione."
Configurazione ed esecuzione di Engineering-GPT

Configurazione ed esecuzione di GPT-Engineer

Proprio come Auto-GPT, GPT-Engineer a volte può riscontrare errori anche dopo una configurazione completa. Tuttavia, al terzo tentativo, ho avuto accesso con successo alla seguente pagina web ottimizzata. Assicurati di rivedere eventuali errori sul funzionario Pagina dei problemi del repository GPT-Engineer.

App Streamlit generata utilizzando Engineering-GPT

App Streamlit generata utilizzando GPT-Engineer

Attuali colli di bottiglia degli agenti IA

Spese operative

Una singola attività eseguita da Auto-GPT potrebbe comportare numerosi passaggi. È importante sottolineare che ciascuno di questi passaggi potrebbe essere fatturati individualmente, aumentando i costi. L'Auto-GPT può rimanere intrappolato in cicli ripetitivi, non riuscendo a fornire i risultati promessi. Tali eventi ne compromettono l’affidabilità e minano l’investimento.

Immagina di voler creare un breve saggio con Auto-GPT. La lunghezza ideale del saggio è di 8K token, ma durante il processo di creazione, il modello approfondisce più passaggi intermedi per finalizzare il contenuto. Se utilizzi GPT-4 con una lunghezza del contesto di 8k, per l'input ti verrà addebitato un costo $0.03. E per l'output, il costo sarebbe $0.06. Ora, supponiamo che il modello si imbatta in un ciclo imprevisto, rifacendo alcune parti più volte. Non solo il processo diventa più lungo, ma ogni ripetizione aumenta anche i costi.

Per proteggersi da ciò:

Imposta limiti di utilizzo at Fatturazione e limiti OpenAI:

  • Limite Difficile: limita l'utilizzo oltre la soglia impostata.
  • Limite morbido: ti invia un avviso e-mail una volta raggiunta la soglia.

Limitazioni di funzionalità

Le funzionalità di Auto-GPT, come illustrato nel codice sorgente, presentano determinati limiti. Le sue strategie di risoluzione dei problemi sono governate dalle sue funzioni intrinseche e dall'accessibilità fornita dall'API di GPT-4. Per discussioni approfondite e possibili soluzioni alternative, considera di visitare: Discussione sul GPT automatico.

L'impatto dell'intelligenza artificiale sul mercato del lavoro

La dinamica tra l’intelligenza artificiale e i mercati del lavoro è in continua evoluzione ed è ampiamente documentata in questo contesto documento di ricerca. Un aspetto fondamentale è che, sebbene il progresso tecnologico spesso avvantaggi i lavoratori qualificati, comporta dei rischi per coloro che sono impegnati in compiti di routine. È un dato di fatto, i progressi tecnologici potrebbero sostituire determinati compiti ma allo stesso tempo aprire la strada a compiti diversi e ad alta intensità di manodopera.

AI Mercato del lavoro Gli agenti autonomi sorpassano

Si stima che circa l’80% dei lavoratori americani potrebbe scoprire che i LLM (Language Learning Models) influenzano circa il 10% delle loro attività quotidiane. Questa statistica sottolinea la fusione tra intelligenza artificiale e ruoli umani.

Il duplice ruolo dell'intelligenza artificiale nella forza lavoro:

  • Aspetti positivi: L’intelligenza artificiale può automatizzare numerose attività, dal servizio clienti alla consulenza finanziaria, garantendo una tregua alle piccole imprese che non dispongono di fondi per team dedicati.
  • preoccupazioni: Il vantaggio dell’automazione fa sollevare qualche perplessità sulle potenziali perdite di posti di lavoro, in particolare nei settori in cui il coinvolgimento umano è fondamentale, come l’assistenza clienti. Insieme a questo c’è il labirinto etico legato all’accesso dell’IA ai dati riservati. Ciò richiede una forte infrastruttura che garantisca trasparenza, responsabilità e uso etico dell’IA.

Conclusione

Chiaramente, strumenti come ChatGPT, Auto-GPT e GPT-Engineer sono in prima linea nel rimodellare l'interazione tra la tecnologia e i suoi utenti. Con radici nei movimenti open source, questi agenti di intelligenza artificiale manifestano le possibilità dell’autonomia della macchina, semplificando le attività dalla pianificazione allo sviluppo del software.

Mentre ci muoviamo verso un futuro in cui l’intelligenza artificiale si integrerà sempre di più nelle nostre routine quotidiane, l’equilibrio tra l’adozione delle capacità dell’intelligenza artificiale e la salvaguardia dei ruoli umani diventa fondamentale. Su uno spettro più ampio, la dinamica del mercato del lavoro basata sull’intelligenza artificiale dipinge una duplice immagine di opportunità e sfide di crescita, richiedendo un’integrazione consapevole di etica tecnologica e trasparenza.

Ho trascorso gli ultimi cinque anni immergendomi nell'affascinante mondo del Machine Learning e del Deep Learning. La mia passione e competenza mi hanno portato a contribuire a oltre 50 diversi progetti di ingegneria del software, con un focus particolare su AI/ML. La mia continua curiosità mi ha anche attirato verso l'elaborazione del linguaggio naturale, un campo che non vedo l'ora di esplorare ulteriormente.