Suivez nous sur

Auto-GPT et GPT-Engineer : un guide dĂ©taillĂ© des principaux agents d'IA d'aujourd'hui

Intelligence Artificielle

Auto-GPT et GPT-Engineer : un guide dĂ©taillĂ© des principaux agents d'IA d'aujourd'hui

mm

Lorsque l'on compare ChatGPT avec des agents d'IA autonomes tels qu'Auto-GPT et GPT-Engineer, une différence significative apparaît dans le processus de prise de décision. Alors que ChatGPT nécessite une implication humaine active pour mener la conversation, en fournissant des conseils basés sur les invites des utilisateurs, le processus de planification dépend principalement de l'intervention humaine.

IA générative des modèles tels que les transformateurs constituent la technologie de base de pointe, qui pilote ces agents d’IA autonomes. Ces transformateurs sont formés sur de grands ensembles de données, ce qui leur permet de simuler des capacités complexes de raisonnement et de prise de décision.

Racines open source des agents autonomes : Auto-GPT et GPT-Engineer

Beaucoup de ces agents d’IA autonomes sont issus d’initiatives open source dirigées par des individus innovants transformant les flux de travail conventionnels. Plutôt que de simplement proposer des suggestions, des agents tels qu'Auto-GPT peuvent gérer des tâches de manière indépendante, depuis les achats en ligne jusqu'à la création d'applications de base. Interpréteur de code d'OpenAI vise à améliorer ChatGPT de la simple suggestion d'idées à la résolution active de problèmes avec ces idées.

Auto-GPT et GPT-Engineer sont tous deux équipés de la puissance de GPT 3.5 et GPT-4. Il saisit la logique du code, combine plusieurs fichiers et accélère le processus de développement.

Le cœur de la fonctionnalité d'Auto-GPT réside dans ses agents IA. Ces agents sont programmés pour exécuter des tâches spécifiques, depuis les plus banales comme la planification jusqu'aux tâches plus complexes qui nécessitent une prise de décision stratégique. Cependant, ces agents IA opèrent dans les limites fixées par les utilisateurs. En contrôlant leur accès via des API, les utilisateurs peuvent déterminer la profondeur et la portée des actions que l'IA peut effectuer.

Par exemple, s'il est chargé de créer une application Web de chat intégrée à ChatGPT, Auto-GPT décompose de manière autonome l'objectif en étapes réalisables, comme la création d'un front-end HTML ou la création d'un script pour un back-end Python. Même si l'application produit ces invites de manière autonome, les utilisateurs peuvent toujours les surveiller et les modifier. Comme le montre le créateur d'AutoGPT @SigGravitas, il est capable de construire et d'exécuter un programme de test basé sur Python.

Bien que le diagramme ci-dessous décrit une architecture plus générale d'un agent d'IA autonome, il offre des informations précieuses sur les processus en coulisses.

Architecture d'agent IA comme Autogpt, ingénieur GPT

Architecture d'agent IA autonome

Le processus est lancé par la vérification de la clé API OpenAI et l'initialisation de divers paramètres, notamment la mémoire à court terme et le contenu de la base de données. Une fois les données clés transmises à l'agent, le modèle interagit avec le GPT3.5/GPT4 pour récupérer une réponse. Cette réponse est ensuite transformée au format JSON, que l'agent interprète pour exécuter diverses fonctions, comme effectuer des recherches en ligne, lire ou écrire des fichiers, ou même exécuter du code. Auto-GPT utilise un modèle pré-entraîné pour stocker ces réponses dans une base de données, et les interactions futures utilisent ces informations stockées à titre de référence. La boucle continue jusqu'à ce que la tâche soit considérée comme terminée.

Guide de configuration pour Auto-GPT et GPT-Engineer

La mise en place d'outils de pointe tels que GPT-Engineer et Auto-GPT peut rationaliser votre processus de développement. Vous trouverez ci-dessous un guide structuré pour vous aider à installer et configurer les deux outils.

GPT automatique

La configuration d’Auto-GPT peut sembler complexe, mais avec les bonnes étapes, cela devient simple. Ce guide couvre la procédure de configuration d'Auto-GPT et offre un aperçu de ses divers scénarios.

1. PrĂ©requis :

  1. Environnement Python: Assurez-vous que Python 3.8 ou version ultérieure est installé. Vous pouvez obtenir Python à partir de son site web officiel.
  2. Si vous envisagez de cloner des référentiels, installez Git.
  3. Clé API OpenAI:Pour interagir avec OpenAI, une clé API est nécessaire. Obtenez la clé à partir de votre compte OpenAI
Ouvrir la clé API IA

Génération de clés API Open AI

Options du back-end de mémoire: Un backend de mémoire sert de mécanisme de stockage à AutoGPT pour accéder aux données essentielles à ses opérations. AutoGPT utilise des capacités de stockage à court et à long terme. Pinecone, Milvus, Redis, et d'autres sont quelques options disponibles.

2. Configuration de votre espace de travail :

  1. CrĂ©ez un environnement virtuel : python3 -m venv myenv
  2. Activez l'environnement :
    1. MacOS ou Linux: source myenv/bin/activate

3. Installation:

  1. Clonez le dĂ©pĂ´t Auto-GPT (assurez-vous que Git est installĂ©) : git clone https://github.com/Significant-Gravitas/Auto-GPT.git
  2. Pour vous assurer que vous travaillez avec la version 0.2.2 de Auto-GPT, vous voudrez caisse Ă  cette version particulière : git checkout stable-0.2.2
  3. AccĂ©dez au rĂ©fĂ©rentiel tĂ©lĂ©chargĂ© : cd Auto-GPT
  4. Installez les dĂ©pendances requises : pip install -r requirements.txt

4. Configuration:

  1. Localiser .env.template en général /Auto-GPT annuaire. Dupliquez-le et renommez-le en .env
  2. Open .env et définissez votre clé API OpenAI à côté de OPENAI_API_KEY=
  3. De même, pour utiliser Pinecone ou d'autres backends de mémoire, mettez à jour le .env fichier avec votre clé API Pinecone et votre région.

5. Instructions de ligne de commande :

L'Auto-GPT propose un riche ensemble d'arguments de ligne de commande pour personnaliser son comportement :

  • Usage gĂ©nĂ©ral:
    • Afficher l'aide : python -m autogpt --help
    • Ajustez les paramètres de l'IA : python -m autogpt --ai-settings <filename>
    • SpĂ©cifiez un backend de mĂ©moire : python -m autogpt --use-memory <memory-backend>
CLI AutoGPT

AutoGPT dans CLI

6. Lancement de l'Auto-GPT:

Une fois les configurations terminĂ©es, lancez Auto-GPT en utilisant :

  • Linux ou Mac: ./run.sh start
  • Windows: .\run.bat

Intégration Docker (approche de configuration recommandée)

Pour ceux qui cherchent à conteneuriser Auto-GPT, Docker propose une approche simplifiée. Cependant, n'oubliez pas que la configuration initiale de Docker peut être légèrement complexe. Faire référence à Guide d'installation de Docker pour obtenir de l'assistance

Procédez en suivant les étapes ci-dessous pour modifier la clé API OpenAI. Assurez-vous que Docker s'exécute en arrière-plan. Accédez maintenant au répertoire principal d’AutoGPT et suivez les étapes ci-dessous sur votre terminal

  • CrĂ©ez l'image Docker : docker build -t autogpt .
  • ExĂ©cutez maintenant : docker run -it --env-file=./.env -v$PWD/auto_gpt_workspace:/app/auto_gpt_workspace autogpt

Avec docker-compose :

  • ExĂ©cuter: docker-compose run --build --rm auto-gpt
  • Pour une personnalisation supplĂ©mentaire, vous pouvez intĂ©grer des arguments supplĂ©mentaires. Par exemple, pour exĂ©cuter Ă  la fois –gpt3only et –continuous : docker-compose run --rm auto-gpt --gpt3only--continuous
  • Compte tenu de la grande autonomie dont dispose Auto-GPT pour gĂ©nĂ©rer du contenu Ă  partir de grands ensembles de donnĂ©es, il existe un risque potentiel qu'il accède involontairement Ă  des sources Web malveillantes.

Pour atténuer les risques, utilisez Auto-GPT dans un conteneur virtuel, comme Docker. Cela garantit que tout contenu potentiellement dangereux reste confiné dans l’espace virtuel, gardant ainsi vos fichiers externes et votre système intacts. Alternativement, Windows Sandbox est une option, bien qu'il se réinitialise après chaque session, ne parvenant pas à conserver son état.

Pour des raisons de sécurité, exécutez toujours Auto-GPT dans un environnement virtuel, en vous assurant que votre système reste isolé des sorties inattendues.

Compte tenu de tout cela, il est toujours possible que vous ne puissiez pas obtenir les rĂ©sultats souhaitĂ©s. Utilisateurs Auto-GPT signalĂ©s problèmes rĂ©currents lorsque vous essayez d'Ă©crire dans un fichier, vous rencontrez souvent des tentatives infructueuses en raison de noms de fichiers problĂ©matiques. Voici une de ces erreurs : Auto-GPT (release 0.2.2) doesn't append the text after error "write_to_file returned: Error: File has already been updated

Diverses solutions pour résoudre ce problème ont été discutées sur le site associé. Fil de discussion GitHub pour référence.

Ingénieur GPT

Flux de travail GPT-Engineer :

  1. Définition rapide: Rédigez une description détaillée de votre projet en utilisant le langage naturel.
  2. Génération de code: En fonction de votre invite, GPT-Engineer se met au travail, produisant des extraits de code, des fonctions ou même des applications complètes.
  3. Raffinement et optimisation: Après la génération, il y a toujours place à l'amélioration. Les développeurs peuvent modifier le code généré pour répondre à des exigences spécifiques, garantissant ainsi une qualité irréprochable.

Le processus de configuration de GPT-Engineer a Ă©tĂ© condensĂ© dans un guide facile Ă  suivre. Voici une ventilation Ă©tape par Ă©tape :

1. PrĂ©parer l'environnement : Avant de vous lancer, assurez-vous que votre rĂ©pertoire de projet est prĂŞt. Ouvrez un terminal et exĂ©cutez la commande ci-dessous

  • CrĂ©ez un nouveau rĂ©pertoire nommĂ© « site Web » : mkdir website
  • AccĂ©dez au rĂ©pertoire : cd website

2. Clonez le rĂ©fĂ©rentiel :  git clone https://github.com/AntonOsika/gpt-engineer.git .

3. Naviguez et installez les dĂ©pendances : Une fois clonĂ©, passez au rĂ©pertoire cd gpt-engineer et installez toutes les dĂ©pendances nĂ©cessaires make install

4. Activez l'environnement virtuel : En fonction de votre système d'exploitation, activez l'environnement virtuel créé.

  • Pour macOS / Linux: source venv/bin/activate
  • Pour Windows, c'est lĂ©gèrement diffĂ©rent en raison de la configuration de la clĂ© API : set OPENAI_API_KEY=[your api key]

5. Configuration – Configuration de la clĂ© API : Pour interagir avec OpenAI, vous aurez besoin d'une clĂ© API. Si vous n'en avez pas encore, inscrivez-vous sur la plateforme OpenAI, puis :

  • Pour macOS / Linux: export OPENAI_API_KEY=[your api key]
  • Pour Windows (comme mentionnĂ© prĂ©cĂ©demment): set OPENAI_API_KEY=[your api key]

6. Initialisation du projet et gĂ©nĂ©ration de code : La magie de GPT-Engineer commence avec le main_prompt fichier trouvĂ© dans le projects dossier.

  • Si vous souhaitez lancer un nouveau projet : cp -r projects/example/ projects/website

Ici, remplacez « site Web » par le nom du projet que vous avez choisi.

  • Modifiez le main_prompt fichier Ă  l’aide d’un Ă©diteur de texte de votre choix, en Ă©crivant les exigences de votre projet.

  • Une fois que vous ĂŞtes satisfait de l'invite, exĂ©cutez : gpt-engineer projects/website

Votre code généré résidera dans le workspace répertoire dans le dossier du projet.

7. Post-gĂ©nĂ©ration : Bien que GPT-Engineer soit puissant, il n'est pas toujours parfait. Inspectez le code gĂ©nĂ©rĂ©, apportez des modifications manuelles si nĂ©cessaire et assurez-vous que tout fonctionne correctement.

Exemple d'exécution

Prompt :

«Je souhaite développer une application Streamlit de base en Python qui visualise les données utilisateur via des graphiques interactifs. L'application doit permettre aux utilisateurs de télécharger un fichier CSV, de sélectionner le type de graphique (par exemple, à barres, à secteurs, en courbes) et de visualiser dynamiquement les données. Il peut utiliser des bibliothèques comme Pandas pour la manipulation des données et Plotly pour la visualisation.
Configuration et exécution de Engineering-GPT

Configuration et exécution de GPT-Engineer

Tout comme Auto-GPT, GPT-Engineer peut parfois rencontrer des erreurs même après une configuration complète. Cependant, lors de ma troisième tentative, j'ai réussi à accéder à la page Web simplifiée suivante. Assurez-vous de vérifier toutes les erreurs sur le site officiel Page des problèmes du référentiel GPT-Engineer.

Application Streamlit générée à l'aide de Engineering-GPT

Application Streamlit générée à l'aide de GPT-Engineer

Goulots d'étranglement actuels des agents d'IA

Dépenses opérationnelles

Une seule tâche exécutée par Auto-GPT peut impliquer de nombreuses étapes. Il est important de noter que chacune de ces étapes pourrait être facturé individuellement, augmentant les coûts. L’Auto-GPT peut se retrouver piégé dans des boucles répétitives, ne parvenant pas à produire les résultats promis. De tels événements compromettent sa fiabilité et compromettent l'investissement.

Imaginez vouloir créer un court essai avec Auto-GPT. La longueur idéale de l'essai est de 8 4 jetons, mais pendant le processus de création, le modèle se penche sur plusieurs étapes intermédiaires pour finaliser le contenu. Si vous utilisez GPT-8 avec une longueur de contexte de XNUMX Ko, alors pour l'entrée, vous serez facturé $0.03. Et pour le résultat, le coût serait $0.06. Supposons maintenant que le modèle se lance dans une boucle imprévue, refaisant certaines parties plusieurs fois. Non seulement le processus devient plus long, mais chaque répétition augmente également le coût.

Pour vous prémunir contre cela :

DĂ©finir des limites d'utilisation chez OpenAI Facturation et limites :

  • Limite stricte: restreint l'utilisation au-delĂ  de votre seuil dĂ©fini.
  • Limite douce: vous envoie une alerte par e-mail une fois le seuil atteint.

Limites de fonctionnalité

Les capacitĂ©s d'Auto-GPT, telles que dĂ©crites dans son code source, sont limitĂ©es. Ses stratĂ©gies de rĂ©solution de problèmes sont rĂ©gies par ses fonctions intrinsèques et l'accessibilitĂ© offerte par l'API de GPT-4. Pour des discussions approfondies et des solutions de contournement possibles, consultez : Discussion Auto-GPT.

L'impact de l'IA sur le marché du travail

La dynamique entre l’IA et les marchés du travail est en constante évolution et est largement documentée dans ce document. document de recherche. Il faut retenir que si le progrès technologique profite souvent aux travailleurs qualifiés, il présente des risques pour ceux qui effectuent des tâches routinières. En fait, les progrès technologiques peuvent déplacer certaines tâches tout en ouvrant la voie à des tâches diverses et à forte intensité de main-d’œuvre.

Les agents autonomes du marché du travail de l’IA dépassent

On estime que 80 % des travailleurs américains pourraient constater que les LLM (Language Learning Models) influencent environ 10 % de leurs tâches quotidiennes. Cette statistique souligne la fusion des rôles de l’IA et de l’humain.

Le double rĂ´le de l’IA sur le marchĂ© du travail :

  • Aspects positifs: L'IA peut automatiser de nombreuses tâches, du service client aux conseils financiers, accordant ainsi un sursis aux petites entreprises qui manquent de fonds pour mettre en place des Ă©quipes dĂ©diĂ©es.
  • PrĂ©occupations: L'avantage de l'automatisation fait sourciller quant aux pertes d'emplois potentielles, en particulier dans les secteurs oĂą l'implication humaine est primordiale, comme le support client. Ă€ cela s’ajoute le labyrinthe Ă©thique liĂ© Ă  l’accès de l’IA aux donnĂ©es confidentielles. Cela nĂ©cessite une infrastructure solide garantissant la transparence, la responsabilitĂ© et l’utilisation Ă©thique de l’IA.

Conclusion

De toute évidence, des outils tels que ChatGPT, Auto-GPT et GPT-Engineer sont à l'avant-garde de la refonte de l'interaction entre la technologie et ses utilisateurs. Ancrés dans les mouvements open source, ces agents d’IA manifestent les possibilités d’autonomie des machines, rationalisant les tâches depuis la planification jusqu’au développement de logiciels.

Alors que nous nous dirigeons vers un avenir où l’IA s’intègre davantage dans nos routines quotidiennes, un équilibre entre l’adoption des capacités de l’IA et la sauvegarde des rôles humains devient essentiel. Sur un spectre plus large, la dynamique IA-marché du travail dresse une double image d’opportunités et de défis de croissance, exigeant une intégration consciente de l’éthique technologique et de la transparence.

J'ai passé les cinq dernières années à m'immerger dans le monde fascinant du Machine Learning et du Deep Learning. Ma passion et mon expertise m'ont amené à contribuer à plus de 50 projets de génie logiciel divers, avec un accent particulier sur l'IA/ML. Ma curiosité continue m'a également attiré vers le traitement automatique du langage naturel, un domaine que j'ai hâte d'explorer davantage.