Intelligence Artificielle
Auto-GPT et GPT-Engineer : un guide détaillé des principaux agents d'IA d'aujourd'hui

Lorsque l'on compare ChatGPT avec des agents d'IA autonomes tels qu'Auto-GPT et GPT-Engineer, une différence significative apparaît dans le processus de prise de décision. Alors que ChatGPT nécessite une implication humaine active pour mener la conversation, en fournissant des conseils basés sur les invites des utilisateurs, le processus de planification dépend principalement de l'intervention humaine.
IA générative des modèles tels que les transformateurs constituent la technologie de base de pointe, qui pilote ces agents d’IA autonomes. Ces transformateurs sont formés sur de grands ensembles de données, ce qui leur permet de simuler des capacités complexes de raisonnement et de prise de décision.
Racines open source des agents autonomes : Auto-GPT et GPT-Engineer
Beaucoup de ces agents d’IA autonomes sont issus d’initiatives open source dirigées par des individus innovants transformant les flux de travail conventionnels. Plutôt que de simplement proposer des suggestions, des agents tels qu'Auto-GPT peuvent gérer des tâches de manière indépendante, depuis les achats en ligne jusqu'à la création d'applications de base. Interpréteur de code d'OpenAI vise à améliorer ChatGPT de la simple suggestion d'idées à la résolution active de problèmes avec ces idées.
Auto-GPT et GPT-Engineer sont tous deux équipés de la puissance de GPT 3.5 et GPT-4. Il saisit la logique du code, combine plusieurs fichiers et accélère le processus de développement.
Le cœur de la fonctionnalité d'Auto-GPT réside dans ses agents IA. Ces agents sont programmés pour exécuter des tâches spécifiques, depuis les plus banales comme la planification jusqu'aux tâches plus complexes qui nécessitent une prise de décision stratégique. Cependant, ces agents IA opèrent dans les limites fixées par les utilisateurs. En contrôlant leur accès via des API, les utilisateurs peuvent déterminer la profondeur et la portée des actions que l'IA peut effectuer.
Par exemple, s'il est chargé de créer une application Web de chat intégrée à ChatGPT, Auto-GPT décompose de manière autonome l'objectif en étapes réalisables, comme la création d'un front-end HTML ou la création d'un script pour un back-end Python. Même si l'application produit ces invites de manière autonome, les utilisateurs peuvent toujours les surveiller et les modifier. Comme le montre le créateur d'AutoGPT @SigGravitas, il est capable de construire et d'exécuter un programme de test basé sur Python.
Mise à jour massive pour Auto-GPT : exécution de code ! 🤖💻
Auto-GPT est désormais capable d'écrire son propre code en utilisant # gpt4 et exécutez des scripts python !
Cela lui permet de déboguer, développer et s'auto-améliorer de manière récursive… 🤯 👇 pic.twitter.com/GEkMb1LyxV
– Gravitas significative (@SigGravitas) le 1 avril 2023
Bien que le diagramme ci-dessous décrit une architecture plus générale d'un agent d'IA autonome, il offre des informations précieuses sur les processus en coulisses.
Le processus est lancé par la vérification de la clé API OpenAI et l'initialisation de divers paramètres, notamment la mémoire à court terme et le contenu de la base de données. Une fois les données clés transmises à l'agent, le modèle interagit avec le GPT3.5/GPT4 pour récupérer une réponse. Cette réponse est ensuite transformée au format JSON, que l'agent interprète pour exécuter diverses fonctions, comme effectuer des recherches en ligne, lire ou écrire des fichiers, ou même exécuter du code. Auto-GPT utilise un modèle pré-entraîné pour stocker ces réponses dans une base de données, et les interactions futures utilisent ces informations stockées à titre de référence. La boucle continue jusqu'à ce que la tâche soit considérée comme terminée.
Guide de configuration pour Auto-GPT et GPT-Engineer
La mise en place d'outils de pointe tels que GPT-Engineer et Auto-GPT peut rationaliser votre processus de développement. Vous trouverez ci-dessous un guide structuré pour vous aider à installer et configurer les deux outils.
GPT automatique
La configuration d’Auto-GPT peut sembler complexe, mais avec les bonnes étapes, cela devient simple. Ce guide couvre la procédure de configuration d'Auto-GPT et offre un aperçu de ses divers scénarios.
1. Prérequis :
- Environnement Python: Assurez-vous que Python 3.8 ou version ultérieure est installé. Vous pouvez obtenir Python à partir de son site web officiel.
- Si vous envisagez de cloner des référentiels, installez Git.
- Clé API OpenAI:Pour interagir avec OpenAI, une clé API est nécessaire. Obtenez la clé à partir de votre compte OpenAI
Options du back-end de mémoire: Un backend de mémoire sert de mécanisme de stockage à AutoGPT pour accéder aux données essentielles à ses opérations. AutoGPT utilise des capacités de stockage à court et à long terme. Pinecone, Milvus, Redis, et d'autres sont quelques options disponibles.
2. Configuration de votre espace de travail :
- Créez un environnement virtuel :
python3 -m venv myenv
- Activez l'environnement :
- MacOS ou Linux:
source myenv/bin/activate
- MacOS ou Linux:
3. Installation:
- Clonez le dépôt Auto-GPT (assurez-vous que Git est installé) :
git clone https://github.com/Significant-Gravitas/Auto-GPT.git
- Pour vous assurer que vous travaillez avec la version 0.2.2 de Auto-GPT, vous voudrez caisse à cette version particulière :
git checkout stable-0.2.2
- Accédez au référentiel téléchargé :
cd Auto-GPT
- Installez les dépendances requises :
pip install -r requirements.txt
4. Configuration:
- Localiser
.env.template
en général/Auto-GPT
annuaire. Dupliquez-le et renommez-le en.env
- Open
.env
et définissez votre clé API OpenAI à côté deOPENAI_API_KEY=
- De même, pour utiliser Pinecone ou d'autres backends de mémoire, mettez à jour le
.env
fichier avec votre clé API Pinecone et votre région.
5. Instructions de ligne de commande :
L'Auto-GPT propose un riche ensemble d'arguments de ligne de commande pour personnaliser son comportement :
- Usage général:
- Afficher l'aide :
python -m autogpt --help
- Ajustez les paramètres de l'IA :
python -m autogpt --ai-settings <filename>
- Spécifiez un backend de mémoire :
python -m autogpt --use-memory <memory-backend>
- Afficher l'aide :
6. Lancement de l'Auto-GPT:
Une fois les configurations terminées, lancez Auto-GPT en utilisant :
- Linux ou Mac:
./run.sh start
- Windows:
.\run.bat
Intégration Docker (approche de configuration recommandée)
Pour ceux qui cherchent à conteneuriser Auto-GPT, Docker propose une approche simplifiée. Cependant, n'oubliez pas que la configuration initiale de Docker peut être légèrement complexe. Faire référence à Guide d'installation de Docker pour obtenir de l'assistance
Procédez en suivant les étapes ci-dessous pour modifier la clé API OpenAI. Assurez-vous que Docker s'exécute en arrière-plan. Accédez maintenant au répertoire principal d’AutoGPT et suivez les étapes ci-dessous sur votre terminal
- Créez l'image Docker :
docker build -t autogpt .
- Exécutez maintenant :
docker run -it --env-file=./.env -v$PWD/auto_gpt_workspace:/app/auto_gpt_workspace autogpt
Avec docker-compose :
- Exécuter:
docker-compose run --build --rm auto-gpt
- Pour une personnalisation supplémentaire, vous pouvez intégrer des arguments supplémentaires. Par exemple, pour exécuter à la fois –gpt3only et –continuous :
docker-compose run --rm auto-gpt --gpt3only--continuous
- Compte tenu de la grande autonomie dont dispose Auto-GPT pour générer du contenu à partir de grands ensembles de données, il existe un risque potentiel qu'il accède involontairement à des sources Web malveillantes.
Pour atténuer les risques, utilisez Auto-GPT dans un conteneur virtuel, comme Docker. Cela garantit que tout contenu potentiellement dangereux reste confiné dans l’espace virtuel, gardant ainsi vos fichiers externes et votre système intacts. Alternativement, Windows Sandbox est une option, bien qu'il se réinitialise après chaque session, ne parvenant pas à conserver son état.
Pour des raisons de sécurité, exécutez toujours Auto-GPT dans un environnement virtuel, en vous assurant que votre système reste isolé des sorties inattendues.
Compte tenu de tout cela, il est toujours possible que vous ne puissiez pas obtenir les résultats souhaités. Utilisateurs Auto-GPT signalés problèmes récurrents lorsque vous essayez d'écrire dans un fichier, vous rencontrez souvent des tentatives infructueuses en raison de noms de fichiers problématiques. Voici une de ces erreurs : Auto-GPT (release 0.2.2) doesn't append the text after error "write_to_file returned: Error: File has already been updated
Diverses solutions pour résoudre ce problème ont été discutées sur le site associé. Fil de discussion GitHub pour référence.
Ingénieur GPT
Flux de travail GPT-Engineer :
- Définition rapide: Rédigez une description détaillée de votre projet en utilisant le langage naturel.
- Génération de code: En fonction de votre invite, GPT-Engineer se met au travail, produisant des extraits de code, des fonctions ou même des applications complètes.
- Raffinement et optimisation: Après la génération, il y a toujours place à l'amélioration. Les développeurs peuvent modifier le code généré pour répondre à des exigences spécifiques, garantissant ainsi une qualité irréprochable.
Le processus de configuration de GPT-Engineer a été condensé dans un guide facile à suivre. Voici une ventilation étape par étape :
1. Préparer l'environnement : Avant de vous lancer, assurez-vous que votre répertoire de projet est prêt. Ouvrez un terminal et exécutez la commande ci-dessous
- Créez un nouveau répertoire nommé « site Web » :
mkdir website
- Accédez au répertoire :
cd website
2. Clonez le référentiel : git clone https://github.com/AntonOsika/gpt-engineer.git .
3. Naviguez et installez les dépendances : Une fois cloné, passez au répertoire cd gpt-engineer
et installez toutes les dépendances nécessaires make install
4. Activez l'environnement virtuel : En fonction de votre système d'exploitation, activez l'environnement virtuel créé.
- Pour macOS / Linux:
source venv/bin/activate
- Pour Windows, c'est légèrement différent en raison de la configuration de la clé API :
set OPENAI_API_KEY=[your api key]
5. Configuration – Configuration de la clé API : Pour interagir avec OpenAI, vous aurez besoin d'une clé API. Si vous n'en avez pas encore, inscrivez-vous sur la plateforme OpenAI, puis :
- Pour macOS / Linux:
export OPENAI_API_KEY=[your api key]
- Pour Windows (comme mentionné précédemment):
set OPENAI_API_KEY=[your api key]
6. Initialisation du projet et génération de code : La magie de GPT-Engineer commence avec le main_prompt
fichier trouvé dans le projects
dossier.
- Si vous souhaitez lancer un nouveau projet :
cp -r projects/example/ projects/website
Ici, remplacez « site Web » par le nom du projet que vous avez choisi.
- Modifiez le
main_prompt
fichier à l’aide d’un éditeur de texte de votre choix, en écrivant les exigences de votre projet.
- Une fois que vous êtes satisfait de l'invite, exécutez :
gpt-engineer projects/website
Votre code généré résidera dans le workspace
répertoire dans le dossier du projet.
7. Post-génération : Bien que GPT-Engineer soit puissant, il n'est pas toujours parfait. Inspectez le code généré, apportez des modifications manuelles si nécessaire et assurez-vous que tout fonctionne correctement.
Exemple d'exécution
Prompt :
Tout comme Auto-GPT, GPT-Engineer peut parfois rencontrer des erreurs même après une configuration complète. Cependant, lors de ma troisième tentative, j'ai réussi à accéder à la page Web simplifiée suivante. Assurez-vous de vérifier toutes les erreurs sur le site officiel Page des problèmes du référentiel GPT-Engineer.
Goulots d'étranglement actuels des agents d'IA
Dépenses opérationnelles
Une seule tâche exécutée par Auto-GPT peut impliquer de nombreuses étapes. Il est important de noter que chacune de ces étapes pourrait être facturé individuellement, augmentant les coûts. L’Auto-GPT peut se retrouver piégé dans des boucles répétitives, ne parvenant pas à produire les résultats promis. De tels événements compromettent sa fiabilité et compromettent l'investissement.
Imaginez vouloir créer un court essai avec Auto-GPT. La longueur idéale de l'essai est de 8 4 jetons, mais pendant le processus de création, le modèle se penche sur plusieurs étapes intermédiaires pour finaliser le contenu. Si vous utilisez GPT-8 avec une longueur de contexte de XNUMX Ko, alors pour l'entrée, vous serez facturé $0.03. Et pour le résultat, le coût serait $0.06. Supposons maintenant que le modèle se lance dans une boucle imprévue, refaisant certaines parties plusieurs fois. Non seulement le processus devient plus long, mais chaque répétition augmente également le coût.
Pour vous prémunir contre cela :
Définir des limites d'utilisation chez OpenAI Facturation et limites :
- Limite stricte: restreint l'utilisation au-delà de votre seuil défini.
- Limite douce: vous envoie une alerte par e-mail une fois le seuil atteint.
Limites de fonctionnalité
Les capacités d'Auto-GPT, telles que décrites dans son code source, sont limitées. Ses stratégies de résolution de problèmes sont régies par ses fonctions intrinsèques et l'accessibilité offerte par l'API de GPT-4. Pour des discussions approfondies et des solutions de contournement possibles, consultez : Discussion Auto-GPT.
L'impact de l'IA sur le marché du travail
La dynamique entre l’IA et les marchés du travail est en constante évolution et est largement documentée dans ce document. document de recherche. Il faut retenir que si le progrès technologique profite souvent aux travailleurs qualifiés, il présente des risques pour ceux qui effectuent des tâches routinières. En fait, les progrès technologiques peuvent déplacer certaines tâches tout en ouvrant la voie à des tâches diverses et à forte intensité de main-d’œuvre.
On estime que 80 % des travailleurs américains pourraient constater que les LLM (Language Learning Models) influencent environ 10 % de leurs tâches quotidiennes. Cette statistique souligne la fusion des rôles de l’IA et de l’humain.
Le double rôle de l’IA sur le marché du travail :
- Aspects positifs: L'IA peut automatiser de nombreuses tâches, du service client aux conseils financiers, accordant ainsi un sursis aux petites entreprises qui manquent de fonds pour mettre en place des équipes dédiées.
- Préoccupations: L'avantage de l'automatisation fait sourciller quant aux pertes d'emplois potentielles, en particulier dans les secteurs où l'implication humaine est primordiale, comme le support client. À cela s’ajoute le labyrinthe éthique lié à l’accès de l’IA aux données confidentielles. Cela nécessite une infrastructure solide garantissant la transparence, la responsabilité et l’utilisation éthique de l’IA.
Conclusion
De toute évidence, des outils tels que ChatGPT, Auto-GPT et GPT-Engineer sont à l'avant-garde de la refonte de l'interaction entre la technologie et ses utilisateurs. Ancrés dans les mouvements open source, ces agents d’IA manifestent les possibilités d’autonomie des machines, rationalisant les tâches depuis la planification jusqu’au développement de logiciels.
Alors que nous nous dirigeons vers un avenir où l’IA s’intègre davantage dans nos routines quotidiennes, un équilibre entre l’adoption des capacités de l’IA et la sauvegarde des rôles humains devient essentiel. Sur un spectre plus large, la dynamique IA-marché du travail dresse une double image d’opportunités et de défis de croissance, exigeant une intégration consciente de l’éthique technologique et de la transparence.