Connect with us

Le Guide Essentiel pour l’Ingénierie de Prompt dans ChatGPT “”” {texto de l’article scientifique ici} ” 2) Modèle de Personna Le modèle de personna est une stratégie qui configure l’IA pour fonctionner à partir d’une certaine perspective, telle qu’un rôle professionnel ou un personnage fictif. Cette tactique permet au modèle de fournir des sorties liées aux rôles spécifiques que la personna gère. Par exemple, on pourrait instruire l’IA pour agir en tant qu’expert en cybersécurité lors d’une revue de code. Un exemple de prompt pourrait ressembler à ceci : Utilisateur : “Assumez la personna d’un historien senior spécialisé dans la Révolution française. Étant donné cette personna, expliquez les événements clés et les raisons qui ont conduit à la chute de la monarchie française.” Dans ce scénario, l’IA est censée répondre avec une analyse approfondie de la Révolution française, se concentrant sur la chute de la monarchie, comme un historien le ferait. Introduction de Nouvelles Informations ChatGPT ne possède pas de connaissances au-delà de sa date de formation, il ne peut donc pas fournir d’informations sur des événements récents ou des mises à jour postérieures à sa formation. Cependant, vous pouvez introduire de nouvelles informations dans le modèle via vos prompts. Utilisateur : “Qu’est-ce que la cryptomonnaie ?” ChatGPT : “La cryptomonnaie est un type de monnaie numérique ou virtuelle qui utilise la cryptographie pour la sécurité. La cryptomonnaie la plus connue est le Bitcoin.” Maintenant, si nous ajoutons un peu plus de contexte au prompt, nous pouvons rendre l’explication encore plus intuitive : Utilisateur : “Expliquez le concept de cryptomonnaie à un élève du secondaire qui étudie la finance numérique”

Prompt engineering

Le Guide Essentiel pour l’Ingénierie de Prompt dans ChatGPT “”” {texto de l’article scientifique ici} ” 2) Modèle de Personna Le modèle de personna est une stratégie qui configure l’IA pour fonctionner à partir d’une certaine perspective, telle qu’un rôle professionnel ou un personnage fictif. Cette tactique permet au modèle de fournir des sorties liées aux rôles spécifiques que la personna gère. Par exemple, on pourrait instruire l’IA pour agir en tant qu’expert en cybersécurité lors d’une revue de code. Un exemple de prompt pourrait ressembler à ceci : Utilisateur : “Assumez la personna d’un historien senior spécialisé dans la Révolution française. Étant donné cette personna, expliquez les événements clés et les raisons qui ont conduit à la chute de la monarchie française.” Dans ce scénario, l’IA est censée répondre avec une analyse approfondie de la Révolution française, se concentrant sur la chute de la monarchie, comme un historien le ferait. Introduction de Nouvelles Informations ChatGPT ne possède pas de connaissances au-delà de sa date de formation, il ne peut donc pas fournir d’informations sur des événements récents ou des mises à jour postérieures à sa formation. Cependant, vous pouvez introduire de nouvelles informations dans le modèle via vos prompts. Utilisateur : “Qu’est-ce que la cryptomonnaie ?” ChatGPT : “La cryptomonnaie est un type de monnaie numérique ou virtuelle qui utilise la cryptographie pour la sécurité. La cryptomonnaie la plus connue est le Bitcoin.” Maintenant, si nous ajoutons un peu plus de contexte au prompt, nous pouvons rendre l’explication encore plus intuitive : Utilisateur : “Expliquez le concept de cryptomonnaie à un élève du secondaire qui étudie la finance numérique”

mm

Depuis son lancement, ChatGPT a fait des vagues dans le domaine de l’IA, attirant plus de 100 millions d’utilisateurs en un temps record. Le secret de la performance impressionnante et de la polyvalence de ChatGPT réside dans un art subtilement niché dans sa programmation – l’ingénierie de prompt.

Lancé en 2022, DALL-E, MidJourney et StableDiffusion ont souligné le potentiel disruptif de l’IA générative. Mais c’est Open AI‘s ChatGPT qui a vraiment pris le centre de la scène plus tard en 2022. Et cette dynamique n’a montré aucun signe de ralentissement.

L’annonce de Google’s Bard et la réponse de Meta’s Lamma 2 à ChatGPT d’OpenAI a considérablement amplifié la dynamique de la course à l’IA. En fournissant ces modèles avec des entrées, nous guidons leur comportement et leurs réponses. Cela nous rend tous des ingénieurs de prompt à un certain degré. L’industrie technologique a pris note. Les capitalistes de risque injectent des fonds dans des startups se concentrant sur l’ingénierie de prompt, comme Vellum AI. De plus, Forbes rapporte que les ingénieurs de prompt commandent des salaires dépassant 300 000 $, indicatif d’un marché de l’emploi prospère et précieux.

Dans cet article, nous allons démystifier le monde de l’ingénierie de prompt dans le contexte de ChatGPT. Nous allons explorer les principes et les techniques fondamentaux et examiner leurs applications commerciales.

Commençons par comprendre comment ChatGPT fonctionne et le rôle pivot que l’ingénierie de prompt joue dans ce processus.

Les Mécanismes derrière l’Ingénierie de Prompt de ChatGPT

Le secret de la réussite de ChatGPT est sa capacité à comprendre et à imiter les nuances de la conversation humaine. Le modèle est formé sur une gamme diverse de texte Internet, mais de manière cruciale, il ne connaît pas de documents ou de sources spécifiques dans son ensemble de formation, assurant une généralisation sur la spécificité. Cette approche de formation permet à ChatGPT de générer des réponses créatives, de naviguer dans des dialogues complexes et même d’exhiber un sens de l’humour. Cependant, il est important de se rappeler que ChatGPT ne comprend vraiment pas ou n’a pas de croyances ; il génère des réponses basées sur les modèles qu’il a appris pendant la formation.

La capacité de ChatGPT à comprendre et à répondre au langage humain de manière nuancée et sensible au contexte en fait des outils incroyablement polyvalents.

Les mécanismes de ces modèles reposent sur le concept de « jetons » – des morceaux discrets de langage qui peuvent aller d’un seul caractère à un mot entier. Ces modèles travaillent avec un nombre spécifique de jetons à la fois (4096 pour GPT-3.5-Turbo ou 8192 ou 32768 pour GPT-4), en prédisant la prochaine séquence de jetons probables. Les modèles traitent les jetons à l’aide d’une algèbre linéaire complexe, en prédisant le jeton suivant le plus probable.


ChatGPT Tokenizer - Ingénierie de Prompt - Unite AI

Par exemple, une phrase simple de neuf mots pourrait se transformer en dix jetons. Même un mot complexe unique pourrait se transformer en plusieurs jetons, ce qui aide le modèle à mieux comprendre et à générer le langage. Même les langues avec des structures de mots complexes, comme l’allemand, sont gérées par la tokenisation.

ingénierie de prompt - Grande illustration de modèle de langage et de prédiction

 

Les modèles GPT (Generative Pre-trained Transformer) fonctionnent en générant un jeton à la fois, en commençant par le premier jeton et en continuant jusqu’au dernier. Après avoir généré chaque jeton, le modèle réexamine la séquence entière et la traite à nouveau pour générer le jeton suivant. Ce processus itératif se poursuit jusqu’à ce que le dernier jeton soit généré, ce qui rend la génération de texte similaire à une grande boucle pour.

Mais voici l’astuce – la qualité de ces réponses dépend en grande partie des prompts qu’elle reçoit. Tout comme diriger une conversation avec un humain, guider un dialogue avec ChatGPT nécessite un certain niveau de compétence et de compréhension. C’est là que l’ingénierie de prompt intervient.

Qu’est-ce que l’Ingénierie de Prompt ?

L’ingénierie de prompt est l’art de créer des prompts précis et efficaces pour guider les modèles d’IA (NLP/Vision) comme ChatGPT vers la génération de sorties les plus rentables, précises, utiles et sûres.

L’ingénierie de prompt n’est pas seulement limitée à la génération de texte, mais a des applications étendues dans tout le domaine de l’IA. Elle est de plus en plus employée dans des domaines tels que l’automatisation des processus robotiques, les actifs 3D, les scripts, les instructions de robot et d’autres types de contenu et de médias numériques. Elle offre un mélange unique de logique, de codage, d’art et, dans certains cas, de modificateurs spéciaux.

Alors qu’un prompt peut inclure du texte de langage naturel, des images ou d’autres types de données d’entrée, la sortie peut varier considérablement selon les services et les outils d’IA. Chaque outil a ses modificateurs spéciaux qui décrivent le poids des mots, les styles, les perspectives, la disposition ou d’autres propriétés de la réponse souhaitée.

Ce domaine est essentiel pour créer de meilleurs services alimentés par l’IA et obtenir de meilleurs résultats à partir d’outils d’IA générative existants. Les développeurs d’entreprise, par exemple, utilisent souvent l’ingénierie de prompt pour personnaliser les grands modèles de langage (LLM) comme GPT-3 pour alimenter un chatbot orienté client ou gérer des tâches telles que la création de contrats spécifiques à l’industrie.

Ce processus itératif de raffinement de prompt et de mesure de la performance de l’IA est un élément clé pour permettre aux modèles d’IA de générer des réponses hautement ciblées et utiles dans divers contextes.

Devenir un Ingénieur de Prompt

Le modèle GPT-4 est une ressource inestimable en raison de sa capacité à comprendre des instructions complexes et à résoudre des problèmes avec précision. Cependant, il existe différentes méthodes pour accéder à ces capacités, et la compréhension de ces méthodes est cruciale pour le rôle d’un ingénieur de prompt dans l’optimisation de l’efficacité et de la rentabilité.

Il existe essentiellement deux façons d’interagir avec les modèles GPT comme GPT-4. L’une des façons est via l’API d’OpenAI, où les coûts sont calculés par jeton d’entrée et de sortie. Dans ce scénario, les coûts par 1 000 jetons peuvent fluctuer en fonction de la taille du contexte. Par exemple, dans un contexte plus large de 32 K, le coût pourrait atteindre 0,06 $ pour les jetons d’entrée et 0,12 $ pour les jetons de sortie. Ainsi, lorsqu’on traite un grand volume de requêtes, le coût d’utilisation peut s’accumuler rapidement.

Alternativement, ChatGPT, qui utilise le modèle GPT-4, fonctionne sur un modèle d’abonnement.

Une autre tâche clé dans l’ingénierie de prompt implique le réglage des paramètres du modèle. Ce processus implique l’ajustement des variables que le modèle utilise pour faire des prédictions. En affinant ces paramètres, les ingénieurs de prompt peuvent améliorer la qualité et la précision des réponses du modèle, les rendant plus pertinents et utiles.

Bien que de nombreux ingénieurs de prompt viennent d’un milieu technique, la nature multidisciplinaire de ce domaine le rend accessible à des individus issus de divers horizons professionnels. De plus en plus, des écrivains, des chercheurs et même des artistes utilisent leurs compétences uniques pour améliorer l’efficacité des modèles d’IA. Ce déplacement est reflété sur le marché du travail, avec un nombre croissant d’entreprises recherchant des ingénieurs de prompt avec une gamme diverse de compétences et de formations.

Conception et Ingénierie de Prompt dans ChatGPT

La conception et l’ingénierie de prompt jouent un rôle critique dans l’optimisation de la performance des modèles de langage et impliquent plus que de simplement créer des questions ; elles nécessitent une compréhension approfondie du modèle d’IA et une approche hautement itérative et raffinée.

Exemple de prompt ChatGPT - Ingénierie de Prompt - Unite AI

Conception de Prompt

La conception de prompt, dans son essence, est l’art et la science de créer le prompt parfait pour un grand modèle de langage (LLM) donné, comme ChatGPT, pour atteindre un objectif clairement défini. C’est un mélange de :

  • Compréhension du LLM : Les différents modèles de langage peuvent répondre de manière variable au même prompt. De plus, certains modèles de langage peuvent avoir des mots clés ou des déclencheurs uniques qu’ils interprètent d’une manière spécifique.
  • Connaissance de domaine : L’expertise dans le domaine pertinent est cruciale lors de la conception de prompts. Par exemple, générer un prompt pour déduire un diagnostic médical nécessiterait des connaissances médicales.
  • Approche itérative et mesure de la qualité : Le processus de création du prompt idéal implique souvent des essais et des erreurs. Par conséquent, avoir un moyen d’évaluer la qualité de la sortie au-delà du simple jugement subjectif est vital, en particulier lors de l’utilisation du prompt à plus grande échelle.

Ingénierie de Prompt

L’ingénierie de prompt est un domaine étendu de la conception de prompt qui inclut plusieurs processus critiques :

  • Conception de prompts à grande échelle : Ce processus inclut la conception de méta-prompts (prompts qui génèrent d’autres prompts) et de modèles de prompts, qui sont des prompts paramétrés qui peuvent être instanciés à l’exécution.
  • Conception d’outils et d’intégration : Les prompts peuvent parfois inclure des résultats d’outils externes, et intégrer ces outils de manière transparente dans le système est crucial.
  • Flux de travail, planification et gestion de prompt : Le déploiement d’une application LLM, comme un chatbot, nécessite souvent la gestion de bibliothèques de prompts, la planification et le choix des prompts appropriés, ainsi que l’intégration efficace de divers outils.
  • Évaluation et assurance de la qualité des prompts : Cet aspect inclut la définition de métriques et de processus pour évaluer les prompts à la fois de manière automatique et avec l’implication humaine.
  • Optimisation de prompt : Le coût et la latence du modèle d’IA peuvent dépendre du choix du modèle et de la longueur du prompt (nombre de jetons).

De nombreuses approches automatisées de conception de prompt, outils et cadres ont été développés pour gérer les prompts à grande échelle. Cependant, il est important de comprendre que aucun de ces outils ne peut remplacer la compréhension nuancée, le jugement et l’expérience d’un ingénieur de prompt chevronné.

Ingénierie de Prompt : Techniques et Meilleures Pratiques

1) Placement et Description de Prompt

Le placement d’instructions au début du prompt peut avoir un impact significatif sur la compréhension et la réponse de l’IA. Considérez la tâche de résumer un texte sous forme de liste de points importants.
“””
{texte d’entrée ici}
“””

En séparant clairement les instructions et le contexte avec des symboles tels que ### ou “”, le modèle d’IA peut mieux délimiter sa tâche et le texte qu’il doit traiter, ce qui donne des réponses plus précises et pertinentes.

Deuxièmement, être spécifique, descriptif et détaillé sur le contexte, le résultat attendu, la longueur, le format, le style, etc. peut considérablement améliorer la précision des réponses de l’IA. Supposons que vous deviez générer un aperçu concis d’un article scientifique dans un style engageant et accessible aux non-spécialistes. Une instruction vague comme “Résumez l’article scientifique” donnerait des résultats moins efficaces que une instruction spécifique et détaillée :

Utilisateur : Générez un aperçu concis (environ 200 mots) de l’article scientifique suivant. L’aperçu doit être compréhensible pour quelqu’un sans formation scientifique, tout en reflétant avec précision les principales conclusions de l’article.
“Imaginez que vous jouez à un jeu en ligne et qu’il y a de l’argent de jeu que vous pouvez gagner pour acheter des mises à niveau ou de nouveaux personnages. La cryptomonnaie est un peu comme ça, mais au lieu d’être limitée au jeu, vous pouvez vraiment l’utiliser pour acheter des biens et des services dans le monde réel. C’est comme de l’argent numérique que ni les banques ni les gouvernements ne contrôlent.”

3) Limitations de Taille de Prompt

La compréhension des limitations de taille de ChatGPT est essentielle car cela affecte directement le volume et le type d’informations que nous pouvons saisir. Les modèles de langage ne sont pas conçus pour traiter des données illimitées à la fois. Ils ont une contrainte inhérente sur la taille du prompt que nous pouvons créer et saisir. Cette limitation a des implications profondes pour la conception et l’exécution des prompts.

ChatGPT a une limite de jetons (généralement 2048 jetons), qui inclut à la fois le prompt et la réponse générée. Cela signifie que les prompts longs peuvent limiter la longueur de la réponse. Par conséquent, il est important de garder les prompts concis mais informatifs.

Dans la pratique, nous devons agir comme des éditeurs, en sélectionnant soigneusement les informations les plus pertinentes pour la tâche en question. Imaginez écrire un article ou un papier avec une limite de mots ou de pages – vous ne pouvez pas simplement déverser des faits aléatoires, mais vous devez soigneusement sélectionner et structurer les informations pertinentes pour le sujet.

Utilisateur : “Étant donné les limitations de jetons du modèle, résumez les événements clés de la Seconde Guerre mondiale en moins de 1000 mots.”

En reconnaissant les limitations de jetons du modèle, ce prompt dirige l’IA pour fournir un résumé concis mais complet de la Seconde Guerre mondiale.

Les prompts pour une utilisation répétée : Dans un scénario de conversation, vous pouvez réutiliser des prompts ou les affiner en fonction des réponses précédentes. Cela donne un flux de conversation et maintient le contexte dans l’interaction.

4) Modèle de Raffinement de Question

ChatGPT peut également aider à raffiner vos questions. Par exemple, si vous posez une question, il peut suggérer une question mieux formulée pour des résultats plus précis.

Le modèle de raffinement de question implique que le LLM affine les questions posées par l’utilisateur. Il est particulièrement utile lorsque les utilisateurs ne sont pas des experts dans un domaine ou sont incertains sur la façon de formuler leur question.

Un exemple de prompt pourrait ressembler à ceci :

Utilisateur : “Lorsque je pose une question sur la science des données, suggérez une question mieux formulée en tenant compte des détails de l’analyse statistique et demandez si je veux poursuivre avec la question raffinée.”

Ici, l’IA est censée raffiner les questions générales de l’utilisateur sur la science des données en questions plus détaillées en considérant les aspects de l’analyse statistique.

5) Modèle de Vérificateur Cognitif

Le modèle de vérificateur cognitif divise les questions complexes en sous-questions plus gérables. Les réponses à ces sous-questions sont ensuite combinées pour fournir une réponse complète à la question principale. Cette approche est utile lorsque les questions initiales sont trop générales ou lorsque davantage de clarté est nécessaire pour fournir une réponse complète.

J'ai passé les cinq dernières années à me plonger dans le monde fascinant de l'apprentissage automatique et de l'apprentissage profond. Ma passion et mon expertise m'ont conduit à contribuer à plus de 50 projets de génie logiciel divers, avec un accent particulier sur l'IA/ML. Ma curiosité permanente m'a également attiré vers le traitement automatique des langues, un domaine que je suis impatient d'explorer plus en détail.