Connect with us

Intelligence artificielle

De l’ingénierie de prompt à l’ingénierie d’intention : l’évolution de la communication humain-AI

mm

Pour les dernières années, l’ingénierie de prompt est devenue l’une des compétences les plus importantes dans l’ère de l’IA. Des cours ont été créés autour de celle-ci. Des titres d’emploi ont été créés pour celle-ci. Des communautés entières se sont formées pour partager des conseils sur la façon de créer la phrase parfaite qui ferait qu’un modèle de langage fasse exactement ce que vous vouliez. Une raison clé derrière la popularité de l’ingénierie de prompt est que : l’IA est puissante, mais aussi littérale. Vous deviez apprendre son langage avant qu’il puisse vous aider. Cette logique avait du sens à l’époque. Mais elle commence à se défaire.

À mesure que les modèles d’IA deviennent plus capables, la charge de communication se déplace. La question n’est plus seulement “comment formuler cela correctement ?” Elle devient “comment m’assurer que l’IA comprend vraiment ce que j’essaie d’accomplir ?” C’est une question plus profonde. Et elle pointe vers l’émergence d’un nouveau domaine appelé ingénierie d’intention.

Ce qu’était réellement l’ingénierie de prompt

Pour comprendre où nous allons, il est utile de comprendre ce qu’était réellement l’ingénierie de prompt. En son cœur, c’était une solution de contournement. Les premiers modèles de langage étaient puissants mais fragiles. Ils répondaient bien à des modèles spécifiques et mal à des modèles ambigus. Les utilisateurs ont donc appris ces modèles. Ils ont découvert que demander à un modèle de “réfléchir étape par étape” améliorait la raisonnement. Ils ont appris que donner des exemples rendait les sorties plus cohérentes. Ils ont découvert que donner un rôle au modèle, comme “agir comme un expert en ingénierie logicielle”, changeait le ton et la qualité de ses réponses. Même si ces connaissances amélioraient réellement les résultats, elles obligeaient les humains à s’adapter à la machine. Les gens apprenaient à parler d’une manière qui correspondait à l’architecture du modèle plutôt qu’à leur propre façon de penser.

Ceci n’est pas ainsi que fonctionne une bonne communication entre agents intelligents. Lorsque vous expliquez un problème à un collègue compétent, vous ne pensez pas d’abord à la stratégie de formulation qui activera le plus ses voies neuronales. Vous expliquez la situation. Ils comprennent le contexte. Ils posent des questions de clarification si nécessaire. Et ils travaillent vers ce que vous voulez réellement. L’artisanat de l’ingénierie de prompt, pour toute sa valeur, compensait toujours un écart que de meilleures IA devraient éventuellement combler.

Les limites qui ont rendu l’ingénierie de prompt nécessaire

La raison pour laquelle l’ingénierie de prompt est devenue si importante n’était pas seulement que les modèles étaient imparfaits. C’était que les modèles n’avaient pas de véritable modèle de l’utilisateur. Ils traitaient le texte et retournaient du texte. Ils n’avaient pas de compréhension persistante de qui vous étiez, de ce que vous essayiez de construire, ou de ce que “bon” signifiait dans votre contexte spécifique.

Cela a créé une situation étrange. Vous pouviez poser la même question et obtenir des résultats très différents en fonction de la façon dont vous la formuliiez. Vous pouviez passer vingt minutes à ajuster une invite et soudain débloquer une réponse qui était plus utile que tout ce que vous aviez obtenu auparavant. L’invite n’était pas seulement une entrée. C’était une clé, et trouver la bonne clé prenait de l’habileté, de la patience et parfois de la chance.

Cela signifiait également que la qualité de votre sortie dépendait souvent plus de vos compétences en matière d’invite que de vos connaissances réelles dans le domaine. Un médecin qui était également un ingénieur de prompt compétent pouvait extraire une meilleure raisonnement médical d’un modèle que d’un médecin plus compétent qui ne connaissait pas les modèles. C’est une étrange inversion de valeur. Cela suggère que le système était optimisé pour la mauvaise chose.

Ce que change l’ingénierie d’intention

L’ingénierie d’intention est conçue pour traiter un ensemble différent d’hypothèses sous-jacentes. Au lieu de demander comment formuler une demande pour que le modèle réponde bien, elle demande comment communiquer ce que vous voulez réellement, à tous les niveaux, afin que le modèle puisse raisonner vers la bonne issue par lui-même.

Cela implique plusieurs choses que l’ingénierie de prompt n’est pas équipée pour traiter. Cela implique de donner aux systèmes d’IA suffisamment de contexte sur vos objectifs, vos contraintes et vos normes pour qu’ils puissent prendre de bonnes décisions sans que vous spécifiiez chaque étape. Cela implique de créer une compréhension partagée plutôt que de donner des instructions précises. Et cela implique de construire des systèmes où l’IA peut poser les bonnes questions au lieu d’attendre d’être dit les bonnes réponses.

Nous voyons déjà cela dans la pratique. Les systèmes d’IA modernes prennent de plus en plus en charge la mémoire persistante, les profils d’utilisateur et le contexte en cours. Lorsqu’un modèle sait que vous êtes un responsable de produit travaillant sur une application de soins de santé avec des contraintes réglementaires spécifiques, vos demandes portent automatiquement un sens plus riche. Vous n’avez pas besoin de reconstruire le contexte à partir de zéro chaque fois. Le modèle comprend déjà le contexte sur lequel vous travaillez.

C’est un changement fondamental. L’ingénierie de prompt traitait chaque interaction comme isolée. L’ingénierie d’intention traite la communication comme cumulative. Le modèle ne traite plus seulement une entrée unique. Il suit une conversation en cours sur ce que vous essayez d’accomplir et pourquoi.

Le rôle d’un contexte plus riche et d’un raisonnement

Une autre dimension de l’ingénierie d’intention implique la façon dont les modèles modernes traitent l’ambiguïté. Un modèle bien formé aujourd’hui ne correspond pas seulement à la complétion la plus probable de votre phrase. Il raisonne sur ce que vous voulez probablement dire, signale les hypothèses qu’il fait et, dans de nombreux cas, demande des éclaircissements avant de procéder.

Cela compte car la communication humaine est inhérentement ambiguë. Lorsque quelqu’un demande “pouvez-vous m’aider à écrire quelque chose pour mon patron”, cela peut signifier une évaluation de performance, un e-mail d’excuse, une proposition de projet ou une lettre de démission. Un système optimisé pour l’ingénierie de prompt essayerait de déduire des mots exacts. Un système optimisé pour l’ingénierie d’intention reconnaîtrait l’ambiguïté et la gérerait de manière intelligente, soit en demandant, soit en produisant quelque chose qui reconnaît plusieurs interprétations possibles.

Le raisonnement au moment du test, qui est la capacité d’un modèle à réfléchir à un problème avant de répondre, joue également un rôle ici. Les modèles qui raisonnent avant de répondre sont meilleurs pour détecter les cas où la demande littérale entre en conflit avec l’intention sous-jacente. Ils peuvent remarquer lorsque vous avez demandé X mais que ce que vous avez probablement besoin est Y, et ils peuvent faire surface de cette observation plutôt que de remplir silencieusement une demande qui ne servira pas réellement votre objectif.

Un nouveau type de compétence

Cette évolution ne rend pas les compétences en communication humaine inutiles. Elle change ce que ces compétences ressemblent. La personne qui prospère dans un monde d’ingénierie d’intention n’est pas celle qui a mémorisé les meilleurs modèles d’invite. C’est la personne qui peut clairement articuler ce qu’elle essaie d’accomplir, communiquer les contraintes et le contexte qui comptent, et reconnaître quand la sortie d’un IA sert l’objectif réel par opposition à la demande énoncée.

De nhiều manières, ce sont des compétences plus anciennes. Ce sont les compétences d’un bon gestionnaire, d’un bon enseignant ou d’un bon collaborateur. Être capable de transmettre clairement son intention, d’expliquer non seulement ce que vous voulez mais pourquoi vous le voulez, a toujours été une marque de communication efficace. Ce qui est nouveau, c’est que les systèmes d’IA sont maintenant suffisamment sophistiqués pour réellement répondre à ce type de communication.

L’implication intéressante est que, à mesure que l’IA s’améliore, l’interface entre les humains et les machines commencera à ressembler moins à la programmation et plus à la collaboration. Vous n’aurez pas besoin d’ingénier la saisie parfaite. Vous devrez être un communicateur clair et intentionnel.

Ce que cela signifie pour la façon dont nous construisons les systèmes d’IA

Ce changement a également des conséquences sur la façon dont les systèmes d’IA devraient être conçus. Un paradigme d’ingénierie de prompt encourage à construire des systèmes qui sont très réactifs à des entrées précises. Un paradigme d’ingénierie d’intention encourage à construire des systèmes qui sont bons pour déduire, demander, s’adapter et persister.

Cela signifie investir dans des architectures de mémoire qui permettent aux modèles de conserver un contexte significatif entre les sessions. Cela signifie construire des modèles qui savent quand ils n’ont pas suffisamment d’informations pour agir bien et peuvent le dire. Cela signifie créer des interfaces où les utilisateurs communiquent des objectifs plutôt que des commandes, et où l’IA se comporte comme un partenaire pour déterminer comment atteindre ces objectifs.

Cela signifie également repenser l’évaluation. Actuellement, nous mesurons souvent à quel point un modèle exécute des instructions spécifiques. Dans un monde d’ingénierie d’intention, la meilleure mesure est de savoir à quel point un modèle sert l’objectif sous-jacent derrière ces instructions, même lorsque les instructions elles-mêmes étaient imprécises.

Le point clé

L’ingénierie de prompt traitait l’IA comme un outil puissant mais stupide qui avait besoin d’une manipulation soigneuse. L’ingénierie d’intention traite l’IA comme quelque chose de plus proche d’un collaborateur intelligent qui peut comprendre le contexte, raisonner sur les objectifs et gérer l’ambiguïté. Ce changement reflète un changement dans ce que nous pensons que l’IA est pour. Pas une machine qui exécute vos mots exacts. Mais un système qui vous aide à accomplir ce que vous vous souciez réellement. Le changement signale que le futur de l’interaction humain-AI ne sera pas à propos de la maîtrise de la formulation astucieuse. Il sera à propos de l’articulation claire des objectifs, des contraintes et de l’intention pour que l’IA puisse collaborer plutôt que simplement se conformer.

Dr. Tehseen Zia est un professeur associé titulaire à l'Université COMSATS d'Islamabad, titulaire d'un doctorat en intelligence artificielle de l'Université technique de Vienne, en Autriche. Spécialisé en intelligence artificielle, apprentissage automatique, science des données et vision par ordinateur, il a apporté des contributions significatives avec des publications dans des revues scientifiques réputées. Dr. Tehseen a également dirigé divers projets industriels en tant que chercheur principal et a servi en tant que consultant en intelligence artificielle.