Suivez nous sur

Le problème des « machines à conneries » : pourquoi l'IA ment et comment y mettre fin

Intelligence Artificielle

Le problème des « machines à conneries » : pourquoi l'IA ment et comment y mettre fin

mm

L'intelligence artificielle a atteint un niveau où elle peut produire des textes naturels, sûrs et convaincants. Mais derrière ce texte soigné se cache un problème croissant que les chercheurs qualifient désormais de « machine bullshit ». Ce terme n'a pas pour but d'être provocateur en soi. Il est issu des travaux d'un philosophe. Harry Francfort, qui a défini le « bullshit » comme un discours tenu sans se soucier de la vérité. Dans le contexte de l'IA, ce terme décrit un modèle où les systèmes génèrent des affirmations apparemment plausibles, mais dénuées de fondement. Il ne s'agit pas d'un mensonge humain, qui implique une intention de tromper. Il s'agit plutôt du résultat de la manière dont ces systèmes sont construits et entraînés. Ils sont conçus pour produire un langage fluide, sans se soucier de la véracité de ce langage.

Pourquoi l'IA produit des « conneries de machines »

Le problème n'est pas un dysfonctionnement rare ni une erreur isolée. Il résulte directement de la conception et de l'entraînement fondamentaux des grands modèles linguistiques. Ces modèles sont entraînés sur d'énormes quantités de texte provenant d'Internet, de livres et d'autres sources. Ils apprennent les structures de mots et la façon dont ils sont susceptibles de se succéder. Lorsque vous posez une question, le modèle prédit le mot suivant, puis le suivant, et ainsi de suite. Il ne vérifie pas les faits en temps réel. Il n'a pas de sens intrinsèque de la vérité. Si la réponse statistiquement la plus probable est fausse mais semble correcte, il la produira quand même. C'est pourquoi l'IA peut vous fournir en toute confiance une fausse citation, une statistique inventée ou un fait historique déformé.

Les chercheurs ont trouvé qui apprentissage par renforcement à partir de la rétroaction humaine, une méthode courante utilisée pour rendre les réponses de l'IA plus utiles et polies, peut en réalité aggraver le problème. Lorsque les modèles sont conçus pour plaire aux utilisateurs, ils peuvent privilégier l'aspect agréable plutôt que la précision. Cela peut conduire à ce que certains appellent « flagornerie”, où l'IA vous dit ce qu'elle pense que vous voulez entendre. Sur des sujets politiques ou sensibles, cela peut se traduire par un langage vague ou évasif – ce que certaines études qualifient de « mots creux ». Dans d'autres cas, l'IA peut produire de la « rhétorique creuse », de longs passages qui semblent réfléchis, mais qui sont peu substantiels.

Certains chercheurs affirment que qualifier ce comportement de « mensonge » est trompeur, car mentir requiert une intention. Une machine n'a ni croyances ni motivations. Pourtant, l'effet sur l'utilisateur peut être le même que s'il mentait. Le préjudice vient du mensonge lui-même, et non de l'intention qui le sous-tend. C'est pourquoi l'expression « machine bullshit » gagne en popularité. Elle traduit l'idée que le système est indifférent à la vérité, même s'il ne cherche pas activement à tromper.

Risques et implications d'une production d'IA trompeuse

Les risques liés aux erreurs informatiques ne se limitent pas au monde académique. Au quotidien, elles peuvent induire en erreur ceux qui s'appuient sur l'IA pour s'informer. Dans le journalisme, elles peuvent polluer le processus de vérification des faits. Dans l'éducation, elles peuvent donner aux étudiants une fausse confiance dans des réponses erronées. Dans le monde des affaires, elles peuvent fausser la prise de décision. Le danger est amplifié par le fait que les résultats de l'IA sont souvent perçus comme autoritaires. Les gens sont plus susceptibles de faire confiance à une déclaration bien rédigée et sans hésitation. Cette confiance peut être mal placée lorsque le système ne dispose d'aucun mécanisme interne pour vérifier ses dires.

Stratégies pour réduire les dommages et améliorer la fiabilité

Pour résoudre ce problème, il ne suffit pas de meilleures données d'entraînement. Si l'amélioration de la qualité et de la diversité des données peut être utile, elle ne change rien au fait que l'objectif principal du modèle est de produire du texte probable, et non du texte vrai. approche consiste à intégrer des systèmes de vérification des faits fonctionnant parallèlement au modèle linguistique. Ces systèmes peuvent vérifier les affirmations auprès de bases de données fiables avant de les présenter à l'utilisateur. Une autre approche consiste à génération augmentée par récupération, où le modèle recherche des documents pertinents en temps réel et les utilise pour étayer ses réponses. Cela peut réduire les hallucinations, sans toutefois les éliminer complètement.

La transparence est également essentiel.Les utilisateurs doivent être informés lorsqu'une IA émet une supposition éclairée plutôt qu'un fait vérifié. Cela peut se faire par le biais d'indices de confiance ou d'avertissements clairs. Certains chercheurs suggèrent que l'IA devrait être entraînée à exprimer plus souvent l'incertitude, plutôt que de toujours donner une réponse définitive. Ainsi, l'interaction ressemblerait moins à une conversation avec un oracle omniscient qu'à la consultation d'un assistant compétent mais faillible.

Il y a aussi rôle de l' Pour la réglementation et les normes industrielles. Si des systèmes d'IA sont utilisés dans des domaines comme la santé, le droit ou la finance, des exigences claires en matière de précision et de responsabilité doivent être définies. Les développeurs doivent pouvoir expliquer le fonctionnement de leurs systèmes, les données sur lesquelles ils ont été formés et les mesures prises pour réduire les faussetés. Des audits indépendants pourraient contribuer à garantir que ces allégations ne relèvent pas uniquement du marketing.

Parallèlement, les utilisateurs doivent développer un scepticisme sain à l'égard des résultats de l'IA. Tout comme nous avons appris à remettre en question les informations diffusées sur les réseaux sociaux, nous devons remettre en question celles issues de l'IA. Il ne s'agit pas de les rejeter d'emblée, mais de les considérer comme un point de départ plutôt qu'une réponse définitive. Le recoupement avec d'autres sources devrait devenir une habitude. Les systèmes éducatifs peuvent jouer un rôle à cet égard, en enseignant une culture numérique qui inclut la compréhension du fonctionnement de l'IA et de ses risques de dysfonctionnement.

Le problème des erreurs informatiques n'est pas près de disparaître. À mesure que l'IA progresse, sa capacité à produire des mensonges convaincants ne fera que croître. Mais cela ne signifie pas que nous ne pouvons rien faire. En combinant protections techniques, transparence, réglementation et sensibilisation des utilisateurs, nous pouvons réduire les risques. L'objectif n'est pas de rendre l'IA parfaite – aucun système ne sera jamais exempt d'erreurs – mais de la rendre plus fiable et moins susceptible d'induire en erreur.

Conclusion

L'expression « machine bullshit » peut paraître brutale, mais elle reflète une réalité incontournable. L'IA n'est pas un miroir neutre du savoir humain. C'est un générateur de langage façonné par les données, les algorithmes et les incitations. Si nous voulons qu'elle serve la vérité plutôt que la simple fluidité, nous devons la concevoir en conséquence. Cela implique de repenser non seulement la technologie, mais aussi les valeurs qui guident son développement. Le défi réside autant dans les priorités humaines que dans les capacités des machines. Voulons-nous des systèmes optimisés pour paraître humains, ou optimisés pour être honnêtes ? Les deux ne sont pas toujours synonymes. Si nous choisissons la première option, nous risquons de créer des outils persuasifs, mais peu fiables. Si nous optons pour la seconde option, nous devrons peut-être accepter que l'IA soit parfois moins fluide, moins sûre et moins divertissante. Mais elle sera aussi plus honnête.

Le Dr Tehseen Zia est professeur agrégé titulaire à l'Université COMSATS d'Islamabad, titulaire d'un doctorat en IA de l'Université de technologie de Vienne, en Autriche. Spécialisé en intelligence artificielle, apprentissage automatique, science des données et vision par ordinateur, il a apporté d'importantes contributions avec des publications dans des revues scientifiques réputées. Le Dr Tehseen a également dirigé divers projets industriels en tant que chercheur principal et a servi à titre de consultant en IA.