Intelligence artificielle
Qu’est-ce que les hallucinations LLM ? Causes, préoccupations éthiques et prévention

Les grands modèles de langage (LLM) sont des systèmes d’intelligence artificielle capables d’analyser et de générer du texte similaire à celui des humains. Mais ils ont un problème – les LLM hallucinent, c’est-à-dire qu’ils inventent des choses. Les hallucinations des LLM ont rendu les chercheurs inquiets pour les progrès dans ce domaine, car si les chercheurs ne peuvent pas contrôler le résultat des modèles, alors ils ne peuvent pas construire des systèmes critiques pour servir l’humanité. Plus d’informations sur ce sujet plus tard.
En général, les LLM utilisent de vastes quantités de données de formation et des algorithmes d’apprentissage complexes pour générer des sorties réalistes. Dans certains cas, l’apprentissage en contexte est utilisé pour former ces modèles à l’aide de seulement quelques exemples. Les LLM deviennent de plus en plus populaires dans divers domaines d’application, allant de la traduction automatique, à l’analyse des sentiments, à l’assistance virtuelle AI, à l’annotation d’images, au traitement automatique des langues, etc.
Malgré la nature de pointe des LLM, ils sont toujours sujets aux biais, aux erreurs et aux hallucinations. Yann LeCun, actuel chef scientifique de l’IA chez Meta, a récemment mentionné le défaut central des LLM qui provoque des hallucinations : « Les grands modèles de langage n’ont aucune idée de la réalité sous-jacente que le langage décrit. Ces systèmes génèrent du texte qui sonne bien, grammaticalement et sémantiquement, mais ils n’ont vraiment pas d’autre objectif que de satisfaire la cohérence statistique avec la invite ».
Hallucinations dans les LLM

Image par Gerd Altmann sur Pixabay
Les hallucinations font référence au modèle qui génère des sorties qui sont syntaxiquement et sémantiquement correctes mais sont déconnectées de la réalité, et basées sur de fausses hypothèses. L’hallucination est l’une des préoccupations éthiques majeures des LLM, et elle peut avoir des conséquences néfastes lorsque les utilisateurs sans connaissance suffisante dans le domaine commencent à s’appuyer de plus en plus sur ces modèles de langage de plus en plus convaincants.
Un certain degré d’hallucination est inévitable dans tous les LLM autoregressifs. Par exemple, un modèle peut attribuer une fausse citation à une célébrité qui n’a jamais été prononcée. Ils peuvent affirmer quelque chose sur un sujet particulier qui est factuellement incorrect ou citer des sources inexistantes dans des documents de recherche, propagant ainsi de fausses informations.
Cependant, faire halluciner les modèles d’IA ne produit pas toujours des effets négatifs. Par exemple, une nouvelle étude suggère que les scientifiques découvrent de « nouvelles protéines avec une gamme illimitée de propriétés » grâce à des LLM hallucinants.
Qu’est-ce qui provoque les hallucinations des LLM ?
Les LLM peuvent halluciner en raison de divers facteurs, allant des erreurs de surajustement à l’encodage et au décodage, en passant par les biais de formation.
Surajustement

Image par janjf93 sur Pixabay
Le surajustement est un problème où un modèle d’IA s’ajuste trop bien aux données de formation. Cependant, il ne peut pas représenter pleinement la gamme d’entrées qu’il peut rencontrer, c’est-à-dire qu’il ne parvient pas à généraliser son pouvoir prédictif à de nouvelles données non vues. Le surajustement peut conduire le modèle à produire du contenu halluciné.
Erreurs d’encodage et de décodage

Image par geralt sur Pixabay
Si des erreurs se produisent lors de l’encodage et du décodage du texte et de ses représentations ultérieures, cela peut également provoquer le modèle à générer des sorties sans sens et erronées.
Biais de formation

Image par Quince Creative sur Pixabay
Un autre facteur est la présence de certains biais dans les données de formation, qui peuvent amener le modèle à produire des résultats qui représentent ces biais plutôt que la nature réelle des données. Cela est similaire au manque de diversité dans les données de formation, qui limite la capacité du modèle à généraliser à de nouvelles données.
La structure complexe des LLM rend difficile pour les chercheurs et les praticiens d’identifier, d’interpréter et de corriger les causes sous-jacentes des hallucinations.
Préoccupations éthiques des hallucinations des LLM
Les LLM peuvent perpétuer et amplifier les biais nocifs grâce aux hallucinations et peuvent, à leur tour, avoir un impact négatif sur les utilisateurs et avoir des conséquences sociales néfastes. Certaines de ces préoccupations éthiques les plus importantes sont énumérées ci-dessous :
Contenu discriminatoire et toxique

Image par ar130405 sur Pixabay
Puisque les données de formation des LLM sont souvent remplies de stéréotypes socioculturels en raison des biais inhérents et du manque de diversité, les LLM peuvent ainsi produire et renforcer ces idées nocives contre les groupes défavorisés de la société.
Ils peuvent générer ce contenu discriminatoire et haineux basé sur la race, le sexe, la religion, l’ethnicité, etc.
Problèmes de confidentialité

Image par JanBaby sur Pixabay
Les LLM sont formés sur un corpus de formation massif qui inclut souvent des informations personnelles sur les individus. Il y a eu des cas où de tels modèles ont violé la confidentialité des personnes. Ils peuvent divulguer des informations spécifiques telles que des numéros de sécurité sociale, des adresses personnelles, des numéros de téléphone portable et des détails médicaux.
Informations erronées et désinformation

Image par geralt sur Pixabay
Les modèles de langage peuvent produire du contenu similaire à celui des humains qui semble exact mais est en fait faux et non étayé par des preuves empiriques. Cela peut être accidentel, conduisant à des informations erronées, ou il peut y avoir une intention malveillante derrière pour propager sciemment de la désinformation. Si cela n’est pas contrôlé, cela peut créer des tendances sociales, culturelles, économiques et politiques négatives.
Prévention des hallucinations des LLM

Image par athree23 sur Pixabay
Les chercheurs et les praticiens prennent diverses approches pour résoudre le problème des hallucinations dans les LLM. Celles-ci incluent l’amélioration de la diversité des données de formation, l’élimination des biais inhérents, l’utilisation de meilleures techniques de régularisation et l’emploi d’une formation adverse et d’un apprentissage par renforcement, entre autres :
- Le développement de meilleures techniques de régularisation est au cœur de la lutte contre les hallucinations. Elles aident à prévenir le surajustement et d’autres problèmes qui provoquent des hallucinations.
- L’augmentation des données peut réduire la fréquence des hallucinations, comme le montre une étude de recherche. L’augmentation des données implique d’augmenter l’ensemble de formation en ajoutant un jeton aléatoire n’importe où dans la phrase. Cela double la taille de l’ensemble de formation et provoque une diminution de la fréquence des hallucinations.
- OpenAI et Google’s DeepMind ont développé une technique appelée apprentissage par renforcement avec rétroaction humaine (RLHF) pour résoudre le problème d’hallucination de ChatGPT. Cela implique un évaluateur humain qui examine fréquemment les réponses du modèle et sélectionne les plus appropriées pour les invites de l’utilisateur. Cette rétroaction est ensuite utilisée pour ajuster le comportement du modèle. Ilya Sutskever, chef scientifique d’OpenAI, a récemment mentionné que cette approche peut potentiellement résoudre les hallucinations dans ChatGPT : « Je suis assez optimiste que, simplement en améliorant cette étape de rétroaction humaine subséquente, nous pouvons l’enseigner pour qu’il ne fasse pas d’hallucinations ».
- L’identification de contenu halluciné pour l’utiliser comme exemple pour une formation future est également une méthode utilisée pour lutter contre les hallucinations. Une nouvelle technique à cet égard détecte les hallucinations au niveau du jeton et prédit si chaque jeton de la sortie est halluciné. Elle inclut également une méthode pour l’apprentissage non supervisé des détecteurs d’hallucinations.
En résumé, les hallucinations des LLM sont une préoccupation croissante. Et malgré les efforts, beaucoup de travail reste à faire pour résoudre le problème. La complexité de ces modèles signifie qu’il est généralement difficile d’identifier et de rectifier correctement les causes sous-jacentes des hallucinations.
Cependant, avec la poursuite de la recherche et du développement, il est possible d’atténuer les hallucinations dans les LLM et de réduire leurs conséquences éthiques.
Si vous souhaitez en savoir plus sur les LLM et les techniques préventives développées pour rectifier les hallucinations des LLM, consultez unite.ai pour élargir vos connaissances.













