Intelligence Artificielle
Que sont les hallucinations LLM? Causes, préoccupation éthique et prévention

Les grands modèles de langage (LLM) sont des systèmes d'intelligence artificielle capables d'analyser et de générer un texte de type humain. Mais ils ont un problème – Les LLM hallucinent, c'est-à -dire qu'ils inventent des trucs. Les hallucinations du LLM ont inquiété les chercheurs quant aux progrès dans ce domaine, car si les chercheurs ne peuvent pas contrôler le résultat des modèles, ils ne peuvent pas construire de systèmes critiques au service de l'humanité. Plus à ce sujet plus tard.
Généralement, les LLM utilisent de grandes quantités de données de formation et des algorithmes d'apprentissage complexes pour générer des résultats réalistes. Dans certains cas, l'apprentissage en contexte est utilisé pour former ces modèles en utilisant seulement quelques exemples. Les LLM deviennent de plus en plus populaires dans divers domaines d'application allant de la traduction automatique, de l'analyse des sentiments, de l'assistance virtuelle à l'IA, de l'annotation d'images, traitement du langage naturel, etc.
Malgré la nature de pointe des LLM, ils sont toujours sujets aux préjugés, aux erreurs et aux hallucinations. Yann LeCun, actuel scientifique en chef de l'IA chez Meta, a récemment mentionné le défaut central des LLM qui provoque des hallucinations: Les grands modèles linguistiques n'ont aucune idée de la réalité sous-jacente que décrit le langage. Ces systèmes génèrent du texte qui sonne bien, grammaticalement et sémantiquement, mais ils n'ont pas vraiment d'objectif autre que la simple cohérence statistique avec l'invite.
Hallucinations dans les LLM

Image Gerd Altmann de Pixabay
Les hallucinations font référence au modèle générant des sorties syntaxiquement et sémantiquement correctes mais déconnectées de la réalité et basées sur de fausses hypothèses. L'hallucination est l'une des préoccupations éthiques majeures des LLM, et cela peut avoir des conséquences néfastes car les utilisateurs sans connaissance adéquate du domaine commencent à trop s'appuyer sur ces modèles de langage de plus en plus convaincants.
Un certain degré d'hallucination est inévitable dans tous les LLM autorégressifs. Par exemple, un mannequin peut attribuer une citation contrefaite à une célébrité qui n'a jamais été dite. Ils peuvent affirmer quelque chose sur un sujet particulier qui est factuellement incorrect ou citer des sources inexistantes dans des documents de recherche, propageant ainsi la désinformation.
Cependant, faire halluciner des modèles d'IA n'a pas toujours d'effets indésirables. Par exemple, un une nouvelle étude suggère Les scientifiques découvrent de « nouvelles protéines dotées d'une gamme illimitée de propriétés » grâce à des LLM hallucinants.
Qu'est-ce qui cause les hallucinations des LLM?
Les LLM peuvent halluciner en raison de divers facteurs, allant des erreurs de surajustement dans l'encodage et le décodage au biais d'entraînement.
Surapprentissage

Image janjf93 de Pixabay
Le surajustement est un problème lorsqu'un modèle d'IA s'adapte trop bien aux données d'entraînement. Cependant, il ne peut pas représenter pleinement l'ensemble des intrants qu'il peut rencontrer, c'est-à -dire : il ne parvient pas à généraliser son pouvoir prédictif à de nouvelles données inédites. Le surajustement peut amener le modèle à produire un contenu halluciné.
Erreurs d'encodage et de décodage

Image Geralt de Pixabay
S'il y a des erreurs dans l'encodage et le décodage du texte et de ses représentations ultérieures, cela peut également amener le modèle à générer des sorties absurdes et erronées.
Biais de formation

Image Coing créatif de Pixabay
Un autre facteur est la présence de certains biais dans les données d'entraînement, ce qui peut amener le modèle à produire des résultats qui reflètent ces biais plutôt que la nature réelle des données. Ce phénomène est similaire au manque de diversité des données d'entraînement, qui limite la capacité du modèle à généraliser à de nouvelles données.
La structure complexe des LLM rend assez difficile pour les chercheurs et les praticiens de l'IA d'identifier, d'interpréter et de corriger ces causes sous-jacentes des hallucinations.
Préoccupations éthiques des hallucinations LLM
Les LLM peuvent perpétuer et amplifier les préjugés nocifs par le biais d'hallucinations et peuvent, à leur tour, avoir un impact négatif sur les utilisateurs et avoir des conséquences sociales néfastes. Certaines de ces préoccupations éthiques les plus importantes sont énumérées ci-dessous :
Contenu discriminant et toxique

Image ar130405 de Pixabay
Étant donné que les données de formation LLM sont souvent pleines de stéréotypes socioculturels en raison des préjugés inhérents et du manque de diversité. Les LLM peuvent donc produire et renforcer ces idées nuisibles contre les groupes défavorisés de la société.
Ils peuvent générer ce contenu discriminatoire et haineux basé sur la race, le sexe, la religion, l'origine ethnique, etc.
Problèmes de confidentialité

Image JanBébé de Pixabay
Les LLM sont formés sur un corpus de formation massif qui comprend souvent les informations personnelles des individus. Il y a eu des cas où de tels modèles ont violé la vie privée des personnes. Ils peuvent divulguer des informations spécifiques telles que les numéros de sécurité sociale, les adresses personnelles, les numéros de téléphone portable et les détails médicaux.
Désinformation et désinformation

Image Geralt de Pixabay
Les modèles de langage peuvent produire un contenu de type humain qui semble exact mais qui est, en fait, faux et non étayé par des preuves empiriques. Cela peut être accidentel, entraînant une désinformation, ou il peut y avoir une intention malveillante derrière cela pour diffuser sciemment de la désinformation. Si cela n'est pas contrôlé, cela peut créer des tendances sociales, culturelles, économiques et politiques défavorables.
Prévenir les hallucinations LLM

Image atrois23 de Pixabay
Les chercheurs et les praticiens adoptent diverses approches pour résoudre le problème des hallucinations dans les LLM. Celles-ci incluent l'amélioration de la diversité des données de formation, l'élimination des biais inhérents, l'utilisation de meilleures techniques de régularisation et l'utilisation de la formation contradictoire et de l'apprentissage par renforcement, entre autres :
- Développer de meilleures techniques de régularisation est au cœur de la lutte contre les hallucinations. Ils aident à prévenir le surentraînement et d'autres problèmes qui provoquent des hallucinations.
- L'augmentation des données peut réduire la fréquence des hallucinations, comme en témoigne un étude. L'augmentation des données consiste à augmenter l'ensemble d'apprentissage en ajoutant un jeton aléatoire n'importe où dans la phrase. Il double la taille de l'ensemble d'entraînement et provoque une diminution de la fréquence des hallucinations.
- OpenAI et DeepMind de Google ont développé une technique appelée apprentissage par renforcement avec rétroaction humaine (RLHF) pour résoudre le problème d'hallucinations de ChatGPT. Ce système fait appel à un évaluateur humain qui analyse régulièrement les réponses du modèle et sélectionne celles qui correspondent le mieux aux invites de l'utilisateur. Ces commentaires sont ensuite utilisés pour ajuster le comportement du modèle. Ilya Sutskever, directeur scientifique d'OpenAI, a récemment mentionné que cette approche pouvait résoudre potentiellement les hallucinations dans ChatGPT: « J'ai bon espoir qu'en améliorant simplement cet apprentissage par renforcement ultérieur à partir de l'étape de rétroaction humaine, nous pourrons lui apprendre à ne pas avoir d'hallucinations. ».
- Identifier le contenu halluciné à utiliser comme exemple pour une formation future est également une méthode utilisée pour lutter contre les hallucinations. UN nouvelle technique à cet égard, détecte les hallucinations au niveau du jeton et prédit si chaque jeton de la sortie est halluciné. Il comprend également une méthode d'apprentissage non supervisé des détecteurs d'hallucinations.
En termes simples, les hallucinations LLM constituent une préoccupation croissante. Malgré les efforts déployés, il reste encore beaucoup à faire pour résoudre le problème. La complexité de ces modèles rend généralement difficile l'identification et la correction correctes des causes profondes des hallucinations.
Cependant, avec la poursuite de la recherche et du développement, il est possible d'atténuer les hallucinations dans les LLM et de réduire leurs conséquences éthiques.
Si vous voulez en savoir plus sur les LLM et les techniques préventives en cours de développement pour rectifier les hallucinations des LLM, consultez unir.ai pour approfondir vos connaissances.