Suivez nous sur

Que sont les hallucinations LLM? Causes, préoccupation éthique et prévention

Intelligence Artificielle

Que sont les hallucinations LLM? Causes, préoccupation éthique et prévention

mm

Les grands modèles de langage (LLM) sont des systèmes d'intelligence artificielle capables d'analyser et de générer un texte de type humain. Mais ils ont un problème – Les LLM hallucinent, c'est-à-dire qu'ils inventent des trucs. Les hallucinations du LLM ont inquiété les chercheurs quant aux progrès dans ce domaine, car si les chercheurs ne peuvent pas contrôler le résultat des modèles, ils ne peuvent pas construire de systèmes critiques au service de l'humanité. Plus à ce sujet plus tard.

Généralement, les LLM utilisent de grandes quantités de données de formation et des algorithmes d'apprentissage complexes pour générer des résultats réalistes. Dans certains cas, l'apprentissage en contexte est utilisé pour former ces modèles en utilisant seulement quelques exemples. Les LLM deviennent de plus en plus populaires dans divers domaines d'application allant de la traduction automatique, de l'analyse des sentiments, de l'assistance virtuelle à l'IA, de l'annotation d'images, traitement du langage naturel, etc.

Malgré la nature de pointe des LLM, ils sont toujours sujets aux préjugés, aux erreurs et aux hallucinations. Yann LeCun, actuel scientifique en chef de l'IA chez Meta, a récemment mentionné le défaut central des LLM qui provoque des hallucinations: Les grands modèles linguistiques n'ont aucune idée de la réalité sous-jacente que décrit le langage. Ces systèmes génèrent du texte qui sonne bien, grammaticalement et sémantiquement, mais ils n'ont pas vraiment d'objectif autre que la simple cohérence statistique avec l'invite.

Hallucinations dans les LLM

Image Gerd Altmann de Pixabay

Les hallucinations font référence au modèle générant des sorties syntaxiquement et sémantiquement correctes mais déconnectées de la réalité et basées sur de fausses hypothèses. L'hallucination est l'une des préoccupations éthiques majeures des LLM, et cela peut avoir des conséquences néfastes car les utilisateurs sans connaissance adéquate du domaine commencent à trop s'appuyer sur ces modèles de langage de plus en plus convaincants.

Un certain degré d'hallucination est inévitable dans tous les LLM autorégressifs. Par exemple, un mannequin peut attribuer une citation contrefaite à une célébrité qui n'a jamais été dite. Ils peuvent affirmer quelque chose sur un sujet particulier qui est factuellement incorrect ou citer des sources inexistantes dans des documents de recherche, propageant ainsi la désinformation.

Cependant, faire halluciner des modèles d'IA n'a pas toujours d'effets indésirables. Par exemple, un une nouvelle étude suggère Les scientifiques découvrent de « nouvelles protéines dotées d'une gamme illimitée de propriétés » grâce à des LLM hallucinants.

Qu'est-ce qui cause les hallucinations des LLM?

Les LLM peuvent halluciner en raison de divers facteurs, allant des erreurs de surajustement dans l'encodage et le décodage au biais d'entraînement.

Surapprentissage

Image janjf93 de Pixabay

Le surajustement est un problème lorsqu'un modèle d'IA s'adapte trop bien aux données d'entraînement. Cependant, il ne peut pas représenter pleinement l'ensemble des intrants qu'il peut rencontrer, c'est-à-dire : il ne parvient pas à généraliser son pouvoir prédictif à de nouvelles données inédites. Le surajustement peut amener le modèle à produire un contenu halluciné.

Erreurs d'encodage et de décodage

Image Geralt de Pixabay

S'il y a des erreurs dans l'encodage et le décodage du texte et de ses représentations ultérieures, cela peut également amener le modèle à générer des sorties absurdes et erronées.

Biais de formation

Image Coing créatif de Pixabay

Un autre facteur est la présence de certains biais dans les données d'entraînement, ce qui peut amener le modèle à produire des résultats qui reflètent ces biais plutôt que la nature réelle des données. Ce phénomène est similaire au manque de diversité des données d'entraînement, qui limite la capacité du modèle à généraliser à de nouvelles données.

La structure complexe des LLM rend assez difficile pour les chercheurs et les praticiens de l'IA d'identifier, d'interpréter et de corriger ces causes sous-jacentes des hallucinations.

Préoccupations éthiques des hallucinations LLM

Les LLM peuvent perpĂ©tuer et amplifier les prĂ©jugĂ©s nocifs par le biais d'hallucinations et peuvent, Ă  leur tour, avoir un impact nĂ©gatif sur les utilisateurs et avoir des consĂ©quences sociales nĂ©fastes. Certaines de ces prĂ©occupations Ă©thiques les plus importantes sont Ă©numĂ©rĂ©es ci-dessous :

Contenu discriminant et toxique

Image ar130405 de Pixabay

Étant donné que les données de formation LLM sont souvent pleines de stéréotypes socioculturels en raison des préjugés inhérents et du manque de diversité. Les LLM peuvent donc produire et renforcer ces idées nuisibles contre les groupes défavorisés de la société.

Ils peuvent générer ce contenu discriminatoire et haineux basé sur la race, le sexe, la religion, l'origine ethnique, etc.

Problèmes de confidentialité

Image JanBébé de Pixabay

Les LLM sont formés sur un corpus de formation massif qui comprend souvent les informations personnelles des individus. Il y a eu des cas où de tels modèles ont violé la vie privée des personnes. Ils peuvent divulguer des informations spécifiques telles que les numéros de sécurité sociale, les adresses personnelles, les numéros de téléphone portable et les détails médicaux.

Désinformation et désinformation

Image Geralt de Pixabay

Les modèles de langage peuvent produire un contenu de type humain qui semble exact mais qui est, en fait, faux et non étayé par des preuves empiriques. Cela peut être accidentel, entraînant une désinformation, ou il peut y avoir une intention malveillante derrière cela pour diffuser sciemment de la désinformation. Si cela n'est pas contrôlé, cela peut créer des tendances sociales, culturelles, économiques et politiques défavorables.

Prévenir les hallucinations LLM

Image atrois23 de Pixabay

Les chercheurs et les praticiens adoptent diverses approches pour rĂ©soudre le problème des hallucinations dans les LLM. Celles-ci incluent l'amĂ©lioration de la diversitĂ© des donnĂ©es de formation, l'Ă©limination des biais inhĂ©rents, l'utilisation de meilleures techniques de rĂ©gularisation et l'utilisation de la formation contradictoire et de l'apprentissage par renforcement, entre autres :

  • DĂ©velopper de meilleures techniques de rĂ©gularisation est au cĹ“ur de la lutte contre les hallucinations. Ils aident Ă  prĂ©venir le surentraĂ®nement et d'autres problèmes qui provoquent des hallucinations.
  • L'augmentation des donnĂ©es peut rĂ©duire la frĂ©quence des hallucinations, comme en tĂ©moigne un Ă©tude. L'augmentation des donnĂ©es consiste Ă  augmenter l'ensemble d'apprentissage en ajoutant un jeton alĂ©atoire n'importe oĂą dans la phrase. Il double la taille de l'ensemble d'entraĂ®nement et provoque une diminution de la frĂ©quence des hallucinations.
  • OpenAI et DeepMind de Google ont dĂ©veloppĂ© une technique appelĂ©e apprentissage par renforcement avec rĂ©troaction humaine (RLHF) pour rĂ©soudre le problème d'hallucinations de ChatGPT. Ce système fait appel Ă  un Ă©valuateur humain qui analyse rĂ©gulièrement les rĂ©ponses du modèle et sĂ©lectionne celles qui correspondent le mieux aux invites de l'utilisateur. Ces commentaires sont ensuite utilisĂ©s pour ajuster le comportement du modèle. Ilya Sutskever, directeur scientifique d'OpenAI, a rĂ©cemment mentionnĂ© que cette approche pouvait rĂ©soudre potentiellement les hallucinations dans ChatGPT: « J'ai bon espoir qu'en amĂ©liorant simplement cet apprentissage par renforcement ultĂ©rieur Ă  partir de l'Ă©tape de rĂ©troaction humaine, nous pourrons lui apprendre Ă  ne pas avoir d'hallucinations. ».
  • Identifier le contenu hallucinĂ© Ă  utiliser comme exemple pour une formation future est Ă©galement une mĂ©thode utilisĂ©e pour lutter contre les hallucinations. UN nouvelle technique Ă  cet Ă©gard, dĂ©tecte les hallucinations au niveau du jeton et prĂ©dit si chaque jeton de la sortie est hallucinĂ©. Il comprend Ă©galement une mĂ©thode d'apprentissage non supervisĂ© des dĂ©tecteurs d'hallucinations.

En termes simples, les hallucinations LLM constituent une préoccupation croissante. Malgré les efforts déployés, il reste encore beaucoup à faire pour résoudre le problème. La complexité de ces modèles rend généralement difficile l'identification et la correction correctes des causes profondes des hallucinations.

Cependant, avec la poursuite de la recherche et du développement, il est possible d'atténuer les hallucinations dans les LLM et de réduire leurs conséquences éthiques.

Si vous voulez en savoir plus sur les LLM et les techniques préventives en cours de développement pour rectifier les hallucinations des LLM, consultez unir.ai pour approfondir vos connaissances.