talon Que sont les hallucinations LLM? Causes, préoccupation éthique et prévention - Unite.AI
Suivez nous sur

Intelligence artificielle

Que sont les hallucinations LLM? Causes, préoccupation éthique et prévention

mm

Publié le

 on

Les grands modèles de langage (LLM) sont des systèmes d'intelligence artificielle capables d'analyser et de générer un texte de type humain. Mais ils ont un problème – Les LLM hallucinent, c'est-à-dire qu'ils inventent des trucs. Les hallucinations du LLM ont inquiété les chercheurs quant aux progrès dans ce domaine, car si les chercheurs ne peuvent pas contrôler le résultat des modèles, ils ne peuvent pas construire de systèmes critiques au service de l'humanité. Plus à ce sujet plus tard.

Généralement, les LLM utilisent de grandes quantités de données de formation et des algorithmes d'apprentissage complexes pour générer des résultats réalistes. Dans certains cas, l'apprentissage en contexte est utilisé pour former ces modèles en utilisant seulement quelques exemples. Les LLM deviennent de plus en plus populaires dans divers domaines d'application allant de la traduction automatique, de l'analyse des sentiments, de l'assistance virtuelle à l'IA, de l'annotation d'images, traitement du langage naturel, etc.

Malgré la nature de pointe des LLM, ils sont toujours sujets aux préjugés, aux erreurs et aux hallucinations. Yann LeCun, actuel scientifique en chef de l'IA chez Meta, a récemment mentionné le défaut central des LLM qui provoque des hallucinations: « Les grands modèles de langage n'ont aucune idée de la réalité sous-jacente que le langage décrit. Ces systèmes génèrent un texte qui sonne bien, grammaticalement et sémantiquement, mais ils n'ont pas vraiment d'objectif autre que de simplement satisfaire la cohérence statistique avec l'invite ».

Hallucinations dans les LLM

Image Gerd Altmann de Pixabay

Les hallucinations font référence au modèle générant des sorties syntaxiquement et sémantiquement correctes mais déconnectées de la réalité et basées sur de fausses hypothèses. L'hallucination est l'une des préoccupations éthiques majeures des LLM, et cela peut avoir des conséquences néfastes car les utilisateurs sans connaissance adéquate du domaine commencent à trop s'appuyer sur ces modèles de langage de plus en plus convaincants.

Un certain degré d'hallucination est inévitable dans tous les LLM autorégressifs. Par exemple, un mannequin peut attribuer une citation contrefaite à une célébrité qui n'a jamais été dite. Ils peuvent affirmer quelque chose sur un sujet particulier qui est factuellement incorrect ou citer des sources inexistantes dans des documents de recherche, propageant ainsi la désinformation.

Cependant, faire halluciner des modèles d'IA n'a pas toujours d'effets indésirables. Par exemple, un une nouvelle étude suggère les scientifiques découvrent de «nouvelles protéines aux propriétés illimitées» grâce à des LLM hallucinantes.

Qu'est-ce qui cause les hallucinations des LLM?

Les LLM peuvent halluciner en raison de divers facteurs, allant des erreurs de surajustement dans l'encodage et le décodage au biais d'entraînement.

Surapprentissage

Image janjf93 de Pixabay

Le surajustement est un problème lorsqu'un modèle d'IA s'adapte trop bien aux données d'entraînement. Cependant, il ne peut pas représenter pleinement l'ensemble des intrants qu'il peut rencontrer, c'est-à-dire : il ne parvient pas à généraliser son pouvoir prédictif à de nouvelles données inédites. Le surajustement peut amener le modèle à produire un contenu halluciné.

Erreurs d'encodage et de décodage

Image Geralt de Pixabay

S'il y a des erreurs dans l'encodage et le décodage du texte et de ses représentations ultérieures, cela peut également amener le modèle à générer des sorties absurdes et erronées.

Biais de formation

Image Coing créatif de Pixabay

Un autre facteur est la présence de certains biais dans les données d'apprentissage, ce qui peut amener le modèle à donner des résultats qui représentent ces biais plutôt que la nature réelle des données. Ceci est similaire au manque de diversité dans les données de formation, ce qui limite la capacité du modèle à généraliser à de nouvelles données.

La structure complexe des LLM rend assez difficile pour les chercheurs et les praticiens de l'IA d'identifier, d'interpréter et de corriger ces causes sous-jacentes des hallucinations.

Préoccupations éthiques des hallucinations LLM

Les LLM peuvent perpétuer et amplifier les préjugés nocifs par le biais d'hallucinations et peuvent, à leur tour, avoir un impact négatif sur les utilisateurs et avoir des conséquences sociales néfastes. Certaines de ces préoccupations éthiques les plus importantes sont énumérées ci-dessous :

Contenu discriminant et toxique

Image ar130405 de Pixabay

Étant donné que les données de formation LLM sont souvent pleines de stéréotypes socioculturels en raison des préjugés inhérents et du manque de diversité. Les LLM peuvent donc produire et renforcer ces idées nuisibles contre les groupes défavorisés de la société.

Ils peuvent générer ce contenu discriminatoire et haineux basé sur la race, le sexe, la religion, l'origine ethnique, etc.

Problèmes de confidentialité

Image JanBébé de Pixabay

Les LLM sont formés sur un corpus de formation massif qui comprend souvent les informations personnelles des individus. Il y a eu des cas où de tels modèles ont violé la vie privée des gens. Ils peuvent divulguer des informations spécifiques telles que les numéros de sécurité sociale, les adresses personnelles, les numéros de téléphone portable et les détails médicaux.

Désinformation et désinformation

Image Geralt de Pixabay

Les modèles de langage peuvent produire un contenu de type humain qui semble exact mais qui est, en fait, faux et non étayé par des preuves empiriques. Cela peut être accidentel, entraînant une désinformation, ou il peut y avoir une intention malveillante derrière cela pour diffuser sciemment de la désinformation. Si cela n'est pas contrôlé, cela peut créer des tendances sociales, culturelles, économiques et politiques défavorables.

Prévenir les hallucinations LLM

Image atrois23 de Pixabay

Les chercheurs et les praticiens adoptent diverses approches pour résoudre le problème des hallucinations dans les LLM. Celles-ci incluent l'amélioration de la diversité des données de formation, l'élimination des biais inhérents, l'utilisation de meilleures techniques de régularisation et l'utilisation de la formation contradictoire et de l'apprentissage par renforcement, entre autres :

  • Développer de meilleures techniques de régularisation est au cœur de la lutte contre les hallucinations. Ils aident à prévenir le surentraînement et d'autres problèmes qui provoquent des hallucinations.
  • L'augmentation des données peut réduire la fréquence des hallucinations, comme en témoigne un étude. L'augmentation des données consiste à augmenter l'ensemble d'apprentissage en ajoutant un jeton aléatoire n'importe où dans la phrase. Il double la taille de l'ensemble d'entraînement et provoque une diminution de la fréquence des hallucinations.
  • OpenAI et DeepMind de Google ont développé une technique appelée apprentissage par renforcement avec rétroaction humaine (RLHF) pour résoudre le problème d'hallucination de ChatGPT. Cela implique un évaluateur humain qui examine fréquemment les réponses du modèle et sélectionne la plus appropriée pour les invites de l'utilisateur. Cette rétroaction est ensuite utilisée pour ajuster le comportement du modèle. Ilya Sutskever, scientifique en chef d'OpenAI, a récemment mentionné que cette approche peut résoudre potentiellement les hallucinations dans ChatGPT: "J'ai bon espoir qu'en améliorant simplement cet apprentissage par renforcement ultérieur à partir de l'étape de rétroaction humaine, nous pourrons lui apprendre à ne pas halluciner".
  • Identifier le contenu halluciné à utiliser comme exemple pour une formation future est également une méthode utilisée pour lutter contre les hallucinations. UN nouvelle technique à cet égard, détecte les hallucinations au niveau du jeton et prédit si chaque jeton de la sortie est halluciné. Il comprend également une méthode d'apprentissage non supervisé des détecteurs d'hallucinations.

En termes simples, les hallucinations LLM sont une préoccupation croissante. Et malgré les efforts, il reste encore beaucoup à faire pour régler le problème. La complexité de ces modèles signifie qu'il est généralement difficile d'identifier et de rectifier correctement les causes inhérentes aux hallucinations.

Cependant, avec la poursuite de la recherche et du développement, il est possible d'atténuer les hallucinations dans les LLM et de réduire leurs conséquences éthiques.

Si vous voulez en savoir plus sur les LLM et les techniques préventives en cours de développement pour rectifier les hallucinations des LLM, consultez unir.ai pour approfondir vos connaissances.