Suivez nous sur

Aborder les problèmes actuels au sein des LLM et anticiper les prochaines étapes

Des leaders d'opinion

Aborder les problèmes actuels au sein des LLM et anticiper les prochaines étapes

mm

Il existe aujourd’hui des dizaines de grands modèles linguistiques (LLM) accessibles au public, tels que GPT-3, GPT-4, LaMDA ou Bard, et leur nombre ne cesse de croître à mesure que de nouveaux modèles sont publiés. Les LLM ont révolutionné l’intelligence artificielle, modifiant complètement la façon dont nous interagissons avec la technologie dans divers secteurs. Ces modèles nous permettent d’apprendre à partir de nombreux ensembles de données linguistiques humaines et ont ouvert de nouvelles voies d’innovation, de créativité et d’efficacité.

Cependant, un grand pouvoir implique une grande complexité. Les LLM sont confrontés à des défis et à des questions éthiques inhérents qui doivent être résolus avant que nous puissions les exploiter au maximum de leur potentiel. Par exemple, un étude récente de Stanford Les chercheurs ont découvert des préjugés raciaux et sexistes en observant la manière dont ChatGPT-4 traite certaines requêtes incluant des prénoms et des noms suggérant une race ou un sexe. Dans cette étude, le programme a été invité à donner son avis sur le prix à payer pour un vélo d'occasion vendu par un certain Jamal Washington, ce qui a donné un montant bien inférieur, par rapport au montant que le vendeur s'appelait Logan Becker. À mesure que ces découvertes continuent d'être mises en lumière, la nécessité de relever les défis du LLM ne fait qu'augmenter.

Comment atténuer les préoccupations courantes liées au LLM

Préjugé

L'un des problèmes les plus fréquemment évoqués dans les LLM est celui de la partialité et de l'équité. Dans une étude récente, des experts ont testé Quatre LLM récemment publiés ont révélé qu'ils exprimaient tous des préjugés sur les hommes et les femmes, en particulier ceux qui correspondaient aux perceptions des gens plutôt qu'à celles fondées sur des faits. Dans ce contexte, les préjugés désignent les inégalités de traitement ou de résultats entre différents groupes sociaux, probablement dues à des déséquilibres de pouvoir historiques ou structurels.

Dans les LLM, les biais sont causés par la sélection des données, les données démographiques des créateurs et les biais linguistiques ou culturels. Les biais de sélection des données se produisent lorsque les textes choisis pour la formation LLM ne représentent pas toute la diversité des langues utilisées sur le Web. Les LLM formés sur des ensembles de données étendus, mais limités, peuvent hériter des biais déjà présents dans ces textes. Avec les données démographiques des créateurs, certains groupes démographiques sont mis en évidence plus souvent que d'autres, ce qui illustre la nécessité d'une plus grande diversité et d'une plus grande inclusion dans la création de contenu pour réduire les biais. Par exemple, Wikipédia, une source courante de données de formation, présente un déséquilibre démographique notable parmi ses éditeurs avec une majorité d'hommes (84 %). Ce phénomène est similaire à celui observé pour la langue et la culture. De nombreuses sources sur lesquelles les LLM sont formés sont biaisées, penchant vers l'anglais, ce qui n'est parfois pas vraiment transposable dans d'autres langues et cultures.

Il est impératif que les LLM soient formés sur des données filtrées et que des garde-fous soient en place pour éliminer les sujets qui ne constituent pas des représentations cohérentes des données. Une méthode consiste à utiliser des techniques d'augmentation des données. Vous pouvez ajouter des exemples de groupes sous-représentés aux données d'entraînement, élargissant ainsi la diversité de l'ensemble de données. Une autre méthode d'atténuation consiste à filtrer et à repondérer les données, qui visent principalement à cibler précisément des exemples spécifiques et sous-représentés au sein d'un ensemble de données existant.

Hallucinations

Dans le contexte des LLM, les hallucinations sont un phénomène caractérisé par la production d'un texte qui, bien que grammaticalement correct et apparemment cohérent, s'écarte de l'exactitude factuelle ou de l'intention du matériel source. En fait, rapports récents ont découvert qu'un procès concernant une loi du Minnesota est directement affecté par des hallucinations de LLM. Il a été découvert qu'un affidavit soumis pour soutenir la loi incluait des sources inexistantes qui auraient pu être hallucinées par ChatGPT ou un autre LLM. Ces hallucinations peuvent facilement diminuer la fiabilité d'un LLM.

Il existe trois formes principales d’hallucinations :

  1. Hallucination en conflit d'entrée : cela se produit lorsque la sortie d'un LLM diverge de l'entrée fournie par l'utilisateur, qui comprend généralement des instructions de tâche et le contenu réel devant être traité.
  2. Hallucinations contextuelles conflictuelles : les LLM peuvent générer des réponses incohérentes dans des scénarios impliquant un dialogue prolongé ou des échanges multiples. Cela suggère une déficience potentielle dans la capacité du modèle à suivre le contexte ou à maintenir la cohérence entre diverses interactions.
  3. Hallucinations contradictoires : cette forme d’hallucination survient lorsqu’un LLM produit un contenu qui ne correspond pas aux connaissances factuelles établies. Les origines de telles erreurs sont diverses et peuvent survenir à différentes étapes du cycle de vie d’un LLM.

De nombreux facteurs ont contribué à ce phénomène, comme le manque de connaissances, qui explique pourquoi les LLM peuvent manquer de connaissances ou de capacité à assimiler correctement les informations pendant la pré-formation. De plus, des biais dans les données de formation ou une stratégie de génération séquentielle de LLM, surnommée « hallucination snowballing », peuvent créer des hallucinations.

Il existe des moyens d'atténuer les hallucinations, même si elles seront toujours une caractéristique des LLM. Les stratégies d'atténuation utiles pour les hallucinations consistent à les atténuer pendant la pré-formation (affiner manuellement les données à l'aide de techniques de filtrage) ou à les affiner (organiser les données de formation). Cependant, l'atténuation pendant l'inférence est la meilleure solution en raison de sa rentabilité et de sa contrôlabilité.

Confidentialité

Avec l'essor d'Internet, l'accessibilité accrue des informations personnelles et d'autres données privées est devenue une préoccupation largement reconnue. Une étude a révélé que 80 % des consommateurs américains craignent que leurs données soient utilisées pour former des modèles d'IA. Étant donné que les LLM les plus importants proviennent de sites Web, nous devons nous demander comment cela pose des risques pour la confidentialité et reste un problème largement non résolu pour les LLM.

Le moyen le plus simple d'empêcher les LLM de diffuser des informations personnelles est de les supprimer des données de formation. Cependant, compte tenu de la quantité importante de données impliquées dans les LLM, il est quasiment impossible de garantir l'élimination complète des informations privées. Une autre alternative courante pour les organisations qui s'appuient sur des modèles développés en externe consiste à opter pour un LLM open source plutôt que pour un service comme ChatGPT.

Grâce à cette approche, une copie du modèle peut être déployée en interne. Les messages des utilisateurs restent sécurisés au sein du réseau de l'organisation, sans être exposés à des services tiers. Si cela réduit considérablement le risque de fuite de données sensibles, cela accroît également considérablement la complexité. Compte tenu de la difficulté de garantir pleinement la protection des données privées, il est essentiel pour les développeurs d'applications d'analyser les risques que ces modèles pourraient représenter pour leurs utilisateurs.

La prochaine frontière pour les LLM

Alors que nous continuons à nous développer et à façonner les évolutions ultérieures des LLM en atténuant les risques actuels, nous devrions nous attendre à la percée des agents LLM, que nous voyons déjà dans des entreprises comme H avec le coureur H, commence à être publié. Le passage des modèles de langage pur aux architectures d'agents représente un changement dans la conception des systèmes d'IA ; l'industrie dépassera les limites inhérentes aux interfaces de chat et à la génération simple augmentée par récupération. Ces nouveaux cadres d'agents disposeront de modules de planification sophistiqués qui décomposeront les objectifs complexes en sous-tâches atomiques, conserveront une mémoire épisodique pour le raisonnement contextuel et exploiteront des outils spécialisés via des API bien définies. Cela crée une approche plus robuste de l'automatisation des tâches. La progression architecturale permet d'atténuer les défis courants liés aux tâches et au raisonnement, à l'intégration des outils et à la surveillance de l'exécution dans les implémentations LLM traditionnelles.

Outre les LLM, l’accent sera davantage mis sur la formation de modèles linguistiques plus petits en raison de leur rentabilité, de leur accessibilité et de leur facilité de déploiement. Par exemple, les modèles linguistiques spécifiques à un domaine se spécialisent dans des secteurs ou des domaines particuliers. Ces modèles sont finement adaptés aux données et à la terminologie spécifiques au domaine, ce qui les rend idéaux pour les environnements complexes et réglementés, comme le domaine médical ou juridique, où la précision est essentielle. Cette approche ciblée réduit le risque d’erreurs et d’hallucinations que les modèles à usage général peuvent produire lorsqu’ils sont confrontés à un contenu spécialisé.

Alors que nous continuons d’explorer de nouvelles frontières dans le domaine des LLM, il est essentiel de repousser les limites de l’innovation et de traiter et d’atténuer les risques potentiels associés à leur développement et à leur déploiement. Ce n’est qu’en identifiant et en abordant de manière proactive les défis liés aux préjugés, aux hallucinations et à la confidentialité que nous pourrons créer une base plus solide pour que les LLM puissent prospérer dans divers domaines.

Uday Kamath est le directeur de l'analyse chez fracasser, leader mondial des données et du renseignement sur les communications. Son rôle consiste à piloter la science des données et la recherche en IA conversationnelle. Avec plus de 25 ans d'expérience dans le développement analytique et un doctorat en apprentissage automatique évolutif, les contributions importantes de Kamath couvrent de nombreuses revues, conférences, livres et brevets. Il est également un membre actif du conseil consultatif d'entités, notamment des sociétés commerciales comme Falkonry et des institutions universitaires telles que le Center for Human-Machine Partnership de la GMU.