Suivez nous sur

RAFT – Une approche de réglage fin et RAG pour répondre aux questions spécifiques à un domaine

Intelligence Artificielle

RAFT – Une approche de réglage fin et RAG pour répondre aux questions spécifiques à un domaine

mm

À mesure que les applications des grands modèles linguistiques s’étendent à des domaines spécialisés, le besoin de techniques d’adaptation efficientes et efficaces devient de plus en plus crucial. Entrez dans RAFT (Retrieval Augmented Fine Tuning), une nouvelle approche qui combine les atouts de la génération augmentée par récupération (RAG) et du réglage fin, spécialement conçue pour les tâches de réponse aux questions spécifiques à un domaine.

Le défi de l'adaptation de domaine

Bien que les LLM soient prĂ©-formĂ©s sur de grandes quantitĂ©s de donnĂ©es, leur capacitĂ© Ă  fonctionner correctement dans des domaines spĂ©cialisĂ©s, tels que la recherche mĂ©dicale, la documentation juridique ou les bases de connaissances spĂ©cifiques Ă  l'entreprise, est souvent limitĂ©e. Cette limitation est due au fait que les donnĂ©es prĂ©alables Ă  la formation peuvent ne pas reprĂ©senter adĂ©quatement les nuances et les subtilitĂ©s de ces domaines spĂ©cialisĂ©s. Pour relever ce dĂ©fi, les chercheurs ont traditionnellement utilisĂ© deux techniques principales : la gĂ©nĂ©ration augmentĂ©e par rĂ©cupĂ©ration (RAG) et le rĂ©glage fin.

Génération augmentée par récupération (RAG)

CHIFFON

CHIFFON

CHIFFON est une technique qui permet LLM pour accéder et utiliser des sources de connaissances externes pendant l’inférence.

Il y parvient en intĂ©grant la rĂ©cupĂ©ration de donnĂ©es en temps rĂ©el dans le processus gĂ©nĂ©ratif, rendant ainsi les rĂ©sultats du modèle plus prĂ©cis et Ă  jour. RAG comprend trois Ă©tapes principales : la rĂ©cupĂ©ration, oĂą les documents pertinents sont rassemblĂ©s ; gĂ©nĂ©ration, oĂą le modèle produit une sortie basĂ©e sur les donnĂ©es rĂ©cupĂ©rĂ©es ; et l'augmentation, qui affine davantage le rĂ©sultat.

Le processus de récupération dans RAG commence par la requête d'un utilisateur. Les LLM analysent la requête et récupèrent les informations pertinentes à partir de bases de données externes, présentant un pool de données à partir duquel le modèle peut s'appuyer pour formuler ses réponses. La phase de génération synthétise ensuite ces informations dans un récit ou une réponse cohérente. L'étape d'augmentation affine la génération en ajoutant du contexte ou en ajustant la cohérence et la pertinence.

Les modèles RAG peuvent être évalués à l’aide de diverses mesures, évaluant leur capacité à fournir des informations précises, pertinentes et à jour.

Réglage fin

mise au point supervisée

mise au point supervisée

Réglage fin, d'autre part, implique d'adapter un LLM pré-entraîné à une tâche ou un domaine spécifique en le formant davantage sur un ensemble de données plus petit et spécifique à la tâche. Cette approche permet au modèle d'apprendre des modèles et d'aligner ses résultats sur la tâche ou le domaine souhaité. Bien qu'un réglage fin puisse améliorer les performances du modèle, il ne parvient souvent pas à intégrer efficacement les sources de connaissances externes ou à prendre en compte les imperfections de récupération lors de l'inférence.

L’approche RAFT

RADEAU

RADEAU

RADEAU signifiant Retrieval-Aware Fine-Tuning, est une mĂ©thode de formation innovante adaptĂ©e aux modèles de langage afin d'amĂ©liorer leurs performances dans des tâches spĂ©cifiques Ă  un domaine, en particulier pour les examens Ă  livre ouvert. RAFT s'Ă©carte du rĂ©glage fin standard en prĂ©parant des donnĂ©es de formation qui intègrent des questions avec un mĂ©lange de documents pertinents et non pertinents, ainsi que des rĂ©ponses stylisĂ©es en chaĂ®ne de pensĂ©e dĂ©rivĂ©es des textes pertinents. Cette mĂ©thode vise Ă  amĂ©liorer les capacitĂ©s des modèles non seulement Ă  rappeler des informations, mais Ă©galement Ă  raisonner et Ă  dĂ©river des rĂ©ponses Ă  partir du contenu fourni.

Essentiellement, RAFT affine les modèles de langage pour ĂŞtre plus compĂ©tent dans les tâches qui impliquent la comprĂ©hension Ă©crite et l'extraction de connaissances Ă  partir d'un ensemble de documents. En s'entraĂ®nant Ă  la fois avec des documents « oracle Â» (qui contiennent la rĂ©ponse) et des documents « distracteurs Â» (qui n'en contiennent pas), le modèle apprend Ă  discerner et Ă  utiliser les informations pertinentes plus efficacement.

Préparation des données de formation

Le processus de formation sous RAFT implique qu'une partie des données contienne des documents Oracle directement liés aux réponses, tandis que les données restantes sont constituées uniquement de documents de distraction. Le réglage fin encourage le modèle à apprendre quand s'appuyer sur ses connaissances internes (semblable à la mémorisation) et quand extraire des informations du contexte fourni.

Le programme de formation de RAFT met également l'accent sur la génération de processus de raisonnement, qui non seulement aident à former la réponse, mais citent également des sources, de la même manière qu'un humain justifierait sa réponse en faisant référence au matériel qu'il a lu. Cette approche prépare non seulement le modèle pour un paramètre RAG (Retrieval Augmented Generation) dans lequel il doit prendre en compte les k documents récupérés les plus importants, mais garantit également que la formation du modèle est indépendante du récupérateur utilisé, permettant une application flexible sur différents systèmes de récupération.

Cette approche rĂ©pond Ă  plusieurs objectifs :

  1. Il entraîne le modèle à identifier et à utiliser les informations pertinentes du contexte fourni, imitant le cadre d'un examen à livre ouvert.
  2. Cela améliore la capacité du modèle à ignorer les informations non pertinentes, une compétence essentielle pour un RAG efficace.
  3. Il expose le modèle à des scénarios où la réponse n'est pas présente dans le contexte, l'incitant à s'appuyer sur ses propres connaissances lorsque cela est nécessaire.

Un autre aspect clé de RAFT est l’intégration du raisonnement en chaîne de pensée dans le processus de formation. Au lieu de simplement fournir les paires de questions et de réponses, RAFT génère des explications de raisonnement détaillées qui incluent des citations textuelles des documents pertinents. Ces explications, présentées sous forme de chaîne de pensée, guident le modèle à travers les étapes logiques nécessaires pour arriver à la bonne réponse.

En entraînant le modèle sur ces chaînes de raisonnement, RAFT encourage le développement de solides capacités de raisonnement et améliore la compréhension du modèle sur la manière d'exploiter efficacement les sources de connaissances externes.

Évaluation et résultats

Les auteurs de l'article RAFT ont mené des évaluations approfondies sur divers ensembles de données, notamment PubMed (recherche biomédicale), HotpotQA (réponse aux questions en domaine ouvert) et Gorilla APIBench (génération de code). Leurs résultats ont démontré que RAFT surpassait systématiquement les références, telles que le réglage fin spécifique à un domaine avec et sans RAG, ainsi que les modèles plus vastes comme GPT-3.5 avec RAG.

RAFT améliore les performances du RAG

RAFT améliore les performances du RAG

Par exemple, sur l'ensemble de donnĂ©es HuggingFace, RAFT a atteint une prĂ©cision de 74 %, soit une amĂ©lioration significative de 31.41 % par rapport au rĂ©glage fin spĂ©cifique au domaine (DSF) et de 44.92 % par rapport Ă  GPT-3.5 avec RAG. De mĂŞme, sur l'ensemble de donnĂ©es HotpotQA, RAFT a prĂ©sentĂ© un gain de prĂ©cision de 28.9 % par rapport Ă  DSF.

L’un des principaux avantages de RAFT est sa robustesse aux imperfections de récupération. En entraînant le modèle avec un mélange de documents pertinents et non pertinents, RAFT améliore la capacité du modèle à discerner et à hiérarchiser les informations pertinentes, même lorsque le module de récupération renvoie des résultats sous-optimaux.

Les auteurs ont démontré qu'un réglage fin avec uniquement les documents Oracle conduit souvent à des performances inférieures par rapport aux configurations incluant des documents de distraction. Cette découverte souligne l'importance d'exposer le modèle à différents scénarios de récupération pendant la formation, garantissant ainsi sa préparation aux applications du monde réel.

Applications pratiques et orientations futures

La technique RAFT a des implications significatives pour un large Ă©ventail d’applications pratiques, notamment :

  1. Systèmes de rĂ©ponses aux questions : RAFT peut ĂŞtre utilisĂ© pour crĂ©er des systèmes de rĂ©ponses aux questions très prĂ©cis et spĂ©cifiques Ă  un domaine, en tirant parti Ă  la fois des connaissances acquises du modèle et des sources de connaissances externes.
  2. Gestion des connaissances d'entreprise : les organisations disposant de vastes bases de connaissances peuvent tirer parti de RAFT pour dĂ©velopper des systèmes de questions-rĂ©ponses personnalisĂ©s, permettant aux employĂ©s d'accĂ©der et d'utiliser rapidement les informations pertinentes.
  3. Recherche médicale et scientifique : RAFT peut être particulièrement utile dans des domaines tels que la recherche biomédicale, où l'accès aux dernières découvertes et à la littérature est crucial pour faire progresser la compréhension scientifique.
  4. Services juridiques et financiers : RAFT peut assister les professionnels de ces domaines en fournissant des réponses précises et contextuelles basées sur des documents juridiques ou des rapports financiers pertinents.

Ă€ mesure que les recherches dans ce domaine se poursuivent, nous pouvons nous attendre Ă  de nouvelles avancĂ©es et amĂ©liorations de la technique RAFT. Les orientations futures potentielles comprennent :

  1. Exploration de modules de récupération plus efficaces et efficients, adaptés à des domaines ou des structures de documents spécifiques.
  2. Intégration d'informations multimodales, telles que des images ou des tableaux, dans le cadre RAFT pour une meilleure compréhension du contexte.
  3. Développement d'architectures de raisonnement spécialisées capables de mieux exploiter les explications de la chaîne de pensée générées pendant la formation.
  4. Adaptation de RAFT à d'autres tâches en langage naturel au-delà de la réponse aux questions, telles que les systèmes de résumé, de traduction ou de dialogue.

Conclusion

RAFT représente un pas en avant significatif dans le domaine de la réponse à des questions spécifiques à un domaine avec des modèles de langage. En mélangeant harmonieusement les atouts de la génération et du réglage précis par récupération, RAFT donne aux LLM la capacité d'exploiter efficacement les sources de connaissances externes tout en alignant leurs résultats sur les modèles et préférences spécifiques au domaine.

Grâce à sa curation de données de formation innovante, à l'intégration d'un raisonnement en chaîne de pensée et à sa robustesse face aux imperfections de récupération, RAFT offre une solution puissante aux organisations et aux chercheurs cherchant à libérer tout le potentiel des LLM dans des domaines spécialisés.

Alors que la demande de capacités de traitement du langage naturel spécifiques à un domaine continue de croître, des techniques telles que RAFT joueront un rôle central en permettant des modèles de langage plus précis, plus sensibles au contexte et plus adaptatifs, ouvrant la voie à un avenir où la communication homme-machine deviendra véritablement transparent et indépendant du domaine.

J'ai passé les cinq dernières années à m'immerger dans le monde fascinant du Machine Learning et du Deep Learning. Ma passion et mon expertise m'ont amené à contribuer à plus de 50 projets de génie logiciel divers, avec un accent particulier sur l'IA/ML. Ma curiosité continue m'a également attiré vers le traitement automatique du langage naturel, un domaine que j'ai hâte d'explorer davantage.