Connect with us

RAFT – En tilpasning og RAG-tilgang til domænespecifik spørgsmålssvar

Kunstig intelligens

RAFT – En tilpasning og RAG-tilgang til domænespecifik spørgsmålssvar

mm

Da anvendelserne af store sprogmodeller udvides til specialiserede domæner, bliver behovet for effektive og effektive tilpasningsteknikker mere og mere kritisk. Indledningen af RAFT (Retrieval Augmented Fine Tuning), en ny tilgang, der kombinerer styrkerne fra retrieval-augmenteret generering (RAG) og tilpasning, specifikt designet til domænespecifik spørgsmålssvartasks.

Udfordringen med domænetilpasning

Selvom LLM’er er forudtrænet på enorme mængder data, er deres evne til at fungere godt i specialiserede domæner, såsom medicinsk forskning, juridisk dokumentation eller virksomhedsspecifik videnbasen, ofte begrænset. Denne begrænsning opstår, fordi forudtræningsdataene måske ikke tilstrækkeligt repræsenterer nuancerne og kompleksiteten af disse specialiserede domæner. For at løse denne udfordring har forskere traditionelt anvendt to hovedteknikker: retrieval-augmenteret generering (RAG) og tilpasning.

Retrieval-Augmented Generation (RAG)

RAG

RAG

RAG er en teknik, der giver LLM’er mulighed for at få adgang til og anvende eksterne videnkilder under inferens.

Det opnås ved at integrere realtidsdatahenting i den generative proces, hvilket gør modellens output mere præcis og opdateret. RAG består af tre kerneforløb: henting, hvor relevante dokumenter indsamles; generering, hvor modellen producerer en output baseret på de hentede data; og tilføjelse, som yderligere forbedrer outputtet.

Hentingsprocessen i RAG starter med en brugers forespørgsel. LLM’er analyserer forespørgslen og henter relevant information fra eksterne databaser, præsenterer en pulje af data, som modellen kan trække på for at formulere sine svar. Genereringsfasen syntetiserer herefter denne input til en sammenhængende fortælling eller svar. Tilføjelsesfasen forbedrer genereringen ved at tilføje kontekst eller justere for sammenhæng og relevans.

RAG-modeller kan vurderes ved hjælp af en række af metrikker, der vurderer deres evne til at give præcise, relevante og opdaterede oplysninger.

Tilpasning

supervised-fine-tuning

supervised-fine-tuning

Tilpasning, på den anden side, indebærer at tilpasse en forudtrænet LLM til en specifik opgave eller domæne ved yderligere træning på en mindre, opgave-specifik dataset. Denne tilgang giver mulighed for, at modellen kan lære mønstre og justere sine output med det ønskede formål eller domæne. Selvom tilpasning kan forbedre modellens præstation, fejler den ofte i at inkorporere eksterne videnkilder eller tage hensyn til hentingsfejl under inferens.

RAFT-tilgangen

RAFT

RAFT

RAFT står for Retrieval-Aware Fine-Tuning, en innovativ træningsmetode til sprogmodeller for at forbedre deres præstation i domænespecifikke opgaver, især for åbne bogeksamener. RAFT afviger fra standardtilpasning ved at forberede træningsdata, der inkorporerer spørgsmål med en blanding af relevante og ikke-relevante dokumenter, samt kæde-tanke-stilede svar, der er afledt fra de relevante tekster. Denne metode sigter mod at forbedre modellens evne til ikke kun at huske information, men også til at begrunde og aflede svar fra den tilgængelige indhold.

I essensen tilpasser RAFT sprogmodeller til at være mere dygtige i opgaver, der indebærer læsning og videnstrækning fra en samling af dokumenter. Ved at træne med både “oracle”-dokumenter (der indeholder svaret) og “distraktor”-dokumenter (der ikke gør), lærer modellen at skelne og anvende relevant information mere effektivt.

Jeg har brugt de sidste fem år på at dykke ned i den fascinerende verden af Machine Learning og Deep Learning. Min passion og ekspertise har ført til, at jeg har bidraget til over 50 forskellige software-udviklingsprojekter, med særlig fokus på AI/ML. Min vedvarende nysgerrighed har også ført mig i retning af Natural Language Processing, et felt jeg er ivrig efter at udforske yderligere.