Kunstig intelligens
RAFT – En tilpasning og RAG-tilgang til domænespecifik spørgsmålssvar

By
Aayush Mittal Mittal
Da anvendelserne af store sprogmodeller udvides til specialiserede domæner, bliver behovet for effektive og effektive tilpasningsteknikker mere og mere kritisk. Indledningen af RAFT (Retrieval Augmented Fine Tuning), en ny tilgang, der kombinerer styrkerne fra retrieval-augmenteret generering (RAG) og tilpasning, specifikt designet til domænespecifik spørgsmålssvartasks.
Selvom LLM’er er forudtrænet på enorme mængder data, er deres evne til at fungere godt i specialiserede domæner, såsom medicinsk forskning, juridisk dokumentation eller virksomhedsspecifik videnbasen, ofte begrænset. Denne begrænsning opstår, fordi forudtræningsdataene måske ikke tilstrækkeligt repræsenterer nuancerne og kompleksiteten af disse specialiserede domæner. For at løse denne udfordring har forskere traditionelt anvendt to hovedteknikker: retrieval-augmenteret generering (RAG) og tilpasning.
RAG er en teknik, der giver LLM’er mulighed for at få adgang til og anvende eksterne videnkilder under inferens.
Det opnås ved at integrere realtidsdatahenting i den generative proces, hvilket gør modellens output mere præcis og opdateret. RAG består af tre kerneforløb: henting, hvor relevante dokumenter indsamles; generering, hvor modellen producerer en output baseret på de hentede data; og tilføjelse, som yderligere forbedrer outputtet.
Hentingsprocessen i RAG starter med en brugers forespørgsel. LLM’er analyserer forespørgslen og henter relevant information fra eksterne databaser, præsenterer en pulje af data, som modellen kan trække på for at formulere sine svar. Genereringsfasen syntetiserer herefter denne input til en sammenhængende fortælling eller svar. Tilføjelsesfasen forbedrer genereringen ved at tilføje kontekst eller justere for sammenhæng og relevans.
RAG-modeller kan vurderes ved hjælp af en række af metrikker, der vurderer deres evne til at give præcise, relevante og opdaterede oplysninger.
Tilpasning, på den anden side, indebærer at tilpasse en forudtrænet LLM til en specifik opgave eller domæne ved yderligere træning på en mindre, opgave-specifik dataset. Denne tilgang giver mulighed for, at modellen kan lære mønstre og justere sine output med det ønskede formål eller domæne. Selvom tilpasning kan forbedre modellens præstation, fejler den ofte i at inkorporere eksterne videnkilder eller tage hensyn til hentingsfejl under inferens.
RAFT står for Retrieval-Aware Fine-Tuning, en innovativ træningsmetode til sprogmodeller for at forbedre deres præstation i domænespecifikke opgaver, især for åbne bogeksamener. RAFT afviger fra standardtilpasning ved at forberede træningsdata, der inkorporerer spørgsmål med en blanding af relevante og ikke-relevante dokumenter, samt kæde-tanke-stilede svar, der er afledt fra de relevante tekster. Denne metode sigter mod at forbedre modellens evne til ikke kun at huske information, men også til at begrunde og aflede svar fra den tilgængelige indhold.
I essensen tilpasser RAFT sprogmodeller til at være mere dygtige i opgaver, der indebærer læsning og videnstrækning fra en samling af dokumenter. Ved at træne med både “oracle”-dokumenter (der indeholder svaret) og “distraktor”-dokumenter (der ikke gør), lærer modellen at skelne og anvende relevant information mere effektivt.
Jeg har brugt de sidste fem år på at dykke ned i den fascinerende verden af Machine Learning og Deep Learning. Min passion og ekspertise har ført til, at jeg har bidraget til over 50 forskellige software-udviklingsprojekter, med særlig fokus på AI/ML. Min vedvarende nysgerrighed har også ført mig i retning af Natural Language Processing, et felt jeg er ivrig efter at udforske yderligere.


2026-prædiktion – Open Source vil ride på AI’s bølge ind i dens næste gyldne æra


Hvorfor de fleste moderne apps vil være værdiløse i AI-alderen


Gemini 3.1 Pro Opnår Rekordhøje Fornuftsmæssige Gevinster


Menneskekode fra 2020 gav vibe-kodede agenter en hård medfart i agente-test


Google præsenterer Gemini 3 Pro med banebrydende præstation


Forberedelse til reklamer i store sprogmodeller