Connect with us

Artificiell intelligens

Citeringar: Kan Anthropics nya funktion lösa AI:s tillitsproblem?

mm

AI-verifiering har varit ett allvarligt problem under en längre tid. Medan stora språkmodeller (LLM) har utvecklats i en otrolig takt, har utmaningen att bevisa deras noggrannhet förblivit olöst.

Anthropic försöker lösa detta problem, och av alla stora AI-företag tror jag att de har den bästa chansen.

Företaget har släppt Citations, en ny API-funktion för sina Claude-modeller som ändrar hur AI-systemen verifierar sina svar. Denna teknik bryter automatiskt ner källhandlingar i smälbara bitar och länkar varje AI-genererad uttalande tillbaka till dess ursprungliga källa – liknande hur akademiska artiklar citerar sina referenser.

Citations försöker lösa en av AI:s mest bestående utmaningar: att bevisa att genererat innehåll är korrekt och pålitligt. Istället för att kräva komplex promptteknik eller manuell verifiering, bearbetar systemet automatiskt dokument och tillhandahåller meningsnivåverifiering för varje påstående det gör.

Data visar lovande resultat: en 15-procentig förbättring av citeringsnoggrannhet jämfört med traditionella metoder.

Varför detta är viktigt just nu

AI-tillit har blivit den kritiska barriären för företagsadoption (samt individuell adoption). När organisationer flyttar bortom experimentell AI-användning till kärnverksamhet, har oförmågan att verifiera AI-utdata effektivt skapat en betydande flaskhals.

De nuvarande verifieringssystemen avslöjar ett tydligt problem: organisationer tvingas välja mellan hastighet och noggrannhet. Manuella verifieringsprocesser skalar inte, medan overifierade AI-utdata medför för stor risk. Denna utmaning är särskilt akut i reglerade branscher där noggrannhet inte bara är önskvärd – den är nödvändig.

Citations tidpunkt kommer vid en kritisk punkt i AI-utvecklingen. När språkmodeller blir mer avancerade, har behovet av inbyggd verifiering ökat proportionellt. Vi behöver bygga system som kan distribueras med tillförsikt i professionella miljöer där noggrannhet är ovillkorlig.

Teknisk arkitektur

Magin i Citations ligger i dess dokumentbearbetningsmetod. Citations är inte som andra traditionella AI-system. Dessa behandlar ofta dokument som enkla textblock. Med Citations bryter verktyget ner källmaterial i vad Anthropic kallar “chunks”. Dessa kan vara enskilda meningar eller användardefinierade avsnitt, som skapar en granulär grund för verifiering.

Här är den tekniska nedbrytningen:

Dokumentbearbetning och hantering

Citations bearbetar dokument på olika sätt beroende på deras format. För textfiler finns det i princip ingen gräns utöver den standardmässiga 200 000 token-gränsen för totala förfrågningar. Detta inkluderar din kontext, prompter och dokumenten själva.

PDF-hantering är mer komplex. Systemet bearbetar PDF:er visuellt, inte bara som text, vilket leder till vissa nyckelbegränsningar:

  • 32 MB filstorleksgräns
  • Maximalt 100 sidor per dokument
  • Varje sida förbrukar 1 500-3 000 token

Tokenhantering

Nu till den praktiska sidan av dessa begränsningar. När du arbetar med Citations måste du överväga din tokenbudget noggrant. Här är hur det bryts ner:

För standardtext:

  • Fullständig förfrågningsgräns: 200 000 token
  • Inkluderar: Kontext + prompter + dokument
  • Inga extra avgifter för citeringsutdata

För PDF:er:

  • Högre tokennetto per sida
  • Visuell bearbetningsöverbelastning
  • Mer komplex tokenberäkning behövs

Citations vs RAG: Nyckelskillnader

Citations är inte ett Retrieval Augmented Generation (RAG)-system – och denna distinktion är viktig. Medan RAG-system fokuserar på att hitta relevant information från en kunskapsbas, fungerar Citations med information du redan har valt.

Tänk på det här sättet: RAG bestämmer vilken information som ska användas, medan Citations säkerställer att informationen används korrekt. Detta innebär:

  • RAG: Hanterar informationsåtervinning
  • Citations: Hanterar informationsverifiering
  • Kombinerad potential: Båda systemen kan fungera tillsammans

Detta arkitekturval innebär att Citations excellerar i noggrannhet inom tillhandahållna sammanhang, medan återvinningsstrategier överlåts till kompletterande system.

Integrationsvägar och prestanda

Inställningen är enkel: Citations körs via Anthropics standard-API, vilket innebär att om du redan använder Claude är du halvvägs där. Systemet integreras direkt med Meddelanden-API, vilket eliminerar behovet av separat fillagring eller komplexa infrastrukturförändringar.

Prismodellen följer Anthropics tokenbaserade modell med en viktig fördel: medan du betalar för indata-token från källhandlingar, finns det ingen extra avgift för citeringsutdata i sig. Detta skapar en förutsägbar kostnadsstruktur som skalar med användning.

Prestandamått berättar en övertygande historia:

  • 15-procentig förbättring av den totala citeringsnoggrannheten
  • Fullständig eliminering av källhallucinationer (från 10 procents förekomst till noll)
  • Meningsnivåverifiering för varje påstående

Organisationer (och individer) som använder overifierade AI-system befinner sig i en nackdel, särskilt i reglerade branscher eller högriskmiljöer där noggrannhet är avgörande.

Om vi ser framåt, kommer vi sannolikt att se:

  • Integration av Citations-liknande funktioner blir standard
  • Utveckling av verifieringssystem bortom text till andra medier
  • Utveckling av branschspecifika verifieringsstandarder

Hela branschen behöver verkligen omvärdera AI:s tillförlitlighet och verifiering. Användare behöver komma till en punkt där de kan verifiera varje påstående med lätthet.

Alex McFarland är en AI-journalist och författare som utforskar de senaste utvecklingarna inom artificiell intelligens. Han har samarbetat med många AI-startups och publikationer över hela världen.