Connect with us

Kunstig intelligens

Vianais nye open-source-løsning tackler AI’s hallucinationsproblem

mm

Det er ingen hemmelighed, at AI, specifikt Large Language Models (LLMs), kan producere uændelige eller endda potentielt skadelige outputs. Døbt som “AI hallucinationer”, har disse anomalier været en betydelig barriere for virksomheder, der overvejer at integrere LLM’er på grund af de indre risici for finansielle, reputationsmæssige og endda juridiske konsekvenser.

For at imødekomme denne afgørende bekymring har Vianai Systems, en frontløber i enterprise Human-Centered AI, præsenteret sin nye tilbud: veryLLM-værktøjet. Dette open-source-værktøj er designet til at sikre mere pålidelige, gennemsigtige og transformative AI-systemer til erhvervsbrug.

Udfordringen med AI-hallucinationer

Sådanne hallucinationer, der får LLM’er til at generere falsk eller stødende indhold, har været et vedvarende problem. Mange virksomheder, der frygter potentielle konsekvenser, har holdt sig tilbage fra at integrere LLM’er i deres centrale virksomhedssystemer. Men med introduktionen af veryLLM under Apache 2.0 open-source-licensen håber Vianai at opbygge tillid og fremme AI-adopter ved at tilbyde en løsning på disse problemer.

At pakke veryLLM-værktøjet ud

I sin kerne giver veryLLM-værktøjet mulighed for en dybere forståelse af hver LLM-genereret sætning. Det opnås gennem forskellige funktioner, der kategoriserer udsagn baseret på kontekst-pools, LLM’er er trænet på, såsom Wikipedia, Common Crawl og Bøger3. Med den indledende udgivelse af veryLLM, der stærkt afhænger af en udvalg af Wikipedia-artikler, sikrer denne metode en solid grund for værktøjets verifikationsprocedure.

Værktøjet er designet til at være adaptivt, modulært og kompatibelt med alle LLM’er, hvilket faciliterer dets brug i enhver applikation, der anvender LLM’er. Dette vil forbedre gennemsigtigheden i AI-genererede svar og understøtte både nuværende og kommende sprogmodeller.

Dr. Vishal Sikka, grundlægger og administrerende direktør for Vianai Systems og også rådgiver for Stanford University’s Center for Human-Centered Artificial Intelligence, understregede alvoren af AI-hallucinationsproblemet. Han sagde: “AI-hallucinationer udgør alvorlige risici for virksomheder, der holder tilbage deres adoption af AI. Som en studerende af AI i mange år er det også blot velkendt, at vi ikke kan tillade, at disse kraftfulde systemer er uigennemsigtige omkring grundlaget for deres outputs, og vi må løse dette med det samme. Vores veryLLM-bibliotek er et lille første skridt for at bringe gennemsigtighed og tillid til outputtet af enhver LLM – gennemsigtighed, som enhver udvikler, datavidenskabsmand eller LLM-leverandør kan bruge i deres AI-applikationer. Vi er begejstrede for at bringe disse funktioner og mange andre anti-hallucinations-teknikker til virksomheder verden over, og jeg tror, det er derfor, vi ser en uden precedent adoption af vores løsninger.”

At integrere veryLLM i hila™ Enterprise

hila™ Enterprise, et andet stjernespækket produkt fra Vianai, fokuserer på den præcise og gennemsigtige implementering af væsentlige sprogvirksomhedsløsninger på tværs af sektorer som finansielle, kontrakter og juridiske. Denne platform integrerer veryLLM-koden kombineret med andre avancerede AI-teknikker for at minimere AI-relaterede risici, så virksomheder kan fuldt ud udnytte den transformative kraft af pålidelige AI-systemer.

Et nærmere kig på Vianai Systems

Vianai Systems står som en pioner i området Human-Centered AI. Virksomheden har en kundeportefølje, der består af nogle af verdens mest anerkendte virksomheder. Teamets enestående dygtighed i at skabe virksomhedsplatforme og innovative applikationer adskiller dem. De er også heldige at have støtte fra nogle af verdens mest visionære investorer.

Daniel er en stor tilhænger af, hvordan AI til sidst vil forstyrre alt. Han ånder teknologi og lever for at prøve nye gadgets.