Kunstig intelligens
Vianais nye åpne kildekods-løsning takler AI-s hallusinasjonsproblem

Det er ingen hemmelighet at AI, spesielt Large Language Models (LLMs), kan av og til produsere uriktige eller til og med potensielt skadelige utdata. Kalt “AI-hallusinasjoner”, har disse anomaliene vært en betydelig hindring for bedrifter som vurdere LLM-integrasjon på grunn av de innebygde risikoene for finansielle, reputasjonsmessige og til og med juridiske konsekvenser.
For å møte denne avgjørende bekymringen, har Vianai Systems, en frontløper i bedrifts Human-Centered AI, lansert sitt nye tilbud: veryLLM-verktøyet. Dette åpne kildekods-verktøyet er rettet mot å sikre mer pålitelige, transparente og transformative AI-systemer for bedriftsbruk.
Utfordringen med AI-hallusinasjoner
Slike hallusinasjoner, som ser LLMs generere falske eller offensive innhold, har vært et vedvarende problem. Mange bedrifter, som frykter potensielle reaksjoner, har holdt seg tilbake fra å inkorporere LLMs i sine sentrale bedriftssystemer. Men med introduksjonen av veryLLM, under Apache 2.0 åpen kildekods-lisens, håper Vianai å bygge tillit og fremme AI-adoptsjon ved å tilby en løsning på disse problemene.
Å pakke ut veryLLM-verktøyet
I sin kjerne, tillater veryLLM-verktøyet en dypere forståelse av hver LLM-generert setning. Det oppnås gjennom ulike funksjoner som kategoriserer uttalelser basert på kontekst-pooler LLMs er trenet på, som Wikipedia, Common Crawl og Books3. Med den innledende utgivelsen av veryLLM som sterkt avhenger av et utvalg av Wikipedia-artikler, sikrer denne metoden en solid grunn for verktøyet sitt verifiseringsprosess.
Verktøyet er designet for å være adaptivt, modulært og kompatibelt med alle LLMs, og det lett å bruke i enhver applikasjon som bruker LLMs. Dette vil forbedre transparensen i AI-genererte svar og støtte både nåværende og kommende språkmodeller.
Dr. Vishal Sikka, grunnlegger og CEO av Vianai Systems og også rådgiver for Stanford Universitys Center for Human-Centered Artificial Intelligence, understreket alvoret i AI-hallusinasjonsproblemet. Han sa: “AI-hallusinasjoner utgjør alvorlige risikoer for bedrifter, og holder tilbake deres AI-adoptsjon. Som en student av AI i mange år, er det også bare godt kjent at vi ikke kan tillate disse kraftige systemene å være uklare om grunnlaget for deres utdata, og vi må急 løse dette. Vårt veryLLM-bibliotek er et lite første skritt for å bringe transparens og tillit til utdataene fra enhver LLM – transparens som enhver utvikler, data-vitenskapsmann eller LLM-leverandør kan bruke i sine AI-applikasjoner. Vi er spente på å bringe disse kapasitetene, og mange andre anti-hallusinasjonsteknikker, til bedrifter over hele verden, og jeg tror dette er hvorfor vi ser en utenkelig adoptering av våre løsninger.”
Integrering av veryLLM i hila™ Enterprise
hila™ Enterprise, et annet stjerneløsning fra Vianai, fokuserer på den nøyaktige og transparente implementeringen av betydelige språk-bedriftsløsninger over sektorer som finansielle, kontrakter og juridiske. Denne plattformen integrerer veryLLM-koden, kombinert med andre avanserte AI-teknikker, for å minimere AI-assosierte risikoer, og lar bedrifter fullt ut nyte den transformative kraften av pålitelige AI-systemer.
En nærmere titt på Vianai Systems
Vianai Systems står tall som en pionér i området Human-Centered AI. Bedriften har en kundeportefølje som består av noen av verdens mest anerkjente bedrifter. Deres teams uforlignelige dyktighet i å lage bedrifts-plattformer og innovative applikasjoner skiller dem fra andre. De er også heldige å ha støtten fra noen av verdens mest visjonære investorer.












