Artificiell intelligens
Vianais nya öppen källkods lösning tacklar AI: s hallucinationsproblem

Det är ingen hemlighet att AI, specifikt Large Language Models (LLM), ibland kan producera felaktiga eller till och med potentiellt skadliga utdata. Dessa avvikelser, som kallas “AI-hallucinationer”, har varit ett betydande hinder för företag som funderar på att integrera LLM på grund av de inbyggda riskerna för ekonomiska, ryktesmässiga och till och med rättsliga konsekvenser.
Genom att ta itu med denna avgörande fråga presenterade Vianai Systems, en föregångare inom Human-Centered AI för företag, sin nya produkt: veryLLM-verktyget. Detta öppna källkodsverktyg syftar till att säkerställa mer tillförlitliga, transparenta och omvandlande AI-system för företagsanvändning.
Utmaningen med AI-hallucinationer
Sådana hallucinationer, där LLM genererar falskt eller stötande innehåll, har varit ett ihållande problem. Många företag, som fruktar potentiella konsekvenser, har dragit sig för att integrera LLM i sina centrala företagssystem. Men med introduktionen av veryLLM under Apache 2.0-licensen för öppen källkod hoppas Vianai på att bygga förtroende och främja AI-användning genom att tillhandahålla en lösning på dessa problem.
Att packa upp veryLLM-verktyget
Till sin kärna möjliggör veryLLM-verktyget en djupare förståelse av varje LLM-genererad mening. Det uppnår detta genom olika funktioner som kategoriserar uttalanden baserat på kontextpooler som LLM är utbildade på, såsom Wikipedia, Common Crawl och Books3. Med den första utgåvan av veryLLM som till stor del förlitar sig på ett urval av Wikipedia-artiklar säkerställer denna metod en solid grund för verktygets verifieringsförfarande.
Verktyget är utformat för att vara anpassningsbart, modulärt och kompatibelt med alla LLM, vilket underlättar dess användning i alla tillämpningar som använder LLM. Detta kommer att förbättra transparensen i AI-genererade svar och stödja både nuvarande och kommande språkmodeller.
Dr. Vishal Sikka, grundare och VD för Vianai Systems och också rådgivare till Stanford Universitys Center for Human-Centered Artificial Intelligence, betonade allvaret i AI-hallucinationsproblemet. Han sa: “AI-hallucinationer utgör allvarliga risker för företag, vilket hindrar deras antagande av AI. Som student i AI under många år är det också välkänt att vi inte kan tillåta att dessa kraftfulla system är ogenomskinliga om grunderna för deras utdata, och vi måste lösa detta brådskande. Vår veryLLM-bibliotek är ett litet första steg för att bringa transparens och förtroende till utdata från alla LLM – transparens som varje utvecklare, dataforskare eller LLM-leverantör kan använda i sina AI-tillämpningar. Vi är glada att bringa dessa funktioner, och många andra anti-hallucinations-tekniker, till företag över hela världen, och jag tror att det är därför vi ser en utan motstycke antagande av våra lösningar.”
Att integrera veryLLM i hila ™ Enterprise
hila ™ Enterprise, en annan lysande produkt från Vianai, fokuserar på den exakta och transparenta distributionen av betydande språkliga företagslösningar inom områden som finans, kontrakt och juridik. Denna plattform integrerar veryLLM-koden, i kombination med andra avancerade AI-tekniker, för att minimera AI-relaterade risker, vilket gör det möjligt för företag att fullt ut utnyttja den omvandlande kraften i tillförlitliga AI-system.
En närmare titt på Vianai Systems
Vianai Systems står som en pionjär inom området Human-Centered AI. Företaget har en kundkrets som består av några av världens mest ansedda företag. Teamets obeskrivliga skicklighet i att skapa företagsplattformar och innovativa tillämpningar särskiljer dem. De har också turen att ha stöd från några av världens mest visionära investerare.












