Tankeledare
Att prioritera tillit i AI

Samhällets tillit till artificiell intelligens (AI) och maskinlärningsapplikationer (ML) fortsätter att växa, och omdefinierar hur information konsumeras. Från AI-drivna chatbots till informations synteser producerade från stora språkmodeller (LLM), har samhället tillgång till mer information och djupare insikter än någonsin tidigare. Men när teknologiföretag tävlar om att implementera AI över hela sin värdekedja, finns en kritisk fråga. Kan vi verkligen lita på utdata från AI-lösningar?
Kan vi verkligen lita på AI-utdata utan osäkerhetskvantifiering
För en given indata kan en modell ha genererat många andra lika trovärdiga utdata. Detta kan bero på otillräcklig träningsdata, variationer i träningsdata eller andra orsaker. När modeller distribueras kan organisationer använda osäkerhetskvantifiering för att ge sina slutanvändare en tydligare förståelse för hur mycket de ska lita på utdata från en AI/ML-modell. Osäkerhetskvantifiering är processen att uppskatta vad dessa andra utdata kunde ha varit.
Tänk dig en modell som förutspår morgondagens högsta temperatur. Modellen kan generera utdata 21ºC, men osäkerhetskvantifiering som tillämpas på den utdatan kan indikera att modellen lika gärna kunde ha genererat utdata 12 ºC, 15 ºC eller 16 ºC; med vetskap om detta, hur mycket litar vi nu på den enkla förutsägelsen om 20 ºC? Trots sin potential att inge tillit eller att råda försiktighet, väljer många organisationer att hoppa över osäkerhetskvantifiering på grund av den extra arbete de behöver göra för att implementera det, samt på grund av dess krav på beräkningsresurser och inferenshastighet.
Human-in-the-loop-system, såsom medicinska diagnostik- och prognossystem, involverar människor som en del av beslutsprocessen. Genom att blint lita på data från hälso- och sjukvårds AI/ML-lösningar, riskerar hälso- och sjukvårdspersonal att missdiagnosticera en patient, vilket potentiellt kan leda till undermåliga hälsoresultat – eller värre. Osäkerhetskvantifiering kan tillåta hälso- och sjukvårdspersonal att se, kvantitativt, när de kan placera mer tillit till utdata från AI och när de bör behandla specifika förutsägelser med försiktighet. Likaså, i ett fullt automatiserat system som ett självkörande fordon, kan utdata från en modell för att uppskatta avståndet till ett hinder leda till en krasch som hade kunnat undvikas med osäkerhetskvantifiering av avståndsbedömningen.
Utanförigheten att utnyttja Monte Carlo-metoder för att bygga tillit i AI/ML-modeller
Monte Carlo-metoder, utvecklade under Manhattanprojektet, är ett robust sätt att utföra osäkerhetskvantifiering. De innebär att man kör om algoritmerna upprepade gånger med något olika indata tills ytterligare iterationer inte ger mycket mer information i utdata; när processen når ett sådant tillstånd, sägs den ha konvergerat. En nackdel med Monte Carlo-metoder är att de vanligtvis är långsamma och beräkningsintensiva, och kräver många upprepningar av sina beståndsdelar för att få en konvergerad utdata och har en inneboende variabilitet över dessa utdata. Eftersom Monte Carlo-metoder använder utdata från slumpgenererare som en av sina viktigaste byggstenar, kommer resultaten du får att förändras när du upprepar processen med identiska parametrar.
Vägen framåt till tillförlitlighet i AI/ML-modeller
Till skillnad från traditionella servrar och AI-specifika acceleratorer, utvecklas en ny typ av beräkningsplattformar för att direkt bearbeta empiriska sannolikhetsfördelningar på samma sätt som traditionella beräkningsplattformar bearbetar heltal och flyttalsvärden. Genom att distribuera sina AI-modeller på dessa plattformar kan organisationer automatisera implementeringen av osäkerhetskvantifiering på sina förtränade modeller och kan också påskynda andra typer av beräkningsuppgifter som traditionellt har använt Monte Carlo-metoder, såsom VaR-beräkningar i finans. I synnerhet för VaR-scenariot, tillåter denna nya typ av plattformar organisationer att arbeta med empiriska distributioner byggda direkt från riktiga marknadsdata, snarare än att approximera dessa distributioner med prover genererade av slumpgenererare, för mer exakta analyser och snabbare resultat.
Nya genombrott inom beräkning har avsevärt sänkt hindren för osäkerhetskvantifiering. En nyligen publicerad forskningsartikel av mina kollegor och jag, i Machine Learning With New Compute Paradigms workshop at NeurIPS 2024, belyser hur en nästa generations beräkningsplattform vi utvecklat möjliggjorde osäkerhetskvantifieringsanalys att köras över 100 gånger snabbare jämfört med att köra traditionella Monte-Carlo-baserade analyser på en högpresterande Intel-Xeon-baserad server. Sådana framsteg tillåter organisationer som distribuerar AI-lösningar att implementera osäkerhetskvantifiering med lätthet och att köra sådan osäkerhetskvantifiering med låga overhead-kostnader.
Framtiden för AI/ML-tillförlitlighet beror på avancerad nästa generations beräkning
När organisationer integrerar fler AI-lösningar i samhället, kommer tillförlitlighet i AI/ML att bli en topprioritet. Företag kan inte längre unna sig att hoppa över att implementera anläggningar i sina AI-modell distributioner för att låta konsumenter veta när de ska behandla specifika AI-modell utdata med skepsis. Kraven på sådan förklarbarhet och osäkerhetskvantifiering är tydlig, med ungefär tre av fyra personer som indikerar att de skulle vara mer benägna att lita på ett AI-system om lämpliga säkerhetsmekanismer var på plats.
Nya beräkningsteknologier gör det allt enklare att implementera och distribuera osäkerhetskvantifiering. Medan branschen och regulatoriska organ brottas med andra utmaningar förknippade med att distribuera AI i samhället, finns det åtminstone en möjlighet att inge den tillit som människor kräver, genom att göra osäkerhetskvantifiering till normen i AI-distributioner.












