Connect with us

Tankeledere

Forklarbarhet kan løse hver bransjes AI-problem: Mangel på transparens

mm

Av: Migüel Jetté, VP of R&D Speech, Rev.

I sine første faser kunne AI kanskje hvile på laurelene fra nyheten. Det var greit for maskinlæring å lære sakte og opprettholde en tåkete prosess der AI-regningen var umulig for den gjennomsnittlige forbrukeren å trenge gjennom. Det er i ferd med å endre seg. Etter hvert som flere bransjer, som helse, finans og straffesystem, begynner å bruke AI på måter som kan ha reell innvirkning på folks liv, vil flere mennesker vite hvordan algoritmene brukes, hvordan dataene innhentes og hvor nøyaktige evnene er. Hvis selskaper ønsker å forbli i fremkant av innovasjon i markedene sine, må de stole på AI som deres publikum vil stole på. AI-forklarbarhet er den viktigste ingrediensen for å dykke dette forholdet.

AI-forklarbarhet skiller seg fra standard AI-prosedyrer fordi den tilbyr mennesker en måte å forstå hvordan maskinlæring-algoritmene skaper utdata. Forklarbar AI er et system som kan gi mennesker mulige resultater og svakheter. Det er et maskinlæringssystem som kan oppfylle det menneskelige ønsket om rettferdighet, ansvar og respekt for personvern. Forklarbar AI er avgjørende for bedrifter å bygge tillit hos forbrukerne.

Mens AI utvides, må AI-tilbyderne forstå at den sorte boksen ikke kan. Svarte boks-modeller er skapt direkte fra dataene og ofte kan ikke engang utvikleren som skapte algoritmen identifisere hva som drev maskinens læring. Men den samvittige forbrukeren ønsker ikke å engasjere seg med noe så ugjennomtrengelig at det ikke kan holdes ansvarlig. Folk vil vite hvordan en AI-algoritme kommer frem til et bestemt resultat uten mysteriet om innkommende data og kontrollert utdata, spesielt når AI-feil ofte skyldes maskin-bias. Etter hvert som AI blir mer avansert, vil folk ha tilgang til maskinlæring-prosessen for å forstå hvordan algoritmen kom frem til sitt bestemte resultat. Ledere i hver bransje må forstå at snart vil folk ikke lenger foretrekke denne tilgangen, men kreve den som et nødvendig nivå av transparens.

ASR-systemer, som tale-aktiverede assistenter, transkripsjonsteknologi og andre tjenester som konverterer menneskelig tale til tekst, er spesielt rammet av bias. Når tjenesten brukes til sikkerhetstiltak, kan feil på grunn av aksenter, en persons alder eller bakgrunn, være alvorlige feil, så problemet må tas alvorlig. ASR kan brukes effektivt i politiets body-cams, for eksempel, til å automatisk opptage og transkribere interaksjoner — å holde en rekord som, hvis den transkriberes nøyaktig, kunne redde liv. Praksisen med forklarbarhet vil kreve at AI ikke bare baserer seg på innkjøpte datasett, men søker å forstå karakteristikkene til den innkommende lyden som kan bidra til feil hvis noen finnes. Hva er den akustiske profilen? Er det støy i bakgrunnen? Er taleren fra et ikke-engelsk-land eller fra en generasjon som bruker en vokabular som AI-en ikke har lært ennå? Maskinlæring må være proaktiv i å lære raskere og kan starte med å samle inn data som kan håndtere disse variablene.

Nødvendigheten blir åpenbar, men veien til å implementere denne metoden vil ikke alltid ha en enkel løsning. Den tradisjonelle svaret på problemet er å legge til mer data, men en mer sofistisert løsning vil være nødvendig, spesielt når de innkjøpte datasett mange selskaper bruker, er innebygget bias. Dette skyldes at det historisk sett har vært vanskelig å forklare en bestemt beslutning som ble avgjort av AI, og det skyldes kompleksiteten til sluttpunkt-modellene. Men nå kan vi, og vi kan starte med å spørre hvordan folk mistet tillit til AI fra første sted.

Uunngåelig vil AI gjøre feil. Selskaper må bygge modeller som er klar over mulige svakheter, identifisere når og hvor problemene skjer, og skape løpende løsninger for å bygge sterkere AI-modeller:

  1. Når noe går galt, må utviklerne forklare hva som skjedde og utvikle en umiddelbar plan for å forbedre modellen for å redusere fremtidige, lignende feil.
  2. For at maskinen faktisk skal vite om den var riktig eller feil, må forskerne skape en tilbakekobling så AI kan lære sine svakheter og utvikle seg.
  3. En annen måte for ASR å bygge tillit mens AI-en fortsatt er under utvikling, er å skape et system som kan gi tillitsverdier, og gi grunner til hvorfor AI-en er mindre sikker. For eksempel genererer selskaper vanligvis verdier fra null til 100 for å reflektere AI-ens mangler og etablere transparens med sine kunder. I fremtiden kan systemer gi post-hoc-forklaringer for hvorfor lyden var utfordrende ved å tilby mer metadata om lyden, som oppfattet støynivå eller en mindre forstått aksent.

Ekstra transparens vil resultere i bedre menneskelig tilsyn over AI-trening og ytelse. Jo mer åpen vi er om hvor vi må forbedre oss, jo mer ansvarlige er vi for å iverksette disse forbedringene. For eksempel kan en forsker ønske å vite hvorfor feil tekst ble utgang så de kan mildne problemet, mens en transkript kan ønske bevis for hvorfor ASR misforstod inndata for å hjelpe med vurderingen av dens gyldighet. Å holde mennesker i løkken kan mildne noen av de mest åpenbare problemene som oppstår når AI går ukontrollert. Det kan også påskynde tiden som kreves for AI å fange sine feil, forbedre og til slutt korrigere seg i sanntid.

AI har evnen til å forbedre folks liv, men bare hvis mennesker bygger det til å produsere riktig. Vi må holde ikke bare disse systemene ansvarlige, men også menneskene bak innovasjonen. AI-systemer i fremtiden forventes å følge prinsippene som er fastsatt av mennesker, og bare da vil vi ha et system som mennesker stoler på. Det er på tide å legge grunnarbeidet og strebe etter disse prinsippene nå, mens det fortsatt er mennesker som tjener oss selv.

Miguel Jetté er sjef for AI R&D i Rev, en tale-til-tekst-transkripsjonsplattform som kombinerer AI med dyktige mennesker. Han leder teamet som er ansvarlig for å utvikle verdens mest nøyaktige tale-til-tekst AI-plattform. Lidenskapelig opptatt av å løse komplekse problemer samtidig som han forbedrer liv, er han dedikert til å øke inklusjon og likhet gjennom teknologi. I over to tiår har han arbeidet for å implementere taleteknologier med selskaper som inkluderer Nuance Communications og VoiceBox. Han har en mastergrad i matematikk og statistikk fra McGill University i Montreal. Når han ikke fremmer kommunikasjon gjennom AI, tilbringer han sin tid som fotograf for klippeklatrekonkurranser.