stub Forklarlighed kan løse enhver industris AI-problem: Manglen på gennemsigtighed - Unite.AI
Følg os

Tanke ledere

Forklarlighed kan løse enhver industris AI-problem: Manglen på gennemsigtighed

mm

Udgivet

 on

Af: Migüel Jetté, VP for R&D Speech, Rev.

I sine begyndende stadier har AI muligvis været i stand til at hvile på laurbærrene af nyhed. Det var okay for maskinlæring at lære langsomt og opretholde en uigennemsigtig proces, hvor AI'ens beregning er umulig for den gennemsnitlige forbruger at trænge igennem. Det er ved at ændre sig. Efterhånden som flere industrier såsom sundhedspleje, finans og strafferetssystemet begynder at udnytte kunstig intelligens på måder, der kan have reel indflydelse på folks liv, vil flere mennesker gerne vide, hvordan algoritmerne bliver brugt, hvordan dataene kommer fra, og bare hvor nøjagtige dens muligheder er. Hvis virksomheder ønsker at forblive på forkant med innovation på deres markeder, skal de stole på AI, som deres publikum vil stole på. AI-forklarlighed er nøgleingrediensen til at uddybe dette forhold.

AI-forklarlighed adskiller sig fra standard AI-procedurer, fordi det giver folk en måde at forstå, hvordan maskinlæringsalgoritmerne skaber output. Forklarlig AI er et system, der kan give folk potentielle resultater , mangler. Det er et maskinlæringssystem, der kan opfylde det meget menneskelige ønske om retfærdighed, ansvarlighed og respekt for privatlivets fred. Forklarlig AI er bydende nødvendigt for virksomheder at opbygge tillid hos forbrugerne.

Mens AI udvides, skal AI-udbydere forstå, at den sorte boks ikke kan. Black box-modeller er skabt direkte fra dataene, og ofte kan ikke engang udvikleren, der har skabt algoritmen, identificere, hvad der drev maskinens indlærte vaner. Men den samvittighedsfulde forbruger ønsker ikke at engagere sig i noget så uigennemtrængeligt, at det ikke kan drages til ansvar. Folk vil gerne vide, hvordan en AI-algoritme når frem til et specifikt resultat uden mysteriet med kildeinput og kontrolleret output, især når AI's fejlberegninger ofte skyldes maskinforstyrrelser. Efterhånden som AI bliver mere avanceret, vil folk have adgang til maskinlæringsprocessen for at forstå, hvordan algoritmen kom til sit specifikke resultat. Ledere i enhver branche må forstå, at før eller siden vil folk ikke længere foretrække denne adgang, men kræve det som et nødvendigt niveau af gennemsigtighed.

ASR-systemer såsom stemmeaktiverede assistenter, transskriptionsteknologi og andre tjenester, der konverterer menneskelig tale til tekst, er især plaget af skævheder. Når tjenesten bruges til sikkerhedsforanstaltninger, kan fejl på grund af accenter, en persons alder eller baggrund være alvorlige fejl, så problemet skal tages alvorligt. ASR kan bruges effektivt i politiets kropskameraer, for eksempel til automatisk at optage og transskribere interaktioner - ved at holde en registrering, der, hvis den transskriberes nøjagtigt, kan redde liv. Forklarlighedspraksis vil kræve, at AI ikke kun er afhængig af købte datasæt, men søger at forstå egenskaberne ved den indkommende lyd, der kan bidrage til fejl, hvis der findes nogen. Hvad er den akustiske profil? Er der støj i baggrunden? Er taleren fra et ikke-engelsk-første land eller fra en generation, der bruger et ordforråd, som AI endnu ikke har lært? Maskinlæring skal være proaktiv med at lære hurtigere, og den kan starte med at indsamle data, der kan adressere disse variabler.

Nødvendigheden er ved at blive indlysende, men vejen til at implementere denne metode vil ikke altid have en nem løsning. Det traditionelle svar på problemet er at tilføje flere data, men en mere sofistikeret løsning vil være nødvendig, især når de købte datasæt mange virksomheder bruger i sagens natur er forudindtaget. Dette skyldes, at det historisk set har været svært at forklare en bestemt beslutning, der blev truffet af AI, og det skyldes karakteren af ​​kompleksiteten af ​​end-to-end modellerne. Det kan vi dog nu, og vi kan starte med at spørge, hvordan folk mistede tilliden til AI i første omgang.

Uundgåeligt vil AI begå fejl. Virksomheder skal bygge modeller, der er opmærksomme på potentielle mangler, identificere hvornår og hvor problemerne sker, og skabe løbende løsninger for at bygge stærkere AI-modeller:

  1. Når noget går galt, bliver udviklere nødt til at forklare, hvad der skete og udarbejde en umiddelbar plan for at forbedre modellen for at mindske fremtidige lignende fejl.
  2. For at maskinen rent faktisk kan vide, om den var rigtig eller forkert, er det nødvendigt for forskerne oprette en feedback-loop så AI kan lære sine mangler og udvikle sig.
  3. En anden måde for ASR at opbygge tillid, mens AI'en stadig forbedres, er at skabe et system, der kan give tillidsscore, og give grunde til, hvorfor AI er mindre selvsikker. For eksempel genererer virksomheder typisk score fra nul til 100 for at afspejle deres egne AI's ufuldkommenheder og etablere gennemsigtighed med deres kunder. I fremtiden kan systemer give post-hoc forklaringer på, hvorfor lyden var udfordrende ved at tilbyde flere metadata om lyden, såsom opfattet støjniveau eller en mindre forstået accent.

Yderligere gennemsigtighed vil resultere i bedre menneskelig overvågning af AI-træning og præstation. Jo mere vi er åbne om, hvor vi skal forbedre os, jo mere ansvarlige er vi over for at handle på disse forbedringer. For eksempel kan en forsker gerne vide, hvorfor fejlagtig tekst blev udskrevet, så de kan afhjælpe problemet, mens en transskriptionist måske vil have dokumentation for, hvorfor ASR fejlfortolkede inputtet for at hjælpe med deres vurdering af dets gyldighed. At holde mennesker i løkken kan afbøde nogle af de mest åbenlyse problemer, der opstår, når AI ikke kontrolleres. Det kan også fremskynde den tid, det tager for AI at fange sine fejl, forbedre og til sidst rette sig selv i realtid.

AI har evnerne til at forbedre folks liv, men kun hvis mennesker bygger det til at producere ordentligt. Vi er nødt til at holde ikke kun disse systemer ansvarlige, men også folkene bag innovationen. Fremtidens AI-systemer forventes at overholde de principper, som folk har fremsat, og kun indtil da vil vi have et system, folk stoler på. Det er tid til at lægge grunden og stræbe efter disse principper nu, mens det i sidste ende stadig er mennesker, der tjener os selv.

Miguel Jetté er leder af AI R&D ved Rev, en tale-til-tekst-transskriptionsplatform, der kombinerer AI med dygtige mennesker. Han leder teamet, der er ansvarligt for at udvikle verdens mest nøjagtige tale-til-tekst AI-platform. Han brænder for at løse komplekse problemer og samtidig forbedre livet, og han er dedikeret til at øge opbygningen af ​​inklusion og lighed gennem teknologi. I over to årtier har han arbejdet på at implementere taleteknologier med virksomheder, herunder Nuance Communications og VoiceBox. Han fik en master i matematik og statistik fra McGill University i Montreal. Når han ikke fremmer kommunikationen gennem AI, bruger han sin tid som fotograf til klatrekonkurrencer.