stub Forklarlighet kan løse enhver industris AI-problem: mangelen på åpenhet - Unite.AI
Kontakt med oss

Tankeledere

Forklarlighet kan løse enhver industris AI-problem: mangelen på åpenhet

mm

Publisert

 on

Av: Migüel Jetté, VP of R&D Speech, Rev.

I sine begynnende stadier kan AI ha vært i stand til å hvile på laurbærene av nyhet. Det var greit for maskinlæring å lære sakte og opprettholde en ugjennomsiktig prosess der AI-beregningen er umulig for den gjennomsnittlige forbrukeren å trenge gjennom. Det er i endring. Etter hvert som flere bransjer som helsevesen, finans og strafferettssystemet begynner å utnytte AI på måter som kan ha reell innvirkning på folks liv, ønsker flere å vite hvordan algoritmene blir brukt, hvordan dataene blir hentet, og bare hvor nøyaktige dens evner er. Hvis selskaper ønsker å være i forkant av innovasjon i sine markeder, må de stole på AI som publikum vil stole på. AI-forklaring er nøkkelingrediensen for å utdype dette forholdet.

AI-forklarbarhet skiller seg fra standard AI-prosedyrer fordi det gir folk en måte å forstå hvordan maskinlæringsalgoritmene skaper utdata. Forklarlig AI er et system som kan gi folk potensielle utfall og mangler. Det er et maskinlæringssystem som kan oppfylle det menneskelige ønsket om rettferdighet, ansvarlighet og respekt for personvern. Forklarlig AI er avgjørende for at bedrifter skal bygge tillit hos forbrukerne.

Mens AI utvides, må AI-leverandører forstå at den svarte boksen ikke kan. Black box-modeller lages direkte fra dataene, og ofte kan ikke engang utvikleren som opprettet algoritmen identifisere hva som drev maskinens innlærte vaner. Men den samvittighetsfulle forbrukeren ønsker ikke å engasjere seg i noe så ugjennomtrengelig at det ikke kan holdes ansvarlig. Folk vil vite hvordan en AI-algoritme kommer frem til et spesifikt resultat uten mysteriet med kildeinndata og kontrollert utgang, spesielt når AIs feilberegninger ofte skyldes maskinforstyrrelser. Etter hvert som AI blir mer avansert, vil folk ha tilgang til maskinlæringsprosessen for å forstå hvordan algoritmen kom til det spesifikke resultatet. Ledere i alle bransjer må forstå at før eller siden vil folk ikke lenger foretrekke denne tilgangen, men kreve det som et nødvendig nivå av åpenhet.

ASR-systemer som stemmeaktiverte assistenter, transkripsjonsteknologi og andre tjenester som konverterer menneskelig tale til tekst er spesielt plaget av skjevheter. Når tjenesten brukes til sikkerhetstiltak, kan feil på grunn av aksenter, en persons alder eller bakgrunn være alvorlige feil, så problemet må tas på alvor. ASR kan brukes effektivt i politikameraer, for eksempel for å automatisk registrere og transkribere interaksjoner – holde en oversikt som, hvis den transkriberes nøyaktig, kan redde liv. Praksisen med forklarbarhet vil kreve at AI ikke bare er avhengig av kjøpte datasett, men søker å forstå egenskapene til den innkommende lyden som kan bidra til feil hvis noen eksisterer. Hva er den akustiske profilen? Er det støy i bakgrunnen? Er foredragsholderen fra et land som ikke er engelsk først, eller fra en generasjon som bruker et vokabular AI ennå ikke har lært? Maskinlæring må være proaktiv i å lære raskere, og det kan starte med å samle inn data som kan adressere disse variablene.

Nødvendigheten blir åpenbar, men veien til implementering av denne metodikken vil ikke alltid ha en enkel løsning. Det tradisjonelle svaret på problemet er å legge til mer data, men en mer sofistikert løsning vil være nødvendig, spesielt når de kjøpte datasettene mange bedrifter bruker er iboende partiske. Dette er fordi det historisk sett har vært vanskelig å forklare en bestemt avgjørelse som ble tatt av AI, og det er på grunn av kompleksiteten til ende-til-ende-modellene. Imidlertid kan vi nå, og vi kan starte med å spørre hvordan folk mistet tilliten til AI i utgangspunktet.

Uunngåelig vil AI gjøre feil. Bedrifter må bygge modeller som er klar over potensielle mangler, identifisere når og hvor problemene skjer, og skape løpende løsninger for å bygge sterkere AI-modeller:

  1. Når noe går galt, må utviklerne forklare hva som skjedde og utarbeide en umiddelbar plan for å forbedre modellen for å redusere fremtidige lignende feil.
  2. For at maskinen faktisk skal vite om den var rett eller gal, må forskerne gjøre det lage en tilbakemeldingssløyfe slik at AI kan lære sine mangler og utvikle seg.
  3. En annen måte for ASR å bygge tillit mens AI fortsatt forbedres, er å lage et system som kan gi tillitsscore, og gi grunner til hvorfor AI er mindre selvsikker. For eksempel genererer bedrifter vanligvis score fra null til 100 for å gjenspeile deres egen AIs ufullkommenhet og etablere åpenhet med kundene sine. I fremtiden kan systemer gi post-hoc forklaringer på hvorfor lyden var utfordrende ved å tilby mer metadata om lyden, for eksempel opplevd støynivå eller en mindre forstått aksent.

Ytterligere åpenhet vil resultere i bedre menneskelig tilsyn med AI-trening og ytelse. Jo mer vi er åpne om hvor vi må forbedre oss, jo mer ansvarlige er vi for å iverksette tiltak på disse forbedringene. For eksempel kan en forsker ønske å vite hvorfor feil tekst ble skrevet ut slik at de kan redusere problemet, mens en transkripsjonist kanskje vil ha bevis på hvorfor ASR feiltolket inndataene for å hjelpe med deres vurdering av gyldigheten. Å holde mennesker i løkken kan dempe noen av de mest åpenbare problemene som oppstår når AI blir ukontrollert. Det kan også øke tiden det tar for AI å fange opp feilene, forbedre og til slutt korrigere seg selv i sanntid.

AI har evnene til å forbedre folks liv, men bare hvis mennesker bygger den for å produsere riktig. Vi må holde ikke bare disse systemene ansvarlige, men også menneskene bak innovasjonen. Fremtidens AI-systemer forventes å følge prinsippene som er satt frem av folk, og bare inntil da vil vi ha et system folk stoler på. Det er på tide å legge grunnlaget og strebe etter disse prinsippene nå mens det til syvende og sist fortsatt er mennesker som tjener oss selv.

Miguel Jetté er leder for AI R&D ved Rev, en tale-til-tekst-transkripsjonsplattform som kombinerer AI med dyktige mennesker. Han leder teamet som er ansvarlig for å utvikle verdens mest nøyaktige tale-til-tekst AI-plattform. Han er lidenskapelig opptatt av å løse komplekse problemer samtidig som han forbedrer liv, og er dedikert til å øke inkludering og likhet gjennom teknologi. I over to tiår har han jobbet med å implementere taleteknologier med selskaper inkludert Nuance Communications og VoiceBox. Han tok en master i matematikk og statistikk fra McGill University i Montreal. Når han ikke fremmer kommunikasjonen gjennom AI, bruker han tiden sin som fotograf for fjellklatrekonkurranser.