Connect with us

Förklarbarhet kan ÄtgÀrda varje branschs AI-problem: bristen pÄ transparens

Tankeledare

Förklarbarhet kan ÄtgÀrda varje branschs AI-problem: bristen pÄ transparens

mm

Av: Migüel Jetté, VP of R&D Speech, Rev.

I dess linda skede kunde AI kanske vila på lättjan av nyhet. Det var okej för maskinlärande att lära sig långsamt och upprätthålla en ogenomskinlig process där AI:s beräkning var omöjlig för den genomsnittlige konsumenten att tränga igenom. Det håller på att förändras. När allt fler branscher, såsom hälsovård, finans och rättssystem, börjar använda AI på sätt som kan ha verklig inverkan på människors liv, vill allt fler veta hur algoritmerna används, hur data samlas in och hur exakt dess förmågor är. Om företag vill ligga i framkant av innovation i sina marknader måste de förlita sig på AI som deras publik kommer att lita på. AI-förklarbarhet är den viktigaste ingrediensen för att fördjupa den relationen.

AI-förklarbarhet skiljer sig från standard-AI-förfaranden eftersom den erbjuder människor ett sätt att förstå hur maskinlärandealgoritmer skapar utdata. Förklarbar AI är ett system som kan ge människor potentiella resultat och brister. Det är ett maskinlärande system som kan uppfylla det mänskliga begäret efter rättvisa, ansvar och respekt för integritet. Förklarbar AI är avgörande för företag för att bygga förtroende med konsumenter.

Medan AI utvecklas måste AI-leverantörer förstå att den svarta lådan inte kan. Svarta lådor skapas direkt från data och ofta kan inte ens utvecklaren som skapade algoritmen identifiera vad som drev maskinens inlärda vanor. Men den samvetsgranne konsumenten vill inte engagera sig i något så ogenomträngligt att det inte kan hållas ansvarigt. Människor vill veta hur en AI-algoritm kommer fram till ett specifikt resultat utan mysteriet med källindata och kontrollerad utdata, särskilt när AI:s felberäkningar ofta beror på maskinbias. När AI blir mer avancerad vill människor ha tillgång till maskinlärandeprocessen för att förstå hur algoritmen kom fram till sitt specifika resultat. Ledare inom varje bransch måste förstå att förr eller senare kommer människor inte längre att föredra denna tillgång utan kräva den som en nödvändig nivå av transparens.

ASR-system, såsom röstaktiverade assistenter, transkriptionsteknik och andra tjänster som omvandlar mänskligt tal till text, är särskilt drabbade av bias. När tjänsten används för säkerhetsåtgärder kan fel på grund av accenter, en persons ålder eller bakgrund vara allvarliga fel, så problemet måste tas på allvar. ASR kan användas effektivt i polisskottkameror, till exempel, för att automatiskt spela in och transkribera interaktioner – hålla en register som, om den transkriberas korrekt, kunde rädda liv. Förklarbarhetspraxis kommer att kräva att AI inte bara förlitar sig på inköpta datamängder, utan söker förstå egenskaperna hos den inkommande ljudet som kan bidra till fel om några finns. Vad är den akustiska profilen? Finns det bakgrundsljud? Är talaren från ett icke-engelsktalande land eller från en generation som använder ett ordförråd som AI ännu inte har lärt sig? Maskinlärande måste vara proaktivt i att lära sig snabbare och det kan börja med att samla in data som kan hantera dessa variabler.

Nödvändigheten blir alltmer uppenbar, men vägen till att implementera denna metodik kommer inte alltid att ha en enkel lösning. Det traditionella svaret på problemet är att lägga till mer data, men en mer sofistikerad lösning kommer att krävas, särskilt när de inköpta datamängder som många företag använder är inbyggt fördomsfulla. Detta beror på att det historiskt sett har varit svårt att förklara ett visst beslut som renderats av AI och det beror på komplexiteten i slut-till-slut-modellerna. Men vi kan nu, och vi kan börja med att fråga hur människor förlorade förtroendet för AI från första början.

Oundvikligen kommer AI att göra misstag. Företag måste bygga modeller som är medvetna om potentiella brister, identifiera när och var problemen uppstår och skapa löpande lösningar för att bygga starkare AI-modeller:

  1. När något går fel kommer utvecklare att behöva förklara vad som hände och utveckla en omedelbar plan för att förbättra modellen för att minska framtida, liknande misstag.
  2. För att maskinen faktiskt ska veta om den var rätt eller fel måste forskare skapa en återkopplingsloop så att AI kan lära sig sina brister och utvecklas.
  3. En annan väg för ASR att bygga förtroende medan AI fortfarande förbättras är att skapa ett system som kan ge förtroendepoäng och erbjuda skäl till varför AI är mindre säker. Till exempel genererar företag vanligtvis poäng från 0 till 100 för att återspegla sina egna AI:s ofullkomligheter och etablera transparens med sina kunder. I framtiden kan system tillhandahålla efterföljande förklaringar till varför ljudet var utmanande genom att erbjuda mer metadata om ljudet, såsom upplevd ljudnivå eller en mindre förstådd accent.

Ytterligare transparens kommer att resultera i bättre mänsklig tillsyn av AI-utbildning och prestation. Ju mer vi är öppna med var vi behöver förbättras, desto mer ansvariga är vi för att vidta åtgärder för dessa förbättringar. Till exempel kan en forskare vilja veta varför felaktig text utmatades så att de kan mildra problemet, medan en transkriberare kan vilja ha bevis för varför ASR missförstod inmatningen för att hjälpa till med bedömningen av dess giltighet. Att hålla människor i loopen kan mildra några av de mest uppenbara problemen som uppstår när AI lämnas oövervakad. Det kan också påskynda den tid som krävs för AI att upptäcka sina fel, förbättra och slutligen korrigera sig i realtid.

AI har förmågan att förbättra människors liv, men bara om människor bygger det för att producera ordentligt. Vi måste hålla inte bara dessa system ansvariga, utan också människorna bakom innovationen. AI-system i framtiden förväntas följa principerna som fastställs av människor, och först då kommer vi att ha ett system som människor litar på. Det är dags att lägga grunden och sträva efter dessa principer nu medan det fortfarande är människor som betjänar oss själva.

Miguel Jetté Àr chef för AI R&D pÄ Rev, en tal-till-text-transkriptionsplattform som kombinerar AI med skickliga mÀnniskor. Han leder teamet som ansvarar för att utveckla vÀrldens mest exakta tal-till-text-AI-plattform. Passionerad om att lösa komplexa problem samtidigt som han förbÀttrar liv, Àr han dedikerad till att öka byggnadsinclusion och jÀmlikhet genom teknik. Under mer Àn tvÄ decennier har han arbetat för att implementera röstteknologier med företag, inklusive Nuance Communications och VoiceBox. Han avlade en masterexamen i matematik och statistik frÄn McGill University i Montreal. NÀr han inte frÀmjar kommunikation genom AI, tillbringar han sin tid som fotograf för bergsklÀttertÀvlingar.