stomp Uitlegbaarheid kan het AI-probleem van elke branche aanpakken: het gebrek aan transparantie - Unite.AI
Verbind je met ons

Gedachte leiders

Uitlegbaarheid kan het AI-probleem van elke branche aanpakken: het gebrek aan transparantie

mm

gepubliceerd

 on

Door: Migüel Jetté, VP R&D Speech, Rev.

In de beginfase heeft AI wellicht kunnen rusten op de lauweren van nieuwheid. Het was prima dat machinaal leren langzaam leerde en een ondoorzichtig proces in stand hield waar de berekening van de AI voor de gemiddelde consument onmogelijk door te dringen was. Dat is aan het veranderen. Nu steeds meer sectoren, zoals de gezondheidszorg, de financiële sector en het strafrechtsysteem, AI beginnen te gebruiken op een manier die een echte impact kan hebben op het leven van mensen, willen steeds meer mensen weten hoe de algoritmen worden gebruikt, hoe de gegevens worden verkregen en hoe hoe nauwkeurig zijn mogelijkheden zijn. Als bedrijven voorop willen blijven lopen op het gebied van innovatie in hun markten, moeten ze vertrouwen op AI die hun publiek zal vertrouwen. De uitlegbaarheid van AI is het belangrijkste ingrediënt om die relatie te verdiepen.

AI-uitlegbaarheid verschilt van standaard AI-procedures omdat het mensen een manier biedt om te begrijpen hoe de algoritmen voor machine learning output creëren. Explainable AI is een systeem dat mensen mogelijke uitkomsten kan bieden en tekortkomingen. Het is een machine learning-systeem dat het zeer menselijke verlangen naar eerlijkheid, verantwoordelijkheid en respect voor privacy kan vervullen. Verklaarbare AI is absoluut noodzakelijk voor bedrijven om vertrouwen op te bouwen bij consumenten.

Terwijl AI zich uitbreidt, moeten AI-providers begrijpen dat de black box dat niet kan. Black box-modellen worden rechtstreeks op basis van de gegevens gemaakt en vaak kan zelfs de ontwikkelaar die het algoritme heeft gemaakt niet identificeren wat de aangeleerde gewoonten van de machine heeft veroorzaakt. Maar de gewetensvolle consument wil zich niet bezighouden met iets dat zo ondoordringbaar is dat het niet ter verantwoording kan worden geroepen. Mensen willen weten hoe een AI-algoritme tot een specifiek resultaat komt zonder het mysterie van input uit bronnen en gecontroleerde output, vooral wanneer de misrekeningen van AI vaak te wijten zijn aan machinevooroordelen. Naarmate AI geavanceerder wordt, willen mensen toegang tot het machine learning-proces om te begrijpen hoe het algoritme tot zijn specifieke resultaat is gekomen. Leiders in elke branche moeten begrijpen dat mensen vroeg of laat niet langer de voorkeur zullen geven aan deze toegang, maar deze zullen eisen als een noodzakelijk niveau van transparantie.

ASR-systemen zoals spraakgestuurde assistenten, transcriptietechnologie en andere diensten die menselijke spraak omzetten in tekst zijn bijzonder geplaagd door vooroordelen. Wanneer de service wordt gebruikt voor veiligheidsmaatregelen, kunnen fouten als gevolg van accenten, iemands leeftijd of achtergrond ernstige fouten zijn, dus het probleem moet serieus worden genomen. ASR kan bijvoorbeeld effectief worden gebruikt in bodycams van de politie om interacties automatisch vast te leggen en te transcriberen - een record bijhouden dat, indien nauwkeurig getranscribeerd, levens kan redden. De praktijk van verklaarbaarheid vereist dat de AI niet alleen vertrouwt op gekochte datasets, maar probeert de kenmerken van de binnenkomende audio te begrijpen die kunnen bijdragen aan eventuele fouten. Wat is het akoestische profiel? Is er ruis op de achtergrond? Komt de spreker uit een niet-Engelstalig land of uit een generatie die een vocabulaire gebruikt dat de AI nog niet heeft geleerd? Machine learning moet proactief zijn om sneller te leren en kan beginnen met het verzamelen van gegevens die deze variabelen kunnen aanpakken.

De noodzaak wordt duidelijk, maar de weg naar het implementeren van deze methodologie zal niet altijd een gemakkelijke oplossing hebben. Het traditionele antwoord op het probleem is om meer data toe te voegen, maar er zal een meer geavanceerde oplossing nodig zijn, vooral wanneer de gekochte datasets die veel bedrijven gebruiken inherent bevooroordeeld zijn. Dit komt omdat het historisch gezien moeilijk was om een ​​bepaalde beslissing uit te leggen die door de AI werd genomen en dat komt door de aard van de complexiteit van de end-to-end-modellen. We kunnen het nu echter wel, en we kunnen beginnen met de vraag hoe mensen in de eerste plaats het vertrouwen in AI hebben verloren.

AI zal onvermijdelijk fouten maken. Bedrijven moeten modellen bouwen die zich bewust zijn van mogelijke tekortkomingen, identificeren wanneer en waar de problemen zich voordoen, en doorlopende oplossingen bedenken om sterkere AI-modellen te bouwen:

  1. Als er iets misgaat, zullen ontwikkelaars moeten uitleggen wat er is gebeurd en een onmiddellijk plan ontwikkelen voor het verbeteren van het model om toekomstige, soortgelijke fouten te verminderen.
  2. Om de machine daadwerkelijk te laten weten of het goed of fout was, moeten wetenschappers dat doen creëer een feedbackloop zodat AI zijn tekortkomingen kan leren en kan evolueren.
  3. Een andere manier voor ASR om vertrouwen op te bouwen terwijl de AI nog aan het verbeteren is, is door creëer een systeem dat betrouwbaarheidsscores kan gevenen geef redenen waarom de AI minder vertrouwen heeft. Bedrijven genereren bijvoorbeeld doorgaans scores van nul tot 100 om de onvolkomenheden van hun eigen AI weer te geven en transparantie met hun klanten tot stand te brengen. In de toekomst kunnen systemen achteraf verklaren waarom de audio uitdagend was door meer metadata over de audio te bieden, zoals het waargenomen geluidsniveau of een minder begrepen accent.

Extra transparantie zal resulteren in beter menselijk toezicht op AI-training en -prestaties. Hoe meer we open zijn over waar we moeten verbeteren, hoe meer verantwoordelijk we zijn om actie te ondernemen voor die verbeteringen. Een onderzoeker kan bijvoorbeeld willen weten waarom er foutieve tekst is uitgevoerd, zodat hij het probleem kan verhelpen, terwijl een transcriptionist mogelijk bewijs wil waarom ASR de invoer verkeerd heeft geïnterpreteerd om te helpen bij het beoordelen van de geldigheid ervan. Door mensen op de hoogte te houden, kunnen enkele van de meest voor de hand liggende problemen worden verholpen die optreden wanneer AI niet wordt gecontroleerd. Het kan ook de tijd versnellen die AI nodig heeft om zijn fouten op te vangen, te verbeteren en zichzelf uiteindelijk in realtime te corrigeren.

AI heeft de mogelijkheden om het leven van mensen te verbeteren, maar alleen als mensen het bouwen om goed te produceren. We moeten niet alleen deze systemen verantwoordelijk houden, maar ook de mensen achter de innovatie. Van AI-systemen van de toekomst wordt verwacht dat ze zich houden aan de principes die door mensen zijn uiteengezet, en alleen tot die tijd zullen we een systeem hebben dat mensen vertrouwen. Het is tijd om de basis te leggen en naar die principes te streven, nu het uiteindelijk nog steeds mensen zijn die onszelf dienen.

Miguel Jetté is hoofd AI R&D bij Rev, een spraak-naar-tekst transcriptieplatform dat AI combineert met bekwame mensen. Hij leidt het team dat verantwoordelijk is voor de ontwikkeling van 's werelds meest nauwkeurige spraak-naar-tekst AI-platform. Gepassioneerd door het oplossen van complexe problemen en het verbeteren van levens, is hij toegewijd aan het vergroten van inclusie en gelijkheid door middel van technologie. In meer dan twee decennia heeft hij gewerkt aan de implementatie van spraaktechnologieën bij bedrijven als Nuance Communications en VoiceBox. Hij behaalde een master in wiskunde en statistiek aan de McGill University in Montreal. Als hij niet bezig is met het bevorderen van communicatie via AI, besteedt hij zijn tijd als fotograaf voor rotsklimwedstrijden.