Thought leaders
Verklaarbaarheid kan elk probleem van elke industrie met AI aanpakken: het gebrek aan transparantie

Door: Migüel Jetté, VP van R&D Speech, Rev.
In de beginfase van AI kon het misschien nog wel rusten op de loer van nieuwheid. Het was okay voor machine learning om langzaam te leren en een ondoorzichtelijk proces te behouden waar de berekening van de AI onmogelijk voor de gemiddelde consument was om te doorgronden. Dat verandert. Naarmate meer industrieën zoals de gezondheidszorg, financiën en het strafrechtssysteem AI op manieren beginnen te gebruiken die een echte impact op het leven van mensen kunnen hebben, willen meer mensen weten hoe de algoritmes worden gebruikt, hoe de gegevens worden verzameld en hoe nauwkeurig de capaciteiten zijn. Als bedrijven aan de voorlopers van innovatie in hun markten willen blijven, moeten ze vertrouwen op AI die hun publiek zal vertrouwen. AI-verklaarbaarheid is het belangrijkste ingrediënt om die relatie te verdiepen.
AI-verklaarbaarheid verschilt van standaard AI-procedures omdat het mensen een manier biedt om te begrijpen hoe de machine learning-algoritmes output creëren. Verklaarbare AI is een systeem dat mensen potentieel resultaat en tekortkomingen kan bieden. Het is een machine learning-systeem dat de menselijke behoefte aan eerlijkheid, verantwoordelijkheid en respect voor privacy kan vervullen. Verklaarbare AI is essentieel voor bedrijven om vertrouwen met consumenten op te bouwen.
Terwijl AI zich uitbreidt, moeten AI-aanbieders begrijpen dat de black box dat niet kan. Black box-modellen worden rechtstreeks uit de gegevens gemaakt en vaak kan zelfs de ontwikkelaar die het algoritme heeft gemaakt niet identificeren wat de geleerde gewoonten van de machine heeft aangedreven. Maar de gewetensvolle consument wil niet omgaan met iets dat zo ondoordringbaar is dat het niet verantwoordelijk kan worden gehouden. Mensen willen weten hoe een AI-algoritme tot een specifiek resultaat komt zonder de mysterie van de broninvoer en gecontroleerde output, vooral wanneer de fouten van AI vaak te wijten zijn aan machinevooroordeel. Naarmate AI geavanceerder wordt, willen mensen toegang tot het machine learning-proces om te begrijpen hoe het algoritme tot zijn specifieke resultaat is gekomen. Leiders in elke industrie moeten begrijpen dat mensen vroeg of laat niet langer toegang tot deze informatie zullen prefereren, maar het zullen eisen als een noodzakelijk niveau van transparantie.
ASR-systemen zoals spraakgestuurde assistenten, transcriptietechnologie en andere diensten die menselijke spraak in tekst omzetten, zijn vooral geplaagd door vooroordeel. Wanneer de dienst wordt gebruikt voor veiligheidsmaatregelen, kunnen fouten door accenten, iemands leeftijd of achtergrond, ernstige fouten zijn, dus het probleem moet serieus worden genomen. ASR kan effectief worden gebruikt in politiebodycams, bijvoorbeeld, om interacties automatisch op te nemen en te transcriberen – een record dat, als het nauwkeurig wordt getranscribeerd, levens kan redden. De praktijk van verklaarbaarheid zal vereisen dat de AI niet alleen vertrouwt op gekochte datasets, maar zoekt naar het begrijpen van de kenmerken van de inkomende audio die mogelijk bijdragen aan fouten als die bestaan. Wat is het akoestische profiel? Is er ruis op de achtergrond? Is de spreker uit een niet-Engelstalig land of uit een generatie die een vocabulaire gebruikt die de AI nog niet heeft geleerd? Machine learning moet proactief leren om sneller te leren en kan beginnen met het verzamelen van gegevens die deze variabelen kunnen aanpakken.
De noodzaak wordt steeds duidelijker, maar de weg naar het implementeren van deze methode zal niet altijd een gemakkelijke oplossing hebben. Het traditionele antwoord op het probleem is om meer gegevens toe te voegen, maar een meer geavanceerde oplossing zal nodig zijn, vooral wanneer de gekochte datasets die veel bedrijven gebruiken, inherent vooroordeel bevatten. Dit komt omdat het historisch gezien moeilijk is geweest om een specifiek besluit te verklaren dat door de AI is genomen en dat komt door de complexiteit van de eind-tot-eind-modellen. Maar we kunnen het nu doen en we kunnen beginnen door te vragen hoe mensen het vertrouwen in AI zijn kwijtgeraakt.
Uiteindelijk zal AI fouten maken. Bedrijven moeten modellen bouwen die zich bewust zijn van potentiële tekortkomingen, identificeren wanneer en waar de problemen optreden en continue oplossingen creëren om sterker AI-modellen te bouwen:
- Wanneer er iets misgaat, moeten ontwikkelaars uitleggen wat er is gebeurd en een onmiddellijk plan ontwikkelen om het model te verbeteren om toekomstige, soortgelijke fouten te verminderen.
- Om de machine te laten weten of het goed of fout was, moeten wetenschappers een feedbacklus creëren zodat AI zijn tekortkomingen kan leren en evolueren.
- Een andere manier voor ASR om vertrouwen op te bouwen terwijl de AI nog steeds in ontwikkeling is, is om een systeem te creëren dat betrouwbaarheidscores kan bieden en redenen kan geven waarom de AI minder vertrouwd is. Bijvoorbeeld, bedrijven genereren scores van nul tot 100 om hun eigen AI-onvolkomenheden weer te geven en transparantie met hun klanten te vestigen. In de toekomst kunnen systemen post-hoc-verklaringen bieden voor waarom de audio uitdagend was door meer metadata over de audio te bieden, zoals de waargenomen ruisniveau of een minder begrepen accent.
Extra transparantie zal resulteren in betere menselijke toezicht op AI-training en -prestaties. Hoe meer we open zijn over waar we moeten verbeteren, hoe verantwoordelijker we zijn om actie te ondernemen op die verbeteringen. Bijvoorbeeld, een onderzoeker kan willen weten waarom foutieve tekst is gegenereerd zodat hij het probleem kan mitigeren, terwijl een transcriptie-expert bewijs kan willen hebben voor waarom ASR de invoer verkeerd heeft geïnterpreteerd om te helpen bij de beoordeling van de geldigheid. Mensen in de lus houden kan sommige van de meest voor de hand liggende problemen die optreden wanneer AI ongecontroleerd gaat, mitigeren. Het kan ook de tijd die nodig is voor AI om zijn fouten te vangen, te verbeteren en uiteindelijk zichzelf in real-time te corrigeren, versnellen.
AI heeft de capaciteit om het leven van mensen te verbeteren, maar alleen als mensen het zo bouwen dat het correct werkt. We moeten niet alleen deze systemen verantwoordelijk houden, maar ook de mensen achter de innovatie. AI-systemen in de toekomst worden verwacht om te voldoen aan de principes die door mensen zijn vastgesteld, en pas dan zullen we een systeem hebben dat mensen vertrouwen. Het is tijd om de basis te leggen en te streven naar die principes nu, terwijl het uiteindelijk nog steeds mensen zijn die zichzelf dienen.












