stomp Introductie van nieuwe niveaus van transparantie met AI - Thought Leaders - Unite.AI
Verbind je met ons

Gedachte leiders

Introductie van nieuwe niveaus van transparantie met AI - Thought Leaders

mm
Bijgewerkt on

Door Balakrishna DR, Senior Vice President, Service Offering Head – Energy, Communications, Services, and AI and Automation services, bij infosys.

Op 9 januari 2020 heeft de Wereldgezondheidsorganisatie het publiek op de hoogte gebracht van de uitbraak van het coronavirus in China. Drie dagen eerder hadden de Amerikaanse Centers for Disease Control and Prevention het bekend gemaakt. Maar het was een Canadees platform voor gezondheidsmonitoring dat hen beiden tot het uiterste had verslagen, die al op 31 december 2019 bericht van de uitbraak naar zijn klanten stuurde! Het platform, BlueDot, maakt gebruik van door kunstmatige intelligentie aangestuurde algoritmen die nieuwsberichten in vreemde talen, dier- en plantenziektenetwerken en officiële proclamaties doorzoeken om haar klanten vooraf te waarschuwen om gevarenzones zoals Wuhan te vermijden.

In de afgelopen jaren is kunstmatige intelligentie de belangrijkste bron van transformatie, disruptie en concurrentievoordeel geworden in de snel veranderende economie van vandaag. Van het volgen van epidemieën tot verdediging tot gezondheidszorg tot autonome voertuigen en alles daartussenin, AI wint aan brede acceptatie. PwC voorspelt dat AI in 15.7 tot 2030 biljoen dollar kan bijdragen aan de wereldeconomie, tegen het huidige groeitempo.

Maar ondanks alle hoop die AI met zich meebrengt, roept het nog steeds onbeantwoorde vragen op over transparantie en betrouwbaarheid. De noodzaak om het besluitvormingsvermogen van AI-systemen te begrijpen, te voorspellen en te vertrouwen, is vooral belangrijk op gebieden die van cruciaal belang zijn voor leven, dood en persoonlijk welzijn.

 

In het onbekende

Toen geautomatiseerde redeneersystemen voor het eerst werden geïntroduceerd om de besluitvorming te ondersteunen, vertrouwden ze op handgemaakte regels. Hoewel dit het gemakkelijk maakte om hun gedrag te interpreteren en aan te passen, waren ze niet schaalbaar. Er zijn op machine learning gebaseerde modellen ontwikkeld om in deze laatste behoefte te voorzien; ze hadden geen menselijke tussenkomst nodig en konden trainen op basis van data – hoe meer hoe beter. Hoewel deep learning-modellen onovertroffen zijn wat betreft hun modelleringscapaciteiten en reikwijdte van toepasbaarheid, roept het feit dat deze modellen voor het grootste deel zwarte dozen zijn, verontrustende vragen op over hun waarheidsgetrouwheid, betrouwbaarheid en vooroordelen in de context van hun wijdverbreide gebruik.

Er is momenteel geen direct mechanisme om de redenering te traceren die impliciet wordt gebruikt door deep learning-modellen. Met machine learning-modellen die een black-box karakter hebben, staat de primaire vorm van verklaarbaarheid bekend als post-hoc verklaarbaarheid, wat inhoudt dat de verklaringen zijn afgeleid van de aard en eigenschappen van de outputs die door het model worden gegenereerd. Vroege pogingen om regels uit neurale netwerken te extraheren (zoals eerder bekend was deep learning) worden momenteel niet nagestreefd, omdat de netwerken te groot en te divers zijn geworden voor traceerbare regelextractie. Er is daarom dringend behoefte aan interpreteerbaarheid en transparantie in de structuur van AI-modellering.

 

Verlaat de nacht, ga het licht binnen

Deze zorg heeft geleid tot een behoefte aan transparantie in machine learning, wat heeft geleid tot de groei van Explainable AI of XAI. Het probeert de belangrijkste problemen aan te pakken die ons vermogen om AI-besluitvorming volledig te vertrouwen belemmeren, waaronder vooringenomenheid en transparantie. Dit nieuwe gebied van AI brengt verantwoording met zich mee om ervoor te zorgen dat AI de samenleving ten goede komt met betere resultaten voor alle betrokkenen.

XAI zal van cruciaal belang zijn bij het helpen bestrijden van de vooringenomenheid die inherent is aan AI-systemen en algoritmen, die zijn geprogrammeerd door mensen wiens achtergrond en ervaringen onbedoeld leiden tot de ontwikkeling van AI-systemen die vooringenomenheid vertonen. Ongewenste vooroordelen zoals discriminatie van een bepaalde nationaliteit of etniciteit kunnen binnensluipen omdat het systeem er waarde aan toevoegt op basis van echte gegevens. Ter illustratie kan worden vastgesteld dat de typische wanbetalers van leningen een bepaalde etnische achtergrond hebben, maar het voeren van een hierop gebaseerd restrictief beleid kan in strijd zijn met eerlijke praktijken. Foutieve gegevens zijn een andere oorzaak van vooringenomenheid. Als een bepaalde scanner voor gezichtsherkenning bijvoorbeeld 5% van de tijd onnauwkeurig is vanwege de huidskleur van de persoon of het licht dat op het gezicht valt, kan dit leiden tot vertekening. Ten slotte, als uw steekproefgegevens geen waarheidsgetrouwe weergave zijn van de hele populatie, is vooringenomenheid onvermijdelijk.

XAI heeft als doel om aan te pakken hoe black box-beslissingen van AI-systemen tot stand komen. Het inspecteert en probeert de stappen en modellen te begrijpen die betrokken zijn bij het nemen van beslissingen. Het beantwoordt cruciale vragen zoals: Waarom deed het AI-systeem een ​​specifieke voorspelling of beslissing? Waarom deed het AI-systeem niets anders? Wanneer slaagde of faalde het AI-systeem? Wanneer geven AI-systemen voldoende vertrouwen in de beslissing dat u erop kunt vertrouwen, en hoe kan het AI-systeem fouten corrigeren?

 

Verklaarbare, voorspelbare en traceerbare AI

Een manier om verklaarbaarheid in AI-systemen te krijgen, is door machine learning-algoritmen te gebruiken die inherent verklaarbaar zijn. Bijvoorbeeld eenvoudigere vormen van machine learning, zoals beslisbomen, Bayesiaanse classificaties en andere algoritmen die een bepaalde mate van traceerbaarheid en transparantie hebben in hun besluitvorming. Ze kunnen de zichtbaarheid bieden die nodig is voor kritieke AI-systemen zonder al te veel prestaties of nauwkeurigheid op te offeren.

De Amerikaanse Defense Advanced Research Project Agency (DARPA) ziet de noodzaak om uitleg te geven voor diep leren en andere complexere algoritmische benaderingen en streeft ernaar om verklaarbare AI-oplossingen produceren via een aantal gefinancierde onderzoeksinitiatieven. DARPA beschrijft de uitlegbaarheid van AI in drie delen, waaronder: voorspellingsnauwkeurigheid, wat betekent dat modellen zullen uitleggen hoe conclusies worden getrokken om toekomstige besluitvorming te verbeteren; besluit begrijpen en vertrouwen van menselijke gebruikers en operators, evenals inspectie en traceerbaarheid van handelingen uitgevoerd door de AI-systemen.

Traceerbaarheid stelt mensen in staat om in AI-beslissingslussen te komen en de mogelijkheid te hebben om zijn taken te stoppen of te beheersen wanneer dat nodig is. Van een AI-systeem wordt niet alleen verwacht dat het een bepaalde taak uitvoert of beslissingen oplegt, maar ook transparant rapporteert waarom het bepaalde beslissingen heeft genomen met de onderbouwing ervan.

Standaardisatie van algoritmen of zelfs XAI-benaderingen is momenteel niet mogelijk, maar het zou zeker mogelijk kunnen zijn om niveaus van transparantie / niveaus van verklaarbaarheid te standaardiseren. Standaardorganisaties proberen tot gemeenschappelijke, standaardbegrippen van deze niveaus van transparantie te komen om de communicatie tussen eindgebruikers en technologieleveranciers te vergemakkelijken.

Nu overheden, instellingen, ondernemingen en het grote publiek afhankelijk worden van op AI gebaseerde systemen, zal het van fundamenteel belang zijn om hun vertrouwen te winnen door een duidelijkere transparantie van het besluitvormingsproces. De lancering van de eerste wereldwijde conferentie exclusief gewijd aan XAI, de International Joint Conference on artificial intelligence: Workshop on Explainable Artificial Intelligence, is een verder bewijs dat het tijdperk van XAI is aangebroken.

Balakrishna, in de volksmond bekend als Bali DR, is het hoofd van AI en automatisering bij Infosys waar hij zowel interne automatisering voor Infosys aanstuurt als onafhankelijke automatiseringsdiensten levert die producten voor klanten gebruiken. Bali werkt al meer dan 25 jaar bij Infosys en heeft verkoop-, programmabeheer- en leveringsrollen vervuld in verschillende geografische gebieden en verticale sectoren.