Connect with us

Introductie van nieuwe niveaus van transparantie met AI – Thought Leaders

Kunstmatige intelligentie

Introductie van nieuwe niveaus van transparantie met AI – Thought Leaders

mm

Door Balakrishna D R, Senior Vice President, Service Offering Head – Energy, Communications, Services, and AI and Automation services, bij Infosys.

Op 9 januari 2020 heeft de Wereldgezondheidsorganisatie het publiek op de hoogte gesteld van de uitbraak van het coronavirus in China. Drie dagen eerder had het Amerikaanse Centers for Disease Control and Prevention het nieuws al verspreid. Maar een Canadese gezondheidsmonitoringsplatform had hen allebei voorbijgestreefd, door zijn klanten al op 31 december 2019 te waarschuwen voor de uitbraak! Het platform, BlueDot, gebruikt artificial intelligence-gestuurde algoritmes die buitenlandse nieuwsberichten, dier- en plantenziektenetwerken en officiële aankondigingen scannen om zijn klanten een voorsprong te geven bij het vermijden van gevaarlijke zones zoals Wuhan.

In de afgelopen jaren is artificial intelligence het belangrijkste middel geworden voor transformatie, disruptie en concurrentievoordeel in de snel veranderende economie van vandaag. Van epidemiologisch onderzoek tot defensie, gezondheidszorg, autonome voertuigen en alles daartussen, AI krijgt een brede toepassing. PwC voorspelt dat AI mogelijk $15,7 biljoen kan bijdragen aan de mondiale economie in 2030, tegen het huidige groeitempo.

Toch roept AI, ondanks alle hoop die het biedt, nog onbeantwoorde vragen op over transparantie en betrouwbaarheid. Het is belangrijk om de besluitvormingscapaciteit van AI-systemen te begrijpen, te voorspellen en te vertrouwen, vooral in gebieden die cruciaal zijn voor leven, dood en persoonlijke welzijn.

 

Naar het onbekende

Toen geautomatiseerde redeneringssystemen voor het eerst werden geïntroduceerd om besluitvorming te ondersteunen, waren ze gebaseerd op handmatig gemaakte regels. Hoewel dit het makkelijk maakte om hun gedrag te interpreteren en aan te passen, waren ze niet schaalbaar. Machine learning-modellen kwamen om deze behoefte te vervullen; ze hadden geen menselijke tussenkomst nodig en konden trainen met data – hoe meer, hoe beter. Hoewel deep learning-modellen ongeëvenaard zijn in hun modelleringscapaciteit en toepassingsgebied, roept het feit dat deze modellen grotendeels black boxes zijn, verontrustende vragen op over hun geloofwaardigheid, betrouwbaarheid en vooroordelen in de context van hun brede toepassing.

Er is momenteel geen direct mechanisme om de redenering te traceren die impliciet wordt gebruikt door deep learning-modellen. Bij machine learning-modellen met een black-box-natuur is de primaire vorm van uitlegbaarheid post-hoc uitlegbaarheid, wat betekent dat de uitleg wordt afgeleid van de aard en eigenschappen van de door het model gegenereerde uitvoer. Vroege pogingen om regels uit neurale netwerken (zoals deep learning eerder bekend stond) te extraheren, worden niet langer nagestreefd, omdat de netwerken te groot en gevarieerd zijn geworden voor tractabele regelextractie. Er is dus een dringende behoefte om interpretatie en transparantie in de AI-modellering te introduceren.

 

Uit de nacht, in het licht

Deze zorg heeft een behoefte gecreëerd aan transparantie in machine learning, wat heeft geleid tot de groei van uitlegbare AI, of XAI. Het probeert de belangrijkste problemen aan te pakken die onze mogelijkheid belemmeren om AI-besluitvorming volledig te vertrouwen — waaronder vooroordelen en transparantie. Dit nieuwe veld van AI brengt verantwoordelijkheid om ervoor te zorgen dat AI de samenleving ten goede komt met betere resultaten voor alle betrokkenen.

XAI zal cruciaal zijn bij het omgaan met de vooroordelen die inherent zijn aan AI-systemen en -algoritmes, die zijn geprogrammeerd door mensen wiens achtergronden en ervaringen onbewust leiden tot de ontwikkeling van AI-systemen die vooroordelen vertonen. Ongewenste vooroordelen, zoals discriminatie tegen een bepaalde nationaliteit of etniciteit, kunnen ontstaan omdat het systeem een waarde toevoegt op basis van echte gegevens. Om een voorbeeld te geven, kan het zijn dat typische kredietverzuimers uit een bepaalde etnische achtergrond komen, maar het implementeren van een restrictief beleid op basis hiervan kan in strijd zijn met eerlijke praktijken. Foutieve gegevens zijn een andere oorzaak van vooroordelen. Bijvoorbeeld, als een gezichtsherkenningsscanner 5% van de tijd onnauwkeurig is vanwege de huidskleur van de persoon of het licht dat op het gezicht valt, kan dit vooroordelen introduceren. Ten slotte, als uw steekproefgegevens geen waarheidsgetrouwe weergave vormen van de gehele bevolking, is vooroordeel onvermijdelijk.

XAI probeert uit te leggen hoe de black box-beslissingen van AI-systemen tot stand komen. Het onderzoekt en probeert te begrijpen de stappen en modellen die bij het nemen van beslissingen zijn betrokken. Het beantwoordt cruciale vragen, zoals: Waarom heeft het AI-systeem een specifieke voorspelling of beslissing genomen? Waarom heeft het AI-systeem iets anders niet gedaan? Wanneer is het AI-systeem geslaagd of gefaald? Wanneer geven AI-systemen voldoende vertrouwen in de beslissing, zodat u het kunt vertrouwen, en hoe kan het AI-systeem fouten corrigeren?

 

Uitlegbare, voorspelbare en traceerbare AI

Een manier om uitlegbaarheid in AI-systemen te verkrijgen, is door machine learning-algoritmes te gebruiken die inherent uitlegbaar zijn. Bijvoorbeeld, eenvoudigere vormen van machine learning, zoals beslissingsbomen, Bayesiaanse classificatoren en andere algoritmes die een bepaalde mate van traceerbaarheid en transparantie in hun besluitvorming hebben. Ze kunnen de zichtbaarheid bieden die nodig is voor kritieke AI-systemen zonder al te veel prestaties of nauwkeurigheid op te offeren.

Het US Defense Advanced Research Project Agency (DARPA) onderkent de noodzaak om uitlegbaarheid te bieden voor deep learning en andere complexe algoritme-approaches en voert inspanningen om uitlegbare AI-oplossingen te produceren via een aantal gefinancierde onderzoeksinitiatieven. DARPA beschrijft AI-uitlegbaarheid in drie delen, waaronder: voorspellingsnauwkeurigheid, wat betekent dat modellen uitleggen hoe conclusies zijn bereikt om toekomstige besluitvorming te verbeteren; besluitvormingsbegrip en vertrouwen van menselijke gebruikers en operators, evenals inspectie en traceerbaarheid van acties ondernomen door AI-systemen.

Traceerbaarheid zal mensen in staat stellen om in AI-beslissingslussen te komen en de mogelijkheid hebben om taken te stoppen of te controleren wanneer dat nodig is. Een AI-systeem wordt niet alleen verwacht om een bepaalde taak uit te voeren of beslissingen op te leggen, maar ook om een transparant rapport te bieden van waarom het specifieke beslissingen heeft genomen, met de ondersteunende rationale.

Standaardisatie van algoritmes of zelfs XAI-benaderingen is momenteel niet mogelijk, maar het kan mogelijk zijn om niveaus van transparantie / niveaus van uitlegbaarheid te standaardiseren. Standaardisatie-organisaties proberen gemeenschappelijke, standaardbegrippen van deze niveaus van transparantie te ontwikkelen om communicatie tussen eindgebruikers en technologieleveranciers te faciliteren.

Naarmate overheden, instellingen, ondernemingen en het algemene publiek afhankelijker worden van AI-gebaseerde systemen, zal het winnen van hun vertrouwen door een duidelijkere transparantie van het besluitvormingsproces fundamenteel zijn. De lancering van de eerste wereldwijde conferentie die zich uitsluitend richt op XAI, de Internationale Gemeenschappelijke Conferentie over kunstmatige intelligentie: Workshop over Uitlegbare Kunstmatige Intelligentie, is verder bewijs dat de tijd van XAI is aangebroken.

Balakrishna, algemeen bekend als Bali D.R., is het hoofd van AI en automatisering bij Infosys waar hij zowel interne automatisering voor Infosys als onafhankelijke automatiseringsdiensten levert met behulp van producten voor klanten. Bali werkt al meer dan 25 jaar bij Infosys en heeft verschillende verkoop-, programmaplan- en leveringsrollen vervuld in verschillende geografische gebieden en industrieën.