stomp Hoe bedrijven verantwoorde en transparante AI kunnen creëren - Thought Leaders - Unite.AI
Verbind je met ons

Gedachte leiders

Hoe bedrijven verantwoorde en transparante AI kunnen creëren - Gedachteleiders

mm

gepubliceerd

 on

By Erik Paternoster, CEO van Infosys Public Services

Sundar Pichai, CEO van Google-moederbedrijf Alphabet, heeft de ontwikkelingen op het gebied van AI beschreven als "dieper dan vuur of elektriciteit", en COVID-19 heeft voor nieuwe urgentie gezorgd bij het ontketenen van de belofte van deze technologie. Toepassingen van AI staan ​​nu stevig in de schijnwerpers, waardoor COVID-behandelingen worden verbeterd, potentiële COVID-dragers worden opgespoord en real-time chatbots worden ingezet voor door het aanbod getroffen gebruikers van retailwebsites. Deze toepassingen hebben aangetoond dat AI de veerkracht van een bedrijf verbetert en de bredere samenleving ten goede komt.

Dus samen met 'cloud-native' is het modewoord van het afgelopen kwartaal misschien wel 'AI-eerste transformatie', een term die volgens beoefenaars uit de branche ook na het verdwijnen van COVID geldig zal blijven. Voor veel bedrijven is de belofte van lagere kosten (dwz algoritmen voor de toeleveringsketen die vraag en aanbod op elkaar afstemmen) en bewonderenswaardige productiviteitsstijgingen (dwz wanneer banken in realtime document- en identiteitsverificatie gebruiken) gewoon te mooi om te negeren.

Waarom AI-eerste transformatie?

Bij AI-first-transformatie gebruikt een onderneming AI als een poolster en werkt ze eraan om het niet alleen intelligent te gebruiken, maar ook op een manier die beslissingen van mensen, processen en systemen op schaal beïnvloedt. Het stemt organisaties af op de veranderende dynamiek tussen medewerkers, partners en klanten. Dit stelt hen in staat om snel te schakelen en te voldoen aan veranderende eisen, terwijl ze een concurrentievoordeel op de lange termijn creëren.

Maar niet alle bedrijven bevinden zich op hetzelfde niveau van AI-volwassenheid. Er zijn er die de "conventionele AI-groep" of H1 kunnen worden genoemd. Deze bedrijven, die minder ervaring en investeringen hebben, gebruiken over het algemeen klassieke algoritmen zoals het naïeve Bayes, dat al 250 jaar bestaat, of random forest (ontwikkeld door Tin Kam Ho in 1995) om gefragmenteerde intelligentie binnen bestaande systemen te vergroten. Dergelijk gebruik van AI is strikt op regels gebaseerd en behoorlijk rigide, en mist de mogelijkheid om te generaliseren op basis van de regels die ze ontdekken. Dan is er de 'deep learning group' of H2. Deze bedrijven omarmen meer complexe AI, waaronder neurale machinevertalingen en op transcriptie gebaseerde systemen, om conversatie-inzichten te ontginnen. Dergelijke systemen hebben meer macht, maar leggen niet gemakkelijk uit waarom ze de dingen doen die ze doen. Ze missen ook transparantie. Voor deze twee groepen is de gebruikte AI vaak niet betrouwbaar of betrouwbaar en kan deze bevooroordeelde beslissingen nemen die het bedrijf negatieve aandacht trekken van overheidsinstanties, regelgevers en het grote publiek.

Deze bedrijven moeten nu stappen ondernemen om hun AI-implementaties een stap verder te brengen - naar een derde kamp (H3) waar AI zelflerend en generatief is. Op dit moment zijn AI-systemen semi-bewaakt of zelfs onbewaakt. Ze zijn transparant en bereiken "gezond verstand" door multitask-leren. Deze systemen leveren rijkere intelligentie en bieden real-time, bruikbare inzichten. Dit wordt gedaan door middel van goed beheerde, bestuurde AI die in alle stadia interpreteerbaar en verklaarbaar is.

Hoe te werken aan een meer verantwoorde, transparante AI

AI wordt steeds vaker gebruikt om scholen, werkplekken en andere openbare lichamen te beheren. In deze omgevingen is het belangrijker dan ooit dat de AI eerlijk en transparant is. Terwijl de samenleving echter door deze explosie van AI-adoptie heen werkt, bieden regelgevende instanties beperkte richtlijnen voor de juiste ontwikkeling en inzet van AI-technologieën. Het is dus aan bedrijven om het voortouw te nemen. De bredere technologie-industrie moet financiële kracht en menselijk kapitaal aan het werk zetten en de eerste implementaties van gefragmenteerde AI transformeren in efficiënte, creatieve, verantwoordelijke en transparante, op intelligentie gebaseerde ecosystemen. Om deze ruimte te betreden, moeten bedrijven de volgende vier dingen doen:

  • Houd mensen op de hoogte: AI-modellen zijn vaak ontworpen om onafhankelijk van mensen te werken. Het menselijke element is echter in veel gevallen cruciaal. Mensen moeten beslissingen herzien en vooroordelen en fouten vermijden die AI-projecten vaak op een zijspoor zetten. Twee use-cases omvatten fraudedetectie en gevallen waarbij wetshandhaving betrokken is. We raden bedrijven aan om AI-beoefenaars langzaam maar consequent in de loop van de tijd in te huren om een ​​voorsprong te krijgen op hun AI-first reis.
  • Elimineer bevooroordeelde datasets: Een onbevooroordeelde dataset is een cruciale voorwaarde om betrouwbare, eerlijke en niet-discriminerende AI-modellen te maken. Om een ​​idee te krijgen van het belang ervan: AI wordt gebruikt voor het op de shortlist plaatsen van cv's en kredietscores door banken, en het heeft zelfs zijn weg gevonden naar sommige gerechtelijke systemen. In dit landschap hebben ongecontroleerde vooroordelen zeer reële implicaties gehad.
  • Zorg ervoor dat beslissingen verklaarbaar zijn: Deze functie is door veel van de grote nieuwskanalen besproken, en terecht. XAI helpt verklaren waarom een ​​AI-systeem een ​​bepaalde beslissing heeft genomen. Het onthult welke kenmerken van het deep learning-model meer dan andere zijn gebruikt om zijn voorspelling of hypothese te maken. Het begrijpen van het belang van kenmerken en het kunnen rechtvaardigen van de manier waarop beslissingen worden genomen, is cruciaal voor het gebruik van gevallen zoals autonome voertuigen en computervisie die worden gebruikt in medische biopsieën.
  • Reproduceer betrouwbaar bevindingen: Een algemene noodzaak in onderzoeksprojecten, AI-modellen moeten consistent zijn bij het geven van voorspellingen in de loop van de tijd. Dergelijke modellen mogen niet worden gefaseerd wanneer ze met nieuwe gegevens worden gepresenteerd.

Deze vier dingen zullen transparante, op intelligentie gebaseerde ecosystemen creëren, op weg naar wat we een 'levende onderneming' noemen. Hier worden onbevooroordeelde, verklaarbare beslissingen genomen in bijna realtime, waarbij de hele onderneming optreedt als een bewust organisme dat wordt bestuurd door mensen. Lees de Witboek van het Infosys Kennisinstituut om meer te weten te komen.

Eric Paternoster is CEO van Infosys openbare diensteneen Infosys dochteronderneming gericht op de publieke sector in de VS en Canada. In deze rol houdt hij toezicht op de bedrijfsstrategie en -uitvoering voor winstgevende groei, en adviseert hij organisaties in de publieke sector over strategie, technologie en operaties. Hij is ook lid van de raden van bestuur van Infosys Public Services en de McCamish-dochteronderneming van Infosys BPM.

Eric heeft meer dan 30 jaar ervaring in de publieke sector, gezondheidszorg, consulting en bedrijfstechnologie bij meerdere bedrijven. Voorafgaand aan zijn huidige functie was hij Senior Vice President en Head of Insurance, Healthcare and Life Sciences business unit, waar hij het bedrijf liet groeien van $ 90 miljoen naar meer dan $ 700 miljoen met meer dan 60 klanten in Noord- en Zuid-Amerika, Europa en Azië. Eric kwam in 2002 bij Infosys als Head of Business Consulting voor het oosten van de VS en Canada.