Connect with us

Gebrek aan betrouwbaarheid van AI kan innovatie en bedrijfswaarde beperken

Thought leaders

Gebrek aan betrouwbaarheid van AI kan innovatie en bedrijfswaarde beperken

mm

Een recente enquête onder wereldwijde zakelijke leiders toont aan dat betrouwbaarheid van AI een belangrijke prioriteit is, maar velen nemen niet genoeg stappen om dit te bereiken, tegen welke kosten?

Inderdaad, het IBM-onderzoek toonde aan dat een verbluffende 85% van de respondenten het erover eens is dat consumenten eerder een bedrijf zullen kiezen dat transparant is over hoe hun AI-modellen zijn gebouwd, beheerd en gebruikt.

Echter, de meerderheid gaf toe dat ze geen belangrijke stappen hebben genomen om ervoor te zorgen dat hun AI betrouwbaar en verantwoordelijk is, zoals het verminderen van vooroordelen (74%), het bijhouden van prestatievariaties en modeldrift (68%), en ervoor zorgen dat ze AI-gebaseerde beslissingen kunnen verklaren (61%). Dit is verontrustend, vooral als je bedenkt dat het gebruik van AI blijft groeien – met 35% die zegt dat ze nu AI in hun bedrijf gebruiken, tegen 31% een jaar geleden.

Ik heb onlangs de exclusieve Corporate Innovation Summit in Toronto bijgewoond, waar deelnemers innovatieve ideeën uitwisselden en technologieën toonden die de toekomst zullen vormgeven. Ik had het privilege om deel te nemen aan drie rondetafelgesprekken binnen de financiële dienstverlening, verzekeringen en detailhandel, met drie belangrijke gebieden die naar voren kwamen: de behoefte aan meer transparantie om vertrouwen in AI te bevorderen, de democratisering van AI via no-code/low-code, en ontwikkeling om snellere tijd-tot-waarde en risicobeperking te leveren via AI-regelgevingsbest practices.

Vertrouwen in AI-technologieën verhogen. COVID-19 heeft de trend naar het omarmen van AI-gebaseerde chatbots, virtuele financiële assistenten en touchless klantinschrijving versterkt en versneld. Deze trend zal voortduren, zoals bevestigd in onderzoek van Cap Gemini, dat aantoont dat 78% van de ondervraagde consumenten van plan zijn om het gebruik van AI-technologieën, waaronder digitale identiteitsbeheer, in hun interacties met financiële dienstverleners te vergroten.

De inherente voordelen ten spijt, doen zich een aantal uitdagingen voor. De belangrijkste hiervan is de voortdurende wantrouwen van consumenten tegenover AI-technologieën en hoe hun alomtegenwoordige aard hun rechten op privacy en veiligheid beïnvloedt. 30% van de consumenten verklaarde dat ze meer comfortabel zouden zijn met het delen van hun biometrische gegevens als hun financiële dienstverleners meer transparantie zouden bieden over hoe hun informatie wordt verzameld, beheerd en beveiligd.

CIO’s moeten betrouwbaarheidsprincipes voor AI aannemen en rigoureuze maatregelen treffen om de rechten op privacy en veiligheid te waarborgen. Ze kunnen dit bereiken door versleuteling, dataminimisatie en veilige authenticatie, inclusief het overwegen van opkomende gedecentraliseerde digitale identiteitsnormen. Als gevolg hiervan zullen uw inspanningen op het gebied van intelligente automatisering en selfservice meer worden geadopteerd en minder menselijke interventie nodig hebben.

Beperkingen voor de democratisering van AI verwijderen. Er is een groeiende trend naar no-code/low-code AI-toepassingsontwikkeling, die onderzoek voorspelt dat deze tegen 2025 45,5 miljard dollar waard zal zijn. De belangrijkste driver is snellere tijd-tot-waarde met verbeteringen in de productiviteit van toepassingsontwikkeling met 10x.

Bijvoorbeeld, 56% van de financiële dienstverleners die zijn ondervraagd, beschouwt gegevensverzameling van leners als een van de meest uitdagende en inefficiënte stappen binnen het leningsaanvraagproces, wat resulteert in hoge afbreukpercentages. Terwijl AI-gedreven biometrische identificatie en gegevensverzamelingstechnologieën zijn bewezen om efficiëntie in het leningsaanvraagproces te verbeteren, kunnen ze ook compliancerisico’s creëren, met name gegevensbescherming, vertrouwelijkheid en AI-algoritmevooroordeel.

Om dergelijke risico’s te mitigeren en te remediëren, moeten low-code/no-code-toepassingen omvattende tests bevatten om ervoor te zorgen dat ze overeenkomen met de initiële ontwerpdoelstellingen, potentiële vooroordelen in de trainingsdataset verwijderen die steekproefvooroordeel, labelvooroordeel kunnen omvatten, en beveiligd zijn tegen vijandige AI-aanvallen die nadelige gevolgen voor AI-algoritmeuitkomsten kunnen hebben. Overweging van verantwoordelijke datascienceprincipes van eerlijkheid, nauwkeurigheid, vertrouwelijkheid en beveiliging is van cruciaal belang.

Ontwikkel een AI-governance- en regelgevingskader. AI-governance is geen nice-to-have-initiatief meer, maar een imperatief. Volgens de OECD’s tracker voor nationale AI-beleid zijn er meer dan 700 AI-regelgevingsinitiatieven in ontwikkeling in meer dan 60 landen. Er zijn echter vrijwillige gedragscodes en ethische AI-principes ontwikkeld door internationale standaardisatieorganisaties, zoals de Institute of Electrical and Electronic Engineers (IEEE) en de National Institute of Standards and Technology (NIST).

Zorgen van organisaties omtrent de aanname dat AI-regelgeving meer rigoureuze compliancetaken oplegt, ondersteund door zware handhavingsmechanismen, inclusief boetes voor niet-naleving. Toch is AI-regelgeving onvermijdelijk.

Europa en Noord-Amerika nemen proactieve stappen die CIO’s ertoe zullen dwingen om samen te werken met hun technologie- en businesscollega’s om effectief beleid te vormen. Zo heeft de Europese Commissie een Artificial Intelligence Act voorgesteld om risicogebaseerde verplichtingen op te leggen aan AI-aanbieders om consumentenrechten te beschermen, terwijl tegelijkertijd innovatie en economische kansen verbonden aan AI-technologieën worden bevorderd.

Bovendien heeft de Canadese federale regering in juni 2022 haar lang verwachte Digital Charter Implementation Act uitgebracht, die bescherming biedt tegen nadelige gevolgen van high-risk AI-systemen. De VS gaat ook door met AI-regelgevingsinitiatieven, hoewel op sectoraal niveau. De Federal Trade Commission (FTC), de Consumer Financial Protection Bureau (CFPB) en The Federal Reserve Board gebruiken allemaal hun regelgevingsmechanismen om consumenten te beschermen tegen nadelige gevolgen die voortkomen uit de toegenomen toepassing van AI die mogelijk tot discriminatoire uitkomsten leidt, hoewel onbedoeld. Een AI-regelgevingskader is een must voor elk innovatief bedrijf.

Vertrouwdheid in AI bereiken vereist datagedreven inzichten

De implementatie van vertrouwdheid in AI kan niet worden bereikt zonder een datagedreven aanpak om te bepalen waar de toepassing van AI-technologieën het grootste effect kan hebben voordat men met de implementatie begint. Is het om klantbetrokkenheid te verbeteren, om operationele efficiëntie te realiseren of om compliancerisico’s te mitigeren?

Elk van deze businessdrivers vereist een begrip van hoe processen worden uitgevoerd, hoe escalaties en uitzonderingen worden afgehandeld, en identificeert variaties in procesuitvoering, belemmeringen en hun oorzaken. Op basis van dergelijke datagedreven analyse kunnen organisaties geïnformeerde zakelijke beslissingen nemen over de impact en resultaten die zijn verbonden aan de implementatie van AI-gebaseerde oplossingen om klantinschrijvingswrijving te verminderen en operationele efficiëntie te verbeteren. Zodra organisaties de voordelen van datagedreven inzichten hebben, kunnen ze highly laborintensieve processen automatiseren, zoals het naleven van AI-compliancemandaten, compliancetoetsing, KYC en AML in financiële dienstverlening.

De belangrijkste conclusie is dat een integraal onderdeel van AI-gebaseerde procesautomatisering de implementatie van vertrouwdheid in AI-best practices is. Ethisch gebruik van AI moet niet alleen worden beschouwd als een juridische en morele verplichting, maar als een zakelijk imperatief. Het is goed zakelijk om transparant te zijn in de toepassing van AI. Het bevordert vertrouwen en genereert merkloyaliteit.

Andrew Pery is een AI Ethics Evangelist bij het wereldwijde intelligente automatiseringsbedrijf ABBYY. Hij heeft een Master of Law diploma met onderscheiding van de Northwestern University Pritzker School of Law en is een gecertificeerd Data Privacy Professional. Pery heeft meer dan 25 jaar ervaring met het leiden van tech managementprogramma's voor toonaangevende wereldwijde technologiebedrijven. Zijn expertise ligt op het gebied van intelligente documentprocesautomatisering en procesintelligentie met een bijzondere expertise in AI-technologieën, applicatiesoftware, gegevensbescherming en AI-ethiek.