Connect with us

Thought leaders

Iedereen wil AI in risicobeheer. Weinigen zijn er klaar voor

mm

Iedereen racet om AI te implementeren. Maar in het beheer van risico’s van derden (TPRM) kan die race het grootste risico van allemaal zijn.

AI is afhankelijk van structuur: schone data, gestandaardiseerde processen en consistente resultaten. Toch ontbreken de meeste TPRM-programma’s die fundamenten. Sommige organisaties hebben gewijd risicoleiders, gedefinieerde programma’s en gedigitaliseerde data. Andere beheren risico’s ad hoc via spreadsheets en gedeelde stations. Sommige opereren onder strikte regelgevingscontrole, terwijl anderen een groter risico accepteren. Geen twee programma’s zijn gelijk, en de volwassenheid varieert nog steeds sterk na 15 jaar inspanning.

Deze variabiliteit betekent dat de adoptie van AI in TPRM niet zal gebeuren door snelheid of uniformiteit. Het zal gebeuren door discipline, en die discipline begint met realistisch zijn over de huidige staat, doelen en risicobereidheid van uw programma.

Hoe te weten of uw programma klaar is voor AI

Niet elke organisatie is klaar voor AI, en dat is oké. Een recente MIT-studie vond 95% van de GenAI-projecten faalt. En volgens Gartner zegt 79% van de technologie-kopers dat ze spijt hebben van hun laatste aankoop omdat het project niet goed was gepland.

In TPRM is AI-klaarheid geen schakelaar die je omzet. Het is een progressie, en een weerspiegeling van hoe gestructureerd, verbonden en beheerd uw programma is. De meeste organisaties vallen ergens langs een volwassenheidscurve die varieert van ad hoc tot agile, en weten waar je zit is de eerste stap naar het effectief en verantwoordelijk gebruiken van AI.

In de vroege stadia zijn risicoprogramma’s grotendeels handmatig, afhankelijk van spreadsheets, institutioneel geheugen en gefragmenteerd eigendom. Er is weinig formele methodologie of consistente toezicht op het risico van derden. Informatie over leveranciers kan leven in e-mailthreads of in het hoofd van een paar belangrijke personen, en het proces werkt, totdat het niet werkt. In deze omgeving zal AI moeite hebben om ruis van inzicht te scheiden, en technologie zal inconsistentie vermeerderen in plaats van elimineren.

Naarmate programma’s volwassen worden, begint structuur te ontstaan: workflows worden gestandaardiseerd, data wordt gedigitaliseerd en verantwoordelijkheid breidt zich uit over afdelingen. Hier begint AI waarde toe te voegen. Maar zelfs goed gedefinieerde programma’s blijven vaak gesiloerd, waardoor zichtbaarheid en inzicht worden beperkt.

Echte klaarheid ontstaat wanneer die silo’s afbreken en governance gedeeld wordt. Geïntegreerde en agile programma’s verbinden data, automatisering en verantwoordelijkheid over het hele bedrijf, waardoor AI zijn voet vindt – ongeconnecteerde informatie omzet in intelligentie en ondersteunt snellere, transparantere besluitvorming.

Door te begrijpen waar je bent en waar je naartoe wilt, kun je de fundamenten bouwen die AI omzet van een glanzende belofte in een echte multiplicator.

Waarom één maat niet voor alle programma’s past, ondanks volwassenheid

Zelfs als twee bedrijven allebei agile risicoprogramma’s hebben, zullen ze niet dezelfde koers volgen voor AI-implementatie, noch zullen ze dezelfde resultaten zien. Elk bedrijf beheert een andere netwerk van derden, opereert onder unieke regelgeving en accepteert verschillende niveaus van risico.

Bijvoorbeeld, banken worden geconfronteerd met strikte regelgevingsvereisten rond gegevensbescherming en -bescherming binnen de diensten die worden verleend door derden. Hun risicotolerantie voor fouten, uitval of inbreuken is nul. Consumentengoederenfabrikanten daarentegen accepteren mogelijk een groter operationeel risico in ruil voor flexibiliteit of snelheid, maar kunnen geen onderbrekingen tolereren die de kritieke leveringstijden beïnvloeden.

Elk bedrijf definieert zijn risicobereidheid en bepaalt hoeveel onzekerheid het bereid is te accepteren om zijn doelen te bereiken, en in TPRM verandert die lijn constant. Daarom werken standaard AI-modellen zelden. Het toepassen van een generieke model in een zo variabele ruimte creëert blind spots in plaats van duidelijkheid – het creëert een behoefte aan meer doelgerichte, configureerbare oplossingen.

De slimme benadering van AI is modulair. Implementeer AI waar data sterk is en doelen duidelijk zijn, en schaal dan van daaruit. Gemeenschappelijke use cases omvatten:

  • Leveranciersonderzoek: Gebruik AI om door duizenden potentiële leveranciers te zoeken, de laagste-risico-, meest capabele- of meest duurzame partners voor een aanstaand project te identificeren.
  • Beoordeling: Pas AI toe om leveranciersdocumentatie, certificaten en auditbewijs te evalueren. Modellen kunnen inconsistenties of anomalieën markeren die risico kunnen aanduiden, waardoor analisten zich kunnen concentreren op wat het meest telt.
  • Resilienceplanning: Gebruik AI om de gevolgen van onderbrekingen te simuleren. Hoe zou een sanctie in een regio of een regelgevingsverbod op een materiaal uw leveranciersbasis beïnvloeden? AI kan complexe handels-, geografische- en afhankelijkheidsdata verwerken om resultaten te modelleren en noodplannen te versterken.

Elk van deze use cases levert waarde op wanneer ze met opzet worden geïmplementeerd en ondersteund door governance. De organisaties die echt succes zien met AI in risico- en supplychainbeheer zijn niet diegenen die het meest automatiseren. Ze zijn degenen die klein beginnen, met opzet automatiseren en vaak aanpassen.

Opbouwen naar verantwoordelijke AI in TPRM

Terwijl organisaties beginnen te experimenteren met AI in TPRM, zijn de meest effectieve programma’s die innovatie balanceren met verantwoordelijkheid. AI moet toezicht versterken, niet vervangen.

In het beheer van risico’s van derden wordt succes niet alleen gemeten door hoe snel je een leverancier kunt beoordelen; het wordt gemeten door hoe nauwkeurig risico’s worden geïdentificeerd en hoe effectief corrigerende acties zijn geïmplementeerd. Wanneer een leverancier faalt of een compliance-probleem de headlines haalt, vraagt niemand hoe efficiënt het proces was. Ze vragen hoe het werd beheerd.

Die vraag, “hoe wordt het beheerd“, wordt snel wereldwijd. Terwijl de adoptie van AI versnelt, definiëren regelgevers over de hele wereld wat “verantwoord” betekent op heel verschillende manieren. De EU AI Act heeft de toon gezet met een risicogebaseerd kader dat transparantie en verantwoordelijkheid voor hoogrisicosystemen eist. In tegenstelling tot de Verenigde Staten volgen een meer gedecentraliseerde aanpak, waarbij innovatie wordt benadrukt naast vrijwillige normen zoals het NIST AI Risk Management Framework. Andere regio’s, waaronder Japan, China en Brazilië, ontwikkelen hun eigen variaties die mensenrechten, toezicht en nationale prioriteiten combineren in distincte modellen van AI-governance.

Voor wereldwijde ondernemingen introduceren deze afwijkende benaderingen nieuwe lagen van complexiteit. Een leverancier die in Europa opereert, kan strikte rapportageverplichtingen hebben, terwijl een leverancier in de VS losere maar nog steeds evoluerende verwachtingen heeft. Elke definitie van “verantwoordelijke AI” voegt nuances toe aan hoe risico moet worden beoordeeld, gecontroleerd en uitgelegd.

Risicoleiders hebben aanpasbare toezichtstructuren nodig die kunnen flexen met veranderende regelgeving terwijl transparantie en controle worden behouden. De meest geavanceerde programma’s integreren governance rechtstreeks in hun TPRM-operaties, waardoor elke AI-geleide beslissing kan worden uitgelegd, getraceerd en verdedigd – ongeacht de rechtsgebied.

Hoe te beginnen

Verantwoordelijke AI tot werkelijkheid maken vereist meer dan beleidsverklaringen. Het betekent dat de juiste fundamenten op hun plaats worden gezet: schone data, duidelijke verantwoordelijkheid en continue toezicht. Dit is wat dat betekent.

  • Standaardiseer vanaf het begin. Stel schone, consistente data en afgestemde processen in voordat automatisering plaatsvindt. Implementeer een gefaseerde aanpak die AI stap voor stap in uw risicoprogramma integreert, test, valideert en verfijnt elke fase voordat u schaalt. Maak data-integriteit, privacy en transparantie ononderhandelbaar vanaf het begin. AI die zijn redenering niet kan uitleggen, of die afhankelijk is van ongeverifieerde invoer, introduceert risico’s in plaats van ze te verminderen.
  • Begin klein en experimenteer vaak. Succes is niet alleen een kwestie van snelheid. Lancering van gecontroleerde pilots die AI toepassen op specifieke, goed begrepen problemen. Documenteer hoe modellen presteren, hoe beslissingen worden genomen en wie verantwoordelijk is voor hen. Identificeer en mitigeer de kritieke uitdagingen, waaronder gegevenskwaliteit, privacy en regelgevingshurdles, die voorkomen dat de meeste generatieve AI-projecten bedrijfswaarde opleveren.
  • Regeer altijd. AI moet toezicht op onderbrekingen versterken, niet meer veroorzaken. Behandel AI als elke andere vorm van risico. Stel duidelijke beleidsregels en interne expertise in voor het evalueren van hoe uw organisatie en haar derden AI gebruiken. Terwijl regelgeving wereldwijd evolueert, moet transparantie constant blijven. Risicoleiders moeten elke AI-geleide inzicht kunnen traceren naar zijn gegevensbronnen en logica, waardoor beslissingen ondersteund kunnen worden door regelgevers, raden en het publiek.

Er is geen universeel blauwdruk voor AI in TPRM. Elk bedrijf zijn volwassenheid, regelgevingsomgeving en risicobereidheid zal bepalen hoe AI wordt geïmplementeerd en waarde levert, maar alle programma’s moeten zijn gebouwd met opzet. Automatiseer wat klaar is, regeer wat geautomatiseerd is, en pas voortdurend aan naarmate de technologie en de regels eromheen evolueren.

Dave Rusher is Chief Customer Officer bij Aravo, waar hij wereldwijde organisaties adviseert over het beheersen van risico's van derden en de verantwoorde adoptie van AI. Hij heeft meer dan 30 jaar ervaring in de enterprise software-industrie en is gepassioneerd over het helpen van klanten bij het oplossen van kritieke bedrijfsproblemen met oplossingen die hun langetermijnsucces en strategische doelstellingen ondersteunen.