Thought leaders
Waarom bedrijven een waarden-gedreven aanpak voor AI-governance moeten volgen

In september 2025 kwamen voor het eerst alle lidstaten van de Verenigde Naties bijeen om internationale AI-governance te bespreken; veel waren opnieuw vertegenwoordigd in februari op de AI Impact Summit in Delhi. Het evenement leidde tot de lancering van twee nieuwe instanties gericht op AI-governance; maar het was, op zijn best, een symbolisch succes.
De nieuwe mechanismen van de VN waren ontworpen om consensus te bereiken: ze mijden omstreden gebieden zoals militaire toepassingen van AI en ontbreken duidelijke financieringsbronnen en handhavingsbevoegdheden. Dit zou geen verrassing moeten zijn voor ervaren waarnemers. De VN van vandaag beschikt niet over de mogelijkheid om snel te handelen of universele naleving van hun besluiten te garanderen, waardoor het een moeilijk forum is om echte verandering teweeg te brengen.
Dit past in een goed gevestigd patroon. Ondanks jarenlange verspreide pogingen om consensus te bereiken over AI-regelgeving, zijn er geen significante internationale overeenkomsten gesloten, waardoor een leegte is ontstaan waarin individuele landen en blokken zijn gedwongen hun eigen regels te ontwikkelen. Toch is een effectieve governance van AI cruciaal als we het willen zien worden aangenomen, vertrouwd door het publiek en gebruikt op manieren die duurzame sociale en economische voordelen opleveren
Maak het goed en repareer
Voor wereldwijde bedrijven die AI-systemen ontwikkelen en exploiteren, is het ontbreken van gemeenschappelijke, overeengekomen governance-mechanismen problematisch. Ze willen AI-systemen over de hele wereld inzetten, maar geen twee rechtsgebieden houden zich aan dezelfde set regels. Dus ze zijn gedwongen om in plaats daarvan een generieke governance-kader rond hun systeem te creëren, en vervolgens opnieuw op te bouwen vanaf de grond in elk land waarin ze opereren om ervoor te zorgen dat het voldoet aan de lokale wetten en regelgeving. Deze aanpak creëert een enorm amount aan extra werk, maakt AI-initiatieven duurder en gevoeliger voor vertragingen, en verzwakt de mogelijkheid van mondiale bedrijven om schaalvoordelen te realiseren en effectieve tools met gebruikers overal te delen.
Er is echter een alternatief. Voor bedrijven die hun aanpak willen stroomlijnen, kan de beste optie zijn om een AI-governance-kader te bouwen dat rekening houdt met gemeenschappelijke ethische principes in deze verschillende regio’s, waardoor ze overal hoge standaarden halen in termen van bescherming van de vrijheid, privacy en veiligheid van individuen. Deze techniek vertegenwoordigt een krachtige manier voor AI-bedrijven om het publieke vertrouwen in hun technologie te vergroten, hun klantenbestand te versterken en de potentiële voordelen van AI voor de samenleving te benutten.
Zes sleutelwaarden voor AI-governance
Voor elke organisatie die geïnteresseerd is in het adopteren van een waarden-gedreven aanpak voor AI-governance, zou ik suggereren om de zes sleutelwaarden te gebruiken die wij volgen: aansprakelijkheid, verklarbaarheid, transparantie, eerlijkheid, veiligheid en betwistbaarheid.
We kozen deze waarden omdat ze alle belangrijke gebieden van de AI-systeemlevenscyclus dekken en omdat ze al zijn gecodificeerd in verschillende internationale en nationale standaarden met betrekking tot AI, zoals de ISO/IEC 42001 en de Artificial Intelligence Playbook for the UK Government.
Om te beginnen met het eerste, aansprakelijkheid betekent weten wie verantwoordelijk is voor wat op elk stadium van de AI-levenscyclus. Zonder duidelijke eigendom kunnen vitale controles worden weggelaten omdat geen enkel individu of team de uiteindelijke verantwoordelijkheid draagt. Organisaties moeten senior, genoemde eigenaren – zoals hun Chief AI Officer – toewijzen aan AI-systemen en sleutelfasen en een risicogebaseerd governance-model gebruiken, waarbij dezelfde aandacht wordt besteed aan third-party-tools als aan die welke in-house zijn ontwikkeld. Dit betekent dat men de leveranciersvoorwaarden, beperkingen en aansprakelijkheden net zo goed begrijpt als hun eigen systemen.
De Organisatie voor Economische Samenwerking en Ontwikkeling (OESO) vat dit goed samen in haar richtsnoeren voor het verbeteren van de aansprakelijkheid in AI, die aanbevelen dat organisaties “mechanismen creëren om het AI-risicomanagementproces in de bredere organisatiegovernance te integreren, waardoor een cultuur van risicomanagement zowel binnen organisaties als in de hele AI-waardeketen wordt bevorderd.”
Vervolgens is er verklarbaarheid. Organisaties moeten kunnen aantonen hoe een AI-systeem een beslissing neemt. Dat vereist mechanismen om besluitvorming te documenteren en te traceren, naast duidelijke records van systeemontwerp, trainingsgegevens en beslissingsprocessen. Samen genomen, stelt dit teams in staat om de herkomst van informatie van een systeem te begrijpen vanaf het begin tot en met de implementatie.
Eerlijkheid richt zich op het garanderen dat AI-systemen eerlijke resultaten opleveren en bestaande vooroordelen niet repliceren of versterken. Zonder bewuste controles kunnen systemen schade veroorzaken door scheve resultaten te leveren – een bijzonder probleem in hoog-impactgebieden zoals werving, gezondheidszorg en strafrecht. Om dit te mitigeren, moeten organisaties biasdetectiemaatregelen implementeren, outputs regelmatig controleren over relevante groepen en governance-kaders ontwerpen die lokale non-discriminatie-eisen kunnen accommoderen. In de praktijk betekent dit het bouwen van systemen die voldoen aan de hoogste wettelijke standaard die ze waarschijnlijk zullen tegenkomen, inclusief verplichtingen op grond van wetten zoals de Equality Act 2010 van het VK en het Handvest van de grondrechten van de EU.
Transparantie gaat over het verschaffen van duidelijkheid aan zowel gebruikers als regulators. Mensen moeten begrijpen wanneer AI wordt gebruikt, wat de rol is in besluitvorming en welke gegevens het ondersteunen. Een praktisch startpunt is om documentatie te standaardiseren over AI-systemen, ondersteund door interne tools zoals modelkaarten: korte documenten die worden verstrekt met machine learning-modellen die de context uitleggen waarin de modellen zijn bedoeld om te worden gebruikt, details van de prestatiebeoordelingsprocedures en andere relevante informatie. Zonder transparantie kunnen gebruikers onrechtvaardige resultaten niet betwisten, regulators kunnen niet effectief ingrijpen en kunnen schadelijke gevolgen onder het tapijt worden geveegd.
Veiligheid houdt in het beschermen van AI-systemen tegen ongeoorloofde toegang, manipulatie of onbedoeld gedrag. Als de beveiliging zwak is, kunnen AI’s organisaties, gebruikers en hun gegevens in gevaar brengen, waardoor ze financiële en reputatieschade kunnen lijden. Organisaties moeten prestatie- en nauwkeurigheidsgrenzen definiëren, systemen testen onder realistische omstandigheden en rode teamtesten opnemen om kwetsbaarheden te identificeren.
Ten slotte garandeert betwistbaarheid dat mensen een duidelijke en toegankelijke manier hebben om AI-gedreven beslissingen aan te vechten. Zonder dit hebben getroffen gebruikers geen mogelijkheid om zich te verzetten en kunnen problemen nooit aan de orde komen of worden opgelost. Organisaties moeten meldingskanalen bieden op het moment van gebruik, senior eigenaren toewijzen om klachten te beheren en ervoor zorgen dat systemen kunnen worden onderbroken, beoordeeld of bijgewerkt waar nodig.
Wat zijn de voordelen van een waarden-gedreven kader?
Er zijn twee krachtige redenen om een waarden-gedreven aanpak voor AI-governance te adopteren. Ten eerste, omdat degenen die AI-systemen ontwikkelen en inzetten een ethische verantwoordelijkheid hebben jegens de mensen en organisaties die door hen worden beïnvloed; en ten tweede, omdat dit een effectievere manier is om de beloofde voordelen van AI in de praktijk te realiseren.
Gebruikers van AI-systemen, zowel corporate als individueel, plaatsen impliciet vertrouwen in hun makers om hun persoonlijke gegevens niet te misbruiken of hen aan onnodig risico bloot te stellen. Wanneer organisaties dat vertrouwen schenden, wordt het erg moeilijk voor hen om die gebruikers te behouden. Uiteindelijk, tenzij mensen AI-systemen vertrouwen en de duidelijke voordelen zien die ze opleveren, zullen ze niet meegaan met hun introductie. Dit zal leiden tot meer sociale en economische verdeeldheid, en we zullen veel van de kansen die deze technologie biedt, missen.
Aan de andere kant kunnen bedrijven die een waarden-gedreven kader overal toepassen – inclusief in regio’s met minder strikte governance-eisen – aantonen aan klanten, investeerders en regulators dat ze zich houden aan een hogere standaard dan de basisvereisten voor naleving. Dit bouwt vertrouwen op, engagement en uiteindelijk zakelijk succes.
Sterke AI-governance is een waardecreator, niet een nalevingslast. Het stelt bedrijven in staat om nieuwe producten sneller op de markt te brengen, hun risico-expositie te verminderen en hun oplossingen met vertrouwen over meerdere markten uit te breiden.
Het rapport ‘De staat van AI’ van McKinsey vond dat “de toezicht van de CEO op AI-governance… één element is dat het meest correleert met een hoger zelfgerapporteerd onderste regel-effect van het gebruik van gen AI door een organisatie,” waarmee de commerciële voordelen van een dergelijke aanpak worden onderstreept. In die zin vertegenwoordigt het opnemen van sterke ethische kaders in AI-systemen verlicht eigenbelang.
Voorbij al het bovenstaande is het gewoon het juiste om te doen. We hebben ons wereldwijde ethische AI-beleid opgebouwd rond hetzelfde principe: dat geavanceerde technologieën mensen en de samenleving moeten dienen, en niet andersom. Dit weerspiegelt de bredere visie van Society 5.0: een mensgerichte innovatiemodel dat economische vooruitgang combineert met de oplossing van sociale uitdagingen.
Als opkomende technologieën zoals AI een gelukkiger, meer harmonieuze samenleving moeten bevorderen, moeten ze worden gebouwd op sterke ethische fundamenten. Dit begint met een focus op de standaarden die organisaties moeten nastreven, en niet alleen op de standaarden die ze moeten bereiken.












