Thought leaders
Hoe Explainable AI Vertrouwen en Verantwoordelijkheid Opbouwt

Bedrijven zijn al volledig in de AI-adaptatie gedoken, racend om chatbots, contentgeneratoren en beslissingsondersteunende tools over hun operaties te implementeren. Volgens McKinsey gebruiken 78% van de bedrijven AI in minstens één bedrijfsfunctie.
De haast bij de implementatie is begrijpelijk — iedereen ziet het potentiële voordeel. Maar in deze haast zien veel organisaties over het hoofd dat alle op neurale netwerken gebaseerde technologieën, inclusief elke LLM en generatieve AI-systeem die vandaag en in de toekomst wordt gebruikt, een significante zwakheid delen: ze zijn onvoorspelbaar en uiteindelijk onbeheersbaar.
Sommigen hebben geleerd dat er echte gevolgen kunnen zijn als gevolg hiervan. Bij een Chevrolet-dealer die een chatbot op zijn website had geïmplementeerd, overhaalde een klant de ChatGPT-geactiveerde bot om hem een $58.195 Chevy Tahoe voor slechts $1 te verkopen. Een andere klant vroeg de chatbot om een Python-script te schrijven voor complexe vloeistofdynamische vergelijkingen, wat hij graag deed. De dealer schakelde de bots snel uit nadat deze incidenten waren uitgelekt.
Vorig jaar verloor Air Canada in een kleine claimszaak toen het betoogde dat zijn chatbot, die een passagier onjuiste informatie over een rouwverlieskorting had gegeven, “een afzonderlijke juridische entiteit is die verantwoordelijk is voor zijn eigen acties”.
Deze onvoorspelbaarheid stamt uit de fundamentele architectuur van LLM’s. Ze zijn zo groot en complex dat het onmogelijk is om te begrijpen hoe ze specifieke antwoorden bereiken of te voorspellen wat ze zullen genereren totdat ze een uitvoer produceren. De meeste organisaties reageren op dit betrouwbaarheidsprobleem zonder het volledig te erkennen.
De voor de hand liggende oplossing is om AI-resultaten handmatig te controleren, wat werkt maar het potentieel van de technologie drastisch beperkt. Wanneer AI wordt teruggebracht tot een persoonlijke assistent — het opstellen van tekst, het notuleren van vergaderingen, het samenvatten van documenten en het helpen met codering — levert het matige productiviteitswinsten op. Niet genoeg om de economie te revolutioneren.
De echte voordelen van AI zullen arriveren wanneer we stoppen met het gebruik van AI om bestaande banen te ondersteunen en in plaats daarvan hele processen, systemen en bedrijven herschrijven om AI te gebruiken zonder menselijke tussenkomst op elke stap. Overweeg het verwerken van leningen: als een bank aan leningfunctionarissen een AI-assistent geeft om aanvragen samen te vatten, kunnen ze 20-30% sneller werken. Maar het implementeren van AI om het hele beslissingsproces te behandelen (met passende waarborgen) kan de kosten met meer dan 90% verlagen en bijna alle verwerkingstijd elimineren. Dit is het verschil tussen incrementele verbetering en transformatie.
Het pad naar betrouwbare AI-implementatie
Het volledige potentieel van AI benutten zonder te bezwijken voor zijn onvoorspelbaarheid vereist een gesofisticeerde combinatie van technische benaderingen en strategisch denken. Terwijl verschillende huidige methoden gedeeltelijke oplossingen bieden, heeft elke een significante beperkingen.
Sommige organisaties proberen betrouwbaarheidsproblemen te mitigeren via systeemsturing — subtiel AI-gedrag in gewenste richtingen sturen zodat het reageert op specifieke invoer. Anthropic-onderzoekers demonstreerden de kwetsbaarheid van deze benadering door een “Golden Gate Bridge-functie” in Claude’s neurale netwerk te identificeren en, door deze kunstmatig te versterken, Claude een identiteitscrisis te laten ontwikkelen. Toen hem werd gevraagd naar zijn fysieke vorm, beweerde Claude in plaats van te erkennen dat hij geen had, de Golden Gate Bridge zelf te zijn. Dit experiment onthulde hoe gemakkelijk een model’s core-functioneren kan worden gewijzigd en dat elke sturing een compromis vertegenwoordigt, mogelijk één aspect van de prestaties te verbeteren terwijl andere te degraderen.
Een andere benadering is om AI andere AI te laten controleren. Terwijl deze gelaagde benadering enkele fouten kan detecteren, introduceert het extra complexiteit en komt het nog steeds tekort van een alomvattende betrouwbaarheid. Hard-gecodeerde waarborgen zijn een directe interventie, zoals het blokkeren van antwoorden die bepaalde trefwoorden of patronen bevatten, zoals precursor-ingredienten voor wapens. Terwijl effectief tegen bekende problemen, kunnen deze waarborgen niet anticiperen op nieuwe problematische uitvoer die uit deze complexe systemen ontstaan.
Een effectievere benadering is het opbouwen van AI-georiënteerde processen die autonoom kunnen werken, met menselijke toezicht strategisch gepositioneerd om betrouwbaarheidsproblemen te detecteren voordat ze echte problemen veroorzaken. U zou niet willen dat AI rechtstreeks leningaanvragen goedkeurt of afkeurt, maar AI kon een initiële beoordeling uitvoeren voor menselijke operators om te controleren. Dit kan werken, maar het hangt af van menselijke waakzaamheid om AI-fouten te detecteren en ondermijnt de potentiële efficiëntiegewinnen van het gebruik van AI.
Opbouwen voor de toekomst
Deze gedeeltelijke oplossingen wijzen naar een meer alomvattende benadering. Organisaties die fundamenteel herschrijven hoe hun werk wordt gedaan in plaats van alleen bestaande processen met AI-ondersteuning aan te vullen, zullen de grootste voordelen behalen. Maar AI moet nooit de laatste stap zijn in een hoogrisicoproces of beslissing, dus wat is het beste pad vooruit?
Ten eerste bouwt AI een herhaalbaar proces dat betrouwbaar en transparant consistent resultaten zal opleveren. Ten tweede controleren mensen het proces om ervoor te zorgen dat ze begrijpen hoe het werkt en dat de invoer geschikt is. Ten slotte loopt het proces autonoom — zonder enige AI — met periodieke menselijke controle van resultaten.
Overweeg de verzekeringsindustrie. De conventionele benadering kan AI-assistenten toevoegen om claimsprocessors efficiënter te laten werken. Een meer revolutionaire benadering zou AI gebruiken om nieuwe tools te ontwikkelen — zoals computervisie die schadefoto’s analyseert of verbeterde fraude-detector modellen die verdachte patronen identificeren — en deze tools combineren in geautomatiseerde systemen die worden bestuurd door duidelijke, begrijpelijke regels. Mensen zouden deze systemen ontwerpen en controleren in plaats van individuele claims te verwerken.
Deze benadering houdt menselijke toezicht op de kritieke knoop waar het het meest telt: het ontwerp en de validatie van het systeem zelf. Het stelt toe dat exponentiële efficiëntiegewinnen worden behaald terwijl het risico dat AI-onvoorspelbaarheid tot schadelijke resultaten leidt in individuele gevallen, wordt geëlimineerd.
Een AI kan potentieel indicatoren van lening-terugbetalingscapaciteit in transactiegegevens identificeren, bijvoorbeeld. Menselijke experts kunnen deze indicatoren dan evalueren voor eerlijkheid en expliciete, begrijpelijke modellen opbouwen om hun voorspellende kracht te bevestigen.
Deze benadering van explainable AI zal een duidelijker scheiding creëren tussen organisaties die AI oppervlakkig gebruiken en die hun operaties transformeren rond het. De laatste zal steeds verder voorop lopen in hun industrieën, in staat om producten en diensten aan te bieden tegen prijspunten die hun concurrenten niet kunnen evenaren.
In tegenstelling tot black-box AI, waarborgen explainable AI-systemen dat mensen een betekenisvol toezicht houden op de toepassing van de technologie, waardoor een toekomst ontstaat waarin AI menselijk potentieel versterkt in plaats van menselijke arbeid te vervangen.












