Thought leaders
Het zwarte doosje openen over AI-verklaarbaarheid

Kunstmatige intelligentie (AI) is verweven in bijna alle facetten van ons dagelijks leven, van gepersonaliseerde aanbevelingen tot kritische besluitvorming. Het is een gegeven dat AI zal blijven evolueren, en met dat, zullen de bedreigingen die samenhangen met AI ook meer geavanceerd worden. Terwijl bedrijven AI-geactiveerde verdedigingen invoeren als reactie op de groeiende complexiteit, is de volgende stap naar het bevorderen van een organisatiebrede cultuur van beveiliging het verbeteren van de verklaarbaarheid van AI.
Terwijl deze systemen indrukwekkende mogelijkheden bieden, functioneren ze vaak als “zwarte dozen” – resultaten produceren zonder duidelijk inzicht in hoe het model tot de conclusie is gekomen die het heeft getrokken. Het probleem van AI-systemen die valse verklaringen afleggen of valse acties uitvoeren kan aanzienlijke problemen en potentiële bedrijfsstoringen veroorzaken. Wanneer bedrijven fouten maken vanwege AI, eisen hun klanten en consumenten een verklaring en kort daarna een oplossing.
Maar wat is de oorzaak? Vaak wordt slechte data gebruikt voor training. Bijvoorbeeld, de meeste openbare GenAI-technologieën worden getraind op data die beschikbaar zijn op het internet, die vaak ongeverifieerd en onnauwkeurig zijn. Terwijl AI snel antwoorden kan genereren, hangt de nauwkeurigheid van die antwoorden af van de kwaliteit van de data waarop het is getraind.
AI-fouten kunnen optreden in verschillende gevallen, waaronder scriptgeneratie met onjuiste opdrachten en valse beveiligingsbeslissingen, of het weren van een werknemer van het werken op de bedrijfssystemen vanwege valse beschuldigingen die door het AI-systeem zijn gemaakt. Al deze hebben het potentieel om aanzienlijke bedrijfsstoringen te veroorzaken. Dit is slechts een van de vele redenen waarom het waarborgen van transparantie cruciaal is voor het opbouwen van vertrouwen in AI-systemen.
Vertrouwen opbouwen
We bestaan in een cultuur waarin we vertrouwen stellen in allerlei bronnen en informatie. Maar tegelijkertijd eisen we steeds meer bewijs en validatie, en moeten we constant nieuws, informatie en claims valideren. Wanneer het gaat om AI, stellen we vertrouwen in een systeem dat het potentieel heeft om onnauwkeurig te zijn. Nog belangrijker, het is onmogelijk om te weten of de acties die AI-systemen uitvoeren nauwkeurig zijn zonder enige transparantie over de basis waarop beslissingen worden genomen. Stel dat uw cyber AI-systeem machines uitschakelt, maar het een fout maakte bij het interpreteren van de signalen? Zonder inzicht in de informatie die het systeem ertoe bracht die beslissing te nemen, is er geen manier om te weten of het de juiste beslissing nam.
Terwijl storingen in het bedrijf frustrerend zijn, is een van de grotere zorgen met betrekking tot het gebruik van AI de gegevensbescherming. AI-systemen, zoals ChatGPT, zijn machine learning-modellen die antwoorden halen uit de data die ze ontvangen. Daarom, als gebruikers of ontwikkelaars per ongeluk gevoelige informatie verstrekken, kan het machine learning-model die data gebruiken om antwoorden te genereren voor andere gebruikers die vertrouwelijke informatie onthullen. Deze fouten hebben het potentieel om de efficiëntie, winstgevendheid en, het belangrijkste, het vertrouwen van de klant van een bedrijf ernstig te verstoren. AI-systemen zijn bedoeld om de efficiëntie te verhogen en processen te vereenvoudigen, maar in het geval dat constante validatie nodig is omdat uitvoer niet kan worden vertrouwd, verspillen organisaties niet alleen tijd, maar openen ze ook de deur naar potentiële kwetsbaarheden.
Teams trainen voor verantwoord AI-gebruik
Om organisaties te beschermen tegen de potentiële risico’s van AI-gebruik, hebben IT-professionals de belangrijke verantwoordelijkheid om hun collega’s adequaat te trainen om ervoor te zorgen dat AI op verantwoorde wijze wordt gebruikt. Door dit te doen, helpen ze hun organisaties veilig te houden voor cyberaanvallen die hun levensvatbaarheid en winstgevendheid bedreigen.
Echter, voordat teams getraind worden, moeten IT-leiders intern overeenkomen om te bepalen welke AI-systemen een goede keuze zullen zijn voor hun organisatie. Haasten naar AI zal alleen later terugslaan, dus in plaats daarvan, begin klein, met een focus op de behoeften van de organisatie. Zorg ervoor dat de standaarden en systemen die u selecteert, overeenkomen met de huidige technische stack en bedrijfsdoelen van uw organisatie, en dat de AI-systemen voldoen aan dezelfde beveiligingsstandaarden als elke andere leverancier die u zou selecteren.
Zodra een systeem is geselecteerd, kunnen IT-professionals hun teams dan blootstellen aan deze systemen om succes te garanderen. Begin met het gebruik van AI voor kleine taken en zie waar het goed presteert en waar het niet, en leer wat de potentiële gevaren of validaties zijn die moeten worden toegepast. Introduceer vervolgens het gebruik van AI om het werk te ondersteunen, waardoor snellere zelfservice-oplossingen mogelijk worden, inclusief eenvoudige “hoe te” vragen. Van daaruit kan worden onderwezen hoe validaties in te stellen. Dit is waardevol, omdat we zullen beginnen te zien dat meer banen gaan over het instellen van grensvoorwaarden en validaties, en dit is al te zien in banen zoals het gebruik van AI om te helpen bij het schrijven van software.
Naast deze actiepunten voor het trainen van teamleden, is het initiëren en stimuleren van discussies ook van cruciaal belang. Moedig open, gegevensgestuurde discussies aan over hoe AI de gebruikersbehoeften dient – lost het problemen op een nauwkeurige en snelle manier op, dringt het de productiviteit voor zowel het bedrijf als de eindgebruiker op, neemt de NPS-score van de klant toe vanwege deze AI-gestuurde tools? Wees duidelijk over de return on investment (ROI) en houd deze centraal. Heldere communicatie zal bewustzijn van verantwoord gebruik mogelijk maken, en naarmate teamleden een beter begrip krijgen van hoe de AI-systemen werken, zullen ze deze meer verantwoord gebruiken.
Hoe transparantie in AI te bereiken
Hoewel het trainen van teams en het vergroten van het bewustzijn belangrijk is, is het om transparantie in AI te bereiken van vitaal belang dat er meer context is rond de data die wordt gebruikt om de modellen te trainen, waardoor alleen kwaliteitsdata wordt gebruikt. Hopelijk zal er uiteindelijk een manier zijn om te zien hoe het systeem redeneert, zodat we het volledig kunnen vertrouwen. Maar tot die tijd hebben we systemen nodig die kunnen werken met validaties en bewakingsmechanismen en kunnen aantonen dat ze zich houden aan deze.
Terwijl volledige transparantie onvermijdelijk tijd zal kosten om te bereiken, is de snelle groei van AI en haar gebruik maakt het noodzakelijk om snel te werken. Aangezien AI-modellen in complexiteit toenemen, hebben ze de kracht om een grote invloed te hebben op de mensheid, maar de gevolgen van hun fouten nemen ook toe. Als gevolg daarvan is het begrijpen van hoe deze systemen tot hun beslissingen komen, uiterst waardevol en noodzakelijk om effectief en betrouwbaar te blijven. Door ons te concentreren op transparante AI-systemen, kunnen we ervoor zorgen dat de technologie zo nuttig is als het bedoeld is, terwijl ze onbevooroordeeld, ethisch, efficiënt en nauwkeurig blijven.












