Connect with us

Thought leaders

Waarom het verbieden van AI de veiligheidsrisico’s verhoogt en hoe instellingen moeten reageren

mm

In de hele VS zijn schooldistricten en overheidsorganisaties bezig met het beperken of blokkeren van toegang tot generatieve AI (GenAI)-technologieën of specifieke tools. In Colorado heeft het Boulder Valley School District onlangs ChatGPT op districtnetwerken verboden, vanwege bezorgdheid over misbruik, veiligheid en academische integriteit.

De instinct om blootstelling aan beveiligingsincidenten of gegevensmisbruik te verminderen, is begrijpelijk. Platforms met zwakke beveiligingsmaatregelen of onduidelijke privacyverbintenissen, zoals DeepSeek, verdienen beperking en onderzoek. Maar het verbieden van toegang tot GenAI-tools vermindert het risico niet noodzakelijkerwijs; het verschuift het vaak alleen naar omgevingen waar toezicht verdwijnt.

Een onderzoek van de College Board toonde aan dat 84% van de middelbare scholieren aangaf GenAI te gebruiken voor schoolwerk, terwijl 45% van de schoolleiders aangaf dat er ten minste enige beperkingen waren op toegang tot AI op school. Soortgelijk, een rapport van IBM vond dat 80% van de kantoorwerkers AI gebruikt, maar slechts 22% uitsluitend vertrouwt op door de werkgever verstrekte tools.

Toegangsbeleid alleen bepaalt het gedrag niet. Leerlingen kunnen hun telefoons gebruiken en elke AI-tool gebruiken via hun cellulair datanetwerk, of de platform gebruiken terwijl ze thuis zijn of op openbaar wifi. Ze kunnen ook VPN’s, externe bureaubladen en plugins gebruiken om beperkingen te omzeilen. Werknemers kunnen hetzelfde doen om werkplekcontroles te omzeilen.

Organisaties moeten ervan uitgaan dat wanneer er een wil is om AI te gebruiken, er een manier is. Wanneer de technologie op een manier wordt beperkt die het gebruik buiten het institutionele zicht duwt, neemt het risico van schaduw-AI toe. Er is geen toezicht op welke informatie in prompts wordt ingevoerd of welke gegevens door het model worden behouden. Elke controle over beveiliging is onmiddellijk verdwenen.

Naast het risico van schaduw-AI, creëren verboden een geletterdheidsgat, waardoor leerlingen volledig onvoorbereid zijn om de technologie te gebruiken die een groot deel van hun toekomst zal uitmaken. Deze tools worden steeds vaker geïntegreerd in zoekmachines, bedrijfsplatforms, productiviteitssuites en persoonlijke apparaten. Een onderzoek van Pew Research toonde aan dat 62% van de Amerikaanse volwassenen zegt dat ze ten minste een paar keer per week met AI omgaan. Het is zo goed als zeker dat leerlingen en werknemers GenAI-systemen zullen tegenkomen, ongeacht de institutionele beleid.

In deze omgeving is onderwijs de meest betrouwbare waarborg tegen bezorgdheid over misbruik of beveiliging, en om ervoor te zorgen dat leerlingen en werknemers goed zijn voorbereid om een tool te gebruiken die essentieel zal zijn voor hun carrière. Het onderwijzen van verantwoord en ethisch gebruik stelt gebruikers in staat om gegevensrisico’s te herkennen en geïnformeerde beslissingen te nemen waar ze deze systemen ook tegenkomen.

Onderwijsprogramma’s moeten zich richten op hoe grote taalmodellen (LLM’s) gegevens verwerken en behouden, hoe hallucinaties te identificeren, hoe AI-gegenereerde uitvoer te verifiëren en hoe te identificeren van phishing-campagnes en AI-gegenereerde afbeeldingen, om er maar een paar te noemen. Leer gebruikers om sceptisch te zijn. AI-uitvoer wordt vaak met vertrouwen en in gepolijste taal gepresenteerd, wat een illusie van autoriteit kan creëren. Zonder training kunnen gebruikers aannemen dat een goed geformuleerd antwoord inherent accuraat is.

De mogelijkheid om digitale inhoud in twijfel te trekken, is een frontale verdediging tegen diep vervalsingen en AI-geverfde phishing-campagnes. Een onderzoek van Gartner toonde aan dat 62% van de organisaties vorig jaar een diep vervalsingsaanval meemaakten, en 32% een aanval op AI-toepassingen. De frequentie en omvang van deze incidenten zullen alleen maar toenemen.

Overheidsinstellingen, zoals scholen en lokale overheden, zijn bijzonder kwetsbaar voor diep vervalsingen en sociale manipulatie, omdat een groot deel van hun activiteiten wordt opgenomen en openbaar beschikbaar is. Audioclips van openbare vergaderingen kunnen worden gemanipuleerd en gebruikt om overtuigende voice-calls te genereren. We hebben gezien dat dreigingsactoren dit gebruiken voor fraude, zoals het omleiden van fondsen tijdens gevoelige transacties. Hoewel dit meestal in gerichte gevallen gebeurt, zijn gebruikers die nooit zijn getraind om deze technieken te herkennen, of zelfs weten dat ze mogelijk zijn, vanaf het begin in het nadeel.

Na onderwijs moeten organisaties duidelijk gecommuniceerde beleid hebben met betrekking tot AI-gebruik en -governance. Deze moeten goedgekeurde tools, aanvaardbare gebruikscases en welke gegevens wel of niet in welk model(maar) kunnen worden ingevoerd. Beleid moet consistent worden toegepast over afdelingen heen, in plaats van te variëren van klaslokaal tot klaslokaal of van kantoor tot kantoor. Duidelijke verwachtingen verminderen ambiguïteit en versterken aansprakelijkheid.

In plaats van algemene beperkingen, moeten organisaties proberen de manier te bepalen waarop de technologie in de praktijk wordt gebruikt. Wanneer een organisatie een tool goedkeurt die toegankelijk, beveiligd en goed werkt, wordt het de standaard voor de meeste gebruikers. Casuele schaduw-AI-gebruik neemt af, omdat er een eenvoudig alternatief is dat geen VPN-downloads vereist.

Organisaties en instellingen zoeken naar manieren om veilige toegang tot LLM’s te bieden, zonder dat hun gegevens worden gedeeld of gebruikt voor training. Een groeiende categorie AI-activatie- en beveiligingstools ontwikkelt zich om dit te doen. Ze kunnen toegang bieden tot meerdere LLM’s, terwijl de gegevens van de instelling veilig worden gecontaineriseerd. Zero data-retentieovereenkomsten bieden het juridische kader om ervoor te zorgen dat de gegevens van de organisatie eigendom blijven van het bedrijf of de instelling, en dat de LLM niet kan worden getraind op deze gegevens. Bovendien, als een werknemer de instelling verlaat, blijft elk AI-gebruik, workflows of gegevens eigendom van de organisatie.

Technische beveiligingsmaatregelen kunnen ook op functieniveau worden toegepast. Een instelling kan leerlingen of werknemers toestaan om algemene vragen te stellen binnen een goedgekeurde LLM, terwijl het uploaden van bestanden, documentdeling of andere hoge-risicofuncties worden uitgeschakeld. Deze configuraties behouden de productiviteitsvoordelen zonder de deur open te zetten voor ongecontroleerde gegevensblootstelling.

Geavanceerdere tools kunnen gevoelige informatie automatisch anoniem maken voordat deze het model bereikt. Bijvoorbeeld, door patiëntnamen of identificatienummers te vervangen door neutrale placeholders, zodat artsen en verpleegkundigen GenAI kunnen gebruiken zonder beschermde gegevens bloot te stellen. Andere integreren gegevensverliespreventiecontroles die socialezekerheidsnummers, financiële rekeninggegevens of andere gereguleerde informatie detecteren en blokkeren voordat deze in prompts worden ingevoerd.

Duidelijke beleid met technische beveiligingsmaatregelen, gebouwd op een fundament van onderwijs, vormen de beste verdediging, vooral omdat de technologie zo snel verandert. GenAI evolueert sneller dan de meeste overheidsorganisaties – en hun budgetten – kunnen bijhouden. Het proberen te blokkeren van elke nieuwe model zodra het verschijnt, is niet haalbaar, omdat tegen de tijd dat een platform wordt beperkt, een ander al aandacht heeft getrokken. Gebruikers die zijn getraind om de onderliggende risico’s te begrijpen, kunnen zich aanpassen aan tools en versies.

Beveiliging in een AI-omgeving hangt af van het erkennen van de realiteit dat GenAI nu in het dagelijks leven is geïntegreerd. Er is geen manier om de genie terug in de fles te krijgen. Algemene verboden kunnen voorzichtigheid signaleren, maar ze ruilen zichtbaar, beheersbaar risico vaak in voor onzichtbaar, onbeheerd risico. Leer een persoon om AI verantwoord te gebruiken, en ze zullen klaar zijn voor alles wat hierna komt.

Christopher Morton fungeert als Logically’s Chief Information Officer, leidt hun IT Ops, Technical Product Development, Network Operations Center en Cloud Services teams. Hij sloot zich aan bij het Logically-team door de overname van The Network Support Company in 2021, waar hij had gediend als CTO. Morton begon zijn carrière bij The Network Support Company in 2005 en was van grote waarde bij het lanceren, beheren en laten groeien van hun beheerde diensten.