Connect with us

Varför förbud mot AI ökar säkerhetsriskerna och hur institutioner bör svara

Tankeledare

Varför förbud mot AI ökar säkerhetsriskerna och hur institutioner bör svara

mm

Över hela USA är skoldistrikt och offentliga organisationer på väg att begränsa eller blockera tillgång till generativa AI-teknologier (GenAI) eller specifika verktyg. I Colorado har Boulder Valley School District nyligen förbjudit ChatGPT på distriktets nätverk, med hänvisning till bekymmer om missbruk, säkerhet och akademisk integritet.

Instinkten att minska exponeringen för säkerhetsincidenter eller datamissbruk är förståelig. Plattformar med svaga skydd eller oklara integritetsåtaganden, som DeepSeek, förtjänar begränsningar och granskning. Men att förbjuda tillgång till GenAI-verktyg minskar inte meningsfullt risken; det förskjuter ofta bara den till miljöer där tillsynen försvinner.

En undersökning från College Board fann att 84% av high school-studenter rapporterade att de använde GenAI för skolarbete, även om 45% av rektorerna rapporterade att det fanns vissa begränsningar för AI-tillgång i skolan. På liknande sätt fann en IBM-rapport att 80% av kontorsarbetare använder AI, men bara 22% förlitar sig uteslutande på arbetsgivar-tillhandahållna verktyg.

Tillgångspolicyn ensam bestämmer inte beteendet. Studenter kan ta ut sina telefoner och använda vilket AI-verktyg som helst via sin cellulära datanätverk, eller använda plattformen medan de är hemma eller på offentligt wifi. De kan också använda VPN, fjärrskrivbord och tillägg för att kringgå begränsningar. Anställda kan göra detsamma för att kringgå arbetsplatskontroller.

Organisationer bör anta att när det finns en vilja att använda AI, finns det ett sätt. När teknologin begränsas på ett sätt som förskjuter användningen bortom institutionell synlighet, ökar risken för skugg-AI. Det finns ingen tillsyn över vilken information som matas in i prompter eller vilken data som behålls av modellen. All kontroll över säkerhet försvinner omedelbart.

Utöver risken för skugg-AI skapar förbud ett litteracitetsgap, som lämnar studenter fullständigt oförberedda att använda den teknik som kommer att utgöra en stor del av deras framtid. Dessa verktyg är alltmer inbäddade i sökmotorer, affärsplattformar, produktivitetssviter och personliga enheter. En undersökning från Pew Research fann att 62% av amerikanska vuxna säger att de interagerar med AI åtminstone flera gånger i veckan. Det är så gott som säkert att studenter och anställda kommer att möta GenAI-system oavsett institutionella policys.

I denna miljö är utbildning den mest tillförlitliga säkerhetsåtgärden mot bekymmer om missbruk eller säkerhet, och för att säkerställa att studenter och arbetare är väl förberedda att använda ett verktyg som kommer att vara avgörande för deras karriärer. Utbildning i ansvarsfull och etisk användning utrustar användare med att känna igen data-risker och fatta informerade beslut var de än möter dessa system.

Utbildningsprogram bör fokusera på hur stora språkmodeller (LLM) bearbetar och behåller data, hur man identifierar hallucinationer, hur man verifierar AI-genererade utdata och hur man identifierar phishing-kampanjer och AI-genererade bilder, för att nämna några. Lär användare att vara skeptiska. AI-utdata presenteras ofta med tillförsikt och i polerat språk, vilket kan skapa en illusion av auktoritet. Utan utbildning kan användare anta att ett välgjort svar är inneboende korrekt.

Förmågan att ifrågasätta digitalt innehåll är en främsta försvarslinje när deepfakes och AI-förbättrade phishing-kampanjer blir mer avancerade. En undersökning från Gartner fann att 62% av organisationerna upplevde en deepfake-attack förra året, och 32% utsattes för en attack på AI-applikationer. Frekvensen och omfattningen av dessa incidenter förväntas bara fortsätta öka.

Offentliga institutioner som skolor och lokala myndigheter är särskilt utsatta för deepfake-aktiverad social ingenjörskonst eftersom så mycket av deras aktivitet är inspelad och offentligt tillgänglig. Ljudklipp från offentliga möten kan manipuleras och användas för att generera övertygande telefonsamtal. Vi har sett hotaktörer använda detta för bedrägeri, såsom omdirigering av medel under känsliga transaktioner. Medan detta händer oftast i riktade fall är användare som aldrig har utbildats för att känna igen dessa tekniker, eller ens vet att de är möjliga, i en nackdel från början.

Efter utbildning bör organisationer ha tydligt kommunicerade policys avseende AI-användning och styrning. Dessa bör definiera godkända verktyg, acceptabla användningsfall och vilken data som kan och inte kan matas in i vilken modell(er). Policys behöver tillämpas konsekvent över avdelningar snarare än variera från klassrum till klassrum eller kontor till kontor. Tydliga förväntningar minskar tvetydighet och förstärker ansvar.

I stället för blankettbegränsningar bör organisationer se till att forma hur teknologin används i praktiken. När en organisation godkänner ett verktyg som är tillgängligt, säkert och fungerar bra, blir det standarden för de flesta användare. Informell skugg-AI-användning minskar eftersom det finns ett enkelt alternativ som inte inkluderar att ladda ner en VPN för att använda det.

Organisationer och institutioner försöker tillhandahålla säker tillgång till LLM på ett sätt där deras data är säker och inte delas eller används för utbildning. En växande kategori av AI-aktiverings- och säkerhetsverktyg håller på att dyka upp för att göra exakt det. De kan tillhandahålla tillgång till flera LLM samtidigt som de håller institutionens data säkert inneslutna. Avtal om noll datakvarhållning tillhandahåller den rättsliga ramen för att säkerställa att organisationens data förblir företagets eller institutionens egendom, och LLM inte kan utbildas på den. Dessutom, om en anställd lämnar institutionen, förblir all AI-användning, arbetsflöden eller data institutionens egendom.

Tekniska skyddsvallar kan också tillämpas på funktionell nivå. En institution kan tillåta studenter eller anställda att ställa allmänna frågor inom en sanktionerad LLM medan de inaktiverar filöverföringar, dokumentdelning eller andra högriskfunktioner. Dessa konfigurationer bevarar produktivitetsfördelarna utan att öppna dörren för okontrollerad dataexponering.

Mer avancerade verktyg kan automatiskt anonymisera känslig information innan den ens når en modell. Till exempel, ersätta patientnamn eller identifierare med neutrala platshållare så att läkare och sjuksköterskor fortfarande kan använda GenAI utan att exponera skyddad data. Andra integrerar dataskyddskontroller som upptäcker och blockerar socialförsäkringsnummer, finansiella kontouppgifter eller annan reglerad information från att skickas i prompter.

Tydliga policys med tekniska skyddsvallar, byggda på en grund av utbildning, skapar det bästa försvaret, särskilt när teknologin förändras så snabbt. GenAI utvecklas snabbare än de flesta offentliga organisationer – och deras budgetar – kan anpassa sig. Att försöka blockera varje ny modell som dyker upp är ohållbart eftersom när en plattform är begränsad har en annan redan fått fäste. Användare som utbildats för att förstå de underliggande riskerna kan anpassa sig över verktyg och versioner.

Säkerhet i en AI-aktiverad miljö beror på att erkänna verkligheten att GenAI nu är inbäddad i dagligt liv. Det finns ingen möjlighet att stoppa genien i flaskan igen. Blankettförbud kan signalera försiktighet, men de förskjuter ofta synlig, hanterbar risk för osynlig, ohanterad exponering. Lär en person att använda AI på ett ansvarsfullt sätt, och de kommer att vara redo för vad som helst som kommer härnäst.

Christopher Morton tjänstgör som Logicallys Chief Information Officer, och leder deras IT Ops, Technical Product Development, Network Operations Center och Cloud Services team. Han gick med i Logically teamet genom förvärvet av The Network Support Company 2021 där han hade tjänstgjort som CTO. Morton började sin karriär med The Network Support Company redan 2005 och var instrumental i att hjälpa till att lansera, hantera och växa deras managed services erbjudanden.