Connect with us

Ajatusjohtajat

Miksi AI:n kieltäminen lisää turvallisuusriskejä ja miten instituutiot tulisi vastata

mm

Ympäri Yhdysvaltoja, koulupiirit ja julkisen sektorin organisaatiot ovat siirtymässä rajoittamaan tai estämään pääsyn generatiiviseen tekoälyyn (GenAI) tai tiettyihin työkaluihin. Coloradossa Boulder Valley School District kielsi äskettäin ChatGPT:n kouluverkossa, vedoten huolenaiheisiin, kuten väärinkäytöstä, turvallisuudesta ja akateemisesta eheystä.

Luonnollinen vaisto vähentää altistusta turvallisuusuhille tai tietojen väärinkäytölle on ymmärrettävää. Alustat, joilla on heikot suojaukset tai epäselvät yksityisyydensuojasitoumukset, kuten DeepSeek, ansaitsevat rajoituksia ja tarkastelua. Mutta pääsyn estäminen GenAI-työkaluihin ei vähennä merkittävästi riskejä; se siirtää usein vain riskin ympäristöihin, joissa valvonta katoaa.

College Board -tutkimus osoitti, että 84 % lukiolaisista ilmoitti käyttävänsä GenAI:ta koulutyössä, vaikka 45 % rehtoreista ilmoitti ainakin jonkinlaisia rajoituksia AI-pääsyyn koulussa. Samoin IBM-raportti osoitti, että 80 % toimistotyöntekijöistä käyttää AI:ta, mutta vain 22 % riippuu yksinomaan työnantajan tarjoamista työkaluista.

Pääsypolitiikat eivät määrää yksin käyttäytymistä. Oppilaat voivat ottaa esiin puhelimensa ja käyttää mitä tahansa AI-työkalua matkapuhelinverkon kautta tai käyttää alustaa kotona tai julkisella wifi-verkolla. He voivat myös käyttää VPN:itä, etätyöpöytiä ja laajennuksia rajoitusten ohittamiseen. Työntekijät voivat tehdä samoin työpaikan valvontaa välttääkseen.

Organisaatioiden tulisi olettaa, että kun on tahto käyttää AI:ta, on myös keino. Kun teknologiaa rajoitetaan tavalla, joka ajaa käytön institutionaalisen näkyvyyden ulkopuolelle, varjotekoälyn riski kasvaa. Valvontaa ei ole siitä, mitä tietoja syötetään kysymyksiin tai mitä tietoja malli säilyttää. Minkäänlainen valvonta katoaa välittömästi.

Varjotekoälyn riskin lisäksi kiellot luovat lukutaidon aukon, jättäen oppilaat täysin valmistamattomiksi käyttämään teknologiaa, josta tulee suuri osa heidän tulevaisuudestaan. Nämä työkalut ovat yhä enenevissä määrin upotettuina hakukoneisiin, liiketoimintaplattoformeihin, tuottavuuspaketteihin ja henkilökohtaisiin laitteisiin. Pew Research -tutkimus osoitti, että 62 % Yhdysvaltain aikuisista sanoo vuorovaikuttavansa AI:n kanssa vähintään useita kertoja viikossa. On melkein varmaa, että oppilaat ja työntekijät kohtaavat GenAI-järjestelmiä riippumatta institutionaalisisista käytäntöistä.

Tässä ympäristössä koulutus on luotettavin turvallisuuden take vastuuttomaan käyttöön ja turvallisuuteen liittyviin huolenaiheisiin, ja varmistaa, että oppilaat ja työntekijät ovat hyvin valmistautuneita käyttämään työkalua, josta tulee olennainen osa heidän uraa. Vastuullisen ja eettisen käytön opettaminen varustaa käyttäjiä tunnistamaan tietoriskit ja tekemään perusteltuja päätöksiä, missä tahansa he kohtaavat nämä järjestelmät.

Koulutusohjelmien tulisi keskittyä siihen, miten suuret kielimallit (LLM) prosessoi ja säilyttävät tietoja, miten tunnistaa harhoja, miten vahvistaa AI:n tuottamia tuloksia ja miten tunnistaa kalastelukampanjat ja AI:n tuottamat kuvat, vain mainitaksemme muutamia. Opettajien tulisi opettaa käyttäjiä olemaan epäluuloisia. AI-tulokset esitetään usein itsevarmasti ja viimeistellyssä kielellä, mikä voi luoda illuusion auktoriteetista. Ilman koulutusta käyttäjät saattavat olettaa, että hyvin muotoiltu vastaus on aina tarkka.

Digitaalisen sisällön kyseenalaistamisen kyky on eturintamapuolustus, kun deepfake- ja AI-tehostetut kalastelukampanjat tulevat yhä monimutkaisemmiksi. Gartnerin tutkimus osoitti, että 62 % organisaatioista koki deepfake-hyökkäyksen viime vuonna, ja 32 % kohtasi hyökkäyksen AI-sovelluksiin. Tällaisten tapausten määrä ja laajuus odotetaan vain kasvavan.

Julkisen sektorin instituutiot, kuten koulut ja paikallishallinnot, ovat erityisen alttiita deepfake-tekniikkaan perustuvalle sosiaaliselle insinöörityölle, koska heidän toimintansa on pääosin tallennettu ja julkisesti saatavilla. Julkisten kokousten ääniotoksia voidaan muokata ja käyttää vakuuttavien puheluiden luomiseen. Olemme nähneet uhkaavien toimijoiden käyttävän tätä petoksessa, kuten varojen uudelleenohjauksessa herkillä transaktioilla. Vaikka tämä tapahtuu useimmiten kohdennetuissa tapauksissa, käyttäjät, jotka eivät ole koskaan saaneet koulutusta tunnistamaan nämä tekniikat tai edes tietävät, että ne ovat mahdollisia, ovat alusta alkaen huonoissa olosuhteissa.

Koulutuksen jälkeen organisaatioiden tulisi olla selkeät kommunikoituja käytäntöjä AI:n käytöstä ja hallinnosta. Nämä tulisi määritellä hyväksytyt työkalut, hyväksyttävät käyttötarkoitukset ja mitä tietoja voidaan syöttää mihinkin malliin. Käytäntöjä tulisi soveltaa johdonmukaisesti eri osastojen välillä eikä niiden tulisi vaihdella luokasta toiseen tai toimistosta toiseen. Selkeät odotukset vähentävät epäselvyyttä ja vahvistavat vastuullisuutta.

Sijaan yleisten rajoitusten, organisaatioiden tulisi pyrkiä muokkaamaan, miten teknologiaa käytetään käytännössä. Kun organisaatio hyväksyy työkalun, joka on saatavilla, turvallinen ja toimii hyvin, se tulee useimpien käyttäjien oletusarvoiseksi. Välikäsien Shadow AI -käyttö vähenee, koska on olemassa suoraviivainen vaihtoehto, joka ei vaadi VPN:n lataamista sen käyttämiseksi.

Organisaatiot ja instituutiot pyrkivät tarjoamaan turvallisen pääsyn LLM:ien käyttöön, jossa heidän tietonsa ovat turvassa eivätkä jaeta tai käytetä koulutusmateriaalina. Kasvava luokka AI-käyttöönotto- ja turvallisuustyökaluja on kehittynyt tämän saavuttamiseksi. Ne voivat tarjota pääsyn useisiin LLM:ihin samalla, kun instituution tietoja säilytetään turvallisesti eristetyssä ympäristössä. Nolla-tietojen säilytys sopimukset tarjoavat oikeudellisen kehyksen, jotta organisaation tietoja säilytetään organisaation omaisuutena, eikä LLM:iä voida kouluttaa niiden avulla. Lisäksi, jos työntekijä jättää instituution, kaikki AI-käyttö, työvirrat tai tietoja säilytetään edelleen organisaation omaisuutena.

Teknisiä varotoimia voidaan soveltaa myös ominaisuustasolla. Instituutio voi sallia oppilaiden tai työntekijöiden esittää yleisiä kysymyksiä hyväksytyn LLM:n sisällä samalla, kun tiedostojen lataaminen, asiakirjojen jakaminen tai muut korkean riskin ominaisuudet on poistettu. Nämä konfiguraatiot säilyttävät tuottavuuden hyödyt ilman, että avataan oven uncontrolled data-altistukselle.

Edistyneemmät työkalut voivat automaattisesti anonymisoida arkaluontoisia tietoja ennen kuin ne koskaan saavuttavat mallin. Esimerkiksi korvaamalla potilaiden nimet tai tunnistetiedot puolueettomilla vaihtoehtoilla, jotta lääkärit ja sairaanhoitajat voivat edelleen käyttää GenAI:ta ilman altistamista suojattuihin tietoihin. Toiset integroivat tietojen menetyksen estämisen valvontaa, jotka havaitsevat ja estävät sosiaaliturvatunnukset, rahoitustilitiedot tai muut säädellyt tiedot pääsemästä syötettyä kysymyksiin.

Selkeät käytäntöjä teknisten varotoimien kanssa, jotka perustuvat koulutukseen, luovat parhaimman puolustuksen, erityisesti kun teknologia muuttuu nopeasti. GenAI kehittyy nopeammin kuin useimmat julkisen sektorin organisaatiot – ja heidän budjetit – voivat sopeutua. Yritys estää jokainen uusi malli, kun se ilmestyy, on kestämätöntä, koska kun yksi alusta on rajoitettu, toinen on saavuttanut suosiota. Käyttäjät, jotka ovat koulutettu ymmärtämään perustuvat riskit, voivat sopeutua eri työkaluihin ja versioihin.

Christopher Morton toimii Logically’n Chief Information Officerina, johtaen heidän IT Ops, Technical Product Development, Network Operations Center ja Cloud Services -tiimejä. Hän liittyi Logically-tiimiin The Network Support Companyn omistuksen kautta vuonna 2021, jossa hän toimi CTO:na. Morton aloitti uransa The Network Support Companyssa vuonna 2005 ja oli avainasemassa auttaen käynnistämään, hallitsemaan ja kasvattamaan heidän hallittuja palveluitaan.