Ajatusjohtajat
Käyttämällä generatiivista tekoälyä: generatiivisten tekoälytyökalujen kyberTurvallisuusvaikutusten purkaminen

On reilua sanoa, että generatiivinen tekoäly on nyt saanut jokaisen johtoryhmän ja liiketoimintajohtajan huomion. Aikaisemmin reunalla ollut teknologia, joka oli vaikea hallita, vielä vähemmän mestaroida, on nyt avannut ovensa laajasti sovellusten kuten ChatGPT tai DALL-E ansiosta. Nyt näemme laajan hyväksymisen generatiivisesta tekoälystä kaikilla aloilla ja ikäryhmissä, kun työntekijät keksivät tavoja hyödyntää teknologiaa omassa työssään.
Viimeisimmän tutkimuksen mukaan 29 % Gen Z:stä, 28 % Gen X:stä ja 27 % millennialistä käyttää jo generatiivisia tekoälytyökaluja päivittäisessä työssään. Vuonna 2022 laajamittainen generatiivisen tekoälyn omaksuminen oli 23 %, ja tämä luku odotetaan kasvavan 46 %:iin vuoteen 2025 mennessä.
Generatiivinen tekoäly on nuori mutta nopeasti kehittyvä teknologia, joka hyödyntää koulutettuja malleja alkuperäisen sisällön luomiseen eri muodoissa, kirjoitetusta tekstistä ja kuvista aina videoihin, musiikkiin ja jopa ohjelmistokoodiin. Käyttämällä suuria kielen malleja (LLM) ja valtavia tietokantoja teknologia voi välittömästi luoda yksilöllistä sisältöä, joka on lähes erottamaton ihmistyöstä, ja monissa tapauksissa tarkempi ja viehättävämpi.
Kuitenkin, vaikka yritykset käyttävät yhä enemmän generatiivista tekoälyä päivittäisten toimintojensa tueksi, ja työntekijät ovat olleet nopeita omaksumisessa, omaksumisen tempo ja sääntelyn puute ovat herättäneet merkittäviä kyberturvallisuus- ja sääntelymukaisuuskysymyksiä.
Yhden tutkimuksen mukaan yleisöstä yli 80 % on huolissaan ChatGPT:n ja generatiivisen tekoälyn turvallisuusriskeistä, ja 52 % vastaajista haluaa generatiivisen tekoälyn kehittämisen pysäyttämisen, jotta säännökset voivat pysyä perässä. Tämä laajempi mielipide on myös toistunut yritysten itsensä keskuudessa, joissa 65 %:lla senior-IT-johtajista ei ole halua hyväksyä kitkattomia pääsyjä generatiivisiin tekoälytyökaluihin turvallisuuden vuoksi.
Generatiivinen tekoäly on edelleen tuntematon tuntematon
Generatiiviset tekoälytyökalut käyttävät dataa. Mallit, kuten ne, joita käytetään ChatGPT:ssä ja DALL-E:ssa, on koulutettu ulkoisella tai vapaasti saatavilla olevalla internet-datalla, mutta jotta voidaan saada parhaat tulokset näistä työkaluista, käyttäjien on jaettava erittäin tarkkaa dataa. Usein, kun käyttäjiä kehottaa työkaluja, kuten ChatGPT:tä, he jakavat herkkää liiketoimintatietoa, jotta he voivat saada tarkat ja monipuoliset tulokset. Tämä luo paljon tuntemattomia yrityksille. Vaaraa, että herkkä tieto pääsee vahingossa tai tahallisesti ulkopuolisille tahoille, on “upotettu” vapaasti saatavilla oleviin generatiivisiin tekoälytyökaluihin.
Tämä riski itsessään ei välttämättä ole paha asia. Ongelma on, että nämä riskit eivät ole vielä kunnolla tutkittu. Tähän asti ei ole tehty mitään todellista liiketoimintavaikutuksen analyysiä laajasti saatavilla olevien generatiivisten tekoälytyökalujen käytöstä, ja globaalit oikeudelliset ja sääntelykehykset generatiivisen tekoälyn käytöstä eivät ole vielä saavuttaneet mitään muotoa.
Sääntely on edelleen työn alla
Sääntelijät arvioivat jo generatiivisia tekoälytyökaluja yksityisyyden, dataturvallisuuden ja tuottamansa datan eheyden suhteen. Kuitenkin, kuten usein tapahtuu uuden teknologian kanssa, sääntelylaitteisto, joka tukee ja ohjaa sen käyttöä, on jäljessä useita askelia. Vaikka teknologiaa käytetään laajasti yrityksissä ja työntekijöiden keskuudessa, sääntelykehykset ovat edelleen piirustuslaudalla.
Tämä luo selvän ja läsnäolevan riskin yrityksille, jota ei tällä hetkellä oteta tarpeeksi vakavasti. Johtajat ovat luonnollisesti kiinnostuneita siitä, miten nämä alustat tuovat aineellisia liiketoimintavoittoja, kuten automaatio- ja kasvumahdollisuuksia, mutta riskienhallinnan asiantuntijat kysyvät, miten tämä teknologia sääntelään, mitkä ovat lopulliset oikeudelliset seuraukset, ja miten yrityksen data voi joutua vaaraan tai paljastua. Monet näistä työkaluista ovat vapaasti saatavilla käyttäjille, jotka ovat verkkoyhteyden ja selaimen kanssa, joten kun he odottavat sääntelyn kehittymistä, yritysten on aloitettava tarkkaavainen ajattelu omista “talon säännöistä” generatiivisen tekoälyn käytölle.
CISO:n rooli generatiivisen tekoälyn hallinnassa
Sääntelykehykset puuttuessa Chief Information Security Officers (CISO):iden on astuttava esiin ja ottava tärkeä rooli generatiivisen tekoälyn hallinnassa organisaatiossaan. Heidän on ymmärrettävä, kuka käyttää teknologiaa ja mihin tarkoitukseen, miten suojella yrityksen tietoja, kun työntekijät ovat vuorovaikutuksessa generatiivisten tekoälytyökalujen kanssa, miten hallita teknologian perustuvia turvallisuusriskejä, ja miten tasapainottaa turvallisuuden ja tarjonnan arvoa.
Tämä ei ole helppo tehtävä. Yksityiskohtaiset riskianalyysit on tehtävä, jotta voidaan määrittää sekä negatiiviset että positiiviset tulokset sekä teknologian käyttöönotosta viralliseen käyttöön ja sen sallimisesta työntekijöiden käytettäväksi vapaasti saatavilla olevia työkaluja ilman valvontaa. Ottaen huomioon generatiivisten tekoälysovellusten helppokäyttöisyyden, CISO:iden on mietittävä tarkkaan yrityksen käytäntöjä niiden käytölle. Pitäisikö työntekijöiden olla vapaita käyttämään työkaluja, kuten ChatGPT:tä tai DALL-E:tä, helpottaakseen työtään? Tai pitäisikö pääsy näihin työkaluihin rajoittaa tai säännellä jollain tavoin, sisäisillä ohjeilla ja kehyksillä siitä, miten niitä tulisi käyttää? Yksi ilmeinen ongelma on, että vaikka sisäiset käyttöohjeet luotaisiin, teknologian kehittyessä nopeasti ne voivat olla vanhentuneita, kun ne valmistuvat.
Yksi tapa ratkaista tämä ongelma voisi olla siirtää fokus generatiivisista tekoälytyökaluista itsestään dataan luokitteluun ja suojaamiseen. Dataan liittyvä luokittelu on aina ollut avainasemassa datan suojaamisessa tietoturva- ja tietosuojauksessa, ja se pätee myös tähän erityiseen käyttötapaukseen. Se sisältää datan herkkyyden määrittämisen, joka määrittää, miten sitä tulisi käsitellä. Pitäisikö se salata? Pitäisikö se estää sen sisällä? Pitäisikö se ilmoittaa? Kuka tulisi päästä siihen käsiksi, ja mihin se saa jakaa? Keskittymällä datavirran sijaan itse työkaluihin, CISO:t ja turvallisuuden asiantuntijat pystyvät paremmin lieventämään joitakin mainittuja riskejä.
Kuten kaikki uusi teknologia, generatiivinen tekoäly on sekä hyödyksi että riski yrityksille. Vaikka se tarjoaa jännittäviä uusia mahdollisuuksia, kuten automaation ja luovan konseptoinnin, se myös tuo monimutkaisia haasteita dataturvallisuuden ja älyomaisuuden suojaamisen suhteen. Vaikka sääntely- ja oikeudelliset kehykset ovat edelleen kesken, yritysten on itse käveltyä linjalla mahdollisuuksien ja riskien välillä, toteuttaen omat käytäntönsä, jotka heijastavat yrityksen turvallisuusasennetta. Generatiivinen tekoäly ajaa liiketoimintaa eteenpäin, mutta meidän on pidettävä yksi käsi ohjaimessa.












