stub Generatyvaus dirbtinio intelekto naudojimas: generuojamųjų AI įrankių pasekmių kibernetiniam saugumui išpakavimas – Unite.AI
Susisiekti su mumis

Minties lyderiai

Generatyvaus AI panaudojimas: generuojamųjų AI įrankių pasekmių kibernetiniam saugumui išpakavimas

mm

paskelbta

 on

Sąžininga sakyti, kad generatyvusis dirbtinis intelektas dabar patraukė kiekvieno posėdžių salės ir šalies verslo lyderio dėmesį. Kadaise tai buvo nepaprasta technologija, kurią buvo sunku valdyti, o tuo labiau įvaldyti, generatyvaus AI durys dabar buvo plačiai atvertos dėl tokių programų kaip ChatGPT arba DALL-E. Dabar matome didmeninį generatyvaus dirbtinio intelekto naudojimą visose pramonės šakose ir amžiaus grupėse, kai darbuotojai randa būdus, kaip panaudoti technologiją savo naudai.

Neseniai apklausa nurodė, kad 29 % Z kartos, 28 % X kartos ir 27 % tūkstantmečio respondentų dabar naudoja generatyvius AI įrankius savo kasdieniame darbe. 2022 m. didelio masto generatyvus AI pritaikymas siekė 23 proc., o tikimasi, kad iki 46 m. šis skaičius padvigubės iki 2025 proc.

Generatyvusis dirbtinis intelektas yra besiformuojanti, bet sparčiai besivystanti technologija, kuri pasitelkia apmokytus modelius kuriant originalų turinį įvairiomis formomis – nuo ​​rašyto teksto ir vaizdų iki vaizdo įrašų, muzikos ir net programinės įrangos kodo. Naudojant didelius kalbos modelius (LLM) ir didžiulius duomenų rinkinius, technologija gali akimirksniu sukurti unikalų turinį, kuris beveik nesiskiria nuo žmogaus darbo, o daugeliu atvejų yra tikslesnis ir patrauklesnis.

Tačiau, nors įmonės vis dažniau naudoja generatyvųjį dirbtinį intelektą savo kasdieninei veiklai palaikyti, o darbuotojai greitai įsisavino, priėmimo tempas ir reguliavimo trūkumas iškėlė didelių susirūpinimą dėl kibernetinio saugumo ir teisės aktų laikymosi.

Pagal vieną apklausa visų gyventojų, daugiau nei 80 proc. žmonių yra susirūpinę dėl „ChatGPT“ ir generatyvaus AI keliamos rizikos saugumui, o 52 proc. apklaustųjų nori, kad generatyvus dirbtinio intelekto kūrimas būtų sustabdytas, kad taisyklės galėtų pasivyti. Šią platesnę nuotaiką pakartojo ir pačios įmonės 65% vyresniųjų IT lyderių dėl saugumo problemų nenori toleruoti nepertraukiamos prieigos prie generuojamųjų AI įrankių.

Generatyvusis AI vis dar yra nežinomas ir nežinomas dalykas

Generatyvieji AI įrankiai maitina duomenis. Modeliai, pvz., naudojami ChatGPT ir DALL-E, yra apmokyti naudojant išorinius arba laisvai prieinamus duomenis internete, tačiau norėdami išnaudoti visas šių įrankių galimybes, vartotojai turi dalytis labai konkrečiais duomenimis. Dažnai ragindami įrankius, pvz., „ChatGPT“, vartotojai dalinsis neskelbtina verslo informacija, kad gautų tikslius ir išsamius rezultatus. Tai sukuria daug nežinomųjų verslui. Neteisėtos prieigos ar netyčinio jautrios informacijos atskleidimo rizika kyla, kai kalbama apie laisvai prieinamų generuojamųjų AI įrankių naudojimą.

Ši rizika pati savaime nebūtinai yra blogas dalykas. Problema ta, kad šios rizikos dar turi būti tinkamai ištirtos. Iki šiol nebuvo atlikta realios plačiai prieinamų generuojamųjų AI įrankių poveikio verslui analizės, o pasaulinės teisinės ir reguliavimo sistemos, susijusios su generatyvaus AI naudojimu, dar nepasiekia jokios brandos.

Reguliavimas vis dar vyksta

Reguliavimo institucijos jau vertina generatyvius AI įrankius privatumo, duomenų saugumo ir jų gaminamų duomenų vientisumo požiūriu. Tačiau, kaip dažnai nutinka besivystančių technologijų atveju, reguliavimo aparatas, skirtas palaikyti ir valdyti jos naudojimą, atsilieka keliais žingsniais. Nors technologiją plačiai naudoja įmonės ir darbuotojai, reguliavimo sistemos vis dar yra labai sudėtingos.

Tai sukuria aiškią ir esamą riziką įmonėms, kuri šiuo metu nėra vertinama taip rimtai, kaip turėtų būti. Natūralu, kad vadovai domisi, kaip šios platformos suteiks reikšmingų verslo pranašumų, pvz., automatizavimo ir augimo galimybių, tačiau rizikos vadovai klausia, kaip ši technologija bus reguliuojama, kokios gali būti teisinės pasekmės ir kaip įmonės duomenys gali būti pažeisti arba atskleisti. . Daugelis šių įrankių yra laisvai prieinami bet kuriam vartotojui, turinčiam naršyklę ir interneto ryšį, taigi, kol laukiama, kol reguliavimas pasivys, įmonės turi pradėti labai atidžiai galvoti apie savo „namų taisykles“, susijusias su generatyvaus AI naudojimu.

CISO vaidmuo valdant generatyvųjį AI

Kadangi vis dar trūksta reguliavimo sistemų, vyriausieji informacijos apsaugos pareigūnai (CISO) turi sustiprėti ir atlikti lemiamą vaidmenį valdydami generatyvaus AI naudojimą savo organizacijose. Jie turi suprasti, kas naudoja technologiją ir kokiais tikslais, kaip apsaugoti įmonės informaciją, kai darbuotojai sąveikauja su generuojančiais dirbtinio intelekto įrankiais, kaip valdyti pagrindinės technologijos saugumo riziką ir kaip suderinti saugumo kompromisus su jos verte. technologijų pasiūlymai.

Tai nėra lengva užduotis. Reikėtų atlikti išsamų rizikos vertinimą, siekiant nustatyti neigiamus ir teigiamus rezultatus, atsiradusius, pirma, oficialiai įdiegus technologiją ir, antra, leidžiant darbuotojams be priežiūros naudotis laisvai prieinamomis priemonėmis. Atsižvelgiant į tai, kad generatyvios AI programos yra lengvai pasiekiamos, CISO turės gerai apgalvoti įmonės politiką, susijusią su jų naudojimu. Ar darbuotojai turėtų laisvai naudotis įrankiais, tokiais kaip ChatGPT ar DALL-E, kad palengvintų savo darbą? O gal prieiga prie šių priemonių turėtų būti apribota arba reguliuojama kaip nors nurodant vidines gaires ir sistemas, kaip jas naudoti? Viena akivaizdi problema yra ta, kad net jei būtų sukurtos vidinės naudojimo gairės, atsižvelgiant į technologijos tobulėjimo tempą, jos gali būti pasenusios, kol bus parengtos.

Vienas iš būdų išspręsti šią problemą gali būti nukreipti dėmesį nuo pačių generuojamųjų AI įrankių, o sutelkti dėmesį į duomenų klasifikavimą ir apsaugą. Duomenų klasifikavimas visada buvo pagrindinis aspektas siekiant apsaugoti duomenis nuo pažeidimo ar nutekėjimo, ir tai galioja ir šiuo konkrečiu naudojimo atveju. Tai apima duomenų jautrumo lygio priskyrimą, kuris nustato, kaip jie turėtų būti traktuojami. Ar jis turėtų būti užšifruotas? Ar jis turėtų būti užblokuotas, kad būtų apribotas? Ar apie tai reikia pranešti? Kas turėtų turėti prieigą prie jo ir kur leidžiama dalytis? Sutelkdami dėmesį į duomenų srautą, o ne į patį įrankį, CISO ir saugumo pareigūnai turės daug daugiau galimybių sumažinti kai kurias minėtas rizikas.

Kaip ir visos naujos technologijos, generatyvus AI yra ir palaima, ir rizika įmonėms. Nors jame siūlomos naujos įdomios galimybės, pvz., automatizavimas ir kūrybinis konceptualizavimas, jis taip pat kelia sudėtingų iššūkių, susijusių su duomenų saugumu ir intelektinės nuosavybės apsauga. Nors reguliavimo ir teisinės sistemos vis dar keičiamos, įmonės turi imtis pačios eiti ribas tarp galimybių ir rizikos, įgyvendindamos savo politikos kontrolės priemones, atspindinčias jų bendrą saugumo poziciją. Generatyvusis dirbtinis intelektas paskatins verslą į priekį, tačiau turėtume būti atsargūs ir laikyti vieną ranką ant vairo.

Chrisas Hetneris, turintis daugiau nei 25 metų kibernetinio saugumo eksperto patirtį, yra pripažintas už kibernetinės rizikos padidinimą iki C-Suite ir Board lygio, kad apsaugotų pramonės šakas, infrastruktūrą ir ekonomiką visame pasaulyje.

Jis dirbo Jungtinių Valstijų vertybinių popierių ir biržos komisijos pirmininko vyresniuoju patarėju kibernetinio saugumo klausimais ir SEC atitikties patikrinimų ir ekspertizės biuro kibernetinio saugumo vadovu.

Šiuo metu Chrisas yra „Panzura“ klientų saugumo patariamosios tarybos pirmininkas, teikiantis švietimą ir informuotumą apie duomenų atsparumą, siekdamas tobulinti verslo, veiklos ir finansų suderinimą su kibernetinio saugumo rizikos valdymu. „Panzura“ yra pirmaujanti hibridinių kelių debesų duomenų valdymo įmonė.

Be to, jis yra Nacionalinės įmonių direktorių asociacijos specialusis patarėjas kibernetinės rizikos klausimais, Nasdaq Insight tarybos kibernetinio saugumo ir privatumo skyriaus pirmininkas ir TCIG direktorių valdybos narys.