cung Përdorimi i AI gjenerative: Zbërthimi i implikimeve të sigurisë kibernetike të mjeteve gjeneruese të AI - Unite.AI
Lidhu me ne

Udhëheqësit e mendimit

Përdorimi i AI gjenerative: Zbërthimi i implikimeve të sigurisë kibernetike të mjeteve gjeneruese të AI

mm

Publikuar

 on

Është e drejtë të thuhet se inteligjenca artificiale gjeneruese tani ka tërhequr vëmendjen e çdo sallë këshilli dhe udhëheqësi biznesi në vend. Dikur një teknologji skajore që ishte e vështirë për t'u përdorur, aq më pak zotëruar, dyert e AI gjeneruese tani janë hapur plotësisht falë aplikacioneve të tilla si ChatGPT ose DALL-E. Tani jemi dëshmitarë të një përqafimi me shumicë të AI gjeneruese në të gjitha industritë dhe grupmoshat, ndërsa punonjësit gjejnë mënyra për të përdorur teknologjinë në avantazhin e tyre.

Një fundit studim tregoi se 29% e Gen Z, 28% e Gen X dhe 27% e të anketuarve Millennial tani përdorin mjete gjeneruese të AI si pjesë të punës së tyre të përditshme. Në vitin 2022, adoptimi i AI gjeneruese në shkallë të gjerë ishte 23%, dhe kjo shifër pritet të dyfishohet në 46% deri në vitin 2025.

Inteligjenca artificiale gjeneruese është teknologji e sapolindur, por me zhvillim të shpejtë që përdor modele të trajnuara për të gjeneruar përmbajtje origjinale në forma të ndryshme, nga teksti dhe imazhet e shkruara, deri te videot, muzika dhe madje edhe kodi i softuerit. Duke përdorur modele të mëdha gjuhësore (LLM) dhe grupe të mëdha të dhënash, teknologjia mund të krijojë menjëherë përmbajtje unike që është pothuajse e padallueshme nga puna njerëzore, dhe në shumë raste më e saktë dhe bindëse.

Megjithatë, ndërsa bizneset po përdorin gjithnjë e më shumë AI gjeneruese për të mbështetur operacionet e tyre të përditshme, dhe punonjësit kanë qenë të shpejtë në pranimin e tyre, ritmi i miratimit dhe mungesa e rregullores ka ngritur shqetësime të rëndësishme për sigurinë kibernetike dhe përputhshmërinë rregullatore.

Sipas një studim e popullsisë së përgjithshme, më shumë se 80% e njerëzve janë të shqetësuar për rreziqet e sigurisë të paraqitura nga ChatGPT dhe AI ​​gjeneruese, dhe 52% e të anketuarve duan që zhvillimi gjenerues i AI të ndërpritet në mënyrë që rregulloret të mund të arrijnë. Ky mendim më i gjerë është bërë jehonë edhe nga vetë bizneset, me 65% e drejtuesve të lartë të IT nuk dëshiron të lejojë aksesin pa fërkim në mjetet gjeneruese të AI për shkak të shqetësimeve të sigurisë.

AI gjeneruese është ende një e panjohur e panjohur

Mjetet gjeneruese të AI ushqehen me të dhëna. Modelet, të tilla si ato të përdorura nga ChatGPT dhe DALL-E, trajnohen për të dhëna të jashtme ose të disponueshme lirisht në internet, por për të përfituar sa më shumë nga këto mjete, përdoruesit duhet të ndajnë të dhëna shumë specifike. Shpesh, kur kërkojnë mjete të tilla si ChatGPT, përdoruesit do të ndajnë informacione të ndjeshme biznesi në mënyrë që të marrin rezultate të sakta dhe të rrumbullakosura. Kjo krijon shumë të panjohura për bizneset. Rreziku i aksesit të paautorizuar ose zbulimit të paqëllimshëm të informacionit delikat është "i pjekur" kur bëhet fjalë për përdorimin e mjeteve gjeneruese të AI-së të disponueshme lirisht.

Ky rrezik në vetvete nuk është domosdoshmërisht një gjë e keqe. Çështja është se këto rreziqe ende nuk janë eksploruar siç duhet. Deri më sot, nuk ka pasur një analizë reale të ndikimit të biznesit të përdorimit të mjeteve gjeneruese të AI, dhe kornizat globale ligjore dhe rregullatore rreth përdorimit gjenerues të AI nuk kanë arritur ende ndonjë formë pjekurie.

Rregullorja është ende një punë në progres

Rregullatorët tashmë po vlerësojnë mjetet gjeneruese të AI për sa i përket privatësisë, sigurisë së të dhënave dhe integritetit të të dhënave që prodhojnë. Megjithatë, siç ndodh shpesh me teknologjinë në zhvillim, aparati rregullator për të mbështetur dhe drejtuar përdorimin e saj është duke mbetur disa hapa prapa. Ndërsa teknologjia po përdoret nga kompanitë dhe punonjësit shumë e gjerë, kornizat rregullatore janë ende shumë në tabelën e vizatimit.

Kjo krijon një rrezik të qartë dhe prezent për bizneset, i cili për momentin nuk po merret aq seriozisht sa duhet. Ekzekutivët janë natyrisht të interesuar se si këto platforma do të sjellin përfitime materiale të biznesit si mundësitë për automatizim dhe rritje, por menaxherët e rrezikut po pyesin se si do të rregullohet kjo teknologji, cilat mund të jenë përfundimisht implikimet ligjore dhe se si të dhënat e kompanisë mund të komprometohen ose ekspozohen. . Shumë nga këto mjete janë të disponueshme falas për çdo përdorues me një shfletues dhe një lidhje interneti, kështu që ndërsa ata presin që rregulloret të arrijnë, bizneset duhet të fillojnë të mendojnë me shumë kujdes për "rregullat e shtëpisë" të tyre rreth përdorimit gjenerues të AI.

Roli i CISO-ve në qeverisjen e UA gjeneruese

Me kornizat rregullatore që mungojnë ende, Zyrtarët Kryesor të Sigurisë së Informacionit (CISO) duhet të rriten dhe të luajnë një rol vendimtar në menaxhimin e përdorimit të AI gjeneruese brenda organizatave të tyre. Ata duhet të kuptojnë se kush po e përdor teknologjinë dhe për çfarë qëllimi, si të mbrojnë informacionin e ndërmarrjes kur punonjësit ndërveprojnë me mjete gjeneruese të AI, si të menaxhojnë rreziqet e sigurisë të teknologjisë themelore dhe si të balancojnë shkëmbimet e sigurisë me vlerën e ofertat e teknologjisë.

Kjo nuk është detyrë e lehtë. Duhet të kryhen vlerësime të hollësishme të rrezikut për të përcaktuar si rezultatet negative ashtu edhe ato pozitive si rezultat i së pari, vendosjes së teknologjisë në një kapacitet zyrtar dhe së dyti, lejimit të punonjësve që të përdorin mjetet e disponueshme lirisht pa mbikëqyrje. Duke pasur parasysh natyrën e aksesit të lehtë të aplikacioneve gjeneruese të AI, CISO-të do të duhet të mendojnë me kujdes për politikën e kompanisë që rrethon përdorimin e tyre. A duhet të jenë punonjësit të lirë të përdorin mjete të tilla si ChatGPT ose DALL-E për të lehtësuar punën e tyre? Apo duhet të kufizohet ose të moderohet qasja në këto mjete në një farë mënyre, me udhëzime dhe korniza të brendshme se si duhet të përdoren ato? Një problem i dukshëm është se edhe nëse do të krijoheshin udhëzime të përdorimit të brendshëm, duke pasur parasysh ritmin me të cilin teknologjia po evoluon, ato mund të jenë të vjetruara në kohën kur të finalizohen.

Një mënyrë për të adresuar këtë problem mund të jetë në fakt largimi i fokusit nga vetë mjetet gjeneruese të AI, dhe në vend të kësaj fokusimi në klasifikimin dhe mbrojtjen e të dhënave. Klasifikimi i të dhënave ka qenë gjithmonë një aspekt kyç i mbrojtjes së të dhënave nga shkelja ose rrjedhja, dhe kjo vlen edhe në këtë rast të veçantë përdorimi. Ai përfshin caktimin e një niveli të ndjeshmërisë ndaj të dhënave, i cili përcakton se si duhet të trajtohet. A duhet të jetë i koduar? A duhet të bllokohet që të përmbahet? A duhet të njoftohet? Kush duhet të ketë akses në të dhe ku lejohet të ndahet? Duke u fokusuar në rrjedhën e të dhënave, në vend të vetë mjetit, CISO dhe oficerët e sigurisë do të kenë një shans shumë më të madh për të zbutur disa nga rreziqet e përmendura.

Ashtu si të gjitha teknologjitë në zhvillim, AI gjeneruese është një ndihmë dhe një rrezik për bizneset. Ndërsa ofron aftësi të reja emocionuese si automatizimi dhe konceptualizimi krijues, ai gjithashtu paraqet disa sfida komplekse rreth sigurisë së të dhënave dhe mbrojtjes së pronësisë intelektuale. Ndërkohë që kornizat rregullatore dhe ligjore janë ende duke u shuar, bizneset duhet të marrin përsipër të ecin në vijën midis mundësisë dhe rrezikut, duke zbatuar kontrollet e tyre të politikave që pasqyrojnë qëndrimin e tyre të përgjithshëm të sigurisë. Inteligjenca artificiale gjeneruese do ta çojë biznesin përpara, por duhet të jemi të kujdesshëm që të mbajmë njërën dorë në timon.

Me mbi 25 vjet përvojë si ekspert i sigurisë kibernetike, Chris Hetner njihet për rritjen e rrezikut kibernetik në nivelin C-Suite dhe Bordit për të mbrojtur industritë, infrastrukturat dhe ekonomitë në mbarë botën.

Ai shërbeu si Këshilltar i Lartë i Sigurisë Kibernetike i Kryetarit të Komisionit të Letrave me Vlerë dhe Shkëmbimit të Shteteve të Bashkuara dhe si Shef i Sigurisë Kibernetike për Zyrën e Inspektimeve dhe Ekzaminimit të Përputhshmërisë në SEC.

Aktualisht, Chris është Kryetar i Këshillit Këshillimor të Sigurisë së Konsumatorëve të Panzura-s, i cili ofron edukim dhe ndërgjegjësim rreth elasticitetit të të dhënave me një mision për të avancuar harmonizimin e biznesit, operacional dhe financiar ndaj qeverisjes së rrezikut të sigurisë kibernetike. Panzura është një kompani lider hibride e menaxhimit të të dhënave me shumë re.

Për më tepër, ai është një Këshilltar Special për Rrezikun Kibernetik në Shoqatën Kombëtare të Drejtorëve të Korporatave, Kryetar i Sigurisë Kibernetike dhe Privatësisë së Këshillit të Nasdaq Insight dhe anëtar i Bordit të Drejtorëve në TCIG.