csonk Generatív mesterséges intelligencia alkalmazása: A generatív mesterségesintelligencia-eszközök kiberbiztonsági vonatkozásainak kibontása – Unite.AI
Kapcsolatba velünk

Gondolatvezetők

Generatív mesterséges intelligencia alkalmazása: A generatív mesterséges intelligencia eszközök kiberbiztonsági vonatkozásainak kibontása

mm

Közzététel:

 on

Joggal mondhatjuk, hogy a generatív mesterséges intelligencia mostanra felkeltette az ország minden tanácstermének és üzleti vezetőjének figyelmét. A korábban nehezen kezelhető, de még kevésbé elsajátítható technológiának köszönhetően a generatív mesterséges intelligencia ajtaja most tárva-nyitva lett az olyan alkalmazásoknak köszönhetően, mint a ChatGPT vagy a DALL-E. Most a generatív mesterséges intelligencia széles körben történő felkarolásának lehetünk tanúi minden iparágban és korcsoportban, miközben az alkalmazottak kitalálják, hogyan hasznosíthatják a technológiát a maguk javára.

Egy nemrégiben felmérés jelezte, hogy a Z generációs válaszadók 29%-a, az X generáció 28%-a és a Millenáris válaszadók 27%-a használ generatív AI-eszközöket mindennapi munkája részeként. 2022-ben a generatív mesterséges intelligencia nagyarányú elterjedése 23% volt, és ez az arány 46-re várhatóan megduplázódik, 2025%-ra.

A generatív mesterséges intelligencia egy születőben lévő, de gyorsan fejlődő technológia, amely képzett modellek segítségével állít elő eredeti tartalmat különféle formákban, az írott szövegtől és képektől kezdve egészen a videókig, zenéig és még szoftverkódig. A nagy nyelvi modellek (LLM) és az óriási adatkészletek segítségével a technológia azonnal egyedi, az emberi munkától szinte megkülönböztethetetlen, sok esetben pontosabb és meggyőzőbb tartalmat tud létrehozni.

Miközben azonban a vállalkozások egyre gyakrabban használnak generatív mesterséges intelligenciát mindennapi működésük támogatására, és az alkalmazottak gyorsan alkalmazzák, az elfogadás üteme és a szabályozás hiánya jelentős kiberbiztonsági és szabályozási aggályokat vet fel.

Szerint egy felmérés A lakosság több mint 80%-a aggódik a ChatGPT és a generatív mesterséges intelligencia által jelentett biztonsági kockázatok miatt, és a megkérdezettek 52%-a szeretné a generatív mesterségesintelligencia fejlesztésének szüneteltetését, hogy a szabályozás felzárkózzon. Ezt a szélesebb körű véleményt maguk a vállalkozások is visszhangozták A vezető informatikai vezetők 65%-a biztonsági megfontolások miatt nem hajlandó elnézni a generatív AI-eszközökhöz való súrlódásmentes hozzáférést.

A generatív AI még mindig ismeretlen, ismeretlen

A generatív AI-eszközök adatokból táplálkoznak. Az olyan modelleket, mint például a ChatGPT és a DALL-E, külső vagy az interneten szabadon elérhető adatokra tanítják, de ahhoz, hogy a legtöbbet hozhassák ki ezekből az eszközökből, a felhasználóknak nagyon specifikus adatokat kell megosztaniuk. Amikor olyan eszközöket kérnek, mint például a ChatGPT, a felhasználók gyakran bizalmas üzleti információkat osztanak meg, hogy pontos, átfogó eredményeket kapjanak. Ez sok ismeretlent teremt a vállalkozások számára. Az érzékeny információkhoz való jogosulatlan hozzáférés vagy szándékolatlan nyilvánosságra hozatal kockázata „belegyullad”, amikor szabadon elérhető generatív AI-eszközökről van szó.

Ez a kockázat önmagában nem feltétlenül rossz dolog. A probléma az, hogy ezeket a kockázatokat még nem kell megfelelően feltárni. A mai napig nem készült valódi üzleti hatáselemzés a széles körben elérhető generatív mesterségesintelligencia-eszközök használatáról, és a generatív mesterségesintelligencia használatára vonatkozó globális jogi és szabályozási keretek még nem értek el semmilyen kiforrottságot.

A szabályozás még folyamatban van

A szabályozó hatóságok már jelenleg is értékelik a generatív AI-eszközöket a magánélet, az adatbiztonság és az általuk előállított adatok integritása szempontjából. Azonban, ahogy az a feltörekvő technológia esetében gyakran előfordul, a használatát támogató és irányító szabályozó apparátus több lépéssel lemaradt. Míg a technológiát a vállalatok és az alkalmazottak széles körben használják, a szabályozási keretek még mindig csak tervezés alatt állnak.

Ez egyértelmű és jelenlévő kockázatot jelent a vállalkozások számára, amelyeket jelenleg nem vesznek olyan komolyan, mint kellene. A vezetőket természetesen érdekli, hogy ezek a platformok miként hoznak jelentős üzleti előnyöket, például automatizálási és növekedési lehetőségeket, de a kockázatmenedzserek azt kérdezik, hogyan fogják szabályozni ezt a technológiát, milyen jogi következményekkel járhat végül, és hogyan kerülhetnek veszélybe vagy kerülhetnek nyilvánosságra a vállalati adatok. . Ezen eszközök közül sok ingyenesen elérhető bármely böngészővel és internetkapcsolattal rendelkező felhasználó számára, így amíg a szabályozás utolérésére várnak, a vállalkozásoknak nagyon alaposan át kell gondolniuk saját „háziszabályaikat” a generatív mesterséges intelligencia használatára vonatkozóan.

A CISO-k szerepe a generatív AI szabályozásában

Mivel a szabályozási keretek még mindig hiányoznak, a Chief Information Security Officeroknak (CISO-knak) fel kell lépniük, és döntő szerepet kell játszaniuk a generatív mesterséges intelligencia használatának irányításában a szervezeteiken belül. Meg kell érteniük, hogy ki és milyen célból használja a technológiát, hogyan védhetik meg a vállalati információkat, amikor az alkalmazottak interakcióba lépnek a generatív mesterséges intelligencia eszközökkel, hogyan kell kezelni a mögöttes technológia biztonsági kockázatait, és hogyan lehet egyensúlyba hozni a biztonsági kompromisszumokat az értékkel. technológiai ajánlatokat.

Ez nem könnyű feladat. Részletes kockázatértékelést kell végezni annak érdekében, hogy meghatározzák mind a negatív, mind a pozitív kimeneteleket, amelyek egyrészt a technológia hatósági minőségben történő bevezetése, másrészt pedig annak lehetővé tétele, hogy az alkalmazottak felügyelet nélkül, szabadon hozzáférhető eszközöket használjanak. Tekintettel a generatív mesterséges intelligencia-alkalmazások könnyen hozzáférhető jellegére, a CISO-knak alaposan át kell gondolniuk a használatukkal kapcsolatos vállalati szabályzatot. Az alkalmazottak szabadon használhatnak olyan eszközöket, mint a ChatGPT vagy a DALL-E, hogy megkönnyítsék munkájukat? Vagy korlátozni vagy mérsékelni kell valamilyen módon az ezekhez az eszközökhöz való hozzáférést, belső irányelvekkel és keretekkel a használatukra vonatkozóan? Az egyik nyilvánvaló probléma az, hogy még ha létre is hoznának belső használati irányelveket, a technológia fejlődési ütemét figyelembe véve, azok a véglegesítésük idejére valószínűleg elavultak.

A probléma megoldásának egyik módja az lehet, hogy elhelyezzük a hangsúlyt magukról a generatív AI-eszközökről, és ehelyett az adatok osztályozására és védelmére összpontosítunk. Az adatok besorolása mindig is kulcsfontosságú szempont volt az adatok megsértése vagy kiszivárgás elleni védelmében, és ez érvényes erre a konkrét felhasználási esetre is. Ez magában foglalja egy érzékenységi szint hozzárendelését az adatokhoz, amely meghatározza az adatok kezelésének módját. Titkosítani kell? Le kell tiltani, hogy visszatartsák? Értesíteni kell? Kinek kell hozzáférnie, és hol szabad megosztani? Ha magára az eszközre, hanem az adatáramlásra összpontosítanak, a CISO-k és a biztonsági tisztek sokkal nagyobb eséllyel mérsékelhetik az említett kockázatok egy részét.

Mint minden feltörekvő technológia, a generatív AI is áldás és kockázat a vállalkozások számára. Miközben izgalmas új lehetőségeket kínál, mint például az automatizálás és a kreatív koncepcióalkotás, néhány összetett kihívást is bevezet az adatbiztonság és a szellemi tulajdon védelme terén. Míg a szabályozási és jogi kereteket még mindig kivonják, a vállalkozásoknak vállalniuk kell a határvonalat a lehetőség és a kockázat között, és végre kell hajtaniuk saját szabályaikat, amelyek tükrözik általános biztonsági helyzetüket. A generatív mesterséges intelligencia előreviszi az üzletet, de ügyelnünk kell arra, hogy az egyik kezünket a kormányon tartsuk.

A kiberbiztonsági szakértőként szerzett több mint 25 éves tapasztalatával Chris Hetner elismert, hogy a kiberkockázatot C-Suite és Board szintre emelte, hogy megvédje az iparágakat, infrastruktúrákat és gazdaságokat világszerte.

Az Egyesült Államok Értékpapír- és Tőzsdefelügyelete elnökének vezető kiberbiztonsági tanácsadójaként, valamint a SEC Megfelelőségi Ellenőrzési és Vizsgálati Hivatalának kiberbiztonsági vezetőjeként dolgozott.

Jelenleg Chris a Panzura Ügyfélbiztonsági Tanácsadó Tanácsának elnöke, amely oktatást és tudatosságot biztosít az adatok rugalmasságával kapcsolatban azzal a céllal, hogy előmozdítsa az üzleti, működési és pénzügyi összehangolást a kiberbiztonsági kockázatok irányításához. A Panzura vezető hibrid többfelhős adatkezelő vállalat.

Emellett a Vállalati Igazgatók Országos Szövetségének kiberkockázatokkal foglalkozó különleges tanácsadója, a Nasdaq Insight Council kiberbiztonsági és adatvédelmi osztályának elnöke, valamint a TCIG igazgatótanácsának tagja.