քոթուկ Օգտագործելով Generative AI. Unite.AI
Միացեք մեզ

Մտքի առաջնորդներ

Օգտագործելով գեներատիվ AI.

mm

Հրատարակված է

 on

Արդար է ասել, որ գեներատիվ AI-ն այժմ գրավել է երկրի յուրաքանչյուր նիստերի դահլիճի և բիզնեսի ղեկավարի ուշադրությունը: Երբեմնի ծայրամասային տեխնոլոգիան, որը դժվար էր օգտագործել, առավել ևս տիրապետել, գեներացնող արհեստական ​​ինտելեկտի դռները այժմ լայնորեն բացվել են այնպիսի հավելվածների շնորհիվ, ինչպիսիք են ChatGPT-ը կամ DALL-E-ն: Այժմ մենք ականատես ենք լինում գեներատիվ AI-ի մեծածախ ընդգրկմանը բոլոր ոլորտներում և տարիքային խմբերում, քանի որ աշխատակիցները պարզում են տեխնոլոգիան իրենց օգտին օգտագործելու ուղիները:

Վերջերս ուսումնասիրություն նշել է, որ Gen Z-ի 29%-ը, Gen X-ի 28%-ը և Millennial հարցվածների 27%-ն այժմ օգտագործում են գեներատիվ AI գործիքներ՝ որպես իրենց ամենօրյա աշխատանքի մի մաս: 2022 թվականին լայնածավալ գեներատիվ արհեստական ​​ինտելեկտի ընդունումը կազմել է 23%, և ակնկալվում է, որ այդ ցուցանիշը կկրկնապատկվի մինչև 46% մինչև 2025 թվականը:

Generative AI-ն նորածին, բայց արագ զարգացող տեխնոլոգիա է, որն օգտագործում է պատրաստված մոդելները՝ ստեղծելու օրիգինալ բովանդակություն տարբեր ձևերով՝ գրավոր տեքստից և պատկերներից մինչև տեսանյութեր, երաժշտություն և նույնիսկ ծրագրային կոդ: Օգտագործելով լեզվական մեծ մոդելներ (LLM) և տվյալների հսկայական հավաքածուներ՝ տեխնոլոգիան կարող է անմիջապես ստեղծել յուրահատուկ բովանդակություն, որը գրեթե չի տարբերվում մարդկային աշխատանքից և շատ դեպքերում ավելի ճշգրիտ և գրավիչ:

Այնուամենայնիվ, մինչ բիզնեսներն ավելի ու ավելի են օգտագործում գեներատիվ արհեստական ​​ինտելեկտը՝ իրենց ամենօրյա գործողություններին աջակցելու համար, և աշխատակիցները արագ են կիրառում, ընդունման տեմպերը և կանոնակարգերի բացակայությունը զգալի մտահոգություններ են առաջացրել կիբերանվտանգության և կանոնակարգիչների համապատասխանության վերաբերյալ:

Ըստ մեկի ուսումնասիրություն Ընդհանուր բնակչության ավելի քան 80%-ը մտահոգված է ChatGPT-ի և գեներատիվ AI-ի կողմից բխող անվտանգության ռիսկերով, և հարցվածների 52%-ը ցանկանում է, որ գեներատիվ AI-ի զարգացումը դադարեցվի, որպեսզի կանոնակարգերը կարողանան հասնել դրան: Այս ավելի լայն տրամադրությունն արձագանքել են նաև իրենք՝ բիզնեսները, որոնց հետ ՏՏ բարձրաստիճան ղեկավարների 65%-ը չի ցանկանում թույլատրել գեներացնող արհեստական ​​ինտելեկտի գործիքներին առանց շփման հասանելիությունը՝ անվտանգության նկատառումներից ելնելով:

Generative AI-ն դեռ անհայտ է

Գեներատիվ AI գործիքները սնվում են տվյալների վրա: Մոդելները, ինչպիսիք են ChatGPT-ի և DALL-E-ի կողմից օգտագործվողները, վերապատրաստվում են արտաքին կամ ինտերնետում ազատ հասանելի տվյալների վրա, սակայն այս գործիքներից առավելագույն օգուտ քաղելու համար օգտատերերը պետք է կիսվեն շատ կոնկրետ տվյալների վրա: Հաճախ, երբ հուշում են այնպիսի գործիքներ, ինչպիսիք են ChatGPT-ն, օգտատերերը կիսում են զգայուն բիզնես տեղեկատվությունը, որպեսզի ստանան ճշգրիտ և ամբողջական արդյունքներ: Սա բիզնեսի համար շատ անհայտություններ է ստեղծում: Չլիազորված մուտքի կամ զգայուն տեղեկատվության չնախատեսված բացահայտման ռիսկը «ծածկված» է, երբ խոսքը վերաբերում է ազատ հասանելի գեներատիվ AI գործիքների օգտագործմանը:

Այս ռիսկն ինքնին անպայմանորեն վատ բան չէ: Խնդիրն այն է, որ այդ ռիսկերը դեռ պետք է պատշաճ կերպով ուսումնասիրվեն: Մինչ օրս չկա իրական բիզնեսի ազդեցության վերլուծություն լայնորեն հասանելի գեներատիվ AI գործիքների օգտագործման վերաբերյալ, և գեներատիվ AI-ի օգտագործման շուրջ գլոբալ իրավական և կարգավորող շրջանակները դեռ պետք է հասունանան որևէ ձևի:

Կարգավորումը դեռ ընթացքի մեջ է

Կարգավորողներն արդեն գնահատում են գեներատիվ AI գործիքները գաղտնիության, տվյալների անվտանգության և իրենց արտադրած տվյալների ամբողջականության տեսանկյունից: Այնուամենայնիվ, ինչպես հաճախ է լինում զարգացող տեխնոլոգիաների դեպքում, կարգավորող ապարատը, որն աջակցում և կառավարում է դրա օգտագործումը, մի քանի քայլ հետ է մնում: Թեև տեխնոլոգիան օգտագործվում է ընկերությունների և աշխատակիցների կողմից ամենուր, կարգավորող շրջանակները դեռևս շատ են գծագրության վրա:

Սա բիզնեսների համար ստեղծում է հստակ և ներկա ռիսկ, որն այս պահին այնքան էլ լուրջ չի ընդունվում, որքան պետք է: Գործադիրները, բնականաբար, հետաքրքրված են, թե ինչպես այս հարթակները կներկայացնեն բիզնեսի էական ձեռքբերումներ, ինչպիսիք են ավտոմատացման և աճի հնարավորությունները, սակայն ռիսկերի մենեջերները հարցնում են, թե ինչպես է կարգավորվելու այս տեխնոլոգիան, ինչպիսի՞ իրավական հետևանքներ կարող են լինել, և ինչպես կարող են ընկերության տվյալները վտանգվել կամ բացահայտվել: . Այս գործիքներից շատերն ազատորեն հասանելի են զննարկիչով և ինտերնետ կապով ցանկացած օգտատերերի համար, այնպես որ, մինչ նրանք սպասում են կանոնակարգմանը, ձեռնարկությունները պետք է սկսեն շատ ուշադիր մտածել իրենց «տնային կանոնների» մասին՝ գեներատիվ AI-ի օգտագործման շուրջ:

CISO-ների դերը գեներատիվ AI-ի կառավարման գործում

Դեռևս բացակայում են կարգավորող շրջանակները, Տեղեկատվական անվտանգության գլխավոր աշխատակիցները (CISO) պետք է ակտիվանան և վճռորոշ դեր խաղան իրենց կազմակերպություններում գեներատիվ AI-ի օգտագործումը կառավարելու գործում: Նրանք պետք է հասկանան, թե ով է օգտագործում տեխնոլոգիան և ինչ նպատակով, ինչպես պաշտպանել ձեռնարկության տեղեկատվությունը, երբ աշխատակիցները շփվում են գեներացնող AI գործիքների հետ, ինչպես կառավարել հիմքում ընկած տեխնոլոգիայի անվտանգության ռիսկերը և ինչպես հավասարակշռել անվտանգության փոխզիջումները արժեքի հետ: տեխնոլոգիական առաջարկներ.

Սա հեշտ գործ չէ: Ռիսկերի մանրամասն գնահատումներ պետք է իրականացվեն՝ թե՛ բացասական, թե՛ դրական արդյունքները որոշելու համար, առաջին հերթին՝ տեխնոլոգիան պաշտոնական կարգավիճակով կիրառելու, և երկրորդ՝ թույլ տալով աշխատակիցներին օգտագործել ազատ հասանելի գործիքներ՝ առանց վերահսկողության: Հաշվի առնելով արհեստական ​​ինտելեկտի գեներացնող հավելվածների հեշտ հասանելի բնույթը՝ CISO-ները պետք է ուշադիր մտածեն դրանց օգտագործման վերաբերյալ ընկերության քաղաքականության մասին: Արդյո՞ք աշխատակիցները պետք է ազատ լինեն օգտագործելու այնպիսի գործիքներ, ինչպիսիք են ChatGPT-ը կամ DALL-E-ն՝ իրենց աշխատանքը հեշտացնելու համար: Թե՞ այս գործիքներին հասանելիությունը պետք է ինչ-որ կերպ սահմանափակվի կամ չափավորվի՝ ներքին ուղեցույցներով և շրջանակներով, թե ինչպես դրանք պետք է օգտագործվեն: Ակնհայտ խնդիրն այն է, որ նույնիսկ եթե ստեղծվեն ներքին օգտագործման ուղեցույցներ, հաշվի առնելով տեխնոլոգիայի զարգացման տեմպերը, դրանք կարող են հնացած լինել մինչև վերջնական տեսքի բերելը:

Այս խնդրի լուծման ուղիներից մեկը կարող է իրականում լինել կենտրոնացումը գեներացնող AI գործիքներից հեռացնելը և փոխարենը կենտրոնանալ տվյալների դասակարգման և պաշտպանության վրա: Տվյալների դասակարգումը միշտ եղել է տվյալների խախտումից կամ արտահոսքից պաշտպանելու հիմնական ասպեկտը, և դա ճիշտ է նաև այս կոնկրետ օգտագործման դեպքում: Այն ներառում է տվյալների նկատմամբ զգայունության մակարդակի նշանակում, որը որոշում է, թե ինչպես պետք է վերաբերվել դրանց: Արդյո՞ք այն պետք է կոդավորված լինի: Արդյո՞ք այն պետք է արգելափակվի, որպեսզի պարունակվի: Արդյո՞ք պետք է տեղեկացվի: Ո՞վ պետք է մուտք ունենա այն, և որտեղ է թույլատրվում կիսվել: Կենտրոնանալով տվյալների հոսքի վրա, այլ ոչ թե բուն գործիքի, CISO-ները և անվտանգության աշխատակիցները շատ ավելի մեծ հնարավորություն կունենան մեղմելու նշված որոշ ռիսկեր:

Ինչպես բոլոր զարգացող տեխնոլոգիաները, գեներացնող AI-ն և՛ բարիք է, և՛ ռիսկ բիզնեսի համար: Չնայած այն առաջարկում է հետաքրքիր նոր հնարավորություններ, ինչպիսիք են ավտոմատացումը և ստեղծագործական հայեցակարգը, այն նաև ներկայացնում է որոշ բարդ մարտահրավերներ տվյալների անվտանգության և մտավոր սեփականության պաշտպանության շուրջ: Թեև կարգավորող և իրավական շրջանակները դեռևս ջնջվում են, ձեռնարկությունները պետք է իրենց վրա վերցնեն քայլել հնարավորության և ռիսկի միջև՝ իրականացնելով իրենց քաղաքականության վերահսկողությունը, որն արտացոլում է նրանց ընդհանուր անվտանգության դիրքը: Generative AI-ն առաջ կբերի բիզնեսը, բայց մենք պետք է զգույշ լինենք, որ մի ձեռքը անիվի վրա պահենք:

Ավելի քան 25 տարվա փորձ ունենալով որպես կիբերանվտանգության փորձագետ՝ Քրիս Հեթները ճանաչված է կիբեր ռիսկի բարձրացման համար C-Suite և Board մակարդակին՝ պաշտպանելու արդյունաբերությունները, ենթակառուցվածքները և տնտեսությունները ամբողջ աշխարհում:

Նա ծառայել է որպես Միացյալ Նահանգների Արժեթղթերի և բորսաների հանձնաժողովի նախագահի կիբեռանվտանգության ավագ խորհրդական և SEC-ում Համապատասխանության ստուգումների և քննության գրասենյակի կիբեռանվտանգության բաժնի ղեկավար:

Ներկայումս Քրիսը Panzura-ի Հաճախորդների Անվտանգության Խորհրդատվական խորհրդի նախագահն է, որն ապահովում է կրթություն և իրազեկում տվյալների ճկունության շուրջ՝ նպատակ ունենալով առաջ մղել բիզնես, գործառնական և ֆինանսական հավասարեցում կիբերանվտանգության ռիսկերի կառավարմանը: Panzura-ն տվյալների կառավարման առաջատար հիբրիդային բազմաամպային ընկերություն է:

Բացի այդ, նա Կորպորատիվ տնօրենների ազգային ասոցիացիայի կիբեր ռիսկերի գծով հատուկ խորհրդական է, Nasdaq Insight խորհրդի կիբերանվտանգության և գաղտնիության ամբիոնի նախագահ և TCIG-ի տնօրենների խորհրդի անդամ: