заглушки Використання генеративного штучного інтелекту: розпакування наслідків генеративних інструментів штучного інтелекту для кібербезпеки - Unite.AI
Зв'язатися з нами

Лідери думок

Застосування генеративного штучного інтелекту: розпакування наслідків генеративних інструментів штучного інтелекту для кібербезпеки

mm

опублікований

 on

Справедливо сказати, що генеративний штучний інтелект зараз привернув увагу кожного залу засідань і бізнес-лідерів у країні. Колись технологія, якою було важко володіти, а тим більше опанувати, двері для генеративного штучного інтелекту тепер широко відкриті завдяки таким програмам, як ChatGPT або DALL-E. Зараз ми спостерігаємо масове охоплення генеративного штучного інтелекту в усіх галузях і вікових групах, оскільки співробітники знаходять способи використовувати цю технологію на свою користь.

Недавній огляд вказали, що 29% респондентів покоління Z, 28% покоління X і 27% респондентів Millennial зараз використовують генеративні інструменти ШІ як частину своєї повсякденної роботи. У 2022 році широкомасштабне впровадження генеративного ШІ становило 23%, і очікується, що до 46 року цей показник подвоїться до 2025%.

Generative AI — це технологія, що тільки зароджується, але швидко розвивається, яка використовує навчені моделі для створення оригінального вмісту в різних формах, від письмового тексту та зображень до відео, музики та навіть програмного коду. Використовуючи великі мовні моделі (LLM) і величезні набори даних, ця технологія може миттєво створювати унікальний контент, який майже неможливо відрізнити від роботи людини, і в багатьох випадках більш точний і переконливий.

Однак, хоча компанії все частіше використовують генеративний штучний інтелект для підтримки своїх повсякденних операцій, а співробітники швидко це освоюють, темпи впровадження та відсутність регулювання викликали серйозні занепокоєння щодо кібербезпеки та дотримання нормативних вимог.

За однією огляд З усього населення понад 80% людей занепокоєні ризиками для безпеки, пов’язаними з ChatGPT і генеративним ШІ, а 52% опитаних хочуть призупинити розробку генеративного ШІ, щоб нормативні документи могли надолужити згаяне. Ці ширші настрої також підтримали самі підприємства, з 65% керівників ІТ вищої ланки не бажає виправдовувати безперебійний доступ до генеративних інструментів ШІ через проблеми безпеки.

Генеративний штучний інтелект поки що залишається невідомим

Генеративні інструменти ШІ харчуються даними. Такі моделі, як ті, що використовуються ChatGPT і DALL-E, навчаються на зовнішніх або вільно доступних даних в Інтернеті, але щоб отримати максимальну віддачу від цих інструментів, користувачі повинні ділитися дуже конкретними даними. Часто під час запиту таких інструментів, як ChatGPT, користувачі діляться конфіденційною бізнес-інформацією, щоб отримати точні, чіткі результати. Це створює багато невідомого для бізнесу. Ризик несанкціонованого доступу або ненавмисного розголошення конфіденційної інформації «запечений», коли мова заходить про використання вільно доступних генеративних інструментів ШІ.

Цей ризик сам по собі не обов’язково є поганим. Проблема в тому, що ці ризики ще належить належним чином дослідити. На сьогоднішній день не було проведено реального аналізу впливу на бізнес використання широко доступних генеративних інструментів ШІ, а глобальні правові та нормативні рамки щодо використання генеративного ШІ ще не досягли будь-якої форми зрілості.

Робота над регулюванням ще триває

Регулятори вже оцінюють генеративні інструменти ШІ з точки зору конфіденційності, безпеки даних і цілісності даних, які вони виробляють. Однак, як це часто буває з новими технологіями, регуляторний апарат для підтримки та управління її використанням відстає на кілька кроків. Незважаючи на те, що технологія використовується компаніями та співробітниками повсюдно, нормативна база все ще знаходиться на стадії розробки.

Це створює явний і реальний ризик для бізнесу, який наразі не сприймається настільки серйозно, як мав би бути. Керівники, природно, зацікавлені в тому, як ці платформи запровадять значні переваги для бізнесу, такі як можливості для автоматизації та зростання, але ризик-менеджери запитують, як ця технологія буде регулюватися, які юридичні наслідки можуть бути в кінцевому підсумку та як дані компанії можуть стати скомпрометованими або розкритими. . Багато з цих інструментів є у вільному доступі для будь-якого користувача з веб-переглядачем і підключенням до Інтернету, тож поки вони чекають, поки законодавче регулювання наздожене, компаніям потрібно почати дуже ретельно думати про власні «домашні правила» щодо використання генеративного ШІ.

Роль CISO в управлінні генеративним ШІ

Оскільки нормативно-правова база все ще відсутня, керівники інформаційної безпеки (CISO) повинні активізувати роботу та відігравати вирішальну роль у управлінні використанням генеративного ШІ у своїх організаціях. Вони повинні розуміти, хто використовує технологію та з якою метою, як захистити корпоративну інформацію, коли співробітники взаємодіють із генеративними інструментами штучного інтелекту, як керувати ризиками безпеки базової технології та як збалансувати компроміси безпеки та цінність технологічні пропозиції.

Це непросте завдання. Необхідно провести детальну оцінку ризиків, щоб визначити як негативні, так і позитивні результати в результаті, по-перше, розгортання технології в офіційній якості, а по-друге, дозволу працівникам використовувати вільно доступні інструменти без нагляду. Враховуючи легкий доступ до генеративних програм штучного інтелекту, CISO потрібно буде ретельно продумати політику компанії щодо їх використання. Чи повинні працівники вільно використовувати такі інструменти, як ChatGPT або DALL-E, щоб полегшити свою роботу? Або доступ до цих інструментів слід певним чином обмежити чи модерувати, дотримуючись внутрішніх вказівок і рамок щодо їх використання? Одна з очевидних проблем полягає в тому, що навіть якби внутрішні правила використання були створені, враховуючи швидкість розвитку технології, вони цілком могли б застаріти до моменту їх завершення.

Одним із способів вирішення цієї проблеми може бути перехід від самих генеративних інструментів штучного інтелекту на класифікацію та захист даних. Класифікація даних завжди була ключовим аспектом захисту даних від злому або витоку, і це також стосується цього конкретного випадку використання. Він включає в себе призначення рівня чутливості даних, який визначає, як з ними слід поводитися. Чи потрібно його шифрувати? Чи потрібно його блокувати, щоб стримувати? Чи потрібно повідомляти? Хто повинен мати до нього доступ і де дозволено ділитися? Зосереджуючись на потоці даних, а не на самому інструменті, CISO та співробітники служби безпеки матимуть набагато більше шансів пом’якшити деякі зі згаданих ризиків.

Як і всі нові технології, генеративний штучний інтелект одночасно є благом і ризиком для бізнесу. Хоча він пропонує захоплюючі нові можливості, такі як автоматизація та творча концептуалізація, він також представляє деякі складні проблеми щодо безпеки даних і захисту інтелектуальної власності. Незважаючи на те, що нормативно-правові рамки все ще опрацьовуються, компанії повинні взяти на себе зобов’язання пройти межу між можливостями та ризиками, запровадивши власні засоби контролю, які відображають загальну безпеку. Генеративний штучний інтелект рухатиме бізнес вперед, але ми повинні бути обережними, щоб однією рукою триматися за кермо.

Маючи понад 25 років досвіду роботи в якості експерта з кібербезпеки, Кріс Гетнер відомий за підвищення кіберризиків до рівня керівника та правління для захисту галузей, інфраструктури та економіки в усьому світі.

Він обіймав посаду старшого радника з кібербезпеки голови Комісії з цінних паперів і бірж США та керівника відділу кібербезпеки в Управлінні інспекцій та експертизи відповідності SEC.

Наразі Кріс очолює Консультативну раду з питань безпеки клієнтів Panzura, яка надає освіту та інформує про стійкість даних із місією вдосконалення бізнес-, операційної та фінансової узгодженості з управлінням ризиками кібербезпеки. Panzura є провідною гібридною мультихмарною компанією з управління даними.

Крім того, він є спеціальним радником з кіберризиків Національної асоціації корпоративних директорів, головою відділу кібербезпеки та конфіденційності Nasdaq Insight Council і членом ради директорів TCIG.