Connect with us

Як штучний інтелект, який створює глибокі підробки, загрожує цілісності виборів — і що з цим робити

Лідери думок

Як штучний інтелект, який створює глибокі підробки, загрожує цілісності виборів — і що з цим робити

mm

Рекламні оголошення кампаній уже можуть бути досить заплутаними і суперечливими.

Тепер уявіть, що ви націлені на рекламне оголошення кампанії, в якому кандидат висловлює сильні позиції, які впливають на ваш голос — і оголошення навіть не справжнє. Це глибока підробка.

Це не якийсь гіпотетичний сценарій майбутнього; глибокі підробки — це реальна, поширена проблема. Ми вже бачили заголовки про створені штучним інтелектом “відгуки”, і те, що ми чули, тільки поверхнево торкається проблеми.

Когда ми наближуємося до президентських виборів у США 2024 року, ми вступаємо в невідкриту територію кібербезпеки та цілісності інформації. Я працював на перетині кібербезпеки та штучного інтелекту з тих пір, як ці концепції були ще в зародку, і я ніколи не бачив нічого подібного до того, що відбувається зараз.

Швидка еволюція штучного інтелекту — зокрема, генеративного штучного інтелекту і, звичайно, легкості створення реалістичних глибоких підробок — трансформувала ландшафт загроз виборам. Ця нова реальність вимагає зміни основних припущень щодо безпеки виборів і освіти виборців.

Збройовий штучний інтелект

Вам не потрібно приймати моє особисте досвід як доказ; є багато доказів того, що кібербезпеки, з якими ми стикаємося сьогодні, розвиваються за безпрецедентною швидкістю. За кілька років ми стали свідками драматичної трансформації можливостей і методологій потенційних загроз. Ця еволюція дзеркально відображає прискорену розробку штучного інтелекту, але з турботливим поворотом.

Наприклад:

  • Швидка збройовість уразливостей. Сучасні атакувальники можуть швидко використати щойно виявлені уразливості, часто швидше, ніж патчі можуть бути розроблені та розгорнуті. Інструменти штучного інтелекту ще більше прискорюють цей процес, зменшуючи вікно між відкриттям уразливості та її використання.
  • Розширення поверхні атаки. Широке впровадження хмарних технологій суттєво розширило потенційну поверхню атаки. Розподілена інфраструктура та спільна модель відповідальності між постачальниками хмарних послуг та користувачами створюють нові вектори для використання, якщо вони не керуються належним чином.
  • Застарілі традиційні заходи безпеки. Застарілі засоби безпеки, такі як брандмауери та антивірусне програмне забезпечення, борються за те, щоб збігатися з цими еволюціонуючими загрозами, особливо коли мова йде про виявлення та пом’якшення штучного інтелекту, створеного вмісту.

Хто говорить

У цьому новому ландшафті загроз глибокі підробки представляють особливо хитру загрозу цілісності виборів. Нещодавнє дослідження компанії Ivanti надає цифри цій загрозі: понад половина працівників офісу (54%) не знають, що просунутий штучний інтелект може імітувати голос будь-кого. Ця відсутність усвідомлення серед потенційних виборців дуже турбує, коли ми наближуємося до критичного виборчого циклу.

Стільки всього залежить від цього.

Складність сучасних технологій глибоких підробок дозволяє загрозливим акторам, як іноземним, так і внутрішнім, створювати переконливі фальшиві аудіо-, відео- та текстові вмісти, при мінімальних зусиллях. Проста текстова підказка тепер може створити глибоку підробку, яку все трудніше відрізнити від справжнього вмісту. Ця можливість має серйозні наслідки для поширення дезінформації та маніпулювання громадською думкою.

Виклики в атрибуції та пом’якшенні

Атрибуція — одна з найзначущих викликів, з якими ми стикаємося при штучному інтелекті, створеному втручанням у вибори. Хоча ми історично асоціювали втручання у вибори з акторами держави, демократизація інструментів штучного інтелекту означає, що внутрішні групи, рухомі різними ідеологічними мотиваціями, тепер можуть використовувати ці технології для впливу на вибори.

Ця дифузія потенційних загрозливих акторів ускладнює нашу здатність ідентифікувати та пом’якшити джерела дезінформації. Це також підкреслює необхідність багатовимірного підходу до безпеки виборів, який виходить за рамки традиційних заходів кібербезпеки.

Координовані зусилля для підтримки цілісності виборів

Для боротьби з викликом штучного інтелекту, створеного глибоких підробок, на виборах буде потрібно координоване зусилля по декілька секторів. Ось ключові області, на яких нам потрібно зосередити наші зусилля:

  • Зміщення безпеки для систем штучного інтелекту. Нам потрібно застосовувати принципи “зміщення вліво” безпеки до розробки самих систем штучного інтелекту. Це означає включення безпеки до найраніших стадій розробки моделей штучного інтелекту, включаючи розгляди потенційного неправильного використання у втручанні у вибори.
  • Впровадження безпечних конфігурацій. Системи штучного інтелекту та платформи, які потенційно можуть бути використані для створення глибоких підробок, повинні мати надійні, безпечні конфігурації за замовчуванням. Це включає сильні засоби автентифікації та обмеження на типи вмісту, який можна створити.
  • Захист ланцюга постачання штучного інтелекту. Як ми зосереджуємося на захисті ланцюга постачання програмного забезпечення, нам потрібно розширити цю пильність на ланцюг постачання штучного інтелекту. Це включає перевірку наборів даних, використаних для навчання моделей штучного інтелекту, та алгоритмів, використаних у генеративних системах штучного інтелекту.
  • Покращені можливості виявлення. Нам потрібно інвестувати та розробляти передові інструменти виявлення, які можуть ідентифікувати штучний інтелект, створений вміст, особливо в контексті інформації, пов’язаної з виборами. Це, ймовірно, буде включати використання самого штучного інтелекту для боротьби з дезінформацією, створеною штучним інтелектом.
  • Освіта та усвідомлення виборців. Критично важливим компонентом нашої оборони проти глибоких підробок є освідомлений електорат. Нам потрібно комплексні освітні програми, щоб допомогти виборцям зрозуміти існування та потенційний вплив штучного інтелекту, створеного вмісту, та надати їм інструменти для критичної оцінки інформації, з якою вони стикаються.
  • Співробітництво між секторами. Сектор технологій, особливо компанії IT та кібербезпеки, повинні тісно співпрацювати з урядовими агентствами, офіційними особами виборів та медіа-організаціями, щоб створити єдиний фронт проти втручання у вибори, керованого штучним інтелектом.

Що зараз, і що далі

Когда ми впроваджуємо ці стратегії, важливо, щоб ми постійно вимірювали їх ефективність. Це буде вимагати нових метрик та інструментів моніторингу, спеціально розроблених для відстежування впливу штучного інтелекту, створеного вмісту, на дискурс виборів та поведінку виборців.

Нам також потрібно бути готовими швидко адаптувати наші стратегії. Область штучного інтелекту розвивається за неймовірною швидкістю, і наші оборонні заходи повинні розвиватися так само швидко. Це може включати використання самого штучного інтелекту для створення більш надійних та адаптивних заходів безпеки.

Виклик штучного інтелекту, створеного глибоких підробок, на виборах представляє новий розділ у кібербезпеці та цілісності інформації. Для боротьби з цим нам потрібно думати за рамками традиційних парадигм безпеки та розвивати співробітництво між секторами та дисциплінами. Метою є використання потенціалу штучного інтелекту на користь демократичних процесів, одночасно пом’якшуючи його потенціал для шкоди. Це не тільки технічний виклик, але й соціальний, який буде вимагати постійної пильності, адаптації та співробітництва.

Цілісність наших виборів — і, поширено, здоров’я нашої демократії — залежить від нашої здатності зустріти цей виклик вперед. Це відповідальність, яка лежить на всіх нас: технологах, політиках та громадянах.

Доктор Срінівас Муккамала є головним директором з продуктів компанії Ivanti. Він був засновником і генеральним директором компанії RiskSense до того, як Ivanti придбала цю компанію у серпні 2021 року.

Він приєднався до компанії Ivanti як керівник з питань безпеки компанії Ivanti та відіграв важливу роль у інтеграції портфеля та команди RiskSense у стратегію компанії Ivanti. Він є визнаним авторитетом у сфері штучного інтелекту (AI) та нейронних мереж і був учасником групи експертів, яка співпрацювала з Міністерством оборони США щодо застосування цих концепцій для вирішення проблем кібербезпеки.

Доктор Муккамала відповідає за управління продуктами для всіх рішень компанії Ivanti та продовжуватиме сприяти інноваціям у сфері інтегрованих рішень у всіх напрямках діяльності компанії: ITSM, Безпека та UEM.​

Доктор Муккамала також був провідним дослідником проекту CACTUS (Комп'ютерний аналіз кібертероризму проти США) та володіє патентом на інтелектуальних агентів для системи виявлення вторгнень та методу її застосування.​

Доктор Муккамала має ступінь доктора філософії та магістра наук з комп'ютерних наук у Нью-Мексиканському інституті гірничої справи та технологій.

Розкриття інформації про рекламу: Unite.AI дотримується суворих редакційних стандартів, щоб надавати читачам точну інформацію та новини. Ми можемо отримувати компенсацію, якщо ви переходите за посиланнями на продукти, які ми оглядали.