Connect with us

Штучний інтелект і національна безпека: Нова бойова лінія

Штучний інтелект

Штучний інтелект і національна безпека: Нова бойова лінія

mm

Штучний інтелект змінює спосіб, яким країни захищають себе. Він став важливим для кібербезпеки, розробки зброї, контролю кордонів та навіть публічних дискусій. Хоча він пропонує значні стратегічні переваги, він також вводить багато ризиків. Ця стаття досліджує, як штучний інтелект змінює безпеку, поточні результати та складні питання, які ці нові технології піднімають.

  • Кібербезпека: Бій штучного інтелекту проти штучного інтелекту

Більшість сучасних атак починаються в кіберпросторі. Зловмисники вже не пишуть кожен фішинг-ліст вручну. Вони використовують мовні моделі для створення повідомлень, які звучать дружньо і природно. У 2024 році банда використала відео з глибоким фейком головного фінансового директора для крадіжки 25 мільйонів доларів у власної компанії. Відео виглядало так реально, що співробітник виконав фальшиву команду без жодних сумнівів. Тепер атакувальники годують великі мовні моделі виточеними резюме або даними LinkedIn, щоб створити персональну наживку. Деякі групи навіть використовують генеративний штучний інтелект для створення програмних помилок або писання шкідливих кодів.

Захисники також використовують штучний інтелект, щоб захиститися від цих атак. Команди безпеки годують мережеві журнали, кліки користувачів та глобальні звіти про загрози в інструменти штучного інтелекту. Програмне забезпечення вивчає “звичайну” діяльність і попереджає, коли відбувається щось підозріле. Коли виявляється вторгнення, системи штучного інтелекту відключають підозрювану комп’ютер, щоб обмежити шкоду, яка пошириться, якщо люди реагуватимуть повільніше.

  • Автономна зброя

Штучний інтелект також вступає на фізичні поля бою. В Україні безпілотники використовують бортове бачення, щоб знайти бензовози або радарні станції, перш ніж вони вибухнуть. США використовували штучний інтелект, щоб допомогти ідентифікувати цілі для авіаударів у місцях, таких як Сирія. Армія Ізраїлю недавно використала платформу штучного інтелекту для вибору цілей, щоб відсортувати тисячі повітряних зображень та позначити потенційні схованки бойовиків. Китай, Росія, Туреччина та Велика Британія протестували ” зброю, що зависає“, яка обертається над територією, поки штучний інтелект не знайде ціль. Ці технології можуть зробити військові операції більш точними та зменшити ризики для солдатів. Але вони також викликають серйозні побоювання. Хто відповідає, коли алгоритм вибирає неправильну ціль? Деякі експерти бояться ” війн-спалахів“, де машини реагують занадто швидко для дипломатів, щоб зупинити їх. Багато експертів закликають до міжнародних правил, щоб контролювати автономну зброю, але держави бояться відставати, якщо вони зупиняться.

  • Надзір і розвідка

Служби розвідки раніше покладалися на команди аналітиків для читання звітів або перегляду відеопотоків. Сьогодні вони покладаються на штучний інтелект, щоб просіяти мільйони зображень і повідомлень кожну годину. У деяких країнах, таких як Китай, штучний інтелект відстежує поведінку громадян, від малих речей, таких як порушення правил дорожнього руху, до того, що вони роблять онлайн. Подібним чином на кордоні США та Мексики сонячні вежі з камерами та тепловими датчиками сканують пустельну місцевість. Штучний інтелект визначає рухому фігуру, позначає її як людину або тварину, а потім попереджає патрульних агентів. Ця ” віртуальна стіна” охоплює велику територію, яку люди ніколи не могли б спостерігати самостійно.

Хоча ці інструменти розширюють охоплення, вони також збільшують помилки. Системи розпізнавання облич були показані, щоб помилково ідентифікувати жінок та людей із темнішою шкірою з більшою частотою, ніж білих чоловіків. Одна помилкова відповідь може привести до того, що невинна людина буде піддана додатковим перевіркам або затриманню. Законодавці вимагають аудиту алгоритмів, ясних шляхів апеляції та людської перевірки перед будь-якими серйозними діями.

  • Інформаційна війна

Сучасні конфлікти ведуться не тільки ракетами та кодом, але також і нарративами. У березні 2024 року фальшиве відео показало, як президент України наказує солдатам капітулювати; воно поширилося в Інтернеті, перш ніж фактчекери спростували його. Під час бойових дій між Ізраїлем та Хамасом у 2023 році штучно створені фейки, що сприяють політиці однієї зі сторін, заповнили соціальні потоки, щоб нахилити громадську думку.

Хибна інформація поширюється швидше, ніж уряди можуть її виправити. Це особливо проблематично під час виборів, коли штучно створений контент часто використовується для впливу на виборців. Виборці знаходять складнощі у відрізненні справжніх та штучно створених зображень чи відео. Хоча уряди та технологічні компанії працюють над проєктами протидії штучному інтелекту для сканування цифрових відбитків штучного інтелекту, але гонка рівна; творці покращують свої фейки так само швидко, як захисники покращують свої фільтри.

  • Підтримка прийняття рішень

Армії та агентства збирають величезну кількість даних, включаючи години відео з безпілотників, журнали технічного обслуговування, зображення з супутників та відкриті джерела звітів. Штучний інтелект допомагає, сортуючи та виділяючи відповідну інформацію. НАТО недавно прийняло систему, надихнену проєктом Maven США. Вона зв’язує бази даних з 30 держав-членів, надаючи планувальникам уніфікований вигляд. Система пропонує ймовірні рухи ворога та визначає потенційні нестачі постачання. Командування спеціальних операцій США використовує штучний інтелект, щоб допомогти складати частини свого річного бюджету шляхом сканування рахунків та рекомендацій щодо перерозподілу. Подібні платформи штучного інтелекту передбачають виходи двигунів з ладу, планують ремонти заздалегідь та налаштовують симуляції польотів для індивідуальних потреб пілотів.

  • Законодавство та контроль кордонів

Поліцейські сили та імміграційні офіцери використовують штучний інтелект для завдань, які вимагають постійної уваги. У зайнятих аеропортах біометричні кіоски підтверджують особистість мандрівників, щоб зробити процес більш ефективним. Програмне забезпечення для аналізу закономірностей виділяє записи про подорожі, які свідчать про торгівлю людьми або контрабанду наркотиків. У 2024 році один європейський партнер використовував такі інструменти, щоб викрити мережу, яка перевозила мігрантів через вантажні судна. Ці інструменти можуть зробити кордони безпечнішими та допомогти спіймати злочинців. Але є й побоювання. Розпізнавання облич іноді помилково працює для певних класів людей з низькою представленістю, що може привести до помилок. Конфіденційність також є проблемою. Головне питання полягає в тому, чи повинен штучний інтелект використовуватися для моніторингу кожного так близько.

Резюме

Штучний інтелект змінює національну безпеку багатьма способами, пропонуючи як можливості, так і ризики. Він може захистити країни від кіберзагроз, зробити військові операції більш точними та покращити прийняття рішень. Але він також може поширювати брехню, порушувати приватність або робити смертельні помилки. Коли штучний інтелект стає більш поширеним у сфері безпеки, нам потрібно знайти баланс між використанням його сили для добра та контролем його небезпек. Це означає, що країни повинні працювати разом та встановлювати чіткі правила щодо використання штучного інтелекту. У кінцевому підсумку штучний інтелект – це інструмент, і те, як ми його використовуємо, визначить майбутнє безпеки. Ми повинні бути обережними, щоб використовувати його мудро, щоб він допомагав нам більше, ніж шкодив нам.

Доктор Техсін Зія є доцентом COMSATS University Islamabad, який має ступінь PhD з штучного інтелекту у Віденському технічному університеті, Австрія. Спеціалізується на штучному інтелекті, машинному навчанні, науці про дані та комп'ютерному баченні, він зробив значний внесок з публікаціями в авторитетних наукових журналах. Доктор Техсін також очолював різні промислові проекти як головний дослідник і служив консультантом з штучного інтелекту.