Connect with us

Кібербезпека

Як хакери використовують штучний інтелект

mm

Штучний інтелект довів свою цінність як технологія, що додає вартість у глобальній економіці.

Когда бізнеси змушені були адаптуватися до поточних подій за останні кілька років, деякі з них знайшли способи впихнути півдесятка років цифрових трансформацій у значно коротший термін. У випадку Frito-Lay – половину десятиліття цифрових трансформацій у значно коротший термін. Harris Poll і Appen виявили, що бюджет на штучний інтелект збільшився на 55% під час глобальної пандемії.

Як і будь-який інструмент, штучний інтелект не має внутрішньої моральної цінності. Корисність або потенційна шкода штучного інтелекту залежить від того, як система «навчається» і що люди в кінцевому підсумку роблять з ним.

Деякі спроби використання штучного інтелекту – такі як «передбачення» злочину до його вчинення – показують, що моделі, навчені на упередженій інформації, схильні повторювати людські недоліки. До цього часу навчання штучного інтелекту за допомогою даних із системи правосуддя США призвело до трагічно упередженого висновку штучного інтелекту.

У інших випадках люди обирають більш свідомі способи використання руйнівного потенціалу штучного інтелекту. Хакери знову демонструють свою інноваційну схильність, використовуючи штучний інтелект для покращення ефективності та прибутковості своїх атак. І оскільки кібервійна стає все більш поширеною у світі, ми напевно побачимо подальший розвиток застосунків штучного інтелекту в хакінгу.

Штучний інтелект – це можливість і ризик

Штучний інтелект пропонує світ можливостей для бізнесу, який бажає покращити прогнозування, оптимізацію бізнесу та стратегії утримання клієнтів. Це також величезна можливість для тих, хто намагається скомпрометувати цифрову суверенітет інших.

Ось кілька способів, якими штучний інтелект може бути вразливий до прихованого втручання та більш відкритих зусиль з його використання для агресивних дій.

1. Кompрометація логіки машини

Головна перевага штучного інтелекту для споживачів і комерційних підприємств полягає в тому, що він виконує передбачувані та повторювані дії логіки без людського втручання. Це також його найбільша слабкість.

Як і будь-яка інша цифрова конструкція, штучний інтелект може бути вразливий до проникнення ззовні. Хакери, які отримують доступ і компрометують логіку машини, що живить штучний інтелект, можуть змусити його виконувати непередбачувані або шкідливі дії. Наприклад, штучний інтелект, призначений для моніторингу промислових умов, може надавати помилкові показання або не надсилати сигнали про технічне обслуговування.

Оскільки вся суть інвестицій у штучний інтелект полягає в тому, щоб виключити людське втручання та сумніватися у результатах, шкода інфраструктурі або якості продукції, викликана такою атакою, може не бути помічена до катастрофічної відмови.

2. Використання алгоритмів зворотного інжинірингу

Інший потенційний шлях шкоди – особливо щодо інтелектуальної власності (ІП) та даних споживачів або підприємств – полягає в концепції зворотного інжинірингу. Хакери можуть навіть викрасти сам код штучного інтелекту. З достатнім часом для вивчення його роботи, вони можуть в кінцевому підсумку виявити набори даних, використаних для навчання штучного інтелекту спочатку.

Це може призвести до кількох результатів, перший з яких – отруєння штучного інтелекту. Інші приклади можуть включати використання хакерами даних навчання штучного інтелекту для отримання компрометуючої інформації про ринки, конкурентів, уряди, постачальників або загальних споживачів.

3. Навчання про цілі

Найбільш тривожним наслідком використання штучного інтелекту хакерами є, мабуть, спостереження за цілями. Спроможність штучного інтелекту робити висновки про людину, її здібності, знання, характер та ймовірність того, що вона стане жертвою цілі, шахрайства або зловживання, викликає особливу тривогу серед деяких експертів з кібербезпеки.

Штучний інтелект може аналізувати і досягати досить детальних висновків про людей, команди та групи на основі деяких найменше очікуваних даних. «Зайнятий» або «розсіяний» індивід може швидко друкувати, грати з мишею або швидко перемикатися між вкладками браузера. Користувач, який «замішаний» або «розсіяний», може завагатися, перш ніж клацнути на елементи сторінки, або відвідувати кілька сайтів.

У правильних руках такі сигнали допомагають відділам кадрів підвищити залученість працівників або допомогти маркетинговим командам поліпшити свої веб-сайти та продажі.

Для хакерів такі сигнали можуть призвести до досить детального психологічного профілю потенційної цілі. Кіберзлочинці можуть визначити, хто з людей може бути вразливим до фішингу, смішингу, програм-вимагальників, фінансового шахрайства та інших видів шкоди. Це також може допомогти зловмисникам вивчити, як найкраще переконати своїх цілей, що їхні спроби шахрайства походять з легітимних джерел.

4. Виявлення уразливості мережі

Професіонали з кібербезпеки опублікували дані про 20 175 відомих уразливостей безпеки у 2021 році. Це було збільшенням порівняно з 2020 роком, коли таких уразливостей було 17 049.

Світ стає все більш цифрово взаємопов’язаним – деякі кажуть, що залежним – з кожною годиною. Світ тепер містить величезну кількість малих і промислових мереж, із мільярдами підключених пристроїв в Інтернеті та ще більше на шляху. Все знаходиться в Інтернеті, від датчиків моніторингу стану до програмного забезпечення для планування підприємства.

Штучний інтелект показує перспективи у допомозі командам з кібербезпеки швидко виявляти уразливості мережі, програмного забезпечення та апаратного забезпечення швидше, ніж люди можуть самостійно. Швидкість та масштаб росту цифрової інфраструктури світу означають, що майже неможливо шукати трильйони рядків коду для пошуку експлойтів безпеки для патчу. Все це має відбуватися під час роботи систем через вартість простою.

Якщо штучний інтелект є інструментом кібербезпеки тут, він також є двосічний меч. Хакери можуть використовувати ті самі механізми, що й «білі» ІТ-спеціалісти, для виконання тієї самої роботи: швидкого пошуку уразливостей мережі, програмного забезпечення та апаратного забезпечення.

Цифрова гонка озброєння

Є занадто багато застосунків штучного інтелекту в кіберзлочинності, щоб їх усі назвати, але ось кілька прикладів:

  • Хакери можуть приховати код штучного інтелекту в іншому безпечному застосунку, який виконує шкідливу поведінку, коли виявляє певний сигнал або поріг.
  • Зловмисні моделі штучного інтелекту можуть бути використані для визначення даних про облікові дані або функції управління ІТ за допомогою моніторингу біометричних даних, таких як відбитки пальців та розпізнавання голосу.
  • Навіть якщо спроба кібератаки в кінцевому підсумку зазнає невдачі, хакери, оснащені штучним інтелектом, можуть використовувати машинне навчання, щоб визначити, що пішло не так і що вони могли б зробити інакше наступного разу.

Здається, що одного добре розміщеного повідомлення про хакінг джипа під час руху було достатньо, щоб сповільнити розвиток автономних транспортних засобів. Одна високопрофільна атака, в якій штучний інтелект грає роль лінчпіна, може призвести до подібного зниження громадської думки. Деякі опитування показують, що середній американець вже дуже сумнівається щодо переваг штучного інтелекту.

Омніприсутнє обчислення супроводжується ризиками кібербезпеки – і як «білі», так і «чорні» хакери знають про це. Штучний інтелект може допомогти giữ нашому онлайн-життю безпечним, але він також є епіцентром нової цифрової гонки озброєння.

Zac Amos є технічним письменником, який зосереджується на штучному інтелекті. Він також є редактором рубрики у ReHack, де ви можете прочитати більше його робіт.