заглушки Небезпеки ШІ-чат-ботів – і як їм протистояти – Unite.AI
Зв'язатися з нами

Лідери думок

Небезпеки ШІ-чат-ботів – і як їм протистояти

mm

опублікований

 on

Чат-боти зі штучним інтелектом, які колись вважалися просто автоматизованими розмовними програмами, тепер можуть навчатися та вести розмови, які майже не відрізняються від людських. Однак небезпеки чат-ботів ШІ настільки ж різноманітні.

Вони можуть варіюватися від неправильного використання людьми до реальних ризиків для кібербезпеки. Оскільки люди все більше покладаються на технології штучного інтелекту, важливо знати потенційні наслідки використання цих програм. Але чи небезпечні боти?

1. Упередженість і дискримінація

Однією з найбільших небезпек чат-ботів ШІ є їх схильність до шкідливих упереджень. Оскільки штучний інтелект встановлює зв’язки між точками даних, які люди часто пропускають, він може вловлювати тонкі, неявні упередження у своїх навчальних даних, щоб навчитися бути дискримінаційним. Як наслідок, чат-боти можуть швидко навчитися викидати расистський, сексистський або інший дискримінаційний контент, навіть якщо нічого такого екстремального не було в його навчальних даних.

Яскравим прикладом є скасований наймаючий бот Amazon. У 2018 році стало відомо, що Amazon відмовився від проекту ШІ призначений для попередньої оцінки резюме претендентів, оскільки це карало заявки від жінок. Оскільки більшість резюме, на яких бот тренувався, складали чоловіки, він переконався, що кандидати-чоловіки є кращими, навіть якщо в навчальних даних про це прямо не вказано.

Чат-боти, які використовують Інтернет-контент, щоб навчитися природному спілкуванню, схильні демонструвати ще більші упередження. У 2016 році Microsoft представила чат-бота під назвою Tay, який навчився імітувати публікації в соціальних мережах. Протягом кількох годин воно почав публікувати дуже образливий вміст у Twitter, що змусило Microsoft незабаром призупинити обліковий запис.

Якщо компанії не будуть обережними під час створення та розгортання цих ботів, вони можуть випадково призвести до подібних ситуацій. Чат-боти можуть погано поводитися з клієнтами або поширювати шкідливий упереджений вміст, якому вони повинні запобігти.

2. Ризики кібербезпеки

Небезпека технології чат-ботів штучного інтелекту також може становити більш пряму загрозу кібербезпеці для людей і компаній. Однією з найпоширеніших форм кібератак є фішинг і шахрайство. Це стосується кіберзловмисники, що імітують довірені організації наприклад банки чи державні органи.

Фішингове шахрайство зазвичай здійснюється через електронну пошту та текстові повідомлення — натискання посилання дозволяє зловмисному програмному забезпеченню проникнути в комп’ютерну систему. Потрапивши всередину, вірус може робити все, від крадіжки особистої інформації до утримання системи з метою отримання викупу.

Рівень фішингових атак постійно зростає під час і після пандемії COVID-19. Агентство з кібербезпеки та безпеки інфраструктури виявлено 84% осіб відповіли на фішингові повідомлення з конфіденційною інформацією або натиснули посилання.

Фішери використовують технологію чат-ботів штучного інтелекту, щоб автоматизувати пошук жертв, переконати їх натиснути посилання та надати особисту інформацію. Багато фінансових установ, як-от банки, використовують чат-боти для оптимізації обслуговування клієнтів.

Чат-боти-фішери можуть імітувати ті самі автоматизовані підказки, які банки використовують для обману жертв. Вони також можуть автоматично набирати номери телефонів або зв’язуватися з жертвами безпосередньо в інтерактивних платформах чату.

3. Отруєння даними

Отруєння даних — це нещодавно розроблена кібератака, спрямована безпосередньо на штучний інтелект. Технологія AI вивчає набори даних і використовує цю інформацію для виконання завдань. Це стосується всіх програм ШІ, незалежно від їх призначення чи функцій.

Для штучного інтелекту чат-ботів це означає вивчення кількох відповідей на можливі запитання, які їм можуть поставити користувачі. Однак це також одна з небезпек ШІ.

Ці набори даних часто є інструментами та ресурсами з відкритим кодом, доступними будь-кому. Хоча компанії зі штучним інтелектом зазвичай зберігають у суворій таємниці свої джерела даних, кібер-зловмисники можуть визначити, які з них вони використовують, і маніпулювати даними.

Кіберзловмисники можуть знайти способи підробити набори даних використовується для навчання ШІ, дозволяючи їм маніпулювати своїми рішеннями та відповідями. Штучний інтелект використовуватиме інформацію зі змінених даних і виконуватиме дії, потрібні зловмисникам.

Наприклад, одним із найбільш часто використовуваних джерел для наборів даних є ресурси Wiki, такі як Wikipedia. Хоча дані не походять із опублікованої статті у Вікіпедії, вони походять із знімків даних, зроблених у певний час. Хакери можуть знайти спосіб редагувати дані на користь собі.

У випадку ШІ чат-ботів хакери можуть пошкодити набори даних, які використовуються для навчання чат-ботів, які працюють для медичних або фінансових установ. Вони можуть маніпулювати програмами чат-ботів, щоб надавати клієнтам неправдиву інформацію, яка може змусити їх натиснути посилання, що містить зловмисне програмне забезпечення або шахрайський веб-сайт. Коли штучний інтелект починає витягувати зіпсовані дані, його важко виявити, і це може призвести до значного порушення кібербезпеки, яке залишається непоміченим протягом тривалого часу.

Як усунути небезпеку ШІ-чат-ботів

Ці ризики викликають занепокоєння, але вони не означають, що боти за своєю суттю небезпечні. Натомість вам слід підходити до них обережно та враховувати ці небезпеки під час створення та використання чат-ботів.

Ключ до запобігання упередженню ШІ — шукати його під час навчання. Обов’язково навчіть його на різноманітних наборах даних і спеціально запрограмуйте його, щоб уникати таких факторів, як раса, стать чи сексуальна орієнтація, під час прийняття рішень. Також найкраще мати різнопланову команду спеціалістів із обробки даних, щоб перевірити внутрішню роботу чат-ботів і переконатися, що вони не виявляють жодних упереджень, якими б тонкими вони не були.

Найкращий захист від фішингу – навчання. Навчіть усіх співробітників виявляти типові ознаки спроб фішингу щоб вони не піддавалися цим атакам. Поширення обізнаності споживачів щодо цієї проблеми також допоможе.

Ви можете запобігти отруєнню даних, обмеживши доступ до навчальних даних чат-ботів. Лише люди, яким потрібен доступ до цих даних, щоб правильно виконувати свою роботу, повинні мати авторизацію — концепція, яка називається принципом найменших привілеїв. Після впровадження цих обмежень використовуйте надійні засоби перевірки, такі як багатофакторна автентифікація або біометрія, щоб запобігти ризикам злому авторизованого облікового запису кіберзлочинцями.

Будьте пильними щодо небезпек, пов’язаних із довірою ШІ

Штучний інтелект — це справді дивовижна технологія з майже нескінченними застосуваннями. Однак небезпека ШІ може бути незрозумілою. Чи небезпечні боти? Не за своєю природою, але кіберзлочинці можуть використовувати їх різними руйнівними способами. Користувачі самі вирішують, у чому полягає застосування цієї нової технології.