Лідери думок
Справжня небезпека мовних моделей: афери, підтримувані штучним інтелектом
Уявіть собі таке: ви на роботі, цілком зосереджені на терміновому проекті, коли отримуєте дзвінок від номера, який видається за номер вашої матері. Голос на другому кінці лінії незаперечно належить їй, спокійний і люблячий, але з незвичайним натяком на терміновість. Вона розповідає, що потрапила у серйозні неприємності під час відпустки в Парижі і потребує вашої фінансової допомоги негайно, щоб вирішити все. Ви знаєте, що вона дійсно у Парижі, і деталі, які вона надає, аж до назви її готелю, роблять дзвінок ще більш переконливим. Без другої думки ви переказуєте гроші, тільки щоб пізніше дізнатися, що ваша мати ніколи не робила того дзвінка; це була розширена система штучного інтелекту, яка досконало імітувала її голос і вигадувала детальну ситуацію. Волосини на вашій шкірі ставлять дрожать, коли ви усвідомлюєте, що тільки що відбулося.
Цей сценарій, колись чиста наукова фантастика, тепер стає реальністю. Зорієнтування технологій штучного інтелекту, таких як великі мовні моделі (LLM), принесло неймовірні досягнення. Однак реальна загроза нависає: афери, підтримувані штучним інтелектом. Потенціал для складних афер, підтримуваних штучним інтелектом, є новою загрозою на горизонті технологічного прогресу. Хоча телефонні афери були проблемою з моменту винайдення телефону, широке впровадження великих мовних моделей (LLM) у кожний аспект цифрового спілкування підвищує ставки драматично. Коли ми приймаємо потенціал штучного інтелекту, нам також потрібно посилити нашу оборону проти цих дедалі більш складних загроз.
Поточний ландшафт телефонних афер
Злочинці намагаються обманути невігласних осіб, щоб вони переказували гроші або розкривали конфіденційну інформацію протягом років, але попри поширеність телефонних афер, багато з цих афер відносно не складні, спираються на людських операторів, які читають сценарії. Однак навіть з цією обмеженням телефонні афери продовжують бути прибутковим злочинним підприємством.
Згідно з US Federal Trade Commission, у 2022 році американці втратили понад 8,8 мільярдів доларів через афери, з суттєвою частиною, яку можна віднести до телефонних афер, що означає, що навіть у їхньому поточному, менш розвинутому вигляді, багато з цих тактик все ще працюють на вразливих особах. Що відбувається, коли вони еволюціонують?
Майбутнє афер, підтримуване штучним інтелектом
Ландшафт телефонних афер готується до драматичної зміни з появою кількох ключових технологій:
Великі мовні моделі (LLM)
Ці системи штучного інтелекту можуть генерувати текст, подібний до людського, і вступати у природні розмови. Коли їх застосовують до афер, LLM можуть створювати дуже переконливі і адаптивні сценарії, що робить ще більш важким для потенційних жертв ідентифікувати аферу.
Пошукова генерація (RAG)
Ця технологія дозволяє системам LLM отримувати доступ і використовувати величезну кількість інформації в режимі реального часу. Аферисти можуть створити профіль особи на основі її публічно доступної інформації, такої як її соціальні мережі. Вони також можуть використовувати техніки соціальної інженерії щодо друзів і родини, щоб зібрати глибшу інформацію. Це дасть їм доступ до інформації про ідентичність цілі, інформацію про роботу або навіть недавню діяльність. Вони можуть потім використовувати RAG, щоб надати LLM контекст, необхідний для того, щоб їхні підходи здавалися неймовірно персоналізованими і легітимними.
Синтетична генерація аудіо
Платформи, такі як Resemble AI і Lyrebird, лідирують у створенні надзвичайно реалістичних аудіо, генерованих штучним інтелектом. Ці технології здатні виробляти персоналізоване, людське аудіо, яке можна використовувати в різних застосуваннях, від віртуальних помічників до автоматизованого обслуговування клієнтів і створення контенту. Компанії, такі як ElevenLabs, розширюють межі далі, дозволяючи користувачам створювати синтетичні голоси, які можуть дуже близько повторювати їхній власний, забезпечуючи новий рівень персоналізації і взаємодії в цифрових взаємодіях.
Синтетична генерація відео
Компанії, такі як Synthesia, вже демонструють потенціал для створення реалістичних відеоконтентів з аватарами, генерованими штучним інтелектом. У найближчі роки ця технологія може дозволити аферистам видавати себе за друзів або членів родини або створювати цілком вигадані особи для відеодзвінків, вводячи раніше неможливий рівень фізичної реальності в аферу.
Синхронізація руху губ
Стартапи, такі як Sync Labs, розробляють розширені технології синхронізації руху губ, які можуть збігати згенероване аудіо з відеозаписами. Це можна використовувати для створення дуже переконливих відеороликів з історичними постатями, політиками, знаменитостями і практично кожним іншим, ще більше розмиваючи межу між реальністю і обманом.
Комбінація цих технологій малює досить тривожну картину. Уявіть собі дзвінок афери, де штучний інтелект може адаптувати свою розмову в режимі реального часу, озброївшись персональною інформацією про ціль, і навіть перейти до відеодзвінка з людиною, яка здається реальною, і рух її губ збігається з згенерованим голосом. Потенціал для обману дійсно величезний.
Потрібність покращення заходів безпеки
Когда ці афери, підтримувані штучним інтелектом, стають ще більш складними, методи верифікації ідентичності і автентичності будуть мусити перебігати з досягненнями штучного інтелекту. Будуть потрібні нормативні, а також технологічні досягнення, щоб保持ати онлайн-суспільство у безпеці.
Нормативні покращення
Суворіші закони про захист даних: впровадження більш суворих законів про захист даних обмежить кількість персональної інформації, яку аферисти можуть використати. Ці закони можуть включати суворіші вимоги до збору даних, покращені протоколи згоди користувачів і більш суворі покарання за порушення даних.
Приватне хмарне сховище для найпотужніших моделей штучного інтелекту: нормативні акти можуть зобов’язувати розміщувати найпотужніші моделі штучного інтелекту на приватних, безпечних хмарних інфраструктурах, а не робити їх відкрито доступними. Це обмежить доступ до найрозвинутіших технологій, зробивши їх більш важкими для зловмисних осіб використовувати їх для афер. (напр., https://security.apple.com/blog/private-cloud-compute/)
Міжнародна співпраця щодо регулювання штучного інтелекту: враховуючи глобальний характер технологій штучного інтелекту, міжнародна співпраця щодо нормативних стандартів може бути корисною. Створення глобального органу, відповідального за створення і впровадження міжнародних нормативних актів щодо штучного інтелекту, може допомогти у боротьбі з транснаціональними злочинами, пов’язаними зі штучним інтелектом.
Кампанії зі zvýщення осведомленості: уряди і нормативні органи повинні інвестувати в кампанії зі zvýщення осведомленості, щоб просвіщати громадян про потенційні ризики афер, підтримуваних штучним інтелектом, і про те, як захистити себе. Осведомленість є критичним першим кроком у наділі осіб і організацій можливістю впроваджувати необхідні заходи безпеки.
Поточні нормативні акти щодо штучного інтелекту є недостатніми для запобігання аферам, а завдання майбутнього регулювання ускладнюється відкритим характером багатьох потужних технологій. Ця відкритість дозволяє будь-кому отримувати доступ і модифікувати ці технології для власних цілей. Отже, поряд з більш сильними нормативними актами потрібні досягнення в галузі технологій безпеки.
Виявлення синтетичних даних
Виявлення синтетичного аудіо: коли аферисти використовують штучний інтелект, так само повинні і наші засоби захисту. Компанії, такі як Pindrop, розробляють системи, підтримувані штучним інтелектом, які можуть виявляти синтетичне аудіо в режимі реального часу під час телефонних дзвінків. Їхня технологія аналізує понад 1300 функцій аудіо дзвінка, щоб визначити, чи походять вони від реальної людини або складної системи штучного інтелекту.
Виявлення синтетичного відео: Виявлення синтетичного відео: так само, як аудіо, може бути маніпульованим штучним інтелектом, що становить суттєву загрозу у вигляді глибоких фейків і іншого синтетичного відеоконтенту. Компанії, такі як Deepware, лідирують у розробці технологій для виявлення синтетичного відео. Платформа Deepware використовує розширені алгоритми машинного навчання для аналізу тонких несумісностей у відеоданих, таких як ненатуральні рухи, нерегулярне освітлення і аномалії пікселів, які часто присутні у контенті, генерованому штучним інтелектом. Визначаючи ці розбіжності, технологія Deepware може визначити, чи є відео справжнім або було змінено, допомагаючи захистити осіб і організації від обману складними відео-аферами і кампаніями дезінформації.
Автентифікація ідентифікації
Існують різні методи, які розробляються для підтвердження ідентичності користувача, і одна або кілька з них стануть загальними у найближчі роки, щоб зробити інтернет безпечнішим.
Двокрокова автентифікація для віддалених розмов: двофакторна автентифікація (2FA) залишається фундаментальним компонентом безпечної комунікації. За цим методом кожен телефонний дзвінок або електронний лист спровокує текстове повідомлення з унікальним кодом верифікації, подібним до поточної реєстрації електронної пошти. Хоча 2FA є ефективним для базової автентифікації, її обмеження означають, що вона не може бути покладена у всіх контекстах, що вимагає розробки більш розгорнутих методів для забезпечення комплексної безпеки інтернету, які можуть працювати на задньому плані.
Автентифікація, заснована на поведінці, з багаторівневою автентифікацією: поза простим підтвердженням ідентичності на початку дзвінка майбутні системи безпеки можуть безперервно аналізувати поведінку протягом взаємодії. Компанії, такі як BioCatch, використовують біометричні дані про поведінку для створення профілів користувачів на основі того, як особи взаємодіють зі своїми пристроями. Ця технологія може виявляти аномалії у поведінці, які можуть вказувати на те, що аферист використовує вкрадену інформацію, навіть якщо вони пройшли початкові перевірки автентифікації.
Автентифікація, заснована на біометрії: компанії, такі як Onfido, знаходяться на передовому краї технологій біометричної верифікації, пропонуючи інструменти верифікації ідентичності, підтримувані штучним інтелектом, які можуть виявляти складні глибокі фейки і інші форми фальсифікації ідентичності. Їхня система використовує комбінацію верифікації документів і біометричного аналізу, щоб забезпечити, що особа на іншому кінці дзвінка або відеочату дійсно є тією, за кого вона себе видає.
Розгорнута автентифікація, заснована на знаннях: виходячи за рамки простих питань безпеки, майбутні системи автентифікації можуть включати динамічні, генеровані штучним інтелектом питання, засновані на цифровому сліді користувача і недавніх діях. Наприклад, Prove, компанія, що спеціалізується на телефонно-орієнтованій ідентичності, розробляє рішення, які використовують телефонну інтелектуальність і поведінковий аналіз для верифікації ідентичності. Їхня технологія може аналізувати закономірності у використанні пристрою особою, щоб створити унікальну “ідентичну підписку”, яку значно важче аферистам відтворити.
Автентифікація, заснована на блокчейні: технологія блокчейну пропонує децентралізований і незмінний метод верифікації ідентичності. Компанії, такі як Civic, лідирують у розробці систем верифікації ідентичності, заснованих на блокчейні, які дозволяють користувачам контролювати свою персональну інформацію, забезпечуючи при цьому безпечну автентифікацію. Ці системи створюють верифікований, незмінний запис ідентичності особи, що є ідеальним для управління високоризикованими транзакціями.
Висновок
Збіг великих мовних моделей, пошукової генерації, синтетичної генерації аудіо, синтетичної генерації відео і синхронізації руху губ є певним чином двосічним мечем. Хоча ці досягнення мають величезний потенціал для позитивних застосувань, вони також становлять суттєві ризики, коли їх озброюють аферисти.
Ця триваюча гонка озброєння між експертами з безпеки і кіберзлочинцями підкреслює необхідність постійної інновації і пильності у сфері цифрової безпеки. Ми можемо працювати над тим, щоб використовувати переваги цих потужних інструментів, мінімізуючи при цьому їхній потенціал для шкоди, тільки якщо визнаємо і підготуємося до цих ризиків.
Комплексне регулювання, просвіта про ці нові форми афер, інвестиції в передові заходи безпеки і, можливо, найважливіше, здоровий доза скептицизму з боку кожного і кожної з нас під час взаємодії з невідомими сутностями в інтернеті або по телефону будуть життєво важливими для навігації в цьому новому ландшафті.












