Connect with us

Експерти з штучного інтелекту оцінюють Deepfakes та ще 19 злочинів на основі штучного інтелекту за рівнем небезпеки

Штучний інтелект

Експерти з штучного інтелекту оцінюють Deepfakes та ще 19 злочинів на основі штучного інтелекту за рівнем небезпеки

mm

Нова звіт , опублікований Університетським коледжем Лондона, мав на меті ідентифікувати різні способи, якими штучний інтелект потенційно може допомогти злочинцям протягом наступних 15 років. У звіті взяли участь 31 експерт з штучного інтелекту, які оцінили 20 різних методів використання штучного інтелекту для вчинення злочинів та оцінили ці методи на основі різних факторів. Експерти з штучного інтелекту оцінювали злочини згідно з такими змінними, як легкість вчинення злочину, потенційна соціальна шкода, яку може завдати злочин, сума грошей, яку злочинець може отримати, та складність припинення злочину. За результатами звіту, Deepfakes становлять найбільшу загрозу для законопослухних громадян та суспільства в цілому, оскільки їхній потенціал для використання злочинцями та терористами є високим.

Експерти з штучного інтелекту оцінили Deepfakes на першому місці списку потенційних загроз штучного інтелекту, оскільки Deepfakes важко ідентифікувати та протидіяти. Deepfakes постійно покращуються у здатності обманювати навіть очі експертів з Deepfakes, а інші методи виявлення Deepfakes на основі штучного інтелекту часто є ненадійними. За своєю здатністю завдавати шкоди, Deepfakes легко можуть бути використані злочинцями для дискредитації довірених експертів або для спроби обманути людей, видаючи себе за близьких людей або інших довірених осіб. Якщо Deepfakes будуть поширені, люди можуть почати втрачати довіру до будь-яких аудіо- або відеоматеріалів, що може призвести до втрати віри у достовірність реальних подій та фактів.

Доктор Метью Кальдвелл з Університетського коледжу Лондона був першим автором статті. Кальдвелл підкреслює зростаючу небезпеку Deepfakes, оскільки все більше нашої діяльності переміщується в Інтернет. Як зазначив Кальдвелл у інтерв’ю UCL News:

“На відміну від багатьох традиційних злочинів, злочини в цифровій сфері можуть бути легко поширені, повторені та навіть продані, що дозволяє злочинцям продавати свої техніки та надавати злочини як послугу. Це означає, що злочинці можуть мати можливість передавати більш складні аспекти своїх злочинів на основі штучного інтелекту”.

Команда експертів оцінила ще п’ять нових технологій штучного інтелекту як високозбіжні потенційні каталізатори нових видів злочинів: використання безпілотних транспортних засобів як зброї, хакерські атаки на системи та пристрої, контрольовані штучним інтелектом, збір даних в Інтернеті для цілей шантажу, фішинг на основі штучного інтелекту з персоналізованими повідомленнями та фейкові новини/дезінформація загалом.

За словами Шейна Джонсона, директора Центру майбутніх злочинів Університетського коледжу Лондона, метою дослідження було ідентифікувати можливі загрози, пов’язані з новими технологіями, та припустити способи їх попередження. Джонсон зазначає, що з ростом швидкості технологічних змін важливо “передбачати майбутні загрози злочинів, щоб політики та інші зацікавлені особи з можливістю діяти могли зробити це до того, як виникнуть нові ‘урожаї злочинів'”.

Відносно ще 14 можливих злочинів у списку, вони були розподілені на дві категорії: помірна небезпека та низька небезпека.

Злочини на основі штучного інтелекту помірної небезпеки включають неправильне використання військових роботів, отруєння даних, автоматичні атаки безпілотників, кібератаки на основі навчання, атаки на відмову послуг для онлайн-діяльності, маніпулювання фінансовими/фондовими ринками, “змія в масці” (продаж підроблених послуг під виглядом штучного інтелекту/машинного навчання) та обман системи розпізнавання облич.

Злочини на основі штучного інтелекту низької небезпеки включають підроблення мистецтва або музики, штучний інтелект, що допомагає у стеженні, фейкові відгуки, написані штучним інтелектом, ухилення від методів виявлення штучного інтелекту та “бурґлар-боти” (боти, які проникають у будинки людей, щоб викрасти речі).

Очевидно, що самі моделі штучного інтелекту можуть бути використані для боротьби з деякими цими злочинами. Нещодавно моделі штучного інтелекту були розгорнуті для допомоги у виявленні схем відмивання грошей, виявленні підозрілих фінансових транзакцій. Результати аналізуються людськими операторами, які потім затверджують або відхиляють сигнал, а зворотний зв’язок використовується для подальшого навчання моделі. Ймовірно, що майбутнє буде включати змагання між штучним інтелектом, коли злочинці будуть намагатися створити свої найкращі інструменти на основі штучного інтелекту, а безпека, правоохоронні органи та інші етичні розробники штучного інтелекту будуть намагатися створити свої найкращі системи штучного інтелекту.

Блогер і програміст з спеціалізацією у темах Machine Learning і Deep Learning. Даніель сподівається допомогти іншим використовувати силу штучного інтелекту для соціальної добробути.