Искусственный интеллект
Эксперты по ИИ оценивают глубокие подделки и 19 других преступлений на основе ИИ по уровню опасности

Новый отчет , опубликованный Университетским колледжем Лондона, был направлен на выявление различных способов, которыми ИИ потенциально может помочь преступникам в течение следующих 15 лет. В отчете 31 эксперт по ИИ оценил 20 различных методов использования ИИ для совершения преступлений и ранжировал эти методы на основе различных факторов. Эксперты по ИИ оценивали преступления по переменным, таким как легкость совершения преступления, потенциальный вред обществу, который может быть нанесен преступлением, сумма денег, которую преступник может получить, и трудность предотвращения преступления. Согласно результатам отчета, глубокие подделки представляют наибольшую угрозу для законопослушных граждан и общества в целом, поскольку их потенциал для эксплуатации преступниками и террористами высок.
Эксперты по ИИ оценили глубокие подделки на первом месте в списке потенциальных угроз ИИ, поскольку они трудно выявляются и противодействуются. Глубокие подделки постоянно улучшаются в обмане даже глаз экспертов по глубоким подделкам, и даже другие методы обнаружения глубоких подделок на основе ИИ часто ненадежны. В плане их потенциала для вреда глубокие подделки легко могут быть использованы злоумышленниками для дискредитации доверенных экспертов или для попытки обмана людей, выдавая себя за близких или других доверенных лиц. Если глубокие подделки будут многочисленны, люди могут начать терять доверие к любой аудио- или видеомедиа, что может привести к потере веры в достоверность реальных событий и фактов.
Доктор Мэтью Кэлдвелл из UCL Computer Science был первым автором статьи. Кэлдвелл подчеркивает растущую опасность глубоких подделок, поскольку все больше нашей деятельности перемещается в Интернет. Как цитируется Кэлдвелл по UCL News:
“В отличие от многих традиционных преступлений, преступления в цифровой сфере могут быть легко共享ены, повторены и даже проданы, что позволяет преступникам продавать и предоставлять преступления как услугу. Это означает, что преступники могут иметь возможность передать более сложные аспекты своего преступления на основе ИИ”.
Команда экспертов оценила пять других новых технологий ИИ как высоко тревожные потенциальные катализаторы новых видов преступлений: использование беспилотных транспортных средств в качестве оружия, хакерские атаки на системы и устройства, контролируемые ИИ, сбор данных в Интернете для целей шантажа, фишинг на основе ИИ с индивидуальными сообщениями и фальшивые новости/дезинформация в целом.
По словам Шейна Джонсона, директора Центра будущих преступлений Дэйвса в UCL, целью исследования было выявление возможных угроз, связанных с новыми технологиями, и гипотеза о способах их предотвращения. Джонсон говорит, что по мере увеличения скорости технологических изменений становится крайне важно “предвидеть будущие угрозы преступности, чтобы политики и другие заинтересованные стороны с компетенцией могли действовать до того, как произойдут новые ‘урожаи преступности'”.
Что касается четырнадцати других возможных преступлений в списке, они были разделены на две категории: умеренная обеспокоенность и низкая обеспокоенность.
Преступления на основе ИИ, вызывающие умеренную обеспокоенность, включают неправильное использование военных роботов, отравление данных, автоматические атаки беспилотников, кибератаки на основе обучения, атаки типа “отказ в обслуживании” для онлайн-активностей, манипулирование финансовыми/фондовыми рынками, “змеиное масло” (продажа фальшивых услуг, замаскированных под терминологию ИИ/МЛ), и обман системы распознавания лиц.
Преступления на основе ИИ, вызывающие низкую обеспокоенность, включают подделку искусства или музыки, помощь ИИ в преследовании, фальшивые отзывы, написанные ИИ, уклонение от методов обнаружения ИИ и “воровские боты” (боты, которые проникают в дома людей, чтобы украсть вещи).
Конечно, сами модели ИИ могут быть использованы для помощи в борьбе с некоторыми из этих преступлений. Недавно модели ИИ были развернуты для помощи в обнаружении схем отмывания денег, обнаружении подозрительных финансовых транзакций. Результаты анализируются человеческими операторами, которые затем подтверждают или отклоняют сигнал, и обратная связь используется для лучшей тренировки модели. Похоже, что будущее будет включать в себя противостояние ИИ, когда преступники будут пытаться разработать свои лучшие инструменты и средства безопасности на основе ИИ, а также разработчики ИИ, правоохранительные органы и другие этические разработчики ИИ будут пытаться разработать свои лучшие системы ИИ.












