Connect with us

Институт AI Now предупреждает о злоупотреблении программным обеспечением для обнаружения эмоций и других этических проблемах

Искусственный интеллект

Институт AI Now предупреждает о злоупотреблении программным обеспечением для обнаружения эмоций и других этических проблемах

mm

Институт AI Now опубликовал отчет, в котором призывает законодателей и другие регулирующие органы установить жесткие ограничения на использование технологии обнаружения эмоций, запрещая ее в случаях, когда она может быть использована для принятия важных решений, таких как прием на работу или прием студентов. Кроме того, в отчете содержится ряд других предложений по различным темам в области ИИ.

Институт AI Now – это исследовательский институт, базирующийся в Нью-Йоркском университете, имеющий миссию изучать влияние ИИ на общество. AI Now ежегодно выпускает отчет, демонстрирующий их выводы о состоянии исследований в области ИИ и этических последствиях использования ИИ. Как сообщает BBC, в этом году отчет затронул такие темы, как дискриминация алгоритмов, отсутствие разнообразия в исследованиях ИИ и проблемы труда.

Распознавание эмоций, технический термин для алгоритмов обнаружения эмоций, – это быстро растущая область исследований ИИ. Те, кто использует эту технологию для принятия решений, часто утверждают, что системы могут получить достоверную информацию о эмоциональных состояниях людей, анализируя микровыражения, а также другие сигналы, такие как тон голоса и язык тела. Институт AI Now отмечает, что эта технология используется в широком спектре приложений, таких как определение, кого принять на работу, установление страховых ставок и мониторинг того,是否 студенты внимательно слушают на уроке.

Профессор Кейт Кроуфорд, сооснователь AI Now, объяснил, что часто считается, что человеческие эмоции можно точно предсказать с помощью относительно простых моделей. Кроуфорд сказала, что некоторые фирмы основывают разработку своего программного обеспечения на работе Пола Экмана, психолога, который выдвинул гипотезу, что существует только шесть основных типов эмоций, которые регистрируются на лице. Однако Кроуфорд отмечает, что с момента введения теории Экмана исследования показали, что существует гораздо большая вариативность в лицевых выражениях и что выражения могут меняться в разных ситуациях и культурах очень легко.

“В то же время, когда эти технологии развертываются, большое количество исследований показывает, что нет… никаких убедительных доказательств того, что люди имеют последовательную связь между эмоцией, которую они испытывают, и тем, как выглядит их лицо”, – сказала Кроуфорд BBC.

По этой причине институт AI Now утверждает, что большая часть распознавания эмоций основана на ненадежных теориях и сомнительной науке. Следовательно, системы обнаружения эмоций не должны развертываться, пока не будет проведено больше исследований, и что “правительства должны конкретно запретить использование распознавания эмоций в процессах принятия важных решений”. AI Now утверждал, что мы должны особенно прекратить использование этой технологии в “чувствительных социальных и политических контекстах”, контекстах, которые включают трудоустройство, образование и правоохранительную деятельность.

По крайней мере одна фирма, специализирующаяся на распознавании эмоций, Emteq, согласилась с тем, что должно быть регулирование, которое предотвращает злоупотребление технологией. Основатель Emteq, Чарльз Ндука, объяснил BBC, что хотя системы ИИ могут точно распознавать разные лицевые выражения, нет простой карты от выражения к эмоции. Ндука выразил беспокойство о том, что регулирование может быть слишком далеко идущим и препятствовать исследованиям, отметив, что если “вещи будут запрещены, очень важно, чтобы люди не выбрасывали ребенка вместе с водой”.

Как сообщает NextWeb, AI Now также рекомендовал ряд других политик и норм, которые должны руководить отраслью ИИ в будущем.

AI Now подчеркнул необходимость для отрасли ИИ сделать рабочие места более разнообразными и заявил, что работникам должна быть гарантирована возможность выражать свои опасения по поводу навязчивого и эксплуатационного ИИ. Работники в сфере технологий также должны иметь право знать, используются ли их усилия для создания вредного или неэтичного продукта.

AI Now также предложил, что законодатели должны принять меры для обеспечения информированного согласия на использование любых данных, полученных из связанных со здоровьем ИИ. Кроме того, было рекомендовано, что конфиденциальность данных должна быть воспринята более серьезно, и что штаты должны работать над разработкой законов о конфиденциальности биометрических данных, покрывающих как частные, так и государственные учреждения.

Наконец, институт рекомендовал, что отрасль ИИ должна начать думать и действовать более глобально, пытаясь решить более широкие политические, социальные и экологические последствия ИИ. Было рекомендовано, что должно быть приложено существенное усилие для учета влияния ИИ на географическое перемещение и климат, и что правительства должны сделать воздействие ИИ на окружающую среду публично доступным.

Блогер и программист с специализацией в Machine Learning и Deep Learning темах. Daniel надеется помочь другим использовать силу ИИ для социального блага.