заглушки AI Now Institute предупреждает о неправомерном использовании программного обеспечения для обнаружения эмоций и других этических проблемах - Unite.AI
Свяжитесь с нами:

Этика

AI Now Institute предупреждает о неправильном использовании программного обеспечения для обнаружения эмоций и других этических проблемах

mm
обновленный on

Институт AI Now опубликовал отчет, в котором призывает законодателей и другие регулирующие органы установить жесткие ограничения на использование технологии обнаружения эмоций, запретив ее в тех случаях, когда она может использоваться для принятия важных решений, таких как найм сотрудников или зачисление студентов. Кроме того, в отчете содержится ряд других предложений по целому ряду тем в области ИИ.

Ассоциация Институт AI Now — исследовательский институт, базирующийся в Нью-Йоркском университете, задачей которого является изучение влияния ИИ на общество. AI Now выпускает ежегодный отчет, демонстрирующий свои выводы относительно состояния исследований ИИ и этических последствий того, как ИИ используется в настоящее время. Как сообщает Би-би-си, отчет этого года затрагивал такие темы, как алгоритмическая дискриминация, отсутствие разнообразия в исследованиях ИИ и трудовые вопросы.

Распознавание эмоций, технический термин для алгоритмов обнаружения эмоций, является быстро растущей областью исследований ИИ. Те, кто использует эту технологию для принятия решений, часто утверждают, что системы могут получать достоверную информацию об эмоциональном состоянии людей, анализируя микровыражения, а также другие сигналы, такие как тон голоса и язык тела. Институт AI Now отмечает, что технология используется в широком спектре приложений, таких как определение того, кого нанять, установление страховых цен и отслеживание того, обращают ли внимание ученики на уроки.

Профессор Кейт Кроуфорд, соучредитель AI Now, объяснила, что часто считается, что человеческие эмоции можно точно предсказать с помощью относительно простых моделей. Кроуфорд сказал, что некоторые фирмы основывают разработку своего программного обеспечения на работе Пола Экмана, психолога, который предположил, что существует только шесть основных типов эмоций, которые проявляются на лице. Однако Кроуфорд отмечает, что с тех пор, как была представлена ​​​​теория Экмана, исследования показали, что выражение лица гораздо более разнообразно и что выражение может очень легко меняться в зависимости от ситуаций и культур.

«В то время как эти технологии внедряются, большое количество исследований показывает, что нет… никаких существенных доказательств того, что у людей есть такая постоянная связь между эмоциями, которые вы чувствуете, и тем, как выглядит ваше лицо». сказал Кроуфорд Би-би-си.

По этой причине институт AI Now утверждает, что большая часть распознавания аффектов основана на ненадежных теориях и сомнительной науке. Следовательно, системы обнаружения эмоций не следует развертывать до тех пор, пока не будут проведены дополнительные исследования и что «правительства должны специально запретить использование распознавания эмоций в процессах принятия решений с высокими ставками». AI Now утверждал, что мы должны особенно прекратить использовать технологию в «деликатных социальных и политических контекстах», в том числе в контексте занятости, образования и охраны правопорядка.

По крайней мере, одна фирма по разработке ИИ, Emteq, специализирующаяся на распознавании аффектов, согласилась с тем, что должно быть регулирование, предотвращающее злоупотребление технологией. Основатель Emteq Чарльз Ндука объяснил Би-би-си, что, хотя системы искусственного интеллекта могут точно распознавать различные выражения лица, простой карты от выражения к эмоциям не существует. Ндука действительно выразил беспокойство по поводу того, что регулирование заходит слишком далеко и подавляет исследования, отметив, что, если «что-то будет запрещено, очень важно, чтобы люди не выплескивали ребенка вместе с водой из ванны».

Как сообщает NextWeb, AI Now также рекомендовал ряд других политик и норм, которые должны направлять развитие отрасли ИИ.

AI Now подчеркнула необходимость того, чтобы индустрия ИИ сделала рабочие места более разнообразными, и заявила, что работникам должно быть гарантировано право высказывать свои опасения по поводу агрессивного и эксплуататорского ИИ. Технические работники также должны иметь право знать, используются ли их усилия для создания вредной или неэтичной работы.

AI Now также предложила законодателям предпринять шаги, требующие информированного согласия на использование любых данных, полученных с помощью искусственного интеллекта, связанного со здоровьем. Помимо этого, было рекомендовано более серьезно относиться к конфиденциальности данных и что штатам следует разработать законы о конфиденциальности биометрических данных, охватывающих как частные, так и государственные организации.

Наконец, институт посоветовал индустрии ИИ начать мыслить и действовать более глобально, пытаясь справиться с более серьезными политическими, социальными и экологическими последствиями ИИ. Было рекомендовано приложить значительные усилия для учета влияния ИИ на географическое перемещение и климат, а правительствам следует сделать информацию о воздействии индустрии ИИ на климат общедоступной.