Connect with us

Этические соображения при разработке ИИ для распознавания эмоций

Этика

Этические соображения при разработке ИИ для распознавания эмоций

mm

Искусственный интеллект для регулирования эмоций является одним из последних технологических достижений в области машинного обучения. Хотя он показывает большой потенциал, этические проблемы могут повлиять на его скорость принятия и долговечность. Смогут ли разработчики ИИ преодолеть их?

Что такое ИИ для распознавания эмоций?

ИИ для распознавания эмоций представляет собой тип модели машинного обучения. Он часто полагается на технологию компьютерного зрения, которая захватывает и анализирует выражения лица, чтобы расшифровать настроения в изображениях и видео. Однако он также может работать с аудиоклипами, чтобы определить тон голоса или написанным текстом, чтобы оценить настроение языка.

Такой алгоритм представляет собой fascинirующий прогресс в области ИИ, поскольку до сих пор модели не могли понять человеческие чувства. Хотя большие языковые модели, такие как ChatGPT, могут имитировать настроения и персоны убедительно, они могут только логически соединять слова — они не могут чувствовать ничего и не демонстрируют эмоциональный интеллект.Хотя модель распознавания эмоций не способна испытывать чувства, она все же может обнаружить и каталогизировать их. Это развитие значимо, поскольку оно сигнализирует о том, что ИИ может скоро действительно понять и продемонстрировать счастье, печаль или гнев. Технологические скачки, такие как эти, указывают на ускоренное развитие.

Случаи использования ИИ для распознавания эмоций

Бизнес, образование, консультанты и специалисты по психическому здоровью — это некоторые из групп, которые могут использовать ИИ для распознавания эмоций.

Оценка риска на рабочем месте

Команды по управлению персоналом могут использовать алгоритмы для проведения анализа настроений электронной переписки или внутренних чатов между членами команды. Альтернативно, они могут интегрировать свой алгоритм в систему видеонаблюдения или компьютерного зрения. Пользователи могут отслеживать настроение, чтобы рассчитать метрики, такие как риск текучести кадров, уровень выгорания и удовлетворенность сотрудников.

Помощь агентам службы поддержки клиентов

Розничные продавцы могут использовать внутренних агентов службы поддержки клиентов ИИ для конечных пользователей или виртуальных помощников для решения высокострессовых ситуаций. Поскольку их модель может распознавать настроение, она может предложить методы деэскалации или изменить тон, когда она осознает, что потребитель становится злым. Противодействия, такие как эти, могут улучшить удовлетворенность клиентов и удержание.

Помощь студентам в классе

Образователи могут использовать этот ИИ, чтобы не допустить, чтобы студенты, обучающиеся удаленно, отстали. Одна стартап уже использовала свой инструмент для измерения мышечных точек на лицах студентов, одновременно каталогизируя их скорость и оценки. Этот метод определяет их настроение, мотивацию, сильные и слабые стороны. Основатель стартапа утверждает, что они набирают на 10% больше баллов на экзаменах, когда используют программное обеспечение.

Проведение внутренних маркетинговых исследований

Бизнес может проводить внутренние маркетинговые исследования, используя модель распознавания эмоций. Она может помочь им понять, как их целевая аудитория реагирует на их продукт, услугу или маркетинговые материалы, предоставляя им ценные данные, основанные на данных. В результате они могут ускорить время выхода на рынок и увеличить доход.

Проблема с использованием ИИ для обнаружения эмоций

Исследования показывают, что точность сильно зависит от обучающей информации. Одна исследовательская группа — пытаясь расшифровать чувства из изображений — анекдотически доказала эту концепцию, когда их модель достигла точности 92,05% на наборе данных Japanese Female Facial Expression и точности 98,13% на наборе данных Extended Cohn-Kanade.

Хотя разница между 92% и 98% может показаться незначительной, она имеет значение — это небольшое расхождение может иметь существенные последствия. Для справки, уровень отравления набора данных так низок, как 0,001%, оказался эффективным для создания задних дверей модели или намеренного вызова неправильной классификации. Даже доля процента значима.

Более того, хотя исследования кажутся перспективными — показатели точности выше 90% демонстрируют потенциал — исследователи проводят их в контролируемых средах. В реальном мире размытые изображения, поддельные выражения лица, плохие углы и тонкие чувства гораздо более распространены. Другими словами, ИИ может не работать последовательно.

Текущее состояние ИИ для распознавания эмоций

Алгоритмический анализ настроений — это процесс использования алгоритма для определения тона текста как положительного, нейтрального или отрицательного. Эта технология, по сути, является основой для современных моделей обнаружения эмоций, поскольку она проложила путь для алгоритмической оценки настроений. Аналогичные технологии, такие как программное обеспечение для распознавания лица, также внесли вклад в прогресс.

Сегодня алгоритмы в основном могут обнаружить только простые эмоции, такие как счастье, печаль, гнев, страх и удивление, с различной степенью точности. Эти выражения лица являются врожденными и универсальными — то есть они естественны и понятны во всем мире — поэтому обучение ИИ для их определения относительно простое.

Более того, базовые выражения лица часто преувеличиваются. Люди хмурятся, когда злы, хмурятся, когда печальны, улыбаются, когда счастливы, и широко открывают глаза, когда шокированы. Эти простые, драматические взгляды легко различимы. Более сложные эмоции более сложны для определения, поскольку они либо тонкие, либо сочетают базовые выражения лица.

Поскольку этот подмножество ИИ в основном остается в исследованиях и разработке, оно еще не продвинулось до покрытия сложных чувств, таких как тоска, стыд, горе, ревность, облегчение или замешательство. Хотя оно, вероятно, покроет больше в конечном итоге, нет гарантии, что оно сможет интерпретировать их все.

В реальности алгоритмы могут никогда не быть в состоянии конкурировать с людьми. Для справки, хотя набор данных OpenAI GPT-4 приблизительно 1 петабайт, один кубический миллиметр человеческого мозга содержит примерно 1,4 петабайта данных. Нейробиологи не могут полностью понять, как мозг воспринимает эмоции, несмотря на десятилетия исследований, поэтому создание высокоточного ИИ может быть невозможно.

Хотя использование этой технологии для распознавания эмоций имеет прецедент, эта область仍然 технически находится в младенчестве. Существует множество исследований по этой концепции, но мало реальных примеров крупномасштабного развертывания. Некоторые признаки указывают на то, что задержка принятия может быть результатом проблем с несоответствующей точностью и этическими проблемами.

Этические соображения для разработчиков ИИ

Согласно одному опросу, 67% респондентов согласны, что ИИ должен быть более регулируемым. Чтобы успокоить людей, разработчики должны минимизировать предвзятость, обеспечить, чтобы их модели работали так, как ожидается, и улучшить результаты. Эти решения возможны, если они отдают приоритет этическим соображениям во время разработки.

1. Согласованное сбор и использование данных

Согласие является всем в эпоху, когда регулирование ИИ увеличивается. Что происходит, если сотрудники обнаружат, что их выражения лица каталогизируются без их ведома? Должны ли родители давать согласие на анализ настроений в образовании или студенты могут решать сами за себя?

Разработчики должны явно раскрыть, какую информацию модель будет собирать, когда она будет работать, для чего будет использоваться анализ и кто сможет получить доступ к этим деталям. Кроме того, они должны включать функции отказа, чтобы люди могли настраивать разрешения.

2. Анонимизированный вывод анализа настроений

Анонимизация данных является столь же большой проблемой конфиденциальности, сколько и проблемой безопасности. Разработчики должны анонимизировать информацию об эмоциях, которую они собирают, чтобы защитить вовлеченных людей. По крайней мере, они должны серьезно рассмотреть возможность использования шифрования при хранении.

3. Принятие решений с участием человека

Единственная причина использовать ИИ для определения эмоционального состояния человека — это информирование принятия решений. Как таковое, будь то использование в области психического здоровья или розничной торговли, оно повлияет на людей. Разработчики должны использовать меры безопасности с участием человека, чтобы минимизировать неожиданное поведение.

4. Обратная связь, ориентированная на человека, для вывода ИИ

Даже если алгоритм имеет почти 100% точности, он все равно будет производить ложные положительные результаты. Учитывая, что это не редкость, когда модели достигают 50% или 70% — и это без учета проблем предвзятости или галлюцинаций — разработчики должны рассмотреть возможность реализации системы обратной связи.

Люди должны иметь возможность просмотреть, что ИИ говорит об их эмоциональном состоянии, и обжаловать, если они считают это ложным. Хотя такая система потребует ограничений и мер ответственности, она минимизирует негативные последствия, возникающие из-за неточной информации.

Последствия игнорирования этики

Этические соображения должны быть приоритетом для инженеров ИИ, разработчиков машинного обучения и владельцев бизнеса, поскольку это влияет на них. Учитывая все более неуверенную общественную мнение и ужесточающиеся регулирования, последствия игнорирования этики могут быть значительными.

Zac Amos - это технический писатель, который фокусируется на искусственном интеллекте. Он также является редактором рубрики в ReHack, где вы можете прочитать больше его работ.