Connect with us

Етичні розгляди при розробці штучного інтелекту для розпізнавання емоцій

Етика

Етичні розгляди при розробці штучного інтелекту для розпізнавання емоцій

mm

Штучний інтелект для регулювання емоцій є одним із останніх технологічних досягнень у сфері машинного навчання. Хоча він показує великий потенціал, етичні питання можуть вплинути на його прийняття та тривалість. Чи зможуть розробники штучного інтелекту подолати їх?

Що таке штучний інтелект для розпізнавання емоцій?

Штучний інтелект для розпізнавання емоцій є типом моделі машинного навчання. Він часто використовує технологію комп’ютерного зору, яка захоплює та аналізує вирази обличчя для розшифрування настроїв у зображеннях та відео. Однак він також може працювати з аудіофрагментами для визначення тону голосу або написаним текстом для оцінки настрою мови.

Цей алгоритм представляє цікавий прогрес у сфері штучного інтелекту, оскільки досі моделі не могли зрозуміти людські почуття. Хоча великі мовні моделі, такі як ChatGPT, можуть імітувати настрої та персони досить переконливо, вони можуть тільки логічно поєднувати слова — вони не можуть відчувати нічого та не демонструють емоційний інтелект.Хоча модель розпізнавання емоцій не здатна відчувати почуття, вона все ж може виявляти та каталогізувати їх. Це досягнення є значущим, оскільки воно сигналізує про те, що штучний інтелект скоро зможе справжньо зрозуміти та продемонструвати щастя, смуток або гнів. Такі технологічні стрибки вказують на прискорене вдосконалення.

Варіанти використання штучного інтелекту для розпізнавання емоцій

Бізнес, освітні установи, консультанти та фахівці з психічного здоров’я — це деякі групи, які можуть використовувати штучний інтелект для розпізнавання емоцій.

Оцінка ризику на робочому місці

Команди з управління персоналом можуть використовувати алгоритми для проведення аналізу настрою електронної пошти або внутрішніх чатів між членами команди. Альтернативно, вони можуть інтегрувати свій алгоритм у систему відеоспостереження або комп’ютерного зору. Користувачі можуть відстежувати настрій для розрахунку метрик, таких як ризик виходу, рівень вигорання та задоволеність працівниками.

Допомога агентам з обслуговування клієнтів

Деталісти можуть використовувати внутрішніх агентів штучного інтелекту для обслуговування клієнтів або віртуальних асистентів для вирішення ситуацій високого стресу. Оскільки їхня модель може розпізнавати настрій, вона може пропонувати техніки деескалації або змінювати тон, коли вона розуміє, що клієнт розлютнюється. Такі контрзаходи можуть покращити задоволеність клієнтів та їх утримання.

Допомога студентам у класі

Освітні установи можуть використовувати цей штучний інтелект, щоб утримувати відсталих учнів на дистанційному навчанні. Одна стартап-компанія вже використала свій інструмент для вимірювання м’язових точок на обличчях студентів під час каталогізації їхньої швидкості та оцінок. Цей метод визначає їхній настрій, мотивацію, сильні та слабкі сторони. Засновник стартап-компанії тверджує, що вони набирають на 10% більше балів на тестах, коли використовують програмне забезпечення.

Проведення внутрішнього ринку дослідження

Бізнес може проводити внутрішнє ринкове дослідження, використовуючи модель розпізнавання емоцій. Вона може допомогти їм зрозуміти, як їхня цільова аудиторія реагує на їхній продукт, послугу або маркетинговий матеріал, надаючи їм цінні дані-драйвені інсайти. В результаті вони можуть прискорити час виходу на ринок та збільшити свій дохід.

Проблема з використанням штучного інтелекту для виявлення емоцій

Дослідження свідчать про те, що точність сильно залежить від тренувальної інформації. Одна дослідницька група — намагаючись розшифрувати почуття з зображень — довела цю концепцію, коли їхня модель досягла 92,05% точності на наборі даних виразів обличчя жінок у Японії та 98,13% точності на розширеному наборі даних Кона-Канаде.

Хоча різниця між 92% та 98% може здатися незначною, вона має значення — ця незначна розбіжність може мати суттєві наслідки. Для порівняння, рівень отруєння даних у 0,001% виявився ефективним для створення бекдорів моделі або навмисного спричинення неправильної класифікації. Навіть мала частка відсотка має значення.

Крім того, хоча дослідження здаються перспективними — показники точності понад 90% свідчать про потенціал — дослідники проводять їх у контрольованому середовищі. У реальному світі розмиті зображення, імітовані вирази обличчя, погані кути та тонкі почуття є набагато більш поширеними. Інакше кажучи, штучний інтелект може не спроможний працювати послідовно.

Поточний стан штучного інтелекту для розпізнавання емоцій

Алгоритмічний аналіз настрою — це процес використання алгоритму для визначення того, чи є тон тексту позитивним, нейтральним чи негативним. Ця технологія є, без сумніву, основою для сучасних моделей виявлення емоцій, оскільки вона проклала шлях для алгоритмічної оцінки настрою. Подібні технології, такі як програмне забезпечення розпізнавання обличчя, також сприяли прогресу.

Сучасні алгоритми можуть переважно виявляти тільки прості настрої, такі як щастя, смуток, гнів, страх та здивування, з різним ступенем точності. Ці вирази обличчя є вродженими та універсальними — тобто вони є природними та глобально зрозумілими — тому навчання штучного інтелекту для їх ідентифікації є відносно простим.

Крім того, базові вирази обличчя часто перебільшені. Люди хмуряться, коли розлютнюються, хмуряться, коли сумують, посміхаються, коли щасливі, та розширюють очі, коли шоковані. Ці прості, драматичні вирази легко відрізнити. Більш складні емоції є складнішими для визначення, оскільки вони є або тонкими, або поєднують базові вирази.

Оскільки цей підвид штучного інтелекту переважно залишається у сфері дослідження та розробки, він ще не просунувся до покриття складних почуттів, таких як туга, сором, горе, заздрість, полегшення чи плутаність. Хоча він, ймовірно, покриє більше з часом, немає гарантії, що він зможе інтерпретувати всі вони.

Насправді алгоритми можуть ніколи не бути в змозі конкурувати з людьми. Для порівняння, хоча набір даних OpenAI GPT-4 становить близько 1 петабайта, один кубічний міліметр людського мозку містить близько 1,4 петабайта даних. Нейробіологи не можуть повністю зрозуміти, як мозок сприймає емоції, незважаючи на десятиліття досліджень, тому створення високоточного штучного інтелекту може бути неможливим.

Хоча використання цієї технології для розпізнавання емоцій має прецедент, ця галузь все ж залишається на етапі дитинства. Є багато досліджень щодо цієї концепції, але мало реальних прикладів великомасштабного розгортання. Деякі ознаки свідчать про те, що повільна адаптація може бути результатом проблем з нестабільною точністю та етичними питаннями.

Етичні розгляди для розробників штучного інтелекту

Згідно з одним опитуванням, 67% респондентів погоджуються, що штучний інтелект повинен бути більш регульований. Щоб заспокоїти людей, розробники повинні мінімізувати упередженість, забезпечити очікувану поведінку своїх моделей та покращити результати. Ці рішення є можливими, якщо вони пріоритезують етичні розгляди під час розробки.

1. Добровільна збирання та використання даних

Добровільність є всім у епоху, коли регулювання штучного інтелекту посилюється. Що відбувається, якщо працівники дізнаються, що їхні вирази обличчя каталогізуються без їхньої згоди? Чи повинні батьки підписувати згоду на аналіз настрою в освіті чи студенти можуть вирішувати це самостійно?

Розробники повинні явно розкрити, яку інформацію модель буде зібрана, коли вона буде у роботі, для чого буде використовуватися аналіз та хто зможе отримати доступ до цих деталей. Крім того, вони повинні включити функції опції виходу, щоб люди могли налаштовувати дозволи.

2. Анонімізований вивід аналізу настрою

Анонімізація даних є такою ж проблемою конфіденційності, як і проблемою безпеки. Розробники повинні анонімізувати інформацію про емоції, яку вони збирають, щоб захистити осіб, які беруть участь. Як мінімум, вони повинні серйозно розглянути використання шифрування даних у спокої.

3. Людина у циклі прийняття рішень

Єдина причина використовувати штучний інтелект для визначення емоційного стану людини полягає в тому, щоб інформувати прийняття рішень. Як такий, незалежно від того, чи використовується він у сфері психічного здоров’я чи у роздрібній торгівлі, він вплине на людей. Розробники повинні використовувати заходи безпеки людини у циклі, щоб мінімізувати непередбачувану поведінку.

4. Зворотній зв’язок людини для виводу штучного інтелекту

Навіть якщо алгоритм має майже 100% точності, він все ж таки буде генерувати хибні позитиви. Враховуючи, що це не рідко, коли моделі досягають 50% або 70% — і це без торкання питань упередженості чи галюцинацій — розробники повинні подумати про реалізацію системи зворотного зв’язку.

Люди повинні мати можливість переглянути, що штучний інтелект говорить про їхній емоційний стан, та оскаржувати, якщо вони вважають це хибним. Хоча така система потребуватиме захисних заходів та заходів відповідальності, вона мінімізуватиме негативні наслідки, пов’язані з неточним виводом.

Наслідки ігнорування етики

Етичні розгляди повинні бути пріоритетом для інженерів штучного інтелекту, розробників машинного навчання та власників бізнесу, оскільки це впливає на них. Враховуючи усе більш невпевнене громадське думку та посилення регулювання, наслідки ігнорування етики можуть бути суттєвими.

Zac Amos є технічним письменником, який зосереджується на штучному інтелекті. Він також є редактором рубрики у ReHack, де ви можете прочитати більше його робіт.