Éthique
Considérations éthiques lors du développement d’IA pour la reconnaissance des émotions

L’intelligence artificielle pour la régulation des émotions est l’un des derniers progrès technologiques dans le domaine de l’apprentissage automatique. Bien qu’elle montre un grand potentiel, les problèmes éthiques sont prêts à affecter son taux d’adoption et sa longévité. Les développeurs d’IA peuvent-ils les surmonter ?
Qu’est-ce que la reconnaissance des émotions par IA ?
La reconnaissance des émotions par IA est un type de modèle d’apprentissage automatique. Elle repose souvent sur la technologie de vision par ordinateur qui capture et analyse les expressions faciales pour déchiffrer les humeurs dans les images et les vidéos. Cependant, elle peut également fonctionner sur des extraits audio pour déterminer le ton de la voix ou du texte écrit pour évaluer le sentiment du langage.
Ce type d’algorithme représente un progrès fascinant dans le domaine de l’IA, car jusqu’à présent, les modèles n’ont pas été en mesure de comprendre les sentiments humains. Alors que les grands modèles de langage comme ChatGPT peuvent simuler des humeurs et des personnalités de manière convaincante, ils ne peuvent que relier des mots de manière logique — ils ne peuvent pas ressentir quoi que ce soit et ne font pas preuve d’intelligence émotionnelle. Alors qu’un modèle de reconnaissance des émotions est incapable d’avoir des sentiments, il peut toujours les détecter et les cataloguer. Ce développement est important, car il signale que l’IA peut bientôt être en mesure de vraiment comprendre et de démontrer le bonheur, la tristesse ou la colère. Des progrès technologiques comme ceux-ci indiquent une accélération de l’avancement.
Cas d’utilisation pour la reconnaissance des émotions par IA
Les entreprises, les éducateurs, les consultants et les professionnels de la santé mentale sont certains des groupes qui peuvent utiliser l’IA pour la reconnaissance des émotions.
Évaluation des risques au bureau
Les équipes des ressources humaines peuvent utiliser des algorithmes pour effectuer une analyse des sentiments sur la correspondance électronique ou les discussions dans les applications entre les membres de l’équipe. Alternativement, ils peuvent intégrer leur algorithme dans leur système de surveillance ou de vision par ordinateur. Les utilisateurs peuvent suivre l’humeur pour calculer des métriques comme le risque de turnover, le taux d’épuisement professionnel et la satisfaction des employés.
Aide aux agents de service client
Les détaillants peuvent utiliser des agents de service client internes basés sur l’IA pour les utilisateurs finals ou des assistants virtuels pour résoudre des situations de haute pression. Puisque leur modèle peut reconnaître l’humeur, il peut suggérer des techniques de déescalade ou changer de ton lorsqu’il réalise qu’un consommateur se met en colère. Des contre-mesures comme celles-ci peuvent améliorer la satisfaction et la rétention des clients.
Aide aux étudiants en classe
Les éducateurs peuvent utiliser cette IA pour empêcher les apprenants à distance de rester en arrière. Une startup a déjà utilisé son outil pour mesurer les points musculaires sur les visages des étudiants tout en cataloguant leur vitesse et leurs notes. Cette méthode détermine leur humeur, leur motivation, leurs forces et leurs faiblesses. Le fondateur de la startup affirme qu’ils obtiennent 10 % de mieux aux tests lorsqu’ils utilisent le logiciel.
Réalisation d’études de marché internes
Les entreprises peuvent réaliser des études de marché internes en utilisant un modèle de reconnaissance des émotions. Il peut les aider à comprendre exactement comment leur public cible réagit à leur produit, service ou matériel de marketing, leur fournissant ainsi des informations précieuses basées sur les données. En conséquence, ils peuvent accélérer le temps de mise sur le marché et augmenter leurs revenus.
Le problème de l’utilisation de l’IA pour détecter les émotions
Les recherches suggèrent que la précision dépend fortement des informations de formation. Un groupe de recherche — qui a tenté de déchiffrer les sentiments à partir d’images — a prouvé de manière anecdotique ce concept lorsqu’il a obtenu une précision de 92,05 % sur le jeu de données d’expressions faciales féminines japonaises et une précision de 98,13 % sur le jeu de données étendu de Cohn-Kanade.
Alors que la différence entre 92 % et 98 % peut sembler insignifiante, elle est importante — cette légère discordance pourrait avoir des conséquences importantes. Pour référence, un taux d’empoisonnement des données aussi bas que 0,001 % s’est avéré efficace pour établir des portes dérobées de modèle ou provoquer intentionnellement des erreurs de classification. Même une fraction de pourcentage est significative.
De plus, bien que les études semblent prometteuses — des taux de précision supérieurs à 90 % montrent un potentiel — les chercheurs les réalisent dans des environnements contrôlés. Dans le monde réel, les images floues, les expressions faciales feintes, les mauvais angles et les sentiments subtils sont beaucoup plus courants. En d’autres termes, l’IA peut ne pas être en mesure de fonctionner de manière cohérente.
État actuel de la reconnaissance des émotions par IA
L’analyse des sentiments algorithmique est le processus d’utilisation d’un algorithme pour déterminer si le ton du texte est positif, neutre ou négatif. Cette technologie est sans doute la base des modèles de détection des émotions modernes, car elle a ouvert la voie à l’évaluation algorithmique des humeurs. Des technologies similaires comme les logiciels de reconnaissance faciale ont également contribué aux progrès.
Les algorithmes d’aujourd’hui peuvent principalement détecter seulement des humeurs simples comme le bonheur, la tristesse, la colère, la peur et la surprise avec des degrés de précision variables. Ces expressions faciales sont innées et universelles — ce qui signifie qu’elles sont naturelles et globalement comprises — donc la formation d’un IA pour les identifier est relativement simple.
De plus, les expressions faciales de base sont souvent exagérées. Les gens froncent les sourcils lorsqu’ils sont en colère, font la moue lorsqu’ils sont tristes, sourient lorsqu’ils sont heureux et écarquillent les yeux lorsqu’ils sont choqués. Ces regards dramatiques et simplistes sont faciles à différencier. Les émotions plus complexes sont plus difficiles à identifier, car elles sont soit subtiles, soit combinent des expressions de base.
Puisque ce sous-ensemble d’IA reste en grande partie en recherche et développement, il n’a pas progressé pour couvrir des sentiments complexes comme la nostalgie, la honte, le chagrin, la jalousie, le soulagement ou la confusion. Même si elle couvrira probablement davantage à l’avenir, il n’y a pas de garantie qu’elle sera en mesure de les interpréter tous.
En réalité, les algorithmes peuvent ne jamais être en mesure de rivaliser avec les humains. Pour référence, alors que le jeu de données GPT-4 d’OpenAI est d’environ 1 pétaoctet, un millimètre cube d’un cerveau humain contient environ 1,4 pétaoctets de données. Les neuroscientifiques ne peuvent pas pleinement comprendre comment le cerveau perçoit les émotions, malgré des décennies de recherche, donc la construction d’un IA très précis peut être impossible.
Alors que l’utilisation de cette technologie pour la reconnaissance des émotions a des précédents, ce domaine est encore techniquement à ses balbutiements. Il existe une abondance de recherches sur le concept, mais peu d’exemples de déploiement à grande échelle existent dans le monde réel. Certains signes indiquent que l’adoption retardée peut résulter de préoccupations concernant la précision inconsistante et les problèmes éthiques.
Considérations éthiques pour les développeurs d’IA
Selon une enquête, 67 % des répondants estiment que l’IA devrait être davantage réglementée. Pour rassurer les gens, les développeurs devraient minimiser les préjugés, s’assurer que leurs modèles se comportent comme prévu et améliorer les résultats. Ces solutions sont possibles s’ils donnent la priorité aux considérations éthiques pendant le développement.
1. Collecte et utilisation des données avec consentement
Le consentement est tout dans une ère où la réglementation de l’IA augmente. Que se passe-t-il si les employés découvrent que leurs expressions faciales sont cataloguées sans leur connaissance ? Les parents doivent-ils donner leur accord pour l’analyse des sentiments basée sur l’éducation ou les étudiants peuvent-ils décider pour eux-mêmes?
Les développeurs devraient explicitement divulguer les informations que le modèle collectera, quand il sera en fonctionnement, à quoi l’analyse sera utilisée et qui pourra accéder à ces détails. De plus, ils devraient inclure des fonctionnalités d’opt-out pour que les individus puissent personnaliser les autorisations.
2. Sortie d’analyse des sentiments anonymisée
L’anonymisation des données est autant un problème de confidentialité qu’un problème de sécurité. Les développeurs devraient anonymiser les informations émotionnelles qu’ils collectent pour protéger les individus impliqués. Au minimum, ils devraient fortement envisager d’utiliser le cryptage au repos.
3. Prise de décision avec l’homme dans la boucle
La seule raison d’utiliser l’IA pour déterminer l’état émotionnel de quelqu’un est d’éclairer la prise de décision. Que ce soit dans un cadre de santé mentale ou de détail, cela aura un impact sur les gens. Les développeurs devraient utiliser des garanties de sécurité avec l’homme dans la boucle pour minimiser le comportement inattendu.
4. Rétroaction centrée sur l’homme pour la sortie de l’IA
Même si un algorithme a une précision proche de 100 %, il produira toujours de faux positifs. Étant donné qu’il n’est pas rare que les modèles atteignent 50 % ou 70 % — et que cela ne touche pas aux problèmes de biais ou d’hallucination — les développeurs devraient envisager de mettre en œuvre un système de rétroaction.
Les gens devraient être en mesure d’examiner ce que l’IA dit sur leur état émotionnel et d’en faire appel s’ils estiment qu’il est faux. Même si un tel système nécessiterait des garde-fous et des mesures de responsabilité, il minimiserait les impacts négatifs résultant d’une sortie incorrecte.
Les conséquences de l’ignorance des considérations éthiques
Les considérations éthiques devraient être une priorité pour les ingénieurs en IA, les développeurs d’apprentissage automatique et les propriétaires d’entreprise, car cela les affecte. Compte tenu de l’opinion publique de plus en plus incertaine et des réglementations qui se resserrent, les conséquences de l’ignorance des considérations éthiques peuvent être importantes.












