Éthique
Considérations éthiques lors du développement de l'IA pour la reconnaissance des émotions

L'intelligence artificielle pour la régulation des émotions est l'une des dernières avancées technologiques dans le domaine de l'apprentissage automatique. Bien qu’il présente un grand potentiel, les questions éthiques sont sur le point d’affecter son taux d’adoption et sa longévité. Les développeurs d’IA peuvent-ils les surmonter ?
Qu’est-ce que l’IA de reconnaissance des émotions ?
L'IA de reconnaissance des émotions est un type de modèle d'apprentissage automatique. Il s’appuie souvent sur une technologie de vision par ordinateur qui capture et analyse les expressions faciales pour déchiffrer les humeurs des images et des vidéos. Cependant, il peut également fonctionner sur des extraits audio pour déterminer le ton de la voix ou sur un texte écrit pour évaluer le sentiment du langage.
Ce type d’algorithme représente un progrès fascinant dans le domaine de l’IA car, jusqu’à présent, les modèles étaient incapables de comprendre les sentiments humains. Bien que les grands modèles de langage comme ChatGPT puissent simuler des humeurs et des personnalités de manière convaincante, ils ne peuvent qu'enchaîner des mots de manière logique : ils ne peuvent rien ressentir et n'affichent pas d'intelligence émotionnelle. Même si un modèle de reconnaissance des émotions est incapable d’éprouver des sentiments, il peut néanmoins les détecter et les cataloguer. Cette évolution est importante car elle indique que l’IA pourrait bientôt être capable de véritablement comprendre et démontrer le bonheur, la tristesse ou la colère. Des avancées technologiques comme celles-ci indiquent un progrès accéléré.
Cas d'utilisation de la reconnaissance des émotions par l'IA
Les entreprises, les éducateurs, les consultants et les professionnels de la santé mentale font partie des groupes qui peuvent utiliser l’IA pour la reconnaissance des émotions.
Évaluation des risques au bureau
Les équipes de ressources humaines peuvent utiliser des algorithmes pour effectuer une analyse des sentiments sur la correspondance par courrier électronique ou sur les discussions dans l'application entre les membres de l'équipe. Alternativement, ils peuvent intégrer leur algorithme dans leur système de surveillance ou de vision par ordinateur. Les utilisateurs peuvent suivre l'humeur pour calculer des indicateurs tels que le risque de roulement, le taux d'épuisement professionnel et la satisfaction des employés.
Assister les agents du service client
Les détaillants peuvent faire appel à des agents internes du service client IA pour les utilisateurs finaux ou à des assistants virtuels pour résoudre les situations très stressantes. Puisque leur modèle peut reconnaître l’humeur, il peut suggérer des techniques de désescalade ou changer de ton lorsqu’il se rend compte qu’un consommateur est en colère. De telles contre-mesures peuvent améliorer la satisfaction et la fidélisation des clients.
Aider les élèves en classe
Les enseignants peuvent utiliser cette IA pour empêcher les apprenants à distance de prendre du retard. Une startup a déjà utilisé son outil pour mesurer les points musculaires sur le visage des étudiants tout en cataloguant leur vitesse et leurs notes. Cette méthode détermine leur humeur, leur motivation, leurs forces et leurs faiblesses. Le fondateur de la startup affirme qu'ils obtiennent un score 10 % plus élevé sur les tests lors de l'utilisation du logiciel.
Réalisation d'études de marché internes
Les entreprises peuvent mener des études de marché en interne à l’aide d’un modèle de reconnaissance des émotions. Cela peut les aider à comprendre exactement comment leur public cible réagit à leur produit, service ou matériel marketing, en leur donnant de précieuses informations basées sur des données. En conséquence, ils peuvent accélérer la mise sur le marché et augmenter leurs revenus.
Le problème de l’utilisation de l’IA pour détecter les émotions
La recherche suggère que la précision dépend fortement des informations de formation. Un groupe de recherche – tentant de déchiffrer les sentiments à partir des images – a prouvé ce concept de manière anecdotique lorsque leur modèle atteint une précision de 92.05 % sur l'ensemble de données d'expression faciale féminine japonaise et une précision de 98.13 % sur l'ensemble de données Extended Cohn-Kanade.
Même si la différence entre 92 % et 98 % peut paraître insignifiante, elle est importante : ce léger écart pourrait avoir des conséquences importantes. Pour référence, un taux d'empoisonnement d'un ensemble de données aussi bas que 0.001% s'est avéré efficace pour établir des portes dérobées de modèles ou provoquer intentionnellement des erreurs de classification. Même une fraction de pourcentage est significative.
De plus, même si les études semblent prometteuses (des taux de précision supérieurs à 90 % montrent du potentiel), les chercheurs les mènent dans des environnements contrôlés. Dans le monde réel, les images floues, les fausses expressions faciales, les mauvais angles et les sentiments subtils sont beaucoup plus courants. En d’autres termes, l’IA pourrait ne pas être en mesure de fonctionner de manière cohérente.
L’état actuel de l’IA de reconnaissance des émotions
L'analyse algorithmique des sentiments est le processus d'utilisation d'un algorithme pour déterminer si le ton du texte est positif, neutre ou négatif. Cette technologie constitue sans doute le fondement des modèles modernes de détection des émotions, car elle a ouvert la voie aux évaluations algorithmiques de l’humeur. Des technologies similaires, comme les logiciels de reconnaissance faciale, ont également contribué au progrès.
Les algorithmes d'aujourd'hui ne peuvent détecter que des humeurs simples comme la joie, la tristesse, la colère, la peur et la surprise, avec plus ou moins de précision. Ces expressions faciales sont innées et universelles – ce qui signifie qu’elles sont naturelles et comprises mondialement – ​​donc entraîner une IA à les identifier est relativement simple.
De plus, les expressions faciales de base sont souvent exagérées. Les gens froncent les sourcils lorsqu’ils sont en colère, froncent les sourcils lorsqu’ils sont tristes, sourient lorsqu’ils sont heureux et écarquillent les yeux lorsqu’ils sont choqués. Ces looks simplistes et dramatiques sont faciles à différencier. Les émotions plus complexes sont plus difficiles à identifier car elles sont subtiles ou combinent des visages de base.
Étant donné que ce sous-ensemble de l’IA reste en grande partie en recherche et développement, il n’a pas progressé pour couvrir des sentiments complexes comme le désir, la honte, le chagrin, la jalousie, le soulagement ou la confusion. Même s'il en couvrira probablement davantage à terme, rien ne garantit qu'il sera capable de tous les interpréter.
En réalité, les algorithmes ne pourront peut-être jamais rivaliser avec les humains. Pour référence, alors que l'ensemble de données GPT-4 d'OpenAI fait environ 1 pétaoctet, un seul millimètre cube de cerveau humain contient environ 1.4 pétaoctets de données. Les neuroscientifiques ne parviennent pas à comprendre pleinement comment le cerveau perçoit les émotions malgré des décennies de recherche. Il pourrait donc être impossible de créer une IA très précise.
Bien que l’utilisation de cette technologie pour la reconnaissance des émotions constitue un précédent, ce domaine en est encore techniquement à ses balbutiements. Il existe de nombreuses recherches sur ce concept, mais il existe peu d’exemples concrets de déploiement à grande échelle. Certains signes indiquent que le retard dans l’adoption peut résulter de préoccupations concernant une exactitude incohérente et de problèmes éthiques.
Considérations éthiques pour les développeurs d'IA
Selon une enquête, 67% des personnes interrogées sont d'accord L’IA devrait être un peu ou beaucoup plus réglementée. Pour rassurer les gens, les développeurs doivent minimiser les biais, garantir que leurs modèles se comportent comme prévu et améliorer les résultats. Ces solutions sont possibles si elles donnent la priorité aux considérations éthiques lors du développement.
1. Collecte et utilisation consensuelles des données
Le consentement est primordial à une époque où la réglementation de l’IA se renforce. Que se passe-t-il si les employés découvrent que leurs expressions faciales sont cataloguées à leur insu ? Les parents doivent-ils approuver l’analyse des sentiments basée sur l’éducation ou les élèves peuvent-ils décider eux-mêmes ?
Les développeurs doivent explicitement divulguer quelles informations le modèle collectera, quand il sera opérationnel, à quoi servira l'analyse et qui peut accéder à ces détails. De plus, ils doivent inclure des fonctionnalités de désinscription afin que les individus puissent personnaliser les autorisations.
2. Résultat de l'analyse des sentiments anonymisée
L’anonymisation des données est autant un problème de confidentialité qu’un problème de sécurité. Les développeurs doivent anonymiser les informations émotionnelles qu’ils collectent pour protéger les personnes impliquées. À tout le moins, ils devraient sérieusement envisager de tirer parti du chiffrement au repos.
3. Prise de décision humaine
La seule raison d’utiliser l’IA pour déterminer l’état émotionnel d’une personne est d’éclairer la prise de décision. En tant que tel, qu’il soit utilisé dans le domaine de la santé mentale ou dans le commerce de détail, il aura un impact sur les gens. Les développeurs doivent tirer parti des protections humaines pour minimiser les comportements inattendus.
4. Commentaires centrés sur l'humain pour la sortie de l'IA
Même si un algorithme a une précision de près de 100 %, il produira quand même des faux positifs. Considérant qu'il n'est pas rare que les modèles atteignent 50 % ou 70 % - et cela sans aborder les problèmes de biais ou d'hallucinations - les développeurs devraient envisager de mettre en œuvre un système de rétroaction.
Les gens devraient pouvoir examiner ce que dit l’IA sur leur état émotionnel et faire appel s’ils pensent que cela est faux. Même si un tel système nécessiterait des garde-fous et des mesures de responsabilisation, il minimiserait les impacts négatifs liés à des résultats inexacts.
Les conséquences de l’ignorance de l’éthique
Les considérations éthiques devraient être une priorité pour les ingénieurs en IA, les développeurs de machine learning et les propriétaires d’entreprise, car elles les affectent. Étant donné que l’opinion publique est de plus en plus incertaine et que les réglementations sont de plus en plus strictes, les conséquences du non-respect de l’éthique peuvent être importantes.