Suivez nous sur

Considérations éthiques lors du développement de l'IA pour la reconnaissance des émotions

Éthique

Considérations éthiques lors du développement de l'IA pour la reconnaissance des émotions

mm

L'intelligence artificielle pour la rĂ©gulation des Ă©motions est l'une des dernières avancĂ©es technologiques dans le domaine de l'apprentissage automatique. Bien qu’il prĂ©sente un grand potentiel, les questions Ă©thiques sont sur le point d’affecter son taux d’adoption et sa longĂ©vitĂ©. Les dĂ©veloppeurs d’IA peuvent-ils les surmonter ? 

Qu’est-ce que l’IA de reconnaissance des Ă©motions ? 

L'IA de reconnaissance des émotions est un type de modèle d'apprentissage automatique. Il s’appuie souvent sur une technologie de vision par ordinateur qui capture et analyse les expressions faciales pour déchiffrer les humeurs des images et des vidéos. Cependant, il peut également fonctionner sur des extraits audio pour déterminer le ton de la voix ou sur un texte écrit pour évaluer le sentiment du langage.

Ce type d’algorithme reprĂ©sente un progrès fascinant dans le domaine de l’IA car, jusqu’à prĂ©sent, les modèles Ă©taient incapables de comprendre les sentiments humains. Bien que les grands modèles de langage comme ChatGPT puissent simuler des humeurs et des personnalitĂ©s de manière convaincante, ils ne peuvent qu'enchaĂ®ner des mots de manière logique : ils ne peuvent rien ressentir et n'affichent pas d'intelligence Ă©motionnelle. MĂŞme si un modèle de reconnaissance des Ă©motions est incapable d’éprouver des sentiments, il peut nĂ©anmoins les dĂ©tecter et les cataloguer. Cette Ă©volution est importante car elle indique que l’IA pourrait bientĂ´t ĂŞtre capable de vĂ©ritablement comprendre et dĂ©montrer le bonheur, la tristesse ou la colère. Des avancĂ©es technologiques comme celles-ci indiquent un progrès accĂ©lĂ©rĂ©.

Cas d'utilisation de la reconnaissance des émotions par l'IA

Les entreprises, les éducateurs, les consultants et les professionnels de la santé mentale font partie des groupes qui peuvent utiliser l’IA pour la reconnaissance des émotions.

Évaluation des risques au bureau

Les équipes de ressources humaines peuvent utiliser des algorithmes pour effectuer une analyse des sentiments sur la correspondance par courrier électronique ou sur les discussions dans l'application entre les membres de l'équipe. Alternativement, ils peuvent intégrer leur algorithme dans leur système de surveillance ou de vision par ordinateur. Les utilisateurs peuvent suivre l'humeur pour calculer des indicateurs tels que le risque de roulement, le taux d'épuisement professionnel et la satisfaction des employés.

Assister les agents du service client

Les dĂ©taillants peuvent faire appel Ă  des agents internes du service client IA pour les utilisateurs finaux ou Ă  des assistants virtuels pour rĂ©soudre les situations très stressantes. Puisque leur modèle peut reconnaĂ®tre l’humeur, il peut suggĂ©rer des techniques de dĂ©sescalade ou changer de ton lorsqu’il se rend compte qu’un consommateur est en colère. De telles contre-mesures peuvent amĂ©liorer la satisfaction et la fidĂ©lisation des clients. 

Aider les élèves en classe

Les enseignants peuvent utiliser cette IA pour empĂŞcher les apprenants Ă  distance de prendre du retard. Une startup a dĂ©jĂ  utilisĂ© son outil pour mesurer les points musculaires sur le visage des Ă©tudiants tout en cataloguant leur vitesse et leurs notes. Cette mĂ©thode dĂ©termine leur humeur, leur motivation, leurs forces et leurs faiblesses. Le fondateur de la startup affirme qu'ils obtiennent un score 10 % plus Ă©levĂ© sur les tests lors de l'utilisation du logiciel.

RĂ©alisation d'Ă©tudes de marchĂ© internes 

Les entreprises peuvent mener des Ă©tudes de marchĂ© en interne Ă  l’aide d’un modèle de reconnaissance des Ă©motions. Cela peut les aider Ă  comprendre exactement comment leur public cible rĂ©agit Ă  leur produit, service ou matĂ©riel marketing, en leur donnant de prĂ©cieuses informations basĂ©es sur des donnĂ©es. En consĂ©quence, ils peuvent accĂ©lĂ©rer la mise sur le marchĂ© et augmenter leurs revenus. 

Le problème de l’utilisation de l’IA pour détecter les émotions

La recherche suggère que la prĂ©cision dĂ©pend fortement des informations de formation. Un groupe de recherche – tentant de dĂ©chiffrer les sentiments Ă  partir des images – a prouvĂ© ce concept de manière anecdotique lorsque leur modèle atteint une prĂ©cision de 92.05 % sur l'ensemble de donnĂ©es d'expression faciale fĂ©minine japonaise et une prĂ©cision de 98.13 % sur l'ensemble de donnĂ©es Extended Cohn-Kanade.

Même si la différence entre 92 % et 98 % peut paraître insignifiante, elle est importante : ce léger écart pourrait avoir des conséquences importantes. Pour référence, un taux d'empoisonnement d'un ensemble de données aussi bas que 0.001% s'est avéré efficace pour établir des portes dérobées de modèles ou provoquer intentionnellement des erreurs de classification. Même une fraction de pourcentage est significative.

De plus, même si les études semblent prometteuses (des taux de précision supérieurs à 90 % montrent du potentiel), les chercheurs les mènent dans des environnements contrôlés. Dans le monde réel, les images floues, les fausses expressions faciales, les mauvais angles et les sentiments subtils sont beaucoup plus courants. En d’autres termes, l’IA pourrait ne pas être en mesure de fonctionner de manière cohérente.

L’état actuel de l’IA de reconnaissance des émotions

L'analyse algorithmique des sentiments est le processus d'utilisation d'un algorithme pour dĂ©terminer si le ton du texte est positif, neutre ou nĂ©gatif. Cette technologie constitue sans doute le fondement des modèles modernes de dĂ©tection des Ă©motions, car elle a ouvert la voie aux Ă©valuations algorithmiques de l’humeur. Des technologies similaires, comme les logiciels de reconnaissance faciale, ont Ă©galement contribuĂ© au progrès. 

Les algorithmes d'aujourd'hui ne peuvent dĂ©tecter que des humeurs simples comme la joie, la tristesse, la colère, la peur et la surprise, avec plus ou moins de prĂ©cision. Ces expressions faciales sont innĂ©es et universelles – ce qui signifie qu’elles sont naturelles et comprises mondialement – ​​donc entraĂ®ner une IA Ă  les identifier est relativement simple. 

De plus, les expressions faciales de base sont souvent exagérées. Les gens froncent les sourcils lorsqu’ils sont en colère, froncent les sourcils lorsqu’ils sont tristes, sourient lorsqu’ils sont heureux et écarquillent les yeux lorsqu’ils sont choqués. Ces looks simplistes et dramatiques sont faciles à différencier. Les émotions plus complexes sont plus difficiles à identifier car elles sont subtiles ou combinent des visages de base.

Étant donné que ce sous-ensemble de l’IA reste en grande partie en recherche et développement, il n’a pas progressé pour couvrir des sentiments complexes comme le désir, la honte, le chagrin, la jalousie, le soulagement ou la confusion. Même s'il en couvrira probablement davantage à terme, rien ne garantit qu'il sera capable de tous les interpréter.

En réalité, les algorithmes ne pourront peut-être jamais rivaliser avec les humains. Pour référence, alors que l'ensemble de données GPT-4 d'OpenAI fait environ 1 pétaoctet, un seul millimètre cube de cerveau humain contient environ 1.4 pétaoctets de données. Les neuroscientifiques ne parviennent pas à comprendre pleinement comment le cerveau perçoit les émotions malgré des décennies de recherche. Il pourrait donc être impossible de créer une IA très précise.

Bien que l’utilisation de cette technologie pour la reconnaissance des émotions constitue un précédent, ce domaine en est encore techniquement à ses balbutiements. Il existe de nombreuses recherches sur ce concept, mais il existe peu d’exemples concrets de déploiement à grande échelle. Certains signes indiquent que le retard dans l’adoption peut résulter de préoccupations concernant une exactitude incohérente et de problèmes éthiques.

Considérations éthiques pour les développeurs d'IA

Selon une enquête, 67% des personnes interrogées sont d'accord L’IA devrait être un peu ou beaucoup plus réglementée. Pour rassurer les gens, les développeurs doivent minimiser les biais, garantir que leurs modèles se comportent comme prévu et améliorer les résultats. Ces solutions sont possibles si elles donnent la priorité aux considérations éthiques lors du développement.

1. Collecte et utilisation consensuelles des donnĂ©es 

Le consentement est primordial Ă  une Ă©poque oĂą la rĂ©glementation de l’IA se renforce. Que se passe-t-il si les employĂ©s dĂ©couvrent que leurs expressions faciales sont cataloguĂ©es Ă  leur insu ? Les parents doivent-ils approuver l’analyse des sentiments basĂ©e sur l’éducation ou les Ă©lèves peuvent-ils dĂ©cider eux-mĂŞmes ?

Les dĂ©veloppeurs doivent explicitement divulguer quelles informations le modèle collectera, quand il sera opĂ©rationnel, Ă  quoi servira l'analyse et qui peut accĂ©der Ă  ces dĂ©tails. De plus, ils doivent inclure des fonctionnalitĂ©s de dĂ©sinscription afin que les individus puissent personnaliser les autorisations. 

2. RĂ©sultat de l'analyse des sentiments anonymisĂ©e 

L’anonymisation des donnĂ©es est autant un problème de confidentialitĂ© qu’un problème de sĂ©curitĂ©. Les dĂ©veloppeurs doivent anonymiser les informations Ă©motionnelles qu’ils collectent pour protĂ©ger les personnes impliquĂ©es. Ă€ tout le moins, ils devraient sĂ©rieusement envisager de tirer parti du chiffrement au repos. 

3. Prise de décision humaine

La seule raison d’utiliser l’IA pour dĂ©terminer l’état Ă©motionnel d’une personne est d’éclairer la prise de dĂ©cision. En tant que tel, qu’il soit utilisĂ© dans le domaine de la santĂ© mentale ou dans le commerce de dĂ©tail, il aura un impact sur les gens. Les dĂ©veloppeurs doivent tirer parti des protections humaines pour minimiser les comportements inattendus. 

4. Commentaires centrés sur l'humain pour la sortie de l'IA

MĂŞme si un algorithme a une prĂ©cision de près de 100 %, il produira quand mĂŞme des faux positifs. ConsidĂ©rant qu'il n'est pas rare que les modèles atteignent 50 % ou 70 % - et cela sans aborder les problèmes de biais ou d'hallucinations - les dĂ©veloppeurs devraient envisager de mettre en Ĺ“uvre un système de rĂ©troaction. 

Les gens devraient pouvoir examiner ce que dit l’IA sur leur Ă©tat Ă©motionnel et faire appel s’ils pensent que cela est faux. MĂŞme si un tel système nĂ©cessiterait des garde-fous et des mesures de responsabilisation, il minimiserait les impacts nĂ©gatifs liĂ©s Ă  des rĂ©sultats inexacts. 

Les conséquences de l’ignorance de l’éthique

Les considérations éthiques devraient être une priorité pour les ingénieurs en IA, les développeurs de machine learning et les propriétaires d’entreprise, car elles les affectent. Étant donné que l’opinion publique est de plus en plus incertaine et que les réglementations sont de plus en plus strictes, les conséquences du non-respect de l’éthique peuvent être importantes.