Ética
Consideraciones éticas al desarrollar IA para el reconocimiento de emociones

La inteligencia artificial para la regulación de las emociones es uno de los últimos avances tecnológicos en el campo del aprendizaje automático. Aunque muestra un gran potencial, los problemas éticos están a punto de afectar su tasa de adopción y longevidad. ¿Pueden los desarrolladores de IA superarlos!
¿Qué es el reconocimiento de emociones AI?
El reconocimiento de emociones AI es un tipo de modelo de aprendizaje automático. A menudo se basa en la tecnología de visión por computadora que captura y analiza expresiones faciales para descifrar estados de ánimo en imágenes y videos. Sin embargo, también puede funcionar con fragmentos de audio para determinar el tono de voz o texto escrito para evaluar el sentimiento del lenguaje.
Este tipo de algoritmo representa un progreso fascinante en el campo de la IA porque, hasta ahora, los modelos no han podido comprender los sentimientos humanos. Mientras que los grandes modelos de lenguaje como ChatGPT pueden simular estados de ánimo y personalidades de manera convincente, solo pueden combinar palabras de manera lógica, no pueden sentir nada y no muestran inteligencia emocional.Aunque un modelo de reconocimiento de emociones no es capaz de tener sentimientos, aún puede detectar y catalogarlos. Este desarrollo es significativo porque indica que la IA pronto podrá comprender y demostrar genuinamente felicidad, tristeza o ira. Los avances tecnológicos como este indican un progreso acelerado.
Casos de uso para el reconocimiento de emociones AI
Las empresas, educadores, consultores y profesionales de la salud mental son algunos de los grupos que pueden utilizar la IA para el reconocimiento de emociones.
Evaluación del riesgo en la oficina
Los equipos de recursos humanos pueden utilizar algoritmos para realizar un análisis de sentimiento en la correspondencia por correo electrónico o en chats entre miembros del equipo. Alternativamente, pueden integrar su algoritmo en su sistema de vigilancia o visión por computadora. Los usuarios pueden rastrear el estado de ánimo para calcular métricas como el riesgo de rotación, la tasa de agotamiento y la satisfacción del empleado.
Asistir a los agentes de servicio al cliente
Los minoristas pueden utilizar agentes de servicio al cliente de IA internos para usuarios finales o asistentes virtuales para resolver situaciones de alto estrés. Dado que su modelo puede reconocer el estado de ánimo, puede sugerir técnicas de desescalada o cambiar su tono cuando se dé cuenta de que un consumidor se está enojando. Contramedidas como estas pueden mejorar la satisfacción y la retención del cliente.
Ayudar a los estudiantes en el aula
Los educadores pueden utilizar esta IA para mantener a los estudiantes a distancia y evitar que se queden atrás. Una startup ya ha utilizado su herramienta para medir los puntos musculares en las caras de los estudiantes mientras cataloga su velocidad y calificaciones. Este método determina su estado de ánimo, motivación, fortalezas y debilidades. El fundador de la startup afirma que obtienen un 10% más alto en las pruebas cuando utilizan el software.
Realizar investigaciones de mercado internas
Las empresas pueden realizar investigaciones de mercado internas utilizando un modelo de reconocimiento de emociones. Puede ayudarles a comprender exactamente cómo reacciona su público objetivo a su producto, servicio o material de marketing, brindándoles valiosas ideas basadas en datos. Como resultado, pueden acelerar el tiempo de comercialización y aumentar sus ingresos.
El problema de utilizar IA para detectar emociones
La investigación sugiere que la precisión depende en gran medida de la información de entrenamiento. Un grupo de investigación —que intentaba descifrar sentimientos a partir de imágenes— demostró anécdóticamente este concepto cuando su modelo logró una precisión del 92,05% en el conjunto de datos de expresiones faciales femeninas japonesas y una precisión del 98,13% en el conjunto de datos Extended Cohn-Kanade.
Aunque la diferencia entre el 92% y el 98% puede parecer insignificante, es importante — esta ligera discrepancia podría tener ramificaciones sustanciales. Por referencia, una tasa de envenenamiento de datos tan baja como el 0,001% ha demostrado ser efectiva para establecer puertas traseras de modelo o causar intencionalmente malas clasificaciones. Incluso una fracción de un porcentaje es significativa.
Además, aunque los estudios parecen prometedores — tasas de precisión superiores al 90% muestran potencial — los investigadores los realizan en entornos controlados. En el mundo real, las imágenes borrosas, las expresiones faciales falsas, los malos ángulos y los sentimientos sutiles son mucho más comunes. En otras palabras, la IA puede no ser capaz de realizar un desempeño consistente.
El estado actual de la IA de reconocimiento de emociones
El análisis de sentimiento algorítmico es el proceso de utilizar un algoritmo para determinar si el tono del texto es positivo, neutral o negativo. Esta tecnología es, en cierto modo, la base de los modelos modernos de detección de emociones, ya que allanó el camino para las evaluaciones algorítmicas de estado de ánimo. Tecnologías similares como el software de reconocimiento facial también han contribuido al progreso.
Los algoritmos de hoy en día pueden detectar principalmente solo estados de ánimo simples como felicidad, tristeza, ira, miedo y sorpresa con diferentes grados de precisión. Estas expresiones faciales son innatas y universales — lo que significa que son naturales y globalmente entendidas — por lo que entrenar a una IA para identificarlas es relativamente sencillo.
Además, las expresiones faciales básicas a menudo están exageradas. Las personas fruncen el ceño cuando están enojadas, hacen una mueca cuando están tristes, sonríen cuando están felices y abren los ojos cuando están sorprendidas. Estos looks dramáticos y sencillos son fáciles de diferenciar. Las emociones más complejas son más difíciles de detectar porque son sutiles o combinan expresiones faciales básicas.
Dado que este subconjunto de IA sigue en gran medida en investigación y desarrollo, no ha progresado para cubrir sentimientos complejos como la nostalgia, la vergüenza, el duelo, los celos, el alivio o la confusión. Aunque probablemente cubrirá más con el tiempo, no hay garantía de que pueda interpretarlos todos.
En realidad, los algoritmos pueden nunca ser capaces de competir con los humanos. Por referencia, mientras que el conjunto de datos de GPT-4 de OpenAI es aproximadamente 1 petabyte, un solo milímetro cúbico del cerebro humano contiene alrededor de 1,4 petabytes de datos. Los neurocientíficos no pueden comprender completamente cómo el cerebro percibe las emociones a pesar de décadas de investigación, por lo que puede ser imposible construir una IA muy precisa.
Aunque el uso de esta tecnología para el reconocimiento de emociones tiene precedentes, este campo sigue siendo técnicamente en su infancia. Hay una gran cantidad de investigación sobre el concepto, pero pocos ejemplos de implementación a gran escala en el mundo real. Algunos signos indican que la adopción lenta puede resultar de preocupaciones sobre la precisión inconsistente y los problemas éticos.
Consideraciones éticas para los desarrolladores de IA
Según una encuesta, el 67% de los encuestados están de acuerdo en que la IA debería estar más regulada. Para tranquilizar a la gente, los desarrolladores deben minimizar los sesgos, asegurarse de que sus modelos se comporten como se espera y mejorar los resultados. Estas soluciones son posibles si priorizan las consideraciones éticas durante el desarrollo.
1. Recopilación y utilización de datos con consentimiento
El consentimiento es todo en una era en la que la regulación de la IA está aumentando. ¿Qué sucede si los empleados descubren que sus expresiones faciales están siendo catalogadas sin su conocimiento? ¿Los padres necesitan dar su consentimiento para el análisis de sentimiento basado en la educación o los estudiantes pueden decidir por sí mismos?
Los desarrolladores deben revelar explícitamente qué información recopilará el modelo, cuándo estará en funcionamiento, para qué se utilizará el análisis y quién podrá acceder a esos detalles. Además, deben incluir funciones de exclusión para que las personas puedan personalizar los permisos.
2. Salida de análisis de sentimiento anonimizada
La anonimización de los datos es tanto un problema de privacidad como de seguridad. Los desarrolladores deben anonimizar la información de las emociones que recopilan para proteger a las personas involucradas. Al menos, deben considerar seriamente utilizar el cifrado en reposo.
3. Toma de decisiones con intervención humana
La única razón para utilizar la IA para determinar el estado emocional de alguien es informar la toma de decisiones. Como tal, ya sea que se utilice en una capacidad de salud mental o en un entorno minorista, afectará a las personas. Los desarrolladores deben aprovechar las salvaguardias de intervención humana para minimizar el comportamiento inesperado.
4. Retroalimentación centrada en humanos para la salida de IA
Incluso si un algoritmo tiene casi un 100% de precisión, aún producirá falsos positivos. Considerando que no es inusual que los modelos logren un 50% o un 70% — y que no toca los problemas de sesgo o alucinación — los desarrolladores deben considerar la implementación de un sistema de retroalimentación.
Las personas deben poder revisar lo que la IA dice sobre su estado emocional y apelar si creen que es falso. Aunque tal sistema requeriría guardias y medidas de responsabilidad, minimizaría los impactos adversos que surgen de la salida inexacta.
Las consecuencias de ignorar la ética
Las consideraciones éticas deben ser una prioridad para los ingenieros de IA, los desarrolladores de aprendizaje automático y los propietarios de negocios porque les afecta. Considerando que la opinión pública cada vez más insegura y las regulaciones más estrictas están en juego, las consecuencias de ignorar la ética pueden ser significativas.












