Líderes de opinión
A medida que las industrias se preparan para una adopción acelerada de la IA, se centran en la ética y la responsabilidad

Por: Pandurang Kamat, CTO de Persistent Systems
La inteligencia artificial (IA) en su núcleo es aprendizaje automático (ML), el proceso por el cual las máquinas aprenden a mejorar el rendimiento en función de las entradas de datos. La gran cantidad de datos existentes hoy en día significa que la IA ha tenido un terreno fértil para prosperar, acelerando a un ritmo vertiginoso en solo los últimos años. Y la promesa de la IA ha llevado a tecnólogos y ejecutivos de diversas industrias a pensar de manera creativa sobre sus diversas aplicaciones.
Desde la revolución industrial en adelante, cualquier período de progreso tecnológico rápido se caracteriza por partes iguales de entusiasmo y temor. El Consorcio de la World Wide Web (W3C), un grupo que crea estándares para la industria de los desarrolladores web, señala que “hay una creciente conciencia de que la aplicación del aprendizaje automático plantea riesgos y puede generar daños” – incluyendo en áreas como: sesgo, privacidad, seguridad, sostenibilidad y rendición de cuentas en general.
“Hay una clara demanda de un enfoque ético del ML, visto a través del activismo de la sociedad civil, la emergencia de ~100 conjuntos de principios éticos de IA a nivel mundial y los movimientos gubernamentales en todo el mundo para regular la IA”, escribió el grupo. “Si las tecnologías no están alineadas con los valores de las sociedades en las que operan, corren el riesgo de socavarlos”.
Elige con sabiduría
En la superficie, es difícil argumentar que una mayor velocidad y producción sean malas para los negocios. Pero para ciertas industrias, hay mucho en juego con el proceso de toma de decisiones que algunos argumentan que no debería dejarse a un algoritmo. Al examinar algunas de las industrias más grandes, podemos ver justo cuán vulnerables somos al error de la máquina y por qué la IA responsable es tan importante.
Banca, Servicios Financieros y Seguros (BFSI)
El Foro Económico Mundial (WEF) y Deloitte examinaron el proceso de implementación de la IA en las empresas de BFSI, encontrando que, “si bien la IA puede ayudar a crear información comercial útil a partir de una cantidad abrumadora de información”, la “extranjeridad de la IA” será una fuente de riesgo grave y continuo.
“La IA razona de maneras no humanas”, dice el informe. “Los sistemas de IA no siguen constructos lógicos humanos y se comportan de manera muy diferente a los actores humanos dados la misma tarea. Además, la naturaleza de autoaprendizaje de los sistemas de IA les permite evolucionar sin entrada humana, lo que puede generar resultados inesperados basados en variables desconocidas”.
Los defensores de la IA responsable argumentan que el aprendizaje automático presenta problemas graves en cosas como la puntuación de riesgo automática, las decisiones de crédito y préstamos, todas las cuales han sido históricamente perjudiciales para ciertos grupos demográficos. Estudios recientes han demostrado que los prestamistas que utilizan motores de decisión basados en IA fueron más propensos a denegar préstamos hipotecarios a personas de color – en algunos casos, el 80% de los solicitantes negros es más probable que sea rechazado.
Atención médica
Hace unos años, la Asociación Médica Estadounidense (JAMA) examinó la adopción de la IA en la atención médica, encontrando que los desafíos son muchos, incluyendo “expectativas poco realistas, datos sesgados y no representativos, priorización inadecuada de la equidad y la inclusión, el riesgo de exacerbar las disparidades en la atención médica, bajos niveles de confianza y entornos regulatorios inciertos”.
No exactamente un respaldo rotundo, pero hay una barra más alta para la IA responsable en la atención médica, especialmente dado su potencial literal de vida o muerte. En general, los profesionales de la salud son optimistas pero guardados sobre el futuro de la IA, eligiendo centrar sus esfuerzos en educar a otros practicantes sobre su uso en el entorno clínico y crear pautas sobre cómo seguir adelante de manera responsable para beneficio de todos los pacientes.
Medios
PwC estima que la IA proporcionará $15.7 billones en crecimiento económico global para 2030, pero según Salesforce menos de la mitad (48%) de los clientes confían en que las empresas utilicen la IA de manera ética, y el 65% se preocupa por el uso no ético de la IA. En el punto de intersección de las ganancias y la confianza, hay empresas de medios – adoptadores tempranos con un gran alcance e influencia. Y hay preocupaciones sobre el hecho de que la IA no es una aplicación “configurada y olvidada”, lo que significa que para las empresas de medios, su responsabilidad no es solo en la producción de contenido, sino también en su monitoreo continuo después de la implementación.
¿Cómo se sirven y personalizan los anuncios? ¿Cómo llega el contenido a una audiencia en particular, y cuál es el mensaje? ¿Quién enseña a la IA “cómo” aprender? ¿Y cómo pueden apuntar a consumidores específicos mientras también respetan la privacidad? Estas son solo algunas de las preguntas que atormentan a las empresas de medios a medida que equilibran la ética con la obtención de una ventaja competitiva.
La respuesta a la responsabilidad
El progreso en el desarrollo de la IA responsable es evidente cada día – los legisladores están redactando regulaciones, los consumidores exigen más transparencia y muchas empresas han creado departamentos específicos encargados de garantizar que su IA se utilice de manera apropiada. Las empresas necesitan un marco de IA responsable bien definido que cubra la ética, la transparencia, la rendición de cuentas, la equidad, la privacidad y la seguridad. A medida que continúan los debates y las reformas, un estudio reciente conjunto de MIT Sloan Management Review y Boston Consulting Group proporciona algunas pautas generales sencillas – escribieron, “Si deseas ser un líder de IA responsable, centra tu atención en ser una empresa responsable”.












