Connect with us

Ética

Principios de ética de la IA sometidos a metaanálisis, se enfatizan los derechos humanos

mm

En 2019, hubo más enfoque en la ética de la IA que nunca antes. Sin embargo, mucha de esta discusión parecía confusa, sin un enfoque codificado. Más bien, diferentes empresas crearon sus propios marcos y políticas con respecto a la ética de la IA. Tener un consenso sobre los problemas de ética de la IA es importante porque ayuda a los responsables de las políticas a crear y ajustar políticas, y también informa el trabajo realizado por investigadores y académicos. Más allá de eso, las empresas de IA deben saber dónde están los límites éticos si esperan evitar la implementación no ética de la IA. Con el fin de crear una mejor imagen de las tendencias en la ética de la IA, como informa VentureBeats, el Berkman Klein Center de la Universidad de Harvard realizó un metaanálisis de los diversos principios y marcos de ética de la IA existentes.

Según los autores del análisis, los investigadores querían comparar los principios lado a lado para buscar superposición y divergencia. Jessica Fjeld, la directora asistente de la Clínica de Derecho Cibernético de la Escuela de Derecho de Harvard, explicó que el equipo de investigación quería “descubrir el impulso oculto en una conversación global fracturada sobre el futuro de la IA, lo que resultó en este documento y la visualización de datos asociada”.

Durante el análisis, el equipo examinó 36 documentos de principios de IA diferentes que originaron de todo el mundo y provenían de muchos tipos de organizaciones diferentes. Los resultados de la investigación encontraron que había ocho temas que seguían apareciendo en los muchos documentos.

La privacidad y la rendición de cuentas fueron dos de los temas éticos más comúnmente aparecidos, al igual que la seguridad/seguridad de la IA. La transparencia/explicabilidad también fue un objetivo comúnmente citado, con muchos intentos de hacer que los algoritmos sean más explicables a lo largo de 2019. La equidad/no discriminación fue otro punto de enfoque ético, reflejando las crecientes preocupaciones sobre el sesgo de los datos. Asegurar el control humano de la tecnología y no entregar el poder de decisión a la IA se mencionó con frecuencia. La responsabilidad profesional fue el séptimo tema común encontrado por los investigadores. Finalmente, los investigadores encontraron mención continua de promover los valores humanos en la documentación de ética de la IA que examinaron.

El equipo de investigación dio desgloses cualitativos y cuantitativos de cómo estos temas se manifestaron dentro de la documentación de ética de la IA en su documento y en un mapa acompañante. El mapa muestra dónde se mencionaron cada uno de los temas.

El equipo de investigación señaló que gran parte de la discusión sobre la ética de la IA giraba en torno a la preocupación por los valores y derechos humanos. Como señala el documento de investigación:

“El 64% de nuestros documentos contenían una referencia a los derechos humanos, y cinco documentos [14%] tomaron los derechos humanos internacionales como marco para su esfuerzo general”.

Las referencias a los derechos humanos y los valores fueron más comunes en los documentos producidos por grupos del sector privado y la sociedad civil. Esto indica que las empresas del sector privado de la IA no se preocupan solo por las ganancias, sino también por producir la IA de una manera ética. Mientras que las agencias gubernamentales parecen menos preocupadas o conscientes de la ética de la IA en general, con menos de la mitad de los documentos relacionados con la IA que originan de las agencias gubernamentales que se ocupan de la ética de la IA.

Los investigadores también señalaron que si los documentos que examinaron eran más recientes, era más probable que abordaran todos los ocho temas más prominentes en lugar de solo unos pocos. Este hecho implica que las ideas detrás de lo que constituye el uso ético de la IA están comenzando a coalescer entre los que lideran la discusión sobre la ética de la IA. Finalmente, los investigadores afirman que el éxito de estos principios para guiar el desarrollo de la IA dependerá de lo bien integrados que estén en la comunidad de desarrollo de la IA en general. Los investigadores afirman en el documento:

“Además, los principios son un punto de partida para la gobernanza, no un fin. Por sí solo, un conjunto de principios es poco probable que sea más que suavemente persuasivo. Su impacto probablemente dependerá de cómo se incorpore en un ecosistema de gobernanza más grande, que incluye, por ejemplo, políticas relevantes (por ejemplo, planes nacionales de IA), leyes, regulaciones, pero también prácticas profesionales y rutinas diarias”.

Bloguero y programador con especialidades en Machine Learning y Deep Learning temas. Daniel espera ayudar a otros a utilizar el poder de la IA para el bien social.