Líderes de opinión
Por qué las empresas deben seguir un enfoque basado en valores para la gobernanza de la IA

En septiembre de 2025, por primera vez, todos los estados miembros de las Naciones Unidas se reunieron para discutir la gobernanza internacional de la IA; muchos estuvieron representados de nuevo en febrero en la Cumbre de Impacto de la IA en Delhi. El evento llevó al lanzamiento de dos nuevos organismos centrados en la gobernanza de la IA; pero fue, en el mejor de los casos, un éxito simbólico.
Los nuevos mecanismos de la ONU fueron diseñados para asegurar el consenso: se alejan de áreas controvertidas como los usos militares de la IA, y carecen de fuentes claras de financiamiento y poderes de aplicación. Esto no debería sorprender a los observadores experimentados. La ONU de hoy carece de la capacidad de moverse rápidamente o asegurar el cumplimiento universal de sus decisiones, lo que la convierte en un foro difícil para efectuar un cambio real.
Esto se ajusta a un patrón bien establecido. A pesar de años de intentos dispersos de construir un consenso sobre las regulaciones de la IA, no ha habido acuerdos internacionales significativos, lo que ha creado un vacío en el que los países y bloques individuales han sido obligados a desarrollar sus propias reglas. Sin embargo, la gobernanza efectiva de la IA es crucial si deseamos verla adoptada ampliamente, confiada por el público y utilizada de manera que proporcione beneficios sociales y económicos duraderos.
Arreglar y Remendar
Para las empresas globales que construyen y operan sistemas de IA, la falta de mecanismos de gobernanza comunes y acordados es problemática. Desean desplegar sistemas de IA en todo el mundo, pero no dos jurisdicciones se adhieren al mismo conjunto de reglas. Así que, en su lugar, se ven obligadas a crear un marco de gobernanza genérico alrededor de su sistema, y luego reconstruirlo desde cero en cada país en el que operan para asegurarse de que cumpla con las leyes y regulaciones locales. Este enfoque crea una enorme cantidad de trabajo adicional, hace que las iniciativas de IA sean más costosas y propensas a retrasos, y debilita la capacidad de las empresas globales para realizar economías de escala y compartir herramientas efectivas con los usuarios en todas partes.
Sin embargo, hay una alternativa. Para las empresas que buscan simplificar su enfoque, la mejor opción puede ser construir un marco de gobernanza de IA que tenga en cuenta los principios éticos comunes en estas diferentes regiones, asegurando que cumplan con altos estándares en todas partes en términos de protección de la libertad, la privacidad y la seguridad de los individuos. Esta técnica representa una poderosa forma para que las empresas de IA aumenten la confianza pública en su tecnología, fortalezcan su base de clientes y aprovechen los beneficios potenciales de la IA para la sociedad.
Seis Valores Clave para la Gobernanza de la IA
Para cualquier organización interesada en adoptar un enfoque basado en valores para la gobernanza de la IA, sugeriría utilizar los seis valores clave que seguimos: responsabilidad, explicabilidad, transparencia, equidad, seguridad y contestabilidad.
Elegimos estos valores porque cubren todas las áreas principales del ciclo de vida del sistema de IA y porque ya han sido codificados en varios estándares internacionales y nacionales relacionados con la IA, como el ISO/IEC 42001 y el Libro de Juegos de la IA para el Gobierno del Reino Unido.
Para comenzar, la responsabilidad significa saber quién es responsable de qué en cada etapa del ciclo de vida de la IA. Sin una propiedad clara, los controles vitales pueden ser omitidos porque no hay un individuo o equipo que tenga la responsabilidad última. Las organizaciones deben asignar propietarios senior, con nombre – como su Oficial de IA Jefe – a los sistemas de IA y etapas clave, y utilizar un modelo de gobernanza basado en riesgos, aplicando el mismo escrutinio a las herramientas de terceros como a las desarrolladas en casa. Esto significa comprender los términos del proveedor, las limitaciones y las responsabilidades tan bien como comprenden sus propios sistemas.
La Organización para la Cooperación y el Desarrollo Económicos (OCDE) captura esto bien en su guía para avanzar en la responsabilidad en la IA, que recomienda que las organizaciones creen “mecanismos para integrar el proceso de gestión de riesgos de la IA en la gobernanza organizacional más amplia, fomentando una cultura de gestión de riesgos tanto dentro de las organizaciones como en toda la cadena de valor de la IA”.
A continuación, está la explicabilidad. Las organizaciones deben ser capaces de mostrar cómo un sistema de IA llega a una decisión. Eso requiere mecanismos para documentar y rastrear la toma de decisiones, junto con registros claros del diseño del sistema, los datos de entrenamiento y los procesos de decisión. Tomados en conjunto, esto permite a los equipos comprender la procedencia de la información desde el inicio del sistema hasta su implementación.
La equidad se centra en asegurarse de que los sistemas de IA produzcan resultados equitativos y no repliquen o amplifiquen los sesgos existentes. Sin controles deliberados, los sistemas pueden causar daño al entregar resultados sesgados – un problema particular en áreas de alto impacto como la contratación, la atención médica y la justicia penal. Para mitigar esto, las organizaciones deben implementar medidas de detección de sesgos, revisar los resultados regularmente en grupos relevantes y diseñar marcos de gobernanza que puedan acomodar los requisitos de no discriminación locales. En la práctica, esto significa construir sistemas para cumplir con el estándar legal más alto que es probable que encuentren, incluyendo las obligaciones de leyes como la Ley de Igualdad del Reino Unido de 2010 y la Carta de Derechos Fundamentales de la UE.
La transparencia se trata de aclarar tanto a los usuarios como a los reguladores. La gente debe entender cuándo se está utilizando la IA, qué papel juega en la toma de decisiones y qué datos la sustentan. Un punto de partida práctico es estandarizar la documentación en los sistemas de IA, apoyada por herramientas internas como tarjetas de modelo: documentos cortos proporcionados con modelos de aprendizaje automático que explican el contexto en el que se pretende utilizar los modelos, los detalles de los procedimientos de evaluación del rendimiento y otra información relevante. Sin transparencia, los usuarios no pueden impugnar resultados injustos, los reguladores no pueden intervenir de manera efectiva y los impactos perjudiciales pueden ser ocultados.
La seguridad implica proteger los sistemas de IA del acceso no autorizado, la manipulación o el comportamiento no intencionado. Si la seguridad es débil, las IA pueden poner a las organizaciones, los usuarios y sus datos en riesgo, exponiéndolos a daños financieros y de reputación. Las organizaciones deben definir umbrales de rendimiento y precisión, someter los sistemas a pruebas de estrés en condiciones realistas e incorporar pruebas de equipo rojo para identificar vulnerabilidades.
Finalmente, la contestabilidad garantiza que las personas tengan una forma clara y accesible de impugnar o apelar las decisiones impulsadas por la IA. Sin ella, los usuarios afectados no tienen recurso y los problemas pueden nunca ser abordados o resueltos. Las organizaciones deben proporcionar canales de informes en el punto de uso, asignar propietarios senior para gestionar las quejas y asegurarse de que los sistemas puedan ser pausados, revisados o actualizados cuando sea necesario.
¿Cuáles son los Beneficios de un Marco Basado en Valores?
Hay dos razones poderosas para adoptar este enfoque basado en valores para la gobernanza de la IA. Primero, porque aquellos que construyen y despliegan sistemas de IA tienen una responsabilidad ética hacia las personas y organizaciones afectadas por ellos; y, segundo, porque este es un enfoque más efectivo para realizar los beneficios prometidos de la IA en la práctica.
Los usuarios de los sistemas de IA, tanto corporativos como individuales, depositan una confianza implícita en sus creadores para que no malogren los datos personales ni los expongan a riesgos innecesarios. Cuando las organizaciones rompen esa confianza, se vuelve muy difícil para ellas retener a esos usuarios. En última instancia, a menos que la gente confíe en los sistemas de IA y pueda ver los beneficios claros que entregan, no aceptarán su introducción. Esto causará más división social y económica, y perderemos muchas de las oportunidades presentadas por esta tecnología.
Por otro lado, las empresas que aplican un marco basado en valores en todas partes – incluyendo en regiones con requisitos de gobernanza más relajados – pueden demostrar a los clientes, inversores y reguladores que se están sujetando a un estándar más alto que el cumplimiento básico. Esto genera confianza, compromiso y, en última instancia, éxito comercial.
Una gobernanza de IA sólida es una creadora de valor, no una carga de cumplimiento. Permite a las empresas llevar nuevos productos al mercado más rápidamente, reducir su exposición al riesgo y escalar sus soluciones en múltiples mercados con confianza.
El informe “El estado de la IA” de McKinsey encontró que “la supervisión de la gobernanza de la IA por parte de un CEO… es un elemento más correlacionado con un mayor impacto en la línea de fondo autoinformado por el uso de la IA general de una organización,” subrayando los beneficios comerciales de este enfoque. En este sentido, construir marcos éticos sólidos en los sistemas de IA representa un interés propio iluminado.
Más allá de todo esto, sin embargo, es simplemente lo correcto. Hemos construido nuestra política de IA ética global alrededor del mismo principio: que las tecnologías avanzadas deben servir a las personas y a la sociedad, no al revés. Esto refleja la visión más amplia de la Sociedad 5.0: un modelo de innovación centrado en el ser humano que busca combinar el progreso económico con la resolución de desafíos sociales.
Si las tecnologías emergentes como la IA han de fomentar una sociedad más feliz y armoniosa, deben estar construidas sobre cimientos éticos sólidos. Esto comienza con un enfoque no solo en los estándares que las organizaciones deben cumplir, sino también en los estándares que desean alcanzar.












