Líderes del pensamiento
Por qué las empresas deberían adoptar un enfoque basado en valores para la gobernanza de la IA

En septiembre de 2025, por primera vez, todos los Estados miembros de las Naciones Unidas se reunieron para debatir la gobernanza internacional de la IA; muchos estuvieron representados de nuevo en febrero en la Cumbre de Impacto de la IA celebrada en Delhi. El evento dio lugar a la creación de dos nuevos organismos centrados en la gobernanza de la IA; sin embargo, fue, en el mejor de los casos, un éxito simbólico.
Los nuevos mecanismos de la ONU se diseñaron para lograr el consenso: se alejan de áreas controvertidas, como los usos militares de la IA, y carecen de fuentes claras de financiación y de facultades de ejecución. Esto no debería sorprender a los observadores experimentados. La ONU actual carece de la capacidad de actuar con rapidez ni de garantizar el cumplimiento universal de sus decisiones, lo que la convierte en un foro difícil para lograr un cambio real.
Esto se ajusta a un patrón bien establecido. A pesar de años de intentos dispersos por generar consenso sobre las regulaciones de la IA, no se han alcanzado acuerdos internacionales significativos, lo que ha generado un vacío que ha obligado a países y bloques a desarrollar sus propias normas. Sin embargo, la gobernanza eficaz de la IA es crucial si queremos que se adopte ampliamente, que la ciudadanía confíe en ella y que se utilice de forma que genere beneficios sociales y económicos duraderos.
Hacer y remendar
Para las empresas globales que desarrollan y operan sistemas de IA, esta falta de mecanismos de gobernanza comunes y consensuados resulta problemática. Desean implementar sistemas de IA en todo el mundo, pero no hay dos jurisdicciones que se rijan por las mismas normas. Por lo tanto, se ven obligadas a crear un marco de gobernanza genérico para su sistema y luego reconstruirlo desde cero en cada país donde operan para garantizar que cumpla con las leyes y regulaciones locales. Este enfoque genera una enorme cantidad de trabajo adicional, encarece las iniciativas de IA y las hace propensas a retrasos, y debilita la capacidad de las empresas globales para lograr economías de escala y compartir herramientas eficaces con usuarios de todo el mundo.
Sin embargo, existe una alternativa. Para las empresas que buscan optimizar su enfoque, la mejor opción podría ser crear un marco de gobernanza de la IA que tenga en cuenta principios éticos comunes en estas diferentes regiones, garantizando así el cumplimiento de altos estándares en todas partes en cuanto a la protección de la libertad, la privacidad y la seguridad de las personas. Esta técnica representa una herramienta eficaz para que las empresas de IA aumenten la confianza pública en su tecnología, fortalezcan su base de clientes y aprovechen los beneficios potenciales de la IA para la sociedad.
Seis valores clave para la gobernanza de la IA
Para cualquier organización interesada en adoptar un enfoque basado en valores para la gobernanza de la IA, sugeriría utilizar los seis valores clave que seguimos: responsabilidad, explicabilidad, transparencia, equidad, seguridad y disputabilidad.
Elegimos estos valores porque cubren todas las áreas principales del ciclo de vida del sistema de IA y porque ya han sido codificados en varias normas internacionales y nacionales relacionadas con la IA, como la de la Organización Internacional de Normalización. ISO / IEC 42001 y Manual de inteligencia artificial para el gobierno del Reino Unido.
Para empezar, la rendición de cuentas implica saber quién es responsable de qué en cada etapa del ciclo de vida de la IA. Sin una propiedad clara, se pueden omitir controles vitales porque ninguna persona o equipo tiene la responsabilidad final. Las organizaciones deben asignar responsables sénior y designados, como su director de IA, a los sistemas de IA y las etapas clave, y utilizar un modelo de gobernanza basado en riesgos, aplicando el mismo escrutinio a las herramientas de terceros que a las desarrolladas internamente. Esto implica comprender los términos, las limitaciones y las responsabilidades de los proveedores tan bien como comprenden sus propios sistemas.
La Organización para la Cooperación y el Desarrollo Económicos (OCDE) capta bien esto en Su orientación sobre la promoción de la rendición de cuentas en la IA, que recomienda que las organizaciones creen “mecanismos para integrar el proceso de gestión de riesgos de la IA en una gobernanza organizacional más amplia, fomentando una cultura de gestión de riesgos tanto dentro de las organizaciones como en toda la cadena de valor de la IA”.
Lo siguiente es la explicabilidad. Las organizaciones deberían poder demostrar cómo Un sistema de IA toma una decisión. Esto requiere mecanismos para documentar y rastrear la toma de decisiones, junto con registros claros del diseño del sistema, los datos de entrenamiento y los procesos de decisión. En conjunto, esto permite a los equipos comprender el linaje de la información desde la concepción de un sistema hasta su implementación.
La equidad se centra en garantizar que los sistemas de IA produzcan resultados equitativos y no repliquen ni amplifiquen los sesgos existentes. Sin controles rigurosos, los sistemas pueden causar daños al ofrecer resultados sesgados, un problema particular en áreas de alto impacto como la contratación, la atención médica y la justicia penal. Para mitigar esto, las organizaciones deben implementar medidas de detección de sesgos, revisar periódicamente los resultados de los grupos relevantes y diseñar marcos de gobernanza que se adapten a los requisitos locales de no discriminación. En la práctica, esto significa construir sistemas que cumplan con los estándares legales más exigentes que probablemente encuentren, incluyendo las obligaciones derivadas de leyes como la Ley de Igualdad del Reino Unido de 2010 y la Carta de los Derechos Fundamentales de la UE.
La transparencia consiste en brindar claridad tanto a los usuarios como a los reguladores. Las personas deben comprender cuándo se utiliza la IA, qué papel desempeña en la toma de decisiones y qué datos la respaldan. Un punto de partida práctico es estandarizar la documentación en todos los sistemas de IA, con el apoyo de herramientas internas como las tarjetas de modelos: documentos breves con modelos de aprendizaje automático que explican el contexto en el que se pretende utilizar, los detalles de los procedimientos de evaluación del rendimiento y otra información relevante. Sin transparencia, los usuarios no pueden impugnar resultados injustos, los reguladores no pueden intervenir eficazmente y los impactos perjudiciales pueden quedar ocultos.
La seguridad implica proteger los sistemas de IA del acceso no autorizado, la manipulación o el comportamiento imprevisto. Si la seguridad es deficiente, la IA puede poner en riesgo a las organizaciones, a los usuarios y a sus datos, exponiéndolos a daños financieros y a su reputación. Las organizaciones deben definir umbrales de rendimiento y precisión, realizar pruebas de estrés en los sistemas en condiciones realistas e incorporar pruebas de equipo rojo para identificar vulnerabilidades.
Finalmente, la impugnabilidad garantiza que las personas tengan una forma clara y accesible de impugnar o apelar las decisiones impulsadas por la IA. Sin ella, los usuarios afectados no tienen ningún recurso y los problemas podrían no ser detectados ni resueltos. Las organizaciones deben proporcionar canales de denuncia en el punto de uso, asignar a los responsables principales la gestión de quejas y garantizar que los sistemas se puedan pausar, revisar o actualizar cuando sea necesario.
¿Cuáles son los beneficios de un marco basado en valores?
Existen dos poderosas razones para adoptar este enfoque basado en valores para la gobernanza de la IA. Primero, porque quienes desarrollan e implementan sistemas de IA tienen una responsabilidad ética con las personas y organizaciones afectadas por ellos; y segundo, porque es una forma más eficaz de materializar en la práctica los beneficios prometidos por la IA.
Los usuarios de sistemas de IA, tanto corporativos como particulares, confían implícitamente en que sus creadores no harán un mal uso de los datos personales ni los expondrán a riesgos innecesarios. Cuando las organizaciones rompen esa confianza, les resulta muy difícil retener a esos usuarios. En última instancia, a menos que las personas confíen en los sistemas de IA y vean los claros beneficios que ofrecen, no aceptarán su implementación. Esto provocará una mayor división social y económica, y perderemos muchas de las oportunidades que ofrece esta tecnología.
Por otro lado, las empresas que aplican un marco basado en valores en todas partes, incluso en regiones con requisitos de gobernanza más flexibles, pueden demostrar a clientes, inversores y reguladores que se exigen un estándar más alto que las exigencias básicas de cumplimiento. Esto genera confianza, compromiso y, en última instancia, éxito empresarial.
Una gobernanza sólida de la IA genera valor, no supone una carga para el cumplimiento normativo. Permite a las empresas comercializar nuevos productos con mayor rapidez, reducir su exposición al riesgo y escalar sus soluciones en múltiples mercados con confianza.
De McKinseyEl estado de la IA (reporte) encontrado que “La supervisión de la gobernanza de la IA por parte de un CEO… es un elemento que se correlaciona más con un mayor impacto en los resultados finales, según se informa, derivado del uso generalizado de la IA en una organización”. Subrayando los beneficios comerciales de este enfoque. En ese sentido, la creación de marcos éticos sólidos en los sistemas de IA representa un interés propio bien fundado.
Más allá de todo esto, sin embargo, es simplemente lo correcto. Hemos construido nuestra política global de IA ética en torno al mismo principio: que las tecnologías avanzadas deben servir a las personas y a la sociedad, no al revés. Esto refleja la visión más amplia de la Sociedad 5.0: un modelo de innovación centrado en el ser humano que busca combinar el progreso económico con la resolución de los desafíos sociales.
Para que las tecnologías emergentes como la IA fomenten una sociedad más feliz y armoniosa, deben construirse sobre bases éticas sólidas. Esto comienza con un enfoque no solo en los estándares que las organizaciones deben cumplir, sino también en los estándares que desean alcanzar.












