Contáctenos

Ya no estamos alineando IAs. Estamos alineando civilizaciones.

Inteligencia Artificial

Ya no estamos alineando IAs. Estamos alineando civilizaciones.

mm

Durante muchos años, la principal pregunta en inteligencia artificial (IA) fue cómo alinear los modelos de IA con los valores humanos. Los investigadores intentaron definir reglas de seguridad, principios éticos y mecanismos de control que guiaran las decisiones de IA. Este trabajo logró avances significativos. Pero ahora, a medida que estos sistemas de IA se vuelven más capaces y generalizados, el enfoque de la alineación está comenzando a cambiar. Lo que comenzó como el desafío de alinear un solo modelo con un solo conjunto de instrucciones se ha convertido en el desafío mucho mayor de alinear civilizaciones enteras que utilizan estos sistemas a escala global. La IA ya no es solo una herramienta. Está evolucionando hacia un entorno donde las sociedades trabajan, se comunican, negocian y compiten. Como resultado, la alineación ya no es un problema técnico. Se ha convertido en un problema de civilización. En este artículo, explico por qué la alineación ya no se trata solo de modelos y por qué debemos comenzar a pensar en términos de civilizaciones en lugar de máquinas. También analizo cómo este cambio afecta nuestras responsabilidades y qué significa para la cooperación global.

¿Qué valores representa realmente la IA?

Si le preguntas a una IA sobre un evento histórico delicado, su respuesta dependerá de los datos que haya estudiado. Si esos datos provienen principalmente del internet occidental, la respuesta tendrá un sesgo occidental. Priorizará el individualismo, la libertad de expresión y los ideales democráticos. Estos son valores importantes para muchas personas. Pero no son los únicos valores del mundo.

Un usuario de Singapur, uno de Riad y uno de San Francisco tienen definiciones diferentes de lo que es "útil" y lo que es "perjudicial". En algunas culturas, la armonía social es más importante que la libertad absoluta de expresión. En otras, el respeto a la jerarquía es más importante que la disrupción.

Cuando una empresa de Silicon Valley utiliza “Aprendizaje por refuerzo a partir de la retroalimentación humana(RLHF), contratan humanos para evaluar las respuestas de la IA. Pero ¿quiénes son estos humanos? ¿Cuáles son sus creencias? Si adaptan el modelo a los estándares estadounidenses, están construyendo accidentalmente una exportación cultural estadounidense. Están construyendo un diplomático digital que impone las reglas de una civilización específica al resto del mundo.

El auge de los bucles de retroalimentación

El desafío no es solo que la IA refleje las creencias de una cultura, sino cómo esas creencias pueden cambiarnos. Los sistemas modernos de IA tienen el potencial de moldear el comportamiento de individuos, organizaciones e incluso naciones. Pueden influir en cómo pensamos, trabajamos, confiamos y competimos. Esto crea ciclos de retroalimentación entre los sistemas de IA y las sociedades humanas; entrenamos a la IA y esta moldea nuestra forma de pensar y actuar. Estos ciclos se fortalecen a medida que la IA se vuelve más omnipresente. Para ver cómo funciona este ciclo de retroalimentación, aquí hay dos ejemplos:

  • La implementación de IA a gran escala transforma el comportamiento social, y este altera los datos que entrenan los nuevos sistemas. Por ejemplo, un algoritmo de recomendación puede influir en lo que las personas ven, leen y creen. Las herramientas de productividad transforman la colaboración entre equipos y el aprendizaje de los estudiantes. Estos cambios de comportamiento modifican los patrones de datos, manifestándose en diferentes hábitos de visualización, patrones de comunicación en el entorno laboral o estilos de escritura. Cuando estos datos se incorporan a futuros conjuntos de datos de entrenamiento, los modelos ajustan sus suposiciones y resultados en consecuencia. El comportamiento humano influye en los modelos, y estos, a su vez, influyen en el comportamiento humano.
  • Las herramientas de toma de decisiones automatizadas influyen en las políticas públicas, y estas influyen en el entrenamiento futuro de los modelos. Por ejemplo, muchos gobiernos utilizan ahora la IA para sugerir la asignación de recursos, como identificar qué barrios necesitan más atención sanitaria o qué zonas podrían presentar un mayor riesgo de delincuencia. Cuando los responsables políticos aplican estas recomendaciones, los resultados de esas decisiones se incorporan posteriormente a nuevos conjuntos de datos. Con el tiempo, las decisiones políticas impulsadas por la IA acaban configurando la próxima generación de modelos de IA.

Una vez que se reconoce este ciclo de retroalimentación, queda claro que la IA está moldeando y alineando gradualmente las civilizaciones. Como resultado, las naciones comienzan a preguntarse: ¿Cómo pueden salvaguardar sus valores mientras integran la IA en sus sociedades e instituciones?

El surgimiento de la IA soberana

Este desafío de alineación ha provocado una reacción significativa de los gobiernos de todo el mundo. Las naciones se han dado cuenta de que depender de la IA importada supone un riesgo para su soberanía. No pueden permitirse que sus ciudadanos sean educados, informados y asesorados por una caja negra que piensa como un extranjero.

Esta constatación ha llevado al surgimiento de “IA soberana.”Francia es metas de Para construir modelos que hablen francés y comprendan la legislación y la cultura francesas, India es... edificio Modelos de IA autóctonos para garantizar sus valores culturales. Los Emiratos Árabes Unidos y China están desarrollando modelos de IA alineados con sus propias visiones nacionales.

Esta es la nueva carrera armamentística. Es una carrera por el control narrativo. Una civilización sin su propia IA eventualmente perderá su memoria. Si sus hijos le hacen una pregunta a una máquina, y esta responde con la lógica de una cultura diferente, su cultura comienza a erosionarse. Sin embargo, esta constatación puede conducir a la formación de bloques digitales distintos. Podríamos terminar con una IA occidental, una IA china, una IA india, etc. Estos sistemas operarán con diferentes hechos y brújulas morales. Estos avances dejan claro que, si queremos crear un modelo de IA único y verdaderamente alineado, primero debemos encontrar la manera de alinear las civilizaciones.

Necesidad de una IA diplomática

La alineación tradicional presupone que un modelo puede alinearse mediante un entrenamiento meticuloso, indicaciones y medidas de seguridad. Esta idea proviene de la mentalidad técnica de las primeras investigaciones sobre seguridad de la IA. Pero ni siquiera una alineación perfecta a nivel de modelo puede resolver los desafíos de alinear civilizaciones. La alineación no puede mantenerse estable cuando las sociedades se mueven en direcciones opuestas. Si los países, las empresas y las comunidades tienen objetivos contrapuestos, impulsarán los sistemas de IA para que reflejen esos conflictos. Estas limitaciones demuestran que la alineación no es solo un problema técnico, sino también un problema de gobernanza, cultural y de coordinación. Y estos problemas no solo requieren expertos o desarrolladores, sino que involucran a civilizaciones enteras.

Entonces, ¿cómo avanzamos? Si aceptamos que la alineación universal es imposible, debemos cambiar nuestra estrategia. Debemos dejar de buscar una solución técnica a un problema filosófico. Necesitamos empezar a pensar como diplomáticos. Necesitaremos construir protocolos para la "Alineación Civilizacional". Necesitamos descubrir cómo la IA puede respetar las creencias y valores de una sociedad sin imponerle las creencias de otras culturas. En otras palabras, necesitamos unas Naciones Unidas digitales para nuestros algoritmos.

Esto requiere transparencia. Actualmente, desconocemos con certeza qué valores se esconden en las capas profundas de una red neuronal. Solo vemos el resultado. Para alinear civilizaciones, necesitamos tener clara la "Constitución" de cada modelo. Un modelo debería poder declarar su sesgo. Debería poder decir: "Estoy entrenado con estos datos, con estas reglas de seguridad, priorizando estos valores". Solo cuando el sesgo es visible podemos confiar en el sistema. Un usuario debería poder cambiar de perspectiva. Debería poder hacer una pregunta y ver cómo responde un modelo "occidental" en comparación con uno "oriental". Esto convertiría la IA en una herramienta para la comprensión, en lugar de una herramienta para el adoctrinamiento.

Lo más importante es...

Hemos pasado demasiado tiempo preocupándonos por Terminator. El verdadero riesgo no es que un robot nos destruya. El verdadero riesgo es que un robot nos haga olvidar quiénes somos. La alineación no es un código que podamos escribir una vez y olvidar. Es una negociación constante con los modelos de IA para mantenerlos alineados con nuestras creencias y valores. Es un acto político. A medida que avanzamos hacia esta nueva fase de la era de la inteligencia, debemos mirar más allá de la pantalla. Debemos considerar cómo la IA interpreta nuestra historia, nuestras fronteras y nuestras creencias. Estamos construyendo las mentes que nos ayudarán a gobernar el mundo. Debemos asegurarnos de que esas mentes respeten las diferencias entre civilizaciones.

El Dr. Tehseen Zia es profesor asociado titular en la Universidad COMSATS de Islamabad y tiene un doctorado en IA de la Universidad Tecnológica de Viena (Austria). Especializado en Inteligencia Artificial, Aprendizaje Automático, Ciencia de Datos y Visión por Computador, ha realizado importantes contribuciones con publicaciones en revistas científicas de renombre. El Dr. Tehseen también dirigió varios proyectos industriales como investigador principal y se desempeñó como consultor de IA.