Líderes de opinión
¿Quién nos protegerá de la desinformación generada por IA?

La IA generativa ha pasado de cero a cien en menos de un año. Aunque es temprano, ha demostrado su potencial para transformar los negocios. En eso todos podemos estar de acuerdo. Donde divergemos es en cómo contener los peligros que plantea.
Para ser claro, soy partidario de la innovación y no soy un alarmista. Pero el reciente aumento de la desinformación —en gran medida dirigida a la polarización en torno a cuestiones controvertidas del momento— ha hecho claro que, si se deja sin control, la IA genérica podría causar estragos en las sociedades.
Hemos visto esta película antes con las redes sociales, pero tomó años y duras lecciones para que nos despertáramos a sus defectos. Hemos (presumiblemente) aprendido algo. La pregunta de hoy es quién ayudará a contener la marea de distorsión de la realidad de la IA genérica, y cómo!
Predeciblemente, los gobiernos están comenzando a actuar. Europa está liderando el cargo, como han demostrado cada vez más en la regulación de la tecnología. Estados Unidos está justo detrás, con el presidente Biden emitiendo una orden ejecutiva el pasado octubre.
Pero se necesitará un pueblo global actuando juntos para “mantener a la IA genérica honesta”. Y antes de que el gobierno pueda ayudar, necesita entender las limitaciones de los enfoques disponibles.
El problema de identidad ha empeorado mucho
En este nuevo mundo, la verdad se convierte en la aguja en un pajar de opiniones que se disfrazan de hechos. Saber quién es el contenido que proviene importa más que nunca.
Y no es tan fácil como decretar que cada cuenta de redes sociales debe ser verificada de identidad. Hay una feroz oposición a eso, y en algunos casos la anonimidad es necesaria para proteger justificadamente a los titulares de la cuenta. Además, muchos consumidores del peor contenido no se preocupan por si es creíble, ni de dónde proviene.
A pesar de esas salvedades, el papel potencial de la identidad en la lucha contra la IA genérica es subestimado. Escépticos, escuchenme.
Imaginemos que la regulación o la conciencia social causan que las plataformas den a cada titular de cuenta estas opciones:
- Verificar su identidad o no, y
- Revelar públicamente su identidad verificada, o solo ser etiquetado como “ID Verificado”
Entonces, la audiencia de las redes sociales puede decidir mejor quién es creíble. Igualmente importante, si no más, la identidad apoya la rendición de cuentas. Las plataformas pueden decidir sobre las acciones a tomar contra los “desinformadores” seriales y los abusadores reiterados del contenido generado por IA, incluso si surgen bajo diferentes nombres de cuenta.
Con la IA genérica aumentando las apuestas, creo que la identidad —saber exactamente quién publicó qué— es crítica. Algunos se opondrán a ello, y la identidad no es una respuesta integral. De hecho, ninguna solución satisfará a todas las partes interesadas. Pero si la regulación obliga a las plataformas a ofrecer verificación de identidad a todas las cuentas, estoy convencido de que el impacto será enormemente positivo.
El enigma de la moderación
La moderación de contenido —automatizada y humana— es la última línea de defensa contra el contenido no deseable. La moderación humana es un trabajo difícil, con riesgo de daño psicológico por la exposición a lo peor que la humanidad puede ofrecer. También es costosa y a menudo se acusa de censura sesgada que las plataformas se esfuerzan por reducir.
La moderación automatizada se escala más allá de la capacidad humana para hacer frente a las torrentes de nuevo contenido, pero no entiende el contexto (los memes son un ejemplo común) y las nuances culturales. Ambas formas de moderación son cruciales y necesarias, pero solo son parte de la respuesta.
La receta convencional y frecuentemente escuchada para controlar la IA genérica es: “La colaboración entre líderes tecnológicos, gobiernos y sociedad civil es necesaria”. Claro, pero ¿qué específicamente?
Los gobiernos, por su parte, pueden presionar a las plataformas sociales y de medios para que ofrezcan verificación de identidad y muestren prominentemente en todas las publicaciones. Los reguladores también pueden allanar el camino a las métricas de credibilidad que realmente ayuden a determinar si una fuente es creíble. La colaboración es necesaria para desarrollar estándares universales que den orientación y dirección específicas para que el sector privado no tenga que adivinar.
Finalmente, ¿debe ser ilegal crear salida de IA maliciosa? La legislación para prohibir el contenido destinado a actividades ilegales podría reducir el volumen de contenido tóxico y aliviar la carga sobre los moderadores. No veo la regulación y las leyes como capaces de derrotar a la desinformación, pero son esenciales para enfrentar la amenaza.
El lado soleado de la calle: la innovación
La promesa de la innovación me hace un optimista aquí. No podemos esperar que los políticos o los propietarios de plataformas nos protejan completamente contra el engaño generado por IA. Dejan un gran vacío, y eso es exactamente lo que inspirará la invención de nueva tecnología para autenticar contenido y detectar falsificaciones.
Dado que ahora sabemos el lado negativo de las redes sociales, hemos sido rápidos en darnos cuenta de que la IA genérica podría resultar ser una gran negativa para la humanidad, con su capacidad para polarizar y engañar.
Optimistamente, veo beneficios en los enfoques de múltiples frentes donde los métodos de control trabajan juntos, primero en la fuente, limitando la creación de contenido diseñado para uso ilegal. Luego, antes de la publicación, verificando la identidad de aquellos que declinan la anonimidad. A continuación, etiquetado claro para mostrar calificaciones de credibilidad y la identidad del publicador o la falta de ella. Finalmente, la moderación automatizada y humana pueden filtrar parte de lo peor. Anticiparía que nueva tecnología de autenticación estará disponible pronto.
Sumándolo todo, tendremos una solución mucho mejor, aunque nunca perfecta. Mientras tanto, debemos desarrollar nuestro conjunto de habilidades para determinar qué es real, quién dice la verdad y quién intenta engañarnos.












