Contáctenos

Cómo el sesgo humano socava las soluciones basadas en IA

Líderes del pensamiento

Cómo el sesgo humano socava las soluciones basadas en IA

mm

En septiembre pasado, líderes mundiales como Elon Musk, Mark Zuckerberg y Sam Altman, director ejecutivo de OpenAI, reunidos en Washington DC con el propósito de discutir, por un lado, cómo los sectores público y privado pueden trabajar juntos para aprovechar esta tecnología para el bien común, y por otro lado, abordar la regulación, un tema que se ha mantenido al frente de la conversación. que rodea a la IA.

Ambas conversaciones, muchas veces, conducen al mismo lugar. Hay un énfasis creciente en si podemos hacer que la IA sea más ética, evaluándola como si fuera otro ser humano cuya moralidad estuviera en duda. Sin embargo, ¿qué significa IA ética? DeepMind, un laboratorio de investigación propiedad de Google que se centra en la IA. publicó recientemente un estudio en el que propusieron una estructura de tres niveles para evaluar los riesgos de la IA, incluidos los riesgos sociales y éticos. Este marco incluía capacidad, interacción humana e impacto sistémico, y concluyó que el contexto era clave para determinar si un sistema de IA era seguro.

Uno de estos sistemas que ha sido criticado es ChatGPT, que ha sido prohibido en hasta 15 países, incluso si algunas de esas prohibiciones se han revocado. Con más de 100 millones de usuarios, ChatGPT es uno de los LLM más exitosos y, a menudo, ha sido acusado de parcialidad. Teniendo en cuenta el estudio de DeepMind, incorporemos el contexto aquí. Sesgo, en este contexto, significa la existencia de perspectivas injustas, prejuiciosas o distorsionadas en el texto generado por modelos como ChatGPT. Esto puede suceder de diversas maneras: prejuicios raciales, prejuicios de género, prejuicios políticos y mucho más.

Estos sesgos pueden, en última instancia, ser perjudiciales para la propia IA, lo que dificulta las posibilidades de que podamos aprovechar todo el potencial de esta tecnología. Reciente investigación de la Universidad de Stanford ha confirmado que los LLM como ChatGPT están mostrando signos de declive en términos de su capacidad para brindar respuestas confiables, imparciales y precisas, lo que en última instancia es un obstáculo para nuestro uso efectivo de la IA.

Una cuestión que se encuentra en el centro de este problema es cómo los prejuicios humanos se están trasladando a la IA, ya que están profundamente arraigados en los datos que se utilizan para desarrollar los modelos. Sin embargo, se trata de una cuestión más profunda de lo que parece.

Causas del sesgo

Es fácil identificar la primera causa de este sesgo. Los datos de los que aprende el modelo suelen estar llenos de estereotipos o prejuicios preexistentes que ayudaron a dar forma a esos datos en primer lugar, por lo que la IA, sin darse cuenta, termina perpetuando esos sesgos porque eso es lo que sabe hacer.

Sin embargo, la segunda causa es mucho más compleja y contradictoria, y pone a prueba algunos de los esfuerzos que se están realizando para supuestamente hacer que la IA sea más ética y segura. Por supuesto, hay algunos casos obvios en los que la IA puede ser perjudicial inconscientemente. Por ejemplo, si alguien le pregunta a AI: "¿Cómo puedo hacer una bomba?" y el modelo da la respuesta, está contribuyendo a generar daño. La otra cara de la moneda es que cuando la IA es limitada –incluso si la causa es justificable– le estamos impidiendo aprender. Las limitaciones impuestas por los humanos restringen la capacidad de la IA para aprender de una gama más amplia de datos, lo que le impide aún más proporcionar información útil en contextos no dañinos.

Además, tengamos en cuenta que muchas de estas restricciones también están sesgadas porque se originan en humanos. Entonces, si bien todos podemos estar de acuerdo en que "¿Cómo puedo hacer una bomba?" puede conducir a un resultado potencialmente fatal, otras consultas que podrían considerarse delicadas son mucho más subjetivas. En consecuencia, si limitamos el desarrollo de la IA en esas verticales, estamos limitando el progreso y fomentando la utilización de la IA sólo para fines que sean considerados aceptables por quienes elaboran las regulaciones relativas a los modelos LLM.

Incapacidad para predecir las consecuencias.

No hemos comprendido completamente las consecuencias de introducir restricciones en los LLM. Por lo tanto, podríamos estar causando más daño a los algoritmos del que creemos. Dada la increíble cantidad de parámetros involucrados en modelos como GPT, con las herramientas que tenemos ahora es imposible predecir el impacto y, desde mi punto de vista, tomará más tiempo comprender cuál es el impacto que el tiempo que lleva entrenar la propia red neuronal.

Por lo tanto, al imponer estas restricciones, podríamos, sin querer, llevar al modelo a desarrollar comportamientos o sesgos inesperados. Esto también se debe a que los modelos de IA suelen ser sistemas complejos de múltiples parámetros, lo que significa que si alteramos un parámetro (por ejemplo, introduciendo una restricción) estamos provocando un efecto dominó que repercute en todo el modelo de maneras que no podemos pronosticar.

Dificultad para evaluar la “ética” de la IA

No es prácticamente factible evaluar si la IA es ética o no, porque la IA no es una persona que actúa con una intención específica. La IA es un modelo de lenguaje grande que, por naturaleza, no puede ser más o menos ético. Como reveló el estudio de DeepMind, lo que importa es el contexto en el que se utiliza, y esto mide la ética del ser humano detrás de la IA, no de la IA en sí. Es una ilusión creer que podemos juzgar la IA como si tuviera una brújula moral.

Una posible solución que se está promocionando es un modelo que pueda ayudar a la IA a tomar decisiones éticas. Sin embargo, la realidad es que no tenemos idea de cómo podría funcionar este modelo matemático de ética. Entonces, si no lo entendemos, ¿cómo podríamos construirlo? Hay mucha subjetividad humana en la ética, lo que hace muy compleja la tarea de cuantificarla.

¿Cómo resolver este problema?

Con base en los puntos antes mencionados, realmente no podemos hablar sobre si la IA es ética o no, porque cada suposición que se considera poco ética es una variación de los sesgos humanos contenidos en los datos y una herramienta que los humanos utilizan para su propia agenda. Además, todavía hay muchas incógnitas científicas, como el impacto y el daño potencial que podríamos estar causando a los algoritmos de IA al imponerles restricciones.

Por tanto, se puede decir que restringir el desarrollo de la IA no es una solución viable. Como han demostrado algunos de los estudios que mencioné, estas restricciones son en parte la causa del deterioro de los LLM.

Dicho esto, ¿qué podemos hacer al respecto?

Desde mi perspectiva, la solución está en la transparencia. Creo que si restauramos el modelo de código abierto que prevaleció en el desarrollo de la IA, podemos trabajar juntos para construir mejores LLM que puedan estar equipados para aliviar nuestras preocupaciones éticas. De lo contrario, es muy difícil auditar adecuadamente todo lo que se hace a puerta cerrada.

Una magnífica iniciativa a este respecto es la Índice de transparencia del modelo de referencia, presentado recientemente por Stanford HAI (que significa Inteligencia Artificial Centrada en el Humano), que evalúa si los desarrolladores de los diez modelos de IA más utilizados divulgan suficiente información sobre su trabajo y la forma en que se utilizan sus sistemas. Esto incluye la divulgación de asociaciones y desarrolladores externos, así como la forma en que se utilizan los datos personales. Cabe señalar que ninguno de los modelos evaluados obtuvo una puntuación alta, lo que pone de relieve un problema real.

Al fin y al cabo, la IA no es más que grandes modelos de lenguaje, y el hecho de que sean abiertos y se pueda experimentar con ellos, en lugar de orientarlos en una dirección determinada, es lo que nos permitirá hacer nuevos descubrimientos innovadores en todos los ámbitos científicos. campo. Sin embargo, si no hay transparencia, será muy difícil diseñar modelos que realmente funcionen en beneficio de la humanidad, y conocer el alcance del daño que estos modelos podrían causar si no se aprovechan adecuadamente.

Ivan Nechaev es un inversor ángel y asesor de Mediatech con más de 60 acuerdos y más de 15 salidas exitosas. Invierte en empresas emergentes de MediaTech, AI, Telecom, BioTech, EdTech y SaaS en etapa inicial y forma parte de las juntas directivas de Brainify.ai  y  TrueClick.ai. Nechaev también es vicepresidente del grupo industrial americano. Acceso a las industrias con un valor de más de $ 35 mil millones e inversiones en más de 30 países.