Connect with us

Inteligencia artificial

¿Qué son las alucinaciones de LLM? Causas, preocupación ética y prevención

mm

Los modelos de lenguaje grande (LLM) son sistemas de inteligencia artificial capaces de analizar y generar texto similar al humano. Pero tienen un problema – los LLM alucinan, es decir, inventan cosas. Las alucinaciones de LLM han hecho que los investigadores se preocuppen por el progreso en este campo porque si los investigadores no pueden controlar el resultado de los modelos, entonces no pueden construir sistemas críticos para servir a la humanidad. Más sobre esto más adelante.

En general, los LLM utilizan grandes cantidades de datos de entrenamiento y algoritmos de aprendizaje complejos para generar salidas realistas. En algunos casos, se utiliza el aprendizaje en contexto para entrenar estos modelos utilizando solo unos pocos ejemplos. Los LLM están becoming cada vez más populares en diversas áreas de aplicación que van desde la traducción automática, el análisis de sentimiento, la asistencia de AI virtual, la anotación de imágenes, procesamiento de lenguaje natural, etc.

A pesar de la naturaleza de vanguardia de los LLM, todavía son propensos a sesgos, errores y alucinaciones. Yann LeCun, actual científico jefe de AI en Meta, mencionó recientemente el error central en los LLM que causa alucinaciones: “Los modelos de lenguaje grande no tienen idea de la realidad subyacente que el lenguaje describe. Esos sistemas generan texto que suena bien, gramatical y semánticamente, pero no tienen algún tipo de objetivo más que satisfacer la consistencia estadística con la solicitud”.

Alucinaciones en LLM

Imagen de Gerd Altmann de Pixabay

Las alucinaciones se refieren a que el modelo genera salidas que son sintácticamente y semánticamente correctas pero están desconectadas de la realidad, y se basan en suposiciones falsas. La alucinación es una de las preocupaciones éticas principales de los LLM, y puede tener consecuencias perjudiciales ya que los usuarios sin conocimientos adecuados en el dominio comienzan a confiar demasiado en estos modelos de lenguaje cada vez más convincentes.

Un cierto grado de alucinación es inevitable en todos los LLM autoregresivos. Por ejemplo, un modelo puede atribuir una cita falsa a un celebridad que nunca se dijo. Pueden afirmar algo sobre un tema en particular que es factualmente incorrecto o citar fuentes inexistentes en artículos de investigación, lo que difunde información errónea.

Sin embargo, hacer que los modelos de AI alucinen no siempre tiene efectos adversos. Por ejemplo, un nuevo estudio sugiere que los científicos están descubriendo ‘proteínas novedosas con una variedad ilimitada de propiedades’ a través de LLM que alucinan.

¿Qué causa las alucinaciones de LLM?

Los LLM pueden alucinar debido a varios factores, que van desde errores de sobreajuste en la codificación y decodificación hasta sesgos de entrenamiento.

Sobreajuste

Imagen de janjf93 de Pixabay

El sobreajuste es un problema en el que un modelo de AI se ajusta demasiado bien a los datos de entrenamiento. Sin embargo, no puede representar completamente el rango completo de entradas que puede encontrar, es decir, no puede generalizar su poder predictivo a nuevos datos no vistos. El sobreajuste puede llevar a que el modelo produzca contenido alucinado.

Errores de codificación y decodificación

Imagen de geralt de Pixabay

Si hay errores en la codificación y decodificación del texto y sus representaciones posteriores, esto también puede causar que el modelo genere salidas sin sentido y erróneas.

Sesgo de entrenamiento

Imagen de Quince Creative de Pixabay

Otro factor es la presencia de ciertos sesgos en los datos de entrenamiento, lo que puede causar que el modelo dé resultados que representan esos sesgos en lugar de la naturaleza real de los datos. Esto es similar a la falta de diversidad en los datos de entrenamiento, lo que limita la capacidad del modelo para generalizar a nuevos datos.

La estructura compleja de los LLM hace que sea bastante desafiante para los investigadores de AI y los practicantes identificar, interpretar y corregir las causas subyacentes de las alucinaciones.

Preocupaciones éticas de las alucinaciones de LLM

Los LLM pueden perpetuar y amplificar sesgos perjudiciales a través de alucinaciones y pueden, a su vez, afectar negativamente a los usuarios y tener consecuencias sociales perjudiciales. Algunas de estas preocupaciones éticas más importantes se enumeran a continuación:

Contenido discriminatorio y tóxico

Imagen de ar130405 de Pixabay

Dado que los datos de entrenamiento de LLM a menudo están llenos de estereotipos socioculturales debido a los sesgos inherentes y la falta de diversidad. Los LLM pueden, así, producir y reforzar estas ideas perjudiciales contra grupos desfavorecidos en la sociedad.

Pueden generar este contenido discriminatorio y odioso basado en raza, género, religión, etnia, etc.

Problemas de privacidad

Imagen de JanBaby de Pixabay

Los LLM se entrenan en un corpus de entrenamiento masivo que a menudo incluye información personal de individuos. Ha habido casos en los que dichos modelos han violado la privacidad de las personas. Pueden filtrar información específica como números de seguridad social, direcciones de hogar, números de teléfono celular y detalles médicos.

Desinformación y mala información

Imagen de geralt de Pixabay

Los modelos de lenguaje pueden producir contenido similar al humano que parece preciso pero es, de hecho, falso y no está respaldado por evidencia empírica. Esto puede ser accidental, lo que lleva a la mala información, o puede tener una intención maliciosa detrás para difundir deliberadamente la desinformación. Si esto no se controla, puede crear tendencias sociales, culturales, económicas y políticas adversas.

Prevención de alucinaciones de LLM

Imagen de athree23 de Pixabay

Los investigadores y practicantes están adoptando varios enfoques para abordar el problema de las alucinaciones en los LLM. Estos incluyen mejorar la diversidad de los datos de entrenamiento, eliminar sesgos inherentes, utilizar mejores técnicas de regularización y emplear entrenamiento adversario y aprendizaje por refuerzo, entre otros:

  • Desarrollar mejores técnicas de regularización está en el núcleo de abordar las alucinaciones. Ayudan a prevenir el sobreajuste y otros problemas que causan alucinaciones.
  • La ampliación de datos puede reducir la frecuencia de las alucinaciones, como se demuestra en un estudio de investigación. La ampliación de datos implica aumentar el conjunto de entrenamiento agregando un token aleatorio en cualquier lugar de la oración. Duplica el tamaño del conjunto de entrenamiento y causa una disminución en la frecuencia de las alucinaciones.
  • OpenAI y Google’s DeepMind desarrollaron una técnica llamada aprendizaje por refuerzo con retroalimentación humana (RLHF) para abordar el problema de alucinación de ChatGPT. Implica un evaluador humano que revisa frecuentemente las respuestas del modelo y selecciona las más adecuadas para las solicitudes del usuario. Esta retroalimentación se utiliza para ajustar el comportamiento del modelo. Ilya Sutskever, científico jefe de OpenAI, mencionó recientemente que este enfoque puede potencialmente resolver las alucinaciones en ChatGPT: “Tengo muchas esperanzas de que simplemente mejorando este paso de aprendizaje por refuerzo posterior con la retroalimentación humana, podamos enseñarle a no alucinar”.
  • Identificar contenido alucinado para utilizarlo como ejemplo para el entrenamiento futuro es también un método utilizado para abordar las alucinaciones. Una nueva técnica en este regard detecta alucinaciones a nivel de token y predice si cada token en la salida está alucinado. También incluye un método para el aprendizaje no supervisado de detectores de alucinaciones.

En resumen, las alucinaciones de LLM son una preocupación creciente. Y a pesar de los esfuerzos, todavía hay mucho trabajo por hacer para abordar el problema. La complejidad de estos modelos hace que sea generalmente desafiante identificar y rectificar correctamente las causas subyacentes de las alucinaciones.

Sin embargo, con la investigación y el desarrollo continuos, es posible mitigar las alucinaciones en los LLM y reducir sus consecuencias éticas.

Si deseas aprender más sobre los LLM y las técnicas preventivas que se están desarrollando para rectificar las alucinaciones de LLM, consulta unite.ai para ampliar tus conocimientos.

Haziqa es una científica de datos con amplia experiencia en la escritura de contenido técnico para empresas de inteligencia artificial y SaaS.