Contáctenos

Abordar los problemas actuales en los programas de máster y mirar hacia el futuro

Líderes del pensamiento

Abordar los problemas actuales en los programas de máster y mirar hacia el futuro

mm

En la actualidad, existen docenas de modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés) disponibles públicamente, como GPT-3, GPT-4, LaMDA o Bard, y la cantidad crece constantemente a medida que se lanzan nuevos modelos. Los LLM han revolucionado la inteligencia artificial y han alterado por completo la forma en que interactuamos con la tecnología en diversas industrias. Estos modelos nos permiten aprender de muchos conjuntos de datos del lenguaje humano y han abierto nuevas vías para la innovación, la creatividad y la eficiencia.

Sin embargo, un gran poder conlleva una gran complejidad. Existen desafíos inherentes y cuestiones éticas en torno a los LLM que deben abordarse antes de que podamos utilizarlos en todo su potencial. Por ejemplo, un LLM estudio reciente de Stanford Se encontró sesgo racial y de género al observar ChatGPT-4 por cómo trata ciertas consultas que incluyen nombres y apellidos que sugieren raza o género. En este estudio, se le pidió al programa consejo sobre cuánto se debería pagar por una bicicleta usada vendida por alguien llamado Jamal Washington, que arrojó un monto mucho menor, en comparación con cuando el vendedor se llamaba Logan Becker. A medida que estos descubrimientos siguen saliendo a la luz, la necesidad de abordar los desafíos de LLM solo aumenta.

Cómo mitigar las preocupaciones más comunes en el LLM

Parcialidad

Uno de los temas más discutidos entre los LLM es el sesgo y la imparcialidad. En un estudio reciente, expertos probaron Se publicaron cuatro LLM recientemente y se descubrió que todos expresaban suposiciones sesgadas sobre hombres y mujeres, específicamente aquellas que se alineaban con las percepciones de la gente, en lugar de aquellas basadas en hechos. En este contexto, el sesgo se refiere a la desigualdad en el trato o los resultados entre diferentes grupos sociales, probablemente debido a desequilibrios de poder históricos o estructurales.

En los LLM, el sesgo es causado por la selección de datos, la demografía de los creadores y el sesgo lingüístico o cultural. El sesgo en la selección de datos ocurre cuando los textos elegidos para la formación de LLM no representan la diversidad total del lenguaje utilizado en la web. Los LLM entrenados en conjuntos de datos extensos, pero limitados, pueden heredar los sesgos que ya existen en estos textos. Con la demografía de los creadores, ciertos grupos demográficos se destacan con más frecuencia que otros, lo que ejemplifica la necesidad de una mayor diversidad e inclusión en la creación de contenido para reducir el sesgo. Por ejemplo, Wikipedia, una fuente común de datos de formación, exhibe un desequilibrio demográfico notable entre sus editores con una mayoría masculina (84%). Esto es similar a la desviación que se observa también en el caso de los idiomas y las culturas. Muchas de las fuentes en las que se capacita a los estudiantes de maestría en derecho están sesgadas y tienden a centrarse en el inglés, lo que solo a veces se traduce con precisión en otros idiomas y culturas.

Es fundamental que los LLM se capaciten con datos filtrados y que existan medidas de seguridad para eliminar temas que no sean representaciones consistentes de los datos. Una forma de lograrlo es mediante técnicas de aumento de datos. Se pueden agregar ejemplos de grupos subrepresentados a los datos de entrenamiento, ampliando así la diversidad del conjunto de datos. Otra táctica de mitigación es el filtrado y la reponderación de datos, que se centra principalmente en identificar con precisión ejemplos específicos subrepresentados dentro de un conjunto de datos existente.

Alucinaciones

En el contexto de los LLM, las alucinaciones son un fenómeno caracterizado por la producción de un texto que, si bien es gramaticalmente correcto y aparentemente coherente, se aparta de la precisión fáctica o de la intención del material original. informes recientes Se ha descubierto que una demanda por una ley de Minnesota se ve directamente afectada por las alucinaciones de un LLM. Se ha descubierto que una declaración jurada presentada para respaldar la ley incluía fuentes inexistentes que podrían haber sido alucinadas por ChatGPT u otro LLM. Estas alucinaciones pueden reducir fácilmente la fiabilidad de un LLM.

Hay tres formas principales de alucinaciones:

  1. Alucinación por conflicto de entrada: esto sucede cuando la salida de un LLM difiere de la entrada proporcionada por el usuario, que generalmente incluye instrucciones de la tarea y el contenido real que necesita procesarse.
  2. Alucinación en conflicto con el contexto: Los LLM pueden generar respuestas internamente inconsistentes en escenarios que involucran diálogos extensos o múltiples intercambios. Esto sugiere una posible deficiencia en la capacidad del modelo para rastrear el contexto o mantener la coherencia en diversas interacciones.
  3. Alucinación por conflicto de hechos: esta forma de alucinación surge cuando un LLM produce contenido que no concuerda con el conocimiento factual establecido. Los orígenes de estos errores son diversos y pueden ocurrir en varias etapas del ciclo de vida de un LLM.

Muchos factores han contribuido a este fenómeno, como las deficiencias de conocimiento, lo que explica por qué los LLM pueden carecer de los conocimientos o la capacidad para asimilar la información correctamente durante el preentrenamiento. Además, el sesgo en los datos de entrenamiento o una estrategia de generación secuencial de LLM, apodada "efecto bola de nieve de alucinaciones", pueden crear alucinaciones.

Existen formas de mitigar las alucinaciones, aunque siempre serán una característica de los LLM. Las estrategias de mitigación útiles para las alucinaciones son la mitigación durante el preentrenamiento (refinando manualmente los datos mediante técnicas de filtrado) o el ajuste fino (curando los datos de entrenamiento). Sin embargo, la mitigación durante la inferencia es la mejor solución debido a su relación costo-beneficio y capacidad de control.

Privacidad

Con el auge de Internet, la mayor accesibilidad a la información personal y otros datos privados se ha convertido en una preocupación ampliamente reconocida. Un estudio concluyó que 80% de los consumidores estadounidenses están preocupados por el hecho de que sus datos se estén utilizando para entrenar modelos de IA. Dado que los LLM más destacados se obtienen de sitios web, debemos considerar cómo esto plantea riesgos de privacidad y sigue siendo un problema en gran medida sin resolver para los LLM.

La forma más sencilla de evitar que los LLM distribuyan información personal es eliminarla de los datos de entrenamiento. Sin embargo, dada la gran cantidad de datos que manejan, es casi imposible garantizar que se elimine toda la información privada. Otra alternativa común para las organizaciones que dependen de modelos desarrollados externamente es elegir un LLM de código abierto en lugar de un servicio como ChatGPT.

Con este enfoque, se puede implementar internamente una copia del modelo. Las indicaciones de los usuarios se mantienen seguras dentro de la red de la organización, evitando su exposición a servicios de terceros. Si bien esto reduce drásticamente el riesgo de fuga de datos confidenciales, también añade una complejidad significativa. Dadas las dificultades para garantizar plenamente la protección de los datos privados, sigue siendo fundamental que los desarrolladores de aplicaciones consideren cómo estos modelos podrían poner en riesgo a sus usuarios.

La próxima frontera para los LLM

A medida que continuamos creciendo y dando forma a las evoluciones posteriores de los LLM mediante la mitigación de los riesgos actuales, debemos esperar el avance de los agentes LLM, que ya vemos en empresas como H con corredor H, comenzando a lanzarse. El cambio de modelos de lenguaje puro a arquitecturas de agentes representa un cambio en el diseño de sistemas de IA; la industria dejará atrás las limitaciones inherentes de las interfaces de chat y la generación aumentada de recuperación simple. Estos nuevos marcos de agentes tendrán módulos de planificación sofisticados que descomponen objetivos complejos en subtareas atómicas, mantienen la memoria episódica para el razonamiento contextual y aprovechan herramientas especializadas a través de API bien definidas. Esto crea un enfoque más sólido para la automatización de tareas. La progresión arquitectónica ayuda a mitigar los desafíos comunes en torno a las tareas y el razonamiento, la integración de herramientas y el monitoreo de la ejecución dentro de las implementaciones LLM tradicionales.

Además de los LLM, se prestará mayor atención a la formación de modelos lingüísticos más pequeños debido a su relación coste-beneficio, accesibilidad y facilidad de implementación. Por ejemplo, los modelos lingüísticos específicos de un dominio se especializan en industrias o campos concretos. Estos modelos están perfectamente ajustados con datos y terminología específicos del dominio, lo que los hace ideales para entornos complejos y regulados, como el ámbito médico o legal, donde la precisión es esencial. Este enfoque específico reduce la probabilidad de errores y alucinaciones que pueden producir los modelos de propósito general cuando se enfrentan a contenido especializado.

A medida que continuamos explorando nuevas fronteras en los LLM, es esencial ampliar los límites de la innovación y abordar y mitigar los riesgos potenciales asociados con su desarrollo e implementación. Solo identificando primero y abordando de manera proactiva los desafíos relacionados con el sesgo, las alucinaciones y la privacidad podremos crear una base más sólida para que los LLM prosperen en diversos campos.

Uday Kamath es el director de análisis de Aplastar, líder mundial en inteligencia y datos de comunicaciones. Su función incluye liderar la ciencia de datos y la investigación en IA conversacional. Con más de 25 años de experiencia en desarrollo analítico y un doctorado en aprendizaje automático escalable, las importantes contribuciones de Kamath abarcan numerosas revistas, conferencias, libros y patentes. También es un miembro activo del Consejo Asesor de entidades, incluidas empresas comerciales como Falkonry e instituciones académicas como el Centro para la Asociación Hombre-Máquina de GMU.