LÃderes del pensamiento
Abordar los problemas actuales en los programas de máster y mirar hacia el futuro

En la actualidad, existen docenas de modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés) disponibles públicamente, como GPT-3, GPT-4, LaMDA o Bard, y la cantidad crece constantemente a medida que se lanzan nuevos modelos. Los LLM han revolucionado la inteligencia artificial y han alterado por completo la forma en que interactuamos con la tecnologÃa en diversas industrias. Estos modelos nos permiten aprender de muchos conjuntos de datos del lenguaje humano y han abierto nuevas vÃas para la innovación, la creatividad y la eficiencia.
Sin embargo, un gran poder conlleva una gran complejidad. Existen desafÃos inherentes y cuestiones éticas en torno a los LLM que deben abordarse antes de que podamos utilizarlos en todo su potencial. Por ejemplo, un LLM estudio reciente de Stanford Se encontró sesgo racial y de género al observar ChatGPT-4 por cómo trata ciertas consultas que incluyen nombres y apellidos que sugieren raza o género. En este estudio, se le pidió al programa consejo sobre cuánto se deberÃa pagar por una bicicleta usada vendida por alguien llamado Jamal Washington, que arrojó un monto mucho menor, en comparación con cuando el vendedor se llamaba Logan Becker. A medida que estos descubrimientos siguen saliendo a la luz, la necesidad de abordar los desafÃos de LLM solo aumenta.
Cómo mitigar las preocupaciones más comunes en el LLM
Parcialidad
Uno de los temas más discutidos entre los LLM es el sesgo y la imparcialidad. En un estudio reciente, expertos probaron Se publicaron cuatro LLM recientemente y se descubrió que todos expresaban suposiciones sesgadas sobre hombres y mujeres, especÃficamente aquellas que se alineaban con las percepciones de la gente, en lugar de aquellas basadas en hechos. En este contexto, el sesgo se refiere a la desigualdad en el trato o los resultados entre diferentes grupos sociales, probablemente debido a desequilibrios de poder históricos o estructurales.
En los LLM, el sesgo es causado por la selección de datos, la demografÃa de los creadores y el sesgo lingüÃstico o cultural. El sesgo en la selección de datos ocurre cuando los textos elegidos para la formación de LLM no representan la diversidad total del lenguaje utilizado en la web. Los LLM entrenados en conjuntos de datos extensos, pero limitados, pueden heredar los sesgos que ya existen en estos textos. Con la demografÃa de los creadores, ciertos grupos demográficos se destacan con más frecuencia que otros, lo que ejemplifica la necesidad de una mayor diversidad e inclusión en la creación de contenido para reducir el sesgo. Por ejemplo, Wikipedia, una fuente común de datos de formación, exhibe un desequilibrio demográfico notable entre sus editores con una mayorÃa masculina (84%). Esto es similar a la desviación que se observa también en el caso de los idiomas y las culturas. Muchas de las fuentes en las que se capacita a los estudiantes de maestrÃa en derecho están sesgadas y tienden a centrarse en el inglés, lo que solo a veces se traduce con precisión en otros idiomas y culturas.
Es fundamental que los LLM se capaciten con datos filtrados y que existan medidas de seguridad para eliminar temas que no sean representaciones consistentes de los datos. Una forma de lograrlo es mediante técnicas de aumento de datos. Se pueden agregar ejemplos de grupos subrepresentados a los datos de entrenamiento, ampliando asà la diversidad del conjunto de datos. Otra táctica de mitigación es el filtrado y la reponderación de datos, que se centra principalmente en identificar con precisión ejemplos especÃficos subrepresentados dentro de un conjunto de datos existente.
Alucinaciones
En el contexto de los LLM, las alucinaciones son un fenómeno caracterizado por la producción de un texto que, si bien es gramaticalmente correcto y aparentemente coherente, se aparta de la precisión fáctica o de la intención del material original. informes recientes Se ha descubierto que una demanda por una ley de Minnesota se ve directamente afectada por las alucinaciones de un LLM. Se ha descubierto que una declaración jurada presentada para respaldar la ley incluÃa fuentes inexistentes que podrÃan haber sido alucinadas por ChatGPT u otro LLM. Estas alucinaciones pueden reducir fácilmente la fiabilidad de un LLM.
Hay tres formas principales de alucinaciones:
- Alucinación por conflicto de entrada: esto sucede cuando la salida de un LLM difiere de la entrada proporcionada por el usuario, que generalmente incluye instrucciones de la tarea y el contenido real que necesita procesarse.
- Alucinación en conflicto con el contexto: Los LLM pueden generar respuestas internamente inconsistentes en escenarios que involucran diálogos extensos o múltiples intercambios. Esto sugiere una posible deficiencia en la capacidad del modelo para rastrear el contexto o mantener la coherencia en diversas interacciones.
- Alucinación por conflicto de hechos: esta forma de alucinación surge cuando un LLM produce contenido que no concuerda con el conocimiento factual establecido. Los orÃgenes de estos errores son diversos y pueden ocurrir en varias etapas del ciclo de vida de un LLM.
Muchos factores han contribuido a este fenómeno, como las deficiencias de conocimiento, lo que explica por qué los LLM pueden carecer de los conocimientos o la capacidad para asimilar la información correctamente durante el preentrenamiento. Además, el sesgo en los datos de entrenamiento o una estrategia de generación secuencial de LLM, apodada "efecto bola de nieve de alucinaciones", pueden crear alucinaciones.
Existen formas de mitigar las alucinaciones, aunque siempre serán una caracterÃstica de los LLM. Las estrategias de mitigación útiles para las alucinaciones son la mitigación durante el preentrenamiento (refinando manualmente los datos mediante técnicas de filtrado) o el ajuste fino (curando los datos de entrenamiento). Sin embargo, la mitigación durante la inferencia es la mejor solución debido a su relación costo-beneficio y capacidad de control.
Privacidad
Con el auge de Internet, la mayor accesibilidad a la información personal y otros datos privados se ha convertido en una preocupación ampliamente reconocida. Un estudio concluyó que 80% de los consumidores estadounidenses están preocupados por el hecho de que sus datos se estén utilizando para entrenar modelos de IA. Dado que los LLM más destacados se obtienen de sitios web, debemos considerar cómo esto plantea riesgos de privacidad y sigue siendo un problema en gran medida sin resolver para los LLM.
La forma más sencilla de evitar que los LLM distribuyan información personal es eliminarla de los datos de entrenamiento. Sin embargo, dada la gran cantidad de datos que manejan, es casi imposible garantizar que se elimine toda la información privada. Otra alternativa común para las organizaciones que dependen de modelos desarrollados externamente es elegir un LLM de código abierto en lugar de un servicio como ChatGPT.
Con este enfoque, se puede implementar internamente una copia del modelo. Las indicaciones de los usuarios se mantienen seguras dentro de la red de la organización, evitando su exposición a servicios de terceros. Si bien esto reduce drásticamente el riesgo de fuga de datos confidenciales, también añade una complejidad significativa. Dadas las dificultades para garantizar plenamente la protección de los datos privados, sigue siendo fundamental que los desarrolladores de aplicaciones consideren cómo estos modelos podrÃan poner en riesgo a sus usuarios.
La próxima frontera para los LLM
A medida que continuamos creciendo y dando forma a las evoluciones posteriores de los LLM mediante la mitigación de los riesgos actuales, debemos esperar el avance de los agentes LLM, que ya vemos en empresas como H con corredor H, comenzando a lanzarse. El cambio de modelos de lenguaje puro a arquitecturas de agentes representa un cambio en el diseño de sistemas de IA; la industria dejará atrás las limitaciones inherentes de las interfaces de chat y la generación aumentada de recuperación simple. Estos nuevos marcos de agentes tendrán módulos de planificación sofisticados que descomponen objetivos complejos en subtareas atómicas, mantienen la memoria episódica para el razonamiento contextual y aprovechan herramientas especializadas a través de API bien definidas. Esto crea un enfoque más sólido para la automatización de tareas. La progresión arquitectónica ayuda a mitigar los desafÃos comunes en torno a las tareas y el razonamiento, la integración de herramientas y el monitoreo de la ejecución dentro de las implementaciones LLM tradicionales.
Además de los LLM, se prestará mayor atención a la formación de modelos lingüÃsticos más pequeños debido a su relación coste-beneficio, accesibilidad y facilidad de implementación. Por ejemplo, los modelos lingüÃsticos especÃficos de un dominio se especializan en industrias o campos concretos. Estos modelos están perfectamente ajustados con datos y terminologÃa especÃficos del dominio, lo que los hace ideales para entornos complejos y regulados, como el ámbito médico o legal, donde la precisión es esencial. Este enfoque especÃfico reduce la probabilidad de errores y alucinaciones que pueden producir los modelos de propósito general cuando se enfrentan a contenido especializado.
A medida que continuamos explorando nuevas fronteras en los LLM, es esencial ampliar los lÃmites de la innovación y abordar y mitigar los riesgos potenciales asociados con su desarrollo e implementación. Solo identificando primero y abordando de manera proactiva los desafÃos relacionados con el sesgo, las alucinaciones y la privacidad podremos crear una base más sólida para que los LLM prosperen en diversos campos.