Connect with us

Inteligencia artificial

GPT-2, Generador de Texto de Inteligencia Artificial se lanza en su totalidad

mm

Como informa TheNextWeb (TNW), OpenAI, la organización sin fines de lucro detrás de una serie de proyectos de inteligencia artificial, acaba de publicar el modelo final en la liberación planificada por etapas para GPT-2, un generador de texto que ha causado un gran debate desde su anuncio de lanzamiento en febrero.

Basado en el artículo de investigación de OpenAI titulado Language Models are Unsupervised Multitask Learners, “GPT-2 utiliza el aprendizaje automático para generar texto nuevo basado en una entrada limitada.” Lo que significa es que un usuario puede escribir una oración o dos sobre cualquier tema y el generador de inteligencia artificial creará un texto que tenga alguna relación con la entrada original. En esencia, como TNW señala, a diferencia de la mayoría de los ‘generadores de texto’, no produce cadenas preescritas. GPT-2 inventa texto que no existía previamente.”

En su tuit, Scott B. Weingart, director de programas de la Biblioteca de la Universidad Carnegie Mellon, da un ejemplo concreto:

 

OpenAI inicialmente estaba preocupada por posibles usos maliciosos de su sistema, así que en febrero de 2019 decidió lanzar GPT-2 en cuatro partes durante ocho meses. Como explicaron en su blog, “Debido a nuestras preocupaciones sobre aplicaciones maliciosas de la tecnología, no estamos lanzando el modelo entrenado. Como un experimento en divulgación responsable, estamos lanzando un modelo mucho más pequeño para que los investigadores experimenten con él, así como un artículo técnico.”

Como se explica, el modelo completo contiene 1.500 millones de parámetros. “Cuanto más parámetros tenga un modelo, más ‘inteligente’ parece – al igual que los humanos, la práctica hace la perfección.”

TNW señala que inicialmente OpenAI lanzó un modelo con 124 millones de parámetros, seguido de lanzamientos con 355 y 774 millones. Según ellos, después de probar los modelos lanzados, “cada iteración mostró una mejora significativa en la capacidad en comparación con las iteraciones anteriores.”

Para prevenir el mal uso, OpenAI lanzó modelos de detección de GPT-2 que se supone que “combatirán el mal uso de antemano.” Según su propia admisión en un artículo del blog, estos modelos de detección aún necesitan trabajo adicional para alcanzar el nivel de calidad logrado hasta ahora en GPT-2 en sí.

Aquellos interesados pueden descargar el modelo GPT-2 aquí en Github, ver la tarjeta del modelo aquí, y leer el artículo del blog de OpenAI aquí.

Ex diplomático y traductor para la ONU, actualmente periodista/escritor/investigador freelance, centrado en la tecnología moderna, la inteligencia artificial y la cultura moderna.