Inteligencia artificial
GPT-2, Generador de Texto de Inteligencia Artificial se lanza en su totalidad

Como informa TheNextWeb (TNW), OpenAI, la organización sin fines de lucro detrás de una serie de proyectos de inteligencia artificial, acaba de publicar el modelo final en la liberación planificada por etapas para GPT-2, un generador de texto que ha causado un gran debate desde su anuncio de lanzamiento en febrero.
Basado en el artículo de investigación de OpenAI titulado Language Models are Unsupervised Multitask Learners, “GPT-2 utiliza el aprendizaje automático para generar texto nuevo basado en una entrada limitada.” Lo que significa es que un usuario puede escribir una oración o dos sobre cualquier tema y el generador de inteligencia artificial creará un texto que tenga alguna relación con la entrada original. En esencia, como TNW señala, a diferencia de la mayoría de los ‘generadores de texto’, no produce cadenas preescritas. GPT-2 inventa texto que no existía previamente.”
En su tuit, Scott B. Weingart, director de programas de la Biblioteca de la Universidad Carnegie Mellon, da un ejemplo concreto:
What is a Panther but a young lion?
An entire corridor filled entirely with people screaming.
How’s this for a happy ending? pic.twitter.com/qvPTrs790N
— Scott B. Weingart (@scott_bot) August 20, 2019
If death, in some obscure and distant hour,
Strikes me still as I slept, if I yet dream:
Is that my peace with an eternity spent?
[…]
But I fear it will be no peace or rest
Until the stars give me the full glow of their light
To see all my cares and woes in an instant.Shit. pic.twitter.com/QRoi1C3rjj
— Scott B. Weingart (@scott_bot) August 20, 2019
OpenAI inicialmente estaba preocupada por posibles usos maliciosos de su sistema, así que en febrero de 2019 decidió lanzar GPT-2 en cuatro partes durante ocho meses. Como explicaron en su blog, “Debido a nuestras preocupaciones sobre aplicaciones maliciosas de la tecnología, no estamos lanzando el modelo entrenado. Como un experimento en divulgación responsable, estamos lanzando un modelo mucho más pequeño para que los investigadores experimenten con él, así como un artículo técnico.”
Como se explica, el modelo completo contiene 1.500 millones de parámetros. “Cuanto más parámetros tenga un modelo, más ‘inteligente’ parece – al igual que los humanos, la práctica hace la perfección.”
TNW señala que inicialmente OpenAI lanzó un modelo con 124 millones de parámetros, seguido de lanzamientos con 355 y 774 millones. Según ellos, después de probar los modelos lanzados, “cada iteración mostró una mejora significativa en la capacidad en comparación con las iteraciones anteriores.”
Para prevenir el mal uso, OpenAI lanzó modelos de detección de GPT-2 que se supone que “combatirán el mal uso de antemano.” Según su propia admisión en un artículo del blog, estos modelos de detección aún necesitan trabajo adicional para alcanzar el nivel de calidad logrado hasta ahora en GPT-2 en sí.
Aquellos interesados pueden descargar el modelo GPT-2 aquí en Github, ver la tarjeta del modelo aquí, y leer el artículo del blog de OpenAI aquí.
