Connect with us

Intelligence artificielle

GPT-2, le générateur de texte d’intelligence artificielle est publié en intégralité

mm

Comme TheNextWeb (TNW) le rapporte, OpenAI, l’organisation à but non lucratif derrière de nombreux projets d’intelligence artificielle, vient de publier le modèle final de la version échelonnée prévue pour GPT-2, un générateur de texte qui a suscité une grande controverse depuis son annonce en février.

Sur la base de la publication de recherche d’OpenAI intitulée Language Models are Unsupervised Multitask Learners, « GPT-2 utilise l’apprentissage automatique pour générer des textes novateurs en fonction d’une entrée limitée. » Cela signifie qu’un utilisateur peut taper une phrase ou deux sur n’importe quel sujet et que le générateur d’IA créera un texte qui a une relation avec l’entrée originale. En substance, comme le note TNW, contrairement à la plupart des « générateurs de texte », il ne produit pas de chaînes de caractères préécrites. GPT-2 crée du texte qui n’existait pas auparavant. »

Dans son tweet, Scott B. Weingart, directeur du programme de la bibliothèque de l’Université Carnegie Mellon, donne un exemple concret :

 

OpenAI s’est initialement inquiété des utilisations malveillantes possibles de leur système, donc en février 2019, il a décidé de publier GPT-2 en quatre parties sur huit mois. Comme ils l’ont expliqué dans leur blog, « en raison de nos préoccupations concernant les applications malveillantes de la technologie, nous ne publions pas le modèle formé. À titre d’expérience de divulgation responsable, nous publions plutôt un modèle beaucoup plus petit pour que les chercheurs puissent l’expérimenter, ainsi qu’un article technique. »

Comme expliqué, le modèle complet contient 1,5 milliard de paramètres. « Plus un modèle est formé avec des paramètres, plus il semble « intelligent » – comme les humains, la pratique rend parfait. »

TNW note que initialement OpenAI a publié un modèle avec 124 millions de paramètres, suivi de versions avec 355 et 774 millions. Selon eux, après avoir testé les modèles publiés, « chaque itération a montré une amélioration significative des capacités par rapport aux itérations précédentes. »

Pour prévenir les mauvaises utilisations, OpenAI a publié des modèles de détection GPT-2 qui sont censés « combattre les mauvaises utilisations de manière proactive. » Selon leur propre admission dans un article de blog, ces modèles de détection nécessitent encore du travail pour atteindre le niveau de qualité atteint jusqu’à présent dans GPT-2 lui-même.

Ceux qui sont intéressés peuvent télécharger le modèle GPT-2 ici sur Github, consulter la carte du modèle ici, et lire l’article de blog d’OpenAI ici.

Ancien diplomate et traducteur pour les Nations Unies, actuellement journaliste/écrivain/chercheur free-lance, se concentrant sur la technologie moderne, l'intelligence artificielle et la culture moderne.