Suivez nous sur

GPT-4 nous rapprochera-t-il d'une vĂ©ritable rĂ©volution de l'IA ?

Des leaders d'opinion

GPT-4 nous rapprochera-t-il d'une vĂ©ritable rĂ©volution de l'IA ?

mm

Cela fait presque trois ans que GPT-3 a été introduit, en mai 2020. Depuis lors, le modèle de génération de texte par IA a suscité beaucoup d'intérêt pour sa capacité à créer du texte qui ressemble et sonne comme s'il avait été écrit par un humain. Il semble maintenant que la prochaine itération du logiciel, GPT-4, approche à grands pas, avec une date de sortie estimée au début de 2023.

Malgré le caractère très attendu de cette nouvelle sur l’IA, les détails exacts sur GPT-4 sont assez flous. OpenAI, la société à l'origine de GPT-4, n'a pas divulgué publiquement beaucoup d'informations sur le nouveau modèle, comme ses fonctionnalités ou ses capacités. Néanmoins, les avancées récentes dans le domaine de l’IA, notamment en matière de traitement du langage naturel (NLP), peuvent offrir quelques indices sur ce que nous pouvons attendre du GPT-4.

Qu'est-ce que le GPT?

Avant d'entrer dans les détails, il est utile d'établir d'abord une base de référence sur ce qu'est GPT. GPT signifie Generative Pre-trained Transformer et fait référence à un modèle de réseau neuronal d'apprentissage en profondeur qui est formé sur les données disponibles sur Internet pour créer de gros volumes de texte généré par la machine. GPT-3 est la troisième génération de cette technologie et est l'un des modèles de génération de texte AI les plus avancés actuellement disponibles.

Considérez GPT-3 comme fonctionnant un peu comme des assistants vocaux, tels que Siri ou Alexa, mais à une échelle beaucoup plus grande. Au lieu de demander à Alexa de jouer votre chanson préférée ou de demander à Siri de taper votre texte, vous pouvez demander à GPT-3 d'écrire un eBook entier en quelques minutes ou de générer 100 idées de publications sur les réseaux sociaux en moins d'une minute. Tout ce que l'utilisateur doit faire est de fournir une invite, telle que "Écrivez-moi un article de 500 mots sur l'importance de la créativité". Tant que l'invite est claire et précise, GPT-3 peut écrire à peu près tout ce que vous lui demandez.

Depuis sa diffusion au grand public, GPT-3 a trouvé de nombreuses applications professionnelles. Les entreprises l'utilisent pour la synthèse de texte, la traduction linguistique, la génération de code et l'automatisation à grande échelle de presque toutes les tâches d'écriture.

Cela dit, si GPT-3 est incontestablement très impressionnant dans sa capacitĂ© Ă  crĂ©er du texte hautement lisible, il est loin d'ĂŞtre parfait. Des problèmes surviennent souvent lorsqu'on est invitĂ© Ă  rĂ©diger des textes plus longs, surtout lorsqu'il s'agit de sujets complexes qui nĂ©cessitent une rĂ©flexion approfondie. Par exemple, une invite demandant de gĂ©nĂ©rer du code informatique pour un site web peut renvoyer un code correct, mais sous-optimal, nĂ©cessitant l'intervention d'un dĂ©veloppeur humain pour l'amĂ©liorer. Le problème est similaire avec les documents texte volumineux : plus le volume de texte est important, plus le risque d'erreurs, parfois hilarantes, nĂ©cessitant une correction humaine est Ă©levĂ©.

En termes simples, GPT-3 ne remplace pas complètement les écrivains ou codeurs humains, et il ne doit pas être considéré comme tel. Au lieu de cela, GPT-3 doit être considéré comme un assistant d'écriture, qui peut faire gagner beaucoup de temps aux gens lorsqu'ils ont besoin de générer des idées d'articles de blog ou des ébauches de textes publicitaires ou de communiqués de presse.

Plus de paramètres = mieux ?

Une chose à comprendre à propos des modèles d'IA est la façon dont ils utilisent des paramètres pour faire des prédictions. Les paramètres d'un modèle d'IA définissent le processus d'apprentissage et fournissent une structure pour la sortie. Le nombre de paramètres dans un modèle d'IA a généralement été utilisé comme mesure de performance. Plus il y a de paramètres, plus le modèle est puissant, fluide et prévisible, du moins selon les hypothèse de mise à l'échelle.

Par exemple, lorsque GPT-1 est sorti en 2018, il comportait 117 millions de paramètres. GPT-2, publiĂ© un an plus tard, avait 1.2 milliard de paramètres, tandis que GPT-3 a augmentĂ© le nombre encore plus Ă©levĂ© Ă  175 milliards de paramètres. Selon une interview d'aoĂ»t 2021 avec Câble, Andrew Feldman, fondateur et PDG de Cerebras, une sociĂ©tĂ© partenaire d'OpenAI, a mentionnĂ© que GPT-4 aurait environ 100 4 milliards de paramètres. Cela rendrait GPT-100 3 fois plus puissant que GPT-XNUMX, un saut quantique dans la taille des paramètres qui, naturellement, a rendu beaucoup de gens très excitĂ©s.

Cependant, malgrĂ© les affirmations ambitieuses de Feldman, il existe de bonnes raisons de penser que GPT-4 ne comptera pas 100 XNUMX milliards de paramètres. Plus le nombre de paramètres est Ă©levĂ©, plus l'entraĂ®nement et le rĂ©glage fin d'un modèle deviennent coĂ»teux en raison de la puissance de calcul considĂ©rable requise.

De plus, il y a plus de facteurs que le simple nombre de paramètres qui déterminent l'efficacité d'un modèle. Prends pour exemple Mégatron-Turing NLG, un modèle de génération de texte construit par Nvidia et Microsoft, qui compte plus de 500 milliards de paramètres. Malgré sa taille, le MT-NLG ne se rapproche pas du GPT-3 en termes de performances. Bref, plus gros ne veut pas forcément dire meilleur.

Il est probable que GPT-4 aura effectivement plus de paramètres que GPT-3, mais il reste à voir si ce nombre sera supérieur d'un ordre de grandeur. OpenAI explore probablement d'autres possibilités intéressantes, comme un modèle plus léger axé sur des améliorations qualitatives de la conception et de l'alignement algorithmiques. L'impact exact de ces améliorations est difficile à prédire, mais on sait qu'un modèle parcimonieux peut réduire les coûts de calcul grâce à ce que l'on appelle le calcul conditionnel. Autrement dit, tous les paramètres du modèle d'IA ne seront pas activés en permanence, ce qui est similaire au fonctionnement des neurones du cerveau humain.

Alors, que pourra faire le GPT-4 ?

En attendant qu'OpenAI publie une nouvelle déclaration, voire GPT-4, nous ne pouvons que spéculer sur ses différences avec GPT-3. Quoi qu'il en soit, nous pouvons faire quelques prédictions.

Bien que l'avenir du développement de l'apprentissage en profondeur de l'IA soit multimodal, GPT-4 restera probablement uniquement textuel. En tant qu'êtres humains, nous vivons dans un monde multisensoriel rempli de différentes entrées audio, visuelles et textuelles. Par conséquent, il est inévitable que le développement de l'IA produise éventuellement un modèle multimodal pouvant intégrer une variété d'entrées.

Cependant, un bon modèle multimodal est beaucoup plus difficile à concevoir qu'un modèle textuel. La technologie n'est tout simplement pas encore là et d'après ce que nous savons des limites de la taille des paramètres, il est probable qu'OpenAI se concentre sur l'expansion et l'amélioration d'un modèle textuel uniquement.

Il est également probable que GPT-4 dépendra moins d'une invite précise. L'un des inconvénients de GPT-3 est que les invites de texte doivent être écrites avec soin pour obtenir le résultat souhaité. Lorsque les invites ne sont pas écrites avec soin, vous pouvez vous retrouver avec des sorties mensongères, toxiques ou même reflétant des opinions extrémistes. Cela fait partie de ce que l'on appelle le "problème d'alignement" et fait référence aux défis de la création d'un modèle d'IA qui comprend parfaitement les intentions de l'utilisateur. En d'autres termes, le modèle d'IA n'est pas aligné sur les objectifs ou les intentions de l'utilisateur. Étant donné que les modèles d'IA sont formés à l'aide d'ensembles de données textuelles provenant d'Internet, il est très facile pour les biais humains, les faussetés et les préjugés de se retrouver dans les sorties textuelles.

Cela dit, il y a de bonnes raisons de croire que les développeurs avancent sur le problème d'alignement. Cet optimisme vient de certaines percées dans le développement d'InstructGPT, une version plus avancée de GPT-3 qui est entraînée sur la rétroaction humaine pour suivre de plus près les instructions et les intentions de l'utilisateur. Les juges humains ont constaté que InstructGPT dépendait beaucoup moins que GPT-3 d'une bonne incitation.

Il convient toutefois de noter que ces tests n'ont été menés qu'avec des employés d'OpenAI, un groupe relativement homogène, dont le genre, la religion ou les opinions politiques ne diffèrent pas beaucoup. Il y a fort à parier que GPT-4 bénéficiera d'une formation plus diversifiée, ce qui améliorera l'adéquation entre les différents groupes, mais dans quelle mesure cela reste à déterminer.

Le GPT-4 remplacera-t-il les humains ?

Malgré la promesse de GPT-4, il est peu probable qu'il remplace complètement le besoin d'écrivains et de codeurs humains. Il reste encore beaucoup de travail à faire sur tout, de l'optimisation des paramètres à la multimodalité en passant par l'alignement. Il faudra peut-être de nombreuses années avant de voir un générateur de texte capable de parvenir à une compréhension véritablement humaine des complexités et des nuances de l'expérience de la vie réelle.

Même ainsi, il y a encore de bonnes raisons d'être enthousiasmé par l'arrivée de GPT-4. L'optimisation des paramètres - plutôt que la simple croissance des paramètres - conduira probablement à un modèle d'IA qui a beaucoup plus de puissance de calcul que son prédécesseur. Et un alignement amélioré rendra probablement GPT-4 beaucoup plus convivial.

De plus, nous n'en sommes encore qu'au début du développement et de l'adoption des outils d'IA. De plus en plus de cas d'utilisation de la technologie sont constamment découverts, et à mesure que les gens gagnent en confiance et en aisance dans l'utilisation de l'IA sur le lieu de travail, il est presque certain que nous verrons une adoption généralisée des outils d'IA dans presque tous les secteurs d'activité dans les années à venir.

Dr Danny Rittman, est le CTO de Technologies GBT, une solution conçue pour permettre le déploiement de l'IoT (Internet des objets), des réseaux maillés mondiaux, de l'intelligence artificielle et des applications liées à la conception de circuits intégrés.