Connect with us

AGI

AGI-22 met en évidence les progrès dans le développement de l’intelligence artificielle générale

mm

J’ai récemment assisté à la 15ème conférence annuelle sur l’intelligence artificielle générale (AGI-22) qui s’est tenue à Seattle ce août, dans le but de me familiariser avec les nouveaux développements qui pourraient conduire à la création éventuelle d’une intelligence artificielle générale (AGI).

Un AGI est un type d’IA avancée qui peut généraliser à plusieurs domaines et n’est pas limité dans son champ d’application. Des exemples d’IA étroite incluent un véhicule autonome, un chatbot, un bot d’échecs ou tout autre IA conçu pour un seul objectif. Un AGI, en comparaison, serait capable de passer facilement d’une tâche à une autre ou à tout autre domaine d’expertise. Il s’agit d’un type spéculatif d’IA qui tirerait parti d’algorithmes naissants tels que l’apprentissage par transfert, et l’apprentissage évolutionnaire, tout en exploitant les algorithmes hérités tels que l’apprentissage par renforcement profond.

Lors de la session de clôture, Ben Goertzel, chercheur en IA , PDG et fondateur de SingularityNET, et leader de la OpenCog Foundation a parlé de l’état de l’industrie. Il semblait enthousiaste quant à la direction future de l’AGI, déclarant que « Nous sommes à quelques années plutôt qu’à quelques décennies ». Cela placerait le lancement éventuel d’un AGI à environ 2029, la même année que Ray Kurzweil, l’un des plus grands inventeurs, penseurs et futuristes du monde, a prédit l’émergence d’une IA qui atteint le niveau d’intelligence humaine.

La théorie veut que dès que ce type d’intelligence est atteint, l’IA s’améliorerait immédiatement et continuellement pour dépasser rapidement l’intelligence humaine dans ce que l’on appelle la superintelligence.

Un autre intervenant, Charles J. Simon, fondateur et PDG de Future AI, a déclaré lors d’une session distincte : « L’émergence de l’AGI sera progressive » et « L’AGI est inévitable et arrivera plus tôt que la plupart des gens ne le pensent, cela pourrait prendre quelques années ».

Même avec ce sentiment optimiste, il y a des obstacles importants sur la voie. Ben Goertzel a également reconnu que pour atteindre l’AGI, « Nous avons besoin d’une infusion de nouvelles idées, et non pas simplement d’une mise à l’échelle des réseaux de neurones ». C’est un sentiment partagé par Gary Marcus, qui est connu pour avoir déclaré que « l’apprentissage profond a atteint un mur ».

Certains des défis fondamentaux pour créer un AGI incluent la mise au point d’un système de récompenses qui peut échelonner l’intelligence de manière informée. Le paradoxe de Moravec reflète le problème actuel pour atteindre l’AGI avec notre technologie actuelle. Ce paradoxe stipule que les adaptations qui sont intuitives pour un enfant d’un an, telles que l’apprentissage de la marche et la simulation de la réalité, sont beaucoup plus difficiles à programmer dans un IA que ce que les humains perçoivent comme difficile.

Pour les humains, c’est le contraire, maîtriser les échecs ou exécuter des formules mathématiques complexes peut nécessiter une vie entière, pourtant ce sont deux tâches raisonnables pour les IA étroites.

L’une des solutions à ce paradoxe peut être l’apprentissage évolutionnaire, également connu sous le nom d’algorithmes évolutionnaires. Cela permet essentiellement à un IA de rechercher des solutions complexes en imitant le processus de l’évolution biologique.

Lors d’une séance de questions-réponses distincte, Ben Goertzel a déclaré que « L’AGI n’est pas inévitable, mais elle est très probable ». C’est la même conclusion que j’ai tirée, mais la ligne entre l’inévitabilité et la probabilité se brouille.

Lors de la conférence, de nombreux documents ont été présentés, l’un des documents notables qui a été discuté est Polynomial Functors : une théorie générale de l’interaction de David Spivak de l’Institut Topos à Berkeley, CA et Nelson Niu de l’Université de Washington, à Seattle, WA. Ce document discute d’une catégorie mathématique appelée Poly qui peut influencer la direction future de l’IA lorsqu’il s’agit de relations intimes avec des processus dynamiques, la prise de décision et le stockage et la transformation des données. Il reste à voir comment cela influencera la recherche sur l’AGI, mais cela pourrait être l’un des composants manquants qui pourraient nous amener à l’AGI.

Bien sûr, il y avait d’autres documents plus spéculatifs, tels que l’Index de versatilité-efficacité (VEI) : vers une définition complète du QI pour les agents AGI de Mohammadreza Alidoust. L’idée est de construire une alternative pour mesurer le niveau d’intelligence des systèmes intelligents, un type de test de QI pour mesurer les agents AGI de manière computationnelle.

Deux sociétés notables qui pourraient faire des avancées dans cette technologie sous-jacente sont OpenAI et DeepMind, qui étaient toutes deux remarquablement absentes. Cela pourrait être dû à la peur que l’AGI ne soit pas pris au sérieux par la communauté de l’IA, mais ce sont les deux sociétés qui sont les plus susceptibles de faire la première avancée dans ce domaine. C’est particulièrement vrai puisque la mission déclarée d’OpenAI est de mener des recherches fondamentales et à long terme pour la création d’un AGI sécurisé.

Même s’il n’y a pas eu de révolution majeure pour révéler lors de la conférence, il est clair que l’AGI préoccupe de nombreux chercheurs et que c’est quelque chose que la communauté de l’IA devrait prêter plus d’attention. Après tout, un AGI pourrait être la solution pour résoudre les multiples menaces existentielles de l’humanité.

//www.futurist.ai">futurist, il se consacre à l'exploration de la manière dont ces innovations façonneront notre monde. De plus, il est le fondateur de Securities.io, une plateforme axée sur l'investissement dans les technologies de pointe qui redéfinissent l'avenir et remodelent des secteurs entiers.