Connect with us

Leaders d’opinion

Pourquoi l’Industrie 5.0 a besoin d’une Intelligence Générale Artificielle

mm

Par : Bas Steunebrink, Co-fondateur et Directeur de l’Intelligence Générale Artificielle, Eric Nivel, Ingénieur principal AGI & Jerry Swan, Chercheur scientifique chez NNAISENSE.

Nous prenons l’automatisation pour acquise dans notre monde moderne, en bénéficiant chaque jour de chaînes d’approvisionnement qui s’étendent sur le globe, en livrant une vaste sélection de biens sur nos étagères. Mais derrière la scène, la production et le déplacement de biens génèrent de nombreux défis d’optimisation, tels que l’emballage, la planification, la routage et l’automatisation de la chaîne de montage. Ces défis d’optimisation sont dynamiques et changent constamment en tandem avec le monde réel. Par exemple, les routes d’approvisionnement attendues peuvent soudainement devenir compromises en raison de circonstances imprévues – par exemple, le canal de Suez peut être bloqué ; les routes aériennes peuvent changer en raison d’éruptions volcaniques ; des pays entiers peuvent être inaccessibles en raison de conflits. Les changements dans la législation, les effondrements monétaires et les ressources rares sont également des exemples de variables d’approvisionnement en constante évolution.

Pour donner un autre exemple, parfois, un nouveau composant doit être incorporé dans une machine ou un flux de travail (les utilisateurs peuvent vouloir des matériaux ou des couleurs différents, par exemple). Actuellement, une main-d’œuvre humaine experte est requise pour apporter des modifications au système, ou – dans le cas de l’apprentissage automatique – pour réentraîner et redéployer la solution. De même, les « jumeaux numériques » de l’Industrie 4.0 sont encore fortement dépendants de la notion que la description du problème et la distribution des entrées peuvent être spécifiées une fois pour toutes au moment de la conception initiale du système.

La pandémie récente met en évidence la fragilité de la planification de la chaîne d’approvisionnement « juste-à-temps ». Il devient plus évident qu’ dans un monde de plus en plus complexe et incertain, l’industrie ne peut plus se permettre une telle inflexibilité. Actuellement, la fabrication doit faire un choix fixe entre « Faible mélange – Grande quantité » (LMHV) et « Mélange élevé – Faible quantité » (HMLV). L’Industrie 5.0 anticipe la perspective d’un « Mélange élevé – Grande quantité » (HMHV), dans lequel le flux de travail peut être reconfiguré à faible coût pour répondre aux exigences fluides. Pour atteindre cet objectif, il est nécessaire d’« automatiser l’automatisation », afin d’éliminer le besoin d’intervention humaine et/ou de temps d’arrêt du système lorsque le problème ou l’environnement change. Cela nécessite des systèmes qui « fonctionnent sur commande », en réagissant à ces changements, tout en ayant une perspective raisonnable de terminer les tâches assignées dans les contraintes de temps du monde réel. Considérez, par exemple, l’instruction d’un robot de chaîne de montage, actuellement engagé dans la tâche X, comme suit :

« Arrêtez de monter X immédiatement : voici une spécification de Y, et voici la plupart de vos anciens et quelques nouveaux effecteurs. Maintenant, commencez à monter Y, en évitant tels types de défauts et de gaspillage. »

Malgré les discussions récentes sur l’arrivée imminente de l’« Intelligence Générale Artificielle » (AGI) via des modèles de langage à grande échelle tels que GPT-3, aucune des approches proposées n’est réellement capable de « fonctionner sur commande ». C’est-à-dire qu’ils ne peuvent pas être chargés de quelque chose de complètement en dehors de leur ensemble de formation sans le temps d’arrêt de la rééducation hors ligne, de la vérification et du redéploiement.

Il est sûrement clair qu’une notion réelle d’intelligence est inextricablement associée à la réactivité au changement. Un système qui reste inchangé – quelle que soit la quantité d’événements imprévus auxquels il est exposé – n’est ni autonome ni intelligent. Cela ne diminue pas les forces indéniables de ces approches d’apprentissage profond (DL), qui ont connu un grand succès en tant que moyen de synthétiser des programmes pour des problèmes difficiles à spécifier explicitement.

Quelle sorte de fonctionnalité de système pourrait permettre à l’IA de dépasser ce paradigme d’entraînement, de gel et de déploiement, vers un qui est capable d’un apprentissage adaptatif ininterrompu ? Considérez le besoin de remplacer un composant défectueux dans un flux de travail de fabrication par un composant d’un fournisseur différent, qui pourrait avoir des tolérances différentes. Avec la modélisation de boîte noire de bout en bout de l’IA contemporaine, le processus de jumeau numérique doit être refait. Pour remédier aux limites des approches contemporaines, un changement radical est requis : un modèle qui peut raisonner directement sur les conséquences d’un changement de composant – et plus généralement des scénarios contre-factuels « et si ». La décomposition d’un flux de travail en composants avec des propriétés connues et les recombinaisons au besoin nécessite ce qu’on appelle la « compositionnalité ».

La compositionnalité a échappé jusqu’à présent à l’IA contemporaine, où elle est souvent confondue avec la notion plus faible de modularité. La modularité est préoccupée par la capacité de « coller » les composants ensemble, mais cela ne parvient pas à capturer l’essence de la compositionnalité, qui est la capacité de raisonner sur le comportement du flux de travail résultant afin de déterminer et d’assurer la préservation d’une propriété souhaitée. Cette capacité est vitale pour des raisons de vérification et de sécurité : par exemple, la capacité du système à raisonner que « l’adoption d’un moteur d’un fabricant alternatif augmentera la puissance globale de l’usine tout en gardant tous les autres composants dans les marges de température ».

Bien que les approches de réseaux de neurones contemporaines excellent dans l’apprentissage des règles à partir des données, elles manquent de raisonnement compositionnel. Plutôt que d’espérer que le raisonnement compositionnel émerge de l’intérieur des architectures de réseaux de neurones, il est possible d’utiliser directement les constructions de la théorie des catégories, l’étude mathématique de la compositionnalité. En particulier, son sous-champ de la cybernétique catégorique est préoccupé par les contrôleurs bidirectionnels comme éléments de représentation fondamentaux. La bidirectionnalité est la capacité de réaliser à la fois l’inférence directe et inverse : la prédiction à partir des causes aux effets et vice versa. L’inférence inverse compositionnelle est particulièrement importante car elle permet l’incorporation de la rétroaction de l’environnement à n’importe quelle échelle de représentation structurelle – cela facilite l’apprentissage rapide à partir d’un petit nombre d’exemples.

Étant donné un comportement de système souhaité, la tâche d’apprentissage est alors de construire une structure de contrôle agrégée qui le satisfait. Les structures initialement apprises agissent comme un squelette pour l’apprentissage ultérieur.

À mesure que les connaissances du système augmentent, ce squelette peut être décoré de propriétés compositionnelles apprises, similaires à la façon dont une molécule d’H2O peut être déterminée pour avoir des propriétés différentes de celles de ses atomes constitutifs. De plus, tout comme « lancer une balle » et « balancer une raquette de tennis » peuvent être considérés comme des actions musculosquelettiques liées pour un humain, des tâches liées peuvent partager une structure de contrôle squelettique qui est embellie de manière spécifique à la tâche via la rétroaction de l’environnement. Cette découplage de la structure causale des spécificités de la tâche peut faciliter l’apprentissage de nouvelles tâches sans l’oubli catastrophique qui caractérise les approches contemporaines. Par conséquent, une approche hybride numérique-symbolique de la forme décrite ci-dessus peut combiner les forces des approches neuronales et symboliques, en ayant à la fois une notion explicite de structure et la capacité d’apprendre de manière adaptative comment les propriétés sont composées. La raison sur les propriétés compositionnelles est ancrée sur une base continue par le travail que le système est actuellement commandé à effectuer.

En conclusion, il est clair qu’une nouvelle approche est requise pour créer des systèmes vraiment autonomes : des systèmes capables d’accommoder des changements importants et/ou d’opérer dans des environnements inconnus. Cela nécessite un apprentissage adaptatif ininterrompu et la généralisation de ce qui est déjà connu. Malgré leur nom, les approches d’apprentissage profond n’ont qu’une représentation superficielle du monde qui ne peut pas être manipulée à un niveau élevé par le processus d’apprentissage. En revanche, nous proposons que les systèmes AGI issus de la prochaine génération intégreront l’apprentissage profond dans une architecture plus large, équipée de la capacité de raisonner directement sur ce qu’ils savent.

La capacité pour un système de raisonner symboliquement sur sa propre représentation confère des avantages importants pour l’industrie : avec une représentation explicitement compositionnelle, le système peut être audité – que ce soit par des humains ou internement par le système lui-même – pour répondre aux exigences vitales de sécurité et d’équité. Alors qu’il y a eu beaucoup de préoccupations académiques concernant le soi-disant x-risk de l’AGI, la focalisation appropriée est plutôt le problème d’ingénierie concrète de reconfiguration d’un système de contrôle tout en conservant ces exigences vitales, un processus que nous appelons l’alignement interactif. Ce n’est qu’à travers l’adoption de ce type de systèmes de contrôle, qui sont fiables et efficaces pour un apprentissage continu, que nous serons en mesure de réaliser la prochaine génération d’autonomie prévue par l’Industrie 5.0.

Dès son plus jeune âge, Bas s'est demandé comment l'intelligence permet de performer de manière compétente malgré des ressources inévitablement insuffisantes. Pour mieux comprendre la rationalité bornée naturelle, ses recherches se sont initialement concentrées sur les émotions artificielles avant de passer à des approches de l'intelligence générale favorables au silicium en tant que postdoc à l'IDSIA, où il a reçu plusieurs prix de meilleur article et une subvention de l'Institut du futur de la vie. À NNAISENSE, Bas dirige les efforts pour développer une intelligence artificielle à usage général.