Intelligence Artificielle
Human Brain Project, Intel travaille ensemble pour faire progresser la technologie neuromorphique

Une équipe de chercheurs de l' Human Brain Project (HBP) travaillent avec Intel pour faire progresser la technologie neuromorphique et rapprocher l'IA de l'efficacité énergétique du cerveau humain. La technologie neuromorphique est plus économe en énergie pour les grands réseaux d'apprentissage en profondeur par rapport aux autres systèmes d'IA.
Des chercheurs du HBP et d'Intel ont mené une série d'expériences démontrant cette efficacité. Les expériences impliquaient une nouvelle puce Intel qui s'appuie sur des neurones similaires à ceux du cerveau humain. C'était la première fois que de tels résultats étaient démontrés.
La recherche a été publiée dans Intelligence artificielle de la nature.
Puces Loihi d'Intel
Le groupe s'est concentré sur des algorithmes qui fonctionnent avec des processus temporels, et le système devait répondre à des questions sur une histoire précédemment racontée tout en comprenant les relations entre les objets ou les personnes du contexte. Le matériel se composait de 32 puces Loihi, qui sont les puces de recherche neuronale d'Intel.
Phillip Plank est doctorant à l'Institut d'informatique théorique de TU Graz et employé chez Intel.
"Notre système est ici deux à trois fois plus économique que les autres modèles d'IA", déclare Plank.
Plank pense qu'au fur et à mesure de l'introduction de la nouvelle génération Loihi, elle gagnera en efficacité et améliorera la communication puce à puce énergivore. Les mesures ont montré que la consommation était 1000 fois plus efficace puisqu'il n'y avait pas de potentiels d'action requis qui devaient être envoyés dans les deux sens entre les puces.
Le groupe a reproduit une méthode présumée du cerveau humain.
Wolfgang Maass est directeur de thèse de Philipp Plank et professeur émérite à l'Institut d'informatique théorique.
"Des études expérimentales ont montré que le cerveau humain peut stocker des informations pendant une courte période de temps, même sans activité neuronale, à savoir dans les soi-disant" variables internes "des neurones", explique Maass. "Les simulations suggèrent qu'un mécanisme de fatigue d'un sous-ensemble de neurones est essentiel pour cette mémoire à court terme."
Relier les réseaux d'apprentissage en profondeur
Pour y parvenir, les chercheurs relient deux types de réseaux d'apprentissage en profondeur. Les réseaux neuronaux de rétroaction sont responsables de la «mémoire à court terme» et les modules récurrents filtrent les informations pertinentes possibles du signal d'entrée et les stockent. Un réseau d'anticipation détermine lesquelles des relations trouvées sont importantes pour résoudre la tâche en cours. Les relations qui n'ont pas de sens sont filtrées et les neurones ne se déclenchent que dans les modules où des informations pertinentes ont été trouvées. Tout ce processus est ce qui conduit à des économies d'énergie spectaculaires.
Steve Furber est chef de la division informatique neuromorphique HBP et professeur de génie informatique à l'Université de Manchester.
"Cette avancée rapproche la promesse d'une IA basée sur les événements écoénergétique sur des plateformes neuromorphiques d'une étape importante vers la concrétisation. Le nouveau mécanisme est bien adapté aux systèmes informatiques neuromorphiques tels que Intel Loihi et SpiNNaker qui sont capables de prendre en charge des modèles de neurones à plusieurs compartiments », a déclaré Furber.












