Intelligence artificielle
Projet Cerveau Humain, Intel Travaillent Ensemble pour Faire Progresser la Technologie Neuromorphique

Une équipe de chercheurs du Projet Cerveau Humain (HBP) travaillent avec Intel pour faire progresser la technologie neuromorphique et rapprocher l’intelligence artificielle de l’efficacité énergétique du cerveau humain. La technologie neuromorphique est plus économe en énergie pour les grands réseaux d’apprentissage profond par rapport aux autres systèmes d’intelligence artificielle.
Les chercheurs du HBP et d’Intel ont mené une série d’expériences démontrant cette efficacité. Les expériences ont impliqué un nouveau circuit Intel qui repose sur des neurones similaires à ceux du cerveau humain. C’était la première fois que de tels résultats étaient démontrés.
La recherche a été publiée dans Nature Machine Intelligence.
Puces Loihi d’Intel
Le groupe s’est concentré sur les algorithmes qui fonctionnent avec des processus temporels, et le système devait répondre à des questions sur une histoire racontée précédemment tout en comprenant les relations entre les objets ou les personnes à partir du contexte. Le matériel se composait de 32 puces Loihi, qui sont les puces de recherche neuronale d’Intel.
Phillip Plank est un étudiant doctorant à l’Institut de l’informatique théorique de la TU Graz et un employé d’Intel.
« Notre système est deux à trois fois plus économique ici que les autres modèles d’intelligence artificielle », déclare Plank.
Plank pense que lorsque la nouvelle génération de puces Loihi sera introduite, elle apportera des gains d’efficacité supplémentaires et améliorera la communication entre les puces, qui est gourmande en énergie. Les mesures ont montré que la consommation était 1000 fois plus efficace, car il n’y avait pas de potentiels d’action qui devaient être envoyés aller et retour entre les puces.
Le groupe a reproduit une méthode présumée du cerveau humain.
Wolfgang Maass est le directeur de thèse de Philipp Plank et professeur émérite à l’Institut de l’informatique théorique.
« Les études expérimentales ont montré que le cerveau humain peut stocker des informations pendant une courte période de temps, même sans activité neuronale, à savoir dans les soi-disant « variables internes » des neurones », déclare Maass. « Les simulations suggèrent qu’un mécanisme de fatigue d’un sous-ensemble de neurones est essentiel pour cette mémoire à court terme. »
Relier les réseaux d’apprentissage profond
Pour y parvenir, les chercheurs relient deux types de réseaux d’apprentissage profond. Les réseaux neuronaux à rétroaction sont responsables de la « mémoire à court terme », et les modules récurrents filtrent les informations pertinentes possibles à partir du signal d’entrée et les stockent. Un réseau feed-forward détermine lesquelles des relations trouvées sont importantes pour résoudre la tâche en cours. Les relations sans importance sont filtrées, et les neurones ne se déclenchent que dans les modules où des informations pertinentes ont été trouvées. Ce processus dans son ensemble est ce qui conduit à des économies d’énergie dramatiques.
Steve Furber est le chef de la division de l’informatique neuromorphique du HBP et professeur de génie informatique à l’Université de Manchester.
« Cette avancée rapproche la promesse d’une intelligence artificielle basée sur les événements et économe en énergie sur les plateformes neuromorphiques d’une réalisation importante. Le nouveau mécanisme est bien adapté aux systèmes de calcul neuromorphique tels que les puces Loihi et SpiNNaker d’Intel, qui peuvent prendre en charge des modèles de neurones multi-compartiments », a déclaré Furber.












