Suivez nous sur

Human Brain Project, Intel travaille ensemble pour faire progresser la technologie neuromorphique

Intelligence Artificielle

Human Brain Project, Intel travaille ensemble pour faire progresser la technologie neuromorphique

mm

Une Ă©quipe de chercheurs de l' Human Brain Project (HBP) travaillent avec Intel pour faire progresser la technologie neuromorphique et rapprocher l'IA de l'efficacitĂ© Ă©nergĂ©tique du cerveau humain. La technologie neuromorphique est plus Ă©conome en Ă©nergie pour les grands rĂ©seaux d'apprentissage en profondeur par rapport aux autres systèmes d'IA. 

Des chercheurs du HBP et d'Intel ont menĂ© une sĂ©rie d'expĂ©riences dĂ©montrant cette efficacitĂ©. Les expĂ©riences impliquaient une nouvelle puce Intel qui s'appuie sur des neurones similaires Ă  ceux du cerveau humain. C'Ă©tait la première fois que de tels rĂ©sultats Ă©taient dĂ©montrĂ©s. 

La recherche a Ă©tĂ© publiĂ©e dans Intelligence artificielle de la nature. 

Puces Loihi d'Intel

Le groupe s'est concentrĂ© sur des algorithmes qui fonctionnent avec des processus temporels, et le système devait rĂ©pondre Ă  des questions sur une histoire prĂ©cĂ©demment racontĂ©e tout en comprenant les relations entre les objets ou les personnes du contexte. Le matĂ©riel se composait de 32 puces Loihi, qui sont les puces de recherche neuronale d'Intel. 

Phillip Plank est doctorant Ă  l'Institut d'informatique thĂ©orique de TU Graz et employĂ© chez Intel. 

"Notre système est ici deux Ă  trois fois plus Ă©conomique que les autres modèles d'IA", dĂ©clare Plank. 

Plank pense qu'au fur et Ă  mesure de l'introduction de la nouvelle gĂ©nĂ©ration Loihi, elle gagnera en efficacitĂ© et amĂ©liorera la communication puce Ă  puce Ă©nergivore. Les mesures ont montrĂ© que la consommation Ă©tait 1000 fois plus efficace puisqu'il n'y avait pas de potentiels d'action requis qui devaient ĂŞtre envoyĂ©s dans les deux sens entre les puces. 

Le groupe a reproduit une mĂ©thode prĂ©sumĂ©e du cerveau humain. 

Wolfgang Maass est directeur de thèse de Philipp Plank et professeur Ă©mĂ©rite Ă  l'Institut d'informatique thĂ©orique. 

"Des études expérimentales ont montré que le cerveau humain peut stocker des informations pendant une courte période de temps, même sans activité neuronale, à savoir dans les soi-disant" variables internes "des neurones", explique Maass. "Les simulations suggèrent qu'un mécanisme de fatigue d'un sous-ensemble de neurones est essentiel pour cette mémoire à court terme."

Relier les réseaux d'apprentissage en profondeur

Pour y parvenir, les chercheurs relient deux types de rĂ©seaux d'apprentissage en profondeur. Les rĂ©seaux neuronaux de rĂ©troaction sont responsables de la «mĂ©moire Ă  court terme» et les modules rĂ©currents filtrent les informations pertinentes possibles du signal d'entrĂ©e et les stockent. Un rĂ©seau d'anticipation dĂ©termine lesquelles des relations trouvĂ©es sont importantes pour rĂ©soudre la tâche en cours. Les relations qui n'ont pas de sens sont filtrĂ©es et les neurones ne se dĂ©clenchent que dans les modules oĂą des informations pertinentes ont Ă©tĂ© trouvĂ©es. Tout ce processus est ce qui conduit Ă  des Ă©conomies d'Ă©nergie spectaculaires. 

Steve Furber est chef de la division informatique neuromorphique HBP et professeur de gĂ©nie informatique Ă  l'UniversitĂ© de Manchester. 

"Cette avancée rapproche la promesse d'une IA basée sur les événements écoénergétique sur des plateformes neuromorphiques d'une étape importante vers la concrétisation. Le nouveau mécanisme est bien adapté aux systèmes informatiques neuromorphiques tels que Intel Loihi et SpiNNaker qui sont capables de prendre en charge des modèles de neurones à plusieurs compartiments », a déclaré Furber.

Alex McFarland est un journaliste et écrivain en IA qui explore les derniers développements en matière d'intelligence artificielle. Il a collaboré avec de nombreuses startups et publications d'IA dans le monde entier.