Stumm Human Brain Project, Intel Aarbecht Zesumme fir Neuromorphic Technologie ze förderen - Unite.AI
Connect mat eis

Kënschtlech Intelligenz

Human Brain Project, Intel Aarbecht Zesumme fir Neuromorphic Technologie ze förderen

aktualiséiert on

E Mann vun de Fuerscher an der Human Brain Project (HBP) schaffe mat Intel fir neuromorphesch Technologie ze förderen an AI méi no un d'Energieeffizienz vum mënschleche Gehir ze bréngen. Neuromorphesch Technologie ass méi energieeffizient fir grouss Deep Learning Netzwierker am Verglach mat aneren AI Systemer. 

Fuerscher an der HBP an Intel hunn eng Rei vun Experimenter duerchgefouert, déi dës Effizienz demonstréieren. D'Experimenter hunn en neien Intel Chip involvéiert, deen op Neuronen ähnlech wéi déi am mënschleche Gehir hänkt. Dëst war déi éischte Kéier datt esou Resultater bewisen goufen. 

D'Fuerschung gouf publizéiert an Natur Machine Intelligenz. 

Intel's Loihi Chips

D'Grupp konzentréiert sech op Algorithmen déi mat temporäre Prozesser funktionnéieren, an de System huet Froen iwwer eng virdrun erzielt Geschicht ze beäntweren, während d'Relatiounen tëscht Objeten oder Leit aus dem Kontext versteet. D'Hardware bestoung aus 32 Loihi Chips, déi Intel's neuronal Fuerschungschips sinn. 

De Phillip Plank ass en Doktorand um TU Graz's Institute of Theoretical Computer Science an en Employé bei Intel. 

"Eise System ass zwee bis dräimol méi ekonomesch hei wéi aner AI Modeller," seet de Plank. 

Plank mengt datt wéi déi nei Loihi Generatioun agefouert gëtt, et méi Effizienzgewënn wäert hunn an d'Energieintensiv Chip-zu-Chip Kommunikatioun verbesseren. Miessunge weisen datt de Verbrauch 1000 Mol méi effizient war, well et keng erfuerderlech Handlungspotentialer waren, déi tëscht de Chips zréck an zréck geschéckt goufen. 

D'Grupp reproduzéiert eng presuméiert Method vum mënschleche Gehir. 

De Wolfgang Maass ass dem Philipp Plank säin Doktorat Supervisor a Professer emeritus am Institut fir Theoretesch Informatik. 

"Experimentell Studien hu gewisen datt de mënschleche Gehir Informatioun fir eng kuerz Zäit och ouni neuronal Aktivitéit späichere kann, nämlech a sougenannten 'interne Variablen' vun Neuronen", seet de Maass. "Simulatioune suggeréieren datt e Middegkeetsmechanismus vun engem Ënnerdeel vun Neuronen essentiell ass fir dës kuerzfristeg Erënnerung."

Deep Learning Netzwierker verbannen

Fir dëst z'erreechen, verbannen d'Fuerscher zwou Aarte vu Deep Learning Netzwierker. D'Feedback neuronal Netzwierker si verantwortlech fir "Kuerzfristeg Erënnerung", a widderhuelend Moduler filteren méiglech relevant Informatioun aus dem Input Signal a späicheren se. E Feed-Forward-Netz bestëmmt wéi eng vun de fonnte Bezéiungen wichteg sinn fir déi aktuell Aufgab ze léisen. Relatiounen, déi sënnlos sinn, ginn ausfiltert, an d'Neuronen brennen nëmmen an deene Moduler, wou relevant Informatioun fonnt gouf. Dëse ganze Prozess ass wat zu dramateschen Energiespueren féiert. 

De Steve Furber ass Leader vun der HBP neuromorphic Computing Divisioun an e Professer fir Computer Engineering op der University of Manchester. 

"Dëse Fortschrëtt bréngt d'Versprieche vun energieeffizienten Event-baséierten AI op neuromorphesche Plattformen e wichtege Schrëtt méi no un d'Fruucht. Den neie Mechanismus ass gutt gëeegent fir neuromorphesch Rechensystemer wéi den Intel Loihi a SpiNNaker, déi fäeg sinn Multi-Kompartiment Neuron Modeller z'ënnerstëtzen ", sot de Furber.

Den Alex McFarland ass en AI Journalist a Schrëftsteller deen déi lescht Entwécklungen an der kënschtlecher Intelligenz exploréiert. Hien huet mat villen AI Startups a Publikatiounen weltwäit zesummegeschafft.