Connect with us

Artificiell intelligens

Konstgjord nanotrådsnätverk fungerar som hjärna när det stimuleras elektriskt

mm

Forskare vid University of Sydney och Japans nationella institut för materialvetenskap (NIMS) har upptäckt hur man kan göra ett konstgjort nätverk av nanotrådar att fungera på ett hjärnliknande sätt när det stimuleras elektriskt. 

Studien publicerades i Nature Communications

Det internationella teamet leddes av Joel Hochstetter, som var ansluten till professor Zdenka Kuncic och professor Tomonobu Nakayama. 

Teamet fann att de kunde hålla ett nätverk av nanotrådar i ett hjärnliknande tillstånd “vid kaosens rand” för att utföra uppgifter på en optimal nivå. 

Enligt forskarna tyder detta på att den underliggande naturen av neural intelligens är fysisk, och det kan leda till nya utvecklingar inom artificiell intelligens. 

Joel Hochstetter är en doktorand vid University of Sydney Nano Institute och School of Physics och huvudförfattare till artikeln.

“Vi använde trådar som var 10 mikrometer långa och inte tjockare än 500 nanometer, arrangerade slumpmässigt på en tvådimensionell plan,” sa Hochstetter.

“Där trådarna överlappar, bildar de en elektrokemisk ledning, liknande synapserna mellan neuroner,” sa han. “Vi fann att elektriska signaler som sändes genom detta nätverk automatiskt hittade den bästa vägen för att överföra information. Och denna arkitektur tillåter nätverket att ‘komma ihåg’ tidigare vägar genom systemet.”

Testning av nanotrådsnätverket

Forskningsgruppen använde simuleringar för att testa det slumpmässiga nanotrådsnätverket för att lära sig hur det kunde utföra och lösa enkla uppgifter. 

När signalen som stimulerade nätverket var för låg, producerade vägen inte tillräckligt komplexa utdata eftersom de var för förutsägbara. Å andra sidan, om nätverket överbelastades av signalen, var utdatat för kaotiskt.

Detta betydde att den optimala signalen var vid randen av detta kaotiska tillstånd, enligt teamet.

Professor Kuncic är från University of Sydney. 

“Vissa teorier inom neurovetenskap föreslår att den mänskliga hjärnan kan fungera vid randen av kaos, eller vad som kallas det kritiska tillståndet,” sa professor Kuncic. “Vissa neuroforskare tror att det är i detta tillstånd som vi uppnår maximal hjärnprestanda.”

“Det som är så spännande med detta resultat är att det tyder på att dessa typer av nanotrådsnätverk kan ställas in i regimer med olika, hjärnliknande kollektiv dynamik, som kan utnyttjas för att optimera informationsbearbetning,” fortsatte hon. 

Nanotrådsnätverket kan inkorporera minne och operationer i ett enda system tack vare ledningarna mellan trådarna. Detta skiljer sig från standarddatorer, som förlitar sig på separerat minne och operationer. 

“Dessa ledningar fungerar som datortransistorer men med den ytterligare egenskapen att komma ihåg att signaler har färdats den vägen tidigare. Som sådana kallas de ‘memristorer’,” sa Hochstetter.

Minnet är i fysisk form med ledningarna vid korsningspunkterna mellan nanotrådar som fungerar som strömbrytare. Deras beteende beror på historisk respons till elektriska signaler, och när signaler appliceras över ledningarna, aktiveras de som ström flyter genom dem.

“Detta skapar ett minnesnätverk inom det slumpmässiga systemet av nanotrådar,” sa han.

Teamet utvecklade en simulering av det fysiska nätverket för att demonstrera dess förmåga att lösa mycket enkla uppgifter. 

“För denna studie tränade vi nätverket att omvandla en enkel vågform till mer komplexa typer av vågformer,” sa Hochstetter.

Teamet justerade amplituden och frekvensen av den elektriska signalen för att se var den bästa prestandan ägde rum.

“Vi fann att om vi tryckte signalen för långsamt, gjorde nätverket bara samma sak om och om igen utan att lära och utvecklas. Om vi tryckte det för hårt och snabbt, blev nätverket erratiskt och oförutsägbart,” sa han.

Verkliga fördelar

Enligt professor Kuncic, förenar minne och operationer stora fördelar för artificiell intelligens. 

“Algoritmer som behövs för att träna nätverket för att veta vilken ledning som ska tilldelas lämplig ‘börda’ eller vikt av information kräver mycket kraft,” sa hon.

“De system vi utvecklar gör det möjligt att undvika behovet av sådana algoritmer. Vi låter bara nätverket utveckla sin egen viktning, vilket innebär att vi bara behöver oroa oss för signalen in och signalen ut, ett ramverk som kallas ‘reservoarberäkning’. Nätverkets vikter är självadaptiva, vilket potentiellt frigör stora mängder energi.”

Kuncic säger att detta innebär att framtida AI-system som förlitar sig på dessa nätverk kommer att ha mycket lägre energifotavtryck.

Alex McFarland är en AI-journalist och författare som utforskar de senaste utvecklingarna inom artificiell intelligens. Han har samarbetat med många AI-startups och publikationer över hela världen.