Connect with us

Sztuczna sieć nanodrutowa działa jak mózg, gdy jest stymulowana elektrycznie

Sztuczna inteligencja

Sztuczna sieć nanodrutowa działa jak mózg, gdy jest stymulowana elektrycznie

mm

Naukowcy z Uniwersytetu w Sydney i Japońskiego Narodowego Instytutu Nauki o Materiałach (NIMS) odkryli, jak sprawić, by sztuczna sieć nanodrutowa działała w sposób podobny do mózgu, gdy jest stymulowana elektrycznie.

Badanie zostało opublikowane w Nature Communications.

Międzynarodowy zespół został poprowadzony przez Joela Hochstettera, który został dołączony przez profesora Zdenkę Kuncic i profesora Tomonobu Nakayamę.

Zespół odkrył, że mogą utrzymać sieć nanodrutową w stanie podobnym do mózgu „na granicy chaosu”, aby wykonywać zadania na optymalnym poziomie.

Według badaczy, sugeruje to, że podstawowa natura inteligencji neuronalnej jest fizyczna i może prowadzić do nowych rozwojów w sztucznej inteligencji.

Joel Hochstetter jest kandydatem na stopień doktora w Instytucie Nano Uniwersytetu w Sydney i Szkoły Fizyki oraz głównym autorem artykułu.

“Użyliśmy drutów o długości 10 mikrometrów i nie grubszych niż 500 nanometrów, ułożonych losowo na płaszczyźnie dwuwymiarowej”, powiedział Hochstetter.

“Tam, gdzie druty się nakładają, tworzą elektrochemiczne połączenie, podobne do synaps między neuronami”, powiedział. “Odkryliśmy, że sygnały elektryczne wprowadzane do tej sieci automatycznie znajdują najlepszą trasę do transmisji informacji. A ta architektura pozwala sieci „pamiętać” poprzednie ścieżki w systemie”.

Testowanie sieci nanodrutowej

Zespół badawczy użył symulacji, aby przetestować losową sieć nanodrutową, aby dowiedzieć się, jak może najlepiej wykonywać i rozwiązywać proste zadania.

Gdy sygnał stymulujący sieć był zbyt niski, ścieżka nie produkowała wystarczająco złożonych wyników, ponieważ były zbyt przewidywalne. Z drugiej strony, gdy sieć była przytłoczona sygnałem, wynik był zbyt chaotyczny.

To oznaczało, że optymalny sygnał był na granicy tego stanu chaotycznego, według zespołu.

Profesor Kuncic jest z Uniwersytetu w Sydney.

“Niektóre teorie w neuronaukach sugerują, że ludzki umysł mógłby działać na tej granicy chaosu, czyli w stanie krytycznym”, powiedział profesor Kuncic. “Niektórzy neurobiolodzy uważają, że to w tym stanie osiągamy maksymalną wydajność mózgu”.

“To, co jest tak ekscytujące w tym wyniku, to to, że sugeruje, że tego typu sieci nanodrutowe mogą być dostrojone do reżimów z różnorodnymi, podobnymi do mózgu dynamikami zbiorowymi, które mogą być wykorzystane do optymalizacji przetwarzania informacji”, kontynuowała.

Sieć nanodrutowa jest w stanie uwzględnić pamięć i operacje w jednym systemie dzięki połączeniom między drutami. Jest to inaczej niż w standardowych komputerach, które polegają na oddzielnej pamięci i operacjach.

“Te połączenia działają jak tranzystory komputerowe, ale z dodatkową właściwością pamiętania, że sygnały przeszły tą ścieżką wcześniej. Są one nazywane „memistorami””, powiedział Hochstetter.

Pamięć jest w postaci fizycznej, a połączenia na punktach przecięcia między nanodrutami działają jak przełączniki. Ich zachowanie zależy od historycznej odpowiedzi na sygnały elektryczne, a gdy sygnały są stosowane przez połączenia, są aktywowane, gdy prąd płynie przez nie.

“To tworzy sieć pamięci w losowym systemie nanodrutowym”, powiedział.

Zespół opracował symulację fizycznej sieci, aby zademonstrować jej zdolność do rozwiązywania bardzo prostych zadań.

“W tym badaniu wyszkoliliśmy sieć, aby przekształcić prostą falę w bardziej złożone typy fal”, powiedział Hochstetter.

Zespół dostosował amplitudę i częstotliwość sygnału elektrycznego, aby zobaczyć, gdzie występuje najlepsza wydajność.

“Odkryliśmy, że jeśli pchnie się sygnał zbyt wolno, sieć po prostu robi to samo co i co bez uczenia się i rozwoju. Jeśli pchnie się ją zbyt szybko, sieć staje się chaotyczna i nieprzewidywalna”, powiedział.

Rzeczywiste korzyści

Według profesora Kuncic, łączenie pamięci i operacji ma duże korzyści dla sztucznej inteligencji.

“Algorytmy potrzebne do szkolenia sieci, aby wiedziała, które połączenie powinno być przypisane do odpowiedniej „obciążenia” lub wagi informacji, zużywają dużo mocy”, powiedziała.

“Systemy, które rozwijamy, eliminują potrzebę takich algorytmów. Pozwalamy po prostu sieci na rozwinięcie własnej wagi, co oznacza, że musimy się tylko martwić o sygnał wejściowy i sygnał wyjściowy, co jest ramą znana jako „obliczenia zbiornika”. Wagi sieci są samodostosowujące się, co potencjalnie uwalnia duże ilości energii”.

Kuncic mówi, że oznacza to, że przyszłe systemy AI, które polegają na tych sieciach, będą miały znacznie mniejszy ślad energetyczny.

Alex McFarland jest dziennikarzem i pisarzem zajmującym się sztuczną inteligencją, który bada najnowsze rozwoje w dziedzinie sztucznej inteligencji. Współpracował z licznymi startupami i wydawnictwami związanymi z sztuczną inteligencją na całym świecie.