stub Nowy system może wprowadzić sztuczną inteligencję do urządzeń przenośnych i sprzętu gospodarstwa domowego - Unite.AI
Kontakt z nami

Artificial Intelligence

Nowy system może wprowadzić sztuczną inteligencję do urządzeń przenośnych i sprzętu gospodarstwa domowego

Opublikowany

 on

Zespół naukowców z MIT pracuje nad wprowadzeniem sieci neuronowych głębokiego uczenia do mikrokontrolerów. Postęp oznacza, że ​​sztuczną inteligencję (AI) można wdrożyć w maleńkich chipach komputerowych w przenośnych urządzeniach medycznych, sprzęcie gospodarstwa domowego i pozostałych 250 miliardach obiektów tworzących „internet rzeczy” (IoT). Internet Rzeczy to sieć obiektów fizycznych wyposażonych w czujniki, oprogramowanie i inne technologie, które pomagają łączyć się i wymieniać dane z innymi urządzeniami i systemami. 

Połączenia Badania naukowe ma zostać zaprezentowany na konferencji poświęconej systemom przetwarzania informacji neuronowych w grudniu. Głównym autorem badania jest dr Ji Lin. student w laboratorium Song Hana na Wydziale Elektrotechniki i Informatyki MIT. Współautorami są Han i Yujun Lin z MIT, Wei-Ming Chen z MIT i National University Taiwan oraz John Cohn i Chuan Gan z MIT-IBM Watson Lab. 

System MCUNet

System nazywa się MCUNet i projektuje kompaktowe sieci neuronowe zdolne do ekstremalnej szybkości i dokładności na urządzeniach IoT, nawet przy ograniczonej pamięci i mocy obliczeniowej. System ten może być bardziej energooszczędny i zwiększać bezpieczeństwo danych. 

Zespół opracował system „małego głębokiego uczenia się”, łącząc dwa komponenty – działanie sieci neuronowych i mikrokontrolerów. Pierwszym komponentem jest TinyEngine, silnik interfejsu działający jako system operacyjny, kierujący zarządzaniem zasobami. TinyEngine jest zoptymalizowany do obsługi określonej struktury sieci neuronowej wybranej przez TinyNAS, która jest drugim komponentem. TinyNAS to algorytm wyszukiwania architektury neuronowej. 

Lin opracował TinyNAS ze względu na trudności w zastosowaniu istniejących technik wyszukiwania architektury neuronowej do małych mikrokontrolerów. Te istniejące techniki ostatecznie pozwalają znaleźć najdokładniejszą i najbardziej opłacalną strukturę sieci po rozpoczęciu od wielu możliwych, opartych na wstępnie zdefiniowanym szablonie.

„Może działać całkiem dobrze w przypadku procesorów graficznych i smartfonów” – mówi Lin. „Ale bezpośrednie zastosowanie tych technik w małych mikrokontrolerach było trudne, ponieważ są za małe”.

TinyNAS może tworzyć sieci o niestandardowych rozmiarach. 

„Mamy wiele mikrokontrolerów o różnej mocy i różnych rozmiarach pamięci” – mówi Lin. „Dlatego opracowaliśmy algorytm [TinyNAS], aby zoptymalizować przestrzeń poszukiwań dla różnych mikrokontrolerów”.

Ponieważ TinyNAS można dostosować, może generować najlepsze możliwe kompaktowe sieci neuronowe dla mikrokontrolerów. 

„Następnie dostarczamy ostateczny, wydajny model mikrokontrolera” – kontynuuje Lin.

Aby mikrokontroler mógł uruchomić małą sieć neuronową, wymagany jest przejrzysty i smukły silnik interfejsu. Wiele silników interfejsów ma instrukcje dotyczące rzadko wykonywanych zadań, które mogą utrudniać pracę mikrokontrolera. 

„Nie ma pamięci zewnętrznej ani dysku” – mówi Han. „Wszystko razem to tylko jeden megabajt pamięci flash, dlatego musimy naprawdę ostrożnie zarządzać tak małym zasobem”.

TinyEngine generuje kod potrzebny do uruchomienia dostosowanej sieci neuronowej opracowanej przez TinyNAS. Czas kompilacji jest skracany poprzez odrzucenie martwego kodu.

„Zatrzymujemy tylko to, czego potrzebujemy” – mówi Han. „A ponieważ zaprojektowaliśmy sieć neuronową, wiemy dokładnie, czego potrzebujemy. Oto zaleta współprojektowania algorytmów systemowych.” 

Testy wykazały, że skompilowany kod binarny TinyEngine był od 1.9 do pięciu razy mniejszy niż podobne silniki mikrokontrolerów, w tym te firm Google i ARM. Szczytowe wykorzystanie pamięci również zostało zmniejszone prawie o połowę.

Możliwości MCUNet

Pierwsze testy dla MCUNet dotyczyły klasyfikacji obrazów. Baza danych ImageNet została wykorzystana do nauczenia systemu za pomocą oznaczonych obrazów, a następnie przetestowano jego możliwości na nowatorskich obrazach. 

Kiedy MCUNet był testowany na komercyjnym mikrokontrolerze, pomyślnie sklasyfikował 70.7 procent nowych obrazów. To znacznie lepiej niż w przypadku poprzedniego najlepszego połączenia sieci neuronowej i silnika interferencyjnego, które było dokładne na poziomie 54%.

„Nawet 1-procentowa poprawa jest uważana za znaczącą” – mówi Lin. „Jest to zatem ogromny skok w zakresie ustawień mikrokontrolera”.

Według Kurta Keutzera, informatyka z Uniwersytetu Kalifornijskiego w Berkeley, „jeszcze bardziej poszerza to granice projektowania głębokich sieci neuronowych w dziedzinę obliczeniową małych, energooszczędnych mikrokontrolerów”. MCUNet mógłby „wnieść inteligentne możliwości widzenia komputerowego nawet do najprostszych urządzeń kuchennych lub umożliwić zastosowanie bardziej inteligentnych czujników ruchu”. 

MCUNet zwiększa także bezpieczeństwo danych.  

„Kluczową zaletą jest ochrona prywatności” – mówi Han. „Nie musisz przesyłać danych do chmury.”

Analizując dane lokalnie, ryzyko naruszenia bezpieczeństwa danych osobowych jest mniejsze. 

Poza tym MCUNet może analizować i zapewniać wgląd w informacje takie jak bicie serca, ciśnienie krwi i odczyty poziomu tlenu, zapewniać głębokie uczenie się urządzeniom IoT w pojazdach i innych miejscach z ograniczonym dostępem do Internetu oraz zmniejszać ślad węglowy, wykorzystując jedynie niewielką część energii wymaganej dla dużych sieci neuronowych.

 

Alex McFarland jest dziennikarzem i pisarzem zajmującym się sztuczną inteligencją badającym najnowsze osiągnięcia w dziedzinie sztucznej inteligencji. Współpracował z wieloma startupami i publikacjami AI na całym świecie.