Connect with us

Neues System kann künstliche Intelligenz in tragbare Geräte und Haushaltsgeräte bringen

Künstliche Intelligenz

Neues System kann künstliche Intelligenz in tragbare Geräte und Haushaltsgeräte bringen

mm

Ein Team von Forschern am MIT arbeitet daran, tiefes Lernen und neuronale Netze zu Mikrocontrollern zu bringen. Der Fortschritt bedeutet, dass künstliche Intelligenz (KI) in winzige Computerchips in tragbaren medizinischen Geräten, Haushaltsgeräten und den anderen 250 Milliarden Objekten, die das “Internet der Dinge” (IoT) bilden, implementiert werden kann. Das IoT ist ein Netzwerk von physischen Objekten, die mit Sensoren, Software und anderen Technologien ausgestattet sind, die helfen, sie mit anderen Geräten und Systemen zu verbinden und Daten auszutauschen. 

Die Forschung soll auf der Konferenz über neuronale Informationsverarbeitungssysteme im Dezember präsentiert werden. Der Hauptautor der Forschung ist Ji Lin, ein Doktorand in Song Hans Labor im Department of Electrical Engineering and Computer Science des MIT. Co-Autoren sind MITs Han und Yujun Lin, Wei-Ming Chen von MIT und National University Taiwan, und John Cohn und Chuan Gan von dem MIT-IBM Watson Lab. 

MCUNet-System

Das System heißt MCUNet und es entwirft kompakte neuronale Netze, die auf IoT-Geräten extreme Geschwindigkeit und Genauigkeit bieten können, auch bei begrenztem Speicher und Rechenleistung. Dieses System kann energieeffizienter sein und die Datensicherheit erhöhen. 

Das Team entwickelte das “kleine tiefes Lernen”-System, indem es zwei Komponenten kombinierte – den Betrieb von neuronalen Netzen und Mikrocontrollern. Die erste Komponente ist TinyEngine, ein Schnittstellen-Engine, der als Betriebssystem fungiert, indem er die Ressourcenverwaltung leitet. TinyEngine ist optimiert, um eine spezifische neuronale Netzwerkstruktur auszuführen, die von TinyNAS ausgewählt wird, der anderen Komponente. TinyNAS ist ein neuronales Architektursuchalgorithmus. 

Lin entwickelte TinyNAS, weil es schwierig ist, bestehende neuronale Architektursuchtechniken auf winzige Mikrocontroller anzuwenden. Diese bestehenden Techniken finden letztendlich die genaueste und kosteneffizienteste Netzwerkstruktur nach dem Starten mit vielen möglichen Strukturen basierend auf einer vordefinierten Vorlage.

“Es kann ziemlich gut für GPUs oder Smartphones funktionieren”, sagt Lin. “Aber es ist schwierig, diese Techniken direkt auf winzige Mikrocontroller anzuwenden, weil sie zu klein sind.”

TinyNAS kann benutzerdefinierte Netzwerke erstellen. 

“Wir haben viele Mikrocontroller, die mit unterschiedlichen Leistungsfähigkeiten und unterschiedlichen Speichergrößen ausgestattet sind”, sagt Lin. “Also haben wir den Algorithmus [TinyNAS] entwickelt, um den Suchraum für unterschiedliche Mikrocontroller zu optimieren.”

Da TinyNAS benutzerdefiniert werden kann, kann es die besten möglichen kompakten neuronalen Netze für Mikrocontroller generieren. 

“Dann liefern wir das endgültige, effiziente Modell an den Mikrocontroller”, fährt Lin fort.

Ein sauberes und schlankes Schnittstellen-Engine ist erforderlich, damit ein Mikrocontroller das kleine neuronale Netz ausführen kann. Viele Schnittstellen-Engines haben Anweisungen für selten ausgeführte Aufgaben, die einen Mikrocontroller behindern könnten. 

“Es hat kein externes Speicher und es hat keine Festplatte”, sagt Han. “Alles zusammen ist nur ein Megabyte Flash, also müssen wir diese kleinen Ressourcen wirklich sorgfältig verwalten.”

TinyEngine generiert den Code, der zum Ausführen des benutzerdefinierten neuronalen Netzes erforderlich ist, das von TinyNAS entwickelt wurde. Die Kompilierzeit wird durch das Entfernen von totem Code reduziert.

“Wir behalten nur, was wir benötigen”, sagt Han. “Und da wir das neuronale Netz entworfen haben, wissen wir genau, was wir benötigen. Das ist der Vorteil von System-Algorithmus-Code-Design.” 

Tests zeigten, dass der kompilierte Binärcode von TinyEngine 1,9 bis fünf Mal kleiner war als ähnliche Mikrocontroller-Engines, einschließlich der von Google und ARM. Die Spitzen-Speicher-Nutzung wurde auch fast halbiert.

MCUNets Fähigkeit

Die ersten Tests für MCUNet konzentrierten sich auf Bildklassifizierung. Die ImageNet-Datenbank wurde verwendet, um das System mit beschrifteten Bildern zu trainieren, und seine Fähigkeit wurde dann auf neuen Bildern getestet. 

Als MCUNet auf einem kommerziellen Mikrocontroller getestet wurde, klassifizierte es erfolgreich 70,7 Prozent der neuen Bilder. Das ist viel besser als die beste neuronale Netzwerk- und Interferenz-Engine-Kombination, die 54 Prozent genau war.

“Sogar eine 1-Prozent-Verbesserung gilt als signifikant”, sagt Lin. “Also ist dies ein riesiger Sprung für Mikrocontroller-Einstellungen.”

Laut Kurt Keutzer, einem Computerwissenschaftler an der University of California in Berkeley, erweitert dies die Grenzen des tiefen neuronalen Netzwerk-Designs noch weiter in den Bereich der kleinen, energieeffizienten Mikrocontroller. MCUNet könnte “intelligente Computer-Vision-Fähigkeiten sogar in die einfachsten Küchengeräte bringen oder ermöglichen, intelligentere Bewegungssensoren zu ermöglichen.” 

MCUNet verbessert auch die Datensicherheit.  

“Ein wichtiger Vorteil ist die Erhaltung der Privatsphäre”, sagt Han. “Sie müssen die Daten nicht in die Cloud übertragen.”

Durch die Analyse von Daten vor Ort besteht eine geringere Chance, dass persönliche Informationen gefährdet werden. 

Darüber hinaus könnte MCUNet Informationen wie Herzfrequenz, Blutdruck und Sauerstoffgehaltsmessungen analysieren und Einblicke gewähren, tiefes Lernen in IoT-Geräten in Fahrzeugen und anderen Orten mit begrenztem Internetzugang ermöglichen und den Kohlenstoff-Fußabdruck durch die Verwendung nur eines kleinen Bruchteils der Energie, die für große neuronale Netze erforderlich ist, reduzieren.

Alex McFarland ist ein KI-Journalist und Schriftsteller, der die neuesten Entwicklungen im Bereich der künstlichen Intelligenz erforscht. Er hat mit zahlreichen KI-Startups und Veröffentlichungen weltweit zusammengearbeitet.