Stummel Fortschritte bei Mikrochips bringen uns dem KI-Edge-Computing näher – Unite.AI
Vernetzen Sie sich mit uns

Künstliche Intelligenz

Fortschritte bei Mikrochips bringen uns dem KI-Edge-Computing näher

Aktualisiert on

Forscher der Princeton University haben gemeinsam entwickelte Hardware und Software entwickelt, die die Geschwindigkeit und Effizienz spezialisierter Systeme der künstlichen Intelligenz (KI) weiter steigern soll. 

Naveen Verma ist Professorin für Elektro- und Computertechnik in Princeton und leitet das Forschungsteam.

„Software ist ein entscheidender Teil der Ermöglichung neuer Hardware“, sagte Verma. „Die Hoffnung besteht darin, dass Designer weiterhin dasselbe Softwaresystem verwenden können – und es einfach zehnmal schneller und effizienter arbeitet.“

Die von den Forschern entwickelten Systeme reduzieren den Strombedarf und die Datenmenge, die von entfernten Servern ausgetauscht werden muss. Damit können KI-Anwendungen wie Steuerungssoftware für Drohnen am Rande der Computerinfrastruktur stattfinden. 

Verma ist außerdem Direktorin des Keller Center for Innovation in Engineering Education der Universität. 

„Um KI für den Echtzeit- und oft persönlichen Prozess um uns herum zugänglich zu machen, müssen wir Latenz und Datenschutz angehen, indem wir die Berechnung selbst an den Rand verlagern“, sagte Verma. „Und das erfordert sowohl Energieeffizienz als auch Leistung.“

Neue Chip-Designs

Das Team aus Princeton entwickelte vor zwei Jahren ein neues Chipdesign, das die Leistung neuronaler Netze verbessern sollte. Der Chip könnte zehn- bis hundertmal besser funktionieren als andere Mikrochips auf dem Markt.

„Der größte Nachteil des Chips besteht darin, dass er eine sehr ungewöhnliche und disruptive Architektur verwendet“, sagte Verma im Jahr 2018. „Das muss mit der enormen Menge an Infrastruktur und Designmethodik in Einklang gebracht werden, die wir heute haben und verwenden.“

Der Chip wurde in den nächsten zwei Jahren kontinuierlich weiterentwickelt und ein Softwaresystem geschaffen, das es KI-Systemen ermöglicht, die neue Technologie effizient zu nutzen. Die Idee war, dass die neuen Chips eine Skalierbarkeit der Systeme hinsichtlich Hardware und Softwareausführung ermöglichen könnten.

„Es ist über alle diese Netzwerke hinweg programmierbar“, sagte Verma. „Die Netzwerke können sehr groß sein, aber auch sehr klein.“

Das beste Szenario für die Berechnung besteht darin, dass sie auf der Technologie selbst und nicht auf einem entfernten Netzwerkcomputer stattfindet. Dies erfordert jedoch enorme Mengen an Strom und Speicher, was die Entwicklung eines solchen Systems erschwert. 

Um diese Einschränkungen zu überwinden, haben die Forscher einen Chip entwickelt, der Berechnungen durchführt und Daten im selben Bereich speichert, was als In-Memory-Computing bezeichnet wird. Diese Technik reduziert den Energie- und Zeitaufwand für den Informationsaustausch mit dem dedizierten Speicher. 

Um den für In-Memory-Computing erforderlichen und verfälschungsempfindlichen Analogbetrieb zu umgehen, setzte das Team beim Chipdesign auf Kondensatoren statt auf Transistoren. Kondensatoren unterliegen nicht dem gleichen Effekt durch Spannungsverschiebungen und sind präziser. 

Trotz verschiedener anderer Herausforderungen im Zusammenhang mit analogen Systemen bieten sie viele Vorteile, wenn sie für Anwendungen wie neuronale Netze verwendet werden. Die Forscher versuchen nun, die beiden Arten von Systemen zu kombinieren, da digitale Systeme im Mittelpunkt stehen, während neuronale Netze, die auf analogen Chips basieren, in der Lage sind, schnelle und effiziente Spezialoperationen auszuführen. 

Alex McFarland ist ein KI-Journalist und Autor, der sich mit den neuesten Entwicklungen in der künstlichen Intelligenz beschäftigt. Er hat mit zahlreichen KI-Startups und Publikationen weltweit zusammengearbeitet.