Vernetzen Sie sich mit uns

Interviews

Yubei Chen, MitbegrĂŒnder von Aizip Inc – Interviewreihe

mm

Veröffentlicht

 on

Yubei Chen ist MitbegrĂŒnder von Aizip Inc., einem Unternehmen, das die weltweit kleinsten und effizientesten KI-Modelle entwickelt. Er ist außerdem Assistenzprofessor im ECE-Department der University of California, Davis. Chens Forschung bewegt sich an der Schnittstelle von Computational Neuroscience und tiefem unĂŒberwachtem (selbstĂŒberwachtem) Lernen. Sie erweitert unser VerstĂ€ndnis der Rechenprinzipien des unĂŒberwachten ReprĂ€sentationslernens in Gehirnen und Maschinen und verĂ€ndert unsere Erkenntnisse zur natĂŒrlichen Signalstatistik.

Bevor Chen an die UC Davis kam, absolvierte er sein Postdoc-Studium bei Prof. Yann LeCun am NYU Center for Data Science (CDS) und Meta Fundamental AI Research (FAIR). Seine Promotion schloss er am Redwood Center for Theoretical Neuroscience and Berkeley AI Research (BAIR) der UC Berkeley unter der Leitung von Prof. Bruno Olshausen ab.

Aizip entwickelt hocheffiziente KI-Lösungen, optimiert fĂŒr Edge-GerĂ€te, und bietet kompakte Modelle fĂŒr Anwendungen in den Bereichen Bildverarbeitung, Audio, Zeitreihen, Sprache und Sensorfusion. Die Produkte ermöglichen Aufgaben wie Gesichts- und Objekterkennung, Keyword-Spotting, EKG/EEG-Analyse und On-Device-Chatbots, alles basierend auf TinyML. Mit seiner KI-Nanofabrik-Plattform Aizipline beschleunigt das Unternehmen die Modellentwicklung mithilfe von Basis- und generativen Modellen und strebt so eine vollstĂ€ndige Automatisierung des KI-Designs an. Die Gizmo-Reihe kleiner Sprachmodelle (300 Mio.–2 Mrd. Parameter) von Aizip unterstĂŒtzt eine breite GerĂ€tepalette und bringt intelligente Funktionen an den Rand.

Sie haben Ihren Postdoc bei Yann LeCun an der NYU und Meta FAIR absolviert. Wie haben die Zusammenarbeit mit ihm und Ihre Forschung an der UC Berkeley Ihren Ansatz zur Entwicklung praxistauglicher KI-Lösungen geprÀgt?

In Berkeley war meine Arbeit tief in wissenschaftlicher Forschung und mathematischer Genauigkeit verwurzelt. Meine Doktorarbeit, die Elektrotechnik, Informatik und Computational Neuroscience kombinierte, konzentrierte sich auf das VerstÀndnis von KI-Systemen aus einer White-Box-Perspektive bzw. die Entwicklung von Methoden zur Aufdeckung der zugrunde liegenden Strukturen von Daten und Lernmodellen. Ich arbeitete an der Entwicklung interpretierbarer, leistungsstarker KI-Modelle und Visualisierungstechniken, die dazu beitrugen, Black-Box-KI-Systeme zu öffnen.

Bei Meta FAIR lag der Schwerpunkt auf der Entwicklung von KI-Systemen, um modernste Leistung im großen Maßstab zu erreichen. Mit Zugang zu erstklassigen Rechenressourcen erkundete ich die Grenzen des selbstĂŒberwachten Lernens und trug zu dem bei, was wir heute „Weltmodelle“ nennen – KI-Systeme, die aus Daten lernen und sich mögliche Umgebungen vorstellen. Diese doppelte Erfahrung – wissenschaftliches VerstĂ€ndnis in Berkeley und ingenieursgetriebene Skalierung bei Meta – hat mir eine umfassende Perspektive auf die KI-Entwicklung eröffnet. Sie verdeutlichte, wie wichtig sowohl theoretische Erkenntnisse als auch die praktische Umsetzung bei der Entwicklung von KI-Lösungen fĂŒr reale Anwendungen sind.

Ihre Arbeit verbindet Computational Neuroscience mit KI. Wie beeinflussen Erkenntnisse der Neurowissenschaft Ihre Entwicklung von KI-Modellen?

In der Computational Neuroscience untersuchen wir, wie das Gehirn Informationen verarbeitet, indem wir seine Reaktionen auf verschiedene Reize messen. Ähnlich wie wir KI-Modelle untersuchen, um ihre internen Mechanismen zu verstehen. Zu Beginn meiner Karriere entwickelte ich Visualisierungstechniken zur Analyse von Wort-Embeddings – ich zerlegte Wörter wie „Apfel“ in ihre semantischen Bestandteile wie „Obst“ und „Technologie“. SpĂ€ter wurde dieser Ansatz auf komplexere KI-Modelle wie Transformatoren und große Sprachmodelle ausgeweitet, die dazu beitrugen, aufzudecken, wie diese Modelle Wissen verarbeiten und speichern.

Diese Methoden Ă€hneln Techniken der Neurowissenschaft, wie etwa dem Einsatz von Elektroden oder fMRT zur Untersuchung der GehirnaktivitĂ€t. Die Untersuchung der internen ReprĂ€sentationen eines KI-Modells ermöglicht es uns, seine Denkstrategien zu verstehen und emergente Eigenschaften zu erkennen, wie etwa Konzeptneuronen, die bei bestimmten Ideen aktiviert werden (wie etwa das Merkmal der Golden Gate Bridge). Anthropisch gefunden beim Kartieren von Claude). Diese Forschungsrichtung ist in der Branche mittlerweile weit verbreitet, da sie nachweislich sowohl Interpretierbarkeit als auch praktische Interventionen ermöglicht und Verzerrungen aus Modellen beseitigt. Neurowissenschaftlich inspirierte AnsĂ€tze helfen uns also im Wesentlichen dabei, KI erklĂ€rbarer, vertrauenswĂŒrdiger und effizienter zu machen.

Was hat Sie dazu inspiriert, Aizip mitzugrĂŒnden? Können Sie uns den Weg von der Idee bis zur FirmengrĂŒndung schildern?

Als KI-Grundlagenforscher war ein Großteil meiner Arbeit theoretisch, doch ich wollte die LĂŒcke zwischen Forschung und realer Anwendung schließen. Ich war MitbegrĂŒnder von Aizip, um innovative KI-Innovationen in die Praxis umzusetzen, insbesondere in ressourcenbeschrĂ€nkten Umgebungen. Anstatt große Basismodelle zu entwickeln, konzentrierten wir uns auf die Entwicklung der weltweit kleinsten und effizientesten KI-Modelle, die fĂŒr Edge-GerĂ€te optimiert sind.

Die Reise begann im Wesentlichen mit einer wichtigen Beobachtung: WĂ€hrend die KI-Entwicklung rasant zunahm, erforderten reale Anwendungen oft schlanke und hocheffiziente Modelle. Wir sahen die Chance, einen neuen Weg einzuschlagen, der wissenschaftliche Genauigkeit mit praktischer Anwendung verbindet. Durch die Nutzung von Erkenntnissen aus selbstĂŒberwachtem Lernen und kompakten Modellarchitekturen konnte Aizip KI-Lösungen liefern, die effizient am Edge arbeiten und neue Möglichkeiten fĂŒr KI in eingebetteten Systemen, im IoT und darĂŒber hinaus eröffnen.

Aizip ist auf kleine KI-Modelle fĂŒr Edge-GerĂ€te spezialisiert. Welche MarktlĂŒcke haben Sie erkannt, die zu dieser Fokussierung gefĂŒhrt hat?

Die KI-Branche konzentriert sich weitgehend auf die Skalierung von Modellen, doch reale Anwendungen erfordern oft das Gegenteil: hohe Effizienz, geringen Stromverbrauch und minimale Latenz. Viele KI-Modelle sind heute zu rechenintensiv fĂŒr den Einsatz auf kleinen, eingebetteten GerĂ€ten. Wir haben eine MarktlĂŒcke fĂŒr KI-Lösungen entdeckt, die trotz extremer RessourcenbeschrĂ€nkungen eine hohe Leistung liefern.

Wir haben erkannt, dass es nicht nur unnötig ist, jede KI-Anwendung auf riesigen Modellen laufen zu lassen, sondern dass es auch nicht skalierbar wĂ€re, sich fĂŒr alles auf Modelle dieser GrĂ¶ĂŸe zu verlassen. Stattdessen konzentrieren wir uns auf die Optimierung von Algorithmen, um maximale Effizienz bei gleichbleibender Genauigkeit zu erreichen. Durch die Entwicklung maßgeschneiderter KI-Modelle fĂŒr Edge-Anwendungen – ob in intelligenten Sensoren, Wearables oder der industriellen Automatisierung – ermöglichen wir KI dort, wo herkömmliche Modelle unpraktisch wĂ€ren. Unser Ansatz macht KI zugĂ€nglicher, skalierbarer und energieeffizienter und eröffnet neue Möglichkeiten fĂŒr KI-getriebene Innovationen jenseits der Cloud.

Aizip war fĂŒhrend bei der Entwicklung von Small Language Models (SLMs). Wie sehen Sie die Konkurrenz oder ErgĂ€nzung von SLMs zu grĂ¶ĂŸeren Modellen wie GPT-4?

SLMs und grĂ¶ĂŸere Modelle wie GPT-4 stehen nicht unbedingt in direkter Konkurrenz, da sie unterschiedliche Anforderungen erfĂŒllen. GrĂ¶ĂŸere Modelle sind leistungsstark in Bezug auf Generalisierung und tiefgreifende Schlussfolgerungen, benötigen aber erhebliche Rechenressourcen. SLMs sind auf Effizienz und den Einsatz auf stromsparenden Edge-GerĂ€ten ausgelegt. Sie ergĂ€nzen große Modelle, indem sie KI-Funktionen in realen Anwendungen ermöglichen, bei denen Rechenleistung, Latenz und KostenbeschrĂ€nkungen eine Rolle spielen – beispielsweise bei IoT-GerĂ€ten, Wearables und der industriellen Automatisierung. Mit der zunehmenden Verbreitung von KI entsteht ein hybrider Ansatz, bei dem große, cloudbasierte Modelle komplexe Abfragen verarbeiten, wĂ€hrend SLMs lokalisierte Echtzeit-Intelligenz am Edge bereitstellen.

Was sind die grĂ¶ĂŸten technischen Herausforderungen, um KI-Modelle effizient genug fĂŒr Edge-GerĂ€te mit geringem Stromverbrauch zu machen?

Eine der grundlegenden Herausforderungen ist das fehlende umfassende theoretische VerstĂ€ndnis der Funktionsweise von KI-Modellen. Ohne eine klare theoretische Grundlage sind OptimierungsbemĂŒhungen oft empirisch, was Effizienzgewinne begrenzt. DarĂŒber hinaus erfolgt menschliches Lernen auf vielfĂ€ltige Weise, die aktuelle Paradigmen des maschinellen Lernens nicht vollstĂ€ndig erfassen. Dies erschwert die Entwicklung von Modellen, die die menschliche Effizienz nachahmen.

Aus technischer Sicht erfordert es innovative Lösungen in den Bereichen Modellkomprimierung, Quantisierung und Architekturdesign, um KI unter extremen Bedingungen arbeiten zu lassen. Eine weitere Herausforderung besteht darin, KI-Modelle zu entwickeln, die sich an eine Vielzahl von GerĂ€ten und Umgebungen anpassen und gleichzeitig robust bleiben. Da KI zunehmend ĂŒber IoT und Sensoren mit der physischen Welt interagiert, wird der Bedarf an natĂŒrlichen und effizienten Schnittstellen – wie Sprache, Gesten und anderen nicht-traditionellen Eingaben – immer wichtiger. KI am Edge definiert die nahtlose Interaktion von Nutzern mit der digitalen Welt neu.

Können Sie uns einige Einzelheiten zur Arbeit von Aizip mit Unternehmen wie Softbank mitteilen?

Wir haben kĂŒrzlich mit SoftBank an einem Aquakulturprojekt zusammengearbeitet, das mit einem CES Innovation Award ausgezeichnet wurde – worauf wir besonders stolz sind. Wir haben ein effizientes, Edge-basiertes KI-Modell fĂŒr eine FischzĂ€hlanwendung entwickelt, die von Aquakulturbetreibern fĂŒr Fischfarmen eingesetzt werden kann. Diese Lösung adressiert eine kritische Herausforderung in der Fischzucht, die letztlich zu Nachhaltigkeitsproblemen, Lebensmittelverschwendung und RentabilitĂ€tsproblemen fĂŒhren kann. Die Branche hat KI als Lösung aufgrund der unzuverlĂ€ssigen Stromversorgung und KonnektivitĂ€t auf See nur langsam eingefĂŒhrt, was cloudbasierte KI-Lösungen unpraktisch macht.

Um dieses Problem zu lösen, entwickelten wir eine gerĂ€tebasierte Lösung. Wir kombinierten die Computergrafiksimulationen von SoftBank fĂŒr Trainingsdaten mit unseren kompakten KI-Modellen und schufen so ein hochprĂ€zises System, das auf Smartphones lĂ€uft. In Unterwasser-Feldtests erreichte es eine Erkennungsrate von 95 %, was die Genauigkeit der FischzĂ€hlung deutlich verbesserte. Dies ermöglichte es den Landwirten, die Lagerbedingungen zu optimieren, zu entscheiden, ob Fische lebend oder gefroren transportiert werden sollten, und potenzielle Krankheiten oder andere gesundheitliche Probleme bei den Fischen zu erkennen.

Dieser Durchbruch steigert die Effizienz, senkt die Kosten und reduziert die AbhÀngigkeit von manueller Arbeit. Im weiteren Sinne zeigt er, wie KI konkrete Auswirkungen auf reale Probleme haben kann.

Aizip hat das Konzept einer „KI-Nanofabrik“ vorgestellt. Können Sie erklĂ€ren, was das bedeutet und wie es die Entwicklung von KI-Modellen automatisiert?

Die AI Nanofactory ist unsere interne KI-Design-Automatisierungspipeline, inspiriert von der Electronic Design Automation (EDA) in der Halbleiterfertigung. Die frĂŒhe Entwicklung in jedem aufstrebenden Technologiefeld erfordert viel manuellen Aufwand. Daher ist Automatisierung der SchlĂŒssel zur Beschleunigung des Fortschritts und zur Skalierung von Lösungen mit zunehmender Reife des Feldes.

Anstatt KI einfach nur zur Beschleunigung anderer Branchen einzusetzen, fragten wir uns: Kann KI ihre eigene Entwicklung beschleunigen? Die AI Nanofactory automatisiert jede Phase der KI-Modellentwicklung – von der Datenverarbeitung ĂŒber Architekturdesign, Modellauswahl, Training, Quantisierung, Bereitstellung bis hin zum Debugging. Durch die Nutzung der KI zur Selbstoptimierung konnten wir die Entwicklungszeit fĂŒr neue Modelle durchschnittlich um den Faktor 10 reduzieren. In manchen FĂ€llen sogar um mehr als das 1,000-Fache. Das bedeutet, dass ein Modell, dessen Entwicklung frĂŒher ĂŒber ein Jahr dauerte, heute in nur wenigen Stunden erstellt werden kann.

Ein weiterer Vorteil besteht darin, dass diese Automatisierung auch sicherstellt, dass KI-Lösungen fĂŒr eine breite Palette von Anwendungen wirtschaftlich rentabel sind, wodurch der KI-Einsatz in der realen Welt zugĂ€nglicher und skalierbarer wird.

Wie wird sich Ihrer Meinung nach die Rolle der Edge-KI in den nĂ€chsten fĂŒnf Jahren entwickeln?

Edge-KI verspricht, die Art und Weise, wie wir mit Technologie interagieren, zu verĂ€ndern, Ă€hnlich wie Smartphones den Internetzugang revolutioniert haben. Die meisten KI-Anwendungen sind heute Cloud-basiert, doch dieser Wandel beginnt sich zu vollziehen, da KI immer nĂ€her an die Sensoren und GerĂ€te heranrĂŒckt, die mit der physischen Welt interagieren. Dieser Wandel unterstreicht den dringenden Bedarf an effizienter Echtzeitverarbeitung am Edge.

Wir erwarten, dass Edge-KI in den nĂ€chsten fĂŒnf Jahren natĂŒrlichere Mensch-Computer-Interaktionen ermöglichen wird, beispielsweise durch Sprach- und Gestenerkennung und andere intuitive Schnittstellen. Dadurch werden traditionelle Barrieren wie Tastaturen und Touchscreens ĂŒberflĂŒssig. KI wird voraussichtlich auch stĂ€rker in Alltagsumgebungen wie Smart Homes oder die industrielle Automatisierung integriert, um Echtzeit-Entscheidungen mit minimaler Latenz zu ermöglichen.

Ein weiterer wichtiger Trend wird die zunehmende Autonomie von Edge-KI-Systemen sein. KI-Modelle werden dank Fortschritten in der Automatisierung im Stil von KI-Nanofabriken selbstoptimierender und anpassungsfÀhiger, sodass der Bedarf an menschlichem Eingreifen bei Bereitstellung und Wartung reduziert wird. Dies eröffnet neue Möglichkeiten in verschiedenen Branchen wie dem Gesundheitswesen, der Automobilindustrie und der Landwirtschaft.

Auf welche kommenden KI-gestĂŒtzten GerĂ€te von Aizip freuen Sie sich am meisten?

Wir arbeiten daran, die AnwendungsfĂ€lle unserer Modelle auf neue Branchen auszuweiten. Besonders spannend ist dabei ein KI-Agent fĂŒr die Automobilbranche. Insbesondere bei chinesischen Automobilherstellern wĂ€chst die Dynamik bei der Entwicklung sprachbasierter Sprachassistenten, die sich im Fahrzeuginnenraum eher wie ChatGPT anfĂŒhlen. Die Herausforderung besteht darin, dass die meisten aktuellen Assistenten, insbesondere fĂŒr natĂŒrliche, flexible Dialoge, immer noch auf die Cloud angewiesen sind. Nur grundlegende Befehls- und Steuerungsaufgaben (wie „Klimaanlage einschalten“ oder „Kofferraum öffnen“) werden typischerweise lokal im Fahrzeug ausgefĂŒhrt. Die starre Natur dieser Befehle kann Fahrer ablenken, wenn sie diese nicht perfekt auswendig gelernt haben.

Wir haben eine Reihe hocheffizienter, SLM-basierter KI-Agenten namens Gizmo entwickelt, die bereits in verschiedenen Branchen zum Einsatz kommen. Wir arbeiten daran, sie auch als „Co-Piloten“ in der Fahrzeugkabine einzusetzen. Gizmo ist darauf trainiert, Absichten differenzierter zu verstehen und könnte als KI-Agent eines Fahrzeugs Befehle in freier, umgangssprachlicher Sprache ausfĂŒhren. Beispielsweise könnte der Agent die Temperatur im Innenraum anpassen, wenn der Fahrer einfach sagt: „Mir ist kalt“, oder auf eine Aufforderung wie „Ich fahre morgen nach Boston, was soll ich anziehen?“ reagieren, indem er das Wetter prĂŒft und einen Vorschlag macht.

Da sie lokal laufen und nicht von der Cloud abhĂ€ngig sind, funktionieren diese Agenten auch in Funklöchern oder Gebieten mit schlechter Verbindung, wie Tunneln, Bergen oder Landstraßen. Sie erhöhen zudem die Sicherheit, indem sie den Fahrern die vollstĂ€ndige sprachbasierte Steuerung ermöglichen, ohne dass sie ihre Aufmerksamkeit von der Straße abwenden mĂŒssen. Nebenbei bemerkt, möchte ich noch erwĂ€hnen, dass wir gerade ein KI-gestĂŒtztes Karaoke-Modell fĂŒr Fahrzeuge und Bluetooth-Lautsprecher in Produktion bringen, das lokal wie der Copilot lĂ€uft. Im Grunde nimmt es beliebige Audio-Eingaben auf und entfernt menschliche Stimmen, wodurch sich in Echtzeit eine Karaoke-Version jedes beliebigen Songs erstellen lĂ€sst. Wir helfen unseren Kunden also nicht nur dabei, die Steuerung im Auto sicherer zu gestalten, sondern suchen auch nach Möglichkeiten, das Erlebnis unterhaltsamer zu gestalten.

Auf diese Art von Lösungen, die den Alltag der Menschen spĂŒrbar verbessern, sind wir am meisten stolz.

Aizip entwickelt hocheffiziente KI-Lösungen, optimiert fĂŒr Edge-GerĂ€te, und bietet kompakte Modelle fĂŒr Anwendungen in den Bereichen Bildverarbeitung, Audio, Zeitreihen, Sprache und Sensorfusion. Die Produkte ermöglichen Aufgaben wie Gesichts- und Objekterkennung, Keyword-Erkennung, EKG-/EEG-Analyse und On-Device-Chatbots – alles basierend auf TinyML. Mit seiner KI-Nanofabrik-Plattform Aizipline beschleunigt das Unternehmen die Modellentwicklung mithilfe von Basis- und generativen Modellen und strebt so eine vollstĂ€ndige Automatisierung des KI-Designs an. Die Gizmo-Reihe kleiner Sprachmodelle (300 Mio.–2 Mrd. Parameter) von Aizip unterstĂŒtzt eine breite GerĂ€tepalette und bringt intelligente Funktionen an den Rand.

Vielen Dank fĂŒr das tolle Interview, Leser, die mehr erfahren möchten, sollten vorbeischauen Aizip

Antoine ist ein visionĂ€rer Leiter und GrĂŒndungspartner von Unite.AI, angetrieben von einer unerschĂŒtterlichen Leidenschaft fĂŒr die Gestaltung und Förderung der Zukunft von KI und Robotik. Als Serienunternehmer glaubt er, dass KI fĂŒr die Gesellschaft ebenso umwĂ€lzend sein wird wie ElektrizitĂ€t, und schwĂ€rmt oft vom Potenzial disruptiver Technologien und AGI.

Als Futuristwidmet er sich der Erforschung, wie diese Innovationen unsere Welt prĂ€gen werden. DarĂŒber hinaus ist er der GrĂŒnder von Wertpapiere.io, eine Plattform, deren Schwerpunkt auf Investitionen in Spitzentechnologien liegt, die die Zukunft neu definieren und ganze Branchen umgestalten.