Connect with us

Vordenker

Das neue Edge-AI-Handbuch: Warum das Training von Modellen gesterns Herausforderung ist

mm

Wir erleben eine anhaltende Expansion von künstlicher Intelligenz, da sie sich von der Cloud zu Edge-Computing-Umgebungen ausbreitet. Mit dem globalen Edge-Computing-Markt, der voraussichtlich 2027 350 Milliarden Dollar erreichen wird, gehen Organisationen schnell von der Konzentration auf das Modelltraining zu der Lösung der komplexen Herausforderungen der Bereitstellung über. Diese Verschiebung hin zu Edge-Computing, federated Learning und verteilter Inferenz verändert, wie künstliche Intelligenz in realen Anwendungen Wert liefert.

Die Evolution der AI-Infrastruktur

Der Markt für AI-Training erlebt ein beispielsloses Wachstum, mit dem globalen künstlichen Intelligenzmarkt, der voraussichtlich 2027 407 Milliarden Dollar erreichen wird. Während dieses Wachstum bisher auf zentrale Cloud-Umgebungen mit gemeinsam genutzten Rechenressourcen konzentriert war, hat sich ein klares Muster herausgebildet: Die eigentliche Transformation findet in der AI-Inferenz statt – wo trainierte Modelle ihr Lernen auf reale Szenarien anwenden.

Jedoch, da Organisationen die Trainingsphase verlassen, hat sich der Fokus auf die Bereitstellung und den Einsatz dieser Modelle verlagert. AI-Inferenz am Edge wird rapide zum Standard für bestimmte Anwendungsfälle, getrieben von praktischen Notwendigkeiten. Während das Training erhebliche Rechenleistung erfordert und typischerweise in Cloud- oder Rechenzentrumsumgebungen stattfindet, ist die Inferenz latency-sensitiv, sodass sie umso besser ist, je näher sie am Ursprung der Daten läuft, um Entscheidungen zu treffen, die schnell getroffen werden müssen. Hier kommt Edge-Computing ins Spiel.

Warum Edge-AI wichtig ist

Die Verschiebung hin zu Edge-AI-Bereitstellung revolutioniert, wie Organisationen künstliche Intelligenzlösungen umsetzen. Mit Prognosen, die zeigen, dass über 75% der von Unternehmen generierten Daten außerhalb traditioneller Rechenzentren erstellt und verarbeitet werden, bietet diese Transformation mehrere kritische Vorteile. Geringe Latenz ermöglicht Echtzeit-Entscheidungen ohne Cloud-Kommunikationsverzögerungen. Darüber hinaus verbessert die Edge-Bereitstellung den Datenschutz, indem sie sensible Daten lokal verarbeitet, ohne die Unternehmenspremises zu verlassen. Der Einfluss dieser Verschiebung geht über diese technischen Überlegungen hinaus.

Branchenanwendungen und Anwendungsfälle

Die Fertigungsindustrie, die voraussichtlich mehr als 35% des Edge-AI-Marktes bis 2030 ausmachen wird, steht als Pionier bei der Edge-AI-Adoption. In diesem Sektor ermöglicht Edge-Computing Echtzeit-Überwachung von Geräten und Prozessoptimierung, was die Ausfallzeit erheblich reduziert und die Betriebs-effizienz verbessert. AI-gestützte prädiktive Wartung am Edge ermöglicht es Herstellern, potenzielle Probleme zu identifizieren, bevor sie teure Ausfälle verursachen. Ebenso hat die Verkehrswirtschaft, insbesondere die Eisenbahnindustrie, Erfolge mit Edge-AI erzielt, die dazu beigetragen haben, den Umsatz durch die Identifizierung effizienterer Mittel- und Kurzstreckenmöglichkeiten und Umschlaglösungen zu steigern.

Computer-Vision-Anwendungen zeigen insbesondere die Vielseitigkeit der Edge-AI-Bereitstellung. Derzeit werden nur 20% des Unternehmensvideos automatisch am Edge verarbeitet, aber dies wird voraussichtlich bis 2030 auf 80% ansteigen. Diese dramatische Verschiebung ist bereits in praktischen Anwendungen erkennbar, von der Lizenzplatten-Erkennung bei Autowaschanlagen bis hin zur PPE-Erkennung in Fabriken und Gesichtserkennung in der Verkehrssicherheit.

Der Versorgungssektor bietet andere überzeugende Anwendungsfälle. Edge-Computing unterstützt die intelligente Echtzeit-Verwaltung kritischer Infrastrukturen wie Strom-, Wasser- und Gasnetze. Die Internationale Energieagentur glaubt, dass die Investitionen in intelligente Netze bis 2030 mehr als verdoppelt werden müssen, um die Klimaziele der Welt zu erreichen, wobei Edge-AI eine entscheidende Rolle bei der Verwaltung verteilter Energiequellen und der Optimierung des Netzbetriebs spielt.

Herausforderungen und Überlegungen

Während Cloud-Computing virtuell unbegrenzte Skalierbarkeit bietet, stellt Edge-Bereitstellung einzigartige Einschränkungen in Bezug auf verfügbare Geräte und Ressourcen dar. Viele Unternehmen arbeiten noch daran, die vollen Auswirkungen und Anforderungen von Edge-Computing zu verstehen.

Organisationen verlagern ihre AI-Verarbeitung zunehmend an den Edge, um mehrere kritische Herausforderungen anzugehen, die in cloud-basierten Inferenzen angelegt sind. Bedenken hinsichtlich der Datenhoheit, Sicherheitsanforderungen und Netzwerkverbindungs-einschränkungen machen Cloud-Inferenz oft für sensible oder zeitkritische Anwendungen unpraktikabel. Die wirtschaftlichen Überlegungen sind ebenso überzeugend – die kontinuierliche Übertragung von Daten zwischen Cloud- und Edge-Umgebungen eliminiert erheblich die Betriebskosten, was die lokale Verarbeitung zu einer attraktiveren Option macht.

Wenn der Markt gereift ist, erwarten wir das Auftauchen umfassender Plattformen, die die Edge-Ressourcen-Bereitstellung und -Verwaltung vereinfachen, ähnlich wie Cloud-Plattformen die zentrale Rechnung vereinfacht haben.

Implementierungsstrategie

Organisationen, die Edge-AI adoptieren möchten, sollten mit einer gründlichen Analyse ihrer spezifischen Herausforderungen und Anwendungsfälle beginnen. Entscheidungsträger müssen umfassende Strategien für die Bereitstellung und die langfristige Verwaltung von Edge-AI-Lösungen entwickeln. Dazu gehört das Verständnis der einzigartigen Anforderungen verteilter Netze und verschiedener Datenquellen und wie sie mit den umfassenderen Geschäftszielen übereinstimmen.

Die Nachfrage nach MLOps-Ingenieuren wächst rapide, da Organisationen die kritische Rolle erkennen, die diese Fachleute bei der Überbrückung der Lücke zwischen Modellentwicklung und operativer Bereitstellung spielen. Wenn die Anforderungen an die AI-Infrastruktur evolvieren und neue Anwendungen möglich werden, ist die Notwendigkeit von Experten, die erfolgreich Machine-Learning-Systeme im großen Maßstab bereitstellen und warten können, immer dringender geworden.

Sicherheitsüberlegungen in Edge-Umgebungen sind besonders kritisch, da Organisationen ihre AI-Verarbeitung auf mehrere Standorte verteilen. Organisationen, die diese Implementierungs-Herausforderungen heute meistern, positionieren sich, um in der AI-getriebenen Wirtschaft von morgen zu führen.

Der Weg vor uns

Das Unternehmens-AI-Landschaft durchläuft eine signifikante Transformation, indem es den Schwerpunkt von Training auf Inferenz verlagert, mit wachsender Konzentration auf nachhaltige Bereitstellung, Kostenoptimierung und verbesserte Sicherheit. Wenn die Edge-Infrastruktur-Adoption beschleunigt wird, sehen wir, wie die Macht von Edge-Computing die Art und Weise verändert, wie Unternehmen Daten verarbeiten, AI bereitstellen und nächste Generationen von Anwendungen aufbauen.

Die Edge-AI-Ära erinnert an die frühen Tage des Internets, als die Möglichkeiten grenzenlos schienen. Heute stehen wir an einer ähnlichen Grenze und beobachten, wie verteilte Inferenz zum neuen Normal wird und Innovationen ermöglicht, die wir gerade erst beginnen zu imaginieren. Diese Transformation wird voraussichtlich einen massiven wirtschaftlichen Einfluss haben – AI wird voraussichtlich 15,7 Billionen Dollar zur globalen Wirtschaft bis 2030 beitragen, wobei Edge-AI eine entscheidende Rolle bei diesem Wachstum spielt.

Die Zukunft von AI liegt nicht nur im Aufbau intelligenterer Modelle, sondern in der intelligenten Bereitstellung, wo sie den größten Wert schaffen kann. Wenn wir voranschreiten, wird die Fähigkeit, Edge-AI effektiv umzusetzen und zu verwalten, zu einem Schlüsseldifferenzierungsmerkmal für erfolgreiche Organisationen in der AI-getriebenen Wirtschaft werden.

Michael Maxey ist der Vice President of Technical Business Development bei ZEDEDA, wo er sich auf den Aufbau und die Umsetzung von go-to-market (GTM)-Strategien mit Kunden und Partnern konzentriert. Maxey ist auch Vorsitzender des LF Edge Governing Board und unterstützt damit Bemühungen um Standardisierung, Empfehlungen für Entwickler und Lösungsbau. Vor seiner Zeit bei ZEDEDA hatte Maxey leitende Positionen im Produktmanagement und in der Unternehmensentwicklung bei verschiedenen Infrastrukturunternehmen wie Dell, Greenplum, Pivotal Software, Smallstep Labs und EMC inne.