Connect with us

Der AI-Boom hat ein entscheidendes Mittel erreicht: Was Unternehmen wissen müssen

Vordenker

Der AI-Boom hat ein entscheidendes Mittel erreicht: Was Unternehmen wissen müssen

mm

Junior High war nie die beste Zeit für jemanden – aber wir alle mussten durch diese Phase, mit all den Wachstumsschmerzen, um eine bessere, reifere Version von uns selbst zu erreichen.

Der aktuelle AI-Boom ist in eine Art eigene turbulente Adoleszenz eingetreten, etwas, das Experten als das chaotische Mittelfeld zwischen Adoption und Reife bezeichnen. Die anfängliche Euphorie ist verflogen, und nun konzentrieren sich Organisationen darauf, AI wirklich operativ zu machen. Aber AI wird in einer schwierigen Zeit erwachsen. Prognosen sind überall, Skepsis ist hoch bei Unternehmen und Verbrauchern gleichermaßen, und die Rede von einer expandierenden AI-Blase hat Unternehmensführer am Rande, wartend auf den gefürchteten Plopp.

In diesem entscheidenden Moment müssen Organisationen das Signal vom Rauschen trennen – ob sie ihre Bemühungen von Experimenten zu praktischen Anwendungen umstellen oder praktische Anwendungen auf operative Ubiquität skalieren. Dazu ist es erforderlich, sich auf greifbare Faktoren zu konzentrieren, die sie kontrollieren können, wie ihre Infrastruktur und Datenbereitschaft; Ergebnisse messen; und die Grundlage für die Skalierung schaffen.

Der infrastrukturorientierte Ansatz

Eine wahre AI-Bereitschaft erfordert die richtige Infrastruktur, um die nachhaltige Bereitstellung von AI-Workloads zu unterstützen. Natürlich hat AI den Bedarf an Cloud-Diensten gesteigert: Cloud-Ausgaben sollen in diesem Jahr um 40% steigen, wobei die Infrastruktur den teuersten Posten im Budget bildet und neue Rechenzentren auf jedem Kontinent entstehen, um den wachsenden Bedarf an AI-Rechenleistung zu decken. An diesem AI-Inflection-Punkt sind Infrastrukturentscheidungen existenziell. Die Infrastruktur definiert, was sicher ist, was möglich ist und was dem Unternehmen tatsächlich zugutekommt, anstatt einen Ressourcenabfluss zu verursachen.

Eine nachhaltige Infrastruktur wird durch mehr als nur Kosten und Gesamtrechenleistung definiert. Wenn Organisationen bestimmen, wo und wie sie ihre AI-Workloads hosten, müssen sie Fragen der Ressourceneffizienz, Sicherheit, Sichtbarkeit und des Gesamtpreis-Leistungs-Verhältnisses berücksichtigen. AI-Infrastruktur kann nicht in einem einzigen Investitionsschritt erfolgen, sondern muss ein laufender Prozess sein, der sich an die Anforderungen jedes Projekts anpassen kann.

Es ist ein deutlicher Abschied von den historischen Ansätzen für Cloud-Ausgaben. Bevor der aktuelle AI-Boom einsetzte, verließen sich Organisationen oft auf einen einzigen Cloud-Dienstleister – typischerweise einen Hyperscaler –, um ihre cloud-basierten Operationen zu hosten. Jetzt fordert die Komplexität und Vielfalt von AI-Workloads dieses Modell heraus, insbesondere wenn Unternehmen zu praktischeren Einsatzfällen übergehen und alternative Clouds entstehen, um den Bedarf zu decken.

Moderne AI-Initiativen erfordern erhebliche Rechenleistung, die die Big 3 gut bereitstellen können. Die Risse beginnen zu zeigen, wenn all diese Leistung zu viel wird. Hyperscaler-Verträge können kostspielig sein, aufgebläht mit unnötigen Add-ons und bieten möglicherweise nicht den erforderlichen Datenschutz und die erforderliche Residenz für hochsensible Projekte.

Anstatt ihre Cloud-Operationen an einen einzigen Anbieter zu binden, können Unternehmen von einer wachsenden Klasse von Alternativen profitieren, um ihre eigenen Stacks über verschiedene Anbieter, GPU-Typen und öffentliche/privaten Cloud-Setup hinweg zu komponieren, basierend auf ihren spezifischen Bedürfnissen. Auf diese Weise zahlen sie nicht für Funktionen, die sie nicht benötigen, während sie gleichzeitig ihre Clouds für das anpassen, was sie benötigen.

Ein infrastrukturorientierter Ansatz, um die AI-Reife zu erreichen, besteht darin, eine stabile Grundlage für die Skalierung zu schaffen, die Effizienz und Nützlichkeit maximiert, ohne auf Leistung zu verzichten.

Von Experimenten zu Anwendungen

In den letzten Jahren haben Unternehmen auf der ganzen Welt experimentiert, um herauszufinden, wie sie AI in ihre Betriebe integrieren können. Getrieben von Neugier und nicht geringer Hype, haben sie die Grenzen der Innovation vorangetrieben, neue Möglichkeiten für Effizienz freigeschaltet und das Potenzial unzähliger Open-Source-Tools und -Modelle gehoben. Sie sind auch mit der Realität kollidiert, indem sie gelernt haben, dass die Philosophie von Silicon Valley “schnell vorankommen und Dinge brechen” nicht immer der richtige Weg ist, insbesondere wenn es um eine so mächtige Technologie wie AI geht.

Jetzt, da Unternehmen aus dieser Experimentierphase herauskommen, ist Scheitern keine Option. Genauigkeit ist entscheidend. Leistung kann nicht nachlassen. Wenn Unternehmen ihre Kerngeschäftsprozesse auf einem AI-Rahmen neu aufbauen, müssen sie sich auf die “langweiligen” Teile konzentrieren, die AI von einem kreativen Experiment zu einem Multiplikator machen, einschließlich:

  • Datensicherheit und Datenschutz: Viele AI-Modelle verwenden sensible personenbezogene und Geschäftsdaten, um effektiv zu funktionieren. Organisationen benötigen die Gewissheit, dass ihre Daten sicher gehostet werden, ohne das Risiko einer unbefugten Replikation oder “dunkler AI”-Exposition.
  • Modell-Lebenszyklus-Management: Modelle müssen genau, up-to-date und regelmäßig neu trainiert werden, um kritische Geschäftsprozesse zu unterstützen.
  • Leistungsbeständigkeit: Obwohl Modelle für interne Nutzung oder in kundenorientierten Betrieben bereitgestellt werden, ist die Gewährleistung einer konsistenten Leistung für Effizienz und Benutzerfreundlichkeit entscheidend. Viele häufige Leistungsprobleme, wie etwa solche im Zusammenhang mit Latenz und Ausfallzeiten, werden auf Infrastrukturebene gelöst.

Im Moment setzen nur 37% der Organisationen neue generative Modelle monatlich, wöchentlich oder täglich bereit. Wenn mehr Organisationen in die Anwendungsphase übergehen, wird dieser Prozentsatz dramatisch ansteigen und einen größeren Bedarf an Rechenleistung, aber auch an Infrastruktur, die auf bestimmte Modelle zugeschnitten ist, erzeugen. Ein “leichtes” Modell benötigt keine Hyperscaler-Grundlage, aber wenn es sensible Informationen verwendet, benötigt es möglicherweise diesen Sicherheitsgrad. Hier kommen benutzerdefinierte Clouds ins Spiel – und warum Infrastruktur die primäre Überlegung bei einem Unternehmens-AI-Wechsel sein sollte.

Von Anwendungen zur Skalierung

Für Unternehmen, die weiter entlang der Reifekurve sind, ist die praktische Anwendung von AI bereits Teil ihres Tagesgeschäfts. Jetzt zielen sie darauf ab, diese Anwendungen zu skalieren, um noch größeren Wert zu schaffen und ihr Unternehmen vollständig zu entwickeln.

Der Druck ist hoch, und die Vorteile sind klar: 81% der Organisationen auf dem höchsten Level der AI-Reife berichteten über bessere finanzielle Ergebnisse im letzten Jahr. Dies ist die Phase, in der AI-Anwendungen ihren größten Stresstest durchlaufen. Sie können den Geruchstest in einer abgegrenzten Umgebung bestehen, aber können sie mehr Daten verarbeiten? Funktionieren sie in neuen Regionen? Und vielleicht die wichtigste Frage: können sie messbare Ergebnisse erzielen?

Skalierung bedeutet, größer zu werden, aber in einigen Fällen ist weniger mehr. Unternehmen in dieser Phase sollten berücksichtigen, ob gezielte kleine Sprachmodelle (SLMs) besser als vielseitige große Sprachmodelle (LLMs) funktionieren können. AI-Initiativen sind am erfolgreichsten, wenn sie an reale Geschäftsprobleme geknüpft sind und messbare Ergebnisse erzielen können.

Ein ähnliches Muster tritt bei der Anwendung und Skalierung von AI-Agents auf – der nächsten Grenze der autonomen AI. Agenten, die domänen-spezifische Aufgaben ausführen, informiert durch ein hoch fokussiertes, konsistent gepflegtes Datenset, sind diejenigen, die tatsächlich einen realen Einfluss im Unternehmen haben. Allerdings benötigen spezialisierte Agenten immer noch erhebliche Rechenleistung, wenn auch nicht so viel wie ein umfassender, alles-könnender Co-Pilot. Die Priorisierung der Infrastruktur von Anfang an ermöglicht es Organisationen, einen echten ROI aus ihren agentenbasierten AI-Initiativen zu erzielen, ohne ihre Cloud-Budgets zu sprengen.

Innovation mit Auswirkung

Der AI-“Wettlauf” ist weniger ein Wettlauf als eine Renovierung: Wenn wir das Unternehmen neu aufbauen, wollen wir dies auf einem soliden Fundament tun – andernfalls kommen die Wände unweigerlich zum Einsturz. Unternehmen müssen sich die Zeit nehmen, um nachdenklich über Infrastruktur, Datensicherheit, Modell-Lebenszyklus-Management, Leistungsüberwachung und Erkenntnisgewinnung nachzudenken. Geduld und Beharrlichkeit sind der Schlüssel, um Lösungen zu schaffen, die tatsächlich funktionieren, sicher bleiben und konsistent performen.

Die Neuheit des AI-Hype-Zyklus mag verblasst sein, aber Unternehmen können die holprigen mittleren Jahre von AI überwinden, indem sie ihre Teams mit dem beauftragen, was am wichtigsten ist: Ergebnisse.

Kevin ist der CMO von Vultr und ein Pionier mit über 25 Jahren Erfahrung im Bereich digitales Marketing und digitale Erfahrung. Kevin gründete sein erstes Start-up, Interwoven, im Jahr 1996. Bei Interwoven erfand Kevin gemeinsam mit anderen Interwoven TeamSite, schuf den Markt für Web Content Management (WCM) und führte Interwoven 1999 an die Börse. Nach Interwoven war Kevin an der Schaffung des ersten Open-Source-Systems für Enterprise Content Management (ECM) bei Alfresco beteiligt und popularisierte die Verwendung von Open-Source-Technologie bei globalen Unternehmen und öffentlichen Organisationen. Als CMO von Day Software trieb Kevin die Evolution von WCM zu Web Experience Management (WEM) voran, verkaufte Day Software an Adobe System und setzte sich für die globale Verbreitung von Adobes Experience-Management-Plattform und die Schaffung des Adobe Marketing Cloud ein. In den letzten Jahren hat Kevin die Evolution des Experience-Management-Bereichs in eine neue Marktcategory, Digital Experience Platforms (DXPs), und zuletzt in komponierbare digitale Stacks auf Basis einer MACH-Architektur vorangetrieben. Bei Vultr arbeitet Kevin nun daran, die globale Markenpräsenz von Vultr als führender Anbieter von unabhängigen Cloud-Plattformen und komponierbarer Infrastruktur für Organisationen weltweit aufzubauen.