Connect with us

AI-boomen har nått ett avgörande mittskede: Vad företag behöver veta

Tankeledare

AI-boomen har nått ett avgörande mittskede: Vad företag behöver veta

mm

Junior high var aldrig någons primtid – men vi alla var tvungna att gå igenom det, med tillväxtpåfrestningar och allt, för att nå en bättre, mer mogen version av oss själva.

Den nuvarande AI-boomen är på väg in i sin egen steniga tonår, något som experter kallar det besvärliga mittskedet mellan antagande och mognad. Den initiala hype har bleknat, och nu fokuserar organisationer på att göra AI verkligen operativt. Men AI mognar under en utmanande tid. Förutsägelser är utspridda över kartan, skepticism är hög bland företag och konsumenter, och tal om en växande AI-bubbla har företagsledare på helspänn, väntande på den fruktade smällen.

I detta avgörande ögonblick måste organisationer skilja signalen från bruset – oavsett om de växlar sina ansträngningar från experiment till praktisk tillämpning, eller skalar praktisk tillämpning till operativ allomfattande. Det kräver fokus på påtagliga faktorer som de kan kontrollera, som sin infrastruktur och databeredskap; mätning av resultat; och byggande av grunden för skala.

Infrastruktur-först-ansatsen

Sann AI-beredskap kräver rätt infrastruktur för att stödja den hållbara distributionen av AI-arbetsbelastningar. Naturligtvis har AI drivit upp efterfrågan på molntjänster: molnutgifter förväntas öka med 40% i år, med infrastruktur som utgör den dyraste posten i budgeten, och nya datacenter dyker upp på varje kontinent för att möta den växande efterfrågan på AI-beräkningar. Vid detta AI-vägskäl är infrastrukturval existentiella. Infrastruktur definierar vad som är säkert, vad som är möjligt och vad som faktiskt kommer att gynna företaget, istället för att skapa en belastning på resurser.

Hållbar infrastruktur definieras av mer än bara kostnader och total beräkningskraft. När organisationer bestämmer var och hur de ska värd deras AI-arbetsbelastningar, måste de överväga frågor om resurseffektivitet, säkerhet, synlighet och total prisprestanda. AI-infrastruktur kan inte vara en engångsinvestering, utan en process i rörelse, som kan utvecklas med kraven från varje projekt.

Det är en skarp avvikelse från historiska tillvägagångssätt för molnutgifter. Innan den nuvarande AI-rushen, förlitade sig organisationer ofta på en enda molntjänstleverantör – vanligtvis en hyperscaler – för att värd deras molnbaserade operationer. Nu utmanar komplexiteten och variationen av AI-arbetsbelastningar denna modell, särskilt när företag flyttar mot mer praktiska användningsfall, och alternativa moln dyker upp för att möta efterfrågan.

Moderna AI-initiativ kräver kraftfull beräkningskraft, som de stora tre är välutrustade för att tillhandahålla. Sprickorna börjar visa sig när all denna kraft blir för mycket. Hyperscaler-kontrakt kan vara kostsamma, uppblåsta med onödiga tillägg och kan inte erbjuda den erforderliga datasäkerheten och bosättningen för högt känsliga projekt.

Istället för att binda sina molnoperationer till en enda leverantör, kan företag dra nytta av en växande klass av alternativ för att komponera sina egna stackar över olika leverantörer, GPU-typer och offentliga / privata molnkonfigurationer baserat på sina specifika behov. På detta sätt betalar de inte för funktioner de inte behöver, samtidigt som de anpassar sina moln för vad de gör behöver.

En infrastruktur-först-ansats till att nå AI-mognad handlar om att skapa en stabil grund för skala, som maximalt utnyttjar effektivitet och nytta utan att offra på kraft.

Från experiment till tillämpning

Under de senaste åren har företag över hela världen experimenterat med hur de ska få AI att passa in i deras verksamhet. Drivna av nyfikenhet och inte lite hype, har de pressat gränserna för innovation, låst upp nya möjligheter för effektivitet och höjt potentialen för otaliga öppen källkod och modeller. De har också sprungit rakt in i verkligheten, lärt sig att Silicon Valleys “gå snabbt och bryt saker” filosofi inte alltid är vägen att gå, särskilt när det gäller en teknik som AI.

Nu, när företag kommer ut från denna experimentella fas, är misslyckande inte ett alternativ. Exakthet är kritisk. Prestanda kan inte försena. Om företag ska bygga om sina kärnverksamhetsfunktioner på en AI-ram, måste de dubbla ner på de “tråkiga” delarna som tar AI från ett kreativt experiment till en kraftmultiplikator, inklusive:

  • Data säkerhet och sekretess: Många AI-modeller använder känslig personlig och företagsdata för att fungera effektivt. Organisationer behöver försäkran om att deras data är värd säkert, utan risken för obehörig replikering eller “mörk AI”-exponering.
  • Modell livscykelhantering: Modeller måste vara exakta, uppdaterade och regelbundet omtränade för att stödja kritiska affärsfunktioner.
  • Prestandakonsekvens: Antingen vid distribution av modeller för intern användning eller i kundorienterade operationer, säkerställer konsekvent prestanda är kritisk för effektivitet och enkelhet.

Just nu är det bara 37% av organisationer som distribuerar nya generativa modeller på månads-, vecko- eller dagsbasis. När fler organisationer flyttar in i tillämpningsfasen, kommer denna procentsats att öka dramatiskt, vilket skapar en större efterfrågan på beräkningskraft – men också infrastruktur anpassad till specifika modeller. En “lättnad” modell behöver inte en hyperscaler-nivå grund, men om den använder känslig information, kan den behöva den graden av säkerhet. Det är här anpassade moln kommer in – och varför infrastruktur bör vara det primära övervägandet under en företags AI-skift.

Från tillämpning till skala

För företag som är längre framme på mognadskurvan är praktisk tillämpning av AI redan en del av deras vardag. Nu siktar de på att skala dessa tillämpningar för att skapa ännu större värde och fullt ut utveckla sitt företag.

Trycket är på, och fördelarna är tydliga: 81% av organisationer på den högsta nivån av AI-mognad rapporterade bättre ekonomiska resultat under det senaste året. Detta är fasen där AI-tillämpningar genomgår sin största stress-test. De kan passera luktsansen i en isolerad miljö, men kan de hantera mer data? Fungera i nya regioner? Och kanske den viktigaste frågan: kan de driva meningsfulla resultat?

Skala handlar om att växa större, men i vissa fall är mindre mer. Företag i denna fas bör överväga om riktade småspråkliga modeller (SLM) kan fungera bättre än flerändamåls stora språkliga modeller (LLM). AI-initiativ är de mest framgångsrika när de är kopplade till verkliga affärsproblem och kan driva mätbara resultat.

En liknande mönster uppstår i tillämpning och skala av AI-agenter – den nästa fronten för autonom AI. Agenter som utför domänspecifika uppgifter, informerade av en högt fokuserad, konsekvent underhållen dataset, är de som faktiskt har en verklig inverkan på företaget. Det sagt, specialiserade agenter behöver fortfarande betydande beräkningskraft, om än inte lika mycket som en allomfattande, gör-allt-kopilot. Att prioritera infrastruktur från början kommer att tillåta organisationer att extrahera verkligt ROI från sina agentbaserade AI-initiativ utan att spränga sina molnbudgetar.

Innovation med inverkan

AI-“racet” är mindre av ett race än en renovering: om vi bygger om företaget, vill vi göra det på en fast grund – annars kommer väggarna oundvikligen att rasa. Företag måste ta sig tid att vara tankfulla om infrastruktur, säkerställa datasäkerhet, noggrant hantera modelllivscykel, övervaka prestanda och samla in insikter och göra justeringar. Tålamod och uthållighet är nyckeln till att skapa lösningar som faktiskt fungerar, förblir säkra och presterar konsekvent.

Den nya AI-hype-cykeln kan vara på väg att blekna, men organisationer kan komma igenom AI:s besvärliga mittår genom att energisera sina team med vad som är viktigast: resultat.

Kevin är CMO för Vultr, och är en 25+ år pionjär inom digital marknadsföring och digitala upplevelser. Kevin co-founded sitt första start-up, Interwoven, 1996. På Interwoven co-inventerade Kevin Interwoven TeamSite, skapade Web Content Management (WCM)-marknaden och tog Interwoven public 1999. Efter Interwoven banade Kevin väg för skapandet av det första öppna källkods-systemet för Enterprise Content Management (ECM) på Alfresco och populariserade antagandet och användningen av öppen källkodsteknologi för globala företag och offentliga organisationer. Som CMO för Day Software drev Kevin utvecklingen av WCM till Web Experience Management (WEM), sålde Day Software till Adobe System och banade väg för den globala antagandet av Adobes upplevelsehanteringsplattform och skapandet av Adobe Marketing Cloud. Under de senaste åren har Kevin fortsatt att driva utvecklingen av upplevelsehanteringsområdet till en ny marknadskategori, Digital Experience Platforms (DXPs) och senast dess utveckling till sammansatta digitala stackar baserade på en MACH-arkitektur. På Vultr arbetar Kevin nu med att bygga Vultrs globala varumärkesnärvaro som ledare på den oberoende molnplattformsmarknaden och sammansatt infrastruktur för organisationer över hela världen.