Følg os

Tanke ledere

Skift til AI-inferens bringer realtidsintelligens til kanten

mm

AI-industrien – og den deraf følgende dialog – flytter fokus væk fra bestræbelserne på at træne AI-modeller. Den historie, der fandt sted centralt i skyen eller datacentre (eller begge), er "gamle nyheder". Nu, med et utal af use cases på tværs af de fleste brancher, bliver disse modeller implementeret og kørt i distribuerede, decentraliserede miljøer. Industrien er i overgang fra træningsfasen til inferensfasen, og denne historie finder sted i edge-miljøet med realtidsintelligens, der er nødvendig for alt fra smartkameraer til enheder indlejret i industrimaskiner. Fokuset skifter fra centraliseret AI-træning til Edge AI eller hybridimplementeringer.

I en tid hvor hastighed, præcision og databeskyttelse er vigtigere end nogensinde før, Edge AI redefinerer driftsprocesser på virksomheders mest kritiske berøringspunkter. I modsætning til traditionelle AI-modeller, der er afhængige af cloud-infrastruktur, bringer Edge AI beslutningstagning tættere på datagenereringspunktet.

Værdien af Edge AI

Minimering af afstanden mellem datagenerering og beslutningstagning minimerer latenstid ved at eliminere forsinkelser fra netværkstransmission, hvilket resulterer i hurtigere levering af prædiktive indsigter og automatiserede beslutninger. Denne realtidsbehandling giver effektivitetsgevinster for organisationer, forbedrer alt fra kundeoplevelser til produktkvalitet eller endda understøtter medarbejdersikkerhed. Uanset brugsscenariet forbedrer den kortere afstand også sikkerhed og pålidelighed ved at reducere den tid, følsomme data er i bevægelse, og sænke den nødvendige båndbredde.

Umiddelbarhed og relevans er altafgørende, uanset branche.

For eksempel kan Edge AI i produktionsindustrien drive kvalitetssikringssystemer, der øjeblikkeligt markerer produktfejl. Inden for sundhedsvæsenet kan det understøtte patientovervågningssystemer der udløser advarsler i det øjeblik, der opdages uregelmæssigheder. Detailhandlere vil bruge Edge AI til at personliggøre kundeoplevelser i butikken og administrere lagerbeholdning dynamisk. I alle disse scenarier er den nødvendige intelligens, der sidder i edge-butikken, dog en væsentlig differentiator. Edge AI er afgørende, når millisekunder betyder noget.

Kontekst betyder noget fra datacenteret til kanten

Selvom GPU'er ofte ses som synonymer med AI, involverer Edge AI flere nuancer, da behovene og arten af arbejdsbelastninger til inferensering er fundamentalt forskellige fra dem til modeltræning. Mange inferenseringsarbejdsbelastninger - især visionsbaserede applikationer - kan håndteres effektivt af CPU'er, som er mere strøm- og omkostningseffektive. Selv hvis en edge-implementering kræver højere ydeevne, er der dukket en nyere klasse af lavstrøms-GPU'er op, der tilbyder skræddersyede løsninger til edge-miljøet.

I sidste ende handler valget af den rigtige konfiguration om at afbalancere den specifikke arbejdsbyrde, den ønskede kapacitet og de miljømæssige begrænsninger. Implementering af Edge AI kræver hardware, der balancerer ydeevne med praktisk anvendelighed i felten.

Succes i edge-miljøer kræver en fundamentalt anderledes tilgang, der adresserer begrænsninger inden for plads, strøm og køling, samtidig med at ydeevnen opretholdes. Hardware og software skal designes specifikt til kravene i edge-miljøet, hvilket ofte inkluderer evnen til at fungere pålideligt i barske miljøer uden at gå på kompromis med computerkapaciteten. Alternativet er nedetid, som kan have ødelæggende konsekvenser downstream.

Vejen til succes

Vejen til succes med Edge AI begynder med at identificere et enkelt, effektfuldt use case og fokusere en indledende implementering på det. Denne type fokus holder omfanget håndterbart for en organisation, samtidig med at der etableres en positiv momentum med implementeringen, hvilket gør det muligt for organisationen at forstå potentialet i denne teknologi, samtidig med at den forfiner driftsprocesser og supportrammer.

Dette er dog ogsĂĄ lettere sagt end gjort!

De fleste organisationer, der ønsker at kapitalisere på AI-implementeringer, er ikke dybt bevandrede i eller har været fordybet i alle de underliggende teknologier. Denne videnskløft får dem til at søge vejledning og forbedrede kapaciteter fra eksterne partnere. Især i takt med at implementeringer spreder sig, og branchen bevæger sig fra træning i kernen til inferensering i kanten, bliver de software- og servicekrav, der følger med hardwaren, også vigtigere. Desuden vil kompleksiteten kun stige fremadrettet. Især i kanten, hvor nedetid kan have massive - og dyre - konsekvenser downstream, er partnerskab med den ekspertise og de tjenester, der er nødvendige for at sikre ensartet ydeevne, ikke til forhandling.

En almindelig faldgrube, som organisationer støder på, er at fokusere for snævert på proof-of-concept-projekter uden en klar skaleringsvej. Organisationer skal også tage højde for operationel kompleksitet – fra fjernstyring og fejltolerance til livscyklussupport. Flere grunde til at samarbejde med en erfaren partner er afgørende. I modsætning til datacentre, hvor systemer overvåges nøje og opdateres ofte, skal edge-infrastruktur designes til lang levetid, med et typisk mål på fem til syv år.

Derudover er organisationer i stigende grad ivrige efter at konsolidere edge computing-ressourcer for at reducere fodaftryk og omkostninger. Dette kombinerer traditionelle arbejdsbyrder med AI-applikationer på samlede, virtualiserede platforme, hvilket eliminerer behovet for separate infrastrukturer, men øger behovet for realtidsintelligens.

Edge AI fremadrettet

Edge AI udvikler sig hurtigt og bevæger sig fra regelbaserede systemer til mere adaptiv, kontekstbevidst intelligens. Med fremskridt inden for generativ AI og fundamentale modeller begynder edge-systemer at understøtte kontinuerlige læringsloops og justerer sig autonomt baseret på datainput uden at være afhængige af skyen.

Kubernetes-baserede implementeringer og containermodeller etablerer den konsistens, der er nødvendig for at holde Edge AI-implementeringer effektive. Containerisering gør det nemmere at sende hurtige opdateringer fra skyen til kanten, og Kubernetes orkestrerer containere i stor skala og administrerer implementeringer, opdateringer og sundhedstjek automatisk. Denne øgede effektivitet og pålidelighed af opdateringer, der sendes på tværs af edge-noder, forbedrer også modelnøjagtigheden og leverer større robusthed og oppetid – afgørende for at bevare værdien af enhver Edge AI-implementering. Samtidig kan edge-enheder indsamle nye data, der vil hjælpe med at træne bedre modeller i et lukket AI-system.

Edge AI er meget mere end bare et buzzword. Det er den håndgribelige udvikling i den måde, industrier vil udnytte intelligens i interaktionspunkterne i fremtiden – og det kommer hurtigt. Med en Edge AI-plan kombineret med den rette infrastruktur og systemfunktioner kan organisationer frigøre kraftfulde nye effektiviteter inden for AI – opnå hurtigere respons og samtidig undgå dyr nedetid.

Dara Ambrose er vicedirektør for avancerede computerprodukter og -løsninger hos Penguin løsningerHan kom til Penguin som en del af opkøbet af Stratus i 2022 og medbringer mere end 30 års erfaring inden for server- og softwareproduktudvikling. Dara leder produktudviklingsteams for Penguin HPC/AI-hardwareprodukterne og Stratus' edge-fejltolerante produkter.