Følg os

Tanke ledere

The Smart Enterprise: Gør generativ AI Enterprise-klar

mm

Udgivet

 on

Lad os begynde her: Ja, det Muligheder for Generativ AI (GenAI) er enorme. Ja, det transformerer verden, som vi kender den (og hurtigere end de fleste af os forudsagde). Og ja, teknologien bliver smartere. Implikationerne for GenAI med dets evne til at generere tekst, billeder og fortællinger på virksomheder og virksomheder er dog meget forskellige fra indvirkningen på den brede offentlighed - trods alt skriver de fleste virksomheder ikke digte eller historier (hvilket er populært med ChatGPT-brugere), betjener de deres kunder.

Mange virksomheder har erfaring med naturlig sprogbehandling (NLP) og chatbots på lavt niveau, men GenAI accelererer, hvordan data kan integreres, fortolkes og konverteres til forretningsresultater. Derfor skal de hurtigt afgøre, hvilke GenAI-brugssager, der vil løse deres mest presserende forretningsudfordringer og drive vækst. For at forstå, hvordan virksomheder kan gøre GenAI enterprise-ready med deres data, er det vigtigt at gennemgå, hvordan vi nåede frem til dette punkt.

Rejsen fra NLP til Large Language Model (LLM)

Teknologi har forsøgt at give mening med naturlige sprog i årtier nu. Mens det menneskelige sprog i sig selv er en udviklet form for menneskelig udtryk, har det faktum, at mennesker har udviklet sig til så mange dialekter verden over - fra symboler og lyde til stavelser, fonetik og sprog - gjort teknologien afhængig af mere simple digitale kommunikationsmetoder med bits og bytes, osv., indtil for relativt nylig.

Jeg begyndte at arbejde på NLP-programmer for næsten et årti siden. Dengang handlede det om sprogtaksonomi og ontologi, entitetsekstraktion og en primitiv form for en grafdatabase (hovedsagelig i XML'er) for at forsøge at vedligeholde komplekse relationer og kontekst mellem forskellige entiteter, give mening i søgeforespørgsler, generere en ordsky. og levere resultater. Der var ikke noget matematisk over det. Der var mange Menneske i løkken at opbygge taksonomidatabaser, masser af XML-parsing og vigtigst af alt, masser af computer og hukommelse på spil. Det er overflødigt at sige, at nogle programmer var vellykkede, og de fleste var ikke. Maskinlæring kom dernæst med flere tilgange til dyb læring og neurale net osv., der accelererede naturlig sprogforståelse (NLU) og naturlig sproginferens (NLI). Der var dog tre begrænsende faktorer - regnekraft til at behandle komplekse modeller, adgang til mængder af data, der kan lære maskiner, og primært en model, der kan selvlære og selvkorrigere ved at danne tidsmæssige relationer mellem sætninger.

Spol frem to årtier senere, og GPU'er leverer massiv computerkraft, selvlærende og udviklende neurale netværk er normen, overvågede/ikke-overvågede/semi-overvågede læringsmodeller findes alle, og frem for alt er der større adgang til enorme mængder data i flere sprog, herunder forskellige sociale medieplatforme, som disse modeller kan træne på. Resultatet er AI-motorer, der kan forbinde med dig på dit naturlige sprog, forstå følelserne og meningen bag dine forespørgsler, lyde som et menneske og reagere som et.

Vi har alle, gennem vores tilstedeværelse på sociale medier, ubevidst været et 'menneske' i 'løkken' for at træne disse motorer. Vi har nu motorer, der hævder at være trænet på billioner af parametre, i stand til at tage hundreder og tusinder af inputparametre, som er multimodale og reagerer på os på vores sprog. Uanset om det er GPT4/5, PaLM2, Llama eller andre LLM'er, der er blevet offentliggjort indtil videre, dukker de op som mere kontekstuelle vertikaliserede problemløsere.

Systems of Engagement og Systems of Record

Mens rejsen fra NLP'er til LLM'er har været fantastisk takket være Silicon Evolution, datamodeller og tilgængeligheden af ​​enorme mængder træningsdata, som vi alle har genereret, har virksomheder - detailudbydere, producenter, banker osv. - hver især brug for meget forskellige applikationer af denne teknologi. For det første har virksomhederne ikke råd AI hallucination — de har brug for 0% hallucination og 100% nøjagtighed for brugere, der interagerer med AI. Der er en række forespørgsler, der kræver absolut nøjagtighed for at være til enhver forretningsbrug - f.eks Hvor mange værelser er tilgængelige på dit hotel? Har du en førsteklasses billet til rådighed?

For at modvirke AI-hallucination skal du gå ind i det ældgamle koncept med Systems of Engagement og Systems of Records. Systems of Engagement, hvad enten det er med dine kunder, leverandører eller medarbejdere, kan udnytte en GenAI-baseret samtaleplatform ud af boksen, efter at være blevet trænet i forretningsspecifikke prompter - det er den "nemmere" del. Udfordringen er at integrere Systems of Records i værdikæden.  Mange virksomheder er stadig i en statisk tabel- og enhedsbaseret verden og vil forblive sådan, fordi de fleste virksomheder er statiske på organisations- eller virksomhedsniveau, mens begivenheder og arbejdsgange gør dem dynamiske på transaktionsniveau.

Det er her, vi taler om næste generations samtaleplatforme, der ikke kun adresserer samtaler, grænseflader og forespørgsler, men også tager kunderejser hele vejen til opfyldelse. Der er forskellige arkitektoniske tilgange til sådanne samtaleplatforme. En umiddelbar mulighed er at bruge hybrid middleware, der fungerer som en slags konsolidator mellem vektoriserede og mærkede virksomhedsdata og LLM-drevne samtaleprompter og leverer et hallucinationsresultat på 0 % til forbrugerne.

Der er en enorm mængde dataforberedelsesarbejde, der kræves af virksomheder for at gøre det forståeligt for en LLM-motor. Vi kalder det fladning af de traditionelle tabel- og enhedsdrevne datamodeller. Grafdatabaser, som repræsenterer og lagrer data på en måde, som relationelle databaser ikke kan, finder et nyt formål med denne rejse. Målet er at konvertere virksomhedsdatabaser til mere forståelige grafdatabaser med relationer, der definerer kontekst og betydning, hvilket gør det lettere for LLM-motorer at lære og derfor reagere på prompter fra slutkunder gennem en kombination af samtale- og realtidsforespørgsler. Denne opgave med at gøre det muligt for virksomhedens data at være LLM-klar er nøglen til at give en ende-til-ende Systems of Engagement til Systems of Record-oplevelse og tage brugeroplevelser hele vejen til opfyldelse.

Hvad kommer dernæst

På dette tidspunkt, med disse fremskridt inden for data og AI, kommer den mest umiddelbare effekt inden for softwarekodegenerering - som det fremgår af fremkomsten af ​​Microsoft Copilot, Amazone CodeWhisperer og andre værktøjer blandt udviklere. Disse værktøjer sætter gang i ældre moderniseringsprogrammer, hvoraf mange ofte er gået i stå på grund af tids- og omkostningsbekymringer. Med kodegenereringsværktøjer drevet af GenAI ser vi moderniseringsprojekter accelerere deres tidsplaner med 20-40 %. I greenfield-kodeudviklingsprojekter vil disse værktøjer give udviklere mulighed for at flytte tids- og produktivitetsbesparelser mod designtænkning og mere innovative projekter.

Ud over softwarekodeudvikling fører GenAI-værktøjer til skabelsen af ​​nye vertikale use cases og scenarier, der er rettet mod at løse virksomheders mest presserende udfordringer, og vi er lige begyndt at ridse overfladen af, hvad der skal gøres for at drage fuld fordel af denne tendens. Ikke desto mindre løser vi allerede flere problemer og spørgsmål i detail- og logistiksektoren ved at udnytte GenAI:

Hvor meget lager har jeg på lageret, og hvornår skal jeg udløse genopfyldning? Er det rentabelt at lagerføre på forhånd? Er min landede pris rigtig, eller vil den eskalere? Hvilke varer kan jeg samle, eller hvilken slags personalisering kan jeg tilbyde for at øge min fortjeneste?

At besvare denne slags spørgsmål kræver en kombination af samtalefrontends, datadrevne forespørgsler med høj nøjagtighed i bagenden og en domænetung maskinlæringsmodel, der leverer forudsigelser og fremtidig vejledning. Derfor vil mit råd til virksomheder være, uanset om du er en AI-opdager eller en generativ AI-forstyrrer, partner med tjenesteudbydere, der har dokumenteret AI-ekspertise og robuste data- og analysekapaciteter, som kan ruste dig til at udnytte GenAI-modeller, der passer til dine forretningsbehov og hjælpe dig med at være på forkant med kurven.

Padmanabhan (Paddy) er en cloud-native platform og produktingeniørleder med fokus på datadrevne platforme, mikrotjenester og cloud-native engineering og modernisering af ældre teknologi og produkter. Han er Senior Vice President & General Manager, der leder Global Consumer Tech-vertikalen på Vedvarende systemer, og hans team muliggør Digital Product Engineering for deres kunder på tværs af Retail, CPG, Travel og Logistics.