Tankeledere
Det smarte foretaket: Gjøre generativ AI bedriftsklar

La oss begynne her: Ja, mulighetene for Generative AI (GenAI) er enorme. Ja, det forvandler verden som vi kjenner den (og raskere enn de fleste av oss hadde forutsett). Og ja, teknologien blir smartere. Men implikasjonene for GenAI, med dens evne til å generere tekst, bilder og narrativer, på bedrifter og virksomheter er svært forskjellig fra impulsen på den generelle befolkningen — etter all, de fleste bedrifter skriver ikke dikt eller historier (som er populært blant ChatGPT-brukere), de betjener kundene sine.
Mange selskaper har erfaring med naturlig språkbehandling (NLP) og lavnivå-chattboter, men GenAI akselererer hvordan data kan integreres, tolkes og konverteres til forretningsresultater. Derfor må de raskt bestemme hvilke GenAI-anvendelsesområder som vil løse deres mest presserende forretningsutfordringer og drive vekst. For å forstå hvordan bedrifter kan gjøre GenAI bedriftsklar med deres data, er det viktig å se på hvordan vi har kommet til dette punktet.
Reisen fra NLP til Large Language Model (LLM)
Teknologien har forsøkt å gjøre mening av naturlige språk i årevis nå. Mens menneskespråket i seg selv er en utviklet form for menneskelig uttrykk, har faktum at mennesker har utviklet seg til så mange dialekter verden over — fra symboler og lyder til stavelser, fonetikk og språk — etterlatt teknologien til å være avhengig av enklere digitale kommunikasjonsmetoder med biter og bytes, osv., til relativt nylig.
Jeg begynte å arbeide med NLP-programmer nesten et tiår siden. Da var det alt om språktaksonomi og ontologi, entitetsuttrekk, og en primitiv form for grafdatabase (hovedsakelig i XML) for å prøve å opprettholde komplekse relasjoner og kontekst mellom forskjellige enheter, gjøre mening av søkeforespørsler, generere en ordsky, og levere resultater. Det var ingenting matematisk om det. Det var mye Menneske i løkken for å bygge ut taksonomidatabaser, mye XML-parsing, og viktigst, mye beregning og minne i spill. Det er ingen tvil om at noen programmer var suksessfulle, og de fleste var det ikke. Maskinlæring kom neste med flere tilnærminger til dyp læring og neurale nett, osv., akselererende naturlig språkforståelse (NLU) og naturlig språkinferens (NLI). Men det var tre begrensninger — beregningskraft til å prosessere komplekse modeller, tilgang til volumer av data som kan lære maskiner, og primært, en modell som kan selv-lære og selv-korrigerende ved å danne tidsmessige relasjoner mellom fraser.
To tiår senere, og GPUs leverer massive beregningskraft, selv-lærende og evoluerende neurale nett er normen, overvåket/uværet/semi-overvåket læringmodeller eksisterer alle, og over alt, er det større tilgang til massive mengder data på flere språk, inkludert forskjellige sosiale medieplattformer, som disse modellene kan trene på. Resultatet er AI-motorer som kan koble til deg i ditt naturlige språk, forstå følelsen og meningen bak dine forespørsler, lyde som et menneske, og svare som ett.
Vi alle, gjennom vår sosiale medie-tilstedeværelse, har vært ukjent en «Menneske» i «Løkken» for å trene disse motorene. Vi har nå motorer som hevder å være trenet på trillions av parametre, i stand til å ta hundrevis og tusenvis av inndata-parametre, som er multi-modale og responderer til oss på vårt språk. Enten det er GPT4/5, PaLM2, Llama eller noen andre LLM som er publisert så langt, de oppstår som mer kontekstuelle vertikale problemsolvere.
Systems of Engagement og Systems of Record
Mens reisen fra NLP til LLM har vært stor takket være Silicon-evolusjonen, data-modeller og tilgjengeligheten av massive mengder trening-data som vi alle har generert, trenger bedrifter — detaljhandlere, produsenter, banker, osv. — hver sine svært forskjellige anvendelser av denne teknologien. Først og fremst kan bedrifter ikke ha råd AI-hallusinasjon — de trenger 0% hallusinasjon og 100% nøyaktighet for brukere som interagerer med AI. Det er en rekke forespørsler som krever absolutt nøyaktighet for å være av noen forretningsverdi — f.eks. Hvor mange rom er tilgjengelige på ditt hotell? Har du en førsteklasses billett tilgjengelig?
For å motvirke AI-hallusinasjon, kommer den gamle konseptet Systems of Engagement og Systems of Records inn. Systems of Engagement, enten det er med dine kunder, leverandører eller ansatte, kan utnytte en GenAI-basert konversasjonsplattform ut av boksen, etter å ha blitt trenet for bedriftsspesifikke forespørsler — det er den «enklere» delen. Utfordringen er å innlemme Systems of Records i verdikjeden. Mange bedrifter er fortsatt i en statisk tabel- og enhetsbasert verden og vil forbli det, fordi de fleste bedrifter er statiske på et organisatorisk eller korporativt nivå, mens hendelser og arbeidsflyter gjør dem dynamiske på et transaksjonsnivå.
Dette er der vi snakker om neste generasjons konversasjonsplattformer som ikke bare håndterer samtaler, grensesnitt og forespørsler, men også tar kunde-reiser hele veien til oppfyllelse. Det er forskjellige arkitektoniske tilnærminger til slike konversasjonsplattformer. En umiddelbar mulighet er å bruke hybrid-mellomvare som fungerer som en konsoliderer av sorts mellom vektorisert og merket bedriftsdata og LLM-drevne konversasjonsforespørsler og levere en 0% hallusinasjonsresultat til forbrukerne.
Det er et massivt arbeid med data-forberedelse som kreves av bedrifter for å gjøre det forståelig for en LLM-motor. Vi kaller det flattning av de tradisjonelle tabel- og enhetsdrevne data-modellene. Graf-databaser, som representerer og lagrer data på en måte som relasjonsdatabaser ikke kan, finner en ny hensikt i denne reisen. Målet er å konvertere bedrifts-databaser til mer forståelige graf-databaser med relasjoner som definerer kontekst og mening, gjøre det enklere for LLM-motorer å lære og derfor responderer til forespørsler fra sluttbrukere gjennom en kombinasjon av konversasjons- og sanntids-forespørsler. Dette arbeidet med å aktivere bedriftsdata til å være LLM-klar er nøkkel til å levere en hel-dekkende Systems of Engagement til Systems of Record-erfaring og ta bruker-erfaringer hele veien til oppfyllelse.
Hva kommer neste
På dette punktet, med disse fremskrittene i data og AI, kommer den mest umiddelbare impulsen i området programvare-kode-generering — som bevist av oppblomstringen av Microsoft Copilot, Amazone CodeWhisperer og andre verktøy blant utviklere. Disse verktøyene er jumpstartende legacy-moderniseringsprogrammer, mange av dem ofte stanset på grunn av tid og kostnad-bekymringer. Med kode-genereringsverktøy drevet av GenAI, ser vi moderniseringsprosjekter akselerere deres tidstabeller med 20-40%. I grønne felt-kodeutviklingsprosjekter, vil disse verktøyene tillate utviklere å flytte tid og produktivitetsbesparelse mot design-tenkning og mer innovative prosjekter.
Forbi programvare-kodeutvikling, er GenAI-verktøyene ledende til skapelsen av nye vertikale anvendelsesområder og scenarier som er rettet mot å løse bedrifters mest presserende utfordringer, og vi er bare begynner å skrape overflaten av hva som må gjøres for å utnytte denne trenden fullt ut. Likevel er vi allerede løsende flere problemer og spørsmål i detaljhandel- og logistikk-sektoren ved å utnytte GenAI:
Hvor mye lager har jeg på lageret, og når skal jeg utløse påfylling? Er det lønnsomt å lagre på forhånd? Er min landingspris riktig eller vil det eskalere? Hvilke varer kan jeg pakke eller hva slags personliggjøring kan jeg tilby for å heve min fortjeneste?
Å svare på disse spørsmålene krever en kombinasjon av konversasjonsfrontender, høy-aksurat data-drevne forespørsler i bakenden, og en domene-tyngde maskinlæringsmodell som leverer prediksjoner og fremtidige retningslinjer. Derfor er min råd til bedrifter å, enten du er en AI-utforsker eller en Generative AI-forstyrrer, samarbeide med tjenesteleverandører som har bevist AI-ekspertise og robuste data- og analytiske kapasiteter som kan armere deg til å kapitalisere på GenAI-modeller som er tilpasset dine forretningsbehov og hjelpe deg å forbli foran kurven.












