Connect with us

Tankeledere

Velkommen til AI-adoptsjon som krever 3 komponenter — de fleste bedrifter har bare 2

mm

På dette tidspunktet er AI ikke lenger ny teknologi. Dens beviste effektivitet i dataanalyse, mønstergjenkjenning og kunnskapssyntese kan gjøre team mer effektive. Men til tross for AI sin ubestridte verdi, indikerer ny forskning at bare 13% av bedriftene har adoptert det på en omfattende måte. De fleste bedriftene spiller det trygt, og bruker bare AI for lav-risiko oppgaver. Hva stopper merkene fra å dykke inn og høste fordelen? Gapet mellom AI-aspirasjoner og oppnåelse går ned til en strukturell svakhet.

Den manglende lenken.

Suksessfull, omfattende AI-adoptsjon krever tre komponenter: infrastruktur, applikasjon og data. Infrastruktur-laget består av AI-modellen, hvis ramme direkte former bruken og potensielle utdata.

Applikasjonslaget er der hvor programvareløsningene bor. Dette er der hvor AI sin verdi genereres; det er der hvor brukerne interagerer (kanskje indirekte) med AI og gjennomgår utdataene; det er knutepunktet for AI-informert beslutningstaking.

Mellom disse lagene er data-laget, og det er denne komponenten som de fleste bedriftene har problemer med – enten de er klar over det eller ikke. Dette laget inneholder all data; data som passer inn i de underliggende AI-modellene og guider applikasjonene som bygges. Kvaliteten på data-laget informerer direkte utdata på applikasjonslaget. Høykvalitetsdata kan støtte robuste brukstilfeller, mens tvilsom eller utilstrekkelig data ikke kan.

Før organisasjonene kan bygge – eller samarbeide med bedrifter som bygger – alle tre lag av AI-adoptsjon, vil de ikke kunne høste maksimal verdi.

Konsekvensene av ubalanse.

AI sin utdata vil alltid være avhengig av data det mates med. Hvis en organisasjon ønsker at AI skal kunne forutsi syntetiske molekylærstrukturer, må de mate det med mye fysikkdata. Hvis en detaljisten ønsker å bruke AI til å forutsi brukernes atferd og forbedre digitale erfaringer, må de mate det med atferdsdata.

Hvis bedriftene (eller deres partnere) ikke kan støtte AI-verktøyene sine med tilstrekkelig data, vil konsekvensene være langtidsvirkende. Først og fremst er det AI-løsningen selv. Til beste kunne det være teknisk operativt, men ikke i den grad som ønsket. Utdata kan være svake, mangelfulle eller uten innsikt helt og holdent. Forbi dette “beste-saken”-resultatet ligger en mer sannsynlig utfall: AI-hallusinasjoner, feilaktige utdata og negativ ROI. Ikke bare vil investeringen ha vært bortkastet, men organisasjonene kan også måtte bruke mer i navnet på skadekontroll.

Når vi zoomer ut fra de umiddelbare konsekvensene, kan vi se de bredere implikasjonene av en data-svakt AI-løsning. Generelt sett adopterer bedrifter AI for å kunne gjøre mer: innsamle mer innsikt, betjene flere kunder, operere mer effektivt. Hvis organisasjonene heller tid og ressurser i et AI-verktøy som faller flat, har de effektivt hemmet egen vekst, begrenset evnen til å tilpasse seg markedet og utkonkurrere konkurrentene. Dette setter dem i en ulempe og vil etterlate dem til å jakte på å gjøre opp for tapt tid, ressurser og – potensielt – kunder.

Men håpet er ikke tapt; det er mye organisasjonene kan gjøre for å posisjonere seg godt, korrigere (eller forebygge) en AI-ubalanse og gå videre.

Fylle gapet med riktig data.

På bekostning av å forenkle for mye, er det beste ledere kan gjøre for å unngå en AI-ubalanse å gjøre sin hjemmelekse før de går videre med noen AI-drevne løsninger. Før de deployer et nytt verktøy, ta tid til å lære om hvor data kommer fra og hvordan det genereres.

Hvis løsningsleverandøren eller hovedingeniøren ikke kan gi deg et rett svar om kilde, kvalitet eller mengde av underliggende data, bør det utløse advarselssignaler. Få en annen eller tredje mening fra kanalpartnere og integratorer. Crowdsourc intel ved å tappe inn i brukerdiskusjonsnettverk som Reddit og Discord; se hvor andre adopterer rant inn i hindringer eller blokkeringer. Å vite hva røde flagg å se etter før å gjøre noen beslutninger kan hjelpe ledere å unngå en verden av hodepiner og savnede forventninger.

Selvfølgelig er denne forutsikt ikke alltid mulig og vil ikke hjelpe organisasjonene i tykken av en AI-data-mangel. Hvis å forkaste den eksisterende løsningen ikke er en mulighet, er det neste beste å finne en måte å injisere mer data så verktøyet har mer kontekst, mønster og innsikt å trekke fra.

Syntetisk data er en mulighet her, men det er ikke en kur-all. Det kan være vanskelig å peke på den nøyaktige opprinnelsen til syntetisk data, så det kan ikke alltid være den beste veien å gå. Det sies at det er en tid og en plass for syntetisk data. For eksempel, er det godt egnet for å trene AI-sikkerhetsmodeller, spesielt på en motstander-måte. Som alltid, gjennomføring av forskning på forhånd før å dykke inn hodestups, vil hjelpe ledere å gjøre de beste beslutningene for bedriften.

For bransjer som detaljhandel eller rask servering (QSR), er menneskelig data foretrukket. Bedrifter i disse bransjene er sannsynligvis å bruke AI til å hjelpe med å optimalisere kundeopplevelsen, så deres verktøy bør være trent på menneskelig atferdsdata. For eksempel, hvis du håper å forutsi hvor langt brukerne kommer til å rulle ned på en side, ville du ønske at AI skulle basere sin forutsigelse på faktisk menneskelig atferd under lignende forhold.

I noen tilfeller handler det ikke så mye om å skaffe ny data som det handler om å aktivere eksisterende data. Besøkende på nettstedet og appen er allerede der – det handler bare om å fange, strukturere og analysere deres atferdsdata så AI-verktøyene kan bruke det.

Til slutt er det bedre å ha utilstrekkelig data enn å ha dårlig data; alt organisasjonene kan gjøre for å rense løsningene sine, vil hjelpe til å drive bedre resultater.

Hvor å begynne.

Å være kort på AI-data kan være en betydelig utfordring for organisasjoner av enhver størrelse, og det kan være skremmende å tenke på hva neste skritt kan være. Men å bare erkjenne problemet er en prestasjon i seg selv. Derfra handler det om å finne de håndterbare, inkrementelle skrittene du kan takle ett for ett.

AI har en enormt løfte – men bare for de som er villige til å investere i hver av dens nøkkelkomponenter: infrastruktur, applikasjon og data. Uten disse lagene, vil selv den mest elegante AI-løsningen falle flat. Organisasjonene som lukker data-gapet nå, vil ikke bare unngå å falle bak; de vil sette takten.

Som Fullstory’s Chief Product and Technology Officer, bringer Claire Fang mer enn to tiår med produktledelseerfaring til ledelseslaget. Med en bakgrunn som omfatter offentlige selskaper og startup-selskaper, bringer Fang en mengde ekspertise i å levere innovasjon i bedriftsprogramvare, bygge verdensklasse produkt- og ingeniørorganisasjoner, og drive eksponentiell forretningsvekst på en global skala.

Før hun ble med i Fullstory, var Claire sjef for produktutvikling i SeekOut. I denne rollen ledet hun selskapets produktledelse, design og markedsføringsfunksjoner og var ansvarlig for produktvisjon, strategi, veikart og gjennomføring. Før det var hun sjef for produktutvikling for Qualtric’s EmployeeXM-forretning, hvor hun overvåket produktledelse, produktmarkedsføring og produktvitenskapfunksjoner og ledet forretningen gjennom en 5x vekst. Hun fikk også omfattende erfaring med produktledelse i industrigigantene Facebook og Microsoft, hvor hun hjalp med å utvikle Microsoft Azure til en industriledende plattform, og realiserte 50x omsetningsvekst.

I sin nåværende rolle er Claire ansvarlig for å sette Fullstory’s strategiske produktretning og lede produkt-, design- og ingeniørteamene.

Claire har en bachelorgrad i ingeniørvitenskap fra Southeast University og en Ph.D. i elektro- og datateknikk fra Carnegie Mellon University.