Connect with us

Lyckad AI-antagning kräver 3 komponenter — De flesta företag har bara 2

Tankeledare

Lyckad AI-antagning kräver 3 komponenter — De flesta företag har bara 2

mm

Vid det här laget är AI inte längre ny teknik. Dess bevisade effektivitet i dataanalys, mönsterigenkänning och kunskapssyntes kan göra team mer effektiva. Men trots AI:s ovedersägliga värde visar ny forskning att endast 13% av företagen har antagit det på ett omfattande sätt. De flesta företag spelar det säkra spelet och använder endast AI för de lägsta riskuppgifterna. Vad hindrar varumärken från att dyka in och skörda fördelarna? Klyftan mellan AI-aspirationer och prestationer beror på en strukturell brist.

Den saknade länken.

Lyckad, omfattande AI-antagning kräver tre komponenter: infrastruktur, applikation och data. Infrastrukturlagret består av AI-modellen, vars ramverk direkt formar användning och potentiala utdata.

Applikationslagret är där programvarulösningarna finns. Här genereras den största delen av AI:s värde; det är där användare interagerar (kanske indirekt) med AI och granskar dess utdata; det är navet för AI-informerat beslutsfattande.

Mellan dessa lager finns datalagret, och det är denna komponent som de flesta företag har svårt med – oavsett om de är medvetna om det eller inte. Detta lager innehåller alla data; data som passar in i de underliggande AI-modellerna och vägleder de applikationer som byggs. Dataskiktets kvalitet informerar direkt utdatat på applikationslagret. Högkvalitativa, rikliga data kan stödja robusta användningsfall, medan tvivelaktiga eller otillräckliga data inte kan.

Tills organisationer kan bygga – eller samarbeta med företag som bygger – alla tre lagren av AI-antagning, kommer de inte att få ut maximalt värde.

Obalansens implikationer.

AI:s utdata kommer alltid att bero på de data som matas in. Om en organisation vill att dess AI ska kunna förutsäga syntetiska molekylära strukturer, måste den mata in mycket fysikdata. Om en detaljhandlare vill använda AI för att förutsäga användarnas beteende och förbättra digitala upplevelser, måste den mata in beteendedata.

Om företag (eller deras partners) inte kan tillräckligt stödja sina AI-verktyg med tillräckligt data, kommer implikationerna att vara långtgående. Först och främst finns det AI-lösningen i sig. På bästa sätt kommer den att vara tekniskt fungerande, men inte i den utsträckning som önskas. Utdata kan vara svaga, bleka eller helt sakna insikter. Utanför detta “bästa” resultat ligger ett mer sannolikt resultat: AI-hallucinationer, felaktiga utdata och negativ avkastning. Inte bara kommer investeringen att ha slösats bort, utan organisationer kan också tvingas lägga mer pengar på att åtgärda skadan.

När vi zoomar ut från de omedelbara följderna kan vi se de bredare implikationerna av en data-svält AI-lösning. Generellt sett antar företag AI så att de kan göra mer: få mer insikt, betjäna fler kunder, fungera mer effektivt. Om organisationer lägger tid och resurser på ett AI-verktyg som faller platt, har de i praktiken hämmat sin egen tillväxt, begränsat sin förmåga att anpassa sig till marknaden och överträffa konkurrenterna. Det sätter dem i en nackdel och kommer att lämna dem att kämpa för att komma ikapp den förlorade tiden, resurserna och – potentiellt – kunderna.

Men hopp är inte förlorat; det finns mycket organisationer kan göra för att positionera sig väl, korrigera (eller förhindra) en AI-obalans och gå vidare.

Att fylla gapet med rätt data.

På risk att förenkla, är den bästa sak ledare kan göra för att undvika en AI-obalans att utföra sin due diligence innan de går vidare med någon AI-baserad lösning. Innan de distribuerar ett nytt verktyg, ta tid att lära sig om var data kommer från och hur det genereras.

Om er lösningleverantör eller ledande ingenjör inte kan ge er ett rakt svar om källan, kvaliteten eller mängden underliggande data, bör det utlösa varningsklockor. Få en andra eller tredje åsikt från kanalpartners och integratörer. Crowdsourca intel genom att knacka på användardiskussionsnätverk som Reddit och Discord; se var andra antagare stötte på hinder eller vägbommar. Att veta vilka röda flaggor att leta efter innan man fattar några beslut kan hjälpa ledare att undvika en värld av huvudvärk och förväntade misslyckanden.

Naturligtvis är denna framsynthet inte alltid möjlig och kommer inte att hjälpa organisationer i mitten av en AI-data-brist. Om det inte är ett alternativ att skrota den befintliga lösningen, är det näst bästa att hitta ett sätt att injicera mer data så att verktyget har mer sammanhang, mönster och insikter att dra från.

Syntetisk data är ett alternativ här, men det är inte en universallösning. Det kan vara svårt att fastställa den exakta ursprunget till syntetisk data, så det kanske inte alltid är den bästa vägen framåt. Det finns en tid och en plats för syntetisk data. Till exempel utmärker den sig i att träna AI-säkerhetsmodeller, särskilt på ett antagonistiskt sätt. Som alltid kommer att genomföra forskning i förväg att hjälpa ledare att fatta de bästa besluten för sin verksamhet.

För branscher som detaljhandel eller snabbmatsrestauranger (QSR) föredras mänsklig data. Företag i dessa branscher använder troligen AI för att hjälpa till att optimera kundupplevelsen, så deras verktyg bör tränas på mänskligt beteendemönster. Till exempel, om du hoppas förutsäga hur långt användare kommer att rulla ner på en sida, vill du att AI ska basera sin förutsägelse på verkligt mänskligt beteende under liknande förhållanden.

I vissa fall handlar det inte så mycket om att få ny data som att aktivera befintlig data. Besökarna på webbplatsen och appen finns redan där – det handlar bara om att fånga, strukturera och analysera deras beteendemönster så att AI-verktygen kan använda dem.

Till slut är det bättre att ha otillräcklig data än att ha dålig data; allt organisationer kan göra för att rensa sina lösningar kommer att driva bättre resultat.

Var att börja.

Att vara kort på AI-data kan utgöra en betydande utmaning för organisationer av alla storlekar, och det kan vara överväldigande att ens tänka på vad nästa steg kan vara. Men att erkänna problemet är i sig en prestation. Därifrån handlar det om att hitta de hanterbara, inkrementella stegen som kan hanteras ett i taget.

AI har ett enormt löfte – men endast för de som är villiga att investera i var och en av dess nyckelkomponenter: infrastruktur, applikation och data. Utan dessa lager kommer även den mest eleganta AI-lösningen att falla platt. De organisationer som stänger dataglappet nu kommer inte bara att undvika att hamna efter; de kommer att sätta takten.

Som Fullstorys Chief Product och teknikutvecklingschef bringar Claire Fang mer än två decenniers erfarenhet av produktledning till ledningsgruppen. Med en bakgrund som spänner över publika företag och startups bringar Fang en rikedom av expertis inom att leverera innovation inom företagsprogramvara, bygga världsklassiga produkt- och ingenjörsorganisationer och driva exponentiell affärsutveckling i global skala.

Innan hon gick med i Fullstory tjänstgjorde Claire som produktchef på SeekOut. I denna roll ledde hon företagets produktledning, design och marknadsföringsfunktioner och var ansvarig för produktvision, strategi, vägkarta och genomförande. Dessförinnan var hon produktchef för Qualtrics EmployeeXM-verksamhet, där hon övervakade produktledning, produktmarknadsföring och produktvetenskap och ledde verksamheten genom en 5x tillväxt. Hon har också fått omfattande erfarenhet av produktledning på branschjättar som Facebook och Microsoft, där hon hjälpte till att utveckla Microsoft Azure till en branschledande plattform, vilket resulterade i 50x intäktsökning.

I sin nuvarande roll är Claire ansvarig för att fastställa Fullstorys strategiska produktinriktning och leda produkt-, design- och ingenjörsteam.

Claire har en kandidatexamen i ingenjörsvetenskap från Southeast University och en doktorsexamen i elektroteknik och datateknik från Carnegie Mellon University.