Connect with us

Tankeledare

Data Teams Are Dead, Long Live Data Teams

mm

Ja, rubriken är klickvärd och provokativ, men som CTO med många år i data har jag bevittnat en transformation som rättfärdigar dramat. Den traditionella “data team” – backoffice-gruppen som kör rapporter och instrumentpaneler – är i praktiken död. I dess ställe uppstår en ny sorts data team: en AI-först, produkt-driven kraft med direkt intäktspåverkan. De är inte längre en kostnadsenhet, utan en vinstgenererande grupp.

Resan från Business Intelligence till Machine Learning

För inte så länge sedan var data team synonymt med business intelligence (BI). Vi var företagets data-historiker, som levde i SQL och kalkylblad, med uppgift att svara på “Vad hände förra kvartalet?” När stordata-teknologier som Hadoop uppstod och begreppet “data scientist” blev det nya moda jobbet, utvecklades data team. I mitten av 2010-talet gjorde vi mer än rapporter; vi gick in på data visualisering och interaktiv analys, och producerade dynamiska instrumentpaneler för varje avdelning. Arbetet handlade om data hantering, att blanda datamängder från olika källor och former, och att försöka förstå domänkunskap.

Sedan kom slutet av 2010-talet och maskinlärningseran. Data team började anställa data scientists för att bygga prediktiva modeller och avslöja insikter i stora datamängder. Vi skiftade från att beskriva det förflutna till att förutsäga framtiden: churn-modeller, rekommendationsmotorer, efterfråganprognoser – du namnger det. Men även då var våra utdata presentationsbilder och insikter, inte levande produkter. Vi fungerade som en intern servicebyrå, som rådgav verksamheten genom analys. Med andra ord var vi kostnadsenheter – värdefulla, ja, men ett steg ifrån kärnprodukt och intäkt.

I de bästa fallen var maskinlärnings team utspridda i separata enheter eller inbäddade i produktgrupper, så att deras modeller och inferenser kunde integreras fullständigt i plattformar. Den stora klyftan ledde till många misslyckade projekt, sänkta investeringar och förlorade möjligheter.

GenAI: Från stödfunktion till vinstenhet

Sedan kom GenAI och allt förändrades. Utgivningen av kraftfulla stora språkmodeller, som GPT-familjen och öppen källkods-variante som Llama, vände landskapet virtuellt över en natt. Plötsligt var data team inte bara analytiker av verksamheten, utan blev en integrerad del av att bygga AI-produkter och upplevelser. När du lyckas integrera en LLM i en kundvänd application eller en intern arbetsflöde, är du inte längre bara informerande verksamheten; du driver den. En välgenomförd GenAI-system kan automatisera kundsupport, generera marknadsinnehåll, anpassa användarupplevelser eller till och med tillhandahålla data som krävs för att informera och utbilda framväxande agenter AI-system. Dessa funktioner påverkar direkt intäktsflöden. I verkligheten har data teamets arbetsprodukt skiftat från PowerPoint-bilder till levande AI-drivna applikationer.

GenAI-team började med innovationsgrupper, som levererade bevis för koncept som genererade “wow-faktor”. Och snart nog var alla AI-tekniker, som spriddes över hela organisationen.

Data team stod snart inför en ny fråga: “När kommer du att bli en vinstenhet?” När AI-tekniker började skapa fantastiska verktyg, var det tydligt att tiden var mogen att slå samman två team: de som kontrollerade data och de som byggde applikationer.

Tänk på ett detaljhandelsföretag som distribuerar en GenAI-chattbot för att hantera försäljningsförfrågningar, eller en bank som lanserar en AI-driven, personlig investeringsrådgivare. Dessa är inte traditionella IT-sidoprojekt – de är digitala produkter som skapar kundvärde och genererar intäkt. Men samtidigt, för att skapa dessa system i stor skala, behöver AI-teknikerteam kunna komma åt och operationalisera data som traditionella team har förberett.

Chefer har märkt. Förväntningarna på data team är himla höga nu, med styrelser och VD:ar som ser till oss för att leverera nästa AI-bränsle tillväxtvektor. Vi har gått från att vara bakom kulisserna analytiker till frontline innovatörer. Det är en spännande position att vara i, men det kommer med intensivt tryck för att leverera resultat i stor skala.

Från utforskning till produkt – en enkelriktad dörr

Skiftet från utforskande analys till produkt-centrerad AI är profound och oåterkallelig. Varför oåterkallelig? För att GenAI:s påverkan på verksamheten visar sig vara för stor för att återgå till en R&D-leksak. Enligt en nyligen global undersökning, 96% av IT-chefer har nu integrerat AI i sina kärnprocesser – upp från 88% bara ett år tidigare. Med andra ord, nästan varje företag har gått från att experimentera med AI till att integrera det i uppdragskritiska arbetsflöden. När du väl har korsat tröskeln där AI levererar värde i produktion, finns det ingen återvändo.

Denna nya AI-drivna fokus förändrar takten och mentaliteten hos data team. I det förflutna hade vi lyxen av långa upptäcktsprojekt och öppna analyser. Idag, om vi bygger en AI-funktion, måste den vara produktionsklar, kompatibel och tillförlitlig – som vilken kundvänd produkt som helst. Vi har gått in i vad vissa kallar “Autonomous Age” av data science. Frågan som vägleder vårt arbete är inte längre “vilka insikter kan vi avslöja?” utan “vilket intelligent system kan vi bygga som agerar på insikter i realtid?”

GenAI-system är inte bara svar på frågor; de börjar fatta beslut. Det är en enkelriktad dörr: efter att ha upplevt denna typ av autonomi och påverkan, kommer företag inte att nöja sig med statiska rapporter och manuell beslutsfattning. Mer än någonsin behöver data team vara intressent- och produkt-orienterade.

Den hårda sanningen: Varför de flesta GenAI-initiativ misslyckas

Mitt i all spänning, finns en nykter verklighet: de flesta GenAI-initiativ misslyckas. Det visar sig att att framgångsrikt distribuera GenAI är extremt utmanande. En nyligen MIT-studie fann att en förbluffande 95% av företags GenAI-pilotprojekt aldrig levererar en mätbar ROI. Bara omkring 5% av AI-piloter uppnår snabba intäktsvinster eller meningsfull verksamhetspåverkan. Detta beror inte på brist på potential – det beror på komplexiteten i att göra AI rätt.

När vi gräver i orsakerna till misslyckande, målar MIT-forskningen en tydlig bild. Många projekt snubblar för att de jagar flashiga demo-användningsfall istället för att investera i de tråkiga grundläggande delarna av integration, validering och övervakning. Andra misslyckas på grund av det klassiska “skräp in, skräp ut“-syndromet – dålig datakvalitet och siloade datapipeliner dömer projektet innan AI ens får göra sitt jobb. Ofta är det inte AI-modellen som är fel, det är den omgivande miljön. Som forskarna säger, GenAI misslyckas inte i labbet; det misslyckas i företaget när det krockar med otydliga mål, dålig data och organisatorisk tröghet. I praktiken, de flesta AI-piloter stannar på proof-of-concept-stadiet och aldrig går vidare till full produktion.

Denna verklighetscheck är en värdefull läxa. Den berättar för oss att även om data team är i rampljuset nu, kämpar majoriteten för att möta de höjda förväntningarna. För att GenAI ska lyckas i stor skala, måste vi korsa en betydligt högre bar än vi gjorde i de gamla BI-dagarna.

Bortom smarta prompter: Data, styrning och infrastruktur är viktiga

Vad skiljer de 5% av AI-projekt som lyckas från de 95% som misslyckas? Enligt min erfarenhet (och som forskning bekräftar), vinnarna fokuserar på grundläggande förmågor – data, styrning och infrastruktur. GenAI är inte magi; det är byggt på data. Utan högkvalitativa, välstyrda datapipeliner som matar modellerna, kommer även den bästa AI att producera oregelbundna resultat. Summit Partners sa det väl i en nyligen analys: “framgången för något system eller process som använder AI hänger på kvaliteten, strukturen och tillgängligheten av data som driver det.”

I praktiken betyder detta att organisationer måste dubbla ner på dataarkitektur och styrning när de antar GenAI. Har du enhetliga, tillgängliga data lagrar som din AI kan dra på (och jag menar ALLA data lagrar, inklusive data center, hyperscalers och tredjeparts SaaS-system, bland andra)? Är den datan rengjord, kuraterad och förenlig med regler? Finns det tydlig data härstamning och granskning (så att du kan lita på AI-utdata och veta hur de kom till)? Dessa frågor är nu i förgrunden.

GenAI tvingar företag att äntligen få sin data i ordning.

Styrning har också fått en ny betydelse. När en AI-modell kan potentiellt generera ett felaktigt svar (eller ett stötande), är robust styrning inte valfri – det är obligatoriskt. Kontroller som versionering, bias-kontroller, mänsklig granskning och strikta säkerhetsåtgärder kring känsliga data inmatningar är essentiella. Utan ordentlig styrning, utbildning och tydligt definierade mål, kommer även ett starkt AI-verktyg att kämpa för att få fäste i verksamheten.

Och låt oss inte glömma infrastruktur. Att distribuera GenAI i stor skala kräver betydande beräkningskraft och rigorös ingenjörskonst. Modeller behöver serveras i realtid, över möjligtvis miljontals förfrågningar med låg latens. De behöver ofta GPU:er eller specialiserad hårdvara, samt kontinuerlig övervakning, underhåll och livscykelhantering. Kort sagt, du behöver industriell AI-infrastruktur som är säker, skalbar och robust. Detta är där konceptet Private AI kommer in som ramen som förenar infrastruktur med data och styrning. Private AI refererar till utvecklingen av AI inom en kontrollerad och säker miljö, vilket säkerställer datasäkerhet och förenlighet.

Slutsatsen är att GenAI:s framgång beror på harmonin mellan tre pelare: data, styrning och infrastruktur. Utan en av dem riskerar du att ansluta till de 95% av projekt som aldrig når produktion.

Varför AI-tekniker inte kan göra det ensam

Med tanke på dessa krav, är det tydligt att att bara anställa några begåvade AI-tekniker inte är en silverkula. Vi har lärt oss denna läxa under de senaste åren i dataindustrin. I början av data science-boomen, försökte företag hitta “enhörningar” data scientists som kunde göra allt – bygga modeller, skriva kod, hantera data och distribution. Den myten har sedan avslöjats. Som en erfaren data scientist sa, “en modell som sitter i en anteckningsbok gör inte någonting för verksamheten.” Du behöver infoga den modellen i en applikation eller process för att den ska skapa värde. Och det kräver ett lagarbete som spänner över flera kompetenser.

I slutet av 2010-talet, såg vi data team diversifiera sig i olika roller: data ingenjörer började bygga robusta pipeliner, maskinlärningsingenjörer fokuserade på produktion av modeller, analytics ingenjörer hanterade analytics-lagret, och så vidare.

Idag, höjer GenAI ribban ännu högre. Ja, du behöver AI-specialister (prompt-tekniker, LLM-fine-tuners, etc.), men dessa specialister kommer att stöta på ett hinder om de inte har mogna datapipeliner, styrningsramar och säkra plattformar att arbeta med. En AI-tekniker kan prototypa en bra språkmodell i en sandlåda, men att vända den till en produkt som används av tusentals eller miljontals kräver samarbete med säkerhetsteam, compliance-officerare, dataarkitekter, site reliability ingenjörer och fler.

AI är ett lagsport. Det är frestande att tro att du kan släppa en state-of-the-art-modell i din verksamhet och plötsligt ha en AI-driven verksamhet. Företagen som lyckas med AI är de som har byggt tvärfunktionella team, eller “AI-fabriker”, som förenar alla dessa delar. Deras data team har effektivt utvecklats till full-stack AI-produktteam, som blandar data, modellering, ingenjörskonst och driftskompetens. De bygger och distribuerar sina verktyg på ett data-driven, produkt-ledd väg, med värdeskapande inbäddat i varje KPI.

Nästa generation av data team

Så, vad har framtiden att bjuda på för det nya “data team”? Här är en glimt av vad som kommer för dessa team under de närmaste åren:

  • Mindre manuell ETL/ELT: Tråkig datahantering kommer att minska. Med mer automatiserade datapipeliner och AI-assisterad integration, kommer team inte att spendera halva sin tid på att rengöra och flytta data. Gruntarbetet med dataförberedelse kommer att hanteras alltmer av intelligenta system, vilket tillåter människor att fokusera på högre nivå-design och kvalitetskontroll.
  • Färre instrumentpaneler: Erans slutlösa justering av instrumentpanelsfilter är på väg ut. AI kommer att möjliggöra mer naturlig språkfråga och dynamisk insikt-leverans. Istället för förbyggda instrumentpaneler för varje fråga, kommer användare att få konversations-svar från AI (med källdata bifogad). Data team kommer att spendera mindre tid på att utveckla statiska rapporter och mer tid på att träna AI för att generera insikter på flyget.
  • Mer AI-nativ produktutveckling: Data team kommer att vara i hjärtat av produktinnovation. Antingen det är att utveckla en ny kundvänd AI-funktion eller en intern AI-verktyg som optimerar verksamheten, kommer dessa team att agera som produktteam. De kommer att använda mjukvaruutvecklingspraxis, snabb prototypning, A/B-testning och användarupplevelse-design – inte bara dataanalys. Varje data team kommer, i verkligheten, att bli ett AI-produktteam som levererar direkt affärs-värde.
  • Autonoma agenter på uppgång: I en inte alltför avlägsen framtid, kommer data team att distribuera autonoma AI-agenter för att hantera rutinmässiga beslut och uppgifter. Istället för att bara förutsäga resultat, kommer dessa agenter att vara auktoriserade att vidta vissa åtgärder (med tillsyn). Tänk på en AI-ops-agent som kan upptäcka en anomali och automatiskt öppna en åtgärdsbiljett, eller en försäljnings-AI-agent som justerar e-handelspriser i realtid. Data team kommer att vara ansvariga för att bygga och hantera dessa agenter, och driva gränserna för vad automatisering kan uppnå.

I ljuset av dessa förändringar, kan man kanske säga att “data team som vi kände dem är döda.” Excelspecialisterna och instrumentpanels-rörmokarna har gett plats för något nytt: AI-första team som är flytande i data, kod och affärsstrategi. Men långt ifrån att vara en dödsruna, är detta en fest. Den nya generationen av data team är bara på väg att börja, och de är mer värdefulla än någonsin

Så, kom ihåg, data ingenjören är död, lång leve data ingenjören! Data team som vi kände dem är borta, men lång leve de nya data teamen – må de regera i denna AI-drivna värld med insikt, ansvar och djärvhet.

Sergio Gago är CTO på Cloudera, med mer än 20 års erfarenhet av AI/ML, kvantberäkning och datastyrda arkitekturer. Tidigare var han Managing Director för AI/ML & Quantum på Moody’s Analytics och har också haft CTO-roller på Rakuten, Qapacity och Zinio. Sergio är en stark förespråkare för tillförlitlig datainfrastruktur och tror att AI kommer att utvecklas till företagets operativsystem senast 2030.