Connect with us

Tankeledere

Datahold er døde, længe leve datahold

mm

Ja, overskriften er klikvenlig og provokerende, men som en CTO med mange års erfaring inden for data, har jeg oplevet en transformation, der retfærdiggør dramatikken. Den traditionelle “datahold” – bagkontoret, der knuser rapporter og dashboards – er effektivt død. I stedet er en ny type datahold på vej: en AI-først, produkt-dreven kraft med direkte indflydelse på omsætning. De er ikke længere en omkostningscenter, men en profit-genererende gruppe.

Rejsen fra Business Intelligence til Machine Learning

For ikke så længe siden var datahold synonymt med business intelligence (BI). Vi var virksomhedens historikere, der levede i SQL og regneark, og havde til opgave at besvare spørgsmålet “Hvad skete der sidste kvartal?” Da big data-teknologier som Hadoop opstod, og begrebet “data scientist” blev det nye sexy job, udviklede datahold sig. I midten af 2010’erne gjorde vi mere end blot rapportering; vi gik ind i data visualisering og interaktive analyser, og producerede dynamiske dashboards til hvert afdeling. Arbejdet handlede om data-wrangling, blanding af datasets fra forskellige kilder og former, og forsøg på at forstå domæneviden.

Derefter bragte slutningen af 2010’erne machine learning-æraen. Datahold begyndte at ansætte data scientists til at bygge predictive modeller og afsløre indsigt i enorme datasets. Vi skiftede fra at beskrive fortiden til at forudsige fremtiden: churn-modeller, anbefalingsmotorer, efterspørgselsprognoser – du navn det. Men selv dengang var vores output slide-decks og indsigt, ikke live-produkter. Vi fungerede som en intern servicebureau, der rådgav virksomheden gennem analyse. Med andre ord var vi omkostningscentre – værdifulde, ja, men et skridt fjernere fra kerneproduktet og omsætning.

I de bedste tilfælde var machine learning-hold spredt ud i separate enheder eller integreret i produktgrupper, så deres modeller og slutninger kunne være fuldt integreret i platforme. Den store skille linje førte til mange fejlslåede projekter, sunkne investeringer og tabte muligheder.

GenAI: Fra supportfunktion til profitcenter

Derefter ankom GenAI og ændrede alt. Udgivelsen af kraftfulde store sprogmodeller, såsom GPT-familien og open-source-variationer som Llama, ændrede landskabet næsten over natten. Pludselig var datahold ikke længere kun analytikerne af virksomheden, men blev en integreret del af opbygningen af AI-produkter og -oplevelser. Når du med succes integrerer en LLM i en kundeorienteret applikation eller en intern arbejdsgang, er du ikke længere kun underrettet om virksomheden; du driver den. En velimplementeret GenAI-system kan automatisere kundesupport, generere marketingindhold, personliggøre brugeroplevelser eller endda levere de data, der er nødvendige for at informere og træne fremvoksende agente AI-systemer. Disse funktioner påvirker direkte omsætningsstrømme. I virkeligheden er dataholdets arbejdsprodukt skiftet fra PowerPoint-foyer til live AI-drevne applikationer.

GenAI-hold begyndte med innovationsgrupper, der leverede beviser for begrebet, der genererede “wow-faktor”. Og snart var alle AI-ingeniører, der spredte skygge-IT over organisationer.

Datahold fandt sig selv over for et nyt spørgsmål: “Når bliver du et profitcenter?” Da AI-ingeniører begyndte at skabe fantastiske værktøjer, var det klart, at tiden var inde til at slå to hold sammen: dem, der kontrollerede data, og dem, der byggede applikationerne.

Overvej en detailvirksomhed, der udruller en GenAI-chatbot til at håndtere salgsforespørgsler, eller en bank, der lancerer en AI-dreven, personlig investeringsrådgiver. Disse er ikke traditionelle IT-sideprojekter – de er digitale produkter, der skaber kundevalue og genererer omsætning. Men samtidig har AI-ingeniørhold brug for at kunne få adgang til og operationalisere de data, som traditionelle hold har forberedt.

Direktører har lagt mærke til det. Forventningerne til datahold er himmelhøje nu, med bestyrelser og CEO’er, der ser til os for at levere den næste AI-drevne vækstvektor. Vi er gået fra at være bagkantensanalytikere til frontline-innovatører. Det er en spændende position at være i, men det kommer med intens pres for at levere resultater i stor målestok.

Fra udforskning til produkt – en envejsdør

Skiftet fra udforskningsanalyse til produktcentreret AI er profundt og uændret. Hvorfor uændret? Fordi GenAIs indvirkning på virksomheden viser sig at være for stor til at føre tilbage til en R&D-legetøj. Ifølge en ny global undersøgelse har 96% af IT-ledere nu integreret AI i deres kerneprocesser – op fra 88% blot et år tidligere. Med andre ord har næsten hver virksomhed gået fra at eksperimentere med AI til at integrere det i mission-kritiske arbejdsgange. Når du først har overskredet grænsen, hvor AI leverer værdi i produktion, er der ingen vej tilbage.

Denne nye AI-drevne fokus ændrer takten og mindset hos datahold. I fortiden havde vi luksusen af lange opdagelsesprojekter og åbne analyser. I dag, hvis vi bygger en AI-funktion, skal den være produktionsklar, compliant og pålidelig – ligesom ethvert kundeorienteret produkt. Vi er indtrådt i det, som nogen kalder “Den autonome æra” for datavidenskab. Spørgsmålet, der vejleder vores arbejde, er ikke længere “hvad indsigt kan vi afsløre?” men “hvad intelligent system kan vi bygge, der handler på indsigt i realtid?”

GenAI-systemer besvarer ikke blot spørgsmål; de begynder at træffe beslutninger. Det er en envejsdør: efter at have oplevet denne type autonomi og indvirkning, vil virksomhederne ikke nøjes med statiske rapporter og manuel beslutningstagning. Nu mere end nogensinde har datahold brug for at være stakeholder- og produktorienteret.

Den hårde sandhed: Hvorfor de fleste GenAI-initiativer fejler

Midt i al spændingen er der en nøgtern realitet: de fleste GenAI-initiativer fejler. Det viser sig, at det at implementere GenAI med succes er ekstremt udfordrende. En ny MIT-studie fandt, at 95% af enterprise GenAI-pilotprojekter aldrig leverer en målbart ROI. Kun omkring 5% af AI-pilotprojekter opnår faktisk hurtige omsætningsgevinster eller betydelig forretningsindvirkning. Dette skyldes ikke mangel på potentiale – det skyldes kompleksiteten af at gøre AI rigtigt.

Ved at dykke ned i årsagerne til fejlen tegner MIT-forskningen et klart billede. Mange projekter snubler, fordi de jagter flashy demo-brugstilfælde i stedet for at investere i de kedelige grundlag for integration, validering og overvågning. Andre fejler på grund af det klassiske “skrald ind, skrald ud“-syndrom – dårlig datakvalitet og siloede datapipelines dømmer projektet, før AI selv får chancen. Ofte er det ikke AI-modellen, der er fejl, men den omgivende miljø. Som forskerne siger, fejler GenAI ikke i laboratoriet; det fejler i virksomheden, når det kolliderer med vagt mål, dårlig data og organisationsinerti. I praksis stagnerer de fleste AI-pilotprojekter på proof-of-concept-stadiet og når aldrig fuld produktion.

Denne realitetscheck er en værdifuld lære. Den fortæller os, at selvom datahold nu er i rampelyset, kæmper de fleste for at møde de højere forventninger. For GenAI at lykkes i stor målestok, må vi overskride en meget højere bar end vi gjorde i de gamle BI-dage.

Udenfor kloge prompts: Data, governance & infrastruktur er afgørende

Hvad adskiller de 5% af AI-projekter, der blomstrer, fra de 95%, der fejler? Ifølge min erfaring (og som forskning bekræfter) fokuserer vinderne på grundlæggende evner – data, governance og infrastruktur. GenAI er ikke magi; det er bygget på data. Uden højkvalitets-, velstyrede datapipelines, der føder modellerne, vil selv den bedste AI producere uvenselige resultater. Summit Partners sagde det godt i en ny analyse: “succesen af ethvert system eller proces, der bruger AI, afhænger af kvaliteten, strukturen og tilgængeligheden af de data, der driver det.”

I praksis betyder det, at organisationer må satse dobbelt på dataarkitektur og governance, mens de adopterer GenAI. Har du enificerede, tilgængelige data butikker, som din AI kan trække på (og jeg mener alle data butikker, herunder datacentre, hyperscalers og tredjeparts SaaS-systemer, blandt andre)? Er disse data rengjort, kurateret og compliant med reguleringer? Er der klar data-afstamning og revision (så du kan stole på AI-outputs og vide, hvordan de kom til at være)? Disse spørgsmål er nu i forgrunden.

GenAI tvinger virksomheder til at få deres datahus i orden.

Governance har også fået en ny betydning. Når en AI-model kan potentielt generere et forkert svar (eller et anstødeligt), er robust governance ikke valgfrit – det er obligatorisk. Kontroller som versionering, bias-checks, menneske-i-løkken gennemgang, og strenge sikkerhedsforanstaltninger omkring følsomme data-indtastninger er afgørende. Uden ordentlig governance, træning og tydeligt definerede mål vil selv et stærkt AI-værktøj have svært ved at få fodfæste i forretningslivet.

Og lad os ikke glemme infrastruktur. Udrulning af GenAI i stor målestok kræver betydelig beregningskraft og rigorøs ingeniørarbejde. Modeller skal servieres i realtid, på tværs af muligvis millioner af forespørgsler med lav ventetid. De kræver ofte GPU’er eller specialiseret hardware, samt løbende overvågning, vedligehold og livscyklusstyring. Med andre ord har du brug for industri-grade AI-infrastruktur, der er sikker, skalerbar og robust. Dette er, hvor konceptet Private AI kommer ind som rammen, der samler infrastruktur med data og governance. Private AI refererer til udviklingen af AI inden for en kontrolleret og sikker miljø, der sikrer datasikkerhed og compliance.

Det afgørende er, at GenAIs succes afhænger af harmonien mellem tre søjler: data, governance og infrastruktur. Uden en af disse risikerer du at slutte dig til de 95% af projekter, der aldrig kommer ud over demo-stadiet.

Hvorfor AI-ingeniører ikke kan gøre det alene

Givet disse krav er det klart, at blot at ansætte nogle talentfulde AI-ingeniører ikke er en sølvkugle. Vi har lært denne lære over de seneste år i dataindustrien. I de tidlige dage af data science-boomet prøvede virksomheder at finde “enhjøringer”-data scientists, der kunne gøre alt – bygge modeller, skrive kode, håndtere data og deployment. Denne myte er siden blevet afvist. Som en veteran-data scientist sagde, “en model, der sidder i en notesbog, gør ikke rigtig noget for virksomheden.” Du har brug for at indlejre denne model i en applikation eller proces for at skabe værdi. Og det kræver et holdarbejde, der spænder over multiple kompetencer.

I slutningen af 2010’erne så vi datahold diversificere sig i separate roller: data-ingeniører begyndte at bygge robuste pipelines, machine learning-ingeniører fokuserede på at producere modeller, analytics-ingeniører styrede analytics-laget, og så videre.

I dag stiller GenAI barrene endnu højere. Ja, du har brug for AI-specialister (prompt-ingeniører, LLM-fine-tunere osv.), men disse specialister vil ramme en væg, hvis de ikke har modne datapipelines, governance-rammer og sikre platforme at arbejde med. En AI-ingeniør kan prototypere en fantastisk sprogmodel i en sandbox, men at omdanne dette til et produkt, der bruges af tusinder eller millioner, kræver samarbejde med sikkerhedshold, compliance-officerer, data-arkitekter, site-reliability-ingeniører og mere.

AI er et holdspil. Det er fristende at tro, du kan slippe en state-of-the-art-model ind i din virksomhed og pludselig have en AI-dreven virksomhed. De virksomheder, der lykkes med AI, er dem, der har bygget tværfaglige hold, eller “AI-fabrikker”, der samler alle disse dele sammen. Deres datahold har effektivt udviklet sig til full-stack AI-produkt hold, der kombinerer data, modeling, ingeniørarbejde og ops-ekspertise. De bygger og udruller deres værktøjer på en data-dreven, produkt-led måde, med værdigenerering indlejret i hver KPI.

Den næste generation af datahold

Så, hvad holder fremtiden for det nye “datahold”? Her er et glimt af, hvad der er på vej for disse hold i de næste få år:

  • Mindre manuel ETL/ELT: Tidkrævende data-wrangling vil aftage. Med mere automatiserede datapipelines og AI-assisteret integration vil hold ikke bruge halvdelen af deres tid på at rense og flytte data. Det grimme arbejde med data-forberedelse vil blive håndteret af intelligente systemer, der tillader mennesker at fokusere på højere niveau-design og kvalitetskontrol.
  • Færre dashboards: Æraen med endeløst finjustering af dashboard-filtre er på vej ud. AI vil enable mere naturlig sprogforespørgsel og dynamisk indsigt-levering. I stedet for forudbyggede dashboards til hvert spørgsmål vil brugere få konversations-svar fra AI (med kilde-data vedhæftet). Datahold vil bruge mindre tid på at udvikle statiske rapporter og mere tid på at træne AI til at generere indsigt på flyvetiden.
  • Flere AI-native produktudviklinger: Datahold vil være i hjertet af produktinnovation. Enten det er udvikling af en ny kundeorienteret AI-funktion eller en intern AI-værktøj, der optimerer operationer, vil disse hold fungere som produkt hold. De vil anvende software-udviklingspraksis, hurtig prototypering, A/B-test og brugeroplevelsesdesign – ikke blot data-analyse. Hvert datahold vil i virkeligheden blive et AI-produkt hold, der leverer direkte forretningsværdi.
  • Autonome agenter på vej op: I den ikke så fjerne fremtid vil datahold udrulle autonome AI-agenter til at håndtere rutinebeslutninger og opgaver. I stedet for blot at forudsige resultater vil disse agenter være autoriseret til at træffe visse handlinger (med oversigt). Forestil dig en AI-ops-agent, der kan detektere en anomali og automatisk åbne en remedieringstikket, eller en salgs-AI-agent, der justerer e-handelspriser i realtid. Datahold vil være ansvarlige for at bygge og styre disse agenter, og drive grænserne for, hvad automation kan opnå.

I lyset af disse ændringer kan man sagtens sige, “datahold, som vi kendte dem, er døde.” Regnearks-jockierne og dashboard-rørmokkerne har givet plads til noget nyt: AI-først hold, der er flydende i data, kode og forretningsstrategi. Men langt fra at være en nekrolog er dette en fejring. Den nye generation af datahold er lige begyndt, og de er mere værdifulde end nogensinde

Så, husk, data-ingeniøren er død, længe leve data-ingeniøren! Datahold, som vi kendte dem, er væk, men længe leve de nye datahold – må de regere i denne AI-drevne verden med indsigt, ansvar og djærvhed.

Sergio Gago er CTO i Cloudera, og bringer mere end 20 års erfaring inden for AI/ML, kvantecomputering og data-drevne arkitekturer. Tidligere Managing Director of AI/ML & Quantum at Moody’s Analytics, har han også haft CTO-roller i Rakuten, Qapacity og Zinio. Sergio er en stærk fortaler for troværdig data-infrastruktur, og mener, at AI vil udvikle sig til at blive virksomhedens operativsystem inden 2030.