Interviews
Onur Alp Soner, administrerende direktør og medstifter af Countly – Interviewserie

Onur Alp Soner er medstifter og administrerende direktør for Countly, en digital analytics- og in-app engagement-platform. Som teknolog og selvstændig iværksætter har han bygget Countly fra bunden op for at give virksomheder mere kontrol over, hvordan de forstår og interagerer med deres brugere. Under hans ledelse er Countly vokset til en troværdig platform for virksomheder verden over, der ønsker at innovere hurtigt samtidig med at holde brugerens privatliv i centrum af deres vækststrategier
Tagen os tilbage til det øjeblik, der fik dig til at grundlægge Countly — hvad var du personligt stødt på med eksisterende analytics-værktøjer, der overbeviste dig om, at dataejerskabsmodellen var fundamentalt fejl?
For omkring 13 år siden, da mobile apps begyndte at tage af, fulgte analytics-værktøjerne en meget bestemt model. Mange af dem var gratis eller ret billig, men kompromiset var, at platformen indsamlede og moniterede din data, ofte for at føde den ind i reklameøkosystemer. På det tidspunkt var det bredt accepteret som den normale måde, tingene fungerede på.
Det passede dog ikke for os. Selv som en lille virksomhed gjorde tanken om at aflevere alle vores brugerdata bare for at forstå, hvordan vores produkt fungerede, ikke mening.
Countly startede som en reaktion på det. Vi ville bygge analytics, som virksomheder kunne fuldt ud eje og kontrollere, hvilket er hvorfor vi lancerede det som en open-source, selvhostet platform. Idéen var simpel: organisationer skulle være i stand til at forstå og handle på deres data uden at give den væk. Den princip er stadig i centrum af Countly i dag.
Siden du grundlagde Countly, har AI skubbet dataejerskab fra en nichebekymring til en strategisk krav. Hvornår blev det klart for dig, at denne princip ville have betydning langt ud over analytics?
I de tidlige år var de fleste samtaler om dataejerskab rammet inden for privatliv eller overholdelse. Det var primært banker, sundhedsudbydere og regeringer, der dybt bekymrede sig om, hvor deres data boede og hvem kontrollerede den. For mange andre blev analytics stadig set som et simpelt rapporteringsværktøj, så ejerskabsproblemet føltes ikke presserende.
Denne perspektiv begyndte at skifte, da virksomheder begyndte at afhænge mere tungt af data til at køre deres produkter, ikke kun til at måle dem. Når analytics flyttede fra rapportering til beslutningstagning, personliggørelse, produktændringer og kundeengagement, blev vigtigheden af at kontrollere den data meget mere tydelig. Hver digital førstevirksomhed, fra mobilitet til hospitality, konkurrerede effektivt på data, ikke kun på deres front-end-oplevelse.
AI har accelereret den erkendelse dramatisk. Du kan licensere eller bygge en AI-model, men du kan ikke købe den adfærdsmæssige data, der afspejler, hvordan dine egne kunder interagerer med dit produkt. Den data er unik for hver organisation.
Mange organisationer tror, de er “AI-klare”, fordi de har store mængder af data. Hvad mangler der normalt under overfladen, når du ser ind i virkelige virksomheder?
Manglende data er normalt ikke problemet. Det virkelige problem er manglen på brugbar data. Mange organisationer har enorme mængder af information, men det er fragmenteret over forskellige værktøjer, hold og systemer. For eksempel kan marketing have en dataset, produkt en anden, og ingeniører deres egen telemetri, ofte gemt i forskellige formater med lidt fælles struktur.
Til at AI skal være nyttig, skal dataene under være rene, konsistente og kontekstuelle. Det er ikke nok at indsamle begivenheder eller logfiler; du skal forstå, hvad disse signaler faktisk repræsenterer. Uden den semantiske lag, er AI-systemer essentielt gætter.
Et andet problem er ejerskab. Et overraskende antal virksomheder ejer ikke selv deres egen data, fordi den sidder inde i tredjepartsplatforme. Det gør det svært at kombinere datasets, styre, hvordan de bruges, eller sikkert anvende AI-modeller til dem.
Så når virksomheder siger, de er AI-klare, fordi de har en masse data, er den virkelige spørgsmål, om de har en samlet datagrundlag.
Hvorfor skaber førstehandsdata en varig konkurrencemæssig fordel i AI-systemer, mens modellerne selv bliver mere udskiftelige?
Det, der skaber en varig fordel, er ikke modellen selv, men forståelsen af brugerne, der kommer fra førstehandsdata. Den data afspejler, hvordan folk faktisk interagerer med dit produkt, og det er unikt for hver organisation. Modeller, på den anden side, bliver mere og mere udskiftelige. Du kan licensere dem, finjustere dem eller skifte mellem leverandører relativt let. Det, du ikke kan replikere, er den adfærdsmæssige data, der genereres af dine egne brugere, der interagerer med dine produkter over tid.
Den data fanger mønstre, kontekst og signaler, der afspejler, hvordan kunder faktisk opfører sig. Når det er struktureret og forstået korrekt, giver det virksomheder mulighed for at bygge systemer, der lærer kontinuerligt fra reel brug i stedet for generiske datasets.
Hvor bryder moderne analytics-stacks stille sammen, når de genbruges til AI-systemer i stedet for rapportering, dashboards og KPI’er?
De tendrer til at bryde sammen ved det punkt, hvor data skal flytte fra observation til handling. Traditionelle analytics-stacks var designed primært til rapportering. De indsamler og aggregatorer data, derefter præsenterer de det i dashboards, der hjælper hold med at forstå, hvad der skete i går eller sidste uge.
AI-systemer fungerer dog meget anderledes. De kræver data, der er struktureret, kontekstuel og tilgængelig i realtid, så det kan direkte påvirke, hvordan et system opfører sig. Når analytics-pipelines er bygget omkring batch-behandling og forsinket rapportering, kæmper de for at understøtte systemer, der har brug for at reagere øjeblikkeligt.
Hvordan viser manglen på sandt dataejerskab sig operationelt, når hold forsøger at flytte AI fra eksperiment til produktion?
Det viser sig normalt som et kontrolproblem. I sidste ende, hvis du ikke har kontrol over din data, har du ikke kontrol over din AI. Dette bliver især tydeligt, når hold flytter fra eksperiment til produktion. Under eksperimentation kan hold ofte arbejde med små datasets eller midlertidige pipelines, men produktionsystemer kræver konstant adgang til pålidelig data på tværs af organisationen.
Derefter bor data ofte på tværs af forskellige tredjepartsplatforme, såsom analytics-værktøjer, marketingsystemer eller cloud-tjenester. Det gør det svært at kombinere datasets, anvende styreregler eller flytte data mellem systemer på en kontrolleret måde. Dette er en årsag til, at mange AI-projekter bliver fastlåst i pilotfaser. Uden struktureret, organisationsspecifik data, bliver det svært at implementere AI pålideligt i produktion.
Det gør det også sværere at spore, hvordan en model nåede en beslutning, eller at genskabe den præcise datastatus bag den. Uden det niveau af kontrol, bliver det ekstremt svært at korrigere fejl eller rulle beslutninger tilbage.
Hvorfor underminerer dårlig datastruktur, semantik og kontekst selv de mest kapable AI-modeller?
Selv de mest kapable AI-modeller er kun så gode som den data, de modtager. Hvis den underliggende data er dårligt struktureret eller mangler kontekst, har modellen meget lidt forståelse for, hvad disse signaler faktisk repræsenterer.
I mange systemer indsamles data som isolerede begivenheder eller logfiler uden en klar betydning knyttet til dem. En model kan se tusinder af interaktioner, men uden korrekt struktur og semantik, kan den ikke skelne mellem, hvad der er vigtigt, og hvad der blot er støj.
Kontekst er lige så vigtig. AI-systemer har brug for at forstå, hvordan forskellige dele af data relaterer til hinanden over tid. Uden den kontekst, kan modeller stadig producere output, men de er ofte upålidelige, fordi systemet arbejder med ufuldstændig information.
Hvad er advarselstegn, der indikerer, at en virksomhed er på vej mod generiske AI-resultater langt før disse oplevelser føles generiske for kunderne?
Det mest grundlæggende advarselstegn er, når virksomheder afhænger af de samme eksterne AI-modeller og værktøjer, men gør meget lidt for at udvikle deres eget datagrundlag. Hvis organisationer bruger de samme modeller, men ikke føder dem med deres egen bruger- og kontekstuel data, arbejder systemerne essentielt fra de samme generiske indgange. I den situation kan AI kun producere højt niveau eller generiske resultater. Over tid fører dette til produkter, der føles mere og mere ens, fordi intelligensen bag dem er bygget på den samme begrænsede information.
Et andet advarselstegn er, når organisationer fokuserer tungt på at adoptere AI-modeller, men betaler lidt opmærksomhed til strukturen og kvaliteten af deres data. AI forstærker, hvad det modtager. Hvis den underliggende data er rodet, fragmenteret eller dårligt struktureret, vil systemet blot producere en mere sofistikeret version af det samme problem.
For organisationer, der forsøger at bygge AI på toppen af deres egen data, hvad tillader Countly, som traditionelle analytics- og data-platforme ikke gør?
Den nøgleforskel er, hvordan kontrol er bygget ind i platformen. I mange analytics-produkter er dataejerskab noget, der viser sig som en mulighed eller funktion. Med Countly sidder det i centrum af systemet. Platformen blev designet, så organisationer ikke behøver at aflevere kontrol over deres data for avanceret funktionalitet.
I praksis betyder det, at virksomheder kan køre Countly i deres egen miljø, opretholde fuld kontrol over deres datastack, og stadig få adgang til analytics-, engagement- og automatiseringsfunktioner i stor skala. Dette bliver især vigtigt, når organisationer ønsker at bygge AI på toppen af deres egen data. Mange traditionelle analytics-værktøjer er bygget primært til rapportering, hvilket betyder, at data, de indsamler, ofte bliver i tredjepartsdashboards i stedet for at blive et brugbart grundlag for andre systemer. Countly tager en anden tilgang ved at behandle analytics som en del af den underliggende data-infrastruktur.
Da AI-systemer bliver integreret i daglige beslutninger, hvordan bør definitionen af etisk AI udvikle sig, når dataejerskab behandles som en kerne-designprincip i stedet for en politik-afkrydsningsfelt?
Når dataejerskab bliver en designprincip, er etisk AI ikke længere om at gennemgå modeller efter faktum — det handler om at konstruere systemer, hvor brugerne fastholder agentur over den data, der træner dem. Etik bliver infrastruktur.
Tak for det gode interview, læsere, der ønsker at lære mere, skal besøge Countly.












