Connect with us

Interviews

Ron Reiter, CTO og medstifter af Sentra – Intervju-serie

mm

Ron Reiter, CTO og medstifter af Sentra, er en erfaren iværksætter og cybersecurity-ekspert med dyb viden om cloud, der har udviklet innovative teknologiløsninger gennem mere end to årtier i softwareudvikling; han var med til at stifte og lede teknologien i Sentra, et data-cybersecurity-firma, der fokuserer på at hjælpe virksomheder med at sikre deres cloud-data, og tidligere var med til at stifte Crosswise (opkøbt af Oracle for 50 millioner dollars), samt havde en stilling som teknisk direktør i Oracle/Crosswise i mere end seks år, hvor han overvågede Oracle Data Cloud-produkter og -hold.

Sentra er en cloud-naturlig data-sikkerhedsplatform, der bruger AI-drevet opdagelse, klassificering og kontekstuel analyse til at give organisationer fuld visibilitet og kontrol over følsomme data på tværs af cloud-, hybrid- og on-premises-miljøer, hvilket hjælper dem med at vurderere risiko, gennemtvinge governance, opfylde compliance og forhindre data-eksponering i stor målestok på tværs af moderne multi-cloud- og AI-arbejdsgange.

De har stiftet flere virksomheder inden for cybersecurity og data-infrastruktur. Hvad inspirerede dem til at oprette Sentra, og hvordan har deres erfaring fra Crosswise og Oracle påvirket virksomhedens tidlige retning?

Det, der fik mig til at starte Sentra, var et mønster, jeg hele tiden så gentage sig. På Crosswise og senere på Oracle var data altid centrum for tyngdekraften. Det var, hvor værdien boede, men også hvor risikoen akkumuleredes. Dog behandlede de fleste sikkerhedsværktøjer data som noget statisk, noget man opdagede én gang og derefter antog var under kontrol.

Da cloud-adopteringshastigheden accelererede, og organisationer begyndte at eksperimentere med AI, holdt denne antagelse op med at gælde. Data var i konstant bevægelse, blev kopieret, transformeret og adgang til systemer, som ingen fuldt ud sporede. Jeg ville oprette en virksomhed, der startede med data som en levende aktiv, noget man kontinuerligt forstår og regulerer, snarere end noget man opdager én gang og derefter glemmer. Den idé formede Sentra fra dag én.

Sentra fokuserer på at give organisationer fuld kontrol og visibilitet over deres cloud-data. Hvad var det centrale problem, de var mest fast besluttede på at løse, da de begyndte at arkitekturere platformen?

Det centrale problem var falsk tillid. Mange organisationer troede, de forstod deres data-postur, men den tillid var baseret på partielt overblik. De vidste, hvor nogen følsomme data boede, men ikke alle, og de havde sjældent et klart billede af, hvordan data blev adgang eller genbrugt over tid.

Vi satte os for at lukke den lukning. Ikke kun ved at opdage data, men ved at opretholde en kontinuerlig forståelse af, hvilke data der eksisterer, hvor følsomme de er, og hvem eller hvad der kan få adgang til dem. Uden den grundlag, bliver alt andet i sikkerheden reaktivt.

De har talt om vigtigheden af nøjagtighed i moderne data-sikkerhed. Hvad gør, at det er så svært at opnå høj nøjagtighed i stor cloud-målestok, og hvordan gjorde deres team noget anderledes for at løse dette problem?

Nøjagtighed bliver svær at opnå i stor målestok, fordi kontekst er vigtig. Da miljøer vokser, bliver data mere ustruktureret og mere specifik for, hvordan en forretning faktisk opererer. Enkel mønster-genkendelse og generelle modeller fungerer rimeligt godt i små miljøer, men de bryder sammen, da data-volumener vokser, og brugs Tilfælde bliver mere komplekse.

Vi så dette først i enterprise-evalueringer, hvor nøjagtigheden forringedes, da kunderne flyttede fra ti terabyte til petabyte ustruktureret data. Vores tilgang var at designe klassificering omkring kontekst og at være disciplineret omkring effektivitet. Nøjagtighed, der kun fungerer i lille målestok eller kræver ekstrem beregning, er ikke nyttig i rigtige enterprise-miljøer.

At scanne og sikre data på tværs af distribuerede cloud-miljøer er notorisk svært. Hvad er de arkitektoniske beslutninger, der giver Sentra mulighed for at operere effektivt på tværs af flere clouds og data-lager?

Vi antog fra starten, at kunder ville operere på tværs af flere clouds, SaaS-platforme og hybrid-miljøer. Det fik os til at undgå designs, der afhænger af tung data-bevægelse eller konstant fuld gen-scanning, som ikke fungerer godt, når miljøer vokser.

I stedet fokuserede vi på at opretholde visibilitet, mens miljøer ændrer sig, og minimere unødvendig overhæng. Denne design-valg viser sig i pålidelighed og omkostningsforudsigelighed, især i store, komplekse miljøer.

Da AI-agenter, co-piloter og automatiserede arbejdsgange bliver integreret i enterprise-systemer, hvilke nye kategorier af data-sikkerheds-risiko tror de, at virksomheder stadig undervurderer?

Det største blinde punkt er ikke-menneskelig adgang. AI-agenter, integrationer og automatiserede arbejdsgange får konstant adgang til følsomme data, ofte uden for kontrollerne, der er designet til menneskelige brugere.

Disse systemer logger ikke ind på samme måde, som mennesker gør, og de udløser ikke traditionelle advarsler. At behandle dem som bare endnu en bruger er en fejl. Virksomheder skal forstå, hvad disse systemer kan få adgang til, og sikre, at disse tilladelser forbliver i overensstemmelse med hensigten, ellers stiger risikoen hurtigere, end holdene kan reagere.

Sentra bruger en model-drevet tilgang til at klassificere og sikre følsomme data. Hvordan balancerer de model-ydelse, driftsomkostninger og skalerbarhed, når de bygger til enterprise-arbejdsmængder?

Balance kommer fra at være bevidst om, hvordan modellerne bruges. Ikke alle problemer kræver den største eller mest generelle model. Vi fokuserer på at bruge små sprogmodeller (SLM), der er velegnede til klassificeringsopgaver og kan operere effektivt i store miljøer.

Dette giver os mulighed for at opretholde stærk nøjagtighed, mens vi holder driftsomkostningerne lave og forudsigelige. For enterprise-sikkerhedshold er konsistens og pålidelighed lige så vigtige som rå-ydelse.

Hvad er den største misforståelse, de ser blandt CISO’er om at sikre cloud-data i AI-æraen, og hvordan skal deres strategier udvikle sig?

En almindelig misforståelse er, at det at opdage data én gang er nok. I virkeligheden ændrer cloud- og AI-miljøer sig konstant. Data flytter sig, tilladelser glider, og nye systemer kommer online hver uge.

Strategier skal skifte fra periodisk vurdering til kontinuerlig governance. Det betyder, at data-sikkerhed skal behandles som en kontinuerlig disciplin snarere end et projekt. Målet er ikke kun at finde risiko, men at forhindre, at risiko genopstår, mens miljøet udvikler sig.

Data-Sikkerheds-Posture-Management (DSPM) er blevet en central lag i den moderne cloud-sikkerheds-stak. I deres syn, hvilke egenskaber definerer en virkelig moden DSPM-platform?

En moden DSPM-platform gør tre ting godt. Den skal forstå data nøjagtigt, den skal operere pålideligt i stor målestok, og den skal støtte handling snarere end kun rapportering.

Det, vi ser lige nu, er, at mange platforme ser stærke ud i POV’er eller tidlige installationer, men kæmper, når miljøer vokser, og adgangsmønstre bliver mere dynamiske. Scans langsommelighed, omkostninger stiger, og nøjagtigheden forringes, især med ustruktureret data. En moden DSPM-platform er en, som sikkerhedsholdene stadig stoler på, når data-volumener når produktions-målestok, og AI-systemer får adgang til data konstant. Tillid i stor målestok er, hvad adskiller brugbare platforme fra teoretiske.

De har også investeret i flere cybersecurity-startups. Fra det perspektiv, hvad tror de adskiller grundlæggere, der lykkes i denne branche, fra dem, der kæmper?

Grundlæggerne, der lykkes, tenderer til at være meget tæt på virkelige kunde-smerter. De modstår fristelsen til at jage buzzwords eller overbygge for edge-cases, og i stedet fokuserer de på at løse problemer, der viser sig gentagne gange i produktions-miljøer.

De tænker også på bæredygtighed tidligt. I sikkerhed er det let at vinde en proof of concept, men at køre pålideligt i stor målestok i årevis er meget sværere. Grundlæggere, der designer til den virkelighed fra starten, tenderer til at holde længe.

I 2026 og derefter, hvordan forventer de, at data-sikkerheds-krav vil ændre sig, mens organisationer adopterer decentraliserede arkitekturer, autonome AI-systemer og stadig mere komplekse data-flows?

Data-sikkerhed vil flytte sig fra at beskytte lokaliteter til at regulerer bevægelse. Da arkitekturer decentraliseres, og AI-systemer handler autonomt, vil spørgsmålet ikke længere være, hvor data befinder sig, men hvordan det flytter sig, og hvem eller hvad der kan bruge det.

Organisationer skal have kontinuerlig visibilitet og politik-gennemtvingelse, der følger med data selv. De, der ikke kan opnå det, vil finde, at deres AI-initiativer langsommes af risiko- og compliance-bekymringer. De, der kan, vil flytte hurtigere med tillid.

Antoine er en visionær leder og medstifter af Unite.AI, drevet af en urokkelig passion for at forme og fremme fremtiden for AI og robotteknologi. En serieiværksætter, han tror, at AI vil være lige så omvæltende for samfundet som elektricitet, og bliver ofte fanget i at tale begejstret om potentialet for omvæltende teknologier og AGI.

Som en futurist, er han dedikeret til at udforske, hvordan disse innovationer vil forme vores verden. Derudover er han grundlægger af Securities.io, en platform, der fokuserer på at investere i skærende teknologier, der gendefinerer fremtiden og omformer hele sektorer.