Connect with us

Intervjuer

Rony Ohayon, CEO og grunnlegger av DeepKeep – Intervju-serie

mm

Rony Ohayon, CEO og grunnlegger av DeepKeep, er en erfaren entrepreneur og teknolog med en karriere som spenner over AI, cybersikkerhet, autonome systemer og stor-skala video-teknologier. Han har grunnlagt og ledet flere selskaper innen disse domenene, inkludert større roller i autonom kjøretøy-tilkobling, live video-overføring og avansert ingeniørarbeid, samt tidligere akademisk arbeid i datamaskinteknikk.

DeepKeep er en AI-sikkerhetsplattform designet for å hjelpe bedrifter med å sikre AI, generativ AI, LLM, datamaskinsyn og multimodale systemer gjennom hele deres livssyklus. Selskapet fokuserer på å identifisere sårbarheter, blokkere mot adversative trusler, forebygge problemer som datalekkasje og prompt-manipulasjon, støtte regulativ compliance og gi kontinuerlig overvåking for å sikre pålitelige, robuste og beskyttede AI-utviklinger.

Du har ledet store innovasjoner innen video-overføring, autonom kjøretøy-tilkobling og AI-systemer. Hva fra din egen karriere overbeviste deg om at den neste store utfordringen du måtte løse var å sikre bedrifts-AI?

Jeg har alltid vært motivert til å løse høy-impakt-utfordringer som omdefinerer industrier. Over årene har jeg lagt merke til et gjentakende mønster der ny teknologi, spesielt AI, ofte overstiger sikkerhetstiltak, og etterlater kritiske sårbarheter.

Bedrifts-tilpasning av AI, spesielt med oppblomstringen av store språkmodeller (LLM) og agens-AI, åpnet opp en ny frontier av risiko, og bedrifter føler ofte seg overveldet og uforberedt på å utnytte disse systemene trygt og med tillit. Min erfaring med AI-systemer har understreket hvor viktig det er å integrere sikkerhet i hjertet av disse teknologiene for å sikre at de ikke bare er innovative, men også sikre og pålitelige, og produserer pålitelige resultater for å støtte bedrifter proaktivt. Denne erkjennelsen ledet til etableringen av DeepKeep, med fokus på å sikre AI-systemer så bedrifter kan trygt omfavne AI for å øke produktivitet og bedriftsvekst, uten å kompromittere sikkerhet eller personvernet.

Når du og din medgrunnlegger lanserte DeepKeep i 2021, hva var den spesifikke AI-sikkerhets-blindsonen som overbeviste deg om at det var en urgent behov for en dedikert plattform, og hvordan formede denne innsikten selskapets tidligste retning?

Etter år med å arbeide med AI i datamaskinsyn, som krevde betydelige anstrengelser for å sikre at det er pålitelig og robust, realiserte vi at det var på tide å designe en dedikert løsning for å sikre tillit og sikkerhet i datamaskinsyn.

I 2021, før LLM-eksplosjonen, lanserte vi DeepKeep for å løse disse risikoene i datamaskinsynsmodeller.

Kan du gå tilbake til den første prototypen—hva gjorde den faktisk, hvor liten var teamet, og hvordan validerer du at du var på riktig vei?

Når vi etablerte DeepKeep, var fokuset fortsatt på tradisjonell AI – datamaskinsyn, tabellmodeller og tidlig NLP – lenge før oppblomstringen av store språkmodeller. Vår første prototype var et system for å teste datamaskinsynsklassifiseringer for å teste deres robusthet mot adversative angrep. Samtidig bygde vi en tidlig versjon av en AI-brannmur som kunne detektere og flagge disse angrepene i sanntid.

De første bruksfallene kom fra bilindustrien, forsikring og finansielle tjenester, hvor modell-misbehaving har reell operasjonell risiko. Vi var et lite team på om lag åtte personer på den tiden, noe som tillot oss å iterere raskt og produsere en fungerende prototype tidlig.

Vi validerer at vi var på riktig vei ved å snakke direkte med potensielle kunder, som konsekvent understreket adversativ robusthet som en fremvoksende bekymring. Rundt samme tid begynte rammer som MITREs ATLAS – først lansert i 2021 – å dukke opp, som var et viktig eksternt signal om at feltet AI-sikkerhet og adversativ trusselmodellering var på vei til å vokse. Sammenligningen mellom kunde-tilbakemelding og bransje-retning ga oss tillit til at vi gikk i riktig retning.

DeepKeep var designet fra starten av for å sikre AI-systemer i stedet for tradisjonell programvare. Hvordan prioriterer du hvilke modelltyper og angrepsflater å fokusere på først?

Fra utgangspunktet visste vi at å sikre bedrifts-AI krevde en paradigmeskifte. Mens mange organisasjoner er smarte nok til å vite at de må utføre penetrerings-testing og evaluering for modellene de bruker, forsto vi at disse handlingene bare er begynnelsen. De virkelige risikoene oppstår innen hele applikasjons-økosystemet, ikke bare modellene selv.

Så mens sikring av standalone AI-chatbots med tradisjonell red-teaming var bransjens utgangspunkt, flyttet vi raskt videre til å utvikle løsninger som sikrer tilpassede AI-applikasjoner og AI-agenter, og vil utvikle seg til å sikre neste trinn hvor agenter samhandler med hverandre og det er betydelig tverrdomene-intelligens.

Vi muliggjør modell-scanning over alle modelltyper, men også beskytter mot de mest kritiske truslene som adversative angrep, datalekkasje, system-misbruk og tillits-erosjon ved å teste modellene og anvende retningslinjer som sikrer AI-prompter og -svar.

Kritisk sett sikrer vi også AI sin “semantiske lag” ved å forstå konteksten modellene opererer i. Dette sikrer at modellene ikke kan manipuleres like lett.

Hva var de største tekniske eller strategiske endringene du gjorde mellom etableringsfasen og DeepKeeps nåværende produktretning?

En av de største avgjørelsene vi tok var å utvide seg utover tradisjonell modell-sikkerhet og inn i området AI-applikasjonssikkerhet. Først fokuserte vi på å sikre enkeltmodeller, men da AI-landskapet utviklet seg, realiserte vi at å sikre hele AI-økosystemer, hvor flere modeller, agenter og brukstilfeller møtes, var langt mer kritisk. Dette ledet oss til å utvide vår tilnærming ved å inkorporere red-teaming, en omfattende AI-brannmur for å beskytte hver interaksjon agenter, ansatte og applikasjoner har med AI, og kjøretids-overvåking.

En annen nøkkelavgjørelse var å tilby fullt ut deploy-fleksibilitet, inkludert sky-agnostisk, på-premis og luft-gap-søsninger, som tillater bedrifter å trygt deploye DeepKeep i enhver miljø. Vi har også nylig integrert en oppgradert industriledende Personlig Identifiserbar Informasjon-vakt i vår plattform, som har gitt våre kunder en enda dypere nivå av datavern og sikrer at bedrifter kan møte globale krav til compliance mens de skalerer sin AI-bruk.

DeepKeep legger like stor vekt på sikkerhet og tillit. På hvilket stadium ble denne doble fokuset en del av selskapets identitet?

Fokuset på både sikkerhet og tillit ble tydelig tidlig, spesielt da vi begynte å danne en dypere forståelse av våre kunder og deres behov.

Når det gjelder AI-modeller, spiller sikkerhet og tillit like roller og er like viktige, fordi begge kan føre til skadelige og destruktive resultater. En applikasjon kan ikke være robust og samtidig upålitelig, og omvendt.

Tradisjonelle sikkerhetsverktøy var ikke designet for prompt-injeksjon, hallusinasjoner, datalekkasje eller modell-manipulasjon. Hvilken av disse fremvoksende trussel-vektorene så du bedrifter slåss med mest, og hvordan påvirkte disse virkelige problemene DeepKeeps arkitektur?

Av de fremvoksende truslene er prompt-injeksjon og datalekkasje de mest presserende bekymringene vi ser bedrifter slåss med. Mens AI-applikasjoner og AI-agenter blir mer integrert i forretningsprosesser, øker risikoen for sikkerhetsbrudd og misbruk. Dette ledet oss til å designe DeepKeep med fokus på kontekstuell sikkerhet, beskytte ikke bare modellene, men hele data- og interaksjonsflyten innen AI-økosystemer. Vår infrastruktur ble bygget for å pentest disse lagene i utviklingsfasen og beskytte under kjøretid ved å sikre hver AI-interaksjon.

Din plattform kombinerer vakt, red-teaming og datavern-lag. Fra et teknisk ståsted, hvilken av disse har vist seg å være mest vanskelig å konstruere på bedrifts-skala, og hva lærte du mens du bygde et system som må tilpasse seg raskt utviklende AI-modeller?

Hver lag – vakt, red-teaming og datavern – kommer med sine egne tekniske utfordringer, men vi fant at utfordringene alle disse lagene har felles var faktisk de mest vanskelige.

Det første er forandringstakten: nye risiko, jailbreak og angreps-teknikker oppstår konstant, så alt som er statisk blir raskt foreldet. Det andre er kontekst-tilpasning: i bedrifter fungerer ikke en en-size-fits-all-tilnærming, fordi hver applikasjon har forskjellige politikker, data-følsomhet og bruker-atferd.

For å møte den første utfordringen bygde vi en fullstendig modulær arkitektur med plugin-stil-komponenter, som tillater oss å legge til nye angrep i red-teaming-motoren eller nye vakter i brannmuren raskt og uten å forstyrre systemet.

Og for å løse den andre utfordringen, designet vi et agens-, kontekst-bevisst system. Det analyserer applikasjonens miljø og tilpasser automatisk relevante sikkerhetstiltak – noe som er essensielt når de underliggende AI-modellene og brukstilfellene utvikler seg så raskt.

Disse to evnene, modulæritet og kontekst-bevissthet, har vært nøkkel til å operere på bedrifts-skala, samtidig som vi holder tritt med raskt utviklende AI-systemer.

AI-sikkerhet er en utviklende disiplin. Hva huller ser du innen bedrifter i dag—enten i politikk, verktøy eller risiko-forståelse—som mest direkte formede hvordan du designet DeepKeeps sikkerhetsstakk og kunde-oppstart?

Hullene varierer betydelig avhengig av industri, selskapsstørrelse og AI-tilpasningsmodenhet.

En av de største hullene vi ser i store bedrifter i dag er mangelen på en enkelt løsning som dekker alle AI-sikkerhetsbehov. Mange av disse bedriftene er klar over behovet for AI-sikkerhetsløsninger, men etterhvert som tilpasningen øker, øker også kravet til ytterligere sikkerhetsdekning. Vi lærte tidlig at det er verdi i en robust, sluttløs løsning som inkluderer forskjellige evner som opererer i tandem og med sømløs integrasjon. Kundeene nyter godt av en løsning hvor helheten er større enn summen av delene.

Etterhvert som markedet modnet, identifiserte vi et annet hull, som er at organisasjoner søker mer tilpassede og mindre generiske sikkerhetsverktøy for å beskytte sine agenter og applikasjoner. En av grunnene bak vår kontekst-bevisste tilnærming var å møte dette hullet, med forståelsen av at hver applikasjon og agent er forskjellig og må beskyttes på forskjellig måte.

Hvis vi ser fremover fem år, hvordan forventer du at bedrifts-AI-risiko vil utvikle seg—and hvor tror du DeepKeep må være posisjonert for å holde tritt med denne fremtidige utviklingen?

Jeg forventer at de største AI-risiko i de neste fem årene vil utvikle seg sammen med fremgangen i AI-autonomi. Mens agenter blir mer autonome, integrert i hver forretningsprosess og i stand til å utføre komplekse oppgaver, vil risikoen for sikkerhetsbrudd og misbruk øke. Vi forutser utviklingen av et “Internett av Agenter” (IoA), hvor agenter samhandler med hverandre og danner et enda mer komplekst nettverk av AI-interaksjoner å sikre.

For å holde tritt, vil DeepKeep fortsette å utvikle sin plattform for å sikre disse stadig mer komplekse AI-systemene, og sikre at vi tilbyr kjøretidsbeskyttelse over flere AI-modeller og støtte den voksende trenden av AI-drevet beslutning. Vårt mål er å være den pålitelige partneren som bedrifter kan stole på for å sikre hele deres AI-økosystem, uansett hvor sofistikert det blir.

Takk for det flotte intervjuet, lesere som ønsker å lære mer bør besøke DeepKeep

Antoine er en visjonær leder og grunnleggende partner i Unite.AI, drevet av en urokkelig lidenskap for å forme og fremme fremtiden for AI og robotikk. En seriegründer, han tror at AI vil være like disruptiv for samfunnet som elektrisitet, og blir ofte tatt i å tale om potensialet for disruptiv teknologi og AGI.
Som en futurist, er han dedikert til å utforske hvordan disse innovasjonene vil forme vår verden. I tillegg er han grunnleggeren av Securities.io, en plattform som fokuserer på å investere i banebrytende teknologier som omdefinerer fremtiden og omformer hele sektorer.