Connect with us

Rony Ohayon, VD och grundare av DeepKeep – Intervjuserie

Intervjuer

Rony Ohayon, VD och grundare av DeepKeep – Intervjuserie

mm

Rony Ohayon, VD och grundare av DeepKeep, är en erfaren entreprenör och teknolog med en karriär som spänner över AI, cybersäkerhet, autonoma system och storskaliga videoteknologier. Han har grundat och lett flera företag inom dessa områden, inklusive viktiga roller inom anslutning av autonoma fordon, direkt videöverföring och avancerad ingenjörskonst, samt tidigare akademiskt arbete inom datorteknik.

DeepKeep är en AI-säkerhetsplattform som är utformad för att hjälpa företag att skydda AI, generativ AI, LLM, datorseende och multimodala system under hela deras livscykel. Företaget fokuserar på att identifiera sårbarheter, blockera adversativa hot, förhindra problem som dataläckage och promptmanipulation, stödja regelefterlevnad och tillhandahålla kontinuerlig övervakning för att säkerställa tillförlitliga, robusta och skyddade AI-distributioner.

Du har lett stora innovationer inom videöverföring, anslutning av autonoma fordon och AI-system. Vad i din egen karriär övertygade dig om att den nästa stora utmaningen du behövde lösa var att säkra företags AI?

Jag har alltid varit motiverad att tackla utmaningar med hög påverkan som kan förändra branscher. Under åren märkte jag ett återkommande mönster där ny teknik, särskilt AI, ofta går före säkerhetsåtgärder, vilket lämnar kvar kritiska sårbarheter.

Företags antagande av AI, särskilt med tillväxten av stora språkmodeller (LLM) och agentbaserad AI, öppnade upp en ny gräns av risker, och företag känner ofta sig överväldigade och outrustade för att utnyttja dessa system på ett säkert och tillförlitligt sätt. Min erfarenhet av AI-system betonade hur viktigt det är att integrera säkerhet i hjärtat av dessa teknologier för att säkerställa att de inte bara är innovativa, utan också säkra och tillförlitliga, och producerar tillförlitliga resultat för att stödja företag proaktivt. Denna insikt ledde till grundandet av DeepKeep, med fokus på att säkra AI-system så att företag kan ta till sig AI för att öka produktivitet och affärsutveckling, utan att kompromissa med säkerhet eller integritet.

När du och din medgrundare lanserade DeepKeep 2021, vilken specifik AI-säkerhetsblind fläck övertygade dig om att det fanns ett brådskande behov av en dedikerad plattform, och hur formade den insikten företagets tidigaste riktning?

Efter år av att ha arbetat med AI inom datorseende, som krävde betydande ansträngningar för att säkerställa att det är tillförlitligt och robust, insåg vi att det var dags att utforma en dedikerad lösning för att säkerställa tillit och säkerhet i datorseende.

2021, före LLM-explosionen, lanserade vi DeepKeep för att tackla dessa risker i datorseendemodeller.

Kan du gå tillbaka till den första prototypen – vad den faktiskt gjorde, hur liten teamet var och hur ni validerade att ni var på rätt väg?

När vi grundade DeepKeep var fokus fortfarande på traditionell AI – datorseende, tabellmodeller och tidig NLP – långt innan tillväxten av stora språkmodeller. Vår första prototyp var ett system för att testa robustheten hos datorseendeklassificerare mot adversativa attacker. Utöver detta byggde vi en tidig version av en AI-brandvägg som kunde upptäcka och flagga dessa attacker i realtid.

De tidigaste användningsfallen kom från bilindustrin, försäkringar och finansiella tjänster, där modellbeteende har verklig operativ risk. Vi var ett litet team på cirka åtta personer vid den tiden, vilket möjliggjorde snabb iteration och produktion av en fungerande prototyp tidigt.

Vi validerade att vi var på rätt väg genom att tala direkt med potentiella kunder, som konsekvent betonade adversativ robusthet som en framväxande oro. Samtidigt som ramverk som MITRE:s ATLAS – som släpptes första gången 2021 – började dyka upp, vilket var ett viktigt yttre signal om att fältet AI-säkerhet och adversativ hotmodellering var på väg att växa. Samstämmigheten mellan kundfeedback och branschriktning gav oss förtroende att vi var på väg åt rätt håll.

DeepKeep var utformad från början för att säkra AI-system snarare än traditionell programvara. Hur prioriterade ni vilka modelltyper och angreppsytor att fokusera på först?

Från början visste vi att att säkra företags AI krävde en paradigmförändring. Medan många organisationer är tillräckligt kloka för att veta att de behöver utföra penetrationstestning och utvärdering för de modeller de använder, förstod vi att dessa åtgärder bara är början. De verkliga riskerna uppstår inom den fullständiga applikationsekosystemet, inte bara modellerna i sig.

Så medan säkerhet för fristående AI-chattbotar med traditionell röd teamning var branschens startpunkt, flyttade vi snabbt vidare till att utveckla lösningar som säkrar anpassade AI-applikationer och AI-agenter, och kommer att utvecklas för att säkra nästa steg där agenter interagerar med varandra och det finns betydande tvärdomänintelligens.

Vi möjliggör modellscanning över alla modelltyper, men skyddar också mot de mest brådskande hoten som adversativa attacker, dataläckage, systemsabotage och tillitserosion genom att testa modellerna och applicera skyddsräcken som säkrar AI-prompter och svar.

Viktigt är att vi också säkrar AI:s “semantiska lager” genom att förstå sammanhanget i vilket modellerna fungerar. Detta säkerställer att modellerna inte kan manipuleras så lätt.

Vilka var de största tekniska eller strategiska vändningarna ni gjorde mellan grundningsstadiet och DeepKeeps nuvarande produktriktning?

En av de största besluten som vi fattade var att expandera bortom traditionell modellsäkerhet in i området AI-applikationssäkerhet. Initialt fokuserade vi på att säkra enskilda modeller, men när AI-landskapet utvecklades insåg vi att att säkra hela AI-ekosystem, där flera modeller, agenter och användningsfall samverkar, var långt viktigare. Detta ledde oss att bredda vår strategi genom att inkorporera röd teamning, en omfattande AI-brandvägg för att skydda varje interaktion agenter, anställda och applikationer har med AI, och realtidsövervakning.

Ett annat viktigt beslut var att erbjuda full distributionsflexibilitet, inklusive moln-agnostisk, on-prem och luftgapande lösningar, som möjliggör för företag att säkert distribuera DeepKeep i vilken miljö som helst. Vi har också nyligen integrerat en uppgraderad branschledande skydd för personlig identifierbar information i vår plattform, vilket har gett våra kunder en ännu djupare nivå av dataskydd och säkerställer att företag kan uppfylla globala krav på efterlevnad när de skalar upp sin AI-användning.

DeepKeep lägger lika stor vikt vid säkerhet och tillförlitlighet. Vid vilken tidpunkt blev detta dubbla fokus kärnan i företagets identitet?

Fokuset på både säkerhet och tillförlitlighet blev tydligt tidigt, särskilt när vi började forma en djupare förståelse för våra kunder och deras behov.

När det gäller AI-modeller går säkerhet och tillit hand i hand och spelar lika viktiga roller eftersom båda kan leda till skadliga och destruktiva resultat. En applikation kan inte vara robust och samtidigt otillförlitlig, och vice versa.

Traditionella cybersäkerhetsverktyg var inte utformade för promptinjektion, hallucinationer, dataläckage eller modellmanipulation. Vilken av dessa framväxande hotvektorer såg ni att företag kämpade mest med, och hur påverkade dessa verkliga problem DeepKeeps arkitektur?

Av de framväxande hoten är promptinjektion och dataläckage de mest pressande problem som vi ser att företag kämpar med. När AI-applikationer och AI-agenter blir alltmer integrerade i affärsprocesser är riskerna för promptmanipulation och oavsiktlig exponering av känslig data mer uttalade. Dessa problem ledde oss att utforma DeepKeep med fokus på kontextuell säkerhet, som skyddar inte bara modellerna utan hela flödet av data och interaktioner inom AI-ekosystem. Vår infrastruktur byggdes för att testa dessa lager i utvecklingsfasen och skydda under drift genom att säkra varje AI-interaktion.

Ert system kombinerar skyddsräcken, röd teamning och dataskyddslager. Ur ett tekniskt perspektiv, vilken av dessa har visat sig vara svårast att konstruera på företagsnivå, och vad lärde ni er medan ni byggde ett system som måste anpassa sig till snabbt föränderliga AI-modeller?

Varje lager – skyddsräcken, röd teamning och dataskydd – kommer med sina egna tekniska utmaningar, men vi fann att utmaningarna som alla dessa lager har gemensamt var de svåraste.

Den första är förändringstakten: nya risker, jailbreaks och attacktekniker uppstår konstant, så allt som är statiskt blir snabbt föråldrat. Den andra är kontextanpassning: i företaget fungerar en “en-storlek-passar-alla”-approach inte eftersom varje applikation har olika policyer, datasensitivitet och användarbeteende.

För att tackla den första utmaningen byggde vi en fullständigt modulär arkitektur med plugin-liknande komponenter, som möjliggör att lägga till nya attacker i röd teamning-motorn eller nya skyddsräcken i brandväggen snabbt och utan att störa systemet.

Och för att lösa den andra utmaningen utformade vi ett agensbaserat, kontextmedvetet system. Det analyserar applikationens miljö och anpassar automatiskt relevanta säkerhetsåtgärder – vilket är avgörande när de underliggande AI-modellerna och användningsfallen utvecklas så snabbt.

Dessa två funktioner, modularitet och kontextmedvetenhet, har varit avgörande för att operera på företagsnivå, samtidigt som man håller jämna steg med snabbt föränderliga AI-system.

AI-säkerhet är en utvecklande disciplin. Vilka luckor ser ni inom företag idag – antingen i policy, verktyg eller riskförståelse – som direkt formade hur ni utformade DeepKeeps säkerhetsstack och kundpåboarding?

Luckor varierar betydligt beroende på bransch, företagsstorlek och AI-antagande mognad.

En av de största luckorna vi ser i stora företag idag är bristen på en enda lösning som täcker alla AI-säkerhetsbehov. Många av dessa företag är medvetna om sitt behov av AI-säkerhetslösningar, men när antagandet ökar, ökar också kraven på ytterligare säkerhetsskydd. Vi lärde oss tidigt att det finns värde i en robust, änd-till-änd-lösning som inkluderar olika funktioner som fungerar tillsammans och med sömlös integration. Kunderna har nytta av en lösning där helheten är större än summan av dess delar.

När marknaden mognade identifierade vi en annan lucka, som är att organisationer söker mer anpassade och mindre generiska säkerhetsverktyg för att skydda sina agenter och applikationer. En av anledningarna till vår kontextmedvetna strategi var att tackla denna lucka, med förståelsen att varje applikation och agent är annorlunda och behöver skyddas på ett sätt som motsvarar det.

Om vi ser framåt fem år, hur förväntar ni er att företags AI-risker kommer att utvecklas – och var tror ni att DeepKeep behöver vara positionerat för att ligga före den framtiden?

Jag förväntar mig att de största AI-riskerna under de närmaste fem åren kommer att utvecklas tillsammans med framsteg inom AI-autonomi. När agenter blir alltmer autonoma, integrerade inom varje affärsprocess och kapabla att utföra komplexa uppgifter, kommer risken för säkerhetsbrott och missbruk att öka. Vi förutser utvecklingen av ett “Internet of Agents” (IoA), där agenter interagerar med varandra, bildande ett ännu mer komplext nätverk av AI-interaktioner som måste skyddas.

För att ligga före den framtiden kommer DeepKeep att fortsätta utveckla sin plattform för att säkra dessa alltmer komplexa AI-system, och säkerställa att vi tillhandahåller skydd i realtid över flera AI-modeller och stödjer den växande trenden av AI-baserat beslutsfattande. Vårt mål är att vara den betrodda partner som företag litar på för att säkra hela deras AI-ekosystem, oavsett hur sofistikerat det blir.

Tack för den utmärkta intervjun, läsare som vill lära sig mer bör besöka DeepKeep.

Antoine är en visionär ledare och medgrundare av Unite.AI, driven av en outtröttlig passion för att forma och främja framtiden för AI och robotik. En serieentreprenör, han tror att AI kommer att vara lika omstörtande för samhället som elektricitet, och fångas ofta i extas över potentialen för omstörtande teknologier och AGI. Som en futurist, är han dedikerad till att utforska hur dessa innovationer kommer att forma vår värld. Dessutom är han grundare av Securities.io, en plattform som fokuserar på att investera i banbrytande teknologier som omdefinierar framtiden och omformar hela sektorer.