Connect with us

Interviews

Rony Ohayon, CEO en oprichter van DeepKeep – Interviewreeks

mm

Rony Ohayon, CEO en oprichter van DeepKeep, is een ervaren ondernemer en technoloog met een carrière die zich uitstrekt over AI, cybersecurity, autonome systemen en grootschalige videotechnologieën. Hij heeft meerdere bedrijven opgericht en geleid in deze domeinen, waaronder belangrijke rollen in autonome voertuigconnectiviteit, live videouitzending en geavanceerde engineering, naast eerdere academische werk in computerengineering.

DeepKeep is een AI-beveiligingsplatform ontworpen om ondernemingen te helpen bij het beveiligen van AI, generatieve AI, LLM’s, computervisie en multimodale systemen gedurende hun hele levenscyclus. Het bedrijf richt zich op het identificeren van kwetsbaarheden, het blokkeren van adversarial bedreigingen, het voorkomen van problemen zoals gegevenslekkage en promptmanipulatie, het ondersteunen van regelgevingsconformiteit en het bieden van continue monitoring om ervoor te zorgen dat AI-implementaties betrouwbaar, veerkrachtig en beveiligd zijn.

U heeft grote innovaties geleid in video-overdracht, autonome voertuigconnectiviteit en AI-systemen. Wat uit uw eigen carrière heeft u ervan overtuigd dat de volgende grote uitdaging die u moest oplossen het beveiligen van ondernemings-AI was?

Ik ben altijd gemotiveerd om grote impact te hebben en uitdagingen aan te gaan die industrieën vormgeven. In de loop der jaren merkte ik een terugkerend patroon waarbij nieuwe technologie, vooral AI, vaak de beveiligingsmaatregelen voorbij streeft, waardoor kritieke kwetsbaarheden achterblijven.

De adoptie van AI door ondernemingen, vooral met de opkomst van grote taalmodellen (LLM’s) en agent-AI, opende een nieuwe frontier van risico’s, en bedrijven voelen zich vaak overweldigd en onvoorbereid om deze systemen veilig en vertrouwd te gebruiken. Mijn ervaring met AI-systemen benadrukte hoe essentieel het is om beveiliging te integreren in het hart van deze technologieën om ervoor te zorgen dat ze niet alleen innovatief zijn, maar ook beveiligd en betrouwbaar, en betrouwbare resultaten opleveren om bedrijven proactief te ondersteunen. Deze realisatie leidde tot de oprichting van DeepKeep, met een focus op het beveiligen van AI-systemen, zodat bedrijven AI kunnen omarmen om de productiviteit en bedrijfsgroei te stimuleren, zonder compromissen te doen over beveiliging of privacy.

Toen u en uw mede-oprichter DeepKeep in 2021 lanceerden, welke specifieke AI-beveiligingsblindvlek overtuigde u ervan dat er een dringende behoefte was aan een toegewijd platform, en hoe vormde die inzicht de vroegste richting van het bedrijf?

Na jaren te hebben gewerkt met AI in computervisie, die aanzienlijke inspanningen vereiste om ervoor te zorgen dat het betrouwbaar en robuust is, realiseerden we dat het tijd was om een toegewijd oplossing te ontwerpen om vertrouwen en beveiliging in computervisie te waarborgen.

In 2021, vóór de explosie van LLM’s, lanceerden we DeepKeep om deze risico’s in computermodellen aan te pakken.

Kunt u ons terugbrengen naar het eerste prototype – wat het eigenlijk deed, hoe klein het team was, en hoe u valideerde dat u op de juiste weg was?

Toen we DeepKeep oprichtten, lag de focus nog steeds op traditionele AI – computervisie, tabulaire modellen en vroege NLP – lang voordat de opkomst van grote taalmodellen. Ons eerste prototype was een systeem voor het testen van de robuustheid van computervisieclassificatoren tegen adversarial aanvallen. Naast dat bouwden we een vroege versie van een AI-firewall die deze aanvallen in real-time kon detecteren en markeren.

De eerste use cases kwamen uit de automotive, verzekeringen en financiële dienstverlening, waar modelmisgedrag reële operationele risico’s met zich meebrengt. We waren een klein team van ongeveer acht personen op dat moment, wat ons in staat stelde om snel te itereren en een functioneel prototype vroeg te produceren.

We valideerden dat we op de juiste weg waren door rechtstreeks met potentiële klanten te praten, die consistent benadrukten dat adversarial robuustheid een opkomend probleem was. Rond dezelfde tijd verschenen kaders zoals MITRE’s ATLAS – voor het eerst uitgebracht in 2021 – die een belangrijk extern signaal waren dat het veld van AI-beveiliging en adversarial threat modeling op het punt stond te groeien. De alignering tussen klantfeedback en industrie richting gaf ons vertrouwen dat we de juiste kant op gingen.

DeepKeep was vanaf het begin ontworpen om AI-systemen te beveiligen in plaats van traditionele software. Hoe prioriteerde u welke modeltypen en aanvalsvlakken u eerst moest focussen?

Vanaf het begin wisten we dat het beveiligen van ondernemings-AI een paradigmaswitch vereiste. Terwijl veel organisaties slim genoeg zijn om te weten dat ze penetratietests en evaluaties voor de modellen die ze gebruiken moeten uitvoeren, begrepen we dat die acties alleen het begin zijn. De echte risico’s ontstaan binnen de volledige applicatie-ecosysteem, niet alleen de modellen zelf.

Dus terwijl het beveiligen van standalone AI-chatbots met traditioneel red-teaming het startpunt van de industrie was, gingen we snel verder met het ontwikkelen van oplossingen die aangepaste AI-toepassingen en AI-agents beveiligen, en zullen evolueren om de volgende stap te beveiligen waarin agents met elkaar communiceren en er sprake is van significante cross-domeinintelligentie.

We maken modelscanning mogelijk over alle modeltypen, maar beschermen ook tegen de meest urgente bedreigingen zoals adversarial aanvallen, gegevenslekkage, systeemmisbruik en vertrouwenserosie door modellen te testen en guardrails toe te passen die AI-prompts en -antwoorden beveiligen.

Cruciaal is dat we ook de “semantische laag” van AI beveiligen door de context te begrijpen waarin de modellen opereren. Dit zorgt ervoor dat modellen niet zo gemakkelijk gemanipuleerd kunnen worden.

Wat waren de grootste technische of strategische koerswijzigingen die u maakte tussen de oprichtingsfase en de huidige productrichting van DeepKeep?

Een van de grootste beslissingen die we namen, was om verder te gaan dan traditionele modelbeveiliging naar het domein van AI-toepassingsbeveiliging. Aanvankelijk richtten we ons op het beveiligen van individuele modellen, maar naarmate de AI-landschap evolueerde, realiseerden we dat het beveiligen van complete AI-ecosystemen, waar meerdere modellen, agents en use cases samenkomen, veel kritischer was. Dit leidde ons ertoe om onze aanpak te verbreden door red-teaming, een uitgebreid AI-firewall om elke interactie tussen agents, medewerkers en applicaties met AI te beschermen, en run-time monitoring op te nemen.

Een andere belangrijke beslissing was om volledige implementatieflexibiliteit te bieden, inclusief cloud-agnostische, on-prem en air-gapped oplossingen, waardoor ondernemingen DeepKeep veilig kunnen implementeren in elke omgeving. We hebben onlangs ook een geüpgrade, industrieleidende Persoonlijk Identificeerbare Informatie-guardrail geïntegreerd in ons platform, wat onze klanten een nog diepere niveau van gegevensbescherming heeft geboden en ervoor zorgt dat ondernemingen wereldwijde conformiteitsvereisten kunnen naleven terwijl ze hun AI-gebruik opschalen.

DeepKeep legt evenveel nadruk op beveiliging en betrouwbaarheid. Op welk moment werd deze dubbele focus core tot de identiteit van het bedrijf?

De focus op zowel beveiliging als betrouwbaarheid werd vroeg duidelijk, vooral toen we een dieper begrip van onze klanten en hun behoeften begonnen te vormen.

Bij het omgaan met AI-modellen gaan beveiliging en vertrouwen hand in hand en spelen ze even belangrijke rollen, omdat ze uiteindelijk tot schadelijke en destructieve resultaten kunnen leiden. Een applicatie kan niet robuust en onbetrouwbaar zijn, en vice versa.

Traditionele cybersecuritytools waren niet ontworpen voor promptinjectie, hallucinaties, gegevenslekkage of modelmanipulatie. Welke van deze opkomende bedreigingsvectoren ziet u ondernemingen het meest worstelen, en hoe hebben deze real-world problemen de architectuur van DeepKeep beïnvloed?

Van de opkomende bedreigingen zijn promptinjectie en gegevenslekkage de meest dringende zorgen die we zien bij ondernemingen. Naarmate AI-toepassingen en AI-agents meer geïntegreerd raken in bedrijfsprocessen, nemen de risico’s van promptmanipulatie en het onbewuste blootstellen van gevoelige gegevens toe. Deze problemen leidden ons ertoe om DeepKeep te ontwerpen met een focus op contextuele beveiliging, waarbij niet alleen de modellen worden beschermd, maar het hele datavolume en de interacties binnen AI-ecosystemen.

Uw platform combineert guardrails, red-teaming en dataprotectie. Vanuit een technisch oogpunt, welke hiervan is het moeilijkst gebleken om te ontwikkelen op ondernemingsniveau, en wat hebt u geleerd bij het bouwen van een systeem dat moet aanpassen aan snel evoluerende AI-modellen?

Elk van deze lagen – guardrails, red-teaming en dataprotectie – komt met zijn eigen technische uitdagingen, maar we vonden dat de uitdagingen die al deze lagen gemeen hebben, eigenlijk het moeilijkst waren.

De eerste is het tempo van verandering: nieuwe risico’s, jailbreaks en aanvalstechnieken ontstaan constant, dus alles wat statisch is, wordt snel verouderd. De tweede is contextadoptie: in het bedrijfsleven werkt een one-size-fits-all-benadering eenvoudigweg niet, omdat elke applicatie andere beleidsregels, gegevensgevoeligheden en gebruikersgedrag heeft.

Om de eerste uitdaging aan te pakken, bouwden we een volledig modulair ontwerp met plugin-achtige componenten, waardoor we snel nieuwe aanvallen aan de red-teaming-engine of nieuwe guardrails aan de firewall kunnen toevoegen zonder het systeem te verstoren.

En om de tweede uitdaging op te lossen, ontwierpen we een agente, contextueel bewuste systeem. Het analyseert de applicatieomgeving en past automatisch de relevante beveiligingsmaatregelen aan – wat essentieel is wanneer de onderliggende AI-modellen en use cases zo snel evolueren.

Die twee capaciteiten, modulariteit en contextuele bewustheid, zijn cruciaal gebleken om op ondernemingsniveau te opereren, terwijl we gelijktijdig de snel evoluerende AI-systemen bijhouden.

AI-beveiliging is een evoluerend vakgebied. Welke hiaten ziet u binnen ondernemingen vandaag – of het nu gaat om beleid, tooling of risicobegrip – die het meest direct de vorm hebben gegeven van de beveiligingsstack van DeepKeep en de onboarding van klanten?

Hiaten variëren aanzienlijk afhankelijk van de industrie, bedrijfsgrootte en AI-adoptiematuriteit.

Een van de grootste hiaten die we vandaag zien in grote ondernemingen, is het ontbreken van een enkele oplossing die alle AI-beveiligingsbehoeften dekt. Veel van deze bedrijven zijn zich ervan bewust dat ze AI-beveiligingsoplossingen nodig hebben, maar naarmate de adoptie toeneemt, neemt ook de behoefte aan aanvullende beveiligingsdekking toe. We leerden vroeg dat er waarde zit in een robuuste, eind-tot-eind-oplossing die verschillende capaciteiten omvat die samenwerken en naadloos geïntegreerd zijn. Klanten profiteren van een oplossing waar het geheel groter is dan de som van de delen.

Naarmate de markt volwassener werd, identificeerden we een ander hiaat, namelijk dat organisaties meer maatwerk en minder generieke beveiligingstools zoeken om hun agents en applicaties te beschermen. Een van de redenen achter onze contextuele aanpak was om dit hiaat aan te pakken, met het begrip dat elke applicatie en agent uniek is en dienovereenkomstig beveiligd moet worden.

Als we vooruitkijken naar de komende vijf jaar, hoe verwacht u dat de AI-risico’s voor ondernemingen zullen evolueren – en waar denkt u dat DeepKeep moet worden gepositioneerd om voorop te blijven lopen in die toekomst?

Ik verwacht dat de grootste AI-risico’s in de komende vijf jaar zullen evolueren samen met de vooruitgang in AI-autonomie. Naarmate agents meer autonoom worden, geïntegreerd in elke bedrijfsoperatie en in staat om complexe taken uit te voeren, zal het risico op beveiligingsinbreuken en misbruik toenemen. We voorzien de ontwikkeling van een Internet of Agents (IoA), waarin agents met elkaar communiceren en een nog complexere web van AI-interacties vormen om te beveiligen.

Om voorop te blijven lopen, zal DeepKeep zijn platform blijven ontwikkelen om deze steeds complexere AI-systemen te beveiligen, ervoor zorgend dat we run-time bescherming bieden over meerdere AI-modellen en de groeiende trend van AI-gedreven besluitvorming ondersteunen. Ons doel is om de vertrouwde partner te zijn die bedrijven vertrouwen om hun hele AI-ecosysteem te beveiligen, ongeacht hoe geavanceerd het wordt.

Bedankt voor het geweldige interview, lezers die meer willen leren, moeten DeepKeep bezoeken.

Antoine is een visionaire leider en oprichtend partner van Unite.AI, gedreven door een onwankelbare passie voor het vormgeven en promoten van de toekomst van AI en robotica. Een seriële ondernemer, hij gelooft dat AI net zo disruptief voor de samenleving zal zijn als elektriciteit, en wordt vaak betrapt op het enthousiast praten over het potentieel van disruptieve technologieën en AGI. Als een futurist, is hij toegewijd aan het onderzoeken van hoe deze innovaties onze wereld zullen vormgeven. Bovendien is hij de oprichter van Securities.io, een platform dat zich richt op investeren in cutting-edge technologieën die de toekomst opnieuw definiëren en hele sectoren herschappen.