Connect with us

Intervjuer

Rick Caccia, CEO og medgrunnlegger av WitnessAI – Intervju-serie

mm

Rick Caccia, CEO og medgrunnlegger av WitnessAI, har omfattende erfaring med lansering av sikkerhets- og compliance-produkter. Han har hatt ledende roller i produkt og markedsføring i Palo Alto Networks, Google og Symantec. Caccia ledet tidligere produktmarkedsføring i ArcSight gjennom børsnoteringen og senere drift som et offentlig selskap, og var den første Chief Marketing Officer i Exabeam. Han har flere grader fra University of California, Berkeley.

WitnessAI utvikler en sikkerhetsplattform som fokuserer på å sikre trygg og sikker bruk av AI i bedrifter. Med hver større teknologisk endring – som web, mobil og skytjenester – oppstår nye sikkerhetsutfordringer, og det oppstår muligheter for bransjeledere å fremtre. AI representerer den neste fronten i denne utviklingen.

Selskapet har som mål å etablere seg som en leder i AI-sikkerhet ved å kombinere ekspertise i maskinlæring, sikkerhet og stor skala skytjenester. Teamet har dyptgående erfaring med AI-utvikling, omvendt ingeniørkunst og multi-sky Kubernetes-utvikling, og løser de kritiske utfordringene med å sikre AI-drevne teknologier.

Hva inspirerte deg til å co-grunnlegge WitnessAI, og hvilke nøkkelutfordringer i AI-styring og sikkerhet ønsket du å løse? 

Da vi først startet selskapet, trodde vi at sikkerhetsteam ville være bekymret for angrep på deres interne AI-modeller. I stedet sa de 15 første CISO-ene vi snakket med det motsatte, at en omfattende korporativ LLM-utvikling var langt borte, men det急 problemet var å beskytte deres ansattes bruk av andres AI-applikasjoner. Vi tok et skritt tilbake og så at problemet ikke var å forsvare mot skremmende cyberangrep, men å sikre at bedriftene kunne bruke AI på en produktiv måte. Mens styring kanskje er mindre sexy enn cyberangrep, er det hva sikkerhets- og personverns-team faktisk trenger. De trenger oversikt over hva deres ansatte gjør med tredjeparts AI, en måte å implementere akseptable bruksregler og en måte å beskytte data uten å blokkere bruken av disse dataene. Så det er hva vi bygget.

Gitt din omfattende erfaring i Google Cloud, Palo Alto Networks og andre sikkerhetsselskaper, hvordan påvirkte disse rollene din tilnærming til å bygge WitnessAI? 

Jeg har snakket med mange CISO-er gjennom årene. En av de mest vanlige tingene jeg hører fra CISO-er i dag er: “Jeg vil ikke være ‘Doktor Nei’ når det gjelder AI; jeg vil hjelpe våre ansatte med å bruke det til å bli bedre.” Som noen som har arbeidet med sikkerhetsleverandører i lang tid, er dette en veldig annerledes uttalelse. Det er mer likt dotcom-æraen, tilbake når weben var en ny og transformasjonell teknologi. Da vi bygde WitnessAI, startet vi spesifikt med produktfunksjoner som hjalp kundene med å adoptere AI på en trygg måte; vår melding var at denne teknologien er som magi, og selvfølgelig vil alle ønske å oppleve magi. Jeg tror at sikkerhetsselskaper er for raskt til å spille fryktkortet, og vi ønsket å være annerledes.

Hva skiller WitnessAI fra andre AI-styrings- og sikkerhetsplattformer på markedet i dag? 

Vel, for det første er de fleste andre leverandører i dette området fokusert primært på sikkerhetsdelen, og ikke på styringsdelen. For meg er styring som bremsene på en bil. Hvis du virkelig ønsker å komme deg raskt til et sted, trenger du effektive brems og en kraftig motor. Ingen vil kjøre en Ferrari veldig fort hvis den ikke har brems. I dette tilfellet er bedriftens bruk av AI Ferrarien, og WitnessAI er bremsene og rattet.

I motsetning til dette fokuserer de fleste av våre konkurrenter på teoretiske skremmende angrep på en organisasjons AI-modell. Det er et reelt problem, men det er et annerledes problem enn å få oversikt og kontroll over hvordan mine ansatte bruker noen av de 5 000+ AI-applikasjonene som allerede er på internettet. Det er mye enklere for oss å legge til en AI-brannmur (og vi har), enn det er for AI-brannmur-leverandørene å legge til effektiv styring og risikostyring.

Hvordan balanserer WitnessAI behovet for AI-innovasjon med bedriftssikkerhet og compliance? 

Som jeg skrev tidligere, tror vi at AI skal være som magi – det kan hjelpe deg med å gjøre fantastiske ting. Med det i mente, tror vi at AI-innovasjon og sikkerhet er sammenhengende. Hvis dine ansatte kan bruke AI på en trygg måte, vil de bruke det ofte, og du vil komme i forkjøpet. Hvis du anvender den typiske sikkerhetsmentaliteten og låser det ned, vil din konkurrent ikke gjøre det, og de vil komme i forkjøpet. Alt vi gjør, handler om å muliggjøre trygg adopsjon av AI. Som en kunde sa til meg: “Dette er magi, men de fleste leverandører behandler det som om det var svart magi, skremmende og noe å frykte.” Hos WitnessAI hjelper vi med å muliggjøre magien.

Kan du snakke om selskapets kjernefilosofi når det gjelder AI-styring – ser du på AI-sikkerhet som en muliggjører snarere enn en begrensning? 

Vi har ofte CISO-er som kommer opp til oss på arrangementer hvor vi har presentert, og de forteller oss: “Dere konkurrenter er alle opptatt av hvor skremmende AI er, og dere er den eneste leverandøren som forteller oss hvordan vi kan bruke det effektivt.” Sundar Pichai i Google har sagt at “AI kan være mer profont enn ild,” og det er en interessant metafor. Ild kan være ekstremt skadelig, som vi har sett nylig. Men kontrollert ild kan lage stål, som akselerer innovasjon. Noen ganger snakker vi om å skape innovasjonen som muliggjør våre kunder å trygt dirigere AI-“ild” for å lage det ekvivalente til stål. Alternativt, hvis du tenker på AI som magi, så kanskje vårt mål er å gi deg en tryllestokk, for å dirigere og kontrollere den.

I begge tilfeller, tror vi absolutt på at trygg muliggjøring av AI er målet. Bare for å gi et eksempel, finnes det mange data tap-verktøy, det er en teknologi som har vært rundt i all evighet. Og folk prøver å bruke data tap-verktøy til AI-bruk, og kanskje data tap nettleser-utvidelsen ser at du har skrevet inn en lang prompt som ber om hjelp med arbeidet ditt, og den prompten har ufrivillig en kunde-ID-nummer i den. Hva skjer? Data tap-produktet blokkerer prompten fra å gå ut, og du får aldri noen svar. Det er begrensning. I stedet, med WitnessAI, kan vi identifisere det samme nummeret, og stille og kirurgisk redigere det på fly, og deretter redigere det i AI-svaret, så du får et nyttig svar samtidig som du holder dataene trygge. Det er muliggjøring.

Hva er de største risikoen bedrifter møter når de distribuerer generativ AI, og hvordan mitigeter WitnessAI disse? 

Den første er oversikt. Mange mennesker er overrasket over å lære at AI-applikasjonsuniverset ikke bare er ChatGPT og nå DeepSeek; det finnes faktisk tusenvis av AI-applikasjoner på internettet, og bedrifter absorberer risiko fra ansattes bruk av disse applikasjonene, så det første steget er å få oversikt: hvilke AI-applikasjoner bruker mine ansatte, hva gjør de med disse applikasjonene, og er det risikabelt?

Den andre er kontroll. Ditt juridiske team har konstruert en omfattende akseptabel bruksregel for AI, en som sikrer sikkerheten til kundedata, borgerdata, immaterielle rettigheter, samt ansattes sikkerhet. Hvordan vil du implementere denne regelen? Er det i ditt endpoint-sikkerhetsprodukt? I din brannmur? I din VPN? I din sky? Hva hvis de alle er fra forskjellige leverandører? Så du trenger en måte å definere og håndheve akseptabel bruksregel som er konsistent over AI-modeller, applikasjoner, skyer og sikkerhetsprodukter.

Den tredje er beskyttelse av dine egne applikasjoner. I 2025 vil vi se en mye raskere adopsjon av LLM-er innen bedrifter, og deretter en raskere utrullning av chat-applikasjoner drevet av disse LLM-ene. Så bedrifter må sikre at ikke bare at applikasjonene er beskyttet, men også at applikasjonene ikke sier “dumme” ting, som å anbefale en konkurrent.

Vi løser alle tre. Vi gir oversikt over hvilke applikasjoner folk aksesserer, hvordan de bruker disse applikasjonene, regel som er basert på hvem du er og hva du prøver å gjøre, og svært effektive verktøy for å forhindre angrep som f.eks. jailbreak eller uønsket atferd fra dine boter.

Hvordan hjelper WitnessAI sin AI-observabilitetsfunksjon bedrifter med å spore ansattes AI-bruk og forhindre “skygge-AI”-risiko? 

WitnessAI kobler seg til ditt nettverk enkelt og bygger stille en katalog over hver AI-applikasjon (og det finnes faktisk tusenvis av dem på internettet) som dine ansattes aksesserer. Vi forteller deg hvor disse applikasjonene er plassert, hvor de hoster sine data, osv. så du forstår hvor risikabelt disse applikasjonene er. Du kan aktivere samtale-oversikt, hvor vi bruker dypt pakkeinspeksjon for å observere prompter og svar. Vi kan klassifisere prompter etter risiko og etter hensikt. Hensikt kan være “skriv kode” eller “skriv en korporativ kontrakt.” Det er viktig fordi vi deretter lar deg skrive hensiktbaserte politikkontroller.

Hva rolle spiller AI-politikkgjennomføring i å sikre korporativ AI-samsvar, og hvordan strømlinjeformer WitnessAI denne prosessen? 

Samsvar betyr å sikre at ditt selskap følger regler eller politikker, og det er to deler til å sikre samsvar. Den første er at du må kunne identifisere problematisk aktivitet. For eksempel, jeg må vite at en ansatt bruker kundedata på en måte som kan stride mot en datavernlov. Vi gjør dette med vår observabilitetsplattform. Den andre delen er å beskrive og håndheve politikk mot denne aktiviteten. Du ønsker ikke bare å vite at kundedata lekker ut, du ønsker å stoppe det fra å lekke ut. Så, vi har bygget en unik AI-spesifikk politikk-motor, Witness/CONTROL, som lar deg enkelt bygge identitets- og intensjonsbaserte politikker for å beskytte data, forhindre skadelig eller ulovlig svar, osv. For eksempel, kan du bygge en politikk som sier noe som: “Kun vårt juridiske avdeling kan bruke ChatGPT til å skrive korporative kontrakter, og hvis de gjør det, automatisk redigerer alle personlige identifikatorer.” Enkelt å si, og med WitnessAI, enkelt å implementere.

Hvordan løser WitnessAI bekymringer rundt LLM-jailbreak og prompt-injeksjonsangrep? 

Vi har et hardt AI-forsknings-team – virkelig skarpe. Tidlig på bygde de et system for å lage syntetisk angrepsdata, i tillegg til å hente inn vidt tilgjengelige treningsdatasett. Som resultat, har vi sammenlignet vår prompt-injeksjon mot alt som finnes der ute, og vi er over 99% effektive og fanger ofte angrep som modellene selv missar.

I praksis ønsker de fleste selskaper vi snakker med å starte med ansatt-applikasjonsstyring, og deretter rulle ut en AI-kundeapplikasjon basert på deres interne data. Så, de bruker Witness til å beskytte sine mennesker, og deretter aktiverer de prompt-injeksjonsbrannmuren. Et system, en konsistent måte å bygge politikker, enkelt å skalerer.

Hva er dine langsiktige mål for WitnessAI, og hvor ser du på AI-styring utvikler seg de neste fem årene? 

Så langt, har vi bare snakket om en person-til-chat-applikasjonsmodell her. Vår neste fase vil være å håndtere applikasjon-til-applikasjon, dvs. agens AI. Vi har designet API-ene i vår plattform til å fungere like godt med både agenter og mennesker. Ut over det, tror vi at vi har bygget en ny måte å få nettverksnivå-oversikt og politikk-kontroll i AI-æraen, og vi vil vokse selskapet med det i mente.

Takk for det flotte intervjuet, lesere som ønsker å lære mer, bør besøke WitnessAI

Antoine er en visjonær leder og grunnleggende partner i Unite.AI, drevet av en urokkelig lidenskap for å forme og fremme fremtiden for AI og robotikk. En seriegründer, han tror at AI vil være like disruptiv for samfunnet som elektrisitet, og blir ofte tatt i å tale om potensialet for disruptiv teknologi og AGI.
Som en futurist, er han dedikert til å utforske hvordan disse innovasjonene vil forme vår verden. I tillegg er han grunnleggeren av Securities.io, en plattform som fokuserer på å investere i banebrytende teknologier som omdefinerer fremtiden og omformer hele sektorer.