Connect with us

Intervjuer

Jonathan Mortensen, grunnlegger og CEO av Confident Security – Intervju-serie

mm

Jonathan Mortensen, grunnlegger og CEO av Confident Security, leder for tiden utviklingen av provably-private AI-systemer for bransjer med strenge sikkerhets- og samværskrav. Han er også medgrunnlegger av South Park Commons, der han utforsker fremtiden for AI-regning, minne, personvern og eierskap. Før han startet Confident Security, var han ansatt som Staff Software Engineer i Databricks, der han integrerte bit.io-teknologien i deres dataplatform med fokus på multi-tenant-sikkerhet, IAM/ACL-er, VPC-isolering, kryptering og dataeierskap. Tidligere var han grunnlegger og CTO av bit.io, der han bygde en multi-cloud, multi-region serverless PostgreSQL-tjeneste som støttet hundredtusener av sikre databaser og senere ble kjøpt av Databricks.

Confident Security bygger infrastruktur som gjør det mulig for bedrifter å kjøre AI-arbeidsflyter uten å eksponere følsom informasjon. Deres plattform er designet slik at promter, data og modellutdata forblir fullstendig private, aldri logges og aldri gjenbrukes, og gir organisasjonene en sikker måte å adoptere AI samtidig som de møter strenge regulatoriske og samværstandarder.

Du grunnla Confident Security i 2024 etter å ha bygget bit.io og arbeidet i Databricks. Hva var det som utløste den erkjennelsen av at AI trenger en fundamentalt annerledes tilnærming til personvern?

Min erfaring med å bygge data-infrastruktur lærte meg dette: hvis mennesker setter inn følsom informasjon i et system, er tillit ikke nok. De trenger bevis. Vi bygde infrastruktur der kundene eide deres data, og vi ga dem måter å verifisere det på.

Når jeg ser på hvordan selskaper bruker LLM-er, finnes det ikke slike bevis. Ansatte lime inn kildekode, juridiske dokumenter og pasientjournaler i modeller som kjøres av tredjeparter de ikke kan verifisere. Vi har allerede sett private samtaler uventet bli indekser på nettet og politiske endringer som plutselig gjør samtaler til treningsdata som standard. Dette viser hvor skjørt det nåværende personvernmodellen er.

Hvis AI skal håndtere verdens mest følsomme informasjon, trenger vi garantier som ikke avhenger av å stole på en leverandørs interne løfter. Det er det som drev meg til å starte Confident Security.

OpenPCC beskrives som “Signal for AI”. Hvorfor var det viktig at denne personvernlaget var åpen, attestabel og kompatibel fra dag én?

End-to-end-kryptering tok ikke av før det ble en standard alle kunne adoptere. Vi ønsker det samme for AI-personvern. Hvis bare noen få selskaper kan tilby reelle garantier, så vil personvern ikke skala.

OpenPCC er åpen kilde under Apache 2.0, så alle kan bygge på det eller inspisere det. Det er ingen hemmelig tillitskrav. Maskinvare-attestasjon gir kryptografisk bevis om hva som kjøres og hvor. Og vi sikret at det fungerer overalt: enhver sky, enhver modell-leverandør, enhver utviklerstak.

Det er enormt verdifullt å ha en personvern-gulv som er konsekvent og universell. Hvis du bruker OpenPCC, vet du at dine data ikke er synlige for modell-leverandører, regulatorer eller selv oss. En standard fungerer bare hvis hele økosystemet kan delta, så vi designet det til å være så inkluderende som mulig fra dag én.

Før Confident Security, bygde du store skala-systemer for multi-tenancy, kryptering og data-eierskap. Hvordan påvirkte disse erfaringene OpenPCC-arkitekturen?

Disse systemene bekreftet to sannheter: hvis et system kan beholde data, vil det til slutt gjøre det, enten det er gjennom logger, mis-konfigurasjoner eller juridiske forespørsler. Og tillit er ikke et personvern-modell. Brukere trenger synlighet og kontroll.

OpenPCC kjører i en tilstands-løs modus, så promter forsvinner etter prosessering. Attestasjon lar brukere verifisere hvor deres data går og hva kode som kjøres. Og ved å isolere kontroll fra data, forhindrer OpenPCC at private inndata noen gang behandles som eksekverbare instruksjoner.

Disse begrensningene er det bedriftene har ventet på: garantier for at data ikke vil dukke opp igjen et uventet sted.

Du har argumentert for at de fleste “private AI”-løsninger avhenger av tillit til uklare systemer. Hvorfor er uavhengig verifisering essensiell for sant personvern?

De fleste personvern-uttalelser i dag er effektivt “bare tillit oss”. Det er ikke nok når spillene inkluderer nasjonal sikkerhet og regulert helse-data. Hvis brukeren ikke kan verifisere påstanden, er det ikke en garanti – det er markedsføring.

Verifiserbart personvern er annerledes. Du stoler ikke på operatørens intensjoner. Du verifiserer maskinvaren, programvare-bildet og data-håndtering-garantiene. Kryptografi tvinger grensene. Logger finnes ikke for noen til å uventet lekke eller forespørsle.

Når personvern er auditerbar av brukeren, skaper du et fundamentalt tryggere system. Det er ansvar rotet i matematikk.

Google sin “Private AI”-annonsering kom kort tid etter OpenPCC. Du utfordret dem offentlig til å tilby en TPU for uavhengig testing. Hva motiverte denne utfordringen, og hva ville du forvente å finne?

For å hevde personvern-garantier, bør du la samfunnet verifisere dem. NVIDIA tillater allerede ekstern verifisering på deres H100-GPU-er, og vi åpnet sogar kildekoden for deres attestasjons-bibliotek for å oppmuntre til adopsjon.

Hvis Google ønsker å gjøre lignende løfter på TPUs, bør vi kunne måle og verifisere disse løftene, ikke bare lese om dem i en blogg-innlegg. Vi ville se etter de samme kontrollene vi forventer fra et personvern-system: strenge data-oppbevarings-grenser, auditerbar attestasjon og ingen hemmelige stier hvor logger eller telemetri slipper ut. Personvern-krav må overleve skarpskyting.

For lesere som ikke er kjent med mekanismene, hva gjør OpenPCCs fullstendig krypterte kanaler forskjellig fra tradisjonell klient-side-kryptering eller konfidensiell regning?

Klient-side-kryptering beskytter data på vei inn, og konfidensiell regning beskytter det mens det prosesseres, men det er fortsatt hull før og etter hvor operatører eller angripere kan få tilgang til følsom informasjon.

OpenPCC lukker disse hullene. Det skaper en forseglet end-to-end-sti mellom klienten og modellen som beskytter prompten, svaret, brukerens identitet og selv metadata eller tids-signaler som kan stille stille avsløre hensikt. Operatører kan ikke dekryptere noe. Ingenting logges eller beholdes, selv under brudd-forhold.

Personvern bør ikke avhenge av å håpe at leverandøren gjør det riktige bak kulissene. Det må tvinges kryptografisk.

Hvordan endrer verifiserbart personvern ligningen for regulerte bransjer som finans, helse og forsvar?

Regulerte bransjer har mest å vinne fra AI, men også mest å tape hvis noe lekker ut. I dag lime 78% av ansatte inn interne data i AI-verktøy, og en av fem saker inkluderer regulert informasjon som PHI eller PCI. Eksponeringen skjer allerede.

Verifiserbart personvern fjerner den største hindringen. Følsomme promter eksisterer aldri i klartekst innenfor en modell-leverandørs miljø. Ingenting kan brukes til trening. Selv lovlige forespørsler kan ikke få tilgang til hva systemet selv ikke kan se.

Risiko- og samvær-teamene får til slutt en vei hvor “ja” blir standard i stedet for “nei”.

Hva var de største ingeniør-utfordringene i å designe en sky-agnostisk personvern-lag som fungerer over hele bedrifts-stakken?

Konfidensiell regning og fjern-attestasjon er fortsatt i sin barndom, i mitt syn. Hver sky-leverandør og naken metall-leverandør gjør noe litt annerledes. Noen leverandører, som AWS, har ikke engang den nødvendige maskinvaren til å gjøre det. Så, hver eneste funksjon vi legger til er som 1000 skårer og å gå på en tynn line. Men poenget er å bli en åpen standard, så vi må gjøre det så det fungerer for alle skyer. Det er åpen kilde, så jeg oppmuntre folk til å legge til enda flere støttede plattformer og konfigurasjoner!

Hva ser en verden med standard verifiserbar kryptering ut som, og hvordan kan det endre makt-balansen mellom bedrifter, sky-leverandører og modell-utviklere?

Bedrifter beholder kontroll over sin mest verdifulle eiendom: deres data. Modell-leverandører konkurrerer om ytelse og kostnad i stedet for hvem som kan akkumulere mest proprietær informasjon. Skyer muliggjør personvern i stedet for å være stille observatører av det.

Det er en sunnere makt-balanse. Og hele økosystemet vinner når sikkerhet bygges inn i grunnlaget i stedet for å lappes på toppen.

I en fremtid hvor AI blir ubøyelig og sterkt regulert, hvordan ser du for deg at verifiserbart personvern kan endre den konkurranse-messige landskapet for bedrifter, sky-leverandører og modell-utviklere?

Regulatorer spør allerede hvordan bruker-data lagres og brukes. Tillits-basert personvern vil ikke tilfredsstille dem lenge. Brukere vil forvente personvern-garantier på samme måte de forventer kryptering i meldings-app’er i dag.

Vinnerne vil være selskapene som ikke ber brukerne om å kompromittere. Hvis du kan bevise personvern, tjener du tilliten til organisasjonene som har verdens mest verdifulle data. Data blir brukbar på steder det har vært låst vekk.

Takk for det flotte intervjuet, lesere som ønsker å lære mer bør besøke Confident Security.

Antoine er en visjonær leder og grunnleggende partner i Unite.AI, drevet av en urokkelig lidenskap for å forme og fremme fremtiden for AI og robotikk. En seriegründer, han tror at AI vil være like disruptiv for samfunnet som elektrisitet, og blir ofte tatt i å tale om potensialet for disruptiv teknologi og AGI.
Som en futurist, er han dedikert til å utforske hvordan disse innovasjonene vil forme vår verden. I tillegg er han grunnleggeren av Securities.io, en plattform som fokuserer på å investere i banebrytende teknologier som omdefinerer fremtiden og omformer hele sektorer.