Connect with us

Rozhovory

Jonathan Mortensen, zakladatel a CEO Confident Security – Interview Series

mm

Jonathan Mortensen, zakladatel a CEO Confident Security, v současné době vede vývoj prokazatelně soukromých systémů AI pro odvětví s přísnými bezpečnostními a dodržovacími požadavky. Slouží také jako Founder Fellow v South Park Commons, kde zkoumá budoucnost AI výpočtu, paměti, soukromí a vlastnictví. Před spuštěním Confident Security byl Staff Software Engineer v Databricks, kde integroval technologii bit.io do své datové platformy se zaměřením na multi-tenant bezpečnost, IAM/ACL, izolaci VPC, šifrování a vlastnictví dat. Dříve založil a působil jako CTO bit.io, kde vyvíjel multi-cloud, multi-region serverless PostgreSQL službu, která podporovala stovky tisíc bezpečných databází a později byla koupena Databricks.

Confident Security buduje infrastrukturu, která umožňuje podnikům spouštět AI workflow bez odhalení citlivých informací. Jejich platforma je navržena tak, aby zůstaly prompts, data a modelové výstupy plně soukromé, nikdy nezaznamenané a nikdy znovu nevyužité, poskytující organizacím bezpečný způsob přijetí AI při splnění přísných regulačních a dodržovacích standardů.

Vy jste založil Confident Security v roce 2024 po vybudování bit.io a práci v Databricks. Co vás vedlo k uvědomění, že AI potřebuje fundamentálně jiný přístup k soukromí?

Moje zkušenosti s budováním datové infrastruktury mi ukázaly, že pokud lidé vkládají citlivé informace do systému, důvěra nestačí. Potřebují důkaz. Vyvíjeli jsme infrastrukturu, kde zákazníci vlastnili svá data a my jim poskytli způsoby, jak ověřit to.

Když jsem se podíval, jak společnosti používaly LLM, ten důkaz neexistoval. Zaměstnanci vkládali zdrojový kód, právní dokumenty a zdravotnické záznamy do modelů třetích stran, které nemohli ověřit. Už jsme viděli soukromé rozhovory náhodně indexované online a změny politik, které náhle udělaly konverzace trénovacími daty ve výchozím stavu. To ukázalo, jak křehký je současný model soukromí.

Pokud má AI zpracovávat nejcitlivější informace světa, potřebujeme záruky, které nezávisí na důvěře ve vnitřní sliby dodavatele. To mě vedlo k založení Confident Security.

OpenPCC je popisován jako “Signal for AI.” Proč bylo důležité, aby tato vrstva soukromí byla otevřená, ověřitelná a interoperabilní od prvního dne?

Šifrování koncového bodu nezískalo popularitu, dokud se nestalo standardem, který mohl přijmout každý. Chceme totéž pro soukromí AI. Pokud pouze několik společností může nabízet skutečné záruky, pak soukromí nebude škálovat.

OpenPCC je open source pod Apache 2.0, takže si jej může každý prohlédnout nebo postavit. Neexistuje žádné tajné požadavku důvěry. Attestation hardwaru poskytuje kryptografický důkaz o tom, co běží a kde. A zajistili jsme, aby to fungovalo všude: v jakémkoli cloudu, u jakékoli poskytovatele modelů, v jakémkoli vývojovém stacku.

Existuje obrovská hodnota v soukromém základu, který je konzistentní a univerzální. Pokud používáte OpenPCC, víte, že vaše data nejsou viditelná pro poskytovatele modelů, regulátory nebo dokonce pro nás. Standard funguje pouze tehdy, pokud se na něm může podílet celý ekosystém, takže jsme ho navrhli tak, aby byl co nejvíce inkluzivní od prvního dne.

Před Confident Security jste budovali velké systémy pro multi-tenancy, šifrování a vlastnictví dat. Jak tyto zkušenosti ovlivnily architekturu OpenPCC?

Tyto systémy mi potvrdily dvě pravdy: pokud systém může uchovávat data, nakonec je uchová, ať už prostřednictvím protokolů, nesprávné konfigurace nebo právních požadavků. A důvěra není modelem soukromí. Uživatelé potřebují viditelnost a kontrolu.

OpenPCC běží ve stavu bez uložených dat, takže prompts zmizí po zpracování. Attestation umožňuje uživatelům ověřit, kam jejich data putují a jaký kód běží. A izolací kontroly od dat OpenPCC zabraňuje tomu, aby soukromé vstupy byly कभkoliv zpracovány jako spustitelné instrukce.

Tyto omezení jsou to, na co podniky čekaly: záruky, že data nebudou znovu objevit někde neočekávaně.

Vy jste argumentoval, že většina “soukromých AI” řešení spoléhá na důvěru v neprůhledné systémy. Proč je nezávislá verifikace essenciální pro skutečné soukromí?

Většina jazyka soukromí dnes je efektivní “pouze důvěřujte nám.” To nestačí, když jsou na hře národní bezpečnost a regulovaná zdravotnická data. Pokud uživatel nemůže ověřit tvrzení, není to záruka – je to marketing.

Verifikovatelné soukromí je jiné. Ne důvěřujete záměrům operátora. Ověřujete hardware, software image a záruky zpracování dat. Kryptografie vynucuje hranice. Protokoly neexistují, aby někdo náhodou únik nebo subpoena.

Když je soukromí ověřitelné uživatelem, vytváříte fundamentálně bezpečnější systém. Je to odpovědnost založená na matematice.

Google oznámil “Private AI” krátce po OpenPCC. Vy jste veřejně vyzvali, aby poskytli TPU pro nezávislé testování. Co vás vedlo k tomuto výzvu, a co byste očekávali najít?

Pokud chcete tvrdit záruky soukromí, měli byste umožnit komunitě je ověřit. NVIDIA již umožňuje externí ověření na svých H100 GPU a my dokonce otevřeli verzi knihovny attestation v Go, aby se povzbudila adopce.

Pokud chce Google učinit podobná sliby na TPUs, měli bychom být schopni měřit a ověřit tyto sliby, ne jen číst o nich v blogovém příspěvku. Očekávali bychom stejné kontroly, které očekáváme od každého systému soukromí: přísné hranice uchovávání dat, ověřitelná attestation a žádné tajné cesty, kde protokoly nebo telemetrie unikají. Tvrdosti o soukromí potřebují přežít zkoumání.

Pro čtenáře, kteří nejsou seznámeni s mechanikou, co dělá plně šifrované kanály OpenPCC jiné než tradiční šifrování na straně klienta nebo confident computing?

Šifrování na straně klienta chrání data na cestě, a confident computing chrání je, zatímco jsou zpracovávána, ale stále existují mezery před a po, kde operátoři nebo útočníci mohou získat přístup k citlivým informacím.

OpenPCC uzavírá tyto mezery. Vytvoří zapečetěnou cestu koncového bodu mezi klientem a modelem, která chrání prompt, odpověď, identitu uživatele a dokonce metadata nebo signály časování, které mohou tiše odhalit záměr. Operátoři nemohou dešifrovat nic. Nic není protokolováno nebo uchováváno, ani v případě porušení.

Soukromí by nemělo záviset na naději, že poskytovatel udělá správnou věc za scénou. Musí být vynuceno kryptograficky.

Jak verifikovatelné soukromí mění rovnici pro regulovaná odvětví, jako je finance, zdravotnictví a obrana?

Regulovaná odvětví mají nejvíce co získat z AI, ale také nejvíce co ztratit, pokud něco unikne. Dnes 78 % zaměstnanců vkládá interní data do AI nástrojů a jeden z pěti případů zahrnuje regulovaná data, jako je PHI nebo PCI. Expozice již probíhá.

Verifikovatelné soukromí odstraňuje největší překážku. Citlivé prompty nikdy neexistují v plaintextu uvnitř prostředí poskytovatele modelu. Nic nemůže být použito pro trénink. Ani zákonné požadavky nemohou získat přístup k tomu, co systém sám nemůže vidět.

Týmy rizik a dodržování předpisů konečně mají cestu, kde “ano” se stává výchozím nastavením místo “ne.”

Jaké byly největší inženýrské výzvy při navrhování cloud-agnostic vrstvy soukromí, která funguje napříč jakoukoli podnikovou stavební jednotkou?

Confident computing a vzdálená attestation je stále v plenkách, podle mého názoru. Každý cloudový poskytovatel a poskytovatel holého kovu dělá něco mírně odlišného. Některé poskytovatele, jako je AWS, nemají dokonce hardware nezbytný pro to. Každá funkce, kterou přidáme, je jako 1000 řezů a chůze po laně. Ale celý bod je stát se otevřeným standardem, takže to musíme udělat tak, aby to fungovalo pro každého cloudu. Je to open source, takže všem doporučuji přidat ještě více podporovaných platforem a konfigurací!

Co vypadá svět s výchozím verifikovatelným šifrováním a jak by to mohlo změnit rovnici moci mezi podniky, cloudovými poskytovateli a poskytovateli modelů?

Podniky si uchovávají kontrolu nad svým největším aktivem: svými daty. Poskytovatelé modelů soutěží o výkon a náklady, spíše než o to, kdo může nahromadit nejvíce proprietárních informací. Cloudy umožňují soukromí místo toho, aby byli tichými pozorovateli.

Je to zdravější rovnice moci. A celý ekosystém vyhrává, když je bezpečnost vestavěna do základny místo toho, aby byla nalepena nahoře.

V budoucnosti, kde se AI stane všudypřítomnou a silně regulovanou, jak vidíte verifikovatelné soukromí, které mění konkurenční krajinu pro podniky, cloudové poskytovatele a vývojáře modelů?

Regulátoři již zpochybňují, jak jsou uživatelská data uložena a používána. Důvěra-založené soukromí nebude stačit po dlouhou dobu. Uživatelé budou očekávat záruky soukromí způsobem, jakým očekávají šifrování v aplikacích pro zasílání zpráv dnes.

Vítězi budou společnosti, které nebudou žádat uživatele, aby kompromitovali. Pokud můžete prokázat soukromí, získáte důvěru organizací, které mají nejvíce cenná data na světě. Data se stanou využitelnými na místech, kde byla dříve uzamčena.

Děkuji za skvělý rozhovor, čtenáři, kteří chtějí dozvědět se více, by měli navštívit Confident Security.

Antoine je vizionářský líder a zakládající partner Unite.AI, poháněný neotřesitelnou vášní pro formování a propagaci budoucnosti AI a robotiky. Jako sériový podnikatel věří, že AI bude mít na společnost stejně disruptivní vliv jako elektřina, a často je chycen při tom, jak hovoří o potenciálu disruptivních technologií a AGI. Jako futurist, je zasvěcen prozkoumání toho, jak tyto inovace budou formovat náš svět. Kromě toho je zakladatelem Securities.io, platformy zaměřené na investice do špičkových technologií, které předefinovávají budoucnost a mění celé sektory.