Interviste
Jonathan Mortensen, Fondatore e Amministratore Delegato di Confident Security – Serie di Interviste

Jonathan Mortensen, Fondatore e Amministratore Delegato di Confident Security, attualmente guida lo sviluppo di sistemi di intelligenza artificiale provabilmente privati per settori con requisiti di sicurezza e conformità stringenti. Ricopre anche il ruolo di Founder Fellow presso South Park Commons, dove esplora il futuro del calcolo, della memoria, della privacy e della proprietà dell’intelligenza artificiale. Prima di lanciare Confident Security, è stato un ingegnere software presso Databricks, integrando la tecnologia di bit.io nella piattaforma dati con un focus sulla sicurezza multi-tenant, IAM/ACL, isolamento VPC, crittografia e proprietà dei dati. In precedenza, ha fondato e ricoperto il ruolo di CTO di bit.io, costruendo un servizio serverless PostgreSQL multi-cloud e multi-region che supportava centinaia di migliaia di database sicuri e successivamente acquisito da Databricks.
Confident Security costruisce infrastrutture che consentono alle aziende di eseguire flussi di lavoro di intelligenza artificiale senza esporre informazioni sensibili. La sua piattaforma è progettata in modo che i prompt, i dati e le uscite del modello rimangano completamente privati, non vengano mai registrati e non vengano mai riutilizzati, offrendo alle organizzazioni un modo sicuro per adottare l’intelligenza artificiale mentre soddisfano rigorosi standard normativi e di conformità.
Hai fondato Confident Security nel 2024 dopo aver costruito bit.io e lavorato presso Databricks. Cosa ha scatenato la realizzazione che l’intelligenza artificiale necessitava di un approccio fondamentalmente diverso alla privacy?
La mia esperienza nella costruzione di infrastrutture di dati mi ha insegnato questo: se le persone inseriscono informazioni sensibili in un sistema, la fiducia non è sufficiente. Hanno bisogno della prova. Abbiamo costruito infrastrutture in cui i clienti possedevano i propri dati e abbiamo fornito loro modi per validare ciò.
Quando ho guardato come le aziende utilizzavano i modelli di linguaggio, quella prova non esisteva. I dipendenti incollavano codice sorgente, documenti legali e registri di pazienti nei modelli gestiti da terze parti che non potevano verificare. Abbiamo già visto conversazioni private indiciate accidentalmente online e modifiche alle politiche che improvvisamente rendevano le conversazioni dati di training per impostazione predefinita. Ha mostrato quanto fragile sia il modello di privacy attuale.
Se l’intelligenza artificiale deve gestire le informazioni più sensibili del mondo, abbiamo bisogno di garanzie che non dipendano dalla fiducia nelle promesse interne di un fornitore. È questo che mi ha spinto a fondare Confident Security.
OpenPCC è descritto come il “Signal per l’intelligenza artificiale”. Perché è stato importante che questo livello di privacy fosse aperto, attestabile e interoperabile fin dal primo giorno?
La crittografia end-to-end non ha decollato fino a quando non è diventata uno standard che tutti potevano adottare. Vogliamo la stessa cosa per la privacy dell’intelligenza artificiale. Se solo alcune aziende possono offrire garanzie reali, allora la privacy non scalerà.
OpenPCC è open source con licenza Apache 2.0, quindi chiunque può costruire su di esso o ispezionarlo. Non c’è alcun requisito di fiducia segreto. L’attestazione hardware fornisce una prova crittografica su cosa sta girando e dove. E abbiamo assicurato che funzioni ovunque: qualsiasi cloud, qualsiasi fornitore di modelli, qualsiasi stack di sviluppo.
C’è un enorme valore in un piano di privacy che è coerente e universale. Se si utilizza OpenPCC, si sa che i propri dati non sono visibili ai fornitori di modelli, ai regolatori o anche a noi. Uno standard funziona solo se l’intero ecosistema può partecipare, quindi l’abbiamo progettato per essere il più inclusivo possibile fin dal primo giorno.
Prima di Confident Security, hai costruito sistemi di grandi dimensioni per la multi-tenuta, la crittografia e la proprietà dei dati. Come hanno influenzato quelle esperienze l’architettura di OpenPCC?
Quei sistemi hanno rafforzato due verità: se un sistema può conservare i dati, alla fine lo farà, che sia attraverso log, misconfigurazioni o richieste legali. E la fiducia non è un modello di privacy. Gli utenti necessitano di visibilità e controllo.
OpenPCC funziona in modalità senza stato in modo che i prompt scompaiano dopo l’elaborazione. L’attestazione consente agli utenti di verificare dove stanno andando i propri dati e quale codice sta girando. E isolando il controllo dai dati, OpenPCC impedisce che gli input privati vengano mai trattati come istruzioni eseguibili.
Quei vincoli sono ciò che le aziende hanno aspettato: garanzie che i dati non riappariranno da qualche parte inaspettata.
Hai sostenuto che la maggior parte delle soluzioni di “intelligenza artificiale privata” si basa sulla fiducia in sistemi opachi. Perché la verifica indipendente è essenziale per la vera privacy?
La maggior parte del linguaggio sulla privacy oggi è essenzialmente “solo fidati di noi”. Non è sufficiente quando le poste in gioco includono la sicurezza nazionale e i dati sanitari regolamentati. Se l’utente non può verificare l’affermazione, non è una garanzia, è marketing.
La privacy verificabile è diversa. Non si fidano delle intenzioni dell’operatore. Si convalida il hardware, l’immagine del software e le garanzie di gestione dei dati. La crittografia impone i confini. I log non esistono per qualcuno che possa accidentalmente perdere o citare in giudizio.
Quando la privacy è verificabile dall’utente, si crea un sistema fondamentalmente più sicuro. È una responsabilità radicata nella matematica.
L’annuncio di “Private AI” di Google è arrivato poco dopo OpenPCC. Hai pubblicamente sfidato a fornire un TPU per test indipendenti. Cosa ha motivato quella sfida e cosa ti aspetteresti di trovare?
Per affermare garanzie di privacy, dovresti lasciare che la comunità le verifichi. NVIDIA già consente la verifica esterna sui suoi GPU H100 e abbiamo anche open source una versione Go della libreria di attestazione per incoraggiare l’adozione.
Se Google vuole fare promesse simili sui TPU, dovremmo essere in grado di misurarle e verificarle, non solo leggerle in un post del blog. Cercheremmo gli stessi controlli che ci aspettiamo da qualsiasi sistema di privacy: rigidi confini di conservazione dei dati, attestazione verificabile e nessun percorso segreto in cui i log o la telemetria sfuggano. Le affermazioni sulla privacy devono resistere allo scrutinio.
Per i lettori che non conoscono la meccanica, cosa rende i canali completamente crittografati di OpenPCC diversi dalla crittografia lato client o dal calcolo riservato tradizionale?
La crittografia lato client protegge i dati lungo il percorso e il calcolo riservato li protegge mentre vengono elaborati, ma ci sono ancora lacune prima e dopo dove gli operatori o gli attaccanti possono accedere a informazioni sensibili.
OpenPCC chiude quelle lacune. Crea un percorso end-to-end sigillato tra il client e il modello che protegge il prompt, la risposta, l’identità dell’utente e anche i metadati o i segnali di temporizzazione che possono rivelare silenziosamente l’intento. Gli operatori non possono decrittare nulla. Nulla viene registrato o conservato, anche in caso di violazione.
La privacy non dovrebbe dipendere dalla speranza che il fornitore faccia la cosa giusta dietro le quinte. Deve essere imposta crittograficamente.
Come la privacy verificabile cambia l’equazione per settori regolamentati come finanza, sanità e difesa?
I settori regolamentati hanno più da guadagnare dall’intelligenza artificiale, ma anche più da perdere se qualcosa si perde. Oggi, il 78% dei dipendenti incolla dati interni negli strumenti di intelligenza artificiale e uno su cinque casi include informazioni regolamentate come PHI o PCI. L’esposizione sta già accadendo.
La privacy verificabile rimuove il più grande ostacolo. I prompt sensibili non esistono mai in chiaro all’interno dell’ambiente del fornitore del modello. Non possono essere utilizzati per l’addestramento. Anche le richieste legittime non possono accedere a ciò che il sistema stesso non può vedere.
I team di rischio e conformità finalmente hanno un percorso in cui “sì” diventa il default invece di “no”.
Quali sono stati i più grandi sfidi di ingegneria nel progettare un livello di privacy agnostico per il cloud che funziona su qualsiasi stack aziendale?
Il calcolo riservato e l’attestazione remota sono ancora in fasce, a mio parere. Ogni fornitore di cloud e fornitore di metallo nudo fa qualcosa di leggermente diverso. Alcuni fornitori, come AWS, non hanno nemmeno il hardware necessario per farlo. Quindi, ogni singola funzionalità che aggiungiamo è come 1000 tagli e camminare sulla fune tesa. Ma l’intero punto è diventare uno standard aperto, quindi dobbiamo farlo in modo che funzioni per la piattaforma cloud di chiunque. È open source, quindi incoraggio le persone ad aggiungere anche più piattaforme e configurazioni supportate!
Cosa si vede in un mondo con crittografia verificabile predefinita e come potrebbe ridisegnare l’equilibrio di potere tra aziende, fornitori di cloud e fornitori di modelli?
Le aziende mantengono il controllo del loro bene più prezioso: i propri dati. I fornitori di modelli competono in base alle prestazioni e ai costi invece di chi può accumulare le informazioni più proprietarie. I cloud abilitano la privacy invece di essere silenti osservatori di essa.
È un equilibrio di potere più sano. E l’intero ecosistema vince quando la sicurezza è costruita nella fondazione invece di essere applicata sopra.
In un futuro in cui l’intelligenza artificiale diventa ubiqua e fortemente regolamentata, come vedi la privacy verificabile ridisegnare il paesaggio competitivo per le aziende, i fornitori di cloud e gli sviluppatori di modelli?
I regolatori stanno già mettendo in discussione come vengono archiviati e utilizzati i dati degli utenti. La privacy basata sulla fiducia non li soddisferà a lungo. Gli utenti si aspettano garanzie di privacy allo stesso modo in cui si aspettano la crittografia nelle app di messaggistica oggi.
I vincitori saranno le aziende che non chiedono agli utenti di compromettere. Se puoi provare la privacy, guadagni la fiducia delle organizzazioni che hanno i dati più preziosi del mondo. I dati diventano utilizzabili in luoghi in cui sono stati bloccati.
Grazie per la grande intervista, i lettori che desiderano saperne di più possono visitare Confident Security.












