Connect with us

Interviews

Jonathan Mortensen, Fondateur et PDG de Confident Security – Série d’entretiens

mm

Jonathan Mortensen, Fondateur et PDG de Confident Security, dirige actuellement le développement de systèmes d’IA à confidentialité prouvée pour les industries ayant des exigences de sécurité et de conformité strictes. Il siège également en tant que Fellow Fondateur à South Park Commons, où il explore l’avenir de l’informatique, de la mémoire, de la confidentialité et de la propriété de l’IA. Avant de lancer Confident Security, il était ingénieur logiciel principal chez Databricks, où il a intégré la technologie de bit.io à sa plate-forme de données, en mettant l’accent sur la sécurité multilocataire, les IAM/ACL, l’isolement VPC, le cryptage et la propriété des données. Plus tôt, il a fondé et occupé le poste de CTO de bit.io, où il a construit un service PostgreSQL serveurless multi-nuage et multi-région qui a pris en charge des centaines de milliers de bases de données sécurisées et a été ultérieurement acquis par Databricks.

Confident Security construit des infrastructures qui permettent aux entreprises d’exécuter des flux de travail d’IA sans exposer d’informations sensibles. Sa plate-forme est conçue de telle sorte que les invites, les données et les sorties de modèle restent entièrement privées, ne sont jamais enregistrées et ne sont jamais réutilisées, offrant ainsi aux organisations un moyen sécurisé d’adopter l’IA tout en respectant les normes réglementaires et de conformité strictes.

Vous avez fondé Confident Security en 2024 après avoir construit bit.io et travaillé chez Databricks. Qu’est-ce qui a déclenché la prise de conscience que l’IA nécessitait une approche fondamentalement différente de la confidentialité ?

Mon expérience dans la construction d’infrastructures de données m’a enseigné ceci : si les gens insèrent des informations sensibles dans un système, la confiance ne suffit pas. Ils ont besoin de preuves. Nous avons construit des infrastructures où les clients possédaient leurs données, et nous leur avons donné des moyens de valider cela.

Lorsque j’ai regardé la façon dont les entreprises utilisaient les LLM, ces preuves n’existaient pas. Les employés collaient du code source, des documents juridiques et des dossiers de patients dans des modèles exécutés par des tiers qu’ils ne pouvaient pas vérifier. Nous avons déjà vu des conversations privées accidentellement indexées en ligne et des modifications de politique qui ont rendu les conversations des données d’entraînement par défaut. Cela a montré à quel point le modèle de confidentialité actuel est fragile.

Si l’IA doit gérer les informations les plus sensibles du monde, nous avons besoin de garanties qui ne dépendent pas de la confiance en les promesses internes d’un fournisseur. C’est ce qui m’a poussé à lancer Confident Security.

OpenPCC est décrit comme le « Signal pour l’IA ». Pourquoi était-il important que cette couche de confidentialité soit ouverte, attestable et interopérable dès le premier jour ?

Le cryptage de bout en bout n’a pris son essor que lorsqu’il est devenu une norme que tout le monde pouvait adopter. Nous voulons la même chose pour la confidentialité de l’IA. Si seules quelques entreprises peuvent offrir de véritables garanties, alors la confidentialité ne sera pas mise à l’échelle.

OpenPCC est open source sous Apache 2.0, donc n’importe qui peut construire dessus ou l’inspecter. Il n’y a pas de exigence de confiance secrète. L’attestation matérielle fournit une preuve cryptographique sur ce qui est exécuté et où. Et nous nous sommes assurés qu’il fonctionne partout : n’importe quel nuage, n’importe quel fournisseur de modèles, n’importe quelle pile de développement.

Il y a une grande valeur dans un plancher de confidentialité qui est cohérent et universel. Si vous utilisez OpenPCC, vous savez que vos données ne sont pas visibles pour les fournisseurs de modèles, les régulateurs ou même nous. Une norme ne fonctionne que si l’ensemble de l’écosystème peut y participer, nous l’avons donc conçue pour être aussi inclusive que possible dès le premier jour.

Avant Confident Security, vous avez construit de grands systèmes pour la multilocataire, le cryptage et la propriété des données. Comment ces expériences ont-elles façonné l’architecture d’OpenPCC ?

Ces systèmes m’ont enseigné deux vérités : si un système peut conserver des données, il le fera éventuellement, que ce soit par le biais de journaux, de mauvaises configurations ou de demandes légales. Et la confiance n’est pas un modèle de confidentialité. Les utilisateurs ont besoin de visibilité et de contrôle.

OpenPCC fonctionne en mode sans état, donc les invites disparaissent après le traitement. L’attestation permet aux utilisateurs de vérifier où vont leurs données et quel code est exécuté. Et en isolant le contrôle des données, OpenPCC empêche les entrées privées d’être jamais traitées comme des instructions exécutables.

Antoine est un leader visionnaire et partenaire fondateur de Unite.AI, animé par une passion inébranlable pour façonner et promouvoir l'avenir de l'IA et de la robotique. Un entrepreneur en série, il croit que l'IA sera aussi perturbatrice pour la société que l'électricité, et se fait souvent prendre en train de vanter le potentiel des technologies perturbatrices et de l'AGI.
En tant que futurist, il se consacre à explorer comment ces innovations vont façonner notre monde. En outre, il est le fondateur de Securities.io, une plateforme axée sur l'investissement dans les technologies de pointe qui redéfinissent l'avenir et remodelent des secteurs entiers.