Interviews
David Maher, directeur technique d'Intertrust – Série d'entretiens

David Maher sert IntertrustVice-président exécutif et directeur de la technologie de la société. Avec plus de 30 ans d'expérience dans les systèmes distribués de confiance, les systèmes sécurisés et la gestion des risques, Dave a dirigé les efforts de recherche et développement et occupé des postes de direction clés dans les filiales de la société. Il a été président de Seacert Corporation, une autorité de certification pour les médias numériques et l'IoT, et président de whiteCryption Corporation, un développeur de systèmes d'autodéfense logicielle. Il a également été coprésident du Marlin Confiance Organisation de gestion des droits numériques (MTMO), qui supervise le seul écosystème indépendant de gestion des droits numériques au monde.
Intertrust a développé des innovations permettant aux systèmes d'exploitation distribués de sécuriser et de gérer les données et les calculs sur des réseaux ouverts, ce qui a donné lieu à un brevet fondateur sur l'informatique distribuée de confiance.
Intertrust, qui s'est d'abord concentrée sur la recherche, est devenue une entreprise axée sur les produits, proposant des services informatiques de confiance qui unifient les opérations sur les appareils et les données, en particulier pour l'IoT et l'IA. Ses marchés comprennent la distribution de médias, l'identification/l'authentification des appareils, la gestion de l'énergie numérique, l'analyse et la sécurité du stockage dans le cloud.
Comment pouvons-nous combler le déficit de confiance dans l’IA et répondre aux préoccupations croissantes du public concernant la sécurité et la fiabilité de l’IA ?
La transparence est la qualité la plus importante qui, selon moi, contribuera à répondre aux préoccupations croissantes concernant l’IA. Elle comprend des caractéristiques qui aident les consommateurs et les technologues à comprendre quels mécanismes d’IA font partie des systèmes avec lesquels nous interagissons, quel type de pedigree ils ont : comment un modèle d’IA est formé, quelles sont les garde-fous existants, quelles politiques ont été appliquées dans le développement du modèle et quelles autres garanties existent pour la sûreté et la sécurité d’un mécanisme donné. Avec une plus grande transparence, nous serons en mesure de faire face aux risques et aux problèmes réels et de ne pas nous laisser distraire par des craintes et des conjectures irrationnelles.
Quel rôle joue l’authentification des métadonnées pour garantir la fiabilité des résultats de l’IA ?
L’authentification des métadonnées contribue à accroître notre confiance dans la fiabilité des garanties apportées par un modèle d’IA ou un autre mécanisme. Une carte de modèle d’IA est un exemple de collection de métadonnées qui peut aider à évaluer l’utilisation d’un mécanisme d’IA (modèle, agent, etc.) dans un but précis. Nous devons établir des normes de clarté et d’exhaustivité pour les cartes de modèles avec des normes pour les mesures quantitatives et les assertions authentifiées sur les performances, les biais, les propriétés des données d’entraînement, etc.
Comment les organisations peuvent-elles atténuer le risque de biais et d’hallucinations de l’IA dans les grands modèles linguistiques (LLM) ?
Le red teaming est une approche générale visant à gérer ces risques et d’autres lors du développement et de la pré-publication des modèles. Utilisée à l’origine pour évaluer les systèmes sécurisés, cette approche est désormais devenue la norme pour les systèmes basés sur l’IA. Il s’agit d’une approche systémique de la gestion des risques qui peut et doit inclure l’intégralité du cycle de vie d’un système, du développement initial au déploiement sur le terrain, en couvrant l’ensemble de la chaîne logistique de développement. La classification et l’authentification des données de formation utilisées pour un modèle sont particulièrement importantes.
Quelles mesures les entreprises peuvent-elles prendre pour créer de la transparence dans les systèmes d’IA et réduire les risques associés au problème de la « boîte noire » ?
Il faut comprendre comment l'entreprise va utiliser le modèle et quels types de responsabilités elle peut avoir lors du déploiement, que ce soit pour une utilisation interne ou pour une utilisation par des clients, directement ou indirectement. Ensuite, il faut comprendre ce que j'appelle les pedigrees des mécanismes d'IA à déployer, y compris les assertions sur une carte de modèle, les résultats des essais en équipe rouge, l'analyse différentielle sur l'utilisation spécifique de l'entreprise, ce qui a été formellement évalué et ce qui a été l'expérience d'autres personnes. Des tests internes utilisant un plan de test complet dans un environnement réaliste sont absolument nécessaires. Les meilleures pratiques évoluent dans ce domaine naissant, il est donc important de suivre le rythme.
Comment les systèmes d’IA peuvent-ils être conçus en tenant compte des directives éthiques, et quels sont les défis à relever pour y parvenir dans différents secteurs ?
Il s’agit d’un domaine de recherche, et beaucoup affirment que la notion d’éthique et les versions actuelles de l’IA sont incongrues, car l’éthique est basée sur des concepts et les mécanismes de l’IA sont principalement basés sur des données. Par exemple, des règles simples que les humains comprennent, comme « ne pas tricher », sont difficiles à garantir. Cependant, il convient d’envisager une analyse minutieuse des interactions et des conflits d’objectifs dans l’apprentissage basé sur les objectifs, l’exclusion des données fragmentaires et de la désinformation, et l’élaboration de règles qui nécessitent l’utilisation de filtres de sortie qui renforcent les garde-fous et testent les violations des principes éthiques tels que la défense ou la sympathie pour l’utilisation de la violence dans le contenu de sortie. De même, des tests rigoureux de biais peuvent aider à aligner davantage un modèle sur les principes éthiques. Là encore, une grande partie de ces tests peut être conceptuelle, il faut donc veiller à tester les effets d’une approche donnée, car le mécanisme d’IA ne « comprendra » pas les instructions comme le font les humains.
Quels sont les principaux risques et défis auxquels l’IA sera confrontée à l’avenir, notamment à mesure qu’elle s’intègre davantage aux systèmes IoT ?
Nous souhaitons utiliser l’IA pour automatiser les systèmes qui optimisent les processus d’infrastructures critiques. Par exemple, nous savons que nous pouvons optimiser la distribution et l’utilisation de l’énergie à l’aide de centrales électriques virtuelles, qui coordonnent des milliers d’éléments de production, de stockage et d’utilisation de l’énergie. Cela n’est possible qu’avec une automatisation massive et l’utilisation de l’IA pour aider à la prise de décision minutieuse. Les systèmes comprendront des agents ayant des objectifs d’optimisation contradictoires (par exemple, au profit du consommateur ou du fournisseur). La sûreté et la sécurité de l’IA seront essentielles dans le déploiement à grande échelle de tels systèmes.
Quel type d’infrastructure est nécessaire pour identifier et authentifier en toute sécurité les entités dans les systèmes d’IA ?
Nous aurons besoin d’une infrastructure robuste et efficace permettant aux entités impliquées dans l’évaluation de tous les aspects des systèmes d’IA et de leur déploiement de publier des déclarations faisant autorité et authentiques sur les systèmes d’IA, leur pedigree, les données de formation disponibles, la provenance des données des capteurs, les incidents et événements affectant la sécurité, etc. Cette infrastructure devra également permettre de vérifier efficacement les déclarations et les assertions des utilisateurs de systèmes qui incluent des mécanismes d’IA et des éléments au sein de systèmes automatisés qui prennent des décisions basées sur les résultats des modèles et optimiseurs d’IA.
Pourriez-vous partager avec nous quelques informations sur ce sur quoi vous travaillez chez Intertrust et comment cela influence ce dont nous avons discuté ?
Nous recherchons et concevons des technologies capables de fournir le type d'infrastructure de gestion de la confiance requis dans la question précédente. Nous abordons spécifiquement les problèmes d'échelle, de latence, de sécurité et d'interopérabilité qui se posent dans les systèmes IoT qui incluent des composants d'IA.
Comment le service PKI (Public Key Infrastructure) d'Intertrust sécurise-t-il les appareils IoT et qu'est-ce qui le rend évolutif pour les déploiements à grande échelle ?
Notre PKI a été conçue spécifiquement pour la gestion de la confiance dans les systèmes qui incluent la gouvernance des appareils et du contenu numérique. Nous avons déployé des milliards de clés cryptographiques et de certificats qui garantissent la conformité. Nos recherches actuelles portent sur l'échelle et les garanties requises par l'automatisation industrielle massive et les infrastructures mondiales critiques, y compris les meilleures pratiques pour les déploiements « zero-trust » et l'authentification des appareils et des données qui peuvent prendre en charge des milliards de capteurs et de générateurs d'événements.
Qu’est-ce qui vous a motivé à rejoindre les initiatives d’IA du NIST, et comment votre implication contribue-t-elle au développement de normes d’IA fiables et sûres ?
Le NIST possède une expérience et une réussite considérables dans le développement de normes et de bonnes pratiques en matière de systèmes sécurisés. En tant que chercheur principal pour l’AISIC américain d’Intertrust, je peux défendre des normes et des bonnes pratiques importantes dans le développement de systèmes de gestion de la confiance qui incluent des mécanismes d’IA. De par mon expérience passée, j’apprécie particulièrement l’approche adoptée par le NIST pour promouvoir la créativité, le progrès et la coopération industrielle tout en contribuant à formuler et à promulguer d’importantes normes techniques qui favorisent l’interopérabilité. Ces normes peuvent stimuler l’adoption de technologies bénéfiques tout en abordant les types de risques auxquels la société est confrontée.
Merci pour cette excellente interview, les lecteurs qui souhaitent en savoir plus devraient visiter Intertrust.












