talon Mike Capps, co-fondateur et PDG de Diveplane - Série d'interviews - Unite.AI
Suivez nous sur

Interviews

Mike Capps, co-fondateur et PDG de Diveplane - Série d'interviews

mm
Le kit de préparation mis à jour on

Le Dr Michael Capps est un technologue bien connu et PDG de Diveplane Corporation. Avant de co-fonder Diveplane, Mike a eu une carrière légendaire dans l'industrie du jeu vidéo en tant que président d'Epic Games, créateurs des blockbusters Fortnite et Gears of War. Son mandat comprenait une centaine de récompenses pour le jeu de l'année, des dizaines de discours liminaires, un prix pour l'ensemble de ses réalisations et une défense réussie de la liberté d'expression des jeux vidéo devant la Cour suprême des États-Unis.

Avion de plongée propose des solutions commerciales basées sur l'IA dans de nombreux secteurs. Avec six brevets approuvés et plusieurs en attente, l'IA compréhensible de Diveplane offre une compréhension totale et une transparence des décisions à l'appui des politiques éthiques en matière d'IA et des stratégies de confidentialité des données.

Vous avez pris votre retraite avec succès après une carrière réussie dans l'industrie du jeu vidéo chez Epic Games, qu'est-ce qui vous a inspiré à sortir de votre retraite pour vous concentrer sur l'IA ?

Créer des jeux était un plaisir mais – du moins à l'époque – n'était pas une carrière idéale pour avoir une nouvelle famille. Je me suis occupé des sièges du conseil d'administration et des rôles consultatifs, mais ce n'était tout simplement pas satisfaisant. J'ai donc dressé une liste de trois problèmes majeurs auxquels le monde est confronté et que je pourrais éventuellement avoir un impact - et cela comprenait la prolifération des systèmes d'IA en boîte noire. Mon plan était de passer un an à creuser chacun, mais quelques semaines plus tard, mon brillant ami Chris Hazard m'a dit qu'il travaillait secrètement sur une plate-forme d'IA transparente et entièrement explicable. Et nous voici. 

Diveplane a été lancé avec pour mission d'apporter l'humanité à l'IA, pouvez-vous préciser ce que cela signifie spécifiquement ?

Bien sûr. Ici, nous utilisons l'humanité pour signifier « humanité » ou « compassion ». Pour vous assurer que le meilleur de l'humanité se trouve dans votre modèle d'IA, vous ne pouvez pas simplement vous entraîner, tester un peu et espérer que tout va bien. 

Nous devons examiner attentivement les données d'entrée, le modèle lui-même et la sortie de ce modèle, et nous assurer qu'il reflète le meilleur de notre humanité. La plupart des systèmes formés sur des données historiques ou réelles ne seront pas corrects du premier coup, et ils ne sont pas nécessairement impartiaux non plus. Nous pensons que la seule façon d'éliminer les biais dans un modèle - c'est-à-dire à la fois les erreurs statistiques et les préjugés - est la combinaison de la transparence, de la vérifiabilité et d'une explication compréhensible par l'homme.  

La technologie de base de Diveplane s'appelle REACTOR. Qu'est-ce qui en fait une nouvelle approche pour rendre l'apprentissage automatique explicable ?

L'apprentissage automatique implique généralement l'utilisation de données pour créer un modèle qui prend un type particulier de décision. Les décisions peuvent inclure l'angle de rotation des roues d'un véhicule, s'il faut approuver ou refuser un achat ou le marquer comme une fraude, ou quel produit recommander à quelqu'un. Si vous voulez savoir comment le modèle a pris la décision, vous devez généralement lui demander de nombreuses décisions similaires, puis réessayer de prédire ce que le modèle lui-même pourrait faire. Les techniques d'apprentissage automatique sont soit limitées dans les types d'informations qu'elles peuvent offrir, soit par le fait que les informations reflètent réellement ce que le modèle a fait pour arriver à la décision, soit par une précision moindre.

Travailler avec REACTOR est assez différent. REACTOR caractérise l'incertitude de vos données, et vos données deviennent le modèle. Au lieu de créer un modèle par type de décision, il vous suffit de demander à REACTOR ce que vous souhaitez qu'il décide - cela peut être tout ce qui concerne les données - et REACTOR demande quelles données sont nécessaires pour une décision donnée. REACTOR peut toujours vous montrer les données qu'il a utilisées, leur lien avec la réponse, chaque aspect de l'incertitude, le raisonnement contrefactuel et pratiquement toute question supplémentaire que vous aimeriez poser. Parce que les données sont le modèle, vous pouvez modifier les données et REACTOR sera instantanément mis à jour. Il peut vous montrer s'il y avait des données qui semblaient anormales qui ont été prises en compte dans la décision, et retracer chaque modification des données et de leur source. REACTOR utilise la théorie des probabilités jusqu'au bout, ce qui signifie que nous pouvons vous indiquer les unités de mesure de chaque partie de son fonctionnement. Et enfin, vous pouvez reproduire et valider n'importe quelle décision en utilisant uniquement les données qui ont conduit à la décision et les incertitudes, en utilisant des mathématiques relativement simples sans même avoir besoin de REACTOR.

REACTOR est capable de faire tout cela tout en maintenant une précision hautement compétitive, en particulier pour les ensembles de données petits et clairsemés.

GEMINAI est un produit qui construit un jumeau numérique d'un ensemble de données, qu'est-ce que cela signifie concrètement, comment cela garantit-il la confidentialité des données ?

Lorsque vous alimentez GEMINAI avec un jeu de données, il acquiert une connaissance approfondie de la forme statistique de ces données. Vous pouvez l'utiliser pour créer un jumeau synthétique qui ressemble à la structure des données d'origine, mais tous les enregistrements sont nouvellement créés. Mais la forme statistique est la même. Ainsi, par exemple, la fréquence cardiaque moyenne des patients dans les deux ensembles serait presque la même, comme toutes les autres statistiques. Ainsi, toute analyse de données utilisant le jumeau donnerait la même réponse que les originaux, y compris la formation de modèles ML. 

Et si quelqu'un a un enregistrement dans les données d'origine, il n'y aura pas d'enregistrement pour lui dans le jumeau synthétique. Nous ne supprimons pas seulement le nom - nous nous assurons qu'il n'y a pas de nouvel enregistrement qui se trouve "à proximité" de leur enregistrement (et de tous les autres) dans l'espace d'information. C'est-à-dire qu'il n'y a aucun disque reconnaissable à la fois dans l'ensemble original et synthétique. 

Cela signifie que l’ensemble de données synthétiques peut être partagé beaucoup plus librement sans risque de partage inapproprié d’informations confidentielles. Peu importe qu'il s'agisse de transactions financières personnelles, d'informations sur la santé des patients, de données classifiées – tant que les statistiques des données ne sont pas confidentielles, le jumeau synthétique ne l'est pas.  

Pourquoi GEMINAI est-il une meilleure solution que l'utilisation de la confidentialité différentielle ?

La confidentialité différentielle est un ensemble de techniques qui empêchent la probabilité d'un individu d'influencer les statistiques plus qu'une quantité marginale, et est un élément fondamental dans presque toutes les solutions de confidentialité des données. Cependant, lorsque la confidentialité différentielle est utilisée seule, un budget de confidentialité pour les données doit être géré, avec suffisamment de bruit ajouté à chaque requête. Une fois ce budget épuisé, les données ne peuvent plus être utilisées sans encourir de risques pour la confidentialité.

Une façon de surmonter ce budget consiste à appliquer immédiatement le budget de confidentialité complet pour former un modèle d'apprentissage automatique afin de générer des données synthétiques. L'idée est que ce modèle, formé à l'aide de la confidentialité différentielle, peut être utilisé de manière relativement sûre. Cependant, l'application correcte de la confidentialité différentielle peut être délicate, en particulier s'il existe des volumes de données différents pour différentes personnes et des relations plus complexes, telles que des personnes vivant dans la même maison. Et les données synthétiques produites à partir de ce modèle sont souvent susceptibles d'inclure, par hasard, des données réelles qu'un individu pourrait revendiquer comme étant les siennes car trop similaires.

GEMINAI résout ces problèmes et plus encore en combinant plusieurs techniques de confidentialité lors de la synthèse des données. Il utilise une forme pratique appropriée de confidentialité différentielle qui peut s'adapter à une grande variété de types de données. Il est construit sur notre moteur REACTOR, il connaît donc en outre la probabilité que des données puissent être confondues les unes avec les autres, et synthétise les données en s'assurant qu'elles sont toujours suffisamment différentes des données originales les plus similaires. De plus, il traite chaque champ, chaque élément de données comme potentiellement sensible ou identifiant, il applique donc des formes pratiques de confidentialité différentielle pour les champs qui ne sont pas traditionnellement considérés comme sensibles mais qui pourraient identifier de manière unique un individu, comme la seule transaction dans un 24 magasin à l'heure entre 2h et 3h du matin. Nous appelons souvent cela le broyage croisé de la confidentialité.

GEMINAI est capable d'atteindre une grande précision pour presque tous les objectifs, qui ressemble aux données d'origine, mais empêche quiconque de trouver des données synthétiques trop similaires aux données synthétiques.

Diveplane a joué un rôle déterminant dans la co-fondation de la Data & Trust Alliance, quelle est cette alliance ?

C'est un groupe absolument fantastique de PDG de la technologie, qui collaborent pour développer et adopter des pratiques responsables en matière de données et d'IA. Des organisations de classe mondiale comme IBM, Johnson&Johnson, Mastercard, UPS, Walmart et Diveplane. Nous sommes très fiers d'avoir fait partie des premières étapes, et également fiers du travail que nous avons accompli collectivement sur nos initiatives. 

Diveplane a récemment organisé une ronde de série A réussie, qu'est-ce que cela signifiera pour l'avenir de l'entreprise ?

Nous avons eu la chance de réussir nos projets d'entreprise, mais il est difficile de changer le monde une entreprise à la fois. Nous utiliserons ce soutien pour constituer notre équipe, partager notre message et obtenir une IA compréhensible dans autant d'endroits que possible !

Y a-t-il autre chose que vous aimeriez partager à propos de Diveplane ?

Diveplane consiste à s'assurer que l'IA est effectuée correctement au fur et à mesure qu'elle prolifère. Nous visons une IA juste, transparente et compréhensible, montrant de manière proactive ce qui motive les décisions et s'éloignant de la «mentalité de la boîte noire» de l'IA qui a le potentiel d'être injuste, contraire à l'éthique et biaisée. Nous pensons que l'explicabilité est l'avenir de l'IA, et nous sommes ravis de jouer un rôle central dans sa progression !

Merci pour cette excellente interview, les lecteurs qui souhaitent en savoir plus devraient visiter Avion de plongée.

Partenaire fondateur d'unite.AI et membre du Conseil technologique de Forbes, Antoine est un futuriste qui est passionné par l'avenir de l'IA et de la robotique.

Il est également le fondateur de Titres.io, un site Web axé sur l'investissement dans les technologies de rupture.