Éthique
Les chercheurs croient que l'IA peut être utilisée pour aider à protéger la vie privée des gens

Deux professeurs de sciences de l'information ont récemment publié un morceau dans The Conversation, arguant que l'IA pourrait aider à préserver la vie privée des gens, en corrigeant certains des problèmes qu'elle a créés.
Zhiyuan Chen et Aryya Gangopadhyay soutiennent que les algorithmes d'intelligence artificielle pourraient être utilisés pour défendre la vie privée des gens, contrecarrant certains des nombreux problèmes de confidentialité que d'autres utilisations de l'IA ont créés. Chen et Gangopadhyay reconnaissent que de nombreux produits basés sur l'IA que nous utilisons pour plus de commodité ne fonctionneraient pas sans un accès à de grandes quantités de données, ce qui, à première vue, semble en contradiction avec les tentatives de préservation de la vie privée. De plus, à mesure que l'IA se répandra dans de plus en plus d'industries et d'applications, davantage de données seront collectées et stockées dans des bases de données, rendant les violations de ces bases de données tentantes. Cependant, Chen et Gangopadhyay pensent que lorsqu'elle est utilisée correctement, l'IA peut aider à atténuer ces problèmes.
Chen et Gangopadhyay expliquent dans leur article que les risques pour la vie privée associés à l'IA proviennent d'au moins deux sources différentes. La première source est constituée par les grands ensembles de données collectés pour former des modèles de réseaux neuronaux, tandis que la deuxième menace pour la vie privée est constituée par les modèles eux-mêmes. Les données peuvent potentiellement «fuir» de ces modèles, le comportement des modèles donnant des détails sur les données utilisées pour les former.
Les réseaux de neurones profonds sont composés de plusieurs couches de neurones, chaque couche étant connectée aux couches qui les entourent. Les neurones individuels, ainsi que les liens entre les neurones, codent pour différents bits des données d'apprentissage. Le modèle peut s'avérer trop bon pour se souvenir des modèles de données d'entraînement, même si le modèle n'est pas surajusté. Des traces des données de formation existent au sein du réseau et des acteurs malveillants peuvent être en mesure de vérifier certains aspects des données de formation, comme Cornell University trouvé au cours d'une de leurs études. Les chercheurs de Cornell ont découvert que les algorithmes de reconnaissance faciale pouvaient être exploités par des attaquants pour révéler quelles images, et donc quelles personnes, étaient utilisées pour entraîner le modèle de reconnaissance faciale. Les chercheurs de Cornell ont découvert que même si un attaquant n'a pas accès au modèle d'origine utilisé pour former l'application, l'attaquant peut toujours être en mesure de sonder le réseau et de déterminer si une personne spécifique a été incluse dans les données de formation simplement en utilisant des modèles. était qui ont été formés sur des données très similaires.
Certains modèles d'IA sont actuellement utilisés pour se protéger contre les violations de données et tenter de garantir la confidentialité des personnes. Les modèles d'IA sont fréquemment utilisés pour détecter les tentatives de piratage en reconnaissant les modèles de comportement que les pirates utilisent pour pénétrer les méthodes de sécurité. Cependant, les pirates modifient souvent leur comportement pour essayer de tromper l'IA de détection de modèles.
De nouvelles méthodes de formation et de développement de l'IA visent à rendre les modèles et les applications d'IA moins vulnérables aux méthodes de piratage et aux tactiques d'évasion de la sécurité. L'apprentissage contradictoire s'efforce de former des modèles d'IA sur des simulations d'entrées malveillantes ou nuisibles et, ce faisant, de rendre le modèle plus robuste à l'exploitation, d'où le « contradictoire » dans le nom. Selon Chen et Gangopadhyay, leurs recherches a découvert méthodes de lutte contre les logiciels malveillants conçus pour voler les informations privées des personnes. Les deux chercheurs ont expliqué que l'une des méthodes qu'ils ont trouvées les plus efficaces pour résister aux logiciels malveillants était l'introduction d'incertitude dans le modèle. L'objectif est de rendre plus difficile pour les mauvais acteurs d'anticiper la réaction du modèle à une entrée donnée.
D'autres méthodes d'utilisation de l'IA pour protéger la confidentialité incluent la minimisation de l'exposition des données lors de la création et de l'entraînement du modèle, ainsi que des sondages pour découvrir les vulnérabilités du réseau. Lorsqu'il s'agit de préserver la confidentialité des données, l'apprentissage fédéré peut contribuer à protéger la confidentialité des données sensibles, car il permet à un modèle d'être entraîné sans que les données d'entraînement ne quittent les appareils locaux qui contiennent les données, isolant ainsi les données et une grande partie du contenu. les paramètres du modèle contre l'espionnage.
En fin de compte, Chen et Gangopadhyay affirment que si la prolifération de l'IA a créé de nouvelles menaces pour la vie privée des personnes, l'IA peut également aider à protéger la vie privée lorsqu'elle est conçue avec soin et considération.












