Connect with us

Lorsque les ‘connaissances’ de l’IA ont 50 ans : Le risque de conformité que vous ne pouvez pas ignorer

Leaders d’opinion

Lorsque les ‘connaissances’ de l’IA ont 50 ans : Le risque de conformité que vous ne pouvez pas ignorer

mm

La question des fausses informations de l’IA est un défi urgent alors que les entreprises augmentent leur utilisation d’outils génératifs. Malgré l’enthousiasme généralisé pour l’adoption de l’IA, il existe également un courant critique important. Les commentateurs critiques pointent souvent vers des inexactitudes apparemment aléatoires et imprévisibles dans les sorties de l’IA, qui sapent sa valeur – et peuvent même causer un préjudice réel aux humains, en particulier dans des secteurs comme les soins de santé et les transports, où les sorties fausses pourraient théoriquement conduire à tout, desde la mauvaise ordonnance à des trains sur une trajectoire de collision.

Souvent, ces inexactitudes ont été attribuées à des « hallucinations » de l’IA – des instances dans lesquelles l’IA génère une réponse de « meilleur essai », présentée avec la même confiance qu’une réponse « authentique », plutôt que d’informer l’utilisateur d’un manque de connaissance ou de capacité. Les hallucinations peuvent être difficiles à détecter au premier coup d’œil – mais il existe un problème plus silencieux, tout aussi grave, qui est encore plus difficile à détecter.

La dette de qualité des données : le talon d’Achille de l’IA

Lorsque les systèmes d’IA tirent des données obsolètes, incomplètes ou inexactes, des sorties fausses se produisent, mais sont moins immédiatement discernables. Par exemple, vous pourriez demander à un IA d’identifier les symptômes d’une affection médicale et recevoir une réponse basée sur un article de 50 ans plutôt que sur des recherches actuelles. Le résultat est peu probable pour apparaître évidemment, ridiculement faux – mais cette première apparence de plausibilité pose un risque réel pour le patient en question et le fournisseur de soins de santé.

La même chose est vraie pour tous les secteurs – si les données alimentant le modèle d’IA incluent des informations anciennes, obsolètes ou partielles, il y a un risque élevé de sorties fausses. Et à mesure que plus d’entreprises intègrent l’IA dans des processus critiques pour les entreprises, le risque de tirer des conclusions fausses à partir de données mal gérées augmente.

Précision pour le régulateur

Ce n’est pas seulement un problème pour les opérations quotidiennes – c’est également un défi de conformité important. Les exigences réglementaires évoluent rapidement pour répondre aux préoccupations concernant l’IA inexacte. Par exemple, un certain nombre d’actions réglementaires précoces sur l’IA ont eu lieu ; notamment lorsque l’Italie a temporairement interdit ChatGPT en raison de préoccupations en matière de confidentialité, et que le Conseil de protection des données de l’UE a lancé une taskforce dédiée pour coordonner les actions d’application potentielles contre ChatGPT.

L’une des modifications réglementaires les plus révélatrices a été l’adoption du règlement de l’UE sur l’IA, le premier cadre juridique complet pour l’IA. Le règlement établit des obligations en fonction du niveau de risque des systèmes d’IA, des systèmes à « risque inacceptable », qui sont interdits, aux systèmes à « risque élevé », qui font face à des exigences strictes en matière de transparence, de qualité des données, de gouvernance et de surveillance humaine.

L’importance du règlement de l’UE sur l’IA réside non pas dans son ampleur ambitieuse, mais dans le précédent qu’il établit. Les régulateurs font clairement savoir que l’IA sera soumise à des règles contraignantes et que les organisations doivent traiter la conformité et la transparence autour de l’utilisation de l’IA comme une partie intégrante de l’adoption de l’IA, plutôt que comme une afterthought.

Le règlement a un large champ d’application, avec le potentiel d’avoir un impact sur une grande proportion des développements d’IA. Au cœur de ce nouveau système fondé sur des principes se trouve le diagnostic des sources potentielles d’inexactitudes de l’IA, y compris les données et les ensembles de données qui alimentent les modèles, l’opacité et l’accès des modèles, ainsi que la conception et l’utilisation des systèmes. Les solutions d’IA sont une construction de ces trois éléments – les problèmes avec l’un de ces éléments peuvent avoir un résultat négatif. De plus, les données qui entrent dans la conception, le développement, le déploiement et l’exploitation de l’IA sont susceptibles d’être principalement constituées de dossiers commerciaux qui sont eux-mêmes soumis à diverses exigences de conformité.

En d’autres termes, l’environnement réglementaire entourant l’IA devient de plus en plus strict – et cela est tout aussi vrai pour les données d’entrée que pour les données de sortie, même si ces dernières font l’objet de beaucoup plus d’attention.

Cinq étapes pour alimenter l’IA avec des données conformes, actuelles et pertinentes

Pour résoudre ce défi double – assurer à la fois une gestion des données conforme et une entrée de haute qualité qui permet une sortie de haute qualité – les entreprises ont besoin d’un contrôle sur les données de formation et d’inférence. Malheureusement, c’est quelque chose que de nombreuses entreprises manquent encore.

Au minimum, les organisations devraient appliquer leurs programmes de conformité et de gouvernance plus larges aux initiatives d’IA. Ils ont besoin de commencer à capturer et à maintenir des dossiers appropriés sur les données qu’ils alimentent les modèles d’IA, sur la façon dont les modèles et les systèmes sont conçus, ainsi que sur les décisions et le contenu générés via l’IA.

Cependant, il devient également critique pour les organisations d’aller au-delà de cela et de s’assurer qu’elles ont un contrôle total sur toutes les données qui pourraient être utilisées dans les déploiements d’IA, que ce soit pour la formation initiale ou le travail « en direct ». Cela nécessite une stratégie de gestion et de stockage de données de haute qualité, en veillant à ce que toutes les données pertinentes soient intelligentes, nettoyées, stockées, classées et habilitées. Pour atteindre cela, les organisations doivent considérer quatre étapes clés :

1. Lignée et provenance des données

Cela inclut le maintien d’un dossier de la source des données, de leur origine, de leur propriété et de tout changement dans les métadonnées (si autorisé) tout au long de leur cycle de vie. Cela signifie également maintenir des métadonnées riches et tous les documents ou artefacts sous-jacents dont elles sont dérivées.

2. Authenticité des données

Cela nécessite le maintien d’une chaîne de garde pour toutes les données, le stockage d’objets dans leurs formes natives et le hachage d’objets reçus pour démontrer que les données restent inchangées. En outre, les organisations doivent maintenir une historique d’audit complet pour chaque objet, et pour toutes les actions et événements liés à tout changement.

3. Classification des données

Établir la nature d’un ensemble ou d’un type de données est important. Les organisations ont besoin de pouvoir gérer des données structurées, semi-structurées et des ensembles de données structurées. Donner à chaque classe un schéma unique peut permettre aux organisations de gérer des ensembles de données diversifiés sans une ontologie fixe universelle – en évitant que les données soient inutilement manipulées pour les forcer dans une structure de données inflexible.

4. Normalisation des données

Établir des définitions et des formats communs de métadonnées est important pour une utilisation dans les analyses et les solutions d’IA. Des schémas clairement définis sont un élément important, ainsi que des outils qui peuvent transformer ou mapper les données pour maintenir des vues normalisées et cohérentes de données liées.

5. Droits d’accès aux données

Les entreprises ont besoin de contrôles d’accès granulaires, y compris au niveau de l’objet ou du champ, en fonction des profils d’utilisateur ou de système. Cela signifie que les bonnes données sont disponibles pour les utilisateurs et les systèmes qui sont autorisés à y accéder, tout en restreignant ou en limitant l’accès à ceux qui ne le sont pas.

Avec ces éléments essentiels en place, les entreprises seront les mieux placées pour s’assurer que les données fournies aux modèles d’IA sont à la fois de haute qualité et conformes. L’IA va améliorer les choses et les rendra plus efficaces dans tous les secteurs – mais pour que cela se produise, une fondation de données solide est essentielle.

George Tziahanas est le VP de la conformité et l'avocat général adjoint chez Archive360. George est un leader exécutif avec une compréhension approfondie de la technologie complexe, des réglementations bancaires, de la gouvernance des données et de la gestion des risques. Et, travaille en étroite collaboration avec les clients actuels et potentiels pour garantir que les exigences de gouvernance et de conformité des données complexes soient respectées, en alignement avec les solutions d'Archive360.