Suivez nous sur

Ouvrir la boîte noire sur l'explicabilité de l'IA

Des leaders d'opinion

Ouvrir la boîte noire sur l'explicabilité de l'IA

mm

L'intelligence artificielle (IA) est désormais intégrée à presque tous les aspects de notre quotidien, des recommandations personnalisées à la prise de décision critique. Il est évident que L'IA continuera de progresser, et par conséquent, les menaces associées à l'IA deviendront également plus sophistiquées. Alors que les entreprises mettent en place des défenses basées sur l'IA pour répondre à cette complexité croissante, la prochaine étape vers la promotion d'une culture de sécurité à l'échelle de l'organisation consiste à améliorer l'explicabilité de l'IA.

Bien que ces systèmes offrent des capacités impressionnantes, ils fonctionnent souvent comme «boîtes noires« —produire des résultats sans avoir une idée claire de la manière dont le modèle est parvenu à la conclusion à laquelle il est parvenu. La question de Les systèmes d'IA font de fausses déclarations ou prennent de fausses mesures peut entraîner des problèmes importants et des perturbations potentielles de l'activité. Lorsque les entreprises commettent des erreurs à cause de l'IA, leurs clients et consommateurs exigent des explications et, rapidement, une solution.

Mais à qui la faute ? Souvent, des données erronées sont utilisées pour l'entraînement. Par exemple, la plupart des technologies publiques d'intelligence artificielle (GenAI) sont entraînées sur données disponibles sur Internet, qui est souvent non vérifiée et inexacte. Si l'IA peut générer des réponses rapides, la précision de ces réponses dépend de la qualité des données sur lesquelles elle est entraînée.

Des erreurs d'IA peuvent survenir dans divers cas, notamment la génération de scripts contenant des commandes incorrectes et de fausses décisions de sécurité, ou l'exclusion d'un employé de ses systèmes d'entreprise suite à de fausses accusations portées par le système d'IA. Toutes ces situations peuvent entraîner d'importantes pannes d'activité. Ce n'est là qu'une des nombreuses raisons pour lesquelles la transparence est essentielle pour instaurer la confiance dans les systèmes d'IA.

Construire dans la confiance

Nous vivons dans une culture où l'on accorde une confiance aveugle à toutes sortes de sources et d'informations. Mais, parallèlement, nous exigeons de plus en plus de preuves et de validations, devant constamment valider les nouvelles, les informations et les affirmations. En matière d'IA, nous faisons confiance à un système potentiellement inexact. Plus important encore, il est impossible de savoir si les actions des systèmes d'IA sont exactes sans transparence sur les fondements de leurs décisions. Que se passerait-il si votre système d'IA informatique éteignait des machines, mais commettait une erreur d'interprétation des signaux ? Sans connaissance des informations qui ont conduit le système à prendre cette décision, il est impossible de savoir si elle a été la bonne.

Si les perturbations pour les entreprises sont frustrantes, l'une des principales préoccupations liées à l'utilisation de l'IA concerne la confidentialité des données. Les systèmes d'IA, comme ChatGPT, sont des modèles d'apprentissage automatique qui extraient des réponses des données reçues. Par conséquent, si des utilisateurs ou des développeurs fournissent accidentellement des informations sensibles, le modèle d'apprentissage automatique peut utiliser ces données pour générer des réponses à d'autres utilisateurs. révéler des informations confidentiellesCes erreurs peuvent gravement perturber l'efficacité, la rentabilité et, surtout, la confiance des clients d'une entreprise. Les systèmes d'IA sont censés accroître l'efficacité et simplifier les processus, mais lorsqu'une validation constante est nécessaire en raison d'un manque de fiabilité des résultats, les organisations perdent non seulement du temps, mais ouvrent également la voie à des vulnérabilités potentielles.

Former les équipes à une utilisation responsable de l'IA

Afin de protéger les organisations des risques potentiels liés à l'utilisation de l'IA, les professionnels de l'informatique ont l'importante responsabilité de former adéquatement leurs collègues afin de garantir une utilisation responsable de l'IA. Ce faisant, ils contribuent à protéger leurs organisations des cyberattaques qui menacent leur viabilité et leur rentabilité.

Cependant, avant de former les équipes, les responsables informatiques doivent s'organiser en interne pour déterminer les systèmes d'IA les mieux adaptés à leur organisation. Se précipiter sur l'IA ne fera que se retourner contre eux ; commencez donc par des mesures modestes, en vous concentrant sur les besoins de l'organisation. Assurez-vous que les normes et les systèmes sélectionnés sont en phase avec la pile technologique actuelle et les objectifs de votre organisation, et que les systèmes d'IA répondent aux mêmes normes de sécurité que les autres fournisseurs que vous choisirez.

Une fois le système sélectionné, les professionnels de l'informatique peuvent commencer à familiariser leurs équipes avec ces systèmes afin d'en garantir la réussite. Commencez par utiliser l'IA pour les petites tâches et identifiez ses points forts et ses points faibles, et identifiez les dangers potentiels ou les validations à appliquer. Introduisez ensuite l'utilisation de l'IA pour optimiser le travail, en permettant une résolution plus rapide en libre-service, y compris pour les questions simples de type « comment faire ». Ensuite, il est possible d'apprendre à mettre en place des validations. Ceci est précieux car de plus en plus de métiers nécessiteront de combiner conditions limites et validations, et c'est déjà le cas pour des métiers comme l'utilisation de l'IA pour l'aide à la conception de logiciels.

Outre ces mesures concrètes de formation des membres de l'équipe, il est également impératif d'engager et d'encourager le dialogue. Encouragez un dialogue ouvert, basé sur les données, sur la manière dont l'IA répond aux besoins des utilisateurs : résout-elle les problèmes avec précision et rapidité ? Optimisons-nous la productivité de l'entreprise et des utilisateurs finaux ? Notre score NPS client augmente-t-il grâce à ces outils basés sur l'IA ? Soyez clair sur le retour sur investissement (ROI) et maintenez-le au premier plan. Une communication claire favorisera la sensibilisation à une utilisation responsable, et à mesure que les membres de l'équipe comprendront mieux le fonctionnement des systèmes d'IA, ils seront plus enclins à les utiliser de manière responsable.

Comment parvenir à la transparence dans l'IA

Bien que la formation des équipes et la sensibilisation soient importantes, pour garantir la transparence de l'IA, il est essentiel de mieux contextualiser les données utilisées pour entraîner les modèles, afin de garantir l'utilisation exclusive de données de qualité. Espérons qu'un jour, il sera possible de comprendre le raisonnement du système afin de pouvoir lui faire pleinement confiance. Mais en attendant, nous avons besoin de systèmes capables de fonctionner avec des validations et des garde-fous et de prouver qu'ils les respectent.

Si plein transparence vont inévitablement commencer Paisible à réaliser, le RÉPONSE revenu of AI et ces usage a prendre une it nécessaire à travail rapidement. Alors que les modèles d’IA continuent de augmentation de la complexitéIls ont le pouvoir d'influer grandement sur l'humanité, mais les conséquences de leurs erreurs s'accentuent. Par conséquent, comprendre comment ces systèmes prennent leurs décisions est extrêmement précieux et nécessaire pour rester efficaces et dignes de confiance. En privilégiant des systèmes d'IA transparents, nous pouvons garantir que la technologie est aussi utile qu'elle est censée l'être, tout en restant impartiale, éthique, efficace et précise.

Manny Rivelo est le PDG de ConnectWise, où il s'engage à réaliser la mission de l'entreprise : offrir aux fournisseurs de services gérés (MSP) des logiciels, des services et une communauté inégalés pour concrétiser leur vision la plus ambitieuse du succès. Ancien PDG de Forcepoint, Rivelo a dirigé la transformation de l'entreprise en un acteur majeur de la cybersécurité, stimulant la croissance et l'innovation face à l'évolution des cybermenaces. Tout au long de sa carrière, Manny Rivelo s'est forgé une réputation de leader axé sur les résultats, privilégiant la création de modèles économiques durables et la création de valeur à long terme dans un paysage technologique en constante évolution.