Connect with us

Biais et équité des systèmes basés sur l’IA dans la lutte contre la criminalité financière

Leaders d’opinion

Biais et équité des systèmes basés sur l’IA dans la lutte contre la criminalité financière

mm

Lorsqu’il s’agit de lutter contre la criminalité financière, des défis existent qui vont au-delà de la simple lutte contre les fraudeurs ou les acteurs malveillants.

Certains des dernières technologies avancées qui sont lancées ont souvent leurs propres problèmes spécifiques qui doivent être pris en compte lors des étapes d’adoption pour lutter avec succès contre les fraudeurs sans conséquences réglementaires. Dans la détection de la fraude, la justice du modèle et les biais des données peuvent survenir lorsque le système est plus lourdement pondéré ou manque de représentation de certains groupes ou catégories de données. En théorie, un modèle prédictif pourrait associer à tort des noms de famille d’autres cultures à des comptes frauduleux, ou faussement diminuer le risque au sein de segments de population pour certains types d’activités financières.

Les systèmes d’IA biaisés peuvent représenter une menace grave lorsqu’il s’agit de réputations qui peuvent être affectées et se produisent lorsque les données disponibles ne sont pas représentatives de la population ou du phénomène d’exploration. Ces données ne comprennent pas les variables qui capturent correctement le phénomène que nous voulons prédire. Ou alternativement, les données pourraient inclure du contenu produit par des humains qui peut contenir des biais contre des groupes de personnes, hérités de l’expérience culturelle et personnelle, conduisant à des distorsions lors de la prise de décision. Bien que les données puissent sembler objectives au premier abord, elles sont toujours collectées et analysées par des humains, et peuvent donc être biaisées.

Bien qu’il n’y ait pas de solution miracle pour remédier aux dangers de la discrimination et de l’injustice dans les systèmes d’IA ou des solutions permanentes pour le problème de l’équité et de la mitigation des biais dans l’élaboration de modèles d’apprentissage automatique et d’utilisation, ces questions doivent être prises en compte pour des raisons à la fois sociétales et commerciales.

Faire ce qui est juste dans l’IA

L’adressage des biais dans les systèmes basés sur l’IA n’est pas seulement la bonne chose, mais également la chose intelligente pour les entreprises — et les enjeux pour les dirigeants d’entreprise sont élevés. Les systèmes d’IA biaisés peuvent conduire les institutions financières sur la mauvaise voie en allouant des opportunités, des ressources, des informations ou une qualité de service de manière injuste. Ils ont même le potentiel de porter atteinte aux libertés civiles, de mettre en danger la sécurité des individus ou d’affecter le bien-être d’une personne si elle est perçue comme dédaigneuse ou offensante.

Il est important pour les entreprises de comprendre le pouvoir et les risques des biais d’IA. Bien que souvent inconnus de l’institution, un système d’IA biaisé pourrait utiliser des modèles ou des données néfastes qui exposent des biais de race ou de sexe dans une décision de prêt. Des informations telles que les noms et le sexe pourraient être des proxies pour catégoriser et identifier les demandeurs de manière illégale. Même si le biais est involontaire, il expose toujours l’organisation au risque de ne pas respecter les exigences réglementaires et pourrait conduire à ce que certains groupes de personnes soient injustement refusés des prêts ou des lignes de crédit.

Actuellement, les organisations n’ont pas les pièces en place pour atténuer avec succès les biais dans les systèmes d’IA. Mais avec l’IA de plus en plus déployée dans les entreprises pour éclairer les décisions, il est essentiel que les organisations s’efforcent de réduire les biais, non seulement pour des raisons morales, mais également pour respecter les exigences réglementaires et générer des revenus.

Culture et mise en œuvre « conscientes de l’équité »

Les solutions qui se concentrent sur la conception et la mise en œuvre conscientes de l’équité auront les résultats les plus bénéfiques. Les fournisseurs devraient avoir une culture analytique qui prend en compte l’acquisition, la gestion et la gestion responsables des données comme des composants nécessaires de l’équité algorithmique, car si les résultats d’un projet d’IA sont générés par des ensembles de données biaisés, compromis ou déformés, les parties concernées ne seront pas suffisamment protégées contre les préjudices discriminatoires.

Voici les éléments de l’équité des données que les équipes de science des données doivent garder à l’esprit :

  • Représentativité : Selon le contexte, soit la sous-représentation ou la sur-représentation de groupes défavorisés ou protégés par la loi dans l’échantillon de données peut conduire à la défavorisation systématique des parties vulnérables dans les résultats du modèle formé. Pour éviter ce type de biais d’échantillonnage, l’expertise de domaine sera cruciale pour évaluer l’adéquation entre les données collectées ou acquises et la population sous-jacente à modéliser. Les membres de l’équipe technique devraient offrir des moyens de remédiation pour corriger les défauts de représentation dans l’échantillonnage.
  • Adéquation et suffisance : Il est important de comprendre si les données collectées sont suffisantes pour le but prévu du projet. Les ensembles de données insuffisants peuvent ne pas refléter équitablement les qualités qui devraient être pesées pour produire un résultat justifié qui est conforme à l’objectif souhaité du système d’IA. Par conséquent, les membres de l’équipe de projet avec des compétences techniques et politiques devraient collaborer pour déterminer si la quantité de données est suffisante et adaptée à l’objectif.
  • Intégrité de la source et précision de la mesure : L’atténuation efficace des biais commence au tout début des processus d’extraction et de collecte de données. Les sources et les outils de mesure peuvent introduire des facteurs discriminatoires dans un ensemble de données. Pour assurer une non-nocivité discriminatoire, l’échantillon de données doit avoir une intégrité de source optimale. Cela implique de sécuriser ou de confirmer que les processus de collecte de données impliquent des sources de mesure appropriées, fiables et impartiales et des méthodes de collecte robustes.
  • Actualité et récence : Si les ensembles de données incluent des données obsolètes, les changements dans la distribution sous-jacente des données peuvent affecter négativement la généralisabilité du modèle formé. Étant donné que ces dérivations de distribution reflètent des changements dans les relations sociales ou la dynamique de groupe, cette perte de précision concernant les caractéristiques réelles de la population sous-jacente peut introduire des biais dans le système d’IA. Pour prévenir les résultats discriminatoires, l’actualité et la récence de tous les éléments de l’ensemble de données doivent être examinées.
  • Pertinence, adéquation et connaissance du domaine : La compréhension et l’utilisation des sources et des types de données les plus appropriés sont cruciales pour construire un système d’IA robuste et non biaisé. Une solide connaissance du domaine de la distribution de la population sous-jacente et de l’objectif prédictif du projet est instrumentale pour sélectionner des entrées de mesure optimales qui contribuent à la résolution raisonnable de la solution définie. Les experts du domaine devraient collaborer étroitement avec les équipes de science des données pour aider à déterminer les catégories et les sources de mesure les plus appropriées.

Alors que les systèmes basés sur l’IA aident à l’automatisation des processus de prise de décision et offrent des économies de coûts, les institutions financières qui envisagent l’IA comme une solution doivent être vigilantes pour s’assurer que des décisions biaisées ne sont pas prises. Les dirigeants de la conformité devraient être en phase avec leur équipe de science des données pour confirmer que les capacités d’IA sont responsables, efficaces et exemptes de biais. Avoir une stratégie qui défend l’IA responsable est la bonne chose à faire, et elle peut également fournir un chemin pour se conformer aux réglementations futures sur l’IA.

Danny Butvinik est le chef des données scientifiques chez NICE Actimize, fournissant un leadership technique et professionnel. Danny est un expert en intelligence artificielle et en science des données, ayant rédigé de nombreux articles et documents scientifiques. Dans son rôle actuel, il dirige un grand groupe de scientifiques des données et contribue à la croissance de l'innovation et à la propriété intellectuelle de l'entreprise, avec plus de 15 ans d'expérience dans la recherche, le développement et la gestion en science des données et en développement de logiciels.