Connect with us

L’utilisation éthique de l’IA n’est pas seulement la bonne chose à faire – c’est aussi une bonne affaire

Leaders d’opinion

L’utilisation éthique de l’IA n’est pas seulement la bonne chose à faire – c’est aussi une bonne affaire

mm

Alors que l’adoption de l’IA explose et que les organisations de tous les secteurs adoptent des outils et des applications basés sur l’IA, il ne devrait pas être surprenant que les cybercriminels trouvent déjà des moyens de cibler et d’exploiter ces outils à leur propre avantage. Mais même si il est important de protéger l’IA contre les cyberattaques potentielles, la question du risque lié à l’IA va bien au-delà de la sécurité. À travers le monde, les gouvernements commencent à réglementer la façon dont l’IA est développée et utilisée – et les entreprises peuvent subir des dommages réputationnels importants si elles sont découvertes à utiliser l’IA de manière inappropriée. Les entreprises d’aujourd’hui découvrent que l’utilisation de l’IA de manière éthique et responsable n’est pas seulement la bonne chose à faire – c’est essentiel pour établir la confiance, maintenir la conformité et même améliorer la qualité de leurs produits.

La réalité réglementaire entourant l’IA

Le paysage réglementaire en évolution rapide devrait être une préoccupation sérieuse pour les fournisseurs qui offrent des solutions basées sur l’IA. Par exemple, le EU AI Act, adopté en 2024, adopte une approche fondée sur le risque pour la réglementation de l’IA et considère les systèmes qui se livrent à des pratiques comme le scoring social, le comportement manipulateur et d’autres activités potentiellement contraires à l’éthique comme « inacceptables ». Ces systèmes sont interdits purement et simplement, tandis que d’autres systèmes d’IA « à haut risque » sont soumis à des obligations plus strictes en matière d’évaluation des risques, de qualité des données et de transparence. Les pénalités pour non-conformité sont sévères : les entreprises qui utilisent l’IA de manière inacceptable peuvent être condamnées à des amendes pouvant aller jusqu’à 35 millions d’euros ou 7 % de leur chiffre d’affaires annuel.

L’EU AI Act n’est qu’un exemple de législation, mais il illustre clairement le coût élevé de ne pas respecter certains seuils éthiques. Des États comme la Californie, New York, le Colorado et d’autres ont tous adopté leurs propres lignes directrices pour l’IA, la plupart d’entre elles se concentrant sur des facteurs tels que la transparence, la confidentialité des données et la prévention des préjugés. Et même si les Nations Unies ne disposent pas des mécanismes d’exécution dont disposent les gouvernements, il est important de noter que les 193 États membres de l’ONU ont affirmé à l’unanimité que « les droits de l’homme et les libertés fondamentales doivent être respectés, protégés et promus tout au long du cycle de vie des systèmes d’intelligence artificielle » dans une résolution de 2024. À travers le monde, les droits de l’homme et les considérations éthiques sont de plus en plus au premier plan lorsqu’il s’agit de l’IA.

L’impact réputationnel d’une mauvaise éthique de l’IA

Alors que les préoccupations de conformité sont très réelles, l’histoire ne s’arrête pas là. Le fait est que donner la priorité au comportement éthique peut améliorer fondamentalement la qualité des solutions d’IA. Si un système d’IA a des préjugés inhérents, c’est mauvais pour des raisons éthiques – mais cela signifie également que le produit ne fonctionne pas aussi bien qu’il le devrait. Par exemple, certaines technologies de reconnaissance faciale ont été critiquées pour ne pas identifier les visages à peau foncée aussi bien que les visages à peau claire. Si une solution de reconnaissance faciale ne parvient pas à identifier une partie importante des sujets, cela présente un problème éthique grave – mais cela signifie également que la technologie elle-même ne fournit pas le bénéfice escompté, et les clients ne seront pas satisfaits. Résoudre les problèmes de préjugés atténue à la fois les préoccupations éthiques et améliore la qualité du produit lui-même.

Les préoccupations concernant les préjugés, la discrimination et l’équité peuvent mettre les fournisseurs dans l’embarras avec les organes réglementaires, mais elles érodent également la confiance des clients. Il est préférable d’avoir certaines « lignes rouges » lorsqu’il s’agit de la façon dont l’IA est utilisée et des fournisseurs avec lesquels travailler. Les fournisseurs d’IA associés à la désinformation, à la surveillance de masse, au scoring social, aux gouvernements oppressifs ou même à un simple manque de responsabilité peuvent rendre les clients mal à l’aise, et les fournisseurs qui proposent des solutions basées sur l’IA devraient en tenir compte lorsqu’ils considèrent avec qui travailler. La transparence est presque toujours meilleure – ceux qui refusent de divulguer comment l’IA est utilisée ou qui sont leurs partenaires ressemblent à des personnes qui cachent quelque chose, ce qui ne favorise généralement pas les sentiments positifs sur le marché.

Identifier et atténuer les signaux rouges éthiques

Les clients apprennent de plus en plus à rechercher des signes de comportement contraire à l’éthique de l’IA. Les fournisseurs qui font des promesses excessives mais n’expliquent pas leurs capacités d’IA sont probablement moins que véridiques sur ce que leurs solutions peuvent réellement faire. Les mauvaises pratiques en matière de données, telles que le scraping excessif de données ou l’incapacité de refuser la formation de modèles d’IA, peuvent également lever des signaux rouges. Aujourd’hui, les fournisseurs qui utilisent l’IA dans leurs produits et services devraient avoir un cadre de gouvernance clair et accessible au public avec des mécanismes en place pour la responsabilité. Ceux qui imposent une arbitrage forcé – ou pire, ne fournissent aucune recours – ne seront probablement pas de bons partenaires. Il en va de même pour les fournisseurs qui sont peu disposés ou incapables de fournir les métriques par lesquelles ils évaluent et traitent les préjugés dans leurs modèles d’IA. Les clients d’aujourd’hui ne font pas confiance aux solutions « boîte noire » – ils veulent savoir quand et comment l’IA est déployée dans les solutions sur lesquelles ils comptent.

Pour les fournisseurs qui utilisent l’IA dans leurs produits, il est important de faire comprendre aux clients que les considérations éthiques sont au premier plan. Ceux qui forment leurs propres modèles d’IA ont besoin de solides processus de prévention des préjugés et ceux qui s’appuient sur des fournisseurs d’IA externes doivent donner la priorité aux partenaires qui ont une réputation de comportement équitable. Il est également important d’offrir aux clients un choix : beaucoup sont encore mal à l’aise à l’idée de faire confiance à leurs données à des solutions d’IA et proposer une « option de refus » pour les fonctionnalités d’IA leur permet de faire des expériences à leur propre rythme. Il est également essentiel d’être transparent sur l’origine des données de formation. Encore une fois, cela est éthique, mais c’est aussi une bonne affaire – si un client découvre que la solution sur laquelle il compte a été formée sur des données protégées par le droit d’auteur, cela l’expose à des mesures réglementaires ou juridiques. En mettant tout à découvert, les fournisseurs peuvent établir la confiance avec leurs clients et les aider à éviter les résultats négatifs.

Donner la priorité à l’éthique est la décision commerciale intelligente

La confiance a toujours été une partie importante de chaque relation commerciale. L’IA n’a pas changé cela – mais elle a introduit de nouvelles considérations que les fournisseurs doivent aborder. Les préoccupations éthiques ne sont pas toujours au premier plan des dirigeants d’entreprise, mais lorsqu’il s’agit de l’IA, un comportement contraire à l’éthique peut avoir de graves conséquences – y compris des dommages réputationnels et des violations potentielles de la réglementation et de la conformité. Pire encore, un manque d’attention aux considérations éthiques telles que la mitigation des préjugés peut activement nuire à la qualité des produits et services d’un fournisseur. Alors que l’adoption de l’IA continue d’accélérer, les fournisseurs reconnaissent de plus en plus que donner la priorité au comportement éthique n’est pas seulement la bonne chose à faire – c’est aussi une bonne affaire.

Nick Kathmann est CISO chez LogicGate. Avec plus de 20 ans d'expérience dans le domaine de l'informatique, Nick a passé 18 ans à aider les entreprises de toutes tailles à renforcer leur posture de cybersécurité. Il a construit et dirigé plusieurs équipes qui fournissent des solutions de cybersécurité pour des environnements critiques et métiers complexes, allant des PME aux entreprises du Fortune 100, basées sur site dans des centres de données traditionnels ou dans le cloud. Il possède également une expérience dans plusieurs secteurs, notamment les soins de santé et les services financiers.