Suivez nous sur

Le manque d'IA digne de confiance peut freiner l'innovation et la valeur commerciale

Des leaders d'opinion

Le manque d'IA digne de confiance peut freiner l'innovation et la valeur commerciale

mm

Une enquête récente auprès de chefs d'entreprise mondiaux montre qu'une IA fiable est une priorité majeure, mais beaucoup ne prennent pas suffisamment de mesures pour y parvenir, mais à quel prix ?

En effet, la Enquête IBM a révélé qu'un pourcentage stupéfiant de 85 % des personnes interrogées s'accordent à dire que les consommateurs sont plus susceptibles de choisir une entreprise transparente sur la manière dont ses modèles d'IA sont construits, gérés et utilisés.

Cependant, la majorité d'entre eux ont admis qu'ils n'avaient pas pris de mesures clés pour s'assurer que leur IA est fiable et responsable, comme réduire les biais (74 %), suivre les variations de performances et la dérive des modèles (68 %), et s'assurer qu'ils peuvent expliquer décisions (61%). C'est inquiétant, surtout si l'on considère que l'utilisation de l'IA ne cesse de croître - avec 35 % d'entre eux déclarant utiliser désormais l'IA dans leur entreprise, contre 31 % il y a un an.

J'ai récemment assisté à l'invitation uniquement Sommet de l'innovation d'entreprise à Toronto, où les participants ont échangé des idées novatrices et présenté des technologies prêtes à façonner l'avenir. J'ai eu le privilège de participer à trois tables rondes dans les secteurs des services financiers, de l'assurance et de la vente au détail avec trois domaines clés émergents : la nécessité d'une plus grande transparence pour favoriser la confiance dans l'IA, la démocratisation de l'IA via le no-code/low-code, et le développement pour accélérer la rentabilisation et l'atténuation des risques grâce aux meilleures pratiques de gouvernance réglementaire de l'IA.

Accroître la confiance dans les technologies d'IA. Le COVID-19 a amplifié et accéléré la tendance à adopter des chatbots alimentés par l'IA, des assistants financiers virtuels et l'intégration des clients sans contact. Cette tendance se poursuivra comme confirmé dans recherche par Cap Gemini qui montre que 78 % des consommateurs interrogés prévoient d'accroître l'utilisation des technologies d'IA, y compris la gestion de l'identité numérique dans leurs interactions avec les organisations de services financiers.

Nonobstant les avantages inhérents, un certain nombre de défis se posent. Le chef d'entre eux est Méfiance persistante des consommateurs à l'égard des technologies d'IA et comment leur nature omniprésente affecte leurs droits à la vie privée et à la sécurité. 30 % des consommateurs ont déclaré qu'ils seraient plus à l'aise pour partager leurs informations biométriques si leurs prestataires de services financiers fournissaient plus de transparence en expliquant comment leurs informations sont collectées, gérées et sécurisées.

Les DSI doivent adopter principes d'IA fiables et instituer des mesures rigoureuses qui protègent les droits à la vie privée et à la sécurité. Ils peuvent y parvenir grâce à chiffrement, la minimisation des données et une authentification plus sûre, notamment en tenant compte des normes d'identité numérique décentralisées. Par conséquent, vos efforts d'automatisation intelligente et vos offres en libre-service seront plus adoptés et nécessiteront moins d'intervention humaine.

Supprimer les obstacles à la démocratisation de l'IA. Il y a une évolution croissante vers le développement d'applications d'IA sans code/à faible code, ce qui Une étude devrait atteindre 45.5 milliards de dollars d'ici 2025. Le principal moteur est rentabilisation plus rapide avec des améliorations de la productivité du développement d'applications par 10x.

Par exemple, 56 % des organisations de services financiers interrogées considèrent collecte de données des emprunteurs comme l'une des étapes les plus difficiles et les plus inefficaces du processus de demande de prêt, entraînant des taux d'abandon élevés. S'il est prouvé que les technologies d'identification biométrique et de collecte de données basées sur l'IA améliorent l'efficacité du processus de demande de prêt, elles peuvent également créer des risques de conformité en particulier, la confidentialité des données, la confidentialité et le biais algorithmique de l'IA.

Pour atténuer et remédier à ces risques, les applications à faible code/sans code doivent inclure des tests complets pour s'assurer qu'elles fonctionnent conformément aux objectifs de conception initiaux, éliminer les biais potentiels dans l'ensemble de données de formation qui peuvent inclure des biais d'échantillonnage, des biais d'étiquetage et sont à l'abri de la confrontation. Attaques d'IA qui peuvent avoir un impact négatif sur les résultats algorithmiques de l'IA. Consideration de principes responsables de la science des données d'équité, d'exactitude, de confidentialité et de sécurité est primordiale.

Élaborer un cadre de gouvernance et de réglementation de l'IA. La gouvernance de l'IA n'est plus une initiative agréable mais un impératif. Selon le tracker de l'OCDE sur les politiques nationales d'IA, il y a plus de 700 initiatives réglementaires en IA en cours de développement dans plus de 60 pays. Il existe cependant des codes de conduite volontaires et des principes éthiques d'IA développés par des organisations internationales de normalisation telles que le Institut des ingénieurs électriciens et électroniciens (« IEEE ») et la Institut national des normes et de la technologie (NIST).

Les inquiétudes des organisations entourent l'hypothèse selon laquelle la réglementation de l'IA imposera plus obligations de conformité rigoureuses sur eux, soutenus par des mécanismes d'application onéreux, y compris des sanctions en cas de non-conformité. Pourtant, la réglementation de l'IA est inévitable.

L'Europe et l'Amérique du Nord adoptent des positions proactives qui obligeront les DSI à collaborer avec leurs homologues technologiques et commerciaux pour élaborer des politiques efficaces. Par exemple, la Commission européenne a proposé une Loi sur l'intelligence artificielle propose d'instituer des obligations fondées sur les risques pour les fournisseurs d'IA afin de protéger les droits des consommateurs, tout en promouvant l'innovation et les opportunités économiques associées aux technologies d'IA.

De plus, en juin 2022, le gouvernement fédéral canadien a publié son très attendu Loi de mise en œuvre de la charte numérique qui protège contre les impacts négatifs des systèmes d'IA à haut risque. Les États-Unis poursuivent également des initiatives réglementaires en matière d'IA, bien que sectorielles. La Commission fédérale du commerce (FTC), Bureau de protection financière des consommateurs (CFPB) et Le Conseil de la Réserve fédérale font tous jouer leurs muscles réglementaires par le biais de leurs mécanismes d'application pour protéger les consommateurs contre les impacts négatifs résultant de l'augmentation des applications de l'IA qui peuvent entraîner des résultats discriminatoires, bien que involontaires. Un cadre réglementaire de l'IA est indispensable pour toute entreprise innovante.

Obtenir une IA digne de confiance nécessite des informations basées sur les données

La mise en œuvre d'une IA fiable ne peut être réalisée sans une approche axée sur les données pour déterminer où les applications des technologies de l'IA peuvent avoir le plus grand impact avant de procéder à la mise en œuvre. S'agit-il d'améliorer l'engagement client, de réaliser des gains d'efficacité opérationnelle ou d'atténuer les risques de conformité ?

Chacun de ces moteurs d'activité nécessite une compréhension de la façon dont les processus s'exécutent, de la manière dont les escalades et les exceptions sont gérées, et d'identifier les variations dans les obstacles à l'exécution des processus et leurs causes profondes. Sur la base de ces analyses basées sur les données, les organisations peuvent prendre des décisions commerciales éclairées quant à l'impact et aux résultats associés à la mise en œuvre de solutions basées sur l'IA afin de réduire les frictions lors de l'intégration des clients et d'améliorer l'efficacité opérationnelle. Une fois que les organisations bénéficient d'informations basées sur les données, elles peuvent automatiser des processus à forte intensité de main-d'œuvre tels que le respect des mandats de conformité à l'IA, l'audit de conformité, le KYC et l'AML dans les services financiers.

Le principal point à retenir est qu'une partie intégrante de l'automatisation des processus basée sur l'IA est la mise en œuvre de meilleures pratiques d'IA fiables. L'utilisation éthique de l'IA ne doit pas être considérée uniquement comme une obligation légale et morale, mais comme un impératif commercial. Il est judicieux sur le plan commercial d'être transparent dans l'application de l'IA. Il favorise la confiance et engendre la fidélité à la marque.

Andrew Pery est un évangéliste de l'éthique de l'IA au sein d'une entreprise mondiale d'automatisation intelligente. ABBYY. Il est titulaire d'une maîtrise en droit avec distinction de la Pritzker School of Law de l'Université Northwestern et est un professionnel certifié en matière de confidentialité des données. Pery a plus de 25 ans d'expérience dans la direction de programmes de gestion technologique pour de grandes entreprises technologiques mondiales. Son expertise porte sur l'automatisation intelligente des processus documentaires et l'intelligence des processus, avec une expertise particulière dans les technologies d'IA, les logiciels d'application, la confidentialité des données et l'éthique de l'IA.