Connect with us

Leaders d’opinion

Alors que les industries se préparent à une adoption accélérée de l’IA, un nouveau focus sur l’éthique et la responsabilité

mm

Par : Pandurang Kamat, CTO de Persistent Systems

L’intelligence artificielle (IA) dans son essence est l’apprentissage automatique (ML), le processus par lequel les machines apprennent à améliorer leur performance en fonction des entrées de données. La quantité considérable de données existantes aujourd’hui signifie que l’IA a eu un terrain fertile pour prospérer, s’accélérant à un rythme vertigineux ces dernières années. Et la promesse de l’IA a fait réfléchir les technologistes et les dirigeants d’industries aux applications diverses.

Depuis la révolution industrielle, toute période de progrès technologique rapide est marquée d’enthousiasme et de crainte. Le World Wide Web Consortium (W3C), un groupe qui crée des normes pour l’industrie du développement web, souligne que « il y a une prise de conscience croissante que l’application de l’apprentissage automatique pose des risques et peut entraîner des dommages » – notamment dans des domaines comme : les préjugés, la vie privée, la sécurité, la durabilité et la responsabilité globale.

« Il y a une demande claire pour une approche éthique de l’IA, visible à travers l’activisme de la société civile, l’émergence d’environ 100 ensembles de principes éthiques pour l’IA dans le monde, et les mouvements gouvernementaux pour réglementer l’IA partout dans le monde », a écrit le groupe. « Si les technologies ne sont pas alignées sur les valeurs des sociétés dans lesquelles elles opèrent, elles risquent de les miner. »

Choisissez avec soin

En surface, il est difficile de soutenir que la vitesse et la production améliorées sont mauvaises pour les entreprises. Mais pour certaines industries, il y a beaucoup en jeu avec le processus de prise de décision que certains estiment ne devrait pas être laissé à un algorithme. En regardant quelques-unes des plus grandes industries, nous pouvons voir à quel point nous sommes vulnérables aux erreurs de machine, et pourquoi l’IA responsable est si primordiale.

Services bancaires, financiers et d’assurance (BFSI)

Le Forum économique mondial (WEF) et Deloitte ont examiné le processus de déploiement de l’IA dans les entreprises de services bancaires, financiers et d’assurance, constatant que « même si l’IA peut aider à créer des insights commerciaux utiles à partir d’une quantité écrasante d’informations », la « particularité de l’IA » sera une source de risque grave et continu.

« L’IA raisonne de manière non humaine », lit-on dans le rapport. « Les systèmes d’IA ne suivent pas les constructions logiques humaines et se comportent très différemment des acteurs humains face à la même tâche. De plus, la nature d’apprentissage automatique des systèmes d’IA leur permet d’évoluer sans intervention humaine, ce qui peut conduire à des résultats inattendus basés sur des variables inconnues. »

Les défenseurs de l’IA responsable soutiennent que l’apprentissage automatique présente de graves problèmes dans des domaines tels que la notation de risque automatique, le crédit et les décisions de prêt, qui sont historiquement préjudiciables à certaines démographies. Des études récentes ont montré que les prêteurs utilisant des moteurs de décision basés sur l’IA étaient plus susceptibles de refuser des prêts hypothécaires aux personnes de couleur – dans certains cas, 80 % des demandeurs noirs sont plus susceptibles d’être rejetés.

Soins de santé

Il y a quelques années, la Journal of the American Medical Association (JAMA) a examiné l’adoption de l’IA dans les soins de santé, constatant que les défis sont nombreux, notamment « des attentes irréalistes, des données biaisées et non représentatives, une priorisation inadéquate de l’équité et de l’inclusion, le risque d’exacerber les disparités en matière de soins de santé, des niveaux de confiance faibles et des environnements réglementaires incertains ».

Ce n’est pas exactement un plaidoyer en faveur de l’IA, mais il y a une barre plus élevée pour l’IA responsable dans les soins de santé, notamment compte tenu de son potentiel littéralement vital. Dans l’ensemble, les professionnels de la santé sont optimistes mais prudents quant à l’avenir de l’IA, choisissant de se concentrer sur l’éducation d’autres praticiens sur son utilisation dans le contexte clinique et la création de lignes directrices sur la manière de progresser de manière responsable pour bénéficier à tous les patients.

Médias

PwC estime que l’IA apportera 15 700 milliards de dollars de croissance économique mondiale d’ici 2030, mais selon Salesforce, moins de la moitié (48 %) des clients font confiance aux entreprises pour utiliser l’IA de manière éthique, et 65 % s’inquiètent d’une utilisation non éthique de l’IA. Au carrefour des profits et de la confiance, il y a les entreprises de médias – des précurseurs avec une grande portée et une grande influence. Et il y a des inquiétudes quant au fait que l’IA n’est pas une application « mettre en place et oublier », ce qui signifie que pour les entreprises de médias, leur responsabilité ne réside pas seulement dans la production de contenu, mais également dans sa surveillance continue après le déploiement.

Comment les publicités sont-elles servies et personnalisées ? Comment le contenu atteint-il un public particulier, et quel est le message ? Qui enseigne à l’IA « comment » apprendre ? Et comment peut-on cibler des consommateurs spécifiques tout en respectant la vie privée ? Ce sont quelques-unes des questions qui tourmentent les entreprises de médias alors qu’elles équilibrent l’éthique et le gain d’un avantage concurrentiel.

La réponse à la responsabilité

Les progrès dans le développement d’une IA responsable sont évidents chaque jour – les législateurs rédigent des réglementations, les consommateurs exigent plus de transparence, et de nombreuses entreprises ont créé des départements spécifiques chargés de garantir que leur IA est utilisée de manière appropriée. Les entreprises ont besoin d’un cadre d’IA responsable bien défini qui couvre l’éthique, la transparence, la responsabilité, l’équité, la vie privée et la sécurité. Alors que les débats et les réformes se poursuivent, une étude récente conjointe du MIT Sloan Management Review et du Boston Consulting Group fournit quelques conseils généraux simples – ils ont écrit : « Si vous voulez être un leader responsable de l’IA, concentrez-vous sur être une entreprise responsable. »

Dr. Pandurang Kamat est le directeur des technologies de l'information chez Persistent Systems, il est responsable de la recherche en technologie avancée axée sur la libération de la valeur commerciale grâce à l'innovation à grande échelle. Il est un leader technologique expérimenté qui aide les clients à améliorer l'expérience utilisateur, à optimiser les processus commerciaux et à créer de nouveaux produits numériques. Sa vision pour Persistent est d'être une puissance motrice de l'innovation qui ancre un écosystème d'innovation global et diversifié, composé d'universités et de start-ups.