talon Alors que les industries se préparent à l'adoption accélérée de l'IA, un nouvel accent est mis sur l'éthique et la responsabilité - Unite.AI
Suivez nous sur

Des leaders d'opinion

Alors que les industries se préparent à l'adoption accélérée de l'IA, un nouvel accent est mis sur l'éthique et la responsabilité

mm

Publié le

 on

By: Pandurang Kamat, directeur technique de Systèmes persistants

L'intelligence artificielle (IA) est au cœur de machine learning (ML), le processus par lequel les machines apprennent à améliorer les performances en fonction des entrées de données. La quantité de données existantes aujourd'hui signifie que l'IA a eu un terrain fertile pour s'épanouir, accéléré à un rythme effréné ces dernières années. Et la promesse de l'IA a incité les technologues et les cadres d'industries de grande envergure à réfléchir de manière créative à ses diverses applications.

À partir de la révolution industrielle, toute période de progrès technologique rapide est marquée à parts égales par l'enthousiasme et la trépidation. Le World Wide Web Consortium (W3C), un groupe qui crée des normes pour l'industrie des développeurs Web, souligne qu'« il y a une prise de conscience croissante que l'application de l'apprentissage automatique présente des risques et peut entraîner des préjudices » – y compris dans des domaines tels que : les préjugés, la confidentialité, la sécurité, la durabilité et responsabilité globale.

"Il existe une demande claire pour une approche éthique du ML, vue à travers l'activisme de la société civile, l'émergence d'environ 100 ensembles de principes éthiques d'IA dans le monde, et les mesures gouvernementales partout dans le monde pour réglementer l'IA", le groupe a écrit. "Si les technologies ne sont pas alignées sur les valeurs des sociétés dans lesquelles elles opèrent, elles risquent de les saper."

Choisissez judicieusement

À première vue, il est difficile d'affirmer que l'amélioration de la vitesse et du rendement est mauvaise pour les affaires. Mais pour certaines industries, il y a beaucoup d'enjeux dans le processus de prise de décision qui, selon certains, ne devraient pas être laissés à un algorithme. En examinant quelques-unes des plus grandes industries, nous pouvons voir à quel point nous sommes vulnérables aux erreurs des machines et pourquoi une IA responsable est si primordiale.

Banque, services financiers et assurance (BFSI)

Le Forum économique mondial (WEF) et Deloitte ont examiné le processus de déploiement de l'IA dans les entreprises BFSI, constatant que, "alors que l'IA peut aider à créer des informations commerciales utiles à partir d'une quantité écrasante d'informations", le "caractère étranger de l'IA" sera une source de risque grave persistant.

"L'IA raisonne de manière inhumaine", lit-on dans le rapport. "Les systèmes d'IA ne suivent pas les constructions humaines de la logique et se comportent très différemment des acteurs humains auxquels on confie la même tâche. De plus, la nature auto-apprenante des systèmes d'IA leur permet d'évoluer sans intervention humaine, ce qui peut conduire à des résultats inattendus basés sur des variables inconnues.

Les défenseurs d'une IA responsable soutiennent que l'apprentissage automatique présente de sérieux problèmes dans des domaines tels que la notation automatique des risques, les décisions de crédit et de prêt, qui sont tous historiquement préjudiciables à certaines données démographiques. Des études récentes ont montré que les prêteurs utilisant des moteurs de décision basés sur l'IA étaient plus susceptibles de refuser des prêts immobiliers aux personnes de couleur - dans certains cas, 80% des candidats noirs sont plus susceptibles d'être rejetés.

Système de santé

Il y a quelques années, le Journal de l'American Medical Association (JAMA) a examiné l'adoption de l'IA dans les soins de santé, constatant que les défis sont nombreux, notamment «des attentes irréalistes, des données biaisées et non représentatives, une hiérarchisation inadéquate de l'équité et de l'inclusion, le risque d'exacerber les disparités en matière de soins de santé, de faibles niveaux de confiance et des incertitudes environnements réglementaires.

Pas exactement une approbation retentissante, mais il y a une barre plus haute pour l'IA responsable dans les soins de santé, surtout compte tenu de son potentiel littéral de vie ou de mort. Dans l'ensemble, les professionnels de la santé sont optimistes mais prudents quant à l'avenir de l'IA, choisissant de concentrer leurs efforts sur la formation d'autres praticiens à son utilisation dans le cadre clinique et sur la création de lignes directrices sur la manière d'avancer de manière responsable d'une manière qui profite à tous les patients.

Médias

PwC estime que l'IA fournira 15.7 billions de dollars de croissance économique mondiale d'ici 2030, mais selon Salesforce moins de la moitié (48 %) des clients font confiance aux entreprises pour utiliser l'IA de manière éthique, et 65 % s'inquiètent d'une utilisation contraire à l'éthique de l'IA. Au carrefour des profits et de la confiance, il y a des entreprises de médias - des adopteurs précoces avec une portée et une influence énormes. Et il y a des inquiétudes sur le fait que l'IA n'est pas une application "configurez-la et oubliez-la", ce qui signifie que pour les entreprises de médias, leur responsabilité n'est pas seulement dans la production de contenu, mais aussi dans sa surveillance continue après le déploiement.

Comment les annonces sont-elles diffusées et personnalisées ? Comment le contenu atteint-il un public particulier et quel est le message ? Qui enseigne à l'IA "comment" apprendre ? Et comment pouvez-vous cibler des consommateurs spécifiques tout en respectant la vie privée ? Ce ne sont là que quelques-unes des questions qui préoccupent les entreprises de médias alors qu'elles concilient éthique et avantage concurrentiel.

La réponse à la responsabilité

Les progrès dans le développement d'une IA responsable sont évidents chaque jour - les législateurs rédigent des réglementations, les consommateurs exigent plus de transparence et de nombreuses entreprises ont créé des départements spécifiques chargés de veiller à ce que leur IA soit utilisée de manière appropriée. Les entreprises ont besoin d'un cadre d'IA responsable bien défini qui couvre l'éthique, la transparence, la responsabilité, l'équité, la confidentialité et la sécurité. Alors que les débats et les réformes se poursuivent, un récente étude conjointe du MIT Sloan Management Review et du Boston Consulting Group fournit quelques conseils généraux simples - ils ont écrit : « Si vous voulez être un leader responsable de l'IA, concentrez-vous sur le fait d'être une entreprise responsable.

Le Dr Pandurang Kamat est directeur de la technologie chez Systèmes persistants, il est responsable de la recherche technologique avancée axée sur la création de valeur commerciale grâce à l'innovation à grande échelle. Il est un leader technologique chevronné qui aide les clients à améliorer l'expérience utilisateur, à optimiser les processus commerciaux et à créer de nouveaux produits numériques. Sa vision pour Persistent est d'être une centrale d'innovation qui ancre un écosystème d'innovation mondial et diversifié, composé d'universités et de start-ups.