Connect with us

Avec les progrès de l’IA générative, le moment de s’attaquer à l’IA responsable est maintenant

Leaders d’opinion

Avec les progrès de l’IA générative, le moment de s’attaquer à l’IA responsable est maintenant

mm

En 2022, les entreprises avaient en moyenne 3,8 modèles d’IA en production. Aujourd’hui, sept entreprises sur dix expérimentent l’IA générative, ce qui signifie que le nombre de modèles d’IA en production va exploser dans les années à venir. En conséquence, les discussions de l’industrie autour de l’IA responsable ont pris une urgence accrue.

Les bonnes nouvelles sont que plus de la moitié des organisations défendent déjà l’éthique de l’IA. Cependant, seulement environ 20% ont mis en place des programmes complets avec des cadres, une gouvernance et des garde-fous pour superviser le développement de modèles d’IA et identifier et atténuer proactivement les risques. Étant donné le rythme rapide du développement de l’IA, les dirigeants devraient avancer maintenant pour mettre en place des cadres et des processus matures. Les réglementations dans le monde entier sont en cours, et déjà une entreprise sur deux a connu un échec de l’IA responsable.

Les défis de la mise en œuvre de l’IA responsable

L’IA responsable couvre jusqu’à 20 fonctions commerciales différentes, augmentant la complexité des processus et de la prise de décision. Les équipes d’IA responsable doivent travailler avec les parties prenantes clés, notamment la direction ; les propriétaires d’entreprise ; les équipes de données, d’IA et de TI ; et les partenaires pour :

  • Construire des solutions d’IA équitables et exemptes de biais : Les équipes et les partenaires peuvent utiliser différentes techniques, telles que l’analyse de données exploratoire, pour identifier et atténuer les biais potentiels avant de développer des solutions – de sorte que les modèles soient construits avec l’équité en tête dès le départ. Les équipes et les partenaires peuvent également examiner les données utilisées dans le prétraitement, la conception d’algorithmes et le post-traitement pour s’assurer qu’elles sont représentatives et équilibrées. De plus, ils peuvent utiliser des techniques d’équité de groupe et individuelle pour s’assurer que les algorithmes traitent les différents groupes et les individus de manière équitable. Et les approches d’équité contrafactuelle modélisent les résultats si certains facteurs sont modifiés, aidant à identifier et à résoudre les biais.
  • Promouvoir la transparence et l’explicabilité de l’IA : La transparence de l’IA signifie qu’il est facile de comprendre comment les modèles d’IA fonctionnent et prennent des décisions. L’explicabilité signifie que ces décisions peuvent être facilement communiquées aux autres en termes non techniques. L’utilisation d’une terminologie commune, la tenue de discussions régulières avec les parties prenantes et la création d’une culture de sensibilisation et d’apprentissage continu à l’IA peuvent aider à atteindre ces objectifs.
  • Assurer la confidentialité et la sécurité des données : Les modèles d’IA utilisent des montagnes de données. Les entreprises utilisent des données de première et de troisième partie pour alimenter les modèles. Ils utilisent également des techniques d’apprentissage préservant la confidentialité, telles que la création de données synthétiques pour surmonter les problèmes de rareté. Les dirigeants et les équipes souhaiteront examiner et faire évoluer les garanties de confidentialité et de sécurité des données pour s’assurer que les données confidentielles et sensibles sont toujours protégées lorsqu’elles sont utilisées de nouvelles manières. Par exemple, les données synthétiques devraient imiter les caractéristiques clés des clients mais ne pas être traçables jusqu’aux individus.
  • Mettre en place une gouvernance : La gouvernance variera en fonction de la maturité de l’IA de l’entreprise. Cependant, les entreprises devraient établir des principes et des politiques d’IA dès le départ. À mesure que leur utilisation de modèles d’IA augmente, elles peuvent nommer des agents d’IA ; mettre en place des cadres ; créer des mécanismes de responsabilité et de rapport ; et développer des boucles de rétroaction et des programmes d’amélioration continue.

Les facteurs clés d’un programme d’IA responsable

Qu’est-ce qui différencie les entreprises qui sont des leaders en matière d’IA responsable des autres ? Ils :

  • Créent une vision et des objectifs pour l’IA : Les dirigeants communiquent leur vision et leurs objectifs pour l’IA et comment elle profite à l’entreprise, aux clients et à la société.
  • Fixent des attentes : Les dirigeants seniors fixent les bonnes attentes avec les équipes pour construire des solutions d’IA responsables dès le départ plutôt que d’essayer de les adapter après leur achèvement.
  • Mettent en place un cadre et des processus : Les partenaires fournissent des cadres d’IA responsable avec des processus transparents et des garde-fous. Par exemple, les vérifications de confidentialité des données, d’équité et de biais doivent être intégrées à la préparation initiale des données, au développement de modèles et à la surveillance en cours.
  • Accèdent à des compétences de domaine, d’industrie et d’IA : Les équipes souhaitent accélérer l’innovation des solutions d’IA pour augmenter la compétitivité commerciale. Ils peuvent s’appuyer sur des partenaires pour des compétences de domaine et d’industrie pertinentes, telles que la stratégie et l’exécution de données et d’IA, jumelées à l’analyse client, à la technologie marketing, à la chaîne d’approvisionnement et à d’autres capacités. Les partenaires peuvent également fournir des compétences d’IA à plein spectre, notamment l’ingénierie, le développement, les opérations et les capacités d’ingénierie de plateforme de modèle de langage grand (LLM), en utilisant des cadres et des processus d’IA responsable pour concevoir, développer, opérationnaliser et produire des solutions.
  • Accèdent à des accélérateurs : Les partenaires offrent un accès à un écosystème d’IA, ce qui réduit le temps de développement des projets pilotes d’IA traditionnelle et générative responsable de jusqu’à 50 %. Les entreprises gagnent des solutions verticales qui augmentent leur compétitivité sur le marché.
  • Assurent l’adoption et la responsabilité des équipes : Les équipes d’entreprise et de partenaires sont formées aux nouvelles politiques et processus. En outre, les entreprises audittent les équipes pour vérifier leur conformité avec les politiques clés.
  • Utilisent les bonnes métriques pour quantifier les résultats : Les dirigeants et les équipes utilisent des références et d’autres métriques pour démontrer comment l’IA responsable contribue à la valeur commerciale pour maintenir l’engagement des parties prenantes à un niveau élevé.
  • Surveillent les systèmes d’IA : Les partenaires fournissent des services de surveillance de modèles, résolvant les problèmes de manière proactive et s’assurant qu’ils livrent des résultats fiables.

Planifiez l’IA responsable maintenant

Si votre entreprise accélère l’innovation de l’IA, vous avez probablement besoin d’un programme d’IA responsable. Agissez de manière proactive pour réduire les risques, faire mûrir les programmes et les processus et démontrer la responsabilité aux parties prenantes.

Un partenaire peut fournir les compétences, les cadres, les outils et les partenariats dont vous avez besoin pour débloquer la valeur commerciale avec l’IA responsable. Déployez des modèles qui sont équitables et exempts de biais, appliquez des contrôles et augmentez la conformité avec les exigences de l’entreprise tout en vous préparant aux réglementations à venir.

Le Dr Ravindra Patil est le directeur senior de la science des données chez Tredence, dirigeant une équipe avec 15 ans d'expérience industrielle dans les données et l'IA. Son expertise réside dans le leadership d'équipe réussi et le développement de solutions de données et d'IA efficaces. Ravindra a commencé sa carrière chez Siemens, puis a contribué de manière significative chez Philips Research et ses groupes commerciaux. Avant de rejoindre Tredence, il a dirigé un groupe de données et d'IA pour le cluster de santé personnelle de Philips d'une valeur de 4 milliards de dollars.

Au cours de son parcours, Ravindra a créé de multiples algorithmes d'IA, des plateformes de données et a facilité leur intégration dans divers secteurs commerciaux. Il détient un baccalauréat en ingénierie, un master en reconnaissance de modèles de l'IIT Madras, en Inde, et un doctorat en apprentissage automatique de l'Université de Maastricht, aux Pays-Bas. Avec plus de 30 dépôts de brevets, de nombreuses publications de recherche et une reconnaissance en tant que l'un des 100 meilleurs leaders de l'IA en Inde par le magazine AIM, ses réalisations sont notables.