talon L'explicabilité peut résoudre le problème d'IA de chaque industrie : le manque de transparence - Unite.AI
Suivez nous sur

Des leaders d'opinion

L'explicabilité peut résoudre le problème d'IA de chaque industrie : le manque de transparence

mm

Publié le

 on

Écrit par: Discours de Migüel Jetté, VP R&D, Tour.

À ses débuts, l’IA aurait pu se reposer sur les lauriers de la nouveauté. Il était normal que l’apprentissage automatique apprenne lentement et maintienne un processus opaque dans lequel le calcul de l’IA est impossible à pénétrer pour le consommateur moyen. Cela change. Alors que de plus en plus de secteurs tels que la santé, la finance et le système de justice pénale commencent à exploiter l'IA de manière à avoir un impact réel sur la vie des gens, de plus en plus de personnes veulent savoir comment les algorithmes sont utilisés, comment les données sont obtenues et comment elles sont obtenues. la précision de ses capacités. Si les entreprises veulent rester à la pointe de l’innovation sur leurs marchés, elles doivent s’appuyer sur une IA à laquelle leur public fera confiance. L’explicabilité de l’IA est l’ingrédient clé pour approfondir cette relation.

L'explicabilité de l'IA diffère des procédures d'IA standard car elle offre aux gens un moyen de comprendre comment les algorithmes d'apprentissage automatique créent une sortie. L'IA explicable est un système qui peut fournir aux gens des résultats potentiels ainsi que lacunes. C'est un système d'apprentissage automatique qui peut répondre au désir très humain d'équité, de responsabilité et de respect de la vie privée. L'IA explicable est impérative pour que les entreprises établissent la confiance avec les consommateurs.

Alors que l'IA se développe, les fournisseurs d'IA doivent comprendre que la boîte noire ne le peut pas. Les modèles de boîte noire sont créés directement à partir des données et souvent même le développeur qui a créé l'algorithme ne peut pas identifier ce qui a conduit les habitudes apprises de la machine. Mais le consommateur consciencieux ne veut pas s'engager dans quelque chose de si impénétrable qu'il ne peut être tenu pour responsable. Les gens veulent savoir comment un algorithme d'IA arrive à un résultat spécifique sans le mystère de l'entrée source et de la sortie contrôlée, en particulier lorsque les erreurs de calcul de l'IA sont souvent dues à des biais de machine. À mesure que l'IA devient plus avancée, les gens veulent accéder au processus d'apprentissage automatique pour comprendre comment l'algorithme est arrivé à son résultat spécifique. Les dirigeants de chaque industrie doivent comprendre que tôt ou tard, les gens ne préféreront plus cet accès mais l'exigeront comme un niveau de transparence nécessaire.

Les systèmes ASR tels que les assistants vocaux, la technologie de transcription et d'autres services qui convertissent la parole humaine en texte sont particulièrement utiles. en proie aux préjugés. Lorsque le service est utilisé pour des mesures de sécurité, les erreurs dues aux accents, à l'âge ou aux antécédents d'une personne peuvent être des erreurs graves, il faut donc prendre le problème au sérieux. L'ASR peut être utilisé efficacement dans les caméras corporelles de la police, par exemple, pour enregistrer et transcrire automatiquement les interactions - en gardant un enregistrement qui, s'il est transcrit avec précision, pourrait sauver des vies. La pratique de l'explicabilité exigera que l'IA ne s'appuie pas uniquement sur des ensembles de données achetés, mais cherche à comprendre les caractéristiques de l'audio entrant qui pourraient contribuer aux erreurs, le cas échéant. Quel est le profil acoustique ? Y a-t-il du bruit en arrière-plan ? Le locuteur vient-il d'un pays non anglophone ou d'une génération qui utilise un vocabulaire que l'IA n'a pas encore appris ? L'apprentissage automatique doit être proactif pour apprendre plus rapidement et il peut commencer par collecter des données qui peuvent traiter ces variables.

La nécessité devient évidente, mais le chemin vers la mise en œuvre de cette méthodologie n'aura pas toujours une solution facile. La réponse traditionnelle au problème consiste à ajouter plus de données, mais une solution plus sophistiquée sera nécessaire, en particulier lorsque les ensembles de données achetés que de nombreuses entreprises utilisent sont intrinsèquement biaisés. En effet, historiquement, il a été difficile d'expliquer une décision particulière rendue par l'IA et cela est dû à la nature de la complexité des modèles de bout en bout. Cependant, nous le pouvons maintenant, et nous pouvons commencer par demander comment les gens ont perdu confiance dans l'IA en premier lieu.

Inévitablement, l'IA fera des erreurs. Les entreprises doivent créer des modèles conscients des lacunes potentielles, identifier quand et où les problèmes surviennent et créer des solutions continues pour créer des modèles d'IA plus solides :

  1. Quand quelque chose ne va pas, les développeurs vont devoir expliquer ce qui s'est passé et élaborer un plan immédiat pour améliorer le modèle afin de réduire les futures erreurs similaires.
  2. Pour que la machine sache réellement si c'était bien ou mal, les scientifiques doivent créer une boucle de rétroaction afin que l'IA puisse apprendre ses lacunes et évoluer.
  3. Une autre façon pour ASR d'établir la confiance alors que l'IA s'améliore encore est de créer un système qui peut fournir des scores de confiance, et expliquez pourquoi l'IA est moins confiante. Par exemple, les entreprises génèrent généralement des scores de zéro à 100 pour refléter les imperfections de leur propre IA et établir la transparence avec leurs clients. À l'avenir, les systèmes pourraient fournir des explications post-hoc sur les raisons pour lesquelles l'audio était difficile en offrant plus de métadonnées sur l'audio, telles que le niveau de bruit perçu ou un accent moins compris.

Une transparence accrue se traduira par une meilleure surveillance humaine de la formation et des performances de l'IA. Plus nous sommes ouverts sur les points à améliorer, plus nous sommes responsables de prendre des mesures pour ces améliorations. Par exemple, un chercheur peut vouloir savoir pourquoi un texte erroné a été produit afin de pouvoir atténuer le problème, tandis qu'un transcripteur peut vouloir des preuves expliquant pourquoi l'ASR a mal interprété l'entrée pour l'aider à évaluer sa validité. Garder les humains au courant peut atténuer certains des problèmes les plus évidents qui surviennent lorsque l'IA n'est pas contrôlée. Cela peut également accélérer le temps nécessaire à l'IA pour détecter ses erreurs, s'améliorer et éventuellement se corriger en temps réel.

L'IA a la capacité d'améliorer la vie des gens, mais seulement si les humains la construisent pour produire correctement. Nous devons tenir non seulement ces systèmes responsables, mais également les personnes derrière l'innovation. Les systèmes d'IA du futur sont censés adhérer aux principes énoncés par les gens, et ce n'est que jusque-là que nous aurons un système auquel les gens font confiance. Il est temps de jeter les bases et de lutter pour ces principes maintenant, alors qu'en fin de compte, ce sont toujours les humains qui se servent eux-mêmes.

Miguel Jetté est responsable de la R&D IA chez Tour, une plate-forme de transcription de la parole en texte combinant l'IA avec des humains qualifiés. Il dirige l'équipe responsable du développement de la plate-forme d'IA de synthèse vocale la plus précise au monde. Passionné par la résolution de problèmes complexes tout en améliorant des vies, il se consacre à accroître l'inclusion et l'égalité de construction grâce à la technologie. En plus de deux décennies, il a travaillé à la mise en œuvre de technologies vocales avec des entreprises telles que Nuance Communications et VoiceBox. Il a obtenu une maîtrise en mathématiques et statistiques de l'Université McGill à Montréal. Lorsqu'il ne fait pas progresser la communication via l'IA, il passe son temps en tant que photographe pour des compétitions d'escalade.