Suivez nous sur

L'explicabilitĂ© peut rĂ©soudre le problème d'IA de chaque industrie : le manque de transparence

Des leaders d'opinion

L'explicabilitĂ© peut rĂ©soudre le problème d'IA de chaque industrie : le manque de transparence

mm

Écrit par: Discours de Migüel Jetté, VP R&D, Tour.

À ses débuts, l’IA aurait pu se reposer sur les lauriers de la nouveauté. Il était normal que l’apprentissage automatique apprenne lentement et maintienne un processus opaque dans lequel le calcul de l’IA est impossible à pénétrer pour le consommateur moyen. Cela change. Alors que de plus en plus de secteurs tels que la santé, la finance et le système de justice pénale commencent à exploiter l'IA de manière à avoir un impact réel sur la vie des gens, de plus en plus de personnes veulent savoir comment les algorithmes sont utilisés, comment les données sont obtenues et comment elles sont obtenues. la précision de ses capacités. Si les entreprises veulent rester à la pointe de l’innovation sur leurs marchés, elles doivent s’appuyer sur une IA à laquelle leur public fera confiance. L’explicabilité de l’IA est l’ingrédient clé pour approfondir cette relation.

L'explicabilité de l'IA diffère des procédures d'IA standard car elle offre aux gens un moyen de comprendre comment les algorithmes d'apprentissage automatique créent une sortie. L'IA explicable est un système qui peut fournir aux gens des résultats potentiels et lacunes. C'est un système d'apprentissage automatique qui peut répondre au désir très humain d'équité, de responsabilité et de respect de la vie privée. L'IA explicable est impérative pour que les entreprises établissent la confiance avec les consommateurs.

Alors que l'IA se développe, les fournisseurs d'IA doivent comprendre que la boîte noire ne le peut pas. Les modèles de boîte noire sont créés directement à partir des données et souvent même le développeur qui a créé l'algorithme ne peut pas identifier ce qui a conduit les habitudes apprises de la machine. Mais le consommateur consciencieux ne veut pas s'engager dans quelque chose de si impénétrable qu'il ne peut être tenu pour responsable. Les gens veulent savoir comment un algorithme d'IA arrive à un résultat spécifique sans le mystère de l'entrée source et de la sortie contrôlée, en particulier lorsque les erreurs de calcul de l'IA sont souvent dues à des biais de machine. À mesure que l'IA devient plus avancée, les gens veulent accéder au processus d'apprentissage automatique pour comprendre comment l'algorithme est arrivé à son résultat spécifique. Les dirigeants de chaque industrie doivent comprendre que tôt ou tard, les gens ne préféreront plus cet accès mais l'exigeront comme un niveau de transparence nécessaire.

Les systèmes ASR tels que les assistants vocaux, la technologie de transcription et d'autres services qui convertissent la parole humaine en texte sont particulièrement utiles. en proie aux prĂ©jugĂ©s. Lorsque le service est utilisĂ© pour des mesures de sĂ©curitĂ©, les erreurs dues aux accents, Ă  l'âge ou aux antĂ©cĂ©dents d'une personne peuvent ĂŞtre des erreurs graves, il faut donc prendre le problème au sĂ©rieux. L'ASR peut ĂŞtre utilisĂ© efficacement dans les camĂ©ras corporelles de la police, par exemple, pour enregistrer et transcrire automatiquement les interactions - en gardant un enregistrement qui, s'il est transcrit avec prĂ©cision, pourrait sauver des vies. La pratique de l'explicabilitĂ© exigera que l'IA ne s'appuie pas uniquement sur des ensembles de donnĂ©es achetĂ©s, mais cherche Ă  comprendre les caractĂ©ristiques de l'audio entrant qui pourraient contribuer aux erreurs, le cas Ă©chĂ©ant. Quel est le profil acoustique ? Y a-t-il du bruit en arrière-plan ? Le locuteur vient-il d'un pays non anglophone ou d'une gĂ©nĂ©ration qui utilise un vocabulaire que l'IA n'a pas encore appris ? L'apprentissage automatique doit ĂŞtre proactif pour apprendre plus rapidement et il peut commencer par collecter des donnĂ©es qui peuvent traiter ces variables.

La nécessité devient évidente, mais la mise en œuvre de cette méthodologie ne sera pas toujours simple. La réponse traditionnelle au problème consiste à ajouter davantage de données, mais une solution plus sophistiquée sera nécessaire, notamment lorsque les ensembles de données achetés utilisés par de nombreuses entreprises sont intrinsèquement biaisés. En effet, il a toujours été difficile d'expliquer une décision prise par l'IA, en raison de la complexité des modèles de bout en bout. C'est désormais possible, et nous pouvons commencer par nous demander comment les gens ont pu perdre confiance en l'IA.

InĂ©vitablement, l'IA fera des erreurs. Les entreprises doivent crĂ©er des modèles conscients des lacunes potentielles, identifier quand et oĂą les problèmes surviennent et crĂ©er des solutions continues pour crĂ©er des modèles d'IA plus solides :

  1. Quand quelque chose ne va pas, les développeurs vont devoir expliquer ce qui s'est passé et élaborer un plan immédiat pour améliorer le modèle afin de réduire les futures erreurs similaires.
  2. Pour que la machine sache réellement si c'était bien ou mal, les scientifiques doivent créer une boucle de rétroaction afin que l'IA puisse apprendre ses lacunes et évoluer.
  3. Une autre façon pour ASR d'établir la confiance alors que l'IA s'améliore encore est de créer un système qui peut fournir des scores de confiance, et expliquez pourquoi l'IA est moins confiante. Par exemple, les entreprises génèrent généralement des scores de zéro à 100 pour refléter les imperfections de leur propre IA et établir la transparence avec leurs clients. À l'avenir, les systèmes pourraient fournir des explications post-hoc sur les raisons pour lesquelles l'audio était difficile en offrant plus de métadonnées sur l'audio, telles que le niveau de bruit perçu ou un accent moins compris.

Une transparence accrue se traduira par une meilleure surveillance humaine de la formation et des performances de l'IA. Plus nous sommes ouverts sur les points à améliorer, plus nous sommes responsables de prendre des mesures pour ces améliorations. Par exemple, un chercheur peut vouloir savoir pourquoi un texte erroné a été produit afin de pouvoir atténuer le problème, tandis qu'un transcripteur peut vouloir des preuves expliquant pourquoi l'ASR a mal interprété l'entrée pour l'aider à évaluer sa validité. Garder les humains au courant peut atténuer certains des problèmes les plus évidents qui surviennent lorsque l'IA n'est pas contrôlée. Cela peut également accélérer le temps nécessaire à l'IA pour détecter ses erreurs, s'améliorer et éventuellement se corriger en temps réel.

L'IA a la capacité d'améliorer la vie des gens, mais seulement si les humains la construisent pour produire correctement. Nous devons tenir non seulement ces systèmes responsables, mais également les personnes derrière l'innovation. Les systèmes d'IA du futur sont censés adhérer aux principes énoncés par les gens, et ce n'est que jusque-là que nous aurons un système auquel les gens font confiance. Il est temps de jeter les bases et de lutter pour ces principes maintenant, alors qu'en fin de compte, ce sont toujours les humains qui se servent eux-mêmes.

Miguel Jetté est responsable de la R&D IA chez Tour, une plate-forme de transcription de la parole en texte combinant l'IA avec des humains qualifiés. Il dirige l'équipe responsable du développement de la plate-forme d'IA de synthèse vocale la plus précise au monde. Passionné par la résolution de problèmes complexes tout en améliorant des vies, il se consacre à accroître l'inclusion et l'égalité de construction grâce à la technologie. En plus de deux décennies, il a travaillé à la mise en œuvre de technologies vocales avec des entreprises telles que Nuance Communications et VoiceBox. Il a obtenu une maîtrise en mathématiques et statistiques de l'Université McGill à Montréal. Lorsqu'il ne fait pas progresser la communication via l'IA, il passe son temps en tant que photographe pour des compétitions d'escalade.