Intelligence Artificielle
Les hypothèses courantes sur les dysfonctionnements de l'apprentissage automatique pourraient être erronées

Les réseaux de neurones profonds sont l'un des aspects les plus fondamentaux de l'intelligence artificielle (IA), car ils sont utilisés pour traiter des images et des données par modélisation mathématique. Ils sont responsables de certaines des plus grandes avancées dans le domaine, mais ils fonctionnent également mal de diverses manières. Ces dysfonctionnements peuvent avoir un impact faible ou inexistant, comme une simple erreur d'identification, ou un impact plus dramatique et mortel, comme un dysfonctionnement de conduite autonome.
De nouvelles recherches de l'Université de Houston suggèrent que nos hypothèses communes sur ces dysfonctionnements pourraient être erronées, ce qui pourrait aider à évaluer la fiabilité des réseaux à l'avenir.
L'article a été publié dans Intelligence artificielle de la nature en novembre.
"Exemples contradictoires"
L’apprentissage automatique et d’autres types d’IA sont essentiels dans de nombreux secteurs et tâches, tels que les systèmes bancaires et de cybersécurité. Selon Cameron Buckner, professeur agrégé de philosophie à l’UH, il faut comprendre les échecs provoqués par des « exemples contradictoires ». Ces exemples contradictoires se produisent lorsqu'un système de réseau neuronal profond évalue mal les images et autres données lorsqu'il rencontre des informations extérieures aux entrées de formation utilisées pour développer le réseau.
Les exemples contradictoires sont rares car ils sont souvent créés ou découverts par un autre réseau d'apprentissage automatique.
"Certains de ces événements contradictoires pourraient plutôt être des artefacts, et nous devons mieux savoir ce qu'ils sont afin de savoir à quel point ces réseaux sont fiables", a écrit Buckner.
Buckner dit que le dysfonctionnement pourrait être causé par l'interaction entre les modèles réels impliqués et ce que le réseau se propose de traiter, ce qui signifie que ce n'est pas une erreur complète.
Les motifs comme artefacts
"Comprendre les implications des exemples contradictoires nécessite d'explorer une troisième possibilité : qu'au moins certains de ces modèles soient des artefacts", a déclaré Buckner. "Ainsi, il y a actuellement à la fois des coûts à simplement abandonner ces modèles et des dangers à les utiliser naïvement."
Bien que ce ne soit pas le cas tout le temps, la malversation intentionnelle est le risque le plus élevé concernant ces événements contradictoires provoquant des dysfonctionnements de l'apprentissage automatique.
«Cela signifie que des acteurs malveillants pourraient tromper les systèmes qui reposent sur un réseau par ailleurs fiable», a déclaré Buckner. «Cela a des applications de sécurité.»
Il peut s'agir de pirates informatiques violant un système de sécurité basé sur la technologie de reconnaissance faciale ou de panneaux de signalisation mal étiquetés pour confondre les véhicules autonomes.
D'autres recherches antérieures ont démontré que certains des exemples contradictoires se produisent naturellement, lorsqu'un système d'apprentissage automatique interprète mal les données par une interaction imprévue, ce qui est différent des erreurs dans les données. Ces exemples naturels sont rares, et la seule façon actuelle de les découvrir est par le biais de l'IA.
Cependant, Buckner dit que les chercheurs doivent repenser la manière dont ils traitent les anomalies.
Ces anomalies, ou artefacts, sont expliquées par Buckner par l'analogie d'une lumière parasite sur une photographie, qui n'est pas causée par un défaut de l'objectif de l'appareil photo mais plutôt par l'interaction de la lumière avec l'appareil photo.
Si l'on sait comment interpréter le flair de l'objectif, des informations importantes telles que la position du soleil peuvent être extraites. Pour cette raison, Buckner pense qu'il est possible d'extraire des informations tout aussi précieuses des événements indésirables de l'apprentissage automatique causés par l'artefact.
Buckner dit également que tout cela ne signifie pas automatiquement que l'apprentissage en profondeur n'est pas valide.
«Certains de ces événements contradictoires pourraient être des artefacts», a-t-il déclaré. «Nous devons savoir quels sont ces artefacts afin de savoir à quel point les réseaux sont fiables.»












