Santé
Détermination de l'intoxication avec l'analyse d'apprentissage automatique des yeux

Des chercheurs allemands et chiliens ont développé un nouveau cadre d’apprentissage automatique capable d’évaluer si une personne est en état d’ébriété, sur la base d’images proche infrarouge de ses yeux.
L'espace Une étude vise à développer des systèmes en temps réel « d'aptitude au travail » capables d'évaluer l'aptitude d'un individu à effectuer des tâches critiques telles que la conduite ou l'utilisation de machines, et utilise un nouveau détecteur d'objets entraîné au scratch qui peut individualiser les composants oculaires d'un sujet à partir d'une seule image et les évaluer par rapport à une base de données qui comprend des images d'yeux en état d'ébriété et non en état d'ébriété.

You Only Look Once (YOLO) individualise les yeux du sujet, après quoi le système sépare les instances et effectue une segmentation pour décomposer l'image de l'œil en ses parties constitutives. Source : https://arxiv.org/pdf/2106.15828.pdf
Initialement, le système capture et individualise une image de chaque œil avec le You-Only-Look-Once (YOLO) Framework de détection d'objets. Après cela, deux réseaux optimisés sont utilisés pour décomposer les images de l'œil en régions sémantiques - le Criss Cross réseau d'attention (CCNet) publié en 2020 par l'Université des sciences et technologies de Huazhong, et le DenseNet10 algorithme de segmentation, également développé par plusieurs des chercheurs du nouvel article au Chili.

Segmentation obtenue Ă partir d'images oculaires dans le proche infrarouge. Source : https://www.researchgate.net/publication/346903035_Towards_an_Efficient_Segmentation_Algorithm_for_Near-Infrared_Eyes_Images#pf6
Les deux algorithmes n'utilisent respectivement que 122,514 210,732 et XNUMX XNUMX paramètres - une dépense frugale, par rapport à certains des plus grands ensembles de fonctionnalités dans des modèles similaires, et à contre-courant de la tendance générale vers des volumes de données plus élevés dans les cadres ML.
Base de données de l'ivrogne
Pour informer le cadre d'apprentissage automatique, les chercheurs ont développé une base de données originale comprenant 266 sujets en état d'ébriété et 765 sujets sobres.

Échantillons de la base de données obtenue de sujets intoxiqués et non intoxiqués.
Les sujets devaient se tenir devant deux caméras d'origine Iritech, la gamme Gemini/Venus, faire face à l'appareil, et être enregistrés sobres. Après cela, ils ont consommé 200 ml d'alcool et ont été capturés à nouveau toutes les 15 minutes à mesure que leur taux d'alcoolémie augmentait, jusqu'à la dernière séance à 60 minutes depuis la consommation d'alcool.
Cela a produit 21,309 XNUMX images, qui ont ensuite été annotées à l'aide de la bibliothèque Python imgaug.
Préparer les données pour le monde réel
Il ne s'agissait pas d'un flux de travail hautement automatisé, malgré les outils avancés utilisés : l'étiquetage manuel des images oculaires a été décrit par les chercheurs comme « un processus très exigeant et chronophage », et a pris plus d'un an.
Les données ont été enrichies de manière intensive grâce à une série de méthodes conçues pour dégrader et mettre à l'épreuve le système, reproduisant des conditions réelles possibles, notamment les flocons de neige, le bruit de Poisson (pour simuler la dégradation du capteur en basse lumière), le flou, les projections et les effets de pluie. De plus, l'utilisation de la capture infrarouge élimine la nécessité de conditions d'éclairage idéales, impossibles à garantir dans des déploiements économiques et pratiques.
Ce travail exténuant a finalement porté ses fruits avec un niveau de précision de 98,60 % pour la capture et la segmentation de l'œil.
Tests
Le cadre de segmentation a été testé avec cinq plates-formes : Osiris, DeepVOG, DenseNet10 (voir ci-dessus), CCNet (voir ci-dessus) et Grand moyen. Dans tous les cas, l'analyse a démontré des résultats positifs pour corréler la dilatation de la pupille au niveau d'ivresse, bien qu'une approche hybride utilisant DenseNet et CCNet se soit avérée la plus efficace.
Les chercheurs prévoient que leur travail pourra éventuellement être intégré à un capteur d'iris NIR standard et notent que l'effort herculéen de production de la base de données sur les yeux en état d'ébriété est un avantage probable pour ce secteur de la recherche biométrique.
Tests d'intoxication des consommateurs et industriels par évaluation des yeux
Cette nouvelle recherche s'appuie sur des publications antérieures notables, notamment un article fondateur de 2015, publié par des chercheurs brésiliens et américains, qui proposait une méthode systématique et rationalisée d'évaluation de l'intoxication à partir de la réponse pupillaire. Les chercheurs de cet article ont observé que l'alcool réduit l'efficacité cérébrale et altère la vision nocturne d'un facteur de 25 %, ainsi que le temps de réaction de 30 %, avec des degrés de gravité variables selon le niveau de tolérance de chaque individu.

Source : https://pixellab.group/publication/2015/pinheiro2015/pinheiro2015.pdf
Le principal problème pour la diffusion de ces technologies est la portabilité. Dès 2003, la société de recherche britannique Hampton Knight présenté un système d'évaluation de l'intoxication par analyse oculaire - bien qu'il ait coûté 10,000 XNUMX livres sterling à l'époque.
Un préliminaire 2012 étude de New Delhi et des États-Unis ont également exploré la possibilité d'utiliser des techniques d'IA systématiques pour dériver un score d'intoxication à partir d'images oculaires, mais avec moins de succès que les recherches actuelles. Cette étude a également fourni un ensemble de données précieux (IITD Iris Under Alcohol Influence) à l'ensemble des travaux dans ce domaine.
Cependant, les innovations récentes en matière d'informatique de pointe et d'optimisation des ressources matérielles d'apprentissage automatique mobile ouvrent le champ à des applications beaucoup plus mobiles de contrôles pré-activité pour l'intoxication, y compris des capteurs embarqués qui pourraient potentiellement ajouter des contrôles d'iris aux méthodes actuelles qui sont d'intérêt. au système de détection d'alcool du conducteur pour la sécurité (DADSS) cadre en cours d'élaboration aux États-Unis - qui s'est jusqu'à présent appuyé sur des capteurs d'alcool cutané et sur l'évaluation de l'air à bord des véhicules pour détecter les vapeurs d'alcool.
rapport ont estimé que l'adoption de technologies de ce type pourrait sauver 11,000 XNUMX vies par an rien qu'aux États-Unis.













