Intelligence artificielle
DeepScribe AI peut aider à traduire les tablettes anciennes

Les chercheurs de l’Institut oriental de l’Université de Chicago et du Département d’informatique ont collaboré pour concevoir un IA qui peut aider à déchiffrer les tablettes des civilisations anciennes. Selon Phys.org, l’IA s’appelle DeepScribe et a été formée sur plus de 6 000 images annotées issues de l’Archive de la forteresse de Persépolis, lorsque le modèle sera complet, il pourra interpréter les tablettes non analysées, ce qui rendra l’étude des documents anciens plus facile.
Les experts qui étudient les documents anciens, comme les chercheurs qui étudient les documents créés pendant l’Empire achéménide en Perse, ont besoin de traduire les documents anciens à la main, un processus long et sujet aux erreurs. Les chercheurs utilisent des ordinateurs pour aider à interpréter les documents anciens depuis les années 1990, mais les programmes informatiques utilisés étaient de peu d’aide. Les caractères cunéiformes complexes, ainsi que la forme tridimensionnelle des tablettes, ont limité l’utilité des programmes informatiques.
Les algorithmes de vision par ordinateur et les architectures d’apprentissage profond ont apporté de nouvelles possibilités dans ce domaine. Sanjay Krishnan, du Département d’informatique de l’OI, a collaboré avec la professeure associée d’assyriologie Susanne Paulus pour lancer le programme DeepScribe. Les chercheurs ont supervisé une plateforme de gestion de base de données appelée OCHRE, qui a organisé les données des fouilles archéologiques. L’objectif est de créer un outil IA à la fois étendu et flexible, capable d’interpréter les scripts de différentes régions géographiques et de périodes.
Comme l’a rapporté Phys.org, Krishnan a expliqué que les défis de reconnaissance de script, auxquels les chercheurs archéologiques sont confrontés, sont essentiellement les mêmes défis auxquels les chercheurs en vision par ordinateur sont confrontés :
“Du point de vue de la vision par ordinateur, c’est vraiment intéressant, car ce sont les mêmes défis que nous rencontrons. La vision par ordinateur a considérablement amélioré au cours des cinq dernières années ; il y a dix ans, cela aurait été vague, nous n’aurions pas pu aller aussi loin. C’est un bon problème d’apprentissage automatique, car la précision est objective ici, nous avons un ensemble d’entraînement étiqueté et nous comprenons bien le script, ce qui nous aide. Ce n’est pas un problème complètement inconnu.”
L’ensemble d’entraînement en question est le résultat de la prise des tablettes et des traductions, sur plus de 80 ans de recherches archéologiques menées à l’OI et à l’U Chicago, et de la création d’images annotées haute résolution à partir de celles-ci. Actuellement, les données d’entraînement sont d’environ 60 téraoctets. Les chercheurs ont pu utiliser l’ensemble de données et créer un dictionnaire de plus de 100 000 signes individuellement identifiés que le modèle pourrait apprendre. Lorsque le modèle formé a été testé sur un ensemble d’images non vues, le modèle a atteint une précision d’environ 80 %.
Alors que l’équipe de chercheurs tente d’augmenter la précision du modèle, même une précision de 80 % peut aider dans le processus de transcription. Selon Paulus, le modèle pourrait être utilisé pour identifier ou traduire les parties hautement répétitives des documents, laissant les experts passer leur temps à interpréter les parties les plus difficiles du document. Même si le modèle ne peut pas dire avec certitude à quoi correspond un symbole, il peut donner aux chercheurs des probabilités, ce qui les met déjà en avant.
L’équipe vise également à faire de DeepScribe un outil que d’autres archéologues puissent utiliser dans leurs projets. Par exemple, le modèle pourrait être réentraîné sur d’autres langues cunéiformes, ou le modèle pourrait faire des estimations éclairées sur le texte des tablettes endommagées ou incomplètes. Un modèle suffisamment robuste pourrait même estimer l’âge et l’origine des tablettes ou d’autres artefacts, ce qui est généralement fait par des tests chimiques.
Le projet DeepScribe est financé par le Centre pour le développement de l’informatique avancée (CDAC). La vision par ordinateur a été utilisée dans d’autres projets financés par le CDAC, comme un projet destiné à reconnaître le style dans les œuvres d’art et un projet conçu pour quantifier la biodiversité des bivalves marins. L’équipe de chercheurs espère également que leur collaboration conduira à des collaborations futures entre le Département d’informatique et l’OI à l’Université de Chicago.












