Intelligence Artificielle
DeepScribe AI peut aider à traduire les anciennes tablettes

Des chercheurs de l'Oriental Institute de l'Université de Chicago et du Département d'informatique ont collaboré pour concevoir une IA qui peut aider à décoder les tablettes des civilisations anciennes. Selon Phys.org, l'IA s'appelle DeepScribe et a été formée sur plus de 6,000 XNUMX images annotées extraites des archives de la fortification de Persépolis. Lorsqu'elle sera terminée, le modèle d'IA sera capable d'interpréter des tablettes non analysées, ce qui facilitera l'étude de documents anciens.
Les experts qui étudient les documents anciens, comme les chercheurs qui étudient les documents créés pendant l'empire achéménide en Perse, doivent traduire les documents anciens à la main, un long processus sujet aux erreurs. Les chercheurs utilisent des ordinateurs pour aider à interpréter des documents anciens depuis les années 1990, mais les programmes informatiques qui ont été utilisés étaient d'une aide limitée. Les caractères cunéiformes complexes, ainsi que la forme tridimensionnelle des tablettes, limitent l'utilité des programmes informatiques.
Les algorithmes de vision par ordinateur et les architectures d’apprentissage profond ont apporté de nouvelles possibilités dans ce domaine. Sanjay Krishnan, du Département d'informatique d'OI, a collaboré avec la professeure agrégée d'assyriologie Susanne Paulus pour lancer le programme DeepScribe. Les chercheurs ont supervisé une plateforme de gestion de bases de données appelée OCHRE, qui organisait les données issues des fouilles archéologiques. L’objectif est de créer un outil d’IA à la fois étendu et flexible, capable d’interpréter des scripts provenant de différentes régions géographiques et périodes.
Comme l'a rapporté Phys.org, Krishnan a expliqué que les défis de la reconnaissance de l'écriture, auxquels les chercheurs archéologiques sont confrontés, sont essentiellement les mêmes défis auxquels sont confrontés les chercheurs en vision par ordinateur :
"Du ordinateur Du point de vue de la vision, c'est vraiment intéressant, car ce sont les mêmes défis que nous rencontrons. La vision par ordinateur s'est considérablement améliorée ces cinq dernières années ; il y a dix ans, cela aurait été un jeu d'enfant, nous n'aurions pas pu aller aussi loin. C'est un bon problème d'apprentissage automatique, car la précision est objective, nous disposons d'un ensemble d'apprentissage étiqueté et nous comprenons assez bien le script, ce qui nous aide. Ce n'est pas un problème totalement inconnu.
L'ensemble de formation en question est le résultat de la prise des tablettes et des traductions, de plus d'environ 80 ans de recherches archéologiques effectuées à OI et U Chicago et de la création d'images annotées à haute résolution à partir de celles-ci. Actuellement, la taille des données d'entraînement est d'environ 60 téraoctets. Les chercheurs ont pu utiliser l'ensemble de données et créer un dictionnaire de plus de 100,000 80 signes identifiés individuellement dont le modèle pourrait tirer des enseignements. Lorsque le modèle entraîné a été testé sur un ensemble d'images invisibles, le modèle a atteint une précision d'environ XNUMX %.
Alors que l'équipe de chercheurs tente d'augmenter la précision du modèle, même une précision de 80 % peut aider au processus de transcription. Selon Paulus, le modèle pourrait être utilisé pour identifier ou traduire des parties très répétitives des documents, laissant les experts passer leur temps à interpréter les parties les plus difficiles du document. Même si le modèle ne peut pas dire avec certitude à quoi se traduit un symbole, il peut donner aux chercheurs des probabilités, ce qui les met déjà en avant.
L'équipe vise également à faire de DeepScribe un outil que d'autres archéologues pourront utiliser dans leurs projets. Par exemple, le modèle pourrait être recyclé sur d'autres langues cunéiformes, ou le modèle pourrait faire des estimations éclairées sur le texte sur des tablettes endommagées ou incomplètes. Un modèle suffisamment robuste pourrait même estimer l'âge et l'origine des comprimés ou d'autres artefacts, ce qui est généralement fait avec des tests chimiques.
Le projet DeepScribe est financé par le Center for the Development of Advanced Computing (CDAC). La vision par ordinateur a également été utilisée dans d'autres projets financés par la CADC, comme un projet visant à reconnaître le style dans les œuvres d'art et un projet conçu pour quantifier la biodiversité des bivalves marins. L'équipe de chercheurs espère également que leur collaboration conduira à de futures collaborations entre le Département d'informatique et OI de l'Université de Chicago.












