Suivez nous sur

L'IA générative : une bénédiction ou une malédiction ? Lutter contre les menaces de l'IA dans la sécurité des examens

Des leaders d'opinion

L'IA générative : une bénédiction ou une malédiction ? Lutter contre les menaces de l'IA dans la sécurité des examens

mm

Alors que les mutations technologiques et économiques de l'ère numérique bouleversent radicalement les exigences de la main-d'œuvre mondiale, la mise à niveau et la reconversion professionnelles n'ont jamais été aussi cruciales. Par conséquent, le besoin d'une certification fiable des nouvelles compétences se fait également sentir.

Compte tenu de l'importance croissante des examens de certification et d'autorisation d'exercer dans le monde entier, une vague de services visant à aider les candidats à tricher lors des procédures d'examen s'est naturellement développée. Ces méthodes trompeuses menacent non seulement l'intégrité du marché des compétences, mais peuvent également présenter des risques pour la sécurité humaine ; certains examens d'autorisation d'exercer portent sur des compétences pratiques importantes, comme la conduite automobile ou l'utilisation de machines lourdes. 

Après que les entreprises ont commencé à comprendre la tricherie conventionnelle, ou analogique, utilisant de véritables mandataires humains, elles ont introduit des mesures pour empêcher cela – pour les examens en ligne, on a commencé à demander aux candidats de garder leurs caméras allumées Pendant qu'ils passaient l'examen. Mais aujourd'hui, la technologie du deepfake (c'est-à-dire des images audio et vidéo hyperréalistes souvent impossibles à distinguer de la réalité) représente une nouvelle menace pour la sécurité des tests. Des outils en ligne facilement accessibles utilisent GenAI pour permettre aux candidats de confier l'examen à un humain. 

En manipulant la vidéo, ces outils peuvent tromper les entreprises en leur faisant croire que un candidat passe l'examen alors qu'en réalité, quelqu'un d'autre est derrière l'écran (c'est-à-dire qu'il passe un test par procuration). Des services populaires permettent aux utilisateurs d'échanger leur visage avec celui d'une autre personne via une webcam. L'accessibilité de ces outils compromet l'intégrité des tests de certification, même avec l'utilisation de caméras.

D'autres formes de GenAI, ainsi que deepfakes, constituent une menace pour la sécurité des tests. grands modèles linguistiques Les LLM sont au cœur d’une course technologique mondiale, avec des géants de la technologie comme Apple, Microsoft, Google et Amazon, ainsi que des rivaux chinois comme DeepSeek, qui misent gros sur eux.

Nombre de ces modèles ont fait la une des journaux grâce à leur capacité à réussir des examens prestigieux et à enjeux élevés. Comme pour les deepfakes, des acteurs malveillants ont utilisé les LLM pour exploiter les faiblesses des normes de sécurité des tests traditionnels.

Certaines entreprises ont commencé à proposer des extensions de navigateur qui lancent des assistants IA, difficiles à détecter, leur permettant d'accéder aux réponses d'examens à enjeux élevés. Des utilisations moins sophistiquées de cette technologie présentent néanmoins des risques, notamment l'utilisation d'applications IA sur les téléphones des candidats pendant les examens, sans qu'ils soient détectés.

Cependant, de nouvelles procédures de sécurité des tests peuvent offrir des moyens de garantir l’intégrité des examens contre ces méthodes.

Comment atténuer les risques tout en profitant des avantages de l'IA générative

Malgré les nombreuses applications en évolution rapide de GenAI pour tricher aux tests, une course parallèle est en cours dans le secteur de la sécurité des tests.

La même technologie qui menace les tests peut également être utilisée pour protéger l'intégrité des examens et fournir aux entreprises une garantie accrue que les candidats qu'elles recrutent sont qualifiés pour le poste. Face à l'évolution constante des menaces, les solutions doivent être créatives et adopter une approche à plusieurs niveaux.

Une méthode innovante pour réduire les menaces posées par GenAI est la surveillance par double caméra. Cette technique implique en utilisant l'appareil mobile du candidat comme deuxième caméra, fournissant un deuxième flux vidéo pour détecter la tricherie. 

Grâce à une vue plus complète de l'environnement de test du candidat, les surveillants peuvent mieux détecter l'utilisation de plusieurs moniteurs ou périphériques externes qui pourraient être cachés en dehors de la vue typique de la webcam.

Cela peut également faciliter la détection de l'utilisation de deepfakes pour masquer les tests par procuration, car le logiciel s'appuie sur l'échange de visages ; une vue du corps entier peut révéler des divergences entre le deepfake et la personne qui passe l'examen.

Les indices subtils, comme les décalages d’éclairage ou la géométrie du visage, deviennent plus apparents lorsqu’ils sont comparés entre deux flux vidéo distincts. Cela facilite la détection des deepfakes, qui sont généralement des représentations plates et bidimensionnelles de visages.

L'avantage supplémentaire de la surveillance à double caméra est qu'elle monopolise le téléphone du candidat, empêchant ainsi toute tricherie. L'IA améliore encore la détection des tricheries sur la vidéo en direct.

L'IA fournit un « deuxième paire d'yeux » capable de surveiller en permanence la vidéo diffusée en direct. Si l'IA détecte une activité anormale sur le fil d'actualité d'un candidat, elle alerte un surveillant humain, qui peut alors vérifier s'il y a eu ou non violation des règles de l'examen. Ce niveau de surveillance supplémentaire renforce la sécurité et permet de surveiller des milliers de candidats avec des protections de sécurité renforcées.

L’IA générative est-elle une bénédiction ou une malédiction ?

Alors que la révolution de la formation continue progresse, il n'a jamais été aussi important de sécuriser les tests contre les nouvelles méthodes de triche. Des deepfakes masquant les proxys d'examen à l'utilisation de LLM pour fournir des réponses aux questions d'examen, les menaces sont réelles et accessibles. Mais les solutions le sont tout autant. 

Heureusement, à mesure que GenAI progresse, les services de sécurité des tests relèvent le défi et restent à la pointe de la course à l'intelligence artificielle contre les acteurs malveillants. Grâce à des méthodes innovantes de détection de la triche grâce à GenAI, surveillance à double caméra Grâce à la surveillance améliorée par l’IA, les entreprises de sécurité des tests peuvent contrer efficacement ces menaces. 

Ces méthodes offrent aux entreprises la tranquillité d'esprit de savoir que les programmes de formation sont fiables et que les certifications et licences sont authentiques. Elles favorisent ainsi le développement professionnel de leurs employés et leur permettent d'exceller dans de nouveaux postes. 

Bien entendu, la nature de l'IA implique que les menaces pesant sur la sécurité des tests sont dynamiques et en constante évolution. Par conséquent, à mesure que GenAI s'améliore et pose de nouvelles menaces pour l'intégrité des tests, il est crucial que les entreprises de sécurité continuent d'investir dans son exploitation afin de développer et d'affiner des stratégies de sécurité innovantes et multicouches.

Comme pour toute nouvelle technologie, l'IA sera utilisée à bon escient comme à mauvais escient. Mais en exploitant cette technologie à bon escient, nous pouvons garantir la fiabilité et la pertinence des certifications, et préserver la confiance dans les professionnels et leurs compétences. L'avenir de la sécurité des examens ne se résume pas à rester à la pointe, mais à garder une longueur d'avance. 

Leslie Thomas, Ph.D - CPO à KrytérionForte de plus de deux décennies d'expérience dans le secteur des tests, son rôle de directrice psychométrique chez Kryterion lui permet de concevoir des programmes d'accréditation qui atteignent les objectifs commerciaux tout en améliorant la vie des personnes qui les obtiennent. Son expérience chez Kryterion lui a permis d'acquérir une expérience concrète du développement de solutions multicouches pour contrer les menaces liées à l'IA.