Connect with us

È l’Intelligenza Artificiale Generativa una Benedizione o una Maledizione? Affrontare le Minacce AI nella Sicurezza degli Esami

Leader di pensiero

È l’Intelligenza Artificiale Generativa una Benedizione o una Maledizione? Affrontare le Minacce AI nella Sicurezza degli Esami

mm

Mentre gli spostamenti tecnologici ed economici dell’era digitale scuotono drasticamente le richieste della forza lavoro globale, il miglioramento e l’aggiornamento delle competenze non sono mai stati più critici. Di conseguenza, la necessità di una certificazione affidabile di nuove competenze cresce.

Data l’importanza in rapida espansione della certificazione e dei test di licenza in tutto il mondo, si è verificata naturalmente un’ondata di servizi progettati per aiutare i candidati a imbrogliare le procedure di testing. Questi metodi dupliciti non solo rappresentano una minaccia per l’integrità del mercato delle competenze, ma possono anche rappresentare rischi per la sicurezza umana; alcuni test di licenza sono relativi a competenze pratiche importanti come la guida o l’operazione di macchinari pesanti.

Dopo che le aziende hanno iniziato a rendersi conto dell’imbroglio convenzionale, o analogico, che utilizza proxy umani reali, hanno introdotto misure per prevenirlo – per gli esami online, i candidati sono stati invitati a tenere le loro telecamere accese mentre svolgevano il test. Ma ora, la tecnologia deepfake (cioè audio e video iperrealistici che sono spesso indistinguibili dalla vita reale) rappresenta una minaccia nuova per la sicurezza del test. Gli strumenti facilmente disponibili online utilizzano GenAI per aiutare i candidati a farla franca con l’uso di un proxy umano per sostenere il test al loro posto.

Manipolando il video, questi strumenti possono ingannare le aziende facendogli credere che un candidato stia sostenendo l’esame quando, in realtà, qualcun altro è dietro lo schermo (cioè, il test del proxy). I servizi popolari consentono agli utenti di scambiare il proprio volto con quello di qualcun altro da una webcam. La disponibilità di questi strumenti mina l’integrità della certificazione del test, anche quando vengono utilizzate le telecamere.

Altre forme di GenAI, nonché deepfakes, rappresentano una minaccia per la sicurezza del test. I Large Language Models (LLM) sono al centro di una corsa tecnologica globale, con giganti del tech come Apple, Microsoft, Google e Amazon, nonché rivali cinesi come DeepSeek, che puntano molto su di loro.

Molti di questi modelli hanno fatto notizia per la loro capacità di superare esami prestigiosi e ad alto rischio. Come per i deepfakes, gli attori malintenzionati hanno utilizzato LLM per sfruttare le debolezze nelle norme di sicurezza dei test tradizionali.

Alcune aziende hanno iniziato a offrire estensioni del browser che avviano assistenti AI, che sono difficili da rilevare, consentendo loro di accedere alle risposte ai test ad alto rischio. Usi meno sofisticati della tecnologia rappresentano ancora minacce, tra cui candidati che non vengono rilevati utilizzando app AI sui loro telefoni mentre svolgono gli esami.

Tuttavia, nuove procedure di sicurezza del test possono offrire modi per garantire l’integrità degli esami contro questi metodi.

Come Mitigare i Rischi mentre si Raccolgono i Benefici dell’Intelligenza Artificiale Generativa

Nonostante le numerose e rapidamente evolventi applicazioni di GenAI per imbrogliare nei test, c’è una corsa parallela in corso nell’industria della sicurezza del test.

La stessa tecnologia che minaccia il testing può anche essere utilizzata per proteggere l’integrità degli esami e fornire maggiori garanzie alle aziende che i candidati che assumono sono qualificati per il lavoro. A causa delle minacce costantemente in evoluzione, le soluzioni devono essere creative e adottare un approccio multilivello.

Un modo innovativo per ridurre le minacce poste da GenAI è il proctoring con doppia telecamera. Questa tecnica consiste nell’utilizzare il dispositivo mobile del candidato come seconda telecamera, fornendo un secondo feed video per rilevare l’imbroglio.

Con una visione più completa dell’ambiente di testing del candidato, i proctor possono rilevare meglio l’uso di più monitor o dispositivi esterni che potrebbero essere nascosti al di fuori della vista della webcam tipica.

Può anche rendere più facile rilevare l’uso di deepfakes per mascherare il test del proxy, poiché il software si basa sullo scambio di volti; una visione dell’intero corpo può rivelare discrepanze tra il deepfake e la persona che svolge l’esame.

I suggerimenti sottili – come le discordanze nella luce o nella geometria del volto – diventano più evidenti quando vengono confrontati attraverso due feed video separati. Ciò rende più facile rilevare i deepfakes, che sono generalmente rappresentazioni bidimensionali piatte dei volti.

Il vantaggio aggiuntivo del proctoring con doppia telecamera è che effettivamente lega il telefono del candidato, quindi non può essere utilizzato per imbrogliare. Il proctoring con doppia telecamera è ulteriormente migliorato dall’uso dell’AI, che migliora la rilevazione dell’imbroglio nel feed video live.

L’AI fornisce efficacemente un ‘secondo paio di occhi’ che può costantemente concentrarsi sul video live. Se l’AI rileva un’attività anomala nel feed del candidato, emette un allarme a un proctor umano, che può quindi verificare se ci sia stata una violazione delle norme di testing. Questo ulteriore livello di controllo fornisce una maggiore sicurezza e consente di monitorare migliaia di candidati con ulteriori protezioni di sicurezza.

È l’Intelligenza Artificiale Generativa una Benedizione o una Maledizione?

Mentre la rivoluzione dell’aggiornamento e del miglioramento delle competenze procede, non è mai stato più importante proteggere i test dalle nuove metodologie di imbroglio. Dai deepfakes che mascherano i proxy di testing all’uso di LLM per fornire risposte alle domande del test, le minacce sono reali e accessibili. Ma anche le soluzioni.

Fortunatamente, mentre GenAI continua ad avanzare, i servizi di sicurezza del test stanno affrontando la sfida, restando all’avanguardia di una corsa agli armamenti AI contro gli attori malintenzionati. Utilizzando modi innovativi per rilevare l’imbroglio utilizzando GenAI, dal proctoring con doppia telecamera al monitoraggio migliorato dall’AI, i servizi di sicurezza del test possono efficacemente contrastare queste minacce.

Questi metodi forniscono alle aziende la tranquillità che i programmi di formazione sono affidabili e che le certificazioni e le licenze sono veritiere. Facendo ciò, possono favorire la crescita professionale dei loro dipendenti e consentire loro di eccellere in nuove posizioni.

Naturalmente, la natura dell’AI significa che le minacce alla sicurezza del test sono dinamiche e in continua evoluzione. Pertanto, mentre GenAI migliora e rappresenta nuove minacce per l’integrità del test, è cruciale che i servizi di sicurezza continuino a investire nell’utilizzo di essa per sviluppare e raffinare strategie di sicurezza innovative e multilivello.

Come per ogni nuova tecnologia, le persone cercheranno di utilizzare l’AI per scopi sia buoni che cattivi. Ma utilizzando la tecnologia per il bene, possiamo garantire che le certificazioni rimangano affidabili e significative e che la fiducia nella forza lavoro e nelle sue capacità rimanga forte. Il futuro della sicurezza degli esami non è solo una questione di tenere il passo – è una questione di stare un passo avanti.

Leslie Thomas, Ph.D - CPO at Kryterion; Con oltre due decenni di esperienza nel settore dei test, il suo ruolo di Chief Psychometric Officer presso Kryterion le consente di progettare programmi di credentialing che raggiungono gli obiettivi aziendali migliorando la vita di coloro che ottengono la credenziale. Il lavoro di Leslie presso Kryterion le ha dato una prima esperienza nello sviluppo di soluzioni multilivello per contrastare le minacce correlate all'AI.