Connect with us

¿Es la IA generativa una bendición o una maldición? Abordar las amenazas de la IA en la seguridad de los exámenes

Líderes de opinión

¿Es la IA generativa una bendición o una maldición? Abordar las amenazas de la IA en la seguridad de los exámenes

mm

A medida que los cambios tecnológicos y económicos de la era digital sacuden dramáticamente las demandas de la fuerza laboral global, nunca ha sido más crítico el desarrollo de habilidades y la recualificación.

Como resultado, también crece la necesidad de una certificación confiable de las nuevas habilidades.

Dada la importancia cada vez mayor de los exámenes de certificación y licencia en todo el mundo, ha surgido naturalmente una ola de servicios diseñados para ayudar a los candidatos a engañar en los procedimientos de prueba.

Estos métodos engañosos no solo suponen una amenaza para la integridad del mercado de habilidades, sino que también pueden suponer riesgos para la seguridad humana; algunas pruebas de licencia se relacionan con habilidades prácticas importantes como conducir o operar maquinaria pesada.

Después de que las empresas comenzaron a darse cuenta de los métodos de engaño convencionales o analógicos que utilizaban proxies humanos reales, introdujeron medidas para prevenir esto: para los exámenes en línea, a los candidatos se les pidió que mantuvieran sus cámaras encendidas mientras realizaban la prueba.

Pero ahora, la tecnología de deepfake (es decir, audio y video hiperrealistas que a menudo son indistinguibles de la vida real) supone una nueva amenaza para la seguridad de las pruebas.

Las herramientas disponibles en línea utilizan GenAI para ayudar a los candidatos a escapar de tener un proxy humano que realice la prueba por ellos.

Al manipular el video, estas herramientas pueden engañar a las empresas para que crean que un candidato está realizando el examen cuando, en realidad, alguien más está detrás de la pantalla (es decir, toma de prueba de proxy).

Los servicios populares permiten a los usuarios intercambiar sus caras por las de otra persona desde una cámara web.

La accesibilidad de estas herramientas socava la integridad de las pruebas de certificación, incluso cuando se utilizan cámaras.

Otras formas de GenAI, así como deepfakes, suponen una amenaza para la seguridad de las pruebas.

Los Modelos de Lenguaje Grande (LLM) están en el corazón de una carrera tecnológica global, con gigantes tecnológicos como Apple, Microsoft, Google y Amazon, así como rivales chinos como DeepSeek, que apuestan fuerte por ellos.

Muchos de estos modelos han hecho titulares por su capacidad para aprobar exámenes prestigiosos y de alto riesgo.

Al igual que con los deepfakes, los actores maliciosos han utilizado LLM para explotar las debilidades en las normas de seguridad de las pruebas tradicionales.

Algunas empresas han comenzado a ofrecer extensiones de navegador que lanzan asistentes de IA, que son difíciles de detectar, lo que les permite acceder a las respuestas de las pruebas de alto riesgo.

Usos menos sofisticados de la tecnología aún suponen amenazas, incluyendo a los candidatos que no son detectados utilizando aplicaciones de IA en sus teléfonos mientras realizan exámenes.

Sin embargo, los nuevos procedimientos de seguridad de las pruebas pueden ofrecer formas de garantizar la integridad de las pruebas contra estos métodos.

¿Cómo mitigar los riesgos mientras se aprovechan los beneficios de la IA generativa

A pesar de las numerosas y rápidamente evolucionadas aplicaciones de GenAI para hacer trampa en las pruebas, hay una carrera paralela en curso en la industria de la seguridad de las pruebas.

La misma tecnología que amenaza las pruebas también se puede utilizar para proteger la integridad de las pruebas y brindar garantías aumentadas a las empresas de que los candidatos que contratan están calificados para el trabajo.

Debido a que las amenazas cambian constantemente, las soluciones deben ser creativas y adoptar un enfoque multi-capas.

Una forma innovadora de reducir las amenazas que plantea GenAI es la supervisión con cámara dual.

Esta técnica consiste en utilizar el dispositivo móvil del candidato como una segunda cámara, proporcionando una segunda fuente de video para detectar el fraude.

Con una visión más completa del entorno de prueba del candidato, los supervisores pueden detectar mejor el uso de varios monitores o dispositivos externos que podrían estar ocultos fuera de la vista habitual de la cámara web.

También puede facilitar la detección del uso de deepfakes para disfrazar la toma de pruebas de proxy, ya que el software depende del intercambio de caras; una vista del cuerpo completo puede revelar discrepancias entre el deepfake y la persona que realiza la prueba.

Las pistas sutiles, como las discrepancias en la iluminación o la geometría facial, se vuelven más aparentes cuando se comparan en dos flujos de video separados.

Esto hace que sea más fácil detectar los deepfakes, que son generalmente representaciones planas y bidimensionales de caras.

El beneficio adicional de la supervisión con cámara dual es que efectivamente ata el teléfono del candidato, lo que significa que no se puede utilizar para hacer trampa.

La supervisión con cámara dual se ve aún más mejorada por el uso de IA, que mejora la detección de fraude en el flujo de video en vivo.

La IA proporciona efectivamente un ‘segundo par de ojos’ que puede enfocarse constantemente en el video en vivo.

Si la IA detecta actividad anormal en el flujo de un candidato, emite una alerta a un supervisor humano, que puede verificar si ha habido una violación de las regulaciones de prueba.

Esta capa adicional de supervisión proporciona una mayor seguridad y permite que se monitoreen a miles de candidatos con protecciones de seguridad adicionales.

¿Es la IA generativa una bendición o una maldición?

A medida que la revolución de desarrollo de habilidades y recualificación avanza, nunca ha sido más importante garantizar las pruebas contra los nuevos métodos de fraude.

Desde los deepfakes que disfrazan a los proxies de toma de pruebas hasta el uso de LLM para proporcionar respuestas a las preguntas de las pruebas, las amenazas son reales y accesibles.

Pero también lo son las soluciones.

Afortunadamente, a medida que GenAI continúa avanzando, los servicios de seguridad de las pruebas están asumiendo el desafío, manteniéndose a la vanguardia de una carrera de armas de IA contra actores maliciosos.

Al emplear formas innovadoras de detectar el fraude utilizando GenAI, desde la supervisión con cámara dual hasta el monitoreo mejorado con IA, las empresas de seguridad de las pruebas pueden contrarrestar eficazmente estas amenazas.

Estos métodos brindan a las empresas la tranquilidad de que los programas de capacitación son confiables y que las certificaciones y licencias son verificables.

Al hacerlo, pueden fomentar el crecimiento profesional de sus empleados y permitirles destacar en nuevos puestos.

Por supuesto, la naturaleza de la IA significa que las amenazas a la seguridad de las pruebas son dinámicas y evolucionan constantemente.

Por lo tanto, a medida que GenAI mejora y plantea nuevas amenazas a la integridad de las pruebas, es crucial que las empresas de seguridad continúen invirtiendo en el aprovechamiento de la IA para desarrollar y perfeccionar estrategias de seguridad innovadoras y multi-capas.

Al igual que con cualquier nueva tecnología, las personas intentarán utilizar la IA para fines buenos y malos.

Pero al aprovechar la tecnología para el bien, podemos garantizar que las certificaciones sigan siendo confiables y significativas y que la confianza en la fuerza laboral y sus capacidades siga siendo fuerte.

El futuro de la seguridad de las pruebas no se trata solo de mantener el ritmo, sino de mantenerse por delante.

Leslie Thomas, Ph.D - CPO at Kryterion; Con más de dos décadas de experiencia en la industria de pruebas, su papel como Directora de Psicometría en Kryterion le permite diseñar programas de credenciales que logran objetivos comerciales mientras mejoran la vida de aquellos que obtienen la credencial. El trabajo de Leslie en Kryterion le ha dado experiencia de primera mano en el desarrollo de soluciones multi-capas para contrarrestar las amenazas relacionadas con la IA.