Myslitelé
Je Generative AI požehnáním nebo prokletím? Zvládání hrozeb AI v bezpečnostních testech

Jak technické a ekonomické posuny digitální éry dramaticky otřásají požadavky na globální pracovní sílu, nikdy nebylo důležitější než nyní zvyšovat a rozšiřovat dovednosti. V důsledku toho také roste potřeba spolehlivého osvědčení nových dovedností.
Vzhledem k rychle se rozšiřujícímu významu certifikací a licenčních testů po celém světě, přirozeně nastal vlna služeb zaměřených na pomoc kandidátům, kteří chtějí podvádět při testovacích procedurách. Tyto duplicitní metody nepředstavují hrozbu pouze pro integritu trhu dovedností, ale mohou také představovat rizika pro lidskou bezpečnost; některé licenční testy se týkají důležitých praktických dovedností, jako je řízení vozidel nebo obsluha těžké techniky.
Počínaje tím, kdy firmy začaly odhalovat konvenční, nebo analogové, podvádění pomocí skutečných lidských zástupců, zavedly opatření, aby tomu zabránily – pro online testy, kandidáti byli požádáni, aby během testu udržovali své kamery zapnuté. Ale nyní technologie deepfake (tj. hyperrealistické audio a video, které je často nerozlišitelné od skutečného života) představuje novou hrozbu pro bezpečnost testů. Snadno dostupné online nástroje využívají GenAI, aby pomohly kandidátům uniknout tomu, že někdo jiný absolvuje test za ně.
Manipulací videa mohou tyto nástroje oklamat firmy, aby si myslely, že kandidát absolvuje test, zatímco ve skutečnosti někdo jiný je za obrazovkou (tj. proxy testování). Populární služby umožňují uživatelům vyměnit své tváře za někoho jiného z webové kamery. Dostupnost těchto nástrojů podkopává integritu certifikačních testů, i když jsou použity kamery.
Další formy GenAI, stejně jako deepfakes, představují hrozbu pro bezpečnost testů. Large Language Models (LLM) jsou v centru globální technologické soutěže, ve které technologičtí giganti jako Apple, Microsoft, Google a Amazon, stejně jako čínští rivalové jako DeepSeek, dělají velké sázky.
Mnoho z těchto modelů se dostalo do zpráv pro svou schopnost absolvovat prestižní, vysoce rizikové testy. Stejně jako u deepfakes, zlí aktéři využili LLM k využití slabých stránek tradičních bezpečnostních norem testů.
Některé společnosti začaly nabízet prohlížečové rozšíření, které spouští AI asistenty, které jsou obtížně detekovatelné, a umožňují jim získat přístup k odpovědím na vysoce rizikové testy. Méně sofistikované použití technologie stále představuje hrozby, včetně kandidátů, kteří nejsou detekováni při používání AI aplikací na svých telefonech během testů.
Nové postupy zabezpečení testů však mohou nabídnout způsoby, jak zajistit integritu testů proti těmto metodám.
Jak snížit rizika a zároveň využívat výhody Generative AI
Navzdory mnoha a rychle se vyvíjejícím aplikacím GenAI pro podvádění při testech, probíhá paralelní závod v odvětví testovací bezpečnosti.
Stejná technologie, která ohrožuje testování, může být také použita k ochraně integrity testů a poskytování zvýšených záruk firmám, že kandidáti, které najmou, jsou kvalifikovaní pro práci. Vzhledem k neustále se měnícím hrozbám, musí řešení být kreativní a využívat vícestupňový přístup.
Jedním inovativním způsobem, jak snížit hrozby, které představuje GenAI, je dvojitá kamera pro sledování. Tato technika zahrnuje použití mobilního zařízení kandidáta jako druhé kamery, poskytující druhý video feed pro detekci podvádění.
S komplexnějším pohledem na testovací prostředí kandidáta, mohou proktoři lépe detekovat použití více monitorů nebo externích zařízení, která by mohla být skryta mimo typický pohled webové kamery.
Může to také usnadnit detekci použití deepfakes k maskování proxy testování, protože software závisí na výměně tváří; pohled na celé tělo může odhalit nesrovnalosti mezi deepfake a osobou, která sedí u testu.
Jemné signály – jako nesrovnalosti v osvětlení nebo geometrii obličeje – se stávají zřetelnějšími, když jsou porovnány napříč dvěma samostatnými video feedy. To usnadňuje detekci deepfakes, které jsou obecně ploché, dvourozměrné reprezentace obličeje.
Přidanou výhodou dvojitých kamer pro sledování je, že efektivně váže kandidátův telefon, takže nemůže být použit pro podvádění. Dvojitá kamera pro sledování je ještě dále vylepšena použitím AI, které zlepšuje detekci podvádění na živém video feedu.
AI účinně poskytuje „druhý pár očí“, který může neustále sledovat živě streamované video. Pokud AI detekuje neobvyklou aktivitu na feedu kandidáta, vydá upozornění lidskému proktorovi, který může poté ověřit, zda došlo k porušení testovacích předpisů. Tento další vrstva dohledu poskytuje další bezpečnost a umožňuje sledovat tisíce kandidátů s dodatečnými bezpečnostními ochranami.
Je Generative AI požehnáním nebo prokletím?
Jak revoluce zvyšování a rozšiřování dovedností postupuje, nikdy nebylo důležitější zabezpečit testy proti novým metodám podvádění. Od deepfakes, které maskují proxy testování, až po použití LLM pro poskytování odpovědí na testové otázky, hrozby jsou reálné a dostupné. Ale tak jsou i řešení.
Naštěstí, jak GenAI pokračuje ve vývoji, služby testovací bezpečnosti splňují výzvu, zůstávají na špici AI závodů proti zlým aktérům. Používáním inovativních způsobů detekce podvádění pomocí GenAI, od dvojitých kamer pro sledování po AI vylepšené monitorování, mohou služby testovací bezpečnosti účinně proti těmto hrozbám.
Tyto metody poskytují firmám jistotu, že jejich programy jsou spolehlivé a že certifikáty a licence jsou pravé. Tímto způsobem mohou podporovat profesní růst svých zaměstnanců a umožnit jim vyniknout v nových pozicích.
Samozřejmě, povaha AI znamená, že hrozby pro bezpečnost testů jsou dynamické a neustále se vyvíjející. Proto je důležité, aby bezpečnostní firmy pokračovaly v investicích do využití AI pro vývoj a zdokonalení inovativních, vícestupňových bezpečnostních strategií.
Stejně jako u každé nové technologie, lidé se budou snažit využívat AI pro dobré i zlé účely. Ale využíváním technologie pro dobré účely, můžeme zajistit, aby certifikáty zůstaly spolehlivé a smysluplné a aby důvěra v pracovní sílu a její schopnosti zůstala silná. Budoucnost bezpečnostních testů není jen o tom, aby zůstala v kroků – je o tom, aby zůstala před nimi.












