Connect with us

Czy sztuczna inteligencja generatywna jest błogosławieństwem, czy przekleństwem? Rozwiązywanie zagrożeń AI w bezpieczeństwie egzaminów

Liderzy opinii

Czy sztuczna inteligencja generatywna jest błogosławieństwem, czy przekleństwem? Rozwiązywanie zagrożeń AI w bezpieczeństwie egzaminów

mm

Wraz z dramatycznymi zmianami technologicznymi i ekonomicznymi ery cyfrowej, które wymagają od globalnej siły roboczej nowych umiejętności, niezwykle ważne jest ciągłe doskonalenie i rozwijanie nowych umiejętności. W związku z tym rośnie również zapotrzebowanie na niezawodne certyfikaty potwierdzające nowe umiejętności.

Biorąc pod uwagę szybko rosnące znaczenie certyfikatów i egzaminów licencyjnych na całym świecie, naturalnym zjawiskiem jest pojawienie się usług ułatwiających kandydatom oszukiwanie podczas procedur testowych. Te podwójne metody nie tylko zagrażają integralności rynku umiejętności, ale mogą również stanowić ryzyko dla bezpieczeństwa ludzi; niektóre egzaminy licencyjne dotyczą ważnych umiejętności praktycznych, takich jak prowadzenie samochodu lub obsługa ciężkich maszyn.

Po tym, jak firmy zaczęły się orientować w konwencjonalnych, czyli analogowych, metodach oszukiwania z użyciem prawdziwych osób, wprowadziły środki, aby temu przeciwdziałać – w przypadku egzaminów online kandydaci zaczęli być proszeni o włączenie kamery podczas egzaminu. Jednak teraz technologia deepfake (tj. hiperrealistyczny dźwięk i wideo, które często są nie do odróżnienia od rzeczywistości) stanowi nowe zagrożenie dla bezpieczeństwa testów. Dostępne w sieci narzędzia wykorzystują sztuczną inteligencję generatywną, aby pomóc kandydatom uniknąć wykrycia, gdy ktoś inny wykonuje test w ich imieniu.

Poprzez manipulowanie wideo, te narzędzia mogą oszukać firmy, sprawiając, że wydaje się, iż kandydat wykonuje egzamin, podczas gdy w rzeczywistości ktoś inny siedzi za ekranem (tj. wykonuje test za kandydata). Popularne usługi pozwalają użytkownikom zamienić swoje twarze na twarze innych osób z kamery internetowej. Dostępność tych narzędzi podważa integralność testów certyfikacyjnych, nawet gdy używa się kamer.

Inne formy sztucznej inteligencji generatywnej, a także deepfake, stanowią zagrożenie dla bezpieczeństwa testów. Deepfakes oraz duże modele językowe (LLM) są w centrum globalnego wyścigu technologicznego, w którym giganci technologiczni, tacy jak Apple, Microsoft, Google i Amazon, a także chińscy rywale, jak DeepSeek, stawiają na nie duże zakłady.

Wiele z tych modeli stało się głośnych ze względu na ich zdolność do zdawania prestiżowych, wysoko stawianych egzaminów. Podobnie jak w przypadku deepfakes, złe podmioty wykorzystują LLM do wykorzystywania słabości tradycyjnych norm bezpieczeństwa testów.

Niektóre firmy zaczęły oferować rozszerzenia przeglądarki, które uruchamiają asystentów AI, które są trudne do wykrycia, pozwalając im uzyskać dostęp do odpowiedzi na wysoko stawiane testy. Mniej zaawansowane zastosowania tej technologii wciąż stanowią zagrożenie, w tym kandydaci, którzy nie są wykrywani, używają aplikacji AI na swoich telefonach podczas egzaminów.

Jednak nowe procedury bezpieczeństwa testów mogą zapewnić sposoby, aby zapewnić integralność egzaminu przeciwko tym metodom.

Jak ograniczyć ryzyko, jednocześnie czerpiąc korzyści z sztucznej inteligencji generatywnej

Pomimo licznych i szybko ewoluujących zastosowań sztucznej inteligencji generatywnej do oszukiwania na testach, trwa równoległy wyścig w branży bezpieczeństwa testów.

Ta sama technologia, która zagraża testom, może być również wykorzystana do ochrony integralności egzaminów i zapewnienia firmom większej pewności, że kandydaci, których zatrudniają, są odpowiednio wykwalifikowani do pracy. Ze względu na ciągle zmieniające się zagrożenia, rozwiązania muszą być kreatywne i przyjmować wielowarstwową strategię.

Jednym z innowacyjnych sposobów redukowania zagrożeń stwarzanych przez sztuczną inteligencję generatywną jest nadzór z użyciem dwóch kamer. Ta technika polega na użyciu urządzenia mobilnego kandydata jako drugiej kamery, zapewniając drugi strumień wideo do wykrywania oszukiwania.

Z bardziej kompleksowym widokiem środowiska testowego kandydata, nadzorcy mogą lepiej wykrywać użycie wielu monitorów lub urządzeń zewnętrznych, które mogą być ukryte poza typowym widokiem kamery internetowej.

Może to również ułatwić wykrywanie użycia deepfakes do maskowania zastępczego wykonania testu, ponieważ oprogramowanie opiera się na zamianie twarzy; widok całego ciała może ujawnić niezgodności między deepfake a osobą, która wykonuje egzamin.

Delikatne sygnały – takie jak niezgodności w oświetleniu lub geometrii twarzy – stają się bardziej widoczne, gdy są porównywane na dwóch oddzielnych strumieniach wideo. Ułatwia to wykrywanie deepfakes, które są zwykle płaskimi, dwuwymiarowymi reprezentacjami twarzy.

Dodatkową zaletą nadzoru z użyciem dwóch kamer jest to, że skutecznie wiąże telefon kandydata, uniemożliwiając jego użycie do oszukiwania. Nadzór z użyciem dwóch kamer jest jeszcze bardziej wzmocniony przez użycie sztucznej inteligencji, która poprawia wykrywanie oszukiwania na żywo na strumieniu wideo.

Sztuczna inteligencja skutecznie zapewnia „drugą parę oczu”, która może stale skupiać się na transmisji wideo na żywo. Jeśli sztuczna inteligencja wykryje niezwykłą aktywność na kanale kandydata, wydaje alert do nadzorcy, który może potwierdzić, czy doszło do naruszenia przepisów testowych. Ten dodatkowy poziom nadzoru zapewnia dodatkowe bezpieczeństwo i pozwala monitorować tysiące kandydatów z dodatkowymi zabezpieczeniami.

Czy sztuczna inteligencja generatywna jest błogosławieństwem, czy przekleństwem?

Wraz z postępem rewolucji w zakresie podnoszenia kwalifikacji i przekwalifikowania, nigdy nie było ważniejsze, aby zabezpieczyć testy przed nowymi metodami oszukiwania. Od deepfakes maskujących zastępcze wykonanie testu po użycie dużych modeli językowych do udzielania odpowiedzi na pytania testowe, zagrożenia są realne i dostępne. Ale dostępne są również rozwiązania.

Na szczęście, w miarę jak sztuczna inteligencja generatywna będzie się dalej rozwijać, usługi bezpieczeństwa testów odpowiadają na wyzwanie, pozostając na szczycie wyścigu zbrojeń z użyciem sztucznej inteligencji przeciwko złym podmiotom. Poprzez zastosowanie innowacyjnych sposobów wykrywania oszukiwania z użyciem sztucznej inteligencji generatywnej, od nadzoru z użyciem dwóch kamer po monitorowanie wzmocnione sztuczną inteligencją, firmy bezpieczeństwa testów mogą skutecznie przeciwdziałać tym zagrożeniom.

Te metody zapewniają firmom pewność, że programy szkoleniowe są niezawodne i że certyfikaty oraz licencje są autentyczne. Dzięki temu mogą one wspierać rozwój zawodowy swoich pracowników i umożliwiać im osiąganie sukcesów na nowych stanowiskach.

Oczywiście, charakter sztucznej inteligencji oznacza, że zagrożenia dla bezpieczeństwa testów są dynamiczne i ciągle ewoluują. Dlatego też, w miarę jak sztuczna inteligencja generatywna będzie się udoskonalać i stwarzać nowe zagrożenia dla integralności testów, niezwykle ważne jest, aby firmy bezpieczeństwa inwestowały w wykorzystywanie jej do opracowywania i doskonalenia innowacyjnych, wielowarstwowych strategii bezpieczeństwa.

Jak w przypadku każdej nowej technologii, ludzie będą próbowali wykorzystywać ją do złych i dobrych celów. Ale poprzez wykorzystywanie technologii do celów dobrych, możemy zapewnić, że certyfikaty pozostaną niezawodne i mające znaczenie, oraz że zaufanie do siły roboczej i jej możliwości pozostanie silne. Przyszłość bezpieczeństwa egzaminów nie polega tylko na utrzymaniu tempa – polega na pozostawaniu na czele.

Leslie Thomas, Ph.D - CPO at Kryterion; Z ponad dwudziestoletnim doświadczeniem w branży testowej, jej rola jako Chief Psychometric Officer w Kryterion pozwala jej tworzyć programy certyfikacji, które osiągają cele biznesowe, poprawiając jednocześnie życie osób, które uzyskują certyfikat. Praca Leslie w Kryterion dała jej bezpośrednią wiedzę na temat tworzenia wielowarstwowych rozwiązań w celu przeciwdziałania zagrożeniom związanym z AI.