Kontakt z nami

Artificial Intelligence

Zwodnicza sztuczna inteligencja: wykorzystywanie modeli generatywnych w schematach przestępczych

mm

Opublikowany

 on

Odkryj, jak generatywna sztuczna inteligencja, w tym modele takie jak GPT-3 i DALL-E, jest wykorzystywana przez cyberprzestępców do wyłudzania informacji, oszustw i deepfakes

generatywna sztuczna inteligencja, podzbiór Artificial Intelligence, szybko zyskał na znaczeniu ze względu na niezwykłą zdolność do generowania różnych form treści, w tym tekstu podobnego do ludzkiego, realistycznych obrazów i dźwięku, z ogromnych zbiorów danych. Modele takie jak GPT-3, DALL-E, Generatywne sieci przeciwne (GAN) wykazali się w tym zakresie wyjątkowymi zdolnościami.

A Raport Deloitte podkreśla dwoisty charakter generatywnej sztucznej inteligencji i podkreśla potrzebę zachowania czujności wobec zwodniczej sztucznej inteligencji. Chociaż postępy w zakresie sztucznej inteligencji pomagają w zapobieganiu przestępczości, wzmacniają również pozycję złośliwych podmiotów. Pomimo legalnych zastosowań te potężne narzędzia są coraz częściej wykorzystywane przez cyberprzestępców, oszustów i podmioty powiązane z państwem, co prowadzi do wzrostu liczby złożonych i zwodniczych schematów.

Powstanie generatywnej sztucznej inteligencji w działalności przestępczej

Rozwój generatywnej sztucznej inteligencji doprowadził do wzrostu liczby oszukańczych działań mających wpływ zarówno na cyberprzestrzeń, jak i na życie codzienne. phishing, technika nakłaniania osób do ujawnienia poufnych informacji, wykorzystuje teraz generatywną sztuczną inteligencję, aby wiadomości e-mail phishingowe były wysoce przekonujące. W miarę jak ChatGPT staje się coraz popularniejszy, rośnie liczba e-maili phishingowych, a przestępcy wykorzystują je do tworzenia spersonalizowanych wiadomości, które wyglądają jak legalna komunikacja.

Te e-maile, takie jak fałszywe powiadomienia bankowe lub kuszące oferty, wykorzystują psychologię człowieka, aby nakłonić odbiorców do ujawnienia wrażliwych danych. Chociaż OpenAI zabrania nielegalnego wykorzystywania swoich modeli, egzekwowanie tego nie jest łatwe. Niewinne podpowiedzi mogą łatwo przekształcić się w złośliwe schematy, wymagające zarówno od weryfikatorów, jak i zautomatyzowanych systemów, wykrywania nadużyć i zapobiegania im.

Podobnie wzrosła liczba oszustw finansowych wraz z postępem w dziedzinie sztucznej inteligencji. Generatywna sztuczna inteligencja napędza oszustwa, tworząc treści, które zwodzą inwestorów i manipulują nastrojami rynkowymi. Wyobraź sobie, że spotykasz się z chatbot, pozornie ludzki, ale zaprojektowany wyłącznie do oszustwa. Generacyjna sztuczna inteligencja napędza te boty, angażując użytkowników w pozornie autentyczne rozmowy, jednocześnie wydobywając poufne informacje. Ulepszają się także modele generatywne ataki socjotechniczne poprzez tworzenie spersonalizowanych wiadomości, które wykorzystują zaufanie, empatię i pilność. Ofiary padają ofiarą próśb o pieniądze, poufne dane lub dane uwierzytelniające.

Doxxing, które wiąże się z ujawnianiem danych osobowych poszczególnych osób, to kolejny obszar, w którym generatywna sztuczna inteligencja pomaga przestępcom. Niezależnie od tego, czy chodzi o demaskowanie anonimowych osób w Internecie, czy ujawnianie prywatnych danych, sztuczna inteligencja wzmacnia wpływ, prowadząc do konsekwencji w świecie rzeczywistym, takich jak kradzież tożsamości i nękanie.

A potem są deepfakes, realistyczne filmy, klipy audio lub obrazy generowane przez sztuczną inteligencję. Te cyfrowe sobowtóry zamazują rzeczywistość, stwarzając ryzyko – od manipulacji politycznych po zabójstwo postaci.

Godne uwagi incydenty związane z deepfake'ami o krytycznych skutkach

Niewłaściwe wykorzystanie generatywnej sztucznej inteligencji doprowadziło do szeregu niezwykłych incydentów, które uwypukliły głębokie ryzyko i wyzwania, jakie stwarza ta technologia, gdy wpadnie ona w niepowołane ręce. W szczególności technologia Deepfake zaciera granice między rzeczywistością a fikcją. W wyniku połączenia GAN i twórczej wrogości, deepfakes łączą elementy rzeczywiste i sfabrykowane. Sieci GAN składają się z dwóch sieci neuronowe: the generator i dyskryminator. Generator tworzy coraz bardziej realistyczne treści, takie jak twarze, podczas gdy dyskryminator próbuje wykryć podróbki.

Miały już miejsce godne uwagi incydenty związane z deepfakes. Na przykład, dessa wykorzystał model sztucznej inteligencji do stworzenia przekonującego klona głosu Joe Rogana, demonstrując zdolność sztucznej inteligencji do tworzenia realistycznych fałszywych głosów. Deepfake wywarły również znaczący wpływ na politykę, co widać na różnych przykładach. Na przykład: automatyczne połączenie podszywanie się pod prezydenta USA Joe Bidena wprowadziło w błąd wyborców w New Hampshire Nagrania audio generowane przez sztuczną inteligencję na Słowacji podszywał się pod kandydata liberalnego, aby wpłynąć na wynik wyborów. Zgłoszono kilka podobnych incydentów mających wpływ na politykę wielu krajów.

Oszustwa finansowe również wykorzystują deepfakes. A brytyjska inżynieria firma o nazwie Arup padła ofiarą 20-milionowego oszustwa typu deepfake, w ramach którego pracownik finansowy został oszukany i przekazał środki podczas rozmowy wideo z oszustami, którzy używali głosów i obrazów generowanych przez sztuczną inteligencję do podszywania się pod kierownictwo firmy. Podkreśla to potencjał sztucznej inteligencji w zakresie oszustw finansowych.

Cyberprzestępcy w coraz większym stopniu wykorzystują narzędzia generatywnej sztucznej inteligencji, takie jak RobakGPT i oszustwoGPT w celu wzmocnienia swoich ataków, tworząc poważne zagrożenie dla cyberbezpieczeństwa. RobakGPT, oparty na modelu GPT-J, ułatwia szkodliwe działania bez ograniczeń etycznych. Badacze z SlashNext wykorzystali go do stworzenia wysoce przekonującego e-maila zawierającego fałszywą fakturę. FraudGPT krążący w kanałach Telegramu jest przeznaczony do złożonych ataków i może generować złośliwy kod, tworzyć przekonujące strony phishingowe i identyfikować luki w zabezpieczeniach systemu. Rozwój tych narzędzi uwypukla rosnące wyrafinowanie zagrożeń cybernetycznych i pilną potrzebę wprowadzenia wzmocnionych środków bezpieczeństwa.

Implikacje prawne i etyczne

Prawne i etyczne konsekwencje oszustwa opartego na sztucznej inteligencji stanowią ogromne zadanie w obliczu szybkiego postępu w modelach generatywnych. Obecnie sztuczna inteligencja działa w szarej strefie regulacyjnej, a decydenci potrzebują pomocy, aby dotrzymać kroku rozwojowi technologicznemu. Pilnie potrzebne są solidne ramy, aby ograniczyć nadużycia i chronić społeczeństwo przed oszustwami i nieuczciwymi działaniami opartymi na sztucznej inteligencji.

Co więcej, twórcy sztucznej inteligencji ponoszą odpowiedzialność etyczną. Przejrzystość, ujawnianie informacji i przestrzeganie wytycznych to istotne aspekty odpowiedzialnego rozwoju sztucznej inteligencji. Programiści muszą przewidzieć potencjalne nadużycia i opracować środki dla swoich modeli sztucznej inteligencji, aby skutecznie ograniczać ryzyko.

Aby sprostać wyzwaniom związanym z oszustwami opartymi na sztucznej inteligencji, ważne jest utrzymanie równowagi między innowacjami a bezpieczeństwem. Nadmierna regulacja może zahamować postęp, podczas gdy luźny nadzór powoduje chaos. Dlatego regulacje promujące innowacje bez uszczerbku dla bezpieczeństwa są niezbędne dla zrównoważonego rozwoju.

Ponadto modele sztucznej inteligencji należy projektować z myślą o bezpieczeństwie i etyce. Włączenie takich funkcji, jak wykrywanie stronniczości, testowanie odporności i szkolenie kontradyktoryjne może zwiększyć odporność na złośliwe wykorzystanie. Jest to szczególnie ważne, biorąc pod uwagę rosnące wyrafinowanie oszustw opartych na sztucznej inteligencji, co podkreśla potrzebę etycznego przewidywania i elastyczności regulacyjnej, aby zabezpieczyć się przed zwodniczym potencjałem generatywnych modeli sztucznej inteligencji.

Strategie łagodzące

Strategie łagodzące mające na celu zajęcie się oszukańczym wykorzystaniem modeli generatywnych opartych na sztucznej inteligencji wymagają wieloaspektowego podejścia obejmującego ulepszone środki bezpieczeństwa i współpracę między zainteresowanymi stronami. Organizacje muszą zatrudniać weryfikatorów, aby oceniali treści generowane przez sztuczną inteligencję, wykorzystując swoją wiedzę specjalistyczną do identyfikowania wzorców nadużyć i udoskonalania modeli. Zautomatyzowane systemy wyposażone w zaawansowane algorytmy potrafią skanować w poszukiwaniu sygnałów ostrzegawczych związanych z oszustwami, złośliwymi działaniami lub dezinformacją, służąc jako systemy wczesnego ostrzegania przed oszukańczymi działaniami.

Co więcej, współpraca między firmami technologicznymi, organami ścigania i decydentami ma kluczowe znaczenie w wykrywaniu oszustw opartych na sztucznej inteligencji i zapobieganiu im. Giganci technologiczni muszą dzielić się spostrzeżeniami, najlepszymi praktykami i informacjami o zagrożeniach, podczas gdy organy ścigania ściśle współpracują z ekspertami w dziedzinie sztucznej inteligencji, aby wyprzedzić przestępców. Decydenci muszą współpracować z firmami technologicznymi, badaczami i społeczeństwem obywatelskim, aby stworzyć skuteczne regulacje podkreślające znaczenie współpracy międzynarodowej w zwalczaniu oszustw opartych na sztucznej inteligencji.

Patrząc w przyszłość, przyszłość generatywnej sztucznej inteligencji i zapobiegania przestępczości charakteryzuje się zarówno wyzwaniami, jak i możliwościami. W miarę ewolucji generatywnej sztucznej inteligencji, wraz z postępem w dziedzinie taktyki przestępczej, ewoluować będą także taktyki przestępcze kwantowa sztuczna inteligencja, przetwarzanie brzegowe i zdecentralizowane modele kształtujące tę dziedzinę. Dlatego edukacja na temat etycznego rozwoju sztucznej inteligencji staje się coraz bardziej fundamentalna, a szkoły i uniwersytety wzywa się do wprowadzenia obowiązkowych kursów etyki dla praktyków sztucznej inteligencji.

Bottom Line

Generacyjna sztuczna inteligencja niesie ze sobą zarówno ogromne korzyści, jak i znaczne ryzyko, co podkreśla pilną potrzebę solidnych ram regulacyjnych i etycznego rozwoju sztucznej inteligencji. Ponieważ cyberprzestępcy wykorzystują zaawansowane narzędzia, niezbędne są skuteczne strategie łagodzenia skutków, takie jak nadzór człowieka, zaawansowane algorytmy wykrywania i współpraca międzynarodowa.

Równoważąc innowacje z bezpieczeństwem, promując przejrzystość i projektując modele sztucznej inteligencji z wbudowanymi zabezpieczeniami, możemy skutecznie walczyć z rosnącym zagrożeniem oszustwami opartymi na sztucznej inteligencji i zapewnić bezpieczniejsze środowisko technologiczne na przyszłość.

Doktor Assad Abbas, a Profesor zwyczajny na Uniwersytecie COMSATS w Islamabadzie w Pakistanie uzyskał stopień doktora. z Uniwersytetu Stanowego Dakoty Północnej w USA. Jego badania koncentrują się na zaawansowanych technologiach, w tym przetwarzaniu w chmurze, mgle i przetwarzaniu brzegowym, analizie dużych zbiorów danych i sztucznej inteligencji. Dr Abbas wniósł znaczący wkład w postaci publikacji w renomowanych czasopismach naukowych i na konferencjach.