Liderzy opinii
Prawdzice Niebezpieczeństwo Modeli Językowych: Oszustwa Napędzane przez Sztuczną Inteligencję
Wyobraź sobie tę sytuację: Jesteś w pracy, całkowicie skupiony na pilnym terminie, kiedy otrzymujesz telefon od numeru, który wydaje się być numerem twojej matki. Głos na drugim końcu jest niezwykle podobny do jej głosu, spokojny i kochający, ale z niezwykłym nalotem pilności. Mówi ci, że wpadła w poważne kłopoty podczas wakacji w Paryżu i potrzebuje twojej natychmiastowej pomocy finansowej, aby wszystko wyjaśnić. Wiesz, że jest w Paryżu, a szczegóły, które podaje, aż do nazwy jej hotelu, sprawiają, że telefon staje się jeszcze bardziej przekonywujący. Bez wahania przekazujesz pieniądze, aby później dowiedzieć się, że twoja matka nie zrobiła tego telefonu; był to zaawansowany system AI, który idealnie naśladuje jej głos i fabrykuje szczegółową sytuację. Dreszcz przebiega po twoim kręgosłupie, gdy zdajesz sobie sprawę, co właśnie się wydarzyło.
Ten scenariusz, który kiedyś był czystą fikcją naukową, jest teraz wschodzącą rzeczywistością. Świt technologii AI, takich jak duże modele językowe (LLM), przyniósł niesamowite postępy. Jednak pojawia się znaczące zagrożenie: oszustwa napędzane przez sztuczną inteligencję. Potencjał dla wyrafinowanych oszustw napędzanych przez sztuczną inteligencję jest nowym zagrożeniem na horyzoncie postępu technologicznego. Chociaż oszustwa telefoniczne były problemem od wynalezienia telefonu, szerokie wdrożenie dużych modeli językowych (LLM) we wszystkie aspekty cyfrowej komunikacji znacznie podniosło stawki. Podczas gdy przyjmujemy potencjał AI, jest niezwykle ważne, abyśmy również wzmocnili nasze obrony przed tymi coraz bardziej wyrafinowanymi zagrożeniami.
Obecny Krajobraz Oszustw Telefonicznych
Przestępcy próbowali oszukać niewinnych osób, aby przekazały im pieniądze lub ujawniły wrażliwe informacje przez lata, ale pomimo powszechności oszustw telefonicznych, wiele z tych oszustw jest dość niewyrafinowanych, opierając się na ludzkich operatorach czytających scenariusze. Jednak nawet z tym ograniczeniem oszustwa telefoniczne nadal są lukratywnym przedsięwzięciem przestępczym.
Według amerykańskiej Komisji Handlu, w 2022 roku Amerykanie stracili ponad 8,8 miliarda dolarów na oszustwa, z których znacząca część przypada na oszustwa telefoniczne, co oznacza, że nawet w ich obecnej, mniej zaawansowanej formie, wiele z tych taktyk nadal działa na wrażliwe osoby. Co się stanie, gdy ewoluują?
Przyszłość Oszustw Napędzanych przez AI
Krajobraz oszustw telefonicznych jest gotowy do dramatycznej zmiany z nastaniem kilku kluczowych technologii:
Duże Modele Językowe (LLM)
Te systemy AI mogą generować tekst podobny do ludzkiego i angażować się w naturalne rozmowy. Podczas zastosowania do oszustw LLM mogą tworzyć bardzo przekonywujące i adaptacyjne scenariusze, co utrudnia potencjalnym ofiarom identyfikację oszustwa.
Retrieval-Augmented Generation (RAG)
Ta technologia pozwala systemom LLM na dostęp i wykorzystanie ogromnych ilości informacji w czasie rzeczywistym. Oszuści mogą zbudować profil osoby na podstawie jej publicznie dostępnych informacji, takich jak ich konta w mediach społecznościowych. Mogą również wykorzystywać techniki inżynierii społecznej na ich przyjaciołach i członkach rodziny, aby zebrać głębsze informacje. To da im dostęp do informacji, takich jak tożsamość celu, informacje o pracy lub nawet ostatnie działania. Mogą następnie wykorzystywać RAG, aby dostarczyć LLM kontekst potrzebny do tego, aby ich podejścia wydawały się niesamowicie spersonalizowane i uzasadnione.
Syntetyczna Generacja Audio
Platformy takie jak Resemble AI i Lyrebird są pionierami w tworzeniu wysoko realistycznych syntetycznych głosów AI. Te technologie są w stanie produkować spersonalizowane, ludzkie audio, które można wykorzystywać w różnych aplikacjach, od asystentów wirtualnych po automatyczne usługi klienta i tworzenie treści. Firmy takie jak ElevenLabs są w stanie posunąć granice dalej, umożliwiając użytkownikom tworzenie syntetycznych głosów, które mogą ściśle naśladować ich własne, pozwalając na nowy poziom personalizacji i zaangażowania w interakcjach cyfrowych.
Syntetyczna Generacja Wideo
Firmy takie jak Synthesia już demonstrują potencjał tworzenia realistycznej zawartości wideo z syntetycznymi awatarami AI. W nadchodzących latach ta technologia mogłaby pozwolić oszustom na udawanie przyjaciół lub członków rodziny lub tworzenie całkowicie fikcyjnych postaci dla połączeń wideo, wprowadzając wcześniej niewyobrażalny poziom realizmu fizycznego do oszustwa.
Syntetyczne Synchronizowanie Ruchu Warg
Startupy takie jak Sync Labs rozwijają zaawansowaną technologię synchronizowania ruchu warg, która może dopasować wygenerowane audio do nagrania wideo. Można ją wykorzystywać do tworzenia bardzo przekonywujących deepfake’ów historycznych postaci, polityków, celebrytów i praktycznie każdego innego, co dalej zacierając granicę między rzeczywistością a oszustwem.
Połączenie tych technologii maluje dość niepokojący obraz. Wyobraź sobie telefon oszustw, w którym AI może dostosowywać rozmowę w czasie rzeczywistym, uzbrojony w informacje osobiste o celu, i nawet przejść do połączenia wideo z osobą, której wargi poruszają się w idealnej synchronizacji z wygenerowanym głosem. Potencjał dla oszustwa jest naprawdę ogromny.
Potrzeba Zwiększonych Środków Bezpieczeństwa
Podczas gdy te oszustwa napędzane przez AI stają się bardziej zaawansowane, metody weryfikacji tożsamości i autentyczności będą musiały nadążać za postępem AI. Będą musiały nastąpić zarówno regulacyjne, jak i technologiczne postępy, aby utrzymać bezpieczeństwo świata online.
Poprawa Regulacji
Surowsze Prawa Ochrony Danych: Wprowadzenie surowszych praw ochrony danych ograniczyłoby ilość dostępnych informacji osobistych, które oszuści mogliby wykorzystać. Te prawa mogłyby obejmować surowsze wymagania dotyczące zbierania danych, ulepszone protokoły zgody użytkowników i surowsze kary za naruszenia danych.
Prywatne Chmury dla Najpotężniejszych Modeli AI: Regulacje mogą nakazywać, aby najpotężniejsze modele AI były hostowane na prywatnych, bezpiecznych infrastrukturach chmury zamiast być otwarcie dostępne. To ograniczyłoby dostęp do najbardziej zaawansowanych technologii, utrudniając nieuczciwym aktorom ich wykorzystanie do oszustw. (np. https://security.apple.com/blog/private-cloud-compute/)
Międzynarodowa Współpraca w Regulacjach AI: Biorąc pod uwagę globalny charakter technologii AI, międzynarodowa współpraca w standardach regulacyjnych mogłaby być korzystna. Utworzenie globalnego organu odpowiedzialnego za tworzenie i egzekwowanie międzynarodowych regulacji AI mogłoby pomóc w zwalczaniu przestępstw związanych z AI na granicach państw.
Kampanie Świadomości Publicznej: Rządy i organy regulacyjne powinny inwestować w kampanie świadomości publicznej, aby edukować obywateli o potencjalnych ryzykach oszustw AI i jak się przed nimi chronić. Świadomość jest kluczowym pierwszym krokiem w umożliwieniu jednostkom i organizacjom wdrożenia niezbędnych środków bezpieczeństwa.
Obecne regulacje AI są niewystarczające, aby zapobiec oszustwom, a wyzwanie przyszłych regulacji jest skomplikowane przez otwarty charakter wielu potężnych technologii. Ten otwarty charakter pozwala każdemu na dostęp i modyfikację tych technologii do własnych celów. W związku z tym, oprócz surowszych regulacji, potrzebne są postępy w technologiach bezpieczeństwa.
Wykrywanie Syntetycznych Danych
Wykrywanie syntetycznego audio: Podczas gdy oszuści wykorzystują AI, tak samo muszą robić nasze obrony. Firmy takie jak Pindrop rozwijają systemy napędzane przez AI, które mogą wykrywać syntetyczne audio w czasie rzeczywistym podczas połączeń telefonicznych. Ich technologia analizuje ponad 1300 cech audio połączenia, aby określić, czy pochodzi od prawdziwej osoby, czy zaawansowanego systemu AI.
Wykrywanie syntetycznego wideo: Wykrywanie syntetycznego wideo: Podobnie jak audio, tak i wideo mogą być manipulowane przez AI, stanowiąc znaczące zagrożenia w postaci deepfake’ów i innych syntetycznych treści wideo. Firmy takie jak Deepware są pionierami w rozwoju technologii do wykrywania syntetycznego wideo. Platforma Deepware wykorzystuje zaawansowane algorytmy uczenia maszynowego do analizy subtelnych nieścisłości w danych wideo, takich jak nienaturalne ruchy, nieregularne oświetlenie i anomalie pikseli, które często występują w treści generowanej przez AI. Poprzez identyfikację tych niezgodności, technologia Deepware może określić, czy wideo jest autentyczne, czy zostało zmodyfikowane, pomagając w ochronie osób i organizacji przed oszustwami i kampaniami dezinformacyjnymi opartymi na wideo.
Poprawa Metod Weryfikacji Tożsamości
Istnieją różne sposoby rozwijane w celu potwierdzenia tożsamości użytkownika, a jeden lub więcej z nich stanie się powszechny w nadchodzących latach, aby uczynić internet bezpieczniejszym.
Dwustopniowa weryfikacja dla rozmów na odległość: Dwustopniowa weryfikacja (2FA) pozostaje podstawowym składnikiem bezpiecznej komunikacji. Zgodnie z tą metodą, każde połączenie telefoniczne lub e-mail wyzwala wiadomość tekstową z unikalnym kodem weryfikacyjnym, podobnie jak w przypadku obecnych rejestracji e-mail. Chociaż 2FA jest skuteczna dla podstawowej autentykacji, jej ograniczenia oznaczają, że nie można na niej polegać we wszystkich kontekstach, co wymaga rozwoju bardziej zaawansowanych metod, aby zapewnić kompleksowe bezpieczeństwo internetu, które może działać w tle.
Weryfikacja oparta na zachowaniu z wielostopniową autentykacją: Poza weryfikacją tożsamości na początku połączenia, przyszłe systemy bezpieczeństwa mogą ciągle analizować zachowanie w trakcie interakcji. Firmy takie jak BioCatch wykorzystują biometryczne dane behawioralne do tworzenia profili użytkowników na podstawie tego, jak osoby interaktywnie korzystają ze swoich urządzeń. Ta technologia może wykrywać anomalie w zachowaniu, które mogą wskazywać na to, że oszust wykorzystuje skradzione informacje, nawet jeśli przeszli pomyślnie wstępne kontrole autentykacji.
Weryfikacja oparta na biometrii: Firmy takie jak Onfido są na czele technologii weryfikacji tożsamości opartej na sztucznej inteligencji, oferując narzędzia weryfikacji tożsamości, które wykrywają zaawansowane deepfakes i inne formy oszustw tożsamości. Ich system wykorzystuje połączenie weryfikacji dokumentów i analizy biometrycznej, aby upewnić się, że osoba na drugim końcu połączenia lub wideorozmowy jest naprawdę tym, za kogo się podaje.
Zaawansowana weryfikacja oparta na wiedzy: Przechodząc poza proste pytania bezpieczeństwa, przyszłe systemy autentykacji mogą obejmować dynamiczne, generowane przez AI pytania oparte na cyfrowym śladzie użytkownika i ostatnich działaniach. Na przykład, Prove, firma specjalizująca się w identyfikacji opartej na telefonie, rozwija rozwiązania, które wykorzystują inteligencję telefonu i analizy behawioralne, aby zweryfikować tożsamość. Ich technologia może analizować wzorce, w jakich osoba używa swojego urządzenia, tworząc unikalny „sygnaturę tożsamości”, która jest znacznie trudniejsza do sfałszowania przez oszustów.
Weryfikacja tożsamości oparta na blockchainie: Technologia blockchain oferuje zdecentralizowaną i niezmienialną metodę weryfikacji tożsamości. Firmy takie jak Civic są pionierami w systemach weryfikacji tożsamości opartych na blockchainie, które pozwalają użytkownikom kontrolować swoje informacje osobiste, jednocześnie zapewniając bezpieczną autentykację. Te systemy tworzą weryfikowalny, niezmienialny zapis tożsamości, idealny do zarządzania transakcjami o wysokim ryzyku.
Podsumowanie
Zbieżność LLM, RAG, syntetycznej generacji audio, syntetycznej generacji wideo i synchronizacji ruchu warg jest rodzajem podwójnego miecza. Chociaż te postępy mają ogromny potencjał dla pozytywnych zastosowań, stanowią również znaczące ryzyko, gdy są wykorzystywane przez oszustów.
Ten nieustanny wyścig zbrojeń między ekspertami ds. bezpieczeństwa a cyberprzestępcami podkreśla potrzebę ciągłej innowacji i czujności w dziedzinie bezpieczeństwa cyfrowego. Możemy pracować nad wykorzystaniem korzyści z tych potężnych narzędzi, jednocześnie ograniczając ich potencjał do szkody, tylko poprzez uznanie i przygotowanie się do tych ryzyk.
Kompleksowa regulacja, edukacja o tych nowych formach oszustw, inwestycje w najnowocześniejsze środki bezpieczeństwa oraz, co najważniejsze, zdrowa dawka sceptycyzmu ze strony każdej osoby, gdy angażujemy się z nieznanymi podmiotami online lub przez telefon, będą niezbędne w nawigowaniu przez ten nowy krajobraz.












