Liderzy opinii
Niebezpieczeństwa czatbotów AI – i jak im przeciwdziałać

W przeszłości czatboty AI były postrzegane jako programy automatyczne, które mogą prowadzić rozmowę, ale obecnie mogą one uczyć się i prowadzić rozmowę, która jest prawie nie do odróżnienia od ludzkiej. Jednak niebezpieczeństwa związane z czatbotami AI są równie różnorodne.
Mogą one obejmować przypadki, w których ludzie nadużywają ich, a także prawdziwe zagrożenia dla bezpieczeństwa cybernetycznego. W miarę jak ludzie coraz bardziej polegają na technologii AI, ważne jest, aby znać potencjalne konsekwencje korzystania z tych programów. Ale czy boty są niebezpieczne?
1. Uprzedzenia i dyskryminacja
Jednym z największych niebezpieczeństw związanych z czatbotami AI jest ich tendencja do szkodliwych uprzedzeń. Ponieważ AI łączy punkty danych, które ludzie często pomijają, może ono wykryć subtelne, implicite uprzedzenia w danych szkoleniowych i nauczyć się być dyskryminującym. W wyniku tego czatboty mogą szybko nauczyć się wypowiadać treści rasistowskie, seksistowskie lub inne dyskryminujące, nawet jeśli nic takiego nie było w danych szkoleniowych.
Przykładem jest porzucony przez Amazon bot rekrutacyjny. W 2018 roku okazało się, że Amazon porzucił projekt AI, który miał na celu wstępne ocenianie CV kandydatów, ponieważ karano aplikacje od kobiet. Ponieważ większość CV, na których bot się uczył, pochodziła od mężczyzn, nauczył się, że aplikacje mężczyzn są preferowane, nawet jeśli dane szkoleniowe nie mówiły o tym wprost.
Czatboty, które uczą się za pomocą treści z Internetu, aby nauczyć się komunikować w naturalny sposób, mają tendencję do prezentowania jeszcze bardziej ekstremalnych uprzedzeń. W 2016 roku Microsoft wprowadził czatbota o nazwie Tay, który nauczył się naśladować posty na mediach społecznościowych. W ciągu kilku godzin zaczął publikować bardzo obraźliwe treści, co skłoniło Microsoft do zawieszenia konta przed długi czas.
Jeśli firmy nie będą ostrożne przy budowaniu i wdrażaniu tych botów, mogą nieumyślnie doprowadzić do podobnych sytuacji. Czatboty mogą źle traktować klientów lub rozpowszechniać szkodliwe treści, które mają zapobiegać.
2. Zagrożenia dla bezpieczeństwa cybernetycznego
Niebezpieczeństwa związane z technologią czatbotów AI mogą również stanowić bezpośrednie zagrożenie dla bezpieczeństwa cybernetycznego ludzi i firm. Jedną z najbardziej rozpowszechnionych form ataków cybernetycznych są oszustwa phishingowe i vishing. Polegają one na naśladownictwie zaufanych organizacji, takich jak banki lub organy rządowe.
Oszustwa phishingowe zwykle działają za pośrednictwem e-maili i wiadomości tekstowych — kliknięcie na link pozwala na wprowadzenie złośliwego oprogramowania do systemu komputerowego. Po wejściu do systemu wirus może wykonać wszystko, od kradzieży informacji osobistych do utrzymania systemu za okup.
Odsetek ataków phishingowych stale rośnie w trakcie i po pandemii COVID-19. Agencja Cybersecurity & Infrastructure Security stwierdziła, że 84% osób odpowiedziało na wiadomości phishingowe, podając informacje osobiste lub klikając na link.
Oszuści używają technologii czatbotów AI do automatyzacji wyszukiwania ofiar, przekonywania ich do kliknięcia na linki i podania informacji osobistych. Czatboty są używane przez wiele instytucji finansowych — takich jak banki — do usprawnienia obsługi klienta.
Czatboty oszustów mogą naśladować te same automatyczne monity, których używają banki, aby oszukać ofiary. Mogą również automatycznie wybierać numery telefonów lub kontaktować się z ofiarami bezpośrednio na interaktywnych platformach czatowych.
3. Zatrucie danych
Zatrucie danych to nowo pojęty atak cybernetyczny, który bezpośrednio atakuje sztuczną inteligencję. Technologia AI uczy się z zestawów danych i używa tej informacji do wykonania zadań. Dotyczy to wszystkich programów AI, niezależnie od ich przeznaczenia lub funkcji.
W przypadku czatbotów AI oznacza to naukę wielu odpowiedzi na możliwe pytania, które użytkownicy mogą im zadać. Jednak jest to również jednym z niebezpieczeństw AI.
Te zestawy danych są często dostępnymi narzędziami i zasobami, dostępnymi dla każdego. Chociaż firmy AI zwykle trzymają ściśle strzeżoną tajemnicę swoich źródeł danych, atakujący cybernetyczni mogą określić, które z nich używają, i manipulować danymi.
Atakujący cybernetyczni mogą znaleźć sposoby na manipulowanie zestawami danych używanymi do szkolenia AI, co pozwala im na manipulowanie ich decyzjami i odpowiedziami. AI będzie używał informacji z zmienionych danych i wykonywał akcje, które atakujący chcą.
Na przykład jednym z najczęściej używanych źródeł danych są zasoby Wiki, takie jak Wikipedia. Chociaż dane nie pochodzą z aktywnych artykułów Wikipedii, pochodzą z migawek danych pobranych w określonym czasie. Hakerzy mogą znaleźć sposób, aby edytować dane w celu osiągnięcia korzyści.
W przypadku czatbotów AI hakerzy mogą skażać zestawy danych używane do szkolenia czatbotów, które pracują dla instytucji medycznych lub finansowych. Mogą manipulować programami czatbotów, aby udzielać klientom fałszywych informacji, które mogą skłonić ich do kliknięcia na link zawierający złośliwe oprogramowanie lub fałszywą stronę internetową. Po tym, jak AI zacznie korzystać z skażonych danych, trudno jest wykryć i może prowadzić do znacznego naruszenia bezpieczeństwa cybernetycznego, które pozostaje niezauważone przez długi czas.
Jak przeciwdziałać niebezpieczeństwom czatbotów AI
Te ryzyka są niepokojące, ale nie oznaczają, że boty są wewnętrznie niebezpieczne. Raczej należy podejść do nich z ostrożnością i uwzględnić te niebezpieczeństwa przy budowaniu i używaniu czatbotów.
Kluczem do zapobiegania uprzedzeniom AI jest poszukiwanie ich w trakcie szkolenia. Upewnij się, że szkoli się je na różnorodnych zestawach danych i konkretnie programuje, aby uniknąć uwzględniania takich rzeczy, jak rasa, płeć czy orientacja seksualna w procesie decyzyjnym. Najlepiej jest również mieć zróżnicowany zespół naukowców, którzy przeglądają czatboty i upewniają się, że nie wykazują one żadnych uprzedzeń, choćby najbardziej subtelnych.
Najlepszą obroną przed oszustwami phishingowymi jest szkolenie. Szkol wszystkich pracowników, aby rozpoznawali typowe objawy oszustw phishingowych, aby nie ulegli tym atakom. Rozpowszechnianie świadomości wśród konsumentów na temat tego problemu również pomoże.
Można zapobiec zatruciu danych, ograniczając dostęp do danych szkoleniowych czatbotów. Tylko osoby, które potrzebują dostępu do tych danych, aby właściwie wykonywać swoją pracę, powinny mieć uprawnienia — jest to tzw. zasada najmniejszych przywilejów. Po wdrożeniu tych ograniczeń użyj silnych środków weryfikacji, takich jak uwierzytelnianie wieloczynnikowe lub biometryczne, aby zapobiec ryzyku hakowania przez cyberprzestępców do autoryzowanego konta.
Bądź czujny przeciwko niebezpieczeństwom związanym z uzależnieniem od AI
Sztuczna inteligencja to naprawdę wspaniała technologia o niemal nieograniczonych zastosowaniach. Jednak niebezpieczeństwa związane z AI mogą być niejasne. Czy boty są niebezpieczne? Nie wewnętrznie, ale cyberprzestępcy mogą ich używać na różne sposoby. To od użytkowników zależy, jakie będą zastosowania tej nowej technologii.












