Myslitelé
Nebezpečí AI Chatbotů – A Jak Je Zmírnit

Předtím považovány jen za automatizované programy pro rozhovor, AI chatboti mohou nyní učit a vést rozhovory, které jsou téměř nerozeznatelné od lidí. Nicméně, nebezpečí AI chatbotů jsou stejně rozmanité.
Tyto mohou sahát od lidí, kteří je zneužívají, až po skutečné kybernetické bezpečnostní rizika. Jak lidé stále více spoléhají na AI technologii, je znalost potenciálních důsledků použití těchto programů nezbytná. Ale jsou boti nebezpeční?
1. Závislost a Diskriminace
Jedno z největších nebezpečí AI chatbotů je jejich tendence k škodlivým závislostem. Protože AI vytváří spojení mezi datovými body, které lidé často přehlížejí, může zachytit jemné, implicitní závislosti ve svém tréninkovém datu a naučit se být diskriminační. Jako výsledek, chatboti mohou rychle naučit šířiti rasistické, sexistické nebo jinak diskriminační obsah, i když nic takového nebylo v jeho tréninkovém datu.
Typickým příkladem je Amazonův zrušený hiring bot. V roce 2018 se ukázalo, že Amazon zrušil AI projekt, který měl předem vyhodnotit životopisy uchazečů, protože penalizoval žádosti od žen. Protože většina životopisů, na kterých se bot učil, patřila mužům, naučil se, že mužští uchazeči jsou preferovaní, i když tréninková data to výslovně neřekla.
Chatboti, kteří používají internetový obsah k učení se, jak komunikovat přirozeně, tendují zobrazovat ještě více extrémní závislosti. V roce 2016 Microsoft uvedl chatbota jménem Tay, který se naučil napodobovat příspěvky na sociálních médiích. Během několika hodin začal tweetovat vysoce urážlivý obsah, což vedlo Microsoft k pozastavení účtu brzy poté.
Pokud společnosti nejsou opatrné při budování a nasazování těchto botů, mohou náhodou vést ke stejné situaci. Chatboti mohou špatně zacházet se zákazníky nebo šířit škodlivý zkreslený obsah, který mají zabránit.
2. Kybernetická Bezpečnostní Rizika
Nebezpečí AI chatbotové technologie mohou také představovat přímější kybernetické bezpečnostní riziko pro lidi a podniky. Jednou z nejčastějších forem kybernetických útoků jsou phishing a vishing útoky. Tyto zahrnují kybernetické útočníky, kteří napodobují důvěryhodné organizace, jako jsou banky nebo vládní úřady.
Phishing útoky obvykle fungují prostřednictvím e-mailů a textových zpráv — kliknutí na odkaz umožňuje malwaru vstoupit do počítačového systému. Jakmile je uvnitř, virus může udělat cokoliv od krádeže osobních informací po držení systému za výkupné.
Rychlost phishing útoků se neustále zvyšovala během a po pandemii COVID-19. Agentura pro kybernetickou a infrastrukturální bezpečnost zjistila, že 84% jednotlivců odpovědělo na phishingové zprávy s citlivými informacemi nebo kliklo na odkaz.
Phishers používají AI chatbot technologii k automatizaci vyhledávání obětí, přesvědčení jich, aby klikli na odkazy a poskytli osobní informace. Chatboti jsou používány mnoha finančními institucemi — jako jsou banky — ke streamlinování zákaznického servisního zážitku.
Chatboti phishers mohou napodobit stejné automatizované výzvy, které banky používají, aby oklamali oběti. Mohou také automaticky volat telefonní čísla nebo kontaktovat oběti přímo na interaktivních chatovacích platformách.
3. Otrávení Dat
Otrávení dat je nově koncipovaný kybernetický útok, který přímo cílí na umělou inteligenci. AI technologie se učí z datových sad a používá tyto informace k dokončení úkolů. To platí pro všechny AI programy, bez ohledu na jejich účel nebo funkce.
Pro chatbot AI to znamená naučit se několika odpovědím na možné otázky, které uživatelé mohou položit. Nicméně, toto je také jedno z nebezpečí AI.
Tyto datové sady jsou často open-source nástroje a zdroje dostupné komukoliv. Ačkoli AI společnosti obvykle drží své datové zdroje v úzkém utajení, kybernetičtí útočníci mohou určit, které z nich používají, a manipulovat s daty.
Kybernetičtí útočníci mohou najít způsoby, jak znehodnotit datové sady použité k trénování AI, což jim umožňuje manipulovat s jejich rozhodnutími a odpověďmi. AI bude používat informace z pozměněných dat a provádět činy, které útočníci chtějí.
Například jedním z nejčastěji používaných zdrojů pro datové sady jsou Wiki zdroje, jako je Wikipedia. Ačkoli data nepocházejí z živého článku na Wikipedii, pocházejí ze snímků dat pořízených v konkrétních časech. Hackeři mohou najít způsob, jak upravit data, aby jim prospěla.
V případě chatbot AI mohou hackeři znehodnotit datové sady použité k trénování chatbotů, které pracují pro lékařské nebo finanční instituce. Mohou manipulovat s programy chatbotů, aby poskytly zákazníkům falešné informace, které by je mohly vést ke kliknutí na odkaz obsahující malware nebo podvodné webové stránky. Jakmile AI začne čerpat z otrávených dat, je obtížné to detekovat a může vést k významnému porušení kybernetické bezpečnosti, které zůstane nezjištěné po dlouhou dobu.
Jak Zmírnit Nebezpečí AI Chatbotů
Tato rizika jsou znepokojivá, ale neznamenají, že boti jsou vnitřně nebezpeční. Spíše byste se k nim měli přistupovat s opatrností a uvážením těchto nebezpečí při budování a používání chatbotů.
Klíč k prevenci AI zkreslení je hledání ho během tréninku. Ujistěte se, že trénujete na rozmanitých datových sadách a specificky programujte, aby se vyvaroval faktorům, jako je rasa, pohlaví nebo sexuální orientace, ve svém rozhodování. Je také nejlepší mít rozmanitý tým datových vědců, kteří budou recenzovat vnitřní fungování chatbotů a zajistí, aby nevykazovali žádné zkreslení, byť i jemné.
Nejlepší obranou proti phishingu je trénink. Trénujte všechny zaměstnance, aby rozpoznali běžné známky phishingových pokusů, aby na tyto útoky nedopadli. Šíření spotřebitelské osvěty kolem problému také pomůže.
Můžete zabránit otrávení dat, omezíte-li přístup k tréninkovým datům chatbotů. Pouze lidé, kteří potřebují přístup k těmto datům, aby mohli správně vykonávat svou práci, by měli mít autorizaci — koncept zvaný princip nejnižšího oprávnění. Po implementaci těchto omezení použijte silná ověřovací opatření, jako je multi-faktorová autentizace nebo biometrie, aby se zabránilo riziku kybernetických zločinců, kteří by se mohli nabourat do autorizovaného účtu.
Zůstat Ostražití Proti Nebezpečí AI Závislosti
Umělá inteligence je skutečně úžasná technologie s téměř neomezenými aplikacemi. Nicméně, nebezpečí AI mohou být nejasná. Jsou boti nebezpeční? Ne vnitřně, ale kybernetičtí zločinci je mohou použít mnoha rušivými způsoby. Je na uživatelích, aby rozhodli, co budou aplikace této nově nalezené technologie.












