peň Nebezpečenstvá AI chatbotov – a ako im čeliť – Unite.AI
Spojte sa s nami

Myšlienkoví vodcovia

Nebezpečenstvá AI chatbotov – a ako im čeliť

mm

uverejnené

 on

Kedysi boli chatboty AI považované len za automatizované hovoriace programy, teraz sa môžu učiť a viesť konverzácie, ktoré sú takmer na nerozoznanie od ľudí. Nebezpečenstvá AI chatbotov sú však rovnako rozmanité.

Môžu sa pohybovať od ľudí, ktorí ich zneužívajú, až po skutočné riziká kybernetickej bezpečnosti. Keďže sa ľudia čoraz viac spoliehajú na technológiu AI, je nevyhnutné poznať potenciálne dôsledky používania týchto programov. Sú však roboty nebezpečné?

1. Zaujatosť a diskriminácia

Jedným z najväčších nebezpečenstiev chatbotov AI je ich tendencia k škodlivým predsudkom. Keďže umelá inteligencia vytvára spojenia medzi dátovými bodmi, ktoré ľuďom často chýbajú, dokáže vo svojich tréningových dátach zachytiť jemné, implicitné predsudky, aby sa naučila byť diskriminačná. Výsledkom je, že chatboti sa môžu rýchlo naučiť chrliť rasistický, sexistický alebo inak diskriminačný obsah, aj keď v údajoch o tréningu nebolo nič také extrémne.

Skvelým príkladom je zrušený náborový robot Amazonu. V roku 2018 sa ukázalo, že Amazon opustil projekt AI chcelo predbežne posúdiť životopisy uchádzačov, pretože penalizovalo žiadosti od žien. Pretože väčšina životopisov, na ktorých bot trénoval, boli mužské, naučil sa sám, že uprednostňovaní sú muži, aj keď to v údajoch o školení nie je výslovne uvedené.

Chatboty, ktoré používajú internetový obsah, aby sa naučili prirodzene komunikovať, majú tendenciu predviesť ešte extrémnejšie predsudky. V roku 2016 Microsoft predstavil chatbota s názvom Tay, ktorý sa naučil napodobňovať príspevky na sociálnych sieťach. V priebehu niekoľkých hodín to začal tweetovať vysoko urážlivý obsah, čo viedlo Microsoft k pozastaveniu účtu čoskoro.

Ak si spoločnosti nedajú pozor pri vytváraní a nasadzovaní týchto robotov, môžu náhodne viesť k podobným situáciám. Chatboty by mohli týrať zákazníkov alebo šíriť škodlivý neobjektívny obsah, ktorému by mali zabrániť.

2. Kybernetické bezpečnostné riziká

Nebezpečenstvo technológie chatbotov AI môže tiež predstavovať priamejšie kybernetické ohrozenie pre ľudí a podniky. Jednou z najplodnejších foriem kybernetických útokov je phishing a vishing podvody. Tieto zahŕňajú kybernetickí útočníci napodobňujúci dôveryhodné organizácie ako sú banky alebo vládne orgány.

Phishingové podvody sa zvyčajne uskutočňujú prostredníctvom e-mailov a textových správ – kliknutie na odkaz umožňuje škodlivému softvéru vstúpiť do počítačového systému. Akonáhle je vírus vo vnútri, môže robiť čokoľvek od krádeže osobných údajov až po zadržanie systému kvôli výkupnému.

Miera phishingových útokov sa počas pandémie COVID-19 a po nej neustále zvyšuje. Agentúra pre kybernetickú bezpečnosť a bezpečnosť infraštruktúry zistilo 84 % jedincov odpovedali na phishingové správy s citlivými informáciami alebo klikli na odkaz.

Phisheri používajú technológiu AI chatbotov na automatizáciu vyhľadávania obetí, presvedčenie ich, aby klikli na odkazy a vzdali sa osobných údajov. Chatboty používajú mnohé finančné inštitúcie – napríklad banky – na zefektívnenie služieb zákazníkom.

Phisheri chatbotov môžu napodobňovať rovnaké automatické výzvy, ktoré banky používajú na oklamanie obetí. Môžu tiež automaticky vytáčať telefónne čísla alebo kontaktovať obete priamo na interaktívnych chatovacích platformách.

3. Otrava údajmi

Otrava dát je novo koncipovaný kybernetický útok, ktorý sa priamo zameriava na umelú inteligenciu. Technológia AI sa učí zo súborov údajov a používa tieto informácie na dokončenie úloh. To platí pre všetky programy AI bez ohľadu na ich účel alebo funkcie.

Pre AI chatbotov to znamená naučiť sa viac odpovedí na možné otázky, ktoré im môžu používatelia položiť. Aj to je však jedno z nebezpečenstiev AI.

Tieto súbory údajov sú často nástrojmi a zdrojmi s otvoreným zdrojom, ktoré sú dostupné komukoľvek. Hoci spoločnosti AI zvyčajne prísne strážia svoje zdroje údajov, kybernetickí útočníci môžu určiť, ktoré z nich používajú, a manipulovať s nimi.

Kybernetickí útočníci môžu nájsť spôsoby manipulovať so súbormi údajov Používa sa na trénovanie AI, čo im umožňuje manipulovať s ich rozhodnutiami a reakciami. Umelá inteligencia použije informácie zo zmenených údajov a vykoná akcie, ktoré útočníci chcú.

Napríklad jedným z najčastejšie používaných zdrojov pre súbory údajov sú zdroje Wiki, ako je Wikipedia. Hoci údaje nepochádzajú zo živého článku na Wikipédii, pochádzajú zo snímok údajov zhotovených v konkrétnych časoch. Hackeri môžu nájsť spôsob, ako upraviť údaje tak, aby boli pre nich prínosom.

V prípade AI chatbotov môžu hackeri poškodiť súbory údajov používané na školenie chatbotov, ktoré pracujú pre lekárske alebo finančné inštitúcie. Môžu manipulovať programy chatbotov, aby poskytli zákazníkom nepravdivé informácie, ktoré by ich mohli viesť ku kliknutiu na odkaz obsahujúci malvér alebo podvodnú webovú stránku. Keď AI začne získavať otrávené údaje, je ťažké ich odhaliť a môže to viesť k významnému narušeniu kybernetickej bezpečnosti, ktoré zostane dlho nepovšimnuté.

Ako riešiť nebezpečenstvá AI Chatbotov

Tieto riziká sú znepokojujúce, ale neznamenajú, že roboty sú vo svojej podstate nebezpečné. Radšej by ste k nim mali pristupovať opatrne a zvážiť tieto nebezpečenstvá pri budovaní a používaní chatbotov.

Kľúčom k zabráneniu zaujatosti AI je jej hľadanie počas tréningu. Nezabudnite ho trénovať na rôznych súboroch údajov a špecificky ho naprogramovať tak, aby pri rozhodovaní nezohľadňoval veci ako rasa, pohlavie alebo sexuálna orientácia. Je tiež najlepšie mať rôznorodý tím dátových vedcov, ktorí budú kontrolovať vnútorné fungovanie chatbotov a uistiť sa, že nevykazujú žiadne zaujatosti, akokoľvek jemné.

Najlepšou obranou proti phishingu je tréning. Vyškolte všetkých zamestnancov, aby si všimli bežné príznaky pokusov o phishing aby týmto útokom nenaleteli. Pomôže aj šírenie povedomia spotrebiteľov o tomto probléme.

Otrave dát môžete zabrániť obmedzením prístupu k tréningovým dátam chatbotov. Iba ľudia, ktorí potrebujú prístup k týmto údajom, aby mohli vykonávať svoju prácu správne, by mali mať autorizáciu – koncept nazývaný princíp najmenších privilégií. Po implementácii týchto obmedzení použite prísne overovacie opatrenia, ako je viacfaktorová autentifikácia alebo biometria, aby ste predišli rizikám, že kyberzločinci preniknú do autorizovaného účtu.

Buďte ostražití voči nebezpečenstvám spoliehania sa na AI

Umelá inteligencia je skutočne úžasná technológia s takmer nekonečnými aplikáciami. Nebezpečenstvo AI však môže byť nejasné. Sú roboty nebezpečné? Nie vo svojej podstate, ale kyberzločinci ich môžu použiť rôznymi rušivými spôsobmi. Je na používateľoch, aby sa rozhodli, aké sú aplikácie tejto novoobjavenej technológie.

Zac Amos je technický spisovateľ, ktorý sa zameriava na umelú inteligenciu. Je tiež editorom funkcií na adrese ReHack, kde si môžete prečítať viac z jeho tvorby.