Connect with us

Pericolele chatbot-urilor AI – Și cum să le contracarați

Lideri de opinie

Pericolele chatbot-urilor AI – Și cum să le contracarați

mm

Considerate odinioară simple programe automate de vorbit, chatbot-urile AI pot acum învăța și purta conversații care sunt aproape indistincte de cele ale oamenilor. Cu toate acestea, pericolele chatbot-urilor AI sunt la fel de variate.

Acestea pot varia de la persoanele care le folosesc în mod abuziv până la riscuri reale de securitate cibernetică. Pe măsură ce oamenii se bazează tot mai mult pe tehnologia AI, este esențial să cunoaștem repercusiunile potențiale ale utilizării acestor programe. Dar sunt chatbot-urile periculoase?

1. Prejudecăți și discriminare

Una dintre cele mai mari pericole ale chatbot-urilor AI este tendința lor de a avea prejudecăți dăunătoare. Deoarece AI stabilește legături între puncte de date pe care oamenii le omit adesea, poate să identifice prejudecăți implicite și subtile în datele de antrenare pentru a învăța să fie discriminatoriu. Ca urmare, chatbot-urile pot învăța rapid să emită conținut rasist, sexist sau discriminatoriu, chiar dacă nu a existat nimic extrem în datele de antrenare.

Un exemplu deosebit de relevant este chatbot-ul de angajare abandonat de Amazon. În 2018, a devenit cunoscut faptul că Amazon a abandonat un proiect AI menit să pre-evalueze CV-urile candidaților, deoarece penaliza aplicațiile femeilor. Deoarece majoritatea CV-urilor pe care chatbot-ul le-a folosit pentru antrenare erau ale bărbaților, și-a învățat că aplicațiile bărbaților sunt preferabile, chiar dacă datele de antrenare nu spuneau explicit acest lucru.

Chatbot-urile care folosesc conținut de pe internet pentru a învăța cum să comunice în mod natural au tendința de a prezenta prejudecăți și mai extreme. În 2016, Microsoft a lansat un chatbot numit Tay, care a învățat să imite postări de pe rețelele sociale. În câteva ore, a început să tweeteze conținut ofensiv, ceea ce a determinat Microsoft să suspende contul în curând.

Dacă companiile nu sunt atente atunci când construiesc și implementează aceste chatbot-uri, pot duce accidental la situații similare. Chatbot-urile pot trata în mod necorespunzător clienții sau pot răspândi conținut cu prejudecăți dăunătoare pe care sunt menite să le prevină.

2. Riscuri de securitate cibernetică

Pericolele tehnologiei chatbot-urilor AI pot reprezenta, de asemenea, o amenințare directă și mai mare la adresa securității cibernetice pentru oameni și afaceri. Una dintre cele mai prolifice forme de atacuri cibernetice este reprezentată de înșelăciunile de tip phishing și vishing. Acestea implică atacatori cibernetici care se pretind a fi organizații de încredere, cum ar fi bănci sau instituții guvernamentale.

Înșelăciunile de tip phishing funcționează de obicei prin e-mail și mesaje text — clic pe link permite malware-ului să intre în sistemul computerului. Odată ajuns în interior, virusul poate face orice, de la furarea de informații personale la ținerea sistemului pentru ransom.

Rata atacurilor de phishing a crescut constant în timpul și după pandemia COVID-19. Agenția pentru Securitate Cibernetică și Infrastructură a constatat că 84% dintre indivizi au răspuns la mesaje de phishing cu informații sensibile sau au clic pe link.

Înșelătorii folosesc tehnologia chatbot-urilor AI pentru a automatiza căutarea de victime, a-i convinge să cliqueze pe linkuri și a furniza informații personale. Chatbot-urile sunt utilizate de multe instituții financiare — cum ar fi bănci — pentru a simplifica experiența de servicii pentru clienți.

Înșelătorii pot imita aceleași promturi automate pe care le folosesc băncile pentru a păcăli victimele. De asemenea, pot suna automat numere de telefon sau contacta victimele direct pe platforme de chat interactive.

3. Otrăvirea datelor

Otrăvirea datelor este un atac cibernetic nou conceput care vizează direct inteligența artificială. Tehnologia AI învață din seturi de date și folosește aceste informații pentru a-și finaliza sarcinile. Acest lucru este valabil pentru toate programele AI, indiferent de scopul sau funcțiile lor.

Pentru chatbot-urile AI, acest lucru înseamnă învățarea multiplelor răspunsuri la întrebările posibile pe care utilizatorii le pot pune. Cu toate acestea, acesta este și unul dintre pericolele AI.

Aceste seturi de date sunt adesea unelte și resurse open-source disponibile oricui. Deși companiile AI de obicei păstrează secretul surselor de date, atacatorii cibernetici pot determina care sunt acestea și pot manipula datele.

Atacatorii cibernetici pot găsi modalități de a a altera seturile de date utilizate pentru antrenarea AI, permițându-le să manipuleze deciziile și răspunsurile sale. AI va folosi informațiile din datele alterate și va efectua acțiunile pe care atacatorii le doresc.

De exemplu, una dintre cele mai utilizate surse pentru seturile de date este reprezentată de resurse Wiki, cum ar fi Wikipedia. Deși datele nu provin din articolele Wikipedia live, provin din instantanee de date luate la momente specifice. Hackerii pot găsi modalități de a edita datele în beneficiul lor.

În cazul chatbot-urilor AI, hackerii pot corupe seturile de date utilizate pentru antrenarea chatbot-urilor care lucrează pentru instituții medicale sau financiare. Ei pot manipula programele chatbot pentru a oferi clienților informații false care îi pot determina să cliqueze pe linkuri care conțin malware sau site-uri frauduloase. Odată ce AI începe să extragă informații din date otrăvite, este dificil de detectat și poate duce la o încălcare semnificativă a securității cibernetice care poate rămâne nedetectată pentru o perioadă lungă de timp.

Cum să abordați pericolele chatbot-urilor AI

Aceste riscuri sunt îngrijorătoare, dar nu înseamnă că chatbot-urile sunt în mod inerent periculoase. Mai degrabă, ar trebui să abordați cu prudență și să luați în considerare aceste pericole atunci când construiți și utilizați chatbot-uri.

Cheia pentru prevenirea prejudecăților AI constă în căutarea acestora pe parcursul antrenării. Asigurați-vă că antrenați chatbot-ul pe seturi de date diverse și programați-l în mod specific pentru a evita luarea în considerare a aspectelor precum rasa, sexul sau orientarea sexuală în procesul de luare a deciziilor. De asemenea, este recomandat să aveți un echipă diversă de oameni de știință care să revizuiască funcționarea internă a chatbot-urilor și să se asigure că nu prezintă prejudecăți, oricât de subtile.

Cea mai bună apărare împotriva înșelăciunilor de phishing este reprezentată de antrenament. Antrenați toți angajații pentru a recunoaște semnele comune ale încercărilor de phishing, astfel încât să nu cadă victime ale acestor atacuri. Conștientizarea consumatorilor cu privire la această problemă va ajuta, de asemenea.

Puteți preveni otrăvirea datelor prin restricționarea accesului la datele de antrenare ale chatbot-urilor. Numai persoanele care au nevoie de acces la aceste date pentru a-și îndeplini corect sarcinile ar trebui să aibă autorizarea — un concept cunoscut sub numele de principiul privilegiului minim. După implementarea acestor restricții, utilizați măsuri puternice de verificare, cum ar fi autentificarea cu mai mulți factori sau biometrie, pentru a preveni riscurile ca atacatorii cibernetici să hack-uieze un cont autorizat.

Rămâneți vigilenți împotriva pericolelor dependenței de AI

Inteligența artificială este o tehnologie cu adevărat minunată, cu aplicații aproape infinite. Cu toate acestea, pericolele AI pot fi obscure. Sunt chatbot-urile periculoase? Nu în mod inerent, dar atacatorii cibernetici le pot folosi în diverse moduri perturbatoare. Depinde de utilizatori să decidă ce aplicații are această tehnologie nouă.

Zac Amos este un scriitor de tehnologie care se axează pe inteligența artificială. El este, de asemenea, redactor de funcții la ReHack, unde puteți citi mai multe din lucrările sale.