Liderii gândirii
Pericolele chatbot-urilor AI – și cum să le contracarați

Odinioară considerați doar programe automate de vorbire, chatbot-ii AI pot acum să învețe și să țină conversații care sunt aproape imposibil de distins de oameni. Cu toate acestea, pericolele chatbot-urilor AI sunt la fel de variate.
Acestea pot varia de la persoane care le folosesc greșit până la riscuri reale de securitate cibernetică. Pe măsură ce oamenii se bazează din ce în ce mai mult pe tehnologia AI, cunoașterea potențialelor repercusiuni ale utilizării acestor programe este esențială. Dar sunt boții periculoși?
1. Prejudecăți și discriminare
Unul dintre cele mai mari pericole ale chatbot-urilor AI este tendința lor spre părtiniri dăunătoare. Deoarece AI creează conexiuni între punctele de date pe care oamenii le scapă adesea, poate detecta părtiniri subtile și implicite în datele sale de antrenament pentru a se învăța să fie discriminatorie. Drept urmare, chatboții pot învăța rapid să arunce conținut rasist, sexist sau discriminatoriu, chiar dacă nimic atât de extrem nu a fost în datele sale de antrenament.
Un prim exemplu este botul de angajare abandonat de la Amazon. În 2018, a apărut că Amazon abandonase un proiect AI menită să preevalueze CV-urile solicitanților pentru că penaliza cererile de la femei. Deoarece majoritatea CV-urilor pe care botul s-a antrenat erau pentru bărbați, a învățat singur că candidații bărbați sunt preferați, chiar dacă datele de antrenament nu spuneau în mod explicit acest lucru.
Chatboții care folosesc conținut de internet pentru a se învăța cum să comunice în mod natural tind să prezinte părtiniri și mai extreme. În 2016, Microsoft a lansat un chatbot numit Tay, care a învățat să imite postările pe rețelele sociale. În câteva ore, asta a început să tweeteze conținut extrem de ofensator, ceea ce a determinat Microsoft să suspende contul în scurt timp.
Dacă companiile nu sunt precaute atunci când construiesc și implementează acești roboți, aceștia pot duce accidental la situații similare. Chatboții ar putea să maltrateze clienții sau să răspândească conținut părtinitor dăunător pe care ar trebui să îl prevină.
2. Riscuri de securitate cibernetică
Pericolele tehnologiei chatbot AI pot reprezenta, de asemenea, o amenințare mai directă a securității cibernetice pentru oameni și întreprinderi. Una dintre cele mai prolifice forme de atacuri cibernetice este înșelăciunile de tip phishing și vishing. Acestea implică atacatorii cibernetici imitând organizații de încredere precum băncile sau organismele guvernamentale.
Înșelătoriile de tip phishing funcționează de obicei prin e-mail și mesaje text - făcând clic pe link permite programelor malware să intre în sistemul informatic. Odată înăuntru, virusul poate face orice, de la furtul de informații personale la păstrarea sistemului pentru răscumpărare.
Rata atacurilor de tip phishing a crescut constant în timpul și după pandemia de COVID-19. Agenția de securitate cibernetică și de securitate a infrastructurii au găsit 84% dintre indivizi a răspuns la mesajele de phishing cu informații sensibile sau a dat clic pe link.
Phishers folosesc tehnologia chatbot AI pentru a automatiza căutarea victimelor, pentru a le convinge să facă clic pe linkuri și să renunțe la informații personale. Chatbot-urile sunt folosite de multe instituții financiare, cum ar fi băncile, pentru a eficientiza experiența serviciului clienți.
Phisherii chatbots pot imita aceleași solicitări automate pe care băncile le folosesc pentru a păcăli victimele. De asemenea, pot forma automat numere de telefon sau pot contacta victimele direct pe platformele interactive de chat.
3. Intoxicarea datelor
Otrăvirea datelor este un atac cibernetic nou conceput, care vizează direct inteligența artificială. Tehnologia AI învață din seturi de date și folosește acele informații pentru a finaliza sarcini. Acest lucru este valabil pentru toate programele AI, indiferent de scopul sau funcțiile lor.
Pentru chatbot AI, aceasta înseamnă să înveți mai multe răspunsuri la întrebările posibile pe care utilizatorii le pot adresa. Cu toate acestea, acesta este și unul dintre pericolele AI.
Aceste seturi de date sunt adesea instrumente și resurse open source disponibile oricui. Deși companiile de inteligență artificială păstrează de obicei un secret bine păzit al surselor lor de date, atacatorii cibernetici pot determina pe care le folosesc și manipulează datele.
Atacatorii cibernetici pot găsi modalități de a modificați seturile de date folosit pentru a antrena AI, permițându-le să-și manipuleze deciziile și răspunsurile. AI va folosi informațiile din datele modificate și va efectua acțiuni pe care le doresc atacatorii.
De exemplu, una dintre cele mai frecvent utilizate surse pentru seturile de date este resursele Wiki, cum ar fi Wikipedia. Deși datele nu provin din articolul live Wikipedia, ele provin din instantanee ale datelor luate la anumite momente. Hackerii pot găsi o modalitate de a edita datele în beneficiul lor.
În cazul IA pentru chatbot, hackerii pot corupa seturile de date folosite pentru a antrena chatboții care lucrează pentru instituții medicale sau financiare. Aceștia pot manipula programele de chatbot pentru a oferi clienților informații false care i-ar putea determina să facă clic pe un link care conține malware sau un site web fraudulos. Odată ce AI începe să extragă din date otrăvite, este greu de detectat și poate duce la o încălcare semnificativă a securității cibernetice care rămâne neobservată pentru o lungă perioadă de timp.
Cum să abordați pericolele chatbot-urilor AI
Aceste riscuri sunt îngrijorătoare, dar nu înseamnă că roboții sunt în mod inerent periculoși. Mai degrabă, ar trebui să le abordați cu precauție și să luați în considerare aceste pericole atunci când construiți și utilizați chatbot-uri.
Cheia pentru prevenirea părtinirii AI este căutarea acesteia pe parcursul antrenamentului. Asigurați-vă că îl instruiți pe diverse seturi de date și îl programați în mod special pentru a evita luarea în considerare a lucrurilor precum rasa, genul sau orientarea sexuală în luarea deciziilor. De asemenea, cel mai bine este să aveți o echipă diversă de cercetători ai datelor care să examineze funcționarea interioară a chatbot-urilor și să vă asigurați că nu prezintă nicio părtinire, oricât de subtilă.
Cea mai bună apărare împotriva phishingului este antrenamentul. Antrenează toți angajații să detecteze semne comune ale încercărilor de phishing ca să nu cadă în aceste atacuri. Răspândirea gradului de conștientizare a consumatorilor cu privire la această problemă va ajuta, de asemenea.
Puteți preveni otrăvirea datelor prin restricționarea accesului la datele de antrenament ale chatboților. Doar persoanele care au nevoie de acces la aceste date pentru a-și face treaba corect ar trebui să aibă autorizație - un concept numit principiul cel mai mic privilegiu. După implementarea acestor restricții, utilizați măsuri puternice de verificare, cum ar fi autentificarea cu mai mulți factori sau biometria, pentru a preveni riscurile ca infractorii cibernetici să pirateze un cont autorizat.
Rămâneți vigilenți împotriva pericolelor dependenței de AI
Inteligența artificială este o tehnologie cu adevărat minunată, cu aplicații aproape nelimitate. Cu toate acestea, pericolele IA ar putea fi obscure. Sunt boții periculoși? Nu în mod inerent, dar infractorii cibernetici îi pot folosi în diverse moduri disruptive. Depinde de utilizatori să decidă care sunt aplicațiile acestei tehnologii nou descoperite.