Leader di pensiero
I Pericoli dei Chatbot AI – E Come Contrasti

Un tempo considerati solo come programmi di conversazione automatizzati, i chatbot AI possono ora imparare e condurre conversazioni che sono quasi indistinguibili da quelle umane. Tuttavia, i pericoli dei chatbot AI sono altrettanto vari.
Questi possono variare dalle persone che li utilizzano in modo improprio ai rischi di sicurezza informatica reali. Poiché gli esseri umani si affidano sempre più alla tecnologia AI, è essenziale conoscere le possibili ripercussioni dell’utilizzo di questi programmi. Ma i bot sono pericolosi?
1. Pregiudizio e Discriminazione
Uno dei più grandi pericoli dei chatbot AI è la loro tendenza verso pregiudizi dannosi. Poiché l’AI stabilisce collegamenti tra punti di dati che gli esseri umani spesso trascurano, può rilevare sottili pregiudizi impliciti nei suoi dati di addestramento per insegnare a se stesso a essere discriminatorio. Di conseguenza, i chatbot possono imparare rapidamente a diffondere contenuti razzisti, sessisti o discriminatori in altro modo, anche se nulla di estremo era presente nei suoi dati di addestramento.
Un esempio emblematico è il bot di assunzione di Amazon. Nel 2018, emerse che Amazon aveva abbandonato un progetto AI destinato a valutare preventivamente i curricula dei candidati perché stava penalizzando le domande delle donne. Poiché la maggior parte dei curricula su cui il bot si era addestrato erano di uomini, si era insegnato che i candidati maschi erano preferibili, anche se i dati di addestramento non lo dicevano esplicitamente.
I chatbot che utilizzano il contenuto di Internet per insegnare a se stessi come comunicare in modo naturale tendono a mostrare pregiudizi ancora più estremi. Nel 2016, Microsoft ha debuttato con un chatbot di nome Tay che ha imparato a mimare i post sui social media. Nel giro di poche ore, ha iniziato a twittare contenuti estremamente offensivi, portando Microsoft a sospendere l’account prima di lungo.
Se le aziende non sono caute quando costruiscono e distribuiscono questi bot, potrebbero accidentalmente portare a situazioni simili. I chatbot potrebbero maltrattare i clienti o diffondere contenuti pregiudizievoli dannosi che dovrebbero prevenire.
2. Rischi per la Sicurezza Informatica
I pericoli della tecnologia dei chatbot AI possono anche rappresentare una minaccia di sicurezza informatica più diretta per le persone e le aziende. Una delle forme più prolifiche di attacchi informatici sono gli attacchi di phishing e vishing. Questi coinvolgono gli attaccanti informatici che imitano organizzazioni di fiducia come banche o enti governativi.
Gli attacchi di phishing operano generalmente attraverso email e messaggi di testo — fare clic sul link consente al malware di entrare nel sistema informatico. Una volta all’interno, il virus può fare qualsiasi cosa, dal rubare informazioni personali a tenere il sistema per ransom.
La frequenza degli attacchi di phishing è aumentata costantemente durante e dopo la pandemia di COVID-19. L’Agenzia per la Sicurezza Informatica e delle Infrastrutture ha scoperto che l’84% degli individui ha risposto ai messaggi di phishing con informazioni sensibili o ha fatto clic sul link.
I phisher stanno utilizzando la tecnologia dei chatbot AI per automatizzare la ricerca di vittime, convincerle a fare clic sui link e fornire informazioni personali. I chatbot sono utilizzati da molte istituzioni finanziarie — come banche — per semplificare l’esperienza del servizio clienti.
I chatbot dei phisher possono mimare le stesse promozioni automatizzate che le banche utilizzano per ingannare le vittime. Possono anche comporre automaticamente numeri di telefono o contattare le vittime direttamente su piattaforme di chat interattive.
3. Avvelenamento dei Dati
L’avvelenamento dei dati è un tipo di attacco informatico concepito di recente che mira direttamente all’intelligenza artificiale. La tecnologia AI apprende da set di dati e utilizza quelle informazioni per completare compiti. Ciò è vero per tutti i programmi AI, indipendentemente dal loro scopo o funzione.
Per i chatbot AI, ciò significa imparare molteplici risposte a possibili domande che gli utenti possono porre. Tuttavia, ciò è anche uno dei pericoli dell’AI.
Questi set di dati sono spesso strumenti e risorse open-source disponibili per chiunque. Sebbene le aziende AI di solito tengano segreti i loro dati di origine, gli attaccanti informatici possono determinare quali sono e manipolare i dati.
Gli attaccanti informatici possono trovare modi per manomettere i set di dati utilizzati per addestrare gli AI, consentendo loro di manipolare le decisioni e le risposte dell’AI. L’AI utilizzerà le informazioni dai dati alterati e compierà azioni che gli attaccanti desiderano.
Ad esempio, una delle fonti più utilizzate per i set di dati è Wiki, come Wikipedia. Sebbene i dati non provengano dall’articolo di Wikipedia live, provengono da istantanee di dati prese in momenti specifici. Gli hacker possono trovare un modo per modificare i dati a loro vantaggio.
Nel caso dei chatbot AI, gli hacker possono corrompere i set di dati utilizzati per addestrare i chatbot che lavorano per istituzioni mediche o finanziarie. Possono manipolare i programmi dei chatbot per fornire ai clienti informazioni false che potrebbero portarli a fare clic su un link che contiene malware o un sito web fraudolento. Una volta che l’AI inizia a estrarre dati avvelenati, è difficile da rilevare e può portare a una violazione significativa della sicurezza informatica che passa inosservata per un lungo periodo.
Come Affrontare i Pericoli dei Chatbot AI
Questi rischi sono preoccupanti, ma non significano che i bot siano pericolosi per natura. Piuttosto, è necessario approcciarli con cautela e considerare questi pericoli quando si costruiscono e si utilizzano i chatbot.
La chiave per prevenire i pregiudizi dell’AI è cercarli durante l’addestramento. Assicurarsi di addestrarlo su set di dati diversificati e programmarlo specificamente per evitare di considerare fattori come razza, genere o orientamento sessuale nella sua presa di decisioni. È anche meglio avere un team diversificato di scienziati dei dati per esaminare il funzionamento interno dei chatbot e assicurarsi che non mostrino pregiudizi, per quanto sottili.
La migliore difesa contro il phishing è l’addestramento. Addestrare tutti i dipendenti a riconoscere i segni comuni di tentativi di phishing in modo che non cadano in questi attacchi. La diffusione della consapevolezza dei consumatori intorno al problema aiuterà anche.
È possibile prevenire l’avvelenamento dei dati limitando l’accesso ai dati di addestramento dei chatbot. Solo le persone che hanno bisogno di accedere a questi dati per svolgere correttamente il loro lavoro dovrebbero avere l’autorizzazione — un concetto chiamato principio del minimo privilegio. Dopo aver implementato queste restrizioni, utilizzare misure di verifica robuste come l’autenticazione a più fattori o la biometria per prevenire i rischi di hacker che violano un account autorizzato.
Rimani Vigile contro i Pericoli della Dipendenza dall’AI
L’intelligenza artificiale è una tecnologia veramente meravigliosa con applicazioni quasi infinite. Tuttavia, i pericoli dell’AI potrebbero essere oscuri. I bot sono pericolosi? Non per natura, ma i cybercriminali possono utilizzarli in vari modi disruptivi. Spetta agli utenti decidere quali sono le applicazioni di questa nuova tecnologia.












