Connect with us

Come le Deepfakes Potenziate da Intelligenza Artificiale Minacciano l’Integrità delle Elezioni — E Cosa Fare Al Riguardo

Leader di pensiero

Come le Deepfakes Potenziate da Intelligenza Artificiale Minacciano l’Integrità delle Elezioni — E Cosa Fare Al Riguardo

mm

Le pubblicità elettorali possono già essere un po’ confuse e controverse.

Ora immaginate di essere presi di mira da una pubblicità elettorale in cui un candidato esprime posizioni forti che influenzano il vostro voto — e la pubblicità non è nemmeno reale. È una deepfake.

Questo non è un ipotetico futuristico; le deepfakes sono un problema reale e pervasivo. Abbiamo già visto “endorsement” generati da intelligenza artificiale che fanno notizia, e ciò che abbiamo sentito rappresenta solo la punta dell’iceberg.

Mentre ci avviciniamo alle elezioni presidenziali statunitensi del 2024, stiamo entrando in un territorio inesplorato in materia di cibersicurezza e integrità delle informazioni. Ho lavorato all’intersezione tra cibersicurezza e intelligenza artificiale fin da quando entrambi questi concetti erano ancora in fase di sviluppo, e non ho mai visto nulla di simile a ciò che sta accadendo ora.

L’evoluzione rapida dell’intelligenza artificiale — in particolare l’intelligenza artificiale generativa e, naturalmente, la facilità di creare deepfakes realistici deepfakes — ha trasformato il panorama delle minacce elettorali. Questa nuova realtà richiede un cambiamento nelle assunzioni di base relative alla sicurezza elettorale e all’educazione degli elettori.

Intelligenza Artificiale come Arma

Non dovete prendere la mia esperienza personale come prova; ci sono molte prove che le sfide di cibersicurezza che affrontiamo oggi stanno evolvendo a un ritmo senza precedenti. Nel giro di pochi anni, abbiamo assistito a una trasformazione drammatica nelle capacità e nelle metodologie degli attori potenziali. Questa evoluzione specchia l’accelerato sviluppo che abbiamo visto nelle tecnologie di intelligenza artificiale, ma con una preoccupante torsione.

Ad esempio:

  • Weaponizzazione rapida delle vulnerabilità. Gli attaccanti di oggi possono sfruttare rapidamente le vulnerabilità appena scoperte, spesso più velocemente di quanto i patch possano essere sviluppati e distribuiti. Gli strumenti di intelligenza artificiale accelerano ulteriormente questo processo, riducendo la finestra di tempo tra la scoperta della vulnerabilità e lo sfruttamento.
  • Superficie di attacco ampliata. L’adozione diffusa di tecnologie cloud ha notevolmente allargato la superficie di attacco potenziale. L’infrastruttura distribuita e il modello di responsabilità condivisa tra fornitori cloud e utenti creano nuovi vettori di sfruttamento se non gestiti correttamente.
  • Misure di sicurezza tradizionali obsolete. Gli strumenti di sicurezza legacy come firewall e software antivirus lottano per stare al passo con queste minacce in evoluzione, specialmente quando si tratta di rilevare e mitigare contenuti generati da intelligenza artificiale.

Chi Sta Parlando

In questo nuovo panorama di minacce, le deepfakes rappresentano una sfida particolarmente insidiosa all’integrità elettorale. Ricerche recenti di Ivanti forniscono alcuni numeri sulla minaccia: più della metà dei lavoratori d’ufficio (54%) non sono consapevoli che l’intelligenza artificiale avanzata possa impersonare la voce di chiunque. Questa mancanza di consapevolezza tra gli elettori potenziali è profondamente preoccupante mentre ci avviciniamo a un ciclo elettorale critico.

C’è molto in gioco.

La sofisticazione della tecnologia deepfake odierna consente agli attori minacciosi, sia stranieri che domestici, di creare contenuti fake audio, video e testo convincenti con uno sforzo minimo. Un semplice prompt di testo può ora generare una deepfake che è sempre più difficile da distinguere dal contenuto genuino. Questa capacità ha serie implicazioni per la diffusione di disinformazione e la manipolazione dell’opinione pubblica.

Sfide nell’Attribuzione e nella Mitigazione

L’attribuzione è una delle sfide più significative che affrontiamo con l’interferenza elettorale generata da intelligenza artificiale. Mentre storicamente abbiamo associato l’interferenza elettorale con attori statali, la democratizzazione degli strumenti di intelligenza artificiale significa che gruppi domestici, mossi da varie motivazioni ideologiche, possono ora sfruttare queste tecnologie per influenzare le elezioni.

Questa diffusione di potenziali attori minacciosi complica la nostra capacità di identificare e mitigare le fonti di disinformazione. Sottolinea anche la necessità di un approccio multifacético alla sicurezza elettorale che vada oltre le misure di cibersicurezza tradizionali.

Sforzo Coordinato per Sostenere l’Integrità Elettorale

Affrontare la sfida delle deepfakes potenziate da intelligenza artificiale nelle elezioni richiederà uno sforzo coordinato attraverso più settori. Ecco le aree chiave in cui dobbiamo concentrare i nostri sforzi:

  • Sicurezza shift-left per i sistemi di intelligenza artificiale. Dobbiamo applicare i principi di “shift-left” sicurezza allo sviluppo dei sistemi di intelligenza artificiale stessi. Ciò significa incorporare considerazioni di sicurezza dalle prime fasi dello sviluppo del modello di intelligenza artificiale, comprese le considerazioni per un uso potenziale improprio nell’interferenza elettorale.
  • Applicazione di configurazioni sicure. I sistemi e le piattaforme di intelligenza artificiale che potrebbero essere utilizzati per generare deepfakes dovrebbero avere configurazioni sicure robuste per impostazione predefinita. Ciò include misure di autenticazione solide e restrizioni sui tipi di contenuti che possono essere generati.
  • Sicurezza della catena di approvvigionamento di intelligenza artificiale. Come ci concentriamo sulla sicurezza della catena di approvvigionamento del software, dobbiamo estendere questa vigilanza alla catena di approvvigionamento di intelligenza artificiale. Ciò include l’esame dei set di dati utilizzati per addestrare i modelli di intelligenza artificiale e degli algoritmi impiegati nei sistemi di intelligenza artificiale generativa.
  • Capacità di rilevamento avanzate. Dobbiamo investire e sviluppare strumenti di rilevamento avanzati che possano identificare contenuti generati da intelligenza artificiale, in particolare nel contesto di informazioni relative alle elezioni. Ciò probabilmente richiederà lo sfruttamento dell’intelligenza artificiale stessa per combattere la disinformazione generata da intelligenza artificiale.
  • Educazione e consapevolezza degli elettori. Un componente cruciale della nostra difesa contro le deepfakes è un elettorato informato. Abbiamo bisogno di programmi di educazione completi per aiutare gli elettori a comprendere l’esistenza e l’impatto potenziale dei contenuti generati da intelligenza artificiale, e per fornire loro gli strumenti per valutare criticamente le informazioni che incontrano.
  • Collaborazione intersettoriale. Il settore tecnologico, in particolare le aziende IT e di cibersicurezza, deve lavorare a stretto contatto con le agenzie governative, i funzionari elettorali e le organizzazioni dei media per creare un fronte unito contro l’interferenza elettorale guidata da intelligenza artificiale.

Cosa C’è Adesso, e Cosa Verrà

Mentre implementiamo queste strategie, è cruciale che continuiamo a misurare la loro efficacia. Ciò richiederà nuovi metriche e strumenti di monitoraggio progettati specificamente per tracciare l’impatto dei contenuti generati da intelligenza artificiale sul discorso elettorale e sul comportamento degli elettori.

Dovremmo anche essere pronti ad adattare rapidamente le nostre strategie. Il campo dell’intelligenza artificiale sta evolvendo a un ritmo vertiginoso, e le nostre misure difensive devono evolversi altrettanto rapidamente. Ciò potrebbe comportare lo sfruttamento dell’intelligenza artificiale stessa per creare misure di sicurezza più robuste e adattabili.

La sfida delle deepfakes potenziate da intelligenza artificiale nelle elezioni rappresenta un nuovo capitolo nella cibersicurezza e nell’integrità delle informazioni. Per affrontarla, dobbiamo pensare al di là dei paradigmi di sicurezza tradizionali e favorire la collaborazione tra settori e discipline. L’obiettivo: sfruttare il potere dell’intelligenza artificiale per il beneficio dei processi democratici mentre ne mitigiamo il potenziale danno. Questo non è solo una sfida tecnica, ma una sfida sociale che richiederà una costante vigilanza, adattamento e cooperazione.

L’integrità delle nostre elezioni — e, per estensione, la salute della nostra democrazia — dipende dalla nostra capacità di affrontare questa sfida a viso aperto. È una responsabilità che grava su tutti noi: tecnologi, responsabili delle politiche e cittadini.

Il Dr. Srinivas Mukkamala è Chief Product Officer per Ivanti. Era il fondatore e CEO di RiskSense fino a quando Ivanti ha acquisito l'azienda nel agosto 2021.

Ha aderito a Ivanti come responsabile delle soluzioni di sicurezza Ivanti e ha svolto un ruolo fondamentale nell'integrare il portfolio e il team di RiskSense nella strategia di Ivanti. È un'autorità riconosciuta nelle comunità di intelligenza artificiale (AI) e reti neurali ed è stato parte di un think tank che ha collaborato con il Dipartimento della Difesa degli Stati Uniti sull'applicazione di questi concetti ai problemi di sicurezza informatica.

Il Dr. Mukkamala è responsabile della gestione dei prodotti per tutte le soluzioni Ivanti e continuerà a guidare l'innovazione nelle soluzioni integrate in tutti i pilastri dell'azienda: ITSM, Security e UEM.​

Il Dr. Mukkamala è stato anche un ricercatore principale per CACTUS (Computational Analysis of Cyber Terrorism against the U.S.) e detiene un brevetto su Agenti Intelligenti per il Sistema di Rilevamento delle Intrusioni Distribuite e Metodo di Pratica.​

Il Dr. Mukkamala detiene un dottorato e un master in Scienze Informatiche presso il New Mexico Institute of Mining and Technology.