Connect with us

Interviste

Vaishnav Anand, Autore di Tech Demystified: Cybersecurity – Serie di Interviste

mm

Vaishnav Anand, uno studente di 17 anni della scuola Athenian, ha sviluppato il primo sistema di intelligenza artificiale in grado di rilevare i “geospatial deepfakes” – immagini satellitari manipolate da intelligenza artificiale che potrebbero nascondere siti militari, fabbricare depositi di risorse o distorcere i dati sui disastri, ponendo rischi per la sicurezza nazionale e la stabilità globale. In assenza di set di dati pubblici disponibili per questo tipo di rilevamento, Anand ha generato le proprie immagini sintetiche utilizzando reti avversarie generative, ha addestrato modelli da zero e sta ora applicando metodi di diffusione per migliorare l’accuratezza. La sua ricerca è già stata presentata alla Conferenza internazionale degli utenti Esri e all’Università di Cambridge, guadagnando il riconoscimento del presidente di Esri, Jack Dangermond.

Oltre al suo lavoro sulla sicurezza dell’IA, Anand ha scritto due libri di cybersecurity adottati da scuole private, con il suo ultimo titolo, Tech Demystified: Cybersecurity: Principi fondamentali della moderna difesa cibernetica, che ha ricevuto una valutazione di 5 stelle. Il libro divide argomenti complessi come phishing, malware, firewall ed encryption in lezioni chiare e pratiche per studenti, educatori e chiunque sia interessato alla sicurezza digitale. Rendendo la cybersecurity accessibile e coinvolgente, Anand si sta affermando non solo come un innovatore nell’IA, ma anche come una voce emergente nell’istruzione e nella tecnologia.

Sei ancora alle scuole superiori, ma stai già facendo un impatto nell’IA e nella cybersecurity. Cosa ti ha inizialmente portato in questo campo e come hai iniziato a sviluppare progetti così avanzati a un’età così giovane?

Cosa mi ha portato in questo campo è stata la natura duale dell’IA. Ha un potenziale incredibile, ma può anche causare danni. Ho avuto un’esperienza diretta con la tecnologia dei deepfake che ha cambiato la mia prospettiva. Guardare come i media sintetici potessero seriamente danneggiare i giovani mi ha fatto realizzare che questo era più di una curiosità tecnica; era una questione critica per la società che necessitava di maggiore comprensione.

Il mio ingresso nella ricerca non è venuto da un piano grandioso, ma da una profonda curiosità. Ogni domanda che ho esaminato mi ha portato alla successiva, creando un ciclo di scoperta. Mi sono trovato interessato a problemi sempre più complessi. Non stavo cercando il riconoscimento; ero genuinamente intrigato dalle domande.

Sono passato dall’esplorazione individuale alla ricerca significativa attraverso la rete e la persistenza. Ho iniziato a contattare ricercatori affermati il cui lavoro ammiravo, principalmente attraverso piattaforme come LinkedIn. Mentre molti non hanno risposto, sono stato fortunato a connettermi con due ricercatori di dottorato che si concentravano sulla sicurezza dell’IA e sul rilevamento dei deepfake. Mi hanno iniziato con piccoli compiti all’interno dei loro progetti di ricerca più ampi. Man mano che dimostravo la mia affidabilità e le mie intuizioni, questi compiti sono diventati più sostanziali.

Questa mentorship è stata fondamentale. Avere ricercatori esperti che guidavano il mio sviluppo mi ha aiutato a trasformare la mia curiosità in lavoro rigoroso. La mia motivazione intrinseca, la loro guida strutturata e lo sforzo costante hanno gradualmente trasformato il mio interesse casuale in contributi di ricerca significativi. Ha rafforzato la mia convinzione che i veri progressi spesso derivano non da scoperte drammatiche, ma da un impegno continuo con problemi importanti.

La maggior parte delle persone pensa ai deepfake in termini di volti o voci. Cosa ti ha ispirato a indagare specificamente sui geospatial deepfake e perché li hai visti come un punto cieco critico?

Quando la maggior parte delle persone sente la parola “deepfake”, pensa a video falsi di celebrità o voci alterate. Io facevo lo stesso all’inizio. Ma man mano che imparavo di più, iniziai a chiedermi dove altro questa tecnologia potesse essere utilizzata in modi che potremmo non considerare. È allora che mi resi conto che le immagini satellitari sono spesso considerate completamente affidabili. Governi, aziende e persino squadre di soccorso prendono decisioni importanti in base a esse.

Questo sembrava un punto cieco. Se un video falso può danneggiare la reputazione, un’immagine o una mappa falsa potrebbero disturbare le catene di approvvigionamento, ingannare gli sforzi di soccorso o addirittura portare a cattive decisioni di sicurezza nazionale. Man mano che la difesa e la guerra diventano più dipendenti da sistemi di intelligenza artificiale, droni e decisioni automatizzate, i rischi crescono. Un feed satellitare manipolato può ingannare non solo le persone, ma anche le macchine.

Cosa mi colpì ancora di più fu che i geospatial deepfake ricevono molta meno attenzione rispetto ai deepfake di volti o voci. Ci sono pochi set di dati pubblici o strumenti standard per rilevarli. Inoltre, individuare falsi in immagini satellitari è molto più difficile. Non si cerca solo problemi come errori di sincronizzazione labiale o bordi sfocati. I dati satellitari sono multispettrali, altamente dettagliati e pieni di pattern che anche gli esperti faticano ad analizzare. Quella mancanza di ricerca, combinata con le alte poste in gioco, mi fece capire che questa è un’area importante da esplorare.

Puoi guidarci attraverso il tuo processo di scoperta – come hai realizzato che le immagini satellitari manipolate potevano porre rischi per la sicurezza nazionale, l’economia e la risposta ai disastri?

Il mio punto di svolta arrivò dopo aver incontrato un deepfake che scosse la mia fiducia in ciò che stavo vedendo. Quel momento di dubbio rivelò qualcosa di importante: gli esseri umani sono naturalmente predisposti a fidarsi delle prove visive e quando quella fiducia viene infranta, cambia il modo in cui vediamo tutto. L’esperienza mi fece confrontare con quanto siamo tutti vulnerabili a inganni astuti.

All’inizio, come la maggior parte delle persone, mi concentrai sugli usi ovvi – video deepfake e volti alterati. I miei primi progetti di rilevamento mi diedero insight vitali su come funzionano queste tecnologie, ma mostrarono anche le implicazioni più ampie che non avevo considerato.

La vera rivelazione arrivò quando servii come direttore associato del team di leadership GIS Nazionale 4-H. Lavorando con dati geospaziali e immagini satellitari, vidi come queste fonti apparentemente oggettive guidano decisioni importanti. Guardai come le mappe guidavano la risposta ai disastri, plasmavano le politiche ambientali e influenzavano progetti di pianificazione comunitaria da milioni di dollari. Cosa mi sorprese di più fu la fiducia cieca in questi dati – erano considerati verità indiscussa.

È allora che tutto ebbe senso. Se un video falso può causare distress emotivo e disordini sociali, un’immagine satellitare manipolata potrebbe portare a esiti disastrosi nel mondo reale. Pensare a risorse di emergenza inviate a zone di disastro false, governi che prendono decisioni basate su dati ambientali errati o mercati finanziari influenzati da rapporti agricoli alterati. Il potenziale di danno era sconvolgente.

Questa combinazione della mia ricerca sui deepfake e dell’esperienza con il GIS rivelò una lacuna nella nostra consapevolezza collettiva. Mentre il mondo discute di scambi di volti e media sintetici, la minaccia molto più grande dei geospatial deepfake rimane in gran parte trascurata. Questa realizzazione divenne la forza trainante dietro la mia ricerca – affrontare una seria vulnerabilità che potrebbe cambiare il modo in cui comprendiamo la verità nel nostro mondo guidato dai dati.

La tua ricerca utilizza reti avversarie generative (GAN) per rilevare immagini satellitari false. Come funziona il tuo sistema e cosa lo distingue da rilevatori di deepfake generici?

La maggior parte dei rilevatori oggi è progettata per identificare volti o voci. Cercano segni come movimenti labiali non sincronizzati o problemi audio. Le immagini satellitari sono molto diverse. Sono costituite da texture fini e pattern spettrali attraverso paesaggi, terreni agricoli, oceani e città. Questi pattern sono più difficili da notare e richiedono un approccio diverso.

Nel mio progetto iniziale, ho addestrato una struttura GAN utilizzando il set di dati SpaceNet-7 di immagini satellitari reali. Il generatore crea immagini sintetiche e il discriminatore impara a distinguere il reale dal falso. Concentrandomi sul discriminatore, ho addestrato un modello che comprende la “firma” statistica dei dati satellitari reali. Ciò include come le texture si comportano in aree urbane rispetto a paesaggi naturali e come i pattern di intensità dei pixel fluiscono attraverso diverse regioni.

Attraverso questo processo di addestramento, il sistema ha raggiunto un alto livello di accuratezza nel rilevamento di falsificazioni. La principale differenza rispetto ai rilevatori generici è che questo è progettato specificamente per dati geospaziali. Invece di cercare errori visivi ovvi, impara le sottili incoerenze spettrali e testuali che rivelano immagini satellitari sintetiche.

La mia attuale ricerca si è spostata sull’esplorazione di modelli di diffusione come generatori. Questi rappresentano un miglioramento significativo rispetto alle GAN nella qualità dell’immagine. I modelli di diffusione come DDPM e DDIM creano immagini satellitari molto realistiche imparando a invertire un processo di aggiunta di rumore. Le immagini sintetiche che producono sono spesso più chiare e dettagliate di quelle generate dalle GAN. Ciò presenta sia un’opportunità che una sfida. Mentre questi modelli possono fornire dati di addestramento migliori per i sistemi di rilevamento, producono anche falsi più avanzati che sono più difficili da rilevare.

Sto ora confrontando vari metodi di rilevamento per trovare quali sono i più efficaci contro diverse tecniche di generazione. Ciò include classificatori basati su CNN tradizionali, architetture basate su transformer che possono catturare relazioni spaziali a lungo raggio in immagini satellitari e metodi ibridi che combinano analisi spettrale con apprendimento profondo. Ogni metodo ha le sue forze: i CNN sono buoni nel rilevamento di problemi di texture locali, i transformer possono individuare problemi strutturali più ampi attraverso aree di immagine e l’analisi spettrale può identificare firme di frequenza sottili che le reti neurali potrebbero trascurare.

Un aspetto interessante è come diversi generatori lasciano impronte forensi uniche. Le immagini generate dalle GAN spesso presentano artefatti specifici nei dettagli ad alta frequenza e nei bordi, mentre le immagini generate dalla diffusione mostrano generalmente incoerenze più sottili nella coerenza generale e nelle caratteristiche spettrali. Addestrando modelli di rilevamento sia con falsi generati dalle GAN che dalla diffusione, sto guadagnando una comprensione più profonda delle firme dell’immaginaria satellitare sintetica. Ciò aiuta a costruire sistemi di rilevamento che possono adattarsi man mano che la tecnologia di generazione si evolve.

Questo approccio multi-modale al rilevamento è essenziale. Man mano che i modelli generativi diventano più avanzati, abbiamo bisogno di sistemi di rilevamento che non dipendano dagli errori di un singolo metodo di generazione. L’obiettivo è identificare le caratteristiche statistiche di base che distinguono le immagini satellitari reali da qualsiasi forma di sintesi, indipendentemente dalla tecnologia sottostante utilizzata per crearle.

Nel tuo articolo MIT URTC, menzioni di aver raggiunto un’accuratezza di circa l’88 percento nel distinguere le immagini satellitari autentiche da quelle false. Quali sono stati i principali progressi che hanno reso possibile questa prestazione?

La chiave del successo è stata rendersi conto che non esistevano set di dati esistenti con immagini satellitari sintetiche per l’addestramento dei modelli di rilevamento. Ciò mi ha spinto a creare un approccio duale, lavorando sia sull’aspetto di generazione che su quello di rilevamento allo stesso tempo. Ho creato il mio stesso set di dati sintetico utilizzando le GAN e ho addestrato i discriminatori con quei dati. Ciò mi ha permesso di costruire un sistema che comprende veramente i pattern statistici delle immagini geospaziali reali.

Un’altra intuizione importante è stata riconoscere che le immagini satellitari presentano sfide molto diverse rispetto ai deepfake di volti. Mentre i volti hanno generalmente strutture anatomiche coerenti, le immagini satellitari coprono una vasta gamma di tipi di terreno – tutto, dalle strutture agricole ai progetti urbani ai paesaggi naturali. Ho dovuto creare un sistema di rilevamento che possa identificare le caratteristiche autentiche attraverso tutti questi ambienti diversi.

Questo metodo specializzato, invece di affidarsi a rilevatori generici, ha permesso al modello di cogliere le sottili differenze spettrali e testuali che rivelano le immagini satellitari sintetiche. Tuttavia, la mia attuale ricerca con i modelli di diffusione sta mostrando risultati molto migliori, raggiungendo tassi di accuratezza più alti e risultando più resilienti contro tecniche di generazione avanzate.

Come hai generato le tue immagini sintetiche per l’addestramento, considerando che non esistono set di dati pubblici per il rilevamento dei geospatial deepfake?

La creazione del set di dati sintetico ha comportato la costruzione di una complessa architettura GAN addestrata sul set di dati SpaceNet-7 di immagini satellitari reali. Il generatore ha imparato a trasformare rumore casuale in immagini satellitari più realistiche. Ha catturato i pattern complessi trovati nei dati geospaziali reali.

Il processo assomiglia a una competizione tra un abile falsario e un verificatore addestrato. Il generatore continua a migliorare le sue immagini sintetiche mentre il discriminatore diventa più bravo a individuare segni sottili di falsificazione. Questo addestramento reciproco crea un ciclo in cui entrambe le parti si spingono a vicenda a migliorare le prestazioni.

Controllando sia il processo di generazione che quello di rilevamento, ho guadagnato insight essenziali su come vengono create le immagini satellitari sintetiche. Questa prospettiva duale è stata cruciale per lo sviluppo di metodi di rilevamento robusti che riconoscono cosa sembrano le immagini reali e come quelle sintetiche se ne discostano.

Quali tipi di anomalie – spettrali, testuali o altro – il tuo sistema rileva quando distingue tra immagini reali e manipolate?

A differenza dei deepfake di volti, dove problemi come il blinking non naturale o errori di sincronizzazione labiale sono generalmente facili da individuare, i problemi delle immagini satellitari sono molto più sottili. Il mio sistema individua incoerenze spettrali dove i pattern di interazione tra diverse bande elettromagnetiche non corrispondono ai dati di osservazione della Terra reali. Individua anche irregolarità testuali, come terreni agricoli che appaiono troppo uniformi, superfici oceaniche che mancano di pattern di onde naturali o texture urbane con ripetizione artificiale.

Le anomalie di contesto aggiungono un altro livello di rilevamento. Queste includono reti stradali che non seguono le forme naturali del terreno, layout agricoli che ignorano i limiti reali dell’agricoltura o pattern di sviluppo urbano che non si allineano con la crescita tipica della città. Questi problemi potrebbero sfuggire alla revisione umana casuale ma creano firme statistiche chiare che il modello può riconoscere.

Il sistema ha tuttavia limitazioni con immagini complesse. Aree urbane dense con strutture sovrapposte o immagini satellitari influenzate da distorsioni atmosferiche significative possono ridurre l’accuratezza del rilevamento. Questi casi limite indicano aree che necessitano di ulteriore ricerca e miglioramento del modello.

Guardando avanti, il tuo poster menziona lavori futuri come estensioni del browser per l’autenticazione geospaziale in tempo reale e framework multi-dataset. Cosa vedi come il prossimo grande passo in questa linea di ricerca?

Mentre la mia ricerca basata su GAN ha mostrato che possiamo rilevare con accuratezza le immagini satellitari false, ho imparato che buoni risultati in laboratorio non garantiscono il successo nel mondo reale. Le immagini sintetiche spesso non si allineano con i pattern che i modelli di rilevamento sono stati addestrati a riconoscere e le tecnologie generative stanno cambiando rapidamente.

La prossima fase si concentra sulla costruzione di sistemi solidi e adattabili che funzionino bene in condizioni variabili. Ciò significa che dobbiamo creare metodi di valutazione migliori che mimino la natura imprevedibile dell’uso di immagini sintetiche nel mondo reale. Dobbiamo anche sviluppare strumenti pratici come estensioni del browser leggere, API in tempo reale e framework di integrazione per aiutare nei processi decisionali importanti.

La mia attuale direzione di ricerca sottolinea l’adattabilità e l’uso pratico. Non sto solo cercando di migliorare l’accuratezza del modello in ambienti controllati. Sto progettando sistemi di rilevamento che possano rimanere affidabili man mano che le tecniche generative cambiano. Voglio fornire strumenti accessibili per governi, aziende e comunità che si affidano a dati geospaziali attendibili.

Oltre ai dati geospaziali, la tua ricerca più ampia copre anche video deepfake, autenticazione vocale in tempo reale e bias di IA nel settore finanziario. Come scegli quali sfide etiche affrontare dopo?

La direzione della mia ricerca non è influenzata da argomenti di tendenza; si concentra sull’individuazione di vulnerabilità critiche in sistemi in cui le persone ripongono una fiducia fondamentale. Ogni progetto inizia identificando specifici punti in cui la fiducia può essere compromessa, portando a gravi conseguenze.

La ricerca sui deepfake è iniziata con un’esperienza personale che ha mostrato come i media sintetici possano danneggiare la fiducia nelle prove visive. Il lavoro con il team di leadership GIS Nazionale 4-H ha evidenziato quanto le persone si affidino alle immagini satellitari per la risposta ai disastri e le decisioni politiche. Questo collegamento mi ha portato a ricercare i geospatial deepfake, dove le poste in gioco sono potenzialmente molto alte.

Questo pattern si applica anche all’autenticazione vocale. Ho considerato come le chiamate di emergenza sintetiche potrebbero sopraffare i sistemi del 911. C’è anche la questione del bias di IA nel settore finanziario, dove la discriminazione algoritmica può negare opportunità a intere comunità. Ognuna di queste aree riflette una relazione di fiducia critica tra le persone e la tecnologia che necessita di protezione.

Esamino dove la tecnologia incontra la vulnerabilità sociale, concentrandomi sulla ricerca che può prevenire la rottura della fiducia prima che si trasformi in crisi diffuse.

Hai anche pubblicato Tech Demystified: Cybersecurity, che è stato adottato in scuole. Cosa ti ha motivato a scrivere questo libro e come rendi materiale tecnico così accessibile a studenti e educatori?

Il libro è nato direttamente dalla mia esperienza di ricerca sui deepfake. Mi ha mostrato quanto sia importante l’alfabetizzazione digitale per i giovani che affrontano un mondo tecnologico più complesso. La cybersecurity sembrava il punto di partenza giusto perché influenza tutti, indipendentemente dalle loro competenze tecniche o obiettivi di carriera.

Mi sono rivolto a studenti di pochi anni più giovani di me. Cosa avrebbe aiutato me a comprendere le minacce informatiche quando ho iniziato a imparare. Ho organizzato il contenuto utilizzando storie, paragoni e immagini, insieme ad attività interattive e domande di riflessione. Questi strumenti rendono le idee difficili più facili da capire.

È stato particolarmente significativo vedere programmi scolastici, biblioteche scolastiche e organizzazioni no-profit che servono studenti svantaggiati adottare il libro. Volevo creare una risorsa che apra porte per gli studenti che altrimenti potrebbero sentirsi esclusi dalle conversazioni sulla cybersecurity.

Concentrandomi sulla cybersecurity ha gettato le basi per la sicurezza digitale prima del mio prossimo libro che affronterà l’IA e i deepfake, che è il mio principale interesse di ricerca. Gli studenti devono imparare i principi di base della sicurezza prima di addentrarsi nelle questioni etiche complesse che circondano l’intelligenza artificiale.

Nel libro, copri minacce che vanno dal phishing al ransomware. Cosa pensi sia il principio di cybersecurity più importante che i giovani dovrebbero comprendere oggi?

Il principio più importante è “fidati ma verifica”. È vitale sviluppare l’abitudine di mettere in discussione le informazioni digitali prima di agire. La maggior parte degli attacchi informatici di successo sfrutta la fiducia umana invece di affidarsi a vulnerabilità tecniche complesse. Che si tratti di cliccare su link sospetti, scaricare file sconosciuti o rispondere a messaggi che sembrano familiari, fermarsi a verificare può fermare molti attacchi.

Per i giovani che trascorrono molto tempo online e passano rapidamente tra piattaforme, questa mentalità di verifica è particolarmente importante. Formare l’abitudine di mettere in discussione prima di cliccare costruisce un approccio difensivo che protegge contro varie minacce.

Questo principio va oltre la cybersecurity e si estende all’alfabetizzazione digitale più ampia. Le stesse abilità di pensiero critico che proteggono contro il malware aiutano anche a individuare disinformazione, deepfake e altri tipi di inganno digitale.

Tra la tua ricerca accademica, le iniziative di istruzione STEM e il lavoro pubblicato, sei chiaramente appassionato di tecnologia e etica. Come spera di plasmare il futuro della sicurezza dell’IA e dell’innovazione responsabile?

Tutto ciò che faccio si concentra sul costruire e mantenere la fiducia nella tecnologia. L’IA può raggiungere il suo potenziale solo se le persone credono che questi sistemi siano sicuri, equi e trasparenti. Senza quella fiducia, anche tecnologie rivoluzionarie potrebbero incontrare difficoltà a guadagnare accettazione e utilizzo.

Attraverso la ricerca, mi concentro su trovare vulnerabilità chiave prima che diventino problemi diffusi. Lavoro su aree come i geospatial deepfake e l’autenticazione vocale, dove i rischi non sono sempre ovvi ma possono avere conseguenze gravi. Attraverso l’istruzione e la scrittura, voglio aiutare gli studenti a comprendere questi sistemi invece di vederli come una scatola nera misteriosa riservata agli esperti.

La mia visione per l’innovazione responsabile include la sicurezza e l’equità fin dalle prime fasi dello sviluppo, non come afterthought. Ciò significa valutare i modelli non solo per le loro prestazioni, ma anche per i possibili punti di fallimento, identificare chi potrebbe essere danneggiato e creare strategie per ridurre quei rischi.

Nel lungo termine, voglio aiutare a creare una cultura in cui ogni avanzamento nell’IA riceva la stessa attenzione per la sicurezza e la responsabilità. Il mio lavoro coinvolge ricerca, istruzione e comunicazione perché trovare rischi è utile solo se possiamo anche aiutare gli altri a comprenderli e affrontarli.

Se posso aiutare a individuare vulnerabilità critiche mentre aumento anche l’alfabetizzazione tecnologica, credo che giocherò un ruolo nel plasmare un futuro dell’IA che le persone possano veramente fidarsi e trarre beneficio.

Grazie per la grande intervista, i lettori sono invitati a leggere Tech Demystified: Cybersecurity: Principi fondamentali della moderna difesa cibernetica.

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.