mozzicone Bailey Kacsmar, PhD Candidate presso l'Università di Waterloo - Serie di interviste - Unite.AI
Seguici sui social

interviste

Bailey Kacsmar, PhD Candidate presso l'Università di Waterloo – Serie di interviste

mm

Pubblicato il

 on

Bailey Kacsmar è dottoranda presso la School of Computer Science del Università di Waterloo e un membro di facoltà entrante presso il Università di Alberta. I suoi interessi di ricerca riguardano lo sviluppo di tecnologie di miglioramento della privacy attente all'utente, attraverso lo studio parallelo di approcci tecnici per il calcolo privato insieme alle corrispondenti percezioni, preoccupazioni e comprensione degli utenti di queste tecnologie. Il suo lavoro mira a identificare le potenzialità e i limiti della privacy nelle applicazioni di machine learning.

I tuoi interessi di ricerca riguardano lo sviluppo di tecnologie di miglioramento della privacy attente all'utente, perché la privacy nell'IA è così importante?

La privacy nell'IA è così importante, in gran parte perché l'IA nel nostro mondo non esiste senza dati. I dati, pur essendo un'astrazione utile, sono in definitiva qualcosa che descrive le persone e i loro comportamenti. Raramente lavoriamo con dati sulle popolazioni di alberi e sui livelli dell'acqua; quindi, ogni volta che lavoriamo con qualcosa che può influenzare persone reali, dobbiamo esserne consapevoli e capire come il nostro sistema può fare del bene o del male. Ciò è particolarmente vero per l'intelligenza artificiale, dove molti sistemi beneficiano di enormi quantità di dati o sperano di utilizzare dati altamente sensibili (come i dati sulla salute) per cercare di sviluppare nuove comprensioni del nostro mondo.

In quali modi hai notato che il machine learning ha tradito la privacy degli utenti?

Tradito è una parola forte. Tuttavia, ogni volta che un sistema utilizza informazioni su persone senza il loro consenso, senza informarle e senza considerare potenziali danni, corre il rischio di tradire le norme sulla privacy individuali o sociali. In sostanza, questo si traduce in un tradimento di mille piccoli tagli. Tali pratiche possono essere l'addestramento di un modello sulle caselle di posta elettronica degli utenti, l'addestramento sui messaggi di testo degli utenti o sui dati sanitari; il tutto senza informare gli interessati dei dati.

Potresti definire cos'è la privacy differenziale e quali sono le tue opinioni al riguardo?  

La privacy differenziale è una definizione o una tecnica che è diventata importante in termini di utilizzo per ottenere la privacy tecnica. Le definizioni tecniche della privacy, in generale, includono due aspetti chiave; cosa viene protetto e da chi. All'interno della privacy tecnica, le garanzie sulla privacy sono protezioni che si ottengono a condizione che una serie di presupposti siano soddisfatti. Queste ipotesi possono riguardare i potenziali avversari, le complessità del sistema o le statistiche. È una tecnica incredibilmente utile che ha una vasta gamma di applicazioni. Tuttavia, ciò che è importante tenere presente è che la privacy differenziale non è equivalente alla privacy.

La privacy non è limitata a una definizione oa un concetto ed è importante essere consapevoli di altre nozioni. Ad esempio, l'integrità contestuale che è una nozione concettuale di privacy che spiega cose come il modo in cui diverse applicazioni o diverse organizzazioni cambiano le percezioni sulla privacy di un individuo rispetto a una situazione. Esistono anche nozioni legali sulla privacy come quelle contenute nel PIPEDA canadese, nel GDPR europeo e nel Consumer Protection Act (CCPA) della California. Tutto questo per dire che non possiamo trattare i sistemi tecnici come se esistessero in un vuoto libero da altri fattori di privacy, anche se si utilizza la privacy differenziale.

Un altro tipo di machine learning che migliora la privacy è l’apprendimento federato, come definiresti di cosa si tratta e quali sono le tue opinioni al riguardo?

L'apprendimento federato è un modo per eseguire l'apprendimento automatico quando il modello deve essere addestrato su una raccolta di set di dati distribuiti tra diversi proprietari o posizioni. Non è intrinsecamente un tipo di apprendimento automatico che migliora la privacy. Un tipo di apprendimento automatico che migliora la privacy deve definire formalmente cosa viene protetto, da chi viene protetto e le condizioni che devono essere soddisfatte affinché queste protezioni siano mantenute. Ad esempio, quando pensiamo a un semplice calcolo differenzialmente privato, garantisce che qualcuno che visualizza l'output non sarà in grado di determinare se un determinato punto dati è stato contribuito o meno.

Inoltre, la privacy differenziale non fornisce questa garanzia se, ad esempio, esiste una correlazione tra i punti dati. L'apprendimento federato non ha questa funzione; addestra semplicemente un modello su una raccolta di dati senza richiedere ai titolari di tali dati di fornire direttamente i propri set di dati l'un l'altro o a terzi. Sebbene sembri una caratteristica della privacy, ciò che serve è una garanzia formale che non si possano apprendere le informazioni protette dati gli intermediari e gli output che le parti non fidate osserveranno. Questa formalità è particolarmente importante nell'ambiente federato in cui le parti non attendibili includono tutti coloro che forniscono dati per addestrare il modello collettivo.

Quali sono alcuni degli attuali limiti di questi approcci?

Le attuali limitazioni potrebbero essere meglio descritte come la natura del compromesso privacy-utilità. Anche se fai tutto il resto, comunichi le implicazioni sulla privacy alle persone interessate, valuti il ​​sistema per quello che stai cercando di fare, ecc., si tratta comunque di raggiungere una privacy perfetta significa che non realizziamo il sistema, raggiungere la perfetta utilità generalmente non hanno alcuna protezione della privacy, quindi la domanda è come determinare qual è il compromesso "ideale". Come possiamo trovare il giusto punto di svolta e costruirci verso di esso in modo tale da ottenere comunque la funzionalità desiderata fornendo al contempo le necessarie protezioni della privacy.

Attualmente miri a sviluppare una tecnologia per la privacy consapevole dell'utente attraverso lo studio parallelo di soluzioni tecniche per il calcolo privato. Potresti entrare nei dettagli su quali sono alcune di queste soluzioni?

Ciò che intendo con queste soluzioni è che possiamo, in parole povere, sviluppare un numero qualsiasi di sistemi tecnici per la privacy. Tuttavia, quando si fa ciò è importante determinare se le garanzie sulla privacy stanno raggiungendo quelle effettuate. Ciò può significare sviluppare un sistema dopo aver scoperto quali tipi di protezioni apprezzano la popolazione. Ciò può significare aggiornare un sistema dopo aver scoperto come le persone effettivamente utilizzano un sistema date le loro minacce nella vita reale e le considerazioni sui rischi. Una soluzione tecnica potrebbe essere un sistema corretto che soddisfi la definizione che ho citato prima. Una soluzione consapevole dell'utente progetterebbe il proprio sistema sulla base degli input degli utenti e di altri soggetti nel dominio dell'applicazione previsto.

Attualmente stai cercando studenti laureati interessati per iniziare a settembre 2024, perché pensi che gli studenti dovrebbero essere interessati alla privacy dell'IA?

Penso che gli studenti dovrebbero essere interessati perché è qualcosa che crescerà solo nella sua pervasività all'interno della nostra società. Per avere un'idea di quanto velocemente questi sistemi non guardino oltre la recente amplificazione di Chat-GPT attraverso articoli di notizie, social media e dibattiti sulle sue implicazioni. Esistiamo in una società in cui la raccolta e l'utilizzo dei dati è così radicata nella nostra vita quotidiana che forniamo quasi costantemente informazioni su noi stessi a varie aziende e organizzazioni. Queste aziende vogliono utilizzare i dati, in alcuni casi per migliorare i propri servizi, in altri a scopo di lucro. A questo punto, sembra irrealistico pensare che queste pratiche di utilizzo dei dati aziendali cambieranno. Tuttavia, l'esistenza di sistemi di tutela della privacy che proteggono gli utenti pur consentendo determinate analisi desiderate dalle aziende può aiutare a bilanciare il compromesso rischio-rendimento che è diventato una parte così implicita della nostra società.

Grazie per l'ottima intervista, i lettori che sono interessati a saperne di più dovrebbero visitare Pagina Github di Bailey Kacsmar.

Socio fondatore di unite.AI e membro di Consiglio tecnologico di Forbes, Antonio è un futurista che è appassionato del futuro dell'intelligenza artificiale e della robotica.

È anche il Fondatore di Titoli.io, un sito web che si concentra sugli investimenti in tecnologie dirompenti.