Interviste
Paola Zeni, Chief Privacy Officer at RingCentral – Interview Series

Paola Zeni è il Chief Privacy Officer di RingCentral. È un avvocato internazionale per la privacy con più di 20 anni di esperienza in materia di privacy e un veterano dell’industria della sicurezza informatica, avendo lavorato presso Symantec e Palo Alto Networks, dove ha costruito il programma di privacy dall’inizio.
Cosa ti ha ispirato a perseguire una carriera nella privacy dei dati?
Alla fine degli anni ’90, quando gli Stati membri dell’UE stavano attuando la direttiva sulla protezione dei dati dell’UE del 1995, la privacy ha iniziato a emergere in Europa come un problema importante. In quanto avvocato tecnologico che lavorava con aziende tecnologiche come HP e Agilent Technologies, ho considerato questo un argomento rilevante e ho iniziato a prestare attenzione e a crescere nella comprensione dei requisiti di privacy. Ho capito rapidamente che questa era un’area in cui volevo essere coinvolta, non solo perché la trovavo giuridicamente interessante e sfidante, ma anche perché è un problema che tocca molti team e molti processi in tutta l’organizzazione. Essere coinvolti nella privacy dei dati significa lavorare con diversi gruppi e individui e imparare su molti aspetti dell’azienda. Essere in grado di influenzare e guidare il cambiamento su un problema importante in molte funzioni dell’organizzazione, seguendo un’area giuridica in via di sviluppo, è stato estremamente gratificante. Lavorare nella privacy dei dati oggi è più emozionante che mai, considerando gli sviluppi tecnologici e le crescenti complessità giuridiche a livello globale.
Quando ti sei unita a RingCentral, hai creato un Trust Center, cosa è esattamente?
In RingCentral crediamo che fornire ai nostri clienti e partner informazioni sulla privacy e sulla sicurezza dei loro dati sia essenziale per costruire e mantenere la fiducia nei nostri servizi. Per questo motivo continuiamo a creare materiale e risorse, come datasheet sulla privacy dei prodotti per le nostre offerte principali, whitepaper e guide sulla conformità, e le rendiamo disponibili ai clienti e ai partner sul nostro Trust Center pubblico. Recentemente abbiamo aggiunto il nostro Whitepaper sulla trasparenza dell’AI. Il Trust Center è un componente critico del nostro impegno per la trasparenza con gli stakeholder chiave.
Come fa RingCentral a garantire che i principi di privacy siano integrati in tutti i prodotti e servizi guidati dall’AI?
L’intelligenza artificiale può dare alle aziende il potere di sbloccare un nuovo potenziale e di estrarre rapidamente informazioni e informazioni significative dai loro dati – ma con questi benefici, arriva la responsabilità. In RingCentral, rimaniamo incessantemente concentrati sulla protezione dei clienti e dei loro dati. Ciò lo realizziamo attraverso i pilastri della privacy che guidano le nostre pratiche di sviluppo del prodotto
Privacy by Design: Sfruttiamo il nostro approccio di progettazione della privacy lavorando a stretto contatto con il consiglio del prodotto, i manager del prodotto e gli ingegneri del prodotto per incorporare i principi di privacy e i requisiti di privacy in tutti gli aspetti dei nostri prodotti e servizi che implementano l’AI. Le valutazioni della privacy sono integrate nel ciclo di vita dello sviluppo del prodotto, dall’ideazione alla distribuzione e costruiamo su questo per condurre recensioni e linee guida sull’AI.
Trasparenza: Offriamo materiale e risorse ai clienti, ai partner e agli utenti su come vengono raccolti e utilizzati i loro dati, come parte del nostro impegno per la trasparenza e la costruzione della fiducia nei nostri servizi.
Controllo del cliente: Forniamo opzioni che consentono ai clienti di mantenere il controllo nella decisione di come desiderano che il nostro AI interagisca con i loro dati.
Puoi fornire esempi di misure di privacy specifiche incorporate nelle soluzioni di comunicazione AI-first di RingCentral?
Innanzitutto, abbiamo aggiunto alla documentazione del prodotto informazioni che dettagliano come raccogliamo e elaboriamo i dati: chi li archivia, quali terze parti hanno accesso ad essi, ecc. nelle nostre datasheet sulla privacy, che sono pubblicate sul nostro Trust Center. Indichiamo specificamente quali dati servono come input per l’AI e quali dati vengono generati come output dall’AI. Inoltre, come parte delle nostre recensioni del prodotto in collaborazione con il consiglio del prodotto, implementiamo dichiarazioni per adempiere al nostro impegno per la trasparenza e forniamo ai nostri amministratori di clienti opzioni per controllare la condivisione dei dati con l’AI.
Perché è cruciale per le organizzazioni mantenere una completa trasparenza sulla raccolta e sull’utilizzo dei dati nell’era dell’AI?
Per favorire l’adozione di un AI affidabile, è imperativo per le organizzazioni stabilire la fiducia in come l’AI elabora i dati e nell’accuratezza dell’output. Ciò si estende ai dati su cui l’AI è addestrata, alla logica applicata dall’algoritmo e alla natura dell’output.
Crediamo che quando i fornitori sono trasparenti e condividono informazioni sulla loro AI, su come funziona e a cosa serve, i clienti possono prendere decisioni informate e sono in grado di fornire dichiarazioni più specifiche ai loro utenti, migliorando così l’adozione dell’AI e la fiducia. Quando sviluppiamo e forniamo AI, pensiamo a tutti gli stakeholder: i nostri clienti, ma anche i loro dipendenti, partner e clienti.
Quali passi possono intraprendere le organizzazioni per garantire che i loro fornitori aderiscano a politiche di utilizzo dell’AI stringenti?
In RingCentral, crediamo che il deploy dell’AI richieda fiducia tra noi e i nostri fornitori. I fornitori devono impegnarsi a incorporare la privacy e la sicurezza dei dati nell’architettura dei loro prodotti. Per questo motivo, abbiamo costruito sul nostro processo di due diligence esistente per i fornitori aggiungendo una specifica recensione dell’AI e abbiamo implementato uno standard per l’utilizzo di AI di terze parti, con requisiti specifici per la protezione di RingCentral e dei nostri clienti.
Quali strategie impiega RingCentral per garantire che i dati alimentati ai sistemi AI siano accurati e non distorti?
Con l’equità come principio guida, stiamo costantemente considerando l’impatto della nostra AI e rimaniamo impegnati a mantenere la consapevolezza dei potenziali pregiudizi e rischi, con meccanismi in atto per identificare e mitigare eventuali conseguenze inintenzionali.
- Abbiamo adottato un quadro specifico per l’identificazione e la prevenzione dei pregiudizi come parte del nostro Ethical AI Development Framework, che applichiamo a tutte le nostre recensioni del prodotto.
- Il nostro uso dell’AI prevede un essere umano nel loop per valutare gli output dei nostri sistemi AI. Ad esempio, nelle nostre Smart Notes, anche senza monitorare il contenuto delle note prodotte, possiamo dedurre dalle azioni degli utenti se le note erano accurate o meno. Se un utente modifica costantemente le note, invia un segnale a RingCentral per regolare i prompt.
- Come altro esempio di essere umano nel loop, il nostro processo di generazione aumentata dalla ricerca consente che l’output sia strettamente focalizzato su specifiche banche dati di conoscenza e fornisce riferimenti per le fonti degli output generati. Ciò consente all’essere umano di verificare la risposta e di approfondire le ricerche stesse.
Garantendo che la nostra AI sia accurata, ci atteniamo alla nostra promessa di fornire un’AI spiegabile e trasparente.
Quali sfide di privacy sorgono con l’AI nelle distribuzioni aziendali su larga scala e come vengono affrontate?
Innanzitutto, è importante ricordare che le leggi sulla privacy esistenti contengono disposizioni che si applicano all’intelligenza artificiale. Quando le leggi sono neutrali rispetto alla tecnologia, i quadri giuridici e le guide etiche si applicano alle nuove tecnologie.. Pertanto, le organizzazioni devono garantire che l’utilizzo dell’AI sia conforme alle leggi sulla privacy esistenti, come il GDPR e il CPRA.
In secondo luogo, la responsabilità dei professionisti della privacy è quella di monitorare le leggi sull’AI nascenti ed emergenti, che variano da stato a stato e da paese a paese. Le leggi sull’AI affrontano numerosi aspetti dell’AI, ma una delle priorità principali per la nuova regolamentazione dell’AI è la protezione dei diritti umani fondamentali, compresa la privacy.
I fattori di successo critici nell’affrontare le questioni di privacy sono la trasparenza verso gli utenti, specialmente laddove l’AI esegue il profiling o prende decisioni automatizzate che impattano gli individui e consente scelte, in modo che gli utenti possano opt-out dall’utilizzo dell’AI che non si sentono a proprio agio.
Quali tendenze future si vedono nell’AI e nella privacy dei dati e come si prepara RingCentral per rimanere all’avanguardia?
Le principali tendenze sono nuove leggi che continueranno a entrare in vigore, le crescenti richieste degli utenti per la trasparenza e il controllo, il bisogno sempre crescente di gestire i rischi legati all’AI, compresi i rischi di terze parti, e l’aumento dei rischi informatici nell’AI.
Le aziende devono mettere in atto una governance robusta e i team devono collaborare tra funzioni per garantire l’allineamento interno, minimizzare i rischi e aumentare la fiducia degli utenti. In RingCentral, il nostro impegno continuo per la privacy, la sicurezza e la trasparenza rimane ineguagliato. Prendiamo queste cose seriamente. Attraverso la nostra governance dell’AI e i nostri pilastri di privacy dell’AI, RingCentral è impegnata in un’AI etica.
Grazie per la grande intervista, i lettori che desiderano saperne di più possono visitare RingCentral.












