Connect with us

Paola Zeni, Chief Privacy Officer på RingCentral – Intervjuserie

Intervjuer

Paola Zeni, Chief Privacy Officer på RingCentral – Intervjuserie

mm

Paola Zeni är Chief Privacy Officer på RingCentral. Hon är en internationell advokat inom integritet med mer än 20 års erfarenhet av integritetsfrågor och en veteran inom cybersäkerhetsbranschen, med erfarenhet från Symantec och Palo Alto Networks, där hon byggde upp integritetsprogrammet från grunden.

Vad inspirerade dig att söka en karriär inom dataskydd?

I slutet av 1990-talet, när EU:s medlemsstater införde 1995 års EU-direktiv om dataskydd, började dataskydd framträda i Europa som en viktig fråga. Som en teknisk advokat som arbetade med tekniska företag som HP och Agilent Technologies, ansåg jag att detta var ett relevant ämne och började följa det noga och utveckla min förståelse för kraven på integritet. Jag insåg snabbt att detta var ett område som jag ville engagera mig i, inte bara för att jag fann det juridiskt intressant och utmanande, utan också för att det är en fråga som berör många team och processer inom hela organisationen. Att arbeta med dataskydd innebär att samarbeta med olika grupper och individer och lära sig om många aspekter av verksamheten. Att kunna påverka och driva förändring på en viktig fråga över många funktioner inom organisationen, samtidigt som man följer en ny och utvecklande juridisk område, har varit extremt givande. Att arbeta med dataskydd idag är mer spännande än någonsin, med tanke på de tekniska utvecklingarna och de ökade juridiska komplexiteterna på global nivå.

När du först anslöt till RingCentral, skapade du ett Trust Center, vad är detta specifikt?

På RingCentral tror vi att det är viktigt att tillhandahålla våra kunder och partners med information om integriteten och säkerheten för deras data för att bygga och upprätthålla förtroende för våra tjänster. Av denna anledning skapar vi kontinuerligt informationsmaterial och resurser, såsom produktspecifika integritetsdokument för våra kärnerbjudanden, vitböcker och efterlevnads guider, och gör dem tillgängliga för kunder och partners på vår offentliga Trust Center. Vi har nyligen lagt till vår vitbok om AI-transparens. Trust Center är en kritisk komponent i vårt åtagande att vara transparenta mot våra nyckelintressenter.

Hur säkerställer RingCentral att integritetsprinciper integreras i alla AI-drivna produkter och tjänster?

Artificiell intelligens kan ge företag möjlighet att låsa upp ny potential och snabbt extrahera meningsfull information och insikter från sina data – men med dessa fördelar kommer ansvar. På RingCentral är vi obevekligt fokuserade på att skydda våra kunder och deras data. Vi uppnår detta genom våra integritetspelare som vägleder vår produktutvecklingspraxis

Integritet vid design: Vi använder vår integritetsprincip vid design genom att arbeta nära med produktjurister, produktchefer och produktutvecklare för att införliva integritetsprinciper och integritetskrav i alla aspekter av våra produkter och tjänster som implementerar AI. Integritetsbedömningar är integrerade i produktutvecklingslivscykeln, från idé till distribution och vi bygger vidare på detta för att genomföra AI-granskningar och vägledning.

Transparens: Vi tillhandahåller informationsmaterial och resurser till kunder, partners och användare om hur deras data samlas in och används, som en del av vårt åtagande att vara transparenta och bygga förtroende för våra tjänster.

Kundkontroll: Vi tillhandahåller alternativ som ger kunderna möjlighet att behålla kontrollen över hur de vill att vår AI ska interagera med deras data.

Kan du ge exempel på specifika integritetsåtgärder som är införlivade i RingCentrals AI-första kommunikationslösningar?

Först och främst har vi lagt till information i vår produkt dokumentation om hur vi samlar in och bearbetar data: vem som lagrar den, vilka tredje parter som har tillgång till den, etc. i våra integritetsdokument, som publiceras på vår Trust Center. Vi specificerar särskilt vilken data som används som indata för AI och vilken data som genereras som utdata från AI. Dessutom, som en del av vår produktgranskning i samarbete med produktjurister, inför vi avslöjanden för att uppfylla vårt åtagande att vara transparenta, och vi ger våra kunders administratörer alternativ för att kontrollera delning av data med AI.

Varför är det viktigt för organisationer att upprätthålla fullständig transparens om datainsamling och användning i AI-eran?

För att främja antagandet av tillförlitlig AI är det avgörande för organisationer att etablera förtroende för hur AI bearbetar data och i noggrannheten i utdata. Detta omfattar den data som AI tränas på, den logik som tillämpas av algoritmen och karaktären på utdata.

Vi tror att när leverantörer är transparenta och delar information om sin AI, hur den fungerar och vad den används för, kan kunder fatta informerade beslut och ges möjlighet att tillhandahålla mer specifika avslöjanden till sina användare, vilket förbättrar antagandet av AI och förtroendet. När vi utvecklar och tillhandahåller AI tänker vi på alla intressenter: våra kunder, men också deras anställda, partners och kunder.

Vilka steg kan organisationer ta för att säkerställa att deras leverantörer följer strikta AI-användningspolicys?

På RingCentral tror vi att distributionen av AI kräver förtroende mellan oss och våra leverantörer. Leverantörer måste åta sig att införliva integritet och datasäkerhet i arkitekturen för sina produkter. Av denna anledning har vi byggt vidare på vår befintliga leverantörsdue diligence-process genom att lägga till en specifik AI-granskning, och vi har infört en standard för användning av tredjeparts-AI, med specifika krav för skydd av RingCentral och våra kunder.

Vilka strategier använder RingCentral för att säkerställa att data som matas in i AI-system är korrekt och opartisk?

Med rättvisa som en ledande princip, överväger vi kontinuerligt AI:s påverkan och förblir engagerade i att upprätthålla medvetenhet om potentiella bias och risker, med mekanismer på plats för att identifiera och mildra eventuella oavsiktliga konsekvenser.

  • Vi har antagit ett specifikt ramverk för identifiering och förebyggande av bias som en del av vår Etisk AI-utvecklingsram, som vi tillämpar på alla våra produktgranskningar.
  • Våra användningsfall för AI involverar en mänsklig faktor för att utvärdera utdata från våra AI-system. Till exempel i våra Smarta anteckningar, även utan att övervaka innehållet i de producerade anteckningarna, kan vi sluta oss till från användarnas åtgärder om anteckningarna var korrekta eller inte. Om en användare redigerar anteckningarna konstant, skickar det en signal till RingCentral att justera prompten.
  • Som ett annat exempel på mänsklig faktor, tillåter vår återvinning av genererad process att utdata ska fokuseras strikt på specifika kunskapsdatabaser och tillhandahåller referenser för källorna till de genererade utdata. Detta tillåter den mänskliga att verifiera svaret och att gräva djupare i referenserna själva.

Genom att säkerställa att vår AI är korrekt, står vi bakom vårt löfte att tillhandahålla förklarlig och transparent AI.

Vilka integritetsutmaningar uppstår med AI i storskaliga företagsdistributioner, och hur hanteras de?

Först och främst är det viktigt att komma ihåg att befintliga integritetslagar innehåller bestämmelser som är tillämpliga på artificiell intelligens. När lagar är tekniskt neutrala, tillämpas juridiska ramverk och etiska riktlinjer på nya tekniker. Organisationer behöver därför säkerställa att deras användning av AI överensstämmer med befintliga integritetslagar, såsom GDPR och CPRA.

Som en andra punkt är det integritetsproffsens ansvar att övervaka ny och framväxande AI-lagar, som varierar från stat till stat och land till land. AI-lagar behandlar många aspekter av AI, men en av de främsta prioriteringarna för ny AI-reglering är skyddet av grundläggande mänskliga rättigheter, inklusive integritet.

De kritiska framgångsfaktorerna för att hantera integritetsfrågor är transparens gentemot användare, särskilt där AI utför profilering eller fattar automatiserade beslut som påverkar individer och möjliggör val, så att användare kan välja bort AI-användning som de inte känner sig bekväma med.

Vilka framtida trender ser du inom AI och dataskydd, och hur förbereder sig RingCentral för att ligga i framkant?

De stora trenderna är nya lagar som kommer att fortsätta att träda i kraft, användarnas ökade krav på transparens och kontroll, det alltmer växande behovet av att hantera AI-relaterade risker, inklusive tredjepartsrisker, och den ökande risken för cyberhot i AI.

Företag behöver införa robusta styrningsmodeller och team måste samarbeta över funktioner för att säkerställa intern samstämmighet, minimera risker och öka användarnas förtroende. På RingCentral förblir vårt löpande åtagande till integritet, säkerhet och transparens obesegrat. Vi tar dessa saker på allvar. Genom vår AI-styrning och våra AI-integritetspelare är RingCentral engagerat i etisk AI.

Tack för den utmärkta intervjun, läsare som vill lära sig mer bör besöka RingCentral.

Antoine är en visionär ledare och medgrundare av Unite.AI, driven av en outtröttlig passion för att forma och främja framtiden för AI och robotik. En serieentreprenör, han tror att AI kommer att vara lika omstörtande för samhället som elektricitet, och fångas ofta i extas över potentialen för omstörtande teknologier och AGI. Som en futurist, är han dedikerad till att utforska hur dessa innovationer kommer att forma vår värld. Dessutom är han grundare av Securities.io, en plattform som fokuserar på att investera i banbrytande teknologier som omdefinierar framtiden och omformar hela sektorer.