Connect with us

Paola Zeni, Chief Privacy Officer hos RingCentral – Interview Serie

Interviews

Paola Zeni, Chief Privacy Officer hos RingCentral – Interview Serie

mm

Paola Zeni er Chief Privacy Officer hos RingCentral. Hun er en international privatretsadvokat med mere end 20 års erfaring med privatliv og en veteran i cybersikkerhedsindustrien, hvor hun har arbejdet hos Symantec og Palo Alto Networks, hvor hun byggede privatlivsprogrammet fra bunden.

Hvad inspirerede dig til at forfølge en karriere inden for data privatliv?

I slutningen af 1990’erne, da EU-medlemsstater implementerede direktivet om beskyttelse af personlige oplysninger fra 1995, begyndte data privatliv at dukke op i Europa som et vigtigt spørgsmål. Som en teknologiadvokat, der arbejdede med teknologivirksomheder som HP og Agilent Technologies, betragtede jeg dette som et relevant emne og begyndte at følge det nøje og udvikle min forståelse af privatlivskravene. Jeg vidste hurtigt, at dette var et område, jeg ønskede at være involveret i, ikke kun fordi jeg fandt det juridisk interessant og udfordrende, men også fordi det er et spørgsmål, der berører mange hold og mange processer på tværs af hele organisationen. At være involveret i data privatliv betyder at arbejde med forskellige grupper og personer og at lære om mange aspekter af virksomheden. At kunne påvirke og drive forandring på et vigtigt spørgsmål på tværs af mange funktioner i organisationen, samtidig med at man følger en ny og udviklende juridisk område, har været ekstremt belønnende. At arbejde med data privatliv i dag er mere spændende end nogensinde, når man tager i betragtning de teknologiske udviklinger og de øgede juridiske kompleksiteter på globalt plan.

Da du først blev ansat hos RingCentral, oprettede du et Tillidscenter, hvad er dette specifikt?

Hos RingCentral tror vi på, at det er essentielt at give vores kunder og partnere information om privatliv og sikkerhed for deres data for at opbygge og opretholde tillid til vores tjenester. Derfor fortsætter vi med at oprette hjælpemidler og ressourcer, såsom produktprivatlivsdatasæt for vores kerneydelser, whitepapers og overenskomstguider, og gøre dem tilgængelige for kunder og partnere på vores offentligt tilgængelige Tillidscenter. Senest tilføjede vi vores AI-gennemsigtighedswhitepaper. Tillidscenteret er en kritisk komponent i vores engagement i overensstemmelse med gennemsigtighed over for nøgleinteressenter.

Hvordan sikrer RingCentral, at privatlivsprincipper er integreret i alle AI-drevne produkter og tjenester?

Kunstig intelligens kan give virksomheder mulighed for at låse op for nye muligheder og hurtigt udtrække meningsfulde oplysninger og indsigt fra deres data – men med disse fordele kommer ansvar. Hos RingCentral forbliver vi uafbrudt fokuseret på at beskytte kunder og deres data. Vi opnår dette gennem de privatlivspiller, der vejleder vores produktudviklingspraksis

Privatliv ved design: Vi udnytter vores privatliv ved design-tilgang ved at arbejde tæt sammen med produktjurister, produktchefer og produktteknikere til at integrere privatlivsprincipper og privatlivskrav på tværs af alle aspekter af vores produkter og tjenester, der implementerer AI. Privatlivsvurderinger er integreret i produktudviklingslivscyklussen, fra idé til implementering, og vi bygger videre på det for at gennemføre AI-gennemgange og vejledning.

Gennemsigtighed: Vi tilbyder hjælpemidler og ressourcer til kunder, partnere og brugere om, hvordan deres data indsamles og bruges, som en del af vores engagement i overensstemmelse med gennemsigtighed og opbygning af tillid til vores tjenester.

Kundekontrol: Vi giver kunder mulighed for at fastholde kontrol over, hvordan de ønsker vores AI skal interagere med deres data.

Kan du give eksempler på specifikke privatlivsforanstaltninger, der er integreret i RingCentrals AI-første kommunikationsløsninger?

Først og fremmest har vi tilføjet oplysninger om, hvordan vi indsamler og behandler data, til vores produktbeskrivelse: hvem gemmer det, hvilke tredjeparter har adgang til det osv. i vores privatlivsdatasæt, som er offentliggjort på vores Tillidscenter. Vi nævner specifikt, hvilke data fungerer som input for AI og hvilke data genereres som output fra AI. Desuden som en del af vores produktgennemgange i samarbejde med produktjurister implementerer vi åbenhed for at opfylde vores engagement i overensstemmelse med gennemsigtighed, og vi giver vores kunders administratorer mulighed for at kontrollere deling af data med AI.

Hvorfor er det afgørende for organisationer at opretholde fuld gennemsigtighed om dataindsamling og -brug i AI-alderen?

For at fremme adoption af troværdig AI er det afgørende for organisationer at opbygge tillid til, hvordan AI behandler data, og i nøjagtigheden af output. Dette omfatter de data, AI trænes på, den logik, der anvendes af algoritmen, og naturen af output.

Vi tror på, at når leverandører er gennemsigtige og deler oplysninger om deres AI, hvordan det fungerer og hvad det bruges til, kan kunder træffe informerede beslutninger og blive beføjede til at give mere specifikke åbenheder til deres brugere, og dermed forbedre adoption af AI og tillid. Når vi udvikler og tilbyder AI, tænker vi på alle interessenter: vores kunder, men også deres medarbejdere, partnere og kunder.

Hvad kan organisationer gøre for at sikre, at deres leverandører overholder strenge AI-brugs politikker?

Hos RingCentral tror vi på, at implementering af AI kræver tillid mellem os og vores leverandører. Leverandører må forpligte sig til at integrere privatliv og datasikkerhed i arkitekturen af deres produkter. Derfor har vi bygget videre på vores eksisterende leverandørdue diligence-proces ved at tilføje en specifik AI-gennemgang, og vi har implementeret en standard for brug af tredjeparts-AI med specifikke krav til beskyttelse af RingCentral og vores kunder.

Hvordan sikrer RingCentral, at de data, der fødes ind i AI-systemer, er nøjagtige og upartiske?

Med retfærdighed som en vejledende princip overvejer vi konstant impacten af vores AI og forbliver engageret i at opretholde en bevidsthed om potentielle fordomme og risici, med mekanismer på plads til at identificere og afhjælpe enhver uventet konsekvens.

  • Vi har antaget en specifik ramme for identifikation og forebyggelse af fordomme som en del af vores Etisk AI-udviklingsramme, som vi anvender på alle vores produktgennemgange.
  • Vores brugstilfælde for AI indebærer en menneske-i-løkken til at evaluere output fra vores AI-systemer. For eksempel i vores Smart Notes, selv uden at overvåge indholdet af noterne, der produceres, kan vi slutte, om noterne var nøjagtige eller ej. Hvis en bruger redigerer noterne konstant, sender det et signal til RingCentral om at justere prompterne.
  • Som et andet eksempel på menneske-i-løkken tillader vores retrieval-forstærket generationsproces output at være strengt fokuseret på specifikke videnbaser og giver referencer for kilderne til output genereret. Dette giver mennesket mulighed for at verificere svaret og at grave dybere i referencerne selv.

Ved at sikre, at vores AI er nøjagtig, står vi ved vores løfte om at levere forklarlig og gennemsigtig AI.

Hvad privatlivsudfordringer opstår med AI i storstilede enterprise-implementationer, og hvordan håndteres de?

Først og fremmest er det vigtigt at huske, at eksisterende privatlovgivning indeholder bestemmelser, der er anvendelige på kunstig intelligens. Når love er teknologi-neutrale, anvendes juridiske rammer og etiske retningslinjer på nye teknologier.. Derfor skal organisationer sikre, at deres brug af AI overholder eksisterende privatlovgivning, såsom GDPR og CPRA.

For det andet er privatlivsprofessionelles ansvar at overvåge ny og fremvoksende AI-lovgivning, som varierer fra stat til stat og land til land. AI-lovgivning omhandler mange aspekter af AI, men en af de øverste prioriteter for ny AI-regulering er beskyttelsen af grundlæggende menneskerettigheder, herunder privatliv.

De kritiske succesfaktorer i at håndtere privatlivsproblemer er gennemsigtighed over for brugere, især hvor AI udfører profilering eller træffer automatiserede beslutninger, der påvirker individer, og giver brugerne mulighed for at fravælge AI-brug, de ikke føler sig komfortable med.

Hvad fremtidige tendenser ser du i AI og data privatliv, og hvordan forbereder RingCentral sig på at holde sig foran?

De store tendenser er nye love, der vil fortsætte med at træde i kraft, brugernes øgede krav om gennemsigtighed og kontrol, det stadig voksende behov for at håndtere AI-relateret risiko, herunder tredjepartsrisici, og stigningen i cyberrisici i AI.

Virksomheder skal etablere robuste styre og hold skal samarbejde på tværs af funktioner for at sikre intern alignment, minimere risici og øge brugernes tillid. Hos RingCentral forbliver vores fortsatte engagement i privatliv, sikkerhed og gennemsigtighed ubestridt. Vi tager disse ting alvorligt. Gennem vores AI-styre og vores AI-privatlivspiller er RingCentral engageret i etisk AI.

Tak for det gode interview, læsere, der ønsker at lære mere, skal besøge RingCentral.

Antoine er en visionær leder og medstifter af Unite.AI, drevet af en urokkelig passion for at forme og fremme fremtiden for AI og robotteknologi. En serieiværksætter, han tror, at AI vil være lige så omvæltende for samfundet som elektricitet, og bliver ofte fanget i at tale begejstret om potentialet for omvæltende teknologier og AGI.

Som en futurist, er han dedikeret til at udforske, hvordan disse innovationer vil forme vores verden. Derudover er han grundlægger af Securities.io, en platform, der fokuserer på at investere i skærende teknologier, der gendefinerer fremtiden og omformer hele sektorer.