Rozhovory
Paola Zeni, Chief Privacy Officer at RingCentral – Interview Series

Paola Zeni je Chief Privacy Officer ve společnosti RingCentral. Je mezinárodní právník specializující se na ochranu soukromí s více než 20 lety zkušeností v oblasti ochrany soukromí a veteránem kybernetické bezpečnosti, který pracoval ve společnostech Symantec a Palo Alto Networks, kde vytvořila program ochrany soukromí od základů.
Co vás inspirovalo k tomu, abyste se věnovali kariéře v oblasti ochrany dat?
Koncem 90. let, kdy členské státy EU implementovaly směrnici EU o ochraně dat z roku 1995, začala ochrana dat vznikat v Evropě jako důležitá otázka. Jako právník specializující se na technologii a pracující pro technologické společnosti, jako jsou HP a Agilent Technologies, jsem považoval tuto problematiku za relevantní a začal jsem se o ni zajímat a rozšiřovat své znalosti o požadavcích na ochranu soukromí. Rychle jsem poznal, že toto je oblast, ve které chci být zapojen, nejen proto, že ji považuji za právně zajímavou a náročnou, ale také proto, že se jedná o otázku, která se dotýká mnoha týmů a procesů napříč celou organizací. Být zapojen do ochrany dat znamená pracovat s různými skupinami a jednotlivci a učit se o mnoha aspektech podnikání. Být schopen ovlivňovat a řídit změny v důležité otázce napříč mnoha funkcemi v organizaci, a to při sledování vznikající právní oblasti, je extrémně odměňující. Práce v oblasti ochrany dat je dnes více vzrušující než kdykoli předtím, zejména s ohledem na technologický rozvoj a zvýšenou právní složitost na globální úrovni.
Když jste se poprvé připojili k RingCentral, vytvořili jste Trust Center, co to přesně je?
Ve společnosti RingCentral věříme, že poskytování našim zákazníkům a partnerům informací o ochraně soukromí a zabezpečení jejich dat je nezbytné pro budování a udržení důvěry v naše služby. Z tohoto důvodu neustále vytváříme propagační materiály a zdroje, jako jsou datasheets pro naše hlavní nabídky, whitepaper a průvodce dodržováním předpisů, a zpřístupňujeme je zákazníkům a partnerům na našem veřejně přístupném Trust Center. Nedávno jsme přidali náš Whitepaper o transparentnosti AI. Trust Center je kritickým komponentem našeho závazku transparentnosti vůči našim hlavním zainteresovaným stranám.
Jak RingCentral zajišťuje, aby principy ochrany soukromí byly integrovány do všech produktů a služeb poháněných umělou inteligencí?
Umělá inteligence může podnikům umožnit odemknout nový potenciál a rychle extrahovat smysluplné informace a poznatky z jejich dat – ale s těmito výhodami přichází odpovědnost. Ve společnosti RingCentral zůstáváme neúnavně zaměřeni na ochranu zákazníků a jejich dat. Toho dosahujeme prostřednictvím pilířů ochrany soukromí, které řídí naše postupy při vývoji produktů
Navrhování s ohledem na ochranu soukromí: Utilizujeme náš přístup navrhování s ohledem na ochranu soukromí prací v úzké spolupráci s právníky produktů, manažery produktů a inženýry produktů, aby byly principy ochrany soukromí a požadavky na ochranu soukromí vloženy do všech aspektů našich produktů a služeb, které implementují umělou inteligenci. Hodnocení ochrany soukromí jsou integrována do životního cyklu vývoje produktů, od fáze ideového návrhu až po nasazení, a na tomto základě provádíme recenze a poskytujeme pokyny pro umělou inteligenci.
Přístup transparentnosti: Nabízíme zákazníkům, partnerům a uživatelům materiály a zdroje, které informují o tom, jak jsou jejich data shromažďována a používána, jako součást našeho závazku transparentnosti a budování důvěry v naše služby.
Kontrola zákazníků: Poskytujeme zákazníkům možnosti, které jim umožňují udržet kontrolu nad rozhodnutím, jak chtějí, aby naše umělá inteligence interagovala s jejich daty.
Můžete poskytnout příklady konkrétních opatření ochrany soukromí vložených do komunikačních řešení RingCentral s umělou inteligencí?
Nejdříve jsme do naší dokumentace produktů přidali informace o tom, jak shromažďujeme a zpracováváme data: kdo je uchovává, které třetí strany mají k nim přístup, atd. v našich datasheitech, které jsou zveřejněny na našem Trust Center. Konkrétně uvádíme, která data slouží jako vstup pro umělou inteligenci a která data jsou generována jako výstup z umělé inteligence. Kromě toho, jako součást našich recenzí produktů ve spolupráci s právníky produktů, implementujeme oznámení, aby splnily náš závazek transparentnosti, a poskytujeme našim zákazníkům možnost volby sdílení dat s umělou inteligencí.
Proč je důležité, aby organizace udržovaly úplnou transparentnost o shromažďování a používání dat v éře umělé inteligence?
Pro podporu přijetí důvěryhodné umělé inteligence je nezbytné, aby organizace vytvořily důvěru v tom, jak umělá inteligence zpracovává data a v přesnosti výstupu. To se týká dat, na kterých je umělá inteligence trénována, logiky aplikované algoritmem a povahy výstupu.
Věříme, že když poskytovatelé jsou transparentní a sdílejí informace o své umělé inteligenci, o tom, jak funguje, a k čemu se používá, zákazníci mohou učinit informovaná rozhodnutí a jsou vybaveni k poskytnutí konkrétnějších oznámení svým uživatelům, což zlepšuje přijetí umělé inteligence a důvěru. Při vývoji a poskytování umělé inteligence myslíme na všechny zainteresované strany: naše zákazníky, ale také jejich zaměstnance, partnery a zákazníky.
Jaké kroky mohou organizace podniknout, aby zajistily, že jejich dodavatelé dodržují přísné zásady používání umělé inteligence?
Ve společnosti RingCentral věříme, že nasazení umělé inteligence vyžaduje důvěru mezi námi a našimi dodavateli. Dodavatelé musí zavázat se k tomu, že budou vkládat ochranu soukromí a zabezpečení dat do architektury svých produktů. Z tohoto důvodu jsme rozšířili náš stávající proces due diligence u dodavatelů o konkrétní recenzi umělé inteligence a implementovali standard pro použití umělé inteligence třetích stran, s konkrétními požadavky na ochranu RingCentral a našich zákazníků.
Jaké strategie RingCentral používá k zajištění toho, aby data vstupující do systémů umělé inteligence byla přesná a nepředpojatá?
S spravedlností jako vedoucím principem neustále zvažujeme dopad naší umělé inteligence a zůstáváme zavázáni k udržení povědomí o potenciálních předpojatostech a rizicích, s mechanismy pro identifikaci a zmírnění jakýchkoli neúmyslných důsledků.
- Přijali jsme konkrétní rámec pro identifikaci a prevenci předpojatostí jako součást našeho Rámcu pro etický vývoj umělé inteligence, který aplikujeme na všechny naše recenze produktů.
- Naše použití umělé inteligence zahrnuje lidský faktor, který vyhodnocuje výstupy našich systémů umělé inteligence. Například v našich Smart Notes, i bez monitorování obsahu poznámek, které jsou produkovány, můžeme odvodit z akcí uživatelů, zda poznámky byly přesné nebo ne. Pokud uživatel edituje poznámky neustále, posílá to signál RingCentral, aby upravil výzvy.
- Jako další příklad lidského faktoru, náš proces generace s podporou vyhledávání umožňuje, aby výstup byl striktně zaměřen na konkrétní znalostní databáze a poskytuje odkazy na zdroje pro výstupy, které jsou generovány. To umožňuje lidskému faktoru ověřit odpověď a prozkoumat odkazy samy o sobě.
Zajišťováním toho, aby naše umělá inteligence byla přesná, stojí za našim slibem poskytovat vysvětlitelnou a transparentní umělou inteligenci.
Jaké výzvy ochrany soukromí vznikají s umělou inteligencí v rozsáhlých podnikových nasazeních a jak jsou řešeny?
Nejdříve je důležité si uvědomit, že stávající zákony o ochraně dat obsahují ustanovení, která se vztahují na umělou inteligenci. Když zákony jsou technologicky neutrální, právní rámce a etické ukazatele se vztahují na nové technologie. Organizace proto musí zajistit, aby jejich použití umělé inteligence splňovalo stávající zákony o ochraně dat, jako je GDPR a CPRA.
Druhá, odpovědnost odborníků na ochranu soukromí spočívá v monitorování vznikajících a vznikajících zákonů o umělé inteligenci, které se liší od státu ke státu a od země k zemi. Zákony o umělé inteligenci řeší mnoho aspektů umělé inteligence, ale jednou z hlavních priorit pro nové regulace umělé inteligence je ochrana základních lidských práv, včetně ochrany soukromí.
Kritickými faktory úspěchu při řešení otázek ochrany soukromí jsou transparentnost vůči uživatelům, zejména tam, kde umělá inteligence provádí profilování nebo činí automatická rozhodnutí ovlivňující jednotlivce a umožňuje uživatelům volbu, zda chtějí opt-out z použití umělé inteligence, o kterém se necítí pohodlně.
Jaké budoucí trendy vidíte v oblasti umělé inteligence a ochrany dat a jak se RingCentral připravuje, aby zůstal před nimi?
Hlavní trendy jsou nové zákony, které budou nadále vstupovat v platnost, rostoucí požadavky uživatelů na transparentnost a kontrolu, stále rostoucí potřeba řízení rizik spojených s umělou inteligencí, včetně rizik třetích stran, a růst kybernetických rizik v umělé inteligenci.
Společnosti musí zavést robustní řízení a týmy musí spolupracovat napříč funkcemi, aby zajistily vnitřní soulad, minimalizovaly rizika a rostly důvěru uživatelů. Ve společnosti RingCentral zůstává náš neustálý závazek k ochraně soukromí, zabezpečení a transparentnosti bezprecedentní. Bereme tyto věci vážně. Prostřednictvím našeho řízení umělé inteligence a našich pilířů ochrany soukromí je RingCentral zavázán k etické umělé inteligenci.
Děkujeme za skvělý rozhovor, čtenáři, kteří chtějí se dozvědět více, by měli navštívit RingCentral.












