Wawancara
Paola Zeni, Chief Privacy Officer di RingCentral – Seri Wawancara

Paola Zeni adalah Chief Privacy Officer di RingCentral. Ia adalah pengacara privasi internasional dengan lebih dari 20 tahun pengalaman privasi dan veteran industri keamanan siber, telah bekerja di Symantec dan di Palo Alto Networks, di mana ia membangun program privasi dari awal.
Apa yang menginspirasi Anda untuk mengejar karir di privasi data?
Pada akhir 1990-an, ketika Negara Anggota UE menerapkan Direktif Perlindungan Data UE 1995, privasi data mulai muncul di Eropa sebagai isu penting. Sebagai pengacara teknologi yang bekerja dengan perusahaan teknologi seperti HP dan Agilent Technologies, saya mempertimbangkan ini sebagai topik yang relevan dan mulai memperhatikan dan memperluas pemahaman saya tentang persyaratan privasi. Saya dengan cepat tahu bahwa ini adalah area yang ingin saya libatkan, tidak hanya karena saya menemukannya secara hukum menarik dan menantang, tetapi juga karena ini adalah isu yang menyentuh banyak tim dan banyak proses di seluruh organisasi. Terlibat dalam privasi data berarti bekerja dengan berbagai kelompok dan individu dan mempelajari banyak aspek bisnis. Mampu mempengaruhi dan mengarahkan perubahan pada isu penting di seluruh fungsi organisasi, sambil mengikuti area hukum yang berkembang, telah sangat bermanfaat. Bekerja di privasi data saat ini lebih menarik dari sebelumnya, mengingat perkembangan teknologi dan kompleksitas hukum yang meningkat di tingkat global.
Ketika Anda pertama kali bergabung dengan RingCentral, Anda menciptakan sebuah Pusat Kepercayaan, apa itu secara khusus?
Di RingCentral kami percaya bahwa menyediakan informasi kepada pelanggan dan mitra kami tentang privasi dan keamanan data mereka sangat penting untuk membangun dan mempertahankan kepercayaan pada layanan kami. Untuk alasan ini, kami terus menciptakan materi dan sumber daya, seperti lembar data privasi produk untuk penawaran inti kami, makalah putih, dan panduan kepatuhan, dan membuatnya tersedia untuk pelanggan dan mitra di Pusat Kepercayaan kami yang menghadap ke publik. Paling baru kami menambahkan Makalah Transparansi AI kami. Pusat Kepercayaan adalah komponen kritis dari komitmen kami untuk transparansi dengan pemangku kepentingan kunci.
Bagaimana RingCentral memastikan bahwa prinsip privasi terintegrasi ke dalam semua produk dan layanan yang didorong oleh AI?
Kecerdasan buatan dapat memberdayakan bisnis untuk membuka potensi baru dan dengan cepat mengekstrak informasi dan wawasan yang bermakna dari data mereka – tetapi dengan manfaat tersebut, datang tanggung jawab. Di RingCentral, kami tetap fokus untuk melindungi pelanggan dan data mereka. Kami mencapai ini melalui pilar privasi yang membimbing praktik pengembangan produk kami
Privasi oleh Desain: Kami memanfaatkan pendekatan privasi oleh desain dengan bekerja sama dengan konselor produk, manajer produk, dan insinyur produk untuk membenamkan prinsip privasi dan persyaratan privasi di seluruh aspek produk dan layanan kami yang menerapkan AI. Penilaian privasi terintegrasi dalam siklus hidup pengembangan produk, dari ideasi hingga penerapan dan kami membangun di atas itu untuk melakukan tinjauan AI dan panduan.
Transparansi: Kami menawarkan materi dan sumber daya kepada pelanggan, mitra, dan pengguna tentang bagaimana data mereka dikumpulkan dan digunakan, sebagai bagian dari komitmen kami untuk transparansi dan membangun kepercayaan pada layanan kami.
Kontrol Pelanggan: Kami menyediakan pilihan yang memberdayakan pelanggan untuk mempertahankan kontrol dalam memutuskan bagaimana mereka ingin AI kami berinteraksi dengan data mereka.
Apakah Anda dapat memberikan contoh tindakan privasi tertentu yang tertanam dalam solusi komunikasi AI-pertama RingCentral?
Pertama-tama, kami telah menambahkan informasi rinci tentang bagaimana kami mengumpulkan dan memproses data: siapa yang menyimpannya, pihak ketiga mana yang memiliki akses ke sana, dll. dalam lembar data privasi kami, yang diposting di Pusat Kepercayaan kami. Kami secara khusus menunjukkan data mana yang digunakan sebagai input untuk AI dan data mana yang dihasilkan sebagai output dari AI. Juga, sebagai bagian dari tinjauan produk kami dalam kolaborasi dengan konselor produk, kami menerapkan pengungkapan untuk memenuhi komitmen kami untuk transparansi, dan kami menyediakan administrator pelanggan kami dengan pilihan untuk mengontrol berbagi data dengan AI.
Mengapa sangat penting bagi organisasi untuk mempertahankan transparansi lengkap tentang pengumpulan dan penggunaan data di era AI?
Untuk memfasilitasi adopsi AI yang dapat dipercaya, sangat penting bagi organisasi untuk membangun kepercayaan tentang bagaimana AI memproses data dan akurasi outputnya.
Kami percaya bahwa ketika penyedia transparan dan berbagi informasi tentang AI mereka, bagaimana mereka bekerja, dan apa yang mereka gunakan, pelanggan dapat membuat keputusan yang tepat dan diberdayakan untuk memberikan pengungkapan yang lebih spesifik kepada pengguna mereka, sehingga meningkatkan adopsi AI dan kepercayaan. Ketika mengembangkan dan menyediakan AI, kami memikirkan semua pemangku kepentingan: pelanggan kami, tetapi juga karyawan, mitra, dan pelanggan mereka.
Apa langkah-langkah yang dapat diambil organisasi untuk memastikan bahwa vendor mereka mematuhi kebijakan penggunaan AI yang ketat?
Di RingCentral, kami percaya bahwa penerapan AI memerlukan kepercayaan antara kami dan vendor kami. Vendor harus berkomitmen untuk membenamkan privasi dan keamanan data ke dalam arsitektur produk mereka. Untuk alasan ini, kami telah membangun proses due diligence vendor yang ada dengan menambahkan tinjauan AI khusus, dan kami telah menerapkan standar untuk penggunaan AI pihak ketiga, dengan persyaratan khusus untuk perlindungan RingCentral dan pelanggan kami.
Apa strategi yang digunakan RingCentral untuk memastikan bahwa data yang diberikan ke sistem AI akurat dan tidak bias?
Dengan keadilan sebagai prinsip panduan, kami terus mempertimbangkan dampak AI kami, dan tetap berkomitmen untuk mempertahankan kesadaran tentang potensi bias dan risiko, dengan mekanisme untuk mengidentifikasi dan mitigasi konsekuensi yang tidak diinginkan.
- Kami telah mengadopsi kerangka khusus untuk identifikasi dan pencegahan bias sebagai bagian dari Kerangka Pengembangan AI Etis kami, yang kami terapkan pada semua tinjauan produk kami.
- Penggunaan kasus kami untuk AI melibatkan human-in-the-loop untuk mengevaluasi output sistem AI kami. Sebagai contoh, di Catatan Pintar kami, bahkan tanpa memantau isi catatan yang dihasilkan, kami dapat menyimpulkan dari tindakan pengguna apakah catatan tersebut akurat atau tidak. Jika pengguna mengedit catatan secara terus-menerus, itu mengirim sinyal ke RingCentral untuk menyesuaikan prompt.
- Sebagai contoh lain dari human-in-the-loop, proses generasi yang diperkuat pengambilan kami memungkinkan output untuk difokuskan secara ketat pada basis pengetahuan khusus dan menyediakan referensi untuk sumber output yang dihasilkan. Ini memungkinkan manusia untuk memverifikasi respons dan untuk lebih mendalam ke referensi itu sendiri.
Dengan memastikan AI kami akurat, kami berdiri di belakang janji kami untuk menyediakan AI yang dapat dijelaskan dan transparan.
Apa tantangan privasi yang timbul dengan AI dalam penerapan perusahaan skala besar, dan bagaimana mereka ditangani?
Pertama-tama, penting untuk diingat bahwa hukum privasi yang ada berisi ketentuan yang berlaku untuk kecerdasan buatan. Ketika hukum teknologi-netral, kerangka hukum dan pedoman etis berlaku untuk teknologi baru.. Oleh karena itu, organisasi perlu memastikan bahwa penggunaan AI mereka mematuhi hukum privasi yang ada, seperti GDPR dan CPRA.
Kedua, tanggung jawab profesional privasi adalah untuk memantau hukum AI yang baru muncul, yang bervariasi dari negara bagian ke negara bagian dan dari negara ke negara. Hukum AI mengatasi banyak aspek AI, tetapi salah satu prioritas utama untuk regulasi AI baru adalah perlindungan hak asasi manusia dasar, termasuk privasi.
Faktor keberhasilan kritis dalam menangani masalah privasi adalah transparansi terhadap pengguna, terutama di mana AI melakukan profil atau membuat keputusan otomatis yang mempengaruhi individu dan memungkinkan pengguna untuk memilih keluar dari penggunaan AI yang mereka tidak merasa nyaman tentang.
Apa tren masa depan yang Anda lihat di AI dan privasi data, dan bagaimana RingCentral mempersiapkan untuk tetap memimpin?
Tren utama adalah hukum baru yang akan terus berlaku, tuntutan pengguna yang meningkat untuk transparansi dan kontrol, kebutuhan yang terus berkembang untuk mengelola risiko terkait AI, termasuk risiko pihak ketiga, dan meningkatnya risiko siber di AI.
Perusahaan perlu membangun pemerintahan yang kuat dan tim harus berkolaborasi di seluruh fungsi untuk memastikan keselarasan internal, meminimalkan risiko, dan meningkatkan kepercayaan pengguna. Di RingCentral, komitmen kami yang berkelanjutan untuk privasi, keamanan, dan transparansi tetap tidak tertandingi. Kami sangat serius dengan hal ini. Melalui pemerintahan AI dan pilar privasi AI kami, RingCentral berkomitmen untuk AI etis.
Terima kasih atas wawancara yang luar biasa, pembaca yang ingin mempelajari lebih lanjut harus mengunjungi RingCentral.












