Connect with us

باولا زيني، رئيس قسم الخصوصية في RingCentral – سلسلة المقابلات

مقابلات

باولا زيني، رئيس قسم الخصوصية في RingCentral – سلسلة المقابلات

mm

باولا زيني هي رئيس قسم الخصوصية في RingCentral. وهي محامية دولية في مجال الخصوصية مع أكثر من 20 عامًا من الخبرة في الخصوصية ومخضعة في صناعة الأمن السيبراني، بعد العمل في Symantec و في Palo Alto Networks، حيث بنت برنامج الخصوصية من الصفر.

ما هو ما ألهمك لمتابعة مسيرة في الخصوصية البيانات؟

في أواخر التسعينيات، عندما كانت دول الاتحاد الأوروبي تطبق توجيه حماية البيانات لعام 1995، بدأت الخصوصية البيانات في الظهور في أوروبا كقضية مهمة. كمحامية تكنولوجيا تعمل مع شركات تكنولوجيا مثل HP و Agilent Technologies، اعتقدت أن هذا الموضوع ذو صلة وبدأت في الاهتمام به وبناء فهمي لمتطلبات الخصوصية. سريعًا عرفت أن هذا هو مجال أريد الانخراط فيه، ليس فقط لأنني وجدته قانونيًا مثيرًا والتحدي، ولكن أيضًا لأنها قضية تلمس العديد من الفرق والعمليات عبر المنظمة بأكملها. الانخراط في الخصوصية البيانات يعني العمل مع مجموعات وافراد مختلفين وتعلم جوانب متعددة من الأعمال. أن تكون قادرًا على التأثير وتحفيز التغيير على قضية مهمة عبر العديد من الوظائف في المنظمة، مع اتباع مجال قانوني متطور، كان ذلك مكافأة للغاية. العمل في الخصوصية البيانات اليوم أكثر إثارة من أي وقت مضى، مع التطورات التكنولوجية والتعقيدات القانونية المتزايدة على المستوى العالمي.

عندما انضمت إلى RingCentral لأول مرة، قمت بإنشاء مركز الثقة، ما هو هذا تحديدًا؟

في RingCentral نعتقد أن تزويد عملائنا وشركائنا بمعلومات حول خصوصية وأمان بياناتهم أمر ضروري لبناء والحفاظ على الثقة في خدماتنا. لهذا السبب نقوم بإنشاء مواد وموارد، مثل ورقات بيانات الخصوصية للمنتجات وورقات بيضاء ودلائل الامتثال، ونجعلها متاحة للعملاء والشركاء على مركز الثقة العام. مؤخرًا أضفنا ورقة بيضاء شفافية الذكاء الاصطناعي. مركز الثقة هو مكون حاسم في التزامنا بالشفافية مع أصحاب المصلحة الرئيسيين.

كيف يضمن RingCentral أن مبادئ الخصوصية تدمج في جميع المنتجات والخدمات التي تعتمد على الذكاء الاصطناعي؟

يمكن للذكاء الاصطناعي أن يمنح الشركات قوة لفك شفرة إمكانيات جديدة وسحب المعلومات والمعلومات المفيدة بسرعة من بياناتها – ولكن مع تلك الفوائد، تأتي المسؤولية. في RingCentral، نحن لا تزال مركزة بلا هوادة على حماية العملاء وبياناتهم. نحقق ذلك من خلال أعمدة الخصوصية التي توجيه ممارسات تطوير المنتجات لدينا

الخصوصية من التصميم: نحن نستفيد من نهج الخصوصية من التصميم بالعمل بشكل وثيق مع مستشارين المنتجات ومديري المنتجات ومهندسي المنتجات لتضمين مبادئ الخصوصية ومتطلبات الخصوصية عبر جميع جوانب منتجاتنا وخدماتنا التي تنفذ الذكاء الاصطناعي. يتم دمج تقييمات الخصوصية في دورة حياة تطوير المنتج، من التخيل إلى النشر ونبني على ذلك لإجراء استعراض وتوجيه الذكاء الاصطناعي.

الشفافية: نقدم مواد وموارد للعملاء والشركاء والمستخدمين حول كيفية جمع بياناتهم واستخدامها، كجزء من التزامنا بالشفافية وبناء الثقة في خدماتنا.

سيطرة العملاء: نقدم خيارات تمكن العملاء من الحفاظ على السيطرة في تحديد كيف يريدون أن يتفاعل الذكاء الاصطناعي مع بياناتهم.

هل يمكنك تقديم أمثلة على إجراءات الخصوصية المحددة المدمجة في حلول الاتصالات التي تعتمد على الذكاء الاصطناعي في RingCentral؟

أولاً وقبل كل شيء، قمنا بإضافة معلومات إلى وثائق المنتج تفصيل كيفية جمع البيانات ومعالجتها: من يخزنها، أي أطراف ثالثة لها حق الوصول إليها، إلخ. في ورقات بيانات الخصوصية، التي تنشر على مركز الثقة. نحن نحدد بشكل خاص أي بيانات تعمل كمدخل للذكاء الاصطناعي وأي بيانات يتم توليدها كخرج من الذكاء الاصطناعي. بالإضافة إلى ذلك، كجزء من استعراض المنتجات بالتعاون مع مستشارين المنتجات، نقوم بتنفيذ الإفصاحات لتحقيق التزامنا بالشفافية، ونقدم لمسؤولي العملاء خيارات للسيطرة على مشاركة البيانات مع الذكاء الاصطناعي.

لماذا من المهم للغاية للشركات الحفاظ على الشفافية الكاملة حول جمع البيانات واستخدامها في عصر الذكاء الاصطناعي؟

لتعزيز اعتماد الذكاء الاصطناعي الموثوق، من الضروري للشركات إنشاء ثقة في كيفية معالجة الذكاء الاصطناعي للبيانات ودقة الإخراج. هذا يمتد إلى البيانات التي يتم تدريب الذكاء الاصطناعي عليها، المنطق المطبق بواسطة الخوارزمية، وطبيعة الإخراج.

نعتقد أن عندما يقدم المزودون الشفافية ومشاركة المعلومات حول الذكاء الاصطناعي، وكيف يعمل، وما يستخدم من أجله، يمكن للعملاء اتخاذ قرارات مستنيرة ويتسنى لهم تقديم إفصاحات أكثر تحديدًا لمستخدميهم، وبالتالي تحسين اعتماد الذكاء الاصطناعي والثقة. عند تطوير وتقديم الذكاء الاصطناعي، نفكر في جميع أصحاب المصلحة: عملائنا، ولكن أيضًا موظفيهم، وشركائهم، وعملائهم.

ما هي الخطوات التي يمكن للشركات اتخاذها لضمان أن موردوها يلتزمون بسياسات استخدام الذكاء الاصطناعي الصارمة؟

في RingCentral، نعتقد أن نشر الذكاء الاصطناعي يتطلب ثقة بيننا وبين موردنا. يجب على الموردين الالتزام بتضمين الخصوصية وأمان البيانات في هيكل منتجاتهم. لهذا السبب قمنا ببناء عملية فحص مورد موجودة بإضافة استعراض الذكاء الاصطناعي خاص، وقمنا بتنفيذ معيار لاستخدام الذكاء الاصطناعي من جهات خارجية، مع متطلبات محددة لحماية RingCentral و عملائنا.

ما هي الاستراتيجيات التي يتبعها RingCentral لضمان دقة البيانات التي يتم تغذيتها إلى أنظمة الذكاء الاصطناعي وتجنب التحيز؟

مع الإنصاف كمرشد، نحن نعتبر دائمًا تأثير الذكاء الاصطناعي، ونبقى ملتزمين بالحفاظ على الوعي بالتحيزات والمخاطر المحتملة، مع آليات في مكانها لتحديد وتخفيف أي عواقب غير مقصودة.

  • لقد اعتمدنا إطارًا محددًا لتحديد ومنع التحيزات كجزء من إطارنا لتطوير الذكاء الاصطناعي الأخلاقي، الذي نطبقه على جميع استعراضات المنتجات.
  • تتضمن حالات استخدامنا للذكاء الاصطناعي حلقة人类ية لتقييم مخرجات أنظمة الذكاء الاصطناعي لدينا. على سبيل المثال، في ملاحظاتنا الذكية، حتى بدون مراقبة محتوى الملاحظات التي تم إنتاجها، يمكننا استنتاج من إجراءات المستخدمين ما إذا كانت الملاحظات دقيقة أو لا. إذا قام المستخدم بتحرير الملاحظات باستمرار، فإنه يرسل إشارة إلى RingCentral لتعديل التلميحات.
  • كما مثال آخر على حلقة الإنسان، يسمح لنا عملية التوليد المعزز بالاسترجاع أن يكون الإخراج مركّزًا بشكل صارم على قواعد معرفة محددة ويوفر مراجع للمصادر للإخراج الذي تم توليده. هذا يسمح للإنسان بالتحقق من الاستجابة والبحث بشكل أعمق في المراجع نفسها.

من خلال ضمان دقة الذكاء الاصطناعي لدينا، نحن نقف خلف وعدنا بتقديم ذكاء اصطناعي يمكن تفسيره وشفافي.

ما هي التحديات المتعلقة بالخصوصية التي تظهر مع الذكاء الاصطناعي في عمليات النشر على نطاق واسع للشركات، وكيف يتم معالجتها؟

أولاً وقبل كل شيء، من المهم أن نذكر أن القوانين الحالية المتعلقة بالخصوصية تحتوي على أحكام قابلة للتطبيق على الذكاء الاصطناعي. عندما تكون القوانين محايدة من حيث التكنولوجيا، فإن الإطارات القانونية والمرشدات الأخلاقية تطبق على التكنولوجيا الجديدة.. لذلك، يجب على المنظمات ضمان امتثالها لاستخدام الذكاء الاصطناعي للقوانين المتعلقة بالخصوصية، مثل GDPR و CPRA.

ثانيًا، مسؤولية محترفي الخصوصية هي مراقبة القوانين الناشئة والقوانين المتعلقة بالذكاء الاصطناعي، والتي تختلف من دولة إلى دولة. وتتناول قوانين الذكاء الاصطناعي جوانب عديدة من الذكاء الاصطناعي، ولكن واحدة من الأولويات الرئيسية للتنظيم الجديد للذكاء الاصطناعي هي حماية الحقوق الأساسية للإنسان، بما في ذلك الخصوصية.

عوامل النجاح الحاسمة في معالجة قضايا الخصوصية هي الشفافية تجاه المستخدمين، خاصة حيث يقوم الذكاء الاصطناعي بالتحليل أو يتخذ قرارات آلية تؤثر على الأفراد، وتمكين المستخدمين من الخيارات بحيث يمكنهم الخروج من استخدام الذكاء الاصطناعي الذي لا يشعرون بالراحة حياله.

ما هي الاتجاهات المستقبلية التي تريها في الذكاء الاصطناعي والخصوصية البيانات، وكيف يبقى RingCentral في الصدارة؟

التوجهات الرئيسية هي قوانين جديدة ستدخل حيز التنفيذ، وزيادة طلبات المستخدمين على الشفافية والسيطرة، والحاجة المتزايدة لإدارة المخاطر المرتبطة بالذكاء الاصطناعي، بما في ذلك المخاطر التي تتعرض لها الأطراف الثالثة، وزيادة المخاطر السيبرانية في الذكاء الاصطناعي.

يجب على الشركات وضع الحوكمة القوية والفرق في مكانها لضمان التوحيد الداخلي وتقليل المخاطر وزيادة ثقة المستخدمين. في RingCentral، يبقى التزامنا المستمر بالخصوصية والأمان والشفافية دون مثيل. نحن نأخذ هذه الأمور على محمل الجد. من خلال حوكمة الذكاء الاصطناعي وأعمدة الخصوصية الخاصة بنا، يبقى RingCentral ملتزمًا بالذكاء الاصطناعي الأخلاقي.

شكرًا على المقابلة الرائعة، القراء الذين يرغبون في معرفة المزيد يجب أن يزوروا RingCentral.

أنطوان هو قائد رؤى ومؤسس شريك في Unite.AI، مدفوعًا بشغف لا يتزعزع لتشكيل وتعزيز مستقبل الذكاء الاصطناعي والروبوتات. رجل أعمال متسلسل، يعتقد أن الذكاء الاصطناعي سيكون مدمرًا للمجتمع مثل الكهرباء، وغالبًا ما يُقبض عليه وهو يثرثر عن إمكانات التكنولوجيات المدمرة و AGI.

كما أنه مستقبلي، فهو مخصص لاستكشاف كيف سيشكل هذه الابتكارات العالم. بالإضافة إلى ذلك، فهو مؤسس Securities.io، وهي منصة تركز على الاستثمار في التكنولوجيات المتقدمة التي تعيد تعريف المستقبل وتهيئ القطاعات بأكملها.