Connect with us

Rob Feldman، رئيس قسم القانون في EnterpriseDB – سلسلة المقابلات

مقابلات

Rob Feldman، رئيس قسم القانون في EnterpriseDB – سلسلة المقابلات

mm

Rob Feldman، رئيس قسم القانون، مسؤول عن الوظائف القانونية والامتثال في جميع أنحاء العالم في EnterpriseDB. وهو مسؤول تنفيذي ومحامي مخضرم، يبني فرق قانونية عالية الأداء لدعم الشركات التكنولوجية النامية في بيئات أعمال وتنظيمية ديناميكية.最近، قاد فريقًا قانونيًا مكونًا من 45 شخصًا في Citrix Systems، Inc. كمحامي عام، بما في ذلك عبر معاملة التصفية الخاصة التى تزيد قيمتها عن 16 مليار دولار في عام 2022. قبل Citrix، قضى أكثر من عقد من الزمن في الممارسة الخاصة كمحامٍ لشركات التكنولوجيا، مع التركيز على الدفاع عن الاحتيال الأمني، ونزاعات الملكية الفكرية، والتحقيقات الحكومية والداخلية. كما يخدم Rob في مجلس القانون التابع لاتفاقية الأمم المتحدة، حيث يقدم إرشادات إستراتيجية حول البيئات التنظيمية العالمية لمساعدة الشركات على تحقيق تأثير طويل الأمد ومحول.

EnterpriseDB هي شركة برمجيات توفر حلول قواعد بيانات من الدرجة الأولى بناءً على PostgreSQL مفتوح المصدر، مما يساعد المنظمات على تشغيل حمولات عمل حرجة بأداء وأمان وموثوقية أكبر. تأسست في عام 2004، توفر EnterpriseDB منصات سحابية ومواقع، ودعم عالمي، وأدوات متوافقة مع Oracle، مع التركيز بشكل متزايد على منصات البيانات الهجينة والأولية جاهزة للذكاء الاصطناعي من خلال عروض Postgres AI.

نظرًا لخبرتك الطويلة في القيادة القانونية للشركات وتركيز EnterpriseDB على Postgres من الدرجة الأولى ومنصات البيانات السيادية والذكاء الاصطناعي، كيف ترى تطور المسؤولية للشركات التي تعمل بأنظمة الذكاء الاصطناعي العامل داخل البنية التحتية للبيانات الحيوية

عالم الذكاء الاصطناعي والبيانات لا يزال يعتمد على نفس المبادئ الأساسية التي يجب أن تحكم الشركات منذ وقت طويل قبل وصول الأنظمة العاملة: المسؤولية، والضبط، ووضوح المسؤولية.

في الماضي، تم تطبيق هذه المبادئ على الناس والأنظمة غير النشطة إلى حد كبير، واللوحات، والتقارير، والأدوات الآلية التي لم تُشغل الإجراءات بنفسها. يُroduced الذكاء الاصطناعي العامل أنظمة تصرف مثل المشاركين أكثر من الأدوات. يمكنهم التصرف بشكل مستقل، والتكيف مع مرور الوقت، والتفاعل بشكل متزايد مع البشر ووكلاء آخرين.

إذا لم تكن لدى المنظمة أسس قوية وضبط، ستجد صعوبة في هذا البيئة. لا يخلق الذكاء الاصطناعي العامل مشاكل جديدة للمسؤولية، بل يكشف عن المشاكل الحالية. بالنسبة للشركات ذات الأسس الصلبة، يعزز هذا التحول الممارسات التي يتبعونها بالفعل، والتي نوصفها بـ “السيطرة الرقمية”. بالنسبة للآخرين، إنه إشارة واضحة إلى أن الحاجة إلى إنشاء حواجز عملية قبل تشغيل الذكاء الاصطناعي العامل على نطاق واسع.

حوالي 13% من الشركات قد وصلت إلى هذه النقطة من النطاق العامل بنجاح. إنهم يفعلون ضعف كمية العمل العامل أكثر من غيرهم، ويتحصلون على عائد استثمار يصل إلى 5 أضعاف. ومع ذلك، كلما زادت استقلالية نظام الذكاء الاصطناعي، زادت الحاجة إلى مواجهة المسؤولية. عندما يوجه نظام الذكاء الاصطناعي العامل مطالبة، أو ينقل الأموال، أو يسيء التعامل مع البيانات الحساسة، تتبع المسؤولية الشركة التي حددت البيئة، وضبط الصلاحيات، وحددت مدى حرية النظام.

هذا هو السبب في أن الشركات تحتاج إلى إحضار إشراف واضح إلى حالات استخدام الذكاء الاصطناعي العامل، والسبب في أن المنظمات تحفز لجلب التركيز إلى برامج الحواجز والحوكمة. تشبه صورة ملكية الكلب والسيطرة الرقمية. لديها الكلاب مستوى معين من الاستقلالية، وتصرف بشكل مستقل، وإن كان أحيانًا بشكل غير متوقع، ومع ذلك، فهي ليست أشخاصًا قانونيين. هذا المزيج من الاستقلالية بدون شخصيّة، يشبه إلى حد ما حيث تقع الأنظمة العاملة للذكاء الاصطناعي اليوم، ويجب على المالكين فهم أنهم بدون إشراف وحوكمة، سيتحملون المسؤولية عن النتائج السيئة.

كيف يجب على الشركات أن تميز بين الذكاء الاصطناعي المساعد والذكاء الاصطناعي العامل من منظور قانوني وتشغيلي قبل النشر؟

على مستوى بسيط، يأتي التمييز إلى السلطة. يدعم الذكاء الاصطناعي المساعد اتخاذ القرارات البشرية، بينما يبدأ الذكاء الاصطناعي العامل الإجراءات وينفذ القرارات. يمكن أن يؤثر كلاهما على تدفقات العمل وسلوك المنظمات (على سبيل المثال، في خدمة العملاء أو الأولويات التشغيلية)، ولكن فقط الأنظمة العاملة تصرف بشكل مستقل.

إذا كان النظام يمكن أن يؤدي إلى تدفقات العمل، أو يوافق على النتائج، أو يعدل حالة النظام، أو يتخذ إجراء دون موافقة بشرية في الوقت الفعلي، فيجب معاملته على أنه عامل. يجب أن يحدث هذا التحديد قبل النشر، لأن السلطة التي تُمنح للوكيل تتحول معها المسؤولية القانونية والتشغيلية. يجب على المنظمات أن تكون على دراية بهذا التمييز حتى لا يكتشفوا متأخرًا أنهم قد تفويضوا سلطة اتخاذ القرار، ومن ثم المسؤولية.

هل يمكن تطبيق المبادئ القانونية المثبتة مثل التفويض الإهمال و_respondeat superior_ بشكل واقعي على الأنظمة الذكية المستقلة، وأين تبدأ هذه الإطارات في الكسر؟

تطبق بشكل أكثر مباشرة مما يفترض الكثيرون. توجد هذه المبادئ للتعامل مع الحالات التي يتم فيها تفويض السلطة وتحدث الأضرار، وهو أحد التحديات المحتملة التي يطرحها الذكاء الاصطناعي العامل.

المشكلة ليست مع المبدأ القانوني، ولكن ما إذا كانت المنظمات تفهم المسؤولية التي يتحملونها عند نشر الذكاء الاصطناعي المستقل، والحاجة إلى حوكمة هذه الأنظمة بشكل مناسب.

عندما تفشل المنظمات في تحديد النطاق، والصلاحيات، والرقابة، فإنها تخلق المسؤولية القانونية. المشكلة نادرًا ما تكون أن القانون لا يستطيع التعامل مع الذكاء الاصطناعي العامل، ولكن بالأحرى أن الشركات لم تحدد بوضوح ما كان من المفترض أن تفعله أنظمتها أو كيف سيتم حكمها.

ما هي الخطوات العملية التي يجب على مسؤولي المعلومات والفرق القانونية اتخاذها اليوم لتحديد وتخفيف المسؤولية عند استمرار سلاسل العمل للذكاء الاصطناعي في التعلم والتكيف في بيئات الإنتاج؟

الخطوة الأولى هي معاملة السيطرة السيادية على الذكاء الاصطناعي والبيانات على أنها مهمة حرجة. لا يمكن للمنظمات حوكمة المسؤولية بشكل فعّال إذا كانت أنظمتها والبيانات مُجزأة عبر بيئات لا يمكنهم ملاحظتها أو إدارتها بشكل كامل. تبدأ الشركات الناجحة البالغ عددها 13% مع هذه الأسس.

في الممارسة، يعني ذلك تقييد الوصول إلى البيانات، ووضع حدود واضحة للactions التي يمكن للوكلاء أداؤها بشكل مستقل، ووضع إشراف بشري حول القرارات ذات الأثر الكبير. كما يتطلب ذلك تسجيلًا وقابلية تتبع، بحيث يمكن مراجعة السلوك عند الحاجة. المنظمات التي تتبنى هذه الإجراءات في وقت مبكر سوف تقلل من التعرض القانوني والاحتكاك التشغيلي في المستقبل.

كيف تنصح الشركات بالسيطرة على الذكاء الاصطناعي العامل أو حوكمته من خلال السياسات، والضوابط الفنية، أو الضمانات التعاقدية لتقليل مخاطر الأضرار غير المقصودة؟

النقطة التي تُبدأ منها هي السيادة. تحتاج الشركات إلى بيئات حيث يمكن ملاحظة أنظمتها وبياناتها وسياق التنفيذ وتطبيقها على نطاق واسع. لا يمكن أن تعتمد الحوكمة على السياسة فقط. تضع السياسة التوقعات، ولكن الضوابط الفنية تحدد ما يمكن للأنظمة فعله، سواء كانت البيانات في حالة الراحة أو الحركة، وكيف يتم تشغيل النماذج.

بعض الوكلاء ي thuộc في بيئات محمية بدون وصول إلى الإنتاج. قد تعمل وكلاء آخرون بسلطات محدودة وعوائق الموافقة. يجب أن يكون الوكلاء الكاملون المستقلون نادرةً ومراقبين بدقة. يمكن للعقود مساعدة في توضيح المسؤولية، ولكنها لا تحل محل الحاجة إلى التحكم الداخلي والمسؤولية.

هل يغير التحول نحو بيئات الذكاء الاصطناعي الخاضعة للسيطرة الشركات من الذي يتحمل في النهاية المخاطر عند تسبب وكيل الذكاء الاصطناعي في أضرار مالية أو تشغيلية؟

لا يغير ذلك من الذي يتحمل المخاطر. إنه يجعل المسؤولية أكثر وضوحًا، ويفيض في الكثير من الطرق لتقليل المخاطر. عندما تسيطر الشركات على البيانات، والبنية التحتية، وسياق التنفيذ، فإنها تزيل المتغيرات التي تُroduced عند وجود البيانات والأدوات في أيدي أطراف ثالثة.

السيطرة على البيانات وأدوات الذكاء الاصطناعي هي قوة. تمنح السيادة للمنظمات الرؤية والسلطة المطلوبة لإدارة المخاطر بشكل مسؤول. بدون هذه السيطرة، تزيد الشركات من ملف المخاطر.

ما هو الدور الذي تلعبه الشفافية والقابلية للتتبع في تقليل التعرض القانوني عند تشغيل تطبيقات الذكاء الاصطناعي المستقلة؟

هما أساسيان. يجعل التسجيل القابل للتتبع من الأنظمة المستقلة أنظمة قابلة للدفاع.

عندما تحدث حوادث، يسأل المحققون والقضاة أسئلة عملية: ما كان يعرفه النظام، وما كان مخولاً له فعله، ولماذا تصرف؟ المنظمات التي يمكنها إظهار الإشراف والقابلية للتتبع هي في موقف أقوى بكثير مقارنة مع نظرائهم الذين يأتون بدون أي شيء.

كما تستمر الإرشادات الفيدرالية للذكاء الاصطناعي في التطور، كيف يجب على الشركات الاستعداد للالتزامات القانونية المختلفة على مستوى الولاية المتعلقة بمسؤولية الذكاء الاصطناعي؟

لا يمكن للمنظمات انتظار وصول المشرعين إلى مجموعة من القواعد المفصلة المحددة للذكاء الاصطناعي. تمنحنا القوانين الحالية على مستوى الولاية والفيدرالية 95% من الوضوح الذي نحتاجه لاستخدام الذكاء الاصطناعي بشكل مسؤول وتجنب حوادث المسؤولية الكبيرة.

تتضمن هذه الوضوح تصميم الأنظمة لتلبي معايير المسؤولية عن المنتجات الأكثر صرامة، والتي ستشمل بالضرورة أمورًا مثل تطوير قدرات الذكاء الاصطناعي بشكل مسؤول، والاختبار قبل الإصدار، والشفافية، وافضل الإفصاح عن المخاطر، والمراجعة بعد الإصدار، والإشراف البشري، وتدريب مستخدمي قدرات الذكاء الاصطناعي. هذه الخطوات الأساسية والمألوفة تهم أكثر من محاولة توقع النتائج التنظيمية المحددة.

ما هي الأسئلة الأكثر أهمية التي يجب على مشتري التكنولوجيا سؤال البائعين عنها بشأن الاستقلالية والإشراف والمسؤولية قبل اعتماد أنظمة الذكاء الاصطناعي العامل؟

مع الذكاء الاصطناعي العامل، تظل المسؤولية في النهاية مع الطرف الذي يُمنح الاستقلالية. لذلك، الأسئلة الأربعة الرئيسية التي يجب عليك الإجابة عليها هي:

  1. من يتحكم في النظام في الإنتاج؟
  2. كيف يتم اختبار الصلاحيات وتطبيقها؟
  3. كيف يتم تقييد التعلم؟
  4. ما هي الأدلة القابلة للتتبع المتاحة إذا حدث شيء خاطئ؟

إذا لم يكن البائع قادرًا على تقديم إجابات واضحة، فيجب على الشركات أن تتقدم بحذر. العودة إلى تشبيه الكلب: المربون مهمون، ولكن إذا حدث شيء خاطئ، قد تظل المسؤولية مع المالك.

شكرًا على المقابلة الرائعة، القراء الذين يرغبون في معرفة المزيد يجب أن يزوروا EnterpriseDB.

أنطوان هو قائد رؤى ومؤسس شريك في Unite.AI، مدفوعًا بشغف لا يتزعزع لتشكيل وتعزيز مستقبل الذكاء الاصطناعي والروبوتات. رجل أعمال متسلسل، يعتقد أن الذكاء الاصطناعي سيكون مدمرًا للمجتمع مثل الكهرباء، وغالبًا ما يُقبض عليه وهو يثرثر عن إمكانات التكنولوجيات المدمرة و AGI.

كما أنه مستقبلي، فهو مخصص لاستكشاف كيف سيشكل هذه الابتكارات العالم. بالإضافة إلى ذلك، فهو مؤسس Securities.io، وهي منصة تركز على الاستثمار في التكنولوجيات المتقدمة التي تعيد تعريف المستقبل وتهيئ القطاعات بأكملها.