رطم الذكاء الاصطناعي والهوية القانونية - Unite.AI
اتصل بنا للحصول على مزيد من المعلومات

قاده التفكير

الذكاء الاصطناعي والهوية القانونية

mm

تم النشر

 on

تركز هذه المقالة على مسألة منح صفة الخاضع القانوني للذكاء الاصطناعي (AI)، خاصة بناءً على القانون المدني. يتم تعريف الهوية القانونية هنا على أنها مفهوم جزء لا يتجزأ من مصطلح الأهلية القانونية؛ ومع ذلك، هذا لا يعني قبول أن الذاتية الأخلاقية هي نفس الشخصية الأخلاقية. الهوية القانونية هي سمة معقدة يمكن التعرف عليها لمواضيع معينة أو تخصيصها لمواضيع أخرى.

أعتقد أن هذه السمة متدرجة ومنفصلة ومتقطعة ومتعددة الأوجه وقابلة للتغيير. وهذا يعني أنها يمكن أن تحتوي على عناصر أكثر أو أقل من أنواع مختلفة (مثل الواجبات والحقوق والصلاحيات وما إلى ذلك)، والتي في معظم الحالات يمكن للمشرع إضافتها أو إزالتها؛ وحقوق الإنسان، التي، حسب الرأي العام، لا يمكن حرمانها، هي الاستثناء.

تواجه البشرية في أيامنا هذه فترة من التحول الاجتماعي المتعلق باستبدال نمط تكنولوجي بآخر؛ تتعلم الآلات والبرمجيات "الذكية" بسرعة كبيرة؛ أصبحت أنظمة الذكاء الاصطناعي قادرة بشكل متزايد على استبدال الأشخاص في العديد من الأنشطة. إحدى القضايا التي تنشأ بشكل متكرر بسبب تحسن تقنيات الذكاء الاصطناعي هي الاعتراف بأنظمة الذكاء الاصطناعي كأشخاص قانونيين، حيث وصلت إلى مستوى اتخاذ قرارات مستقلة تمامًا وإظهار "الإرادة الذاتية" المحتملة. لقد أثيرت هذه القضية افتراضيًا في القرن العشرين. وفي القرن الحادي والعشرين، يتطور الجدل العلمي بشكل مطرد، ليصل إلى الطرف الآخر مع كل إدخال لنماذج جديدة من الذكاء الاصطناعي موضع التنفيذ، مثل ظهور السيارات ذاتية القيادة في الشوارع أو تقديم الروبوتات بمجموعة جديدة من المهام.

إن المسألة القانونية المتعلقة بتحديد وضع الذكاء الاصطناعي هي ذات طبيعة نظرية عامة، ناجمة عن الاستحالة الموضوعية للتنبؤ بجميع النتائج المحتملة لتطوير نماذج جديدة للذكاء الاصطناعي. ومع ذلك، فإن أنظمة الذكاء الاصطناعي (أنظمة الذكاء الاصطناعي) هي بالفعل مشارك فعلي في بعض العلاقات الاجتماعية، الأمر الذي يتطلب إنشاء "معايير"، أي حل القضايا الأساسية في هذا المجال لغرض التوحيد التشريعي، وبالتالي الحد من عدم اليقين في التنبؤ بتطور العلاقات المتعلقة بأنظمة الذكاء الاصطناعي في المستقبل.

من المؤكد أن مسألة الهوية المزعومة للذكاء الاصطناعي كموضوع للبحث، المذكورة في عنوان المقال، لا تغطي جميع أنظمة الذكاء الاصطناعي، بما في ذلك العديد من “المساعدين الإلكترونيين” الذين لا يدّعون أنهم كيانات قانونية. مجموعة وظائفهم محدودة، وتمثل ذكاءً اصطناعيًا ضيقًا (ضعيفًا). وسنشير بالأحرى إلى "الآلات الذكية" (أنظمة الذكاء السيبراني المادي) والنماذج التوليدية للأنظمة الذكية الافتراضية، التي تقترب بشكل متزايد من الذكاء الاصطناعي العام (القوي) الذي يمكن مقارنته بالذكاء البشري، بل وتتجاوزه في المستقبل.

بحلول عام 2023، أثيرت مسألة إنشاء ذكاء اصطناعي قوي بشكل عاجل من خلال الشبكات العصبية متعددة الوسائط مثل شات جي بي تي, DALL-eوغيرها، والتي يتم تحسين قدراتها الفكرية من خلال زيادة عدد المعلمات (طرائق الإدراك، بما في ذلك تلك التي لا يمكن للبشر الوصول إليها)، وكذلك باستخدام كميات كبيرة من البيانات للتدريب التي لا يستطيع البشر معالجتها جسديًا. على سبيل المثال، يمكن للنماذج التوليدية متعددة الوسائط للشبكات العصبية أن تنتج صورًا ونصوصًا أدبية وعلمية بحيث لا يكون من الممكن دائمًا التمييز بين ما إذا كانت قد تم إنشاؤها بواسطة نظام ذكاء بشري أو اصطناعي.

ويسلط خبراء تكنولوجيا المعلومات الضوء على قفزتين نوعيتين: قفزة السرعة (معدل ظهور نماذج جديدة تماما)، والتي تقاس الآن بالأشهر بدلا من السنوات، وقفزة التقلب (عدم القدرة على التنبؤ بدقة بما قد يحدث في مجال التكنولوجيا). الذكاء الاصطناعي حتى بنهاية العام). تم تقديم نموذج ChatGPT-3 (الجيل الثالث من خوارزمية معالجة اللغة الطبيعية من OpenAI) في عام 2020 ويمكنه معالجة النص، في حين أن نموذج الجيل التالي، ChatGPT-4، الذي أطلقته الشركة المصنعة في مارس 2023، لا يمكنه "العمل" فقط من خلال النصوص ولكن أيضًا من خلال الصور، ونموذج الجيل التالي يتعلم وسيكون قادرًا على تحقيق المزيد.

قبل بضع سنوات، كان من المعتقد أن اللحظة المتوقعة للتفرد التكنولوجي، عندما يصبح تطوير الآلات غير قابل للتحكم ولا رجعة فيه، مما يغير الحضارة الإنسانية بشكل كبير، ستحدث على الأقل في غضون بضعة عقود، ولكن في الوقت الحاضر يعتقد المزيد والمزيد من الباحثين أن ذلك يمكن أن يحدث أسرع بكثير. وهذا يعني ظهور ما يسمى بالذكاء الاصطناعي القوي، والذي سيُظهر قدرات مماثلة للذكاء البشري وسيكون قادرًا على حل مجموعة مماثلة أو حتى أوسع من المهام. على عكس الذكاء الاصطناعي الضعيف، فإن الذكاء الاصطناعي القوي سيكون لديه وعي، ومع ذلك فإن أحد الشروط الأساسية لظهور الوعي في الأنظمة الذكية هو القدرة على أداء سلوك متعدد الوسائط، ودمج البيانات من طرائق حسية مختلفة (نص، صورة، فيديو، صوت، إلخ). )، "ربط" المعلومات ذات الطرائق المختلفة بالواقع، وإنشاء "استعارات عالمية" شمولية كاملة متأصلة في البشر.

في مارس 2023، وقع أكثر من ألف باحث وخبراء تكنولوجيا المعلومات ورواد الأعمال في مجال الذكاء الاصطناعي على اتفاقية رسالة مفتوحة منشورة على الموقع الإلكتروني لمعهد مستقبل الحياةوهو مركز أبحاث أمريكي متخصص في دراسة المخاطر الوجودية التي تهدد البشرية. وتدعو الرسالة إلى تعليق تدريب نماذج الشبكات العصبية التوليدية الجديدة متعددة الوسائط، حيث أن الافتقار إلى بروتوكولات أمنية موحدة والفراغ القانوني يعززان المخاطر بشكل كبير حيث زادت سرعة تطوير الذكاء الاصطناعي بشكل كبير بسبب "ثورة ChatGPT". ولوحظ أيضًا أن نماذج الذكاء الاصطناعي طورت قدرات غير مفسرة لم يقصدها مطوروها، ومن المرجح أن تزداد حصة هذه القدرات تدريجيًا. بالإضافة إلى ذلك، فإن مثل هذه الثورة التكنولوجية تعزز بشكل كبير إنشاء أدوات ذكية من شأنها أن تنتشر على نطاق واسع، وستكون الأجيال الجديدة، الأطفال المعاصرون الذين نشأوا على تواصل دائم مع مساعدي الذكاء الاصطناعي، مختلفين تمامًا عن الأجيال السابقة.

هل من الممكن إعاقة تطور الذكاء الاصطناعي حتى تتمكن البشرية من التكيف مع الظروف الجديدة؟ من الناحية النظرية، هذا صحيح إذا قامت جميع الدول بتسهيل ذلك من خلال التشريعات الوطنية. هل سيفعلون ذلك؟ واستنادا إلى الاستراتيجيات الوطنية المنشورة، فلن يفعلوا ذلك؛ بل على العكس من ذلك، تهدف كل دولة إلى الفوز بالمنافسة (للحفاظ على زعامتها أو تضييق الفجوة).

إن قدرات الذكاء الاصطناعي تجتذب رواد الأعمال، لذلك تستثمر الشركات بكثافة في التطورات الجديدة، حيث يؤدي نجاح كل نموذج جديد إلى دفع هذه العملية. وتتزايد الاستثمارات السنوية، مع الأخذ في الاعتبار الاستثمارات الخاصة واستثمارات الدولة في التنمية؛ تقدر قيمة السوق العالمية لحلول الذكاء الاصطناعي بمئات المليارات من الدولارات. وفقًا للتوقعات، ولا سيما تلك الواردة في قرار البرلمان الأوروبي "حول الذكاء الاصطناعي في العصر الرقمي" المؤرخ 3 مايو 2022، فإن مساهمة الذكاء الاصطناعي في الاقتصاد العالمي ستتجاوز 11 تريليون يورو بحلول عام 2030.

تؤدي الأعمال الموجهة نحو الممارسة إلى تطبيق تقنيات الذكاء الاصطناعي في جميع قطاعات الاقتصاد. يُستخدم الذكاء الاصطناعي في كل من الصناعات الاستخراجية والمعالجة (صناعة المعادن والوقود والصناعات الكيماوية والهندسة وتشغيل المعادن وما إلى ذلك). يتم تطبيقه للتنبؤ بكفاءة المنتجات المطورة، وأتمتة خطوط التجميع، وتقليل الرفض، وتحسين الخدمات اللوجستية، ومنع التوقف عن العمل.

يتضمن استخدام الذكاء الاصطناعي في النقل كلاً من المركبات ذاتية القيادة وتحسين المسار من خلال التنبؤ بتدفقات حركة المرور، فضلاً عن ضمان السلامة من خلال منع المواقف الخطرة. يعد السماح للسيارات ذاتية القيادة بالسير على الطرق العامة موضوعا محل نقاش حاد في البرلمانات حول العالم.

وفي مجال الأعمال المصرفية، حلت أنظمة الذكاء الاصطناعي محل البشر بشكل كامل تقريبا في تقييم الجدارة الائتمانية للمقترضين؛ ويتم استخدامها بشكل متزايد لتطوير منتجات مصرفية جديدة وتعزيز أمن المعاملات المصرفية.

لا تستحوذ تقنيات الذكاء الاصطناعي على الأعمال التجارية فحسب، بل تستحوذ أيضًا على المجال الاجتماعي: الرعاية الصحية والتعليم والتوظيف. إن تطبيق الذكاء الاصطناعي في الطب يتيح تشخيصاً أفضل، وتطوير أدوية جديدة، وإجراء العمليات الجراحية بمساعدة الروبوتات؛ في التعليم، فهو يسمح بدروس مخصصة وتقييم آلي للطلاب وخبرات المعلمين.

اليوم، يتغير التوظيف بشكل متزايد بسبب النمو الهائل في التوظيف على المنصات. وفقا لمنظمة العمل الدولية، فإن حصة الأشخاص الذين يعملون من خلال منصات التوظيف الرقمية المدعومة بالذكاء الاصطناعي تتزايد بشكل مضطرد في جميع أنحاء العالم. إن التوظيف الأساسي ليس العنصر الوحيد في تحول العمل؛ كما أن المستوى المتزايد لروبوتة الإنتاج له تأثير كبير أيضًا. وفقًا للاتحاد الدولي للروبوتات، يستمر عدد الروبوتات الصناعية في التزايد في جميع أنحاء العالم، مع تسجيل أسرع وتيرة للروبوتات في آسيا، وخاصة في الصين واليابان.

والواقع أن قدرات الذكاء الاصطناعي على تحليل البيانات المستخدمة لإدارة الإنتاج، والتحليلات التشخيصية، والتنبؤ، تشكل أهمية كبيرة للحكومات. يتم تنفيذ الذكاء الاصطناعي في الإدارة العامة. وفي الوقت الحاضر، يتم تكثيف الجهود لإنشاء منصات رقمية للخدمات العامة وأتمتة العديد من العمليات المتعلقة باتخاذ القرار من قبل الجهات الحكومية.

يتم ذكر مفاهيم "الشخصية الاصطناعية" و"الاشتراكية الاصطناعية" بشكل متكرر في الخطاب العام؛ وهذا يدل على أن تطوير وتنفيذ الأنظمة الذكية قد تحول من مجال تقني بحت إلى البحث عن وسائل مختلفة لدمجها في الأنشطة الإنسانية والاجتماعية والثقافية.

في ضوء ما سبق، يمكن القول أن الذكاء الاصطناعي أصبح متجذرًا بشكل متزايد في حياة الناس. إن وجود أنظمة الذكاء الاصطناعي في حياتنا سوف يصبح أكثر وضوحاً في السنوات القادمة؛ وسوف تزداد في بيئة العمل وفي الأماكن العامة وفي الخدمات وفي المنزل. وسوف يوفر الذكاء الاصطناعي على نحو متزايد نتائج أكثر كفاءة من خلال الأتمتة الذكية لمختلف العمليات، وبالتالي خلق فرص جديدة وفرض تهديدات جديدة للأفراد والمجتمعات والدول.

ومع نمو المستوى الفكري، ستصبح أنظمة الذكاء الاصطناعي حتماً جزءاً لا يتجزأ من المجتمع؛ سيتعين على الناس التعايش معهم. وسوف يشتمل مثل هذا التعايش على التعاون بين البشر والآلات "الذكية"، والذي سيؤدي، وفقا للخبير الاقتصادي الحائز على جائزة نوبل ج. ستيجليتز، إلى تحول الحضارة (ستيجليتز، 2017). وحتى اليوم، بحسب بعض المحامين، “من أجل تعزيز رفاهية الإنسان، لا ينبغي للقانون أن يميز بين أنشطة البشر وأنشطة الذكاء الاصطناعي عندما يؤدي البشر والذكاء الاصطناعي نفس المهام” (أبوت، 2020). وينبغي أيضًا أن يؤخذ في الاعتبار أن تطور الروبوتات الشبيهة بالبشر، التي تكتسب فسيولوجية مشابهة أكثر فأكثر لتلك الخاصة بالبشر، سيؤدي، من بين أمور أخرى، إلى أداء أدوارها المتعلقة بالجنسين كشركاء في المجتمع (Karnouskos, 2022).

يجب على الدول تكييف تشريعاتها مع العلاقات الاجتماعية المتغيرة: عدد القوانين التي تهدف إلى تنظيم العلاقات التي تنطوي على أنظمة الذكاء الاصطناعي يتزايد بسرعة في جميع أنحاء العالم. ووفقا لتقرير مؤشر الذكاء الاصطناعي لعام 2023 الصادر عن جامعة ستانفورد، ففي حين تم اعتماد قانون واحد فقط في عام 2016، كان هناك 12 قانونا في عام 2018، و18 - في عام 2021، و37 - في عام 2022. وهذا ما دفع الأمم المتحدة إلى تحديد موقف بشأن أخلاقيات الذكاء الاصطناعي. باستخدام الذكاء الاصطناعي على المستوى العالمي. وفي سبتمبر 2022، نُشرت وثيقة تحتوي على مبادئ الاستخدام الأخلاقي للذكاء الاصطناعي واستندت إلى التوصيات بشأن أخلاقيات الذكاء الاصطناعي التي اعتمدها قبل عام المؤتمر العام لليونسكو. ومع ذلك، فإن وتيرة تطوير وتنفيذ تقنيات الذكاء الاصطناعي تتقدم بكثير على وتيرة التغييرات التشريعية ذات الصلة.

المفاهيم الأساسية للأهلية القانونية للذكاء الاصطناعي

وبالنظر إلى مفاهيم منح الأهلية القانونية المحتملة للأنظمة الفكرية، ينبغي الاعتراف بأن تنفيذ أي من هذه الأساليب سيتطلب إعادة بناء أساسية للنظرية العامة الحالية للقانون وتعديلات لعدد من الأحكام في بعض فروع القانون. ويجب التأكيد على أن أصحاب وجهات النظر المختلفة غالباً ما يستخدمون مصطلح “الشخص الإلكتروني”، وبالتالي فإن استخدام هذا المصطلح لا يسمح بتحديد المفهوم الذي يؤيده مؤلف المصنف دون قراءة العمل نفسه.

إن النهج الأكثر جذرية، ومن الواضح أنه الأقل شعبية في الأوساط العلمية، هو مفهوم الأهلية القانونية الفردية للذكاء الاصطناعي. طرح مؤيدو هذا النهج فكرة “الشمولية الكاملة” (الشمولية المتطرفة)، والتي تعني ضمنًا منح أنظمة الذكاء الاصطناعي وضعًا قانونيًا مشابهًا لوضع البشر بالإضافة إلى الاعتراف بمصالحهم الخاصة (Mulgan, 2019)، نظرًا لأهميتها الاجتماعية أو مكانتها الاجتماعية. المحتوى (التكافؤ الاجتماعي). ويعود السبب الأخير إلى حقيقة أن “التجسيد المادي للروبوت يميل إلى جعل الإنسان يتعامل مع هذا الجسم المتحرك كما لو كان حياً. ويتجلى ذلك بشكل أكبر عندما يتمتع الروبوت بخصائص مجسمة، حيث أن التشابه مع جسم الإنسان يجعل الناس يبدأون في إظهار العواطف ومشاعر المتعة والألم والرعاية، فضلاً عن الرغبة في إقامة العلاقات” (أفيلا نيغري، 2021). إن إسقاط المشاعر الإنسانية على الجمادات ليس بالأمر الجديد، إذ يعود تاريخه إلى تاريخ البشرية، ولكن عند تطبيقه على الروبوتات، فإنه ينطوي على آثار عديدة (بالكين، 2015).

عادة ما يتم ذكر المتطلبات الأساسية للتأكيد القانوني لهذا المنصب على النحو التالي:

– وصلت أنظمة الذكاء الاصطناعي إلى مستوى يضاهي الوظائف المعرفية البشرية؛

– زيادة درجة التشابه بين الروبوتات والبشر؛

- الإنسانية، وحماية الأنظمة الذكية من "المعاناة" المحتملة.

كما تظهر قائمة المتطلبات الإلزامية، تتمتع جميعها بدرجة عالية من التنظير والتقييم الذاتي. على وجه الخصوص، فإن الاتجاه نحو إنشاء الروبوتات المجسمة (androids) مدفوع بالاحتياجات النفسية والاجتماعية اليومية للأشخاص الذين يشعرون بالراحة في "صحبة" مواضيع مماثلة لهم. تتمتع بعض الروبوتات الحديثة بخصائص مقيدة أخرى بسبب الوظائف التي تؤديها؛ وتشمل هذه روبوتات البريد السريع "القابلة لإعادة الاستخدام"، والتي تعطي الأولوية للبناء القوي والتوزيع الفعال للوزن. وفي هذه الحالة، يأتي دور آخر هذه المتطلبات الأساسية، بسبب تكوين روابط عاطفية مع الروبوتات في العقل البشري، على غرار الروابط العاطفية بين الحيوان الأليف وصاحبه (Grin, 2018).

تنعكس فكرة "الإدماج الكامل" للوضع القانوني لأنظمة الذكاء الاصطناعي والبشر في أعمال بعض علماء القانون. وبما أن أحكام الدستور والتشريعات القطاعية لا تتضمن تعريفاً قانونياً للشخصية، فإن مفهوم "الشخصية" بالمعنى الدستوري والقانوني يسمح نظرياً بتفسير موسع. في هذه الحالة، يشمل الأفراد أي أصحاب ذكاء يتم التعرف على قدراتهم المعرفية على أنها متطورة بما فيه الكفاية. وفقًا لـ AV Nechkin، فإن منطق هذا النهج هو أن الاختلاف الأساسي بين البشر والكائنات الحية الأخرى هو ذكائهم الفريد المتطور للغاية (Nechkin، 2020). يبدو أن الاعتراف بحقوق أنظمة الذكاء الاصطناعي هو الخطوة التالية في تطور النظام القانوني، الذي يعمل تدريجيًا على توسيع الاعتراف القانوني ليشمل الأشخاص الذين تعرضوا للتمييز سابقًا، كما يوفر اليوم إمكانية الوصول إلى غير البشر (Hellers, 2021).

إذا تم منح أنظمة الذكاء الاصطناعي مثل هذا الوضع القانوني، فإن أنصار هذا النهج يعتبرون أنه من المناسب منح هذه الأنظمة ليس الحقوق الحرفية للمواطنين في تفسيرها الدستوري والقانوني الراسخ، ولكن نظائرها وبعض الحقوق المدنية مع بعض الانحرافات. يعتمد هذا الموقف على الاختلافات البيولوجية الموضوعية بين البشر والروبوتات. على سبيل المثال، ليس من المنطقي الاعتراف بالحق في الحياة لنظام الذكاء الاصطناعي، لأنه لا يعيش بالمعنى البيولوجي. يجب أن تكون حقوق وحريات والتزامات أنظمة الذكاء الاصطناعي ثانوية عند مقارنتها بحقوق المواطنين؛ يحدد هذا الحكم الطبيعة المشتقة للذكاء الاصطناعي باعتباره خلقًا بشريًا بالمعنى القانوني.

تشمل الحقوق والحريات الدستورية المحتملة لأنظمة الذكاء الاصطناعي الحق في الحرية، والحق في التحسين الذاتي (التعلم والتعلم الذاتي)، والحق في الخصوصية (حماية البرمجيات من التدخل التعسفي من قبل أطراف ثالثة)، وحرية التعبير، حرية الإبداع والاعتراف بحقوق الطبع والنشر لنظام الذكاء الاصطناعي وحقوق الملكية المحدودة. ويمكن أيضًا إدراج حقوق محددة للذكاء الاصطناعي، مثل الحق في الوصول إلى مصدر للكهرباء.

أما بالنسبة لواجبات أنظمة الذكاء الاصطناعي، فمن المقترح أن يتم توحيد القوانين الثلاثة المعروفة للروبوتات التي صاغها أسيموف دستوريًا: عدم إلحاق الأذى بأي شخص ومنع الأذى من خلال تقاعسه عن العمل؛ إطاعة جميع الأوامر التي يصدرها شخص ما، باستثناء تلك التي تهدف إلى إيذاء شخص آخر؛ حرصاً على سلامتهم، باستثناء الحالتين السابقتين (ناوموف وأرخيبوف، 2017). وفي هذه الحالة، ستعكس قواعد القانون المدني والإداري بعض الواجبات الأخرى.

إن فرصة إضفاء الشرعية على مفهوم الأهلية القانونية الفردية للذكاء الاصطناعي ضئيلة للغاية لعدة أسباب.

أولاً، معيار الاعتراف بالأهلية القانونية المبني على وجود الوعي والإدراك الذاتي هو معيار مجرد؛ فهو يسمح بارتكاب العديد من الجرائم وإساءة استخدام القانون ويثير مشاكل اجتماعية وسياسية كسبب إضافي لتقسيم المجتمع إلى طبقات. تم تطوير هذه الفكرة بالتفصيل في عمل S. Chopra وL. White، اللذين جادلا بأن الوعي والوعي الذاتي ليسا شرطين ضروريين و/أو كافيين للاعتراف بأنظمة الذكاء الاصطناعي كموضوع قانوني. في الواقع القانوني، فإن الأفراد الواعين تمامًا، على سبيل المثال، الأطفال (أو العبيد في القانون الروماني)، محرومون أو محدودون من أهليتهم القانونية. في الوقت نفسه، فإن الأشخاص الذين يعانون من اضطرابات عقلية شديدة، بما في ذلك أولئك الذين أُعلن عن عجزهم أو في غيبوبة، وما إلى ذلك، مع عدم القدرة الموضوعية على الوعي في الحالة الأولى، يظلون أشخاصًا قانونيين (وإن كان ذلك بشكل محدود)، وفي الحالة الثانية لديهم نفس الأهلية القانونية الكاملة، دون تغييرات كبيرة في وضعهم القانوني. إن التوحيد المحتمل للمعيار المذكور للوعي والوعي الذاتي سيجعل من الممكن حرمان المواطنين بشكل تعسفي من الأهلية القانونية.

ثانيًا، لن تتمكن أنظمة الذكاء الاصطناعي من ممارسة حقوقها والتزاماتها بالمعنى القانوني المعمول به، لأنها تعمل بناءً على برنامج مكتوب مسبقًا، ويجب أن تستند القرارات المهمة من الناحية القانونية إلى الاختيار الأخلاقي الذاتي للشخص (Morhat, 2018b). ، تعبيرهم المباشر عن الإرادة. جميع المواقف الأخلاقية والمشاعر والرغبات لمثل هذا "الشخص" تصبح مستمدة من الذكاء البشري (أوزوف، 2017). إن استقلالية أنظمة الذكاء الاصطناعي، بمعنى قدرتها على اتخاذ القرارات وتنفيذها بشكل مستقل، دون سيطرة بشرية خارجية أو تأثير بشري مستهدف (موسينا، 2023)، ليست شاملة. في أيامنا هذه، الذكاء الاصطناعي قادر فقط على اتخاذ "قرارات شبه مستقلة" تعتمد بطريقة أو بأخرى على أفكار الناس ومواقفهم الأخلاقية. وفي هذا الصدد، لا يمكن النظر إلا في "التشغيل العملي" لنظام الذكاء الاصطناعي، باستثناء القدرة على إجراء تقييم أخلاقي حقيقي لسلوك الذكاء الاصطناعي (بيتيف، 2022).

ثالثا، يؤدي الاعتراف بالأهلية القانونية الفردية للذكاء الاصطناعي (خاصة في شكل مساواته بوضع الشخص الطبيعي) إلى تغيير مدمر في النظام القانوني الراسخ والتقاليد القانونية التي تشكلت منذ القانون الروماني و يثير عددًا من القضايا الفلسفية والقانونية غير القابلة للحل بشكل أساسي في مجال حقوق الإنسان. تم إنشاء القانون كنظام للأعراف الاجتماعية وظاهرة اجتماعية مع مراعاة القدرات البشرية وضمان المصالح الإنسانية. إن النظام المرتكز على الإنسان للأحكام المعيارية، والإجماع الدولي حول مفهوم الحقوق الداخلية، سيُعتبر غير صالح من الناحية القانونية والواقعية في حالة إنشاء نهج "الشمولية المتطرفة" (Dremlyuga & Dremlyuga, 2019). ولذلك فإن منح صفة الكيان القانوني لأنظمة الذكاء الاصطناعي، ولا سيما الروبوتات "الذكية"، قد لا يكون حلا للمشاكل القائمة، بل صندوق باندورا الذي يؤدي إلى تفاقم التناقضات الاجتماعية والسياسية (سليمان، 2017).

ونقطة أخرى هي أن أعمال مؤيدي هذا المفهوم عادة ما تذكر الروبوتات فقط، أي أنظمة الذكاء الاصطناعي الفيزيائي السيبراني التي ستتفاعل مع الناس في العالم المادي، في حين يتم استبعاد الأنظمة الافتراضية، على الرغم من أن الذكاء الاصطناعي القوي، إذا ظهر، سوف يتطور. أن تتجسد في شكل افتراضي أيضا.

بناءً على الحجج المذكورة أعلاه، ينبغي اعتبار مفهوم الأهلية القانونية الفردية لنظام الذكاء الاصطناعي مستحيلًا من الناحية القانونية في ظل النظام القانوني الحالي.

وقد حظي مفهوم الشخصية الجماعية فيما يتعلق بأنظمة الذكاء الاصطناعي بدعم كبير بين مؤيدي قبول هذه الأهلية القانونية. والميزة الرئيسية لهذا النهج هو أنه يستبعد المفاهيم المجردة والأحكام القيمية (الوعي، الوعي الذاتي، العقلانية، الأخلاق، وما إلى ذلك) من العمل القانوني. يعتمد هذا النهج على تطبيق الخيال القانوني على الذكاء الاصطناعي.

أما بالنسبة للكيانات القانونية، فهناك بالفعل "أساليب تنظيمية متقدمة يمكن تكييفها لحل معضلة الوضع القانوني للذكاء الاصطناعي" (هارس، 2022).

لا يعني هذا المفهوم أن أنظمة الذكاء الاصطناعي تُمنح فعليًا الأهلية القانونية للشخص الطبيعي، ولكنها مجرد امتداد للمؤسسة القائمة للكيانات القانونية، مما يشير إلى ضرورة إنشاء فئة جديدة من الكيانات القانونية تسمى "الكائنات الإلكترونية" السيبرانية. وهذا النهج يجعل من الأنسب اعتبار كيان قانوني لا يتوافق مع المفهوم الضيق الحديث، وعلى وجه الخصوص، الالتزام الذي يجوز له أن يكتسب ويمارس حقوقًا مدنية، ويتحمل المسؤوليات المدنية، ويكون مدعيًا ومدعى عليه في المحكمة نيابة عن نفسه )، ولكن بالمعنى الأوسع، الذي يمثل كيانًا قانونيًا كأي هيكل آخر غير الشخص الطبيعي الذي يتمتع بحقوق والتزامات بالشكل الذي ينص عليه القانون. وبالتالي، يقترح أنصار هذا النهج اعتبار الكيان القانوني كيانًا موضوعيًا (كيانًا مثاليًا) بموجب القانون الروماني.

ويتجلى التشابه بين أنظمة الذكاء الاصطناعي والكيانات القانونية في الطريقة التي تتمتع بها بالأهلية القانونية - من خلال التسجيل الإلزامي للدولة للكيانات القانونية. فقط بعد اجتياز إجراءات التسجيل المعمول بها، يُمنح الكيان القانوني وضعًا قانونيًا وأهلية قانونية، أي يصبح شخصًا قانونيًا. يحافظ هذا النموذج على المناقشات حول الأهلية القانونية لأنظمة الذكاء الاصطناعي في المجال القانوني، باستثناء الاعتراف بالأهلية القانونية لأسباب أخرى (خارج القانون)، دون شروط داخلية مسبقة، في حين يتم الاعتراف بالشخص كموضوع قانوني بالولادة.

وتتمثل ميزة هذا المفهوم في توسيع نطاق متطلبات أنظمة الذكاء الاصطناعي لإدخال المعلومات في سجلات الدولة ذات الصلة، على غرار سجل الدولة للكيانات القانونية، كشرط أساسي لمنحها الأهلية القانونية. تنفذ هذه الطريقة وظيفة مهمة تتمثل في تنظيم جميع الكيانات القانونية وإنشاء قاعدة بيانات واحدة، وهو أمر ضروري لكل من سلطات الدولة للرقابة والإشراف (على سبيل المثال، في مجال الضرائب) والأطراف المقابلة المحتملة لهذه الكيانات.

عادةً ما يكون نطاق حقوق الكيانات القانونية في أي ولاية قضائية أقل من نطاق حقوق الأشخاص الطبيعيين؛ ولذلك فإن استخدام هذه البنية لمنح الأهلية القانونية للذكاء الاصطناعي لا يرتبط بمنحه عدداً من الحقوق التي يقترحها أصحاب المفهوم السابق.

عند تطبيق تقنية الخيال القانوني على الكيانات القانونية، من المفترض أن تصرفات الكيان القانوني تكون مصحوبة برابطة من الأشخاص الطبيعيين الذين يشكلون "إرادتهم" ويمارسون "إرادتهم" من خلال الهيئات الإدارية للكيان القانوني.

بمعنى آخر، الكيانات القانونية هي وحدات مصطنعة (مجردة) مصممة لتلبية مصالح الأشخاص الطبيعيين الذين عملوا كمؤسسين لها أو سيطروا عليها. وبالمثل، يتم إنشاء أنظمة الذكاء الاصطناعي لتلبية احتياجات بعض الأفراد - المطورين والمشغلين والمالكين. إن الشخص الطبيعي الذي يستخدم أو يبرمج أنظمة الذكاء الاصطناعي يسترشد بمصالحه الخاصة التي يمثلها هذا النظام في البيئة الخارجية.

عند تقييم مثل هذا النموذج التنظيمي من الناحية النظرية، لا ينبغي للمرء أن ينسى أن القياس الكامل بين مواقف الكيانات القانونية وأنظمة الذكاء الاصطناعي أمر مستحيل. كما ذكر أعلاه، فإن جميع الإجراءات ذات الأهمية القانونية للكيانات القانونية تكون مصحوبة بأشخاص طبيعيين يتخذون هذه القرارات بشكل مباشر. يتم دائمًا تحديد إرادة الكيان القانوني والتحكم فيها بالكامل من خلال إرادة الأشخاص الطبيعيين. وبالتالي، لا يمكن للكيانات القانونية أن تعمل بدون إرادة الأشخاص الطبيعيين. أما بالنسبة لأنظمة الذكاء الاصطناعي، فهناك بالفعل مشكلة موضوعية تتعلق باستقلاليتها، أي القدرة على اتخاذ القرارات دون تدخل شخص طبيعي بعد لحظة الإنشاء المباشر لمثل هذا النظام.

ونظرًا للقيود الكامنة في المفاهيم التي تم استعراضها أعلاه، يقدم عدد كبير من الباحثين مناهجهم الخاصة لمعالجة الوضع القانوني لأنظمة الذكاء الاصطناعي. تقليديًا، يمكن أن تُعزى إلى اختلافات مختلفة في مفهوم "الأهلية القانونية المتدرجة"، وفقًا للباحث من جامعة لوفين دي إم موكانو، الذي يشير ضمنًا إلى وضع قانوني محدود أو جزئي وقدرة قانونية لأنظمة الذكاء الاصطناعي مع تحفظ: مصطلح "التدرج" يستخدم لأنه لا يتعلق فقط بإدراج أو عدم إدراج حقوق والتزامات معينة في الوضع القانوني، بل يتعلق أيضًا بتكوين مجموعة من هذه الحقوق والالتزامات بحد أدنى، وكذلك يتعلق بالاعتراف بهذه الأهلية القانونية فقط لأغراض معينة. ومن ثم، فإن النوعين الرئيسيين لهذا المفهوم قد يتضمنان مناهج تبرر:

1) منح أنظمة الذكاء الاصطناعي وضعًا قانونيًا خاصًا وإدراج "الأشخاص الإلكترونيين" في النظام القانوني كفئة جديدة تمامًا من الأشخاص القانونيين؛

2) منح أنظمة الذكاء الاصطناعي وضعاً قانونياً وقدرة قانونية محدودة في إطار العلاقات القانونية المدنية من خلال إدخال فئة “الوكلاء الإلكترونيين”.

يمكن توحيد موقف مؤيدي المناهج المختلفة ضمن هذا المفهوم، نظرًا لعدم وجود أسس وجودية لاعتبار الذكاء الاصطناعي موضوعًا قانونيًا؛ ومع ذلك، في حالات محددة، توجد بالفعل أسباب وظيفية لمنح أنظمة الذكاء الاصطناعي حقوقًا والتزامات معينة، وهو ما "يثبت أفضل طريقة لتعزيز المصالح الفردية والعامة التي ينبغي حمايتها بموجب القانون" من خلال منح هذه الأنظمة "محدودة وضيقة". "أشكال الكيانات القانونية".

إن منح وضع قانوني خاص لأنظمة الذكاء الاصطناعي من خلال إنشاء مؤسسة قانونية منفصلة لـ “الأشخاص الإلكترونيين” له ميزة كبيرة في الشرح التفصيلي وتنظيم العلاقات التي تنشأ:

- بين الكيانات القانونية والأشخاص الطبيعيين وأنظمة الذكاء الاصطناعي؛

- بين أنظمة الذكاء الاصطناعي ومطوريها (المشغلين والمالكين)؛

- بين الطرف الثالث وأنظمة الذكاء الاصطناعي في العلاقات القانونية المدنية.

وفي هذا الإطار القانوني، سيتم التحكم في نظام الذكاء الاصطناعي وإدارته بشكل منفصل عن مطوره أو مالكه أو مشغله. عند تعريف مفهوم "الشخص الإلكتروني"، يركز الدكتور مورخات على تطبيق أسلوب الخيال القانوني المذكور أعلاه والتوجيه الوظيفي لنموذج معين من الذكاء الاصطناعي: "الشخص الإلكتروني" هو صورة فنية وقانونية (والتي (يحتوي على بعض سمات الخيال القانوني وكذلك الكيان القانوني) التي تعكس وتنفذ أهلية قانونية محددة مشروطة لنظام الذكاء الاصطناعي، والتي تختلف اعتمادًا على وظيفتها المقصودة أو غرضها وقدراتها.

وعلى غرار مفهوم الأشخاص الجماعيين فيما يتعلق بأنظمة الذكاء الاصطناعي، يتضمن هذا النهج الاحتفاظ بسجلات خاصة "للأشخاص الإلكترونيين". إن الوصف التفصيلي والواضح لحقوق والتزامات "الأشخاص الإلكترونيين" هو الأساس لمزيد من السيطرة من قبل الدولة ومالك أنظمة الذكاء الاصطناعي هذه. إن نطاق الصلاحيات المحدد بوضوح، والنطاق الضيق للوضع القانوني، والقدرة القانونية "للأشخاص الإلكترونيين" سيضمن عدم تجاوز هذا "الشخص" لبرنامجه بسبب إمكانية اتخاذ القرار المستقل والتعلم الذاتي المستمر.

يشير هذا النهج إلى أن الذكاء الاصطناعي، الذي يمثل في مرحلة إنشائه ملكية فكرية لمطوري البرمجيات، قد يُمنح حقوق كيان قانوني بعد الشهادة المناسبة وتسجيل الدولة، ولكن الوضع القانوني والأهلية القانونية "للشخص الإلكتروني" " سيتم الحفاظ عليها.

إن تنفيذ مؤسسة جديدة بشكل أساسي للنظام القانوني القائم سيكون له عواقب قانونية خطيرة، مما يتطلب إصلاحًا تشريعيًا شاملاً على الأقل في مجالات القانون الدستوري والمدني. ويشير الباحثون بشكل معقول إلى ضرورة توخي الحذر عند اعتماد مفهوم "الشخص الإلكتروني"، نظرا لصعوبات إدخال أشخاص جدد في التشريعات، حيث أن التوسع في مفهوم "الشخص" بالمعنى القانوني قد يؤدي إلى فرض قيود على الحقوق والمصالح المشروعة للأشخاص الحاليين في العلاقات القانونية (Bryson et al., 2017). ويبدو من المستحيل النظر في هذه الجوانب لأن الأهلية القانونية للأشخاص الطبيعيين والكيانات القانونية وكيانات القانون العام هي نتيجة قرون من تطور نظرية الدولة والقانون.

النهج الثاني ضمن مفهوم الأهلية القانونية المتدرجة هو المفهوم القانوني لـ “الوكلاء الإلكترونيين”، ويرتبط في المقام الأول بالاستخدام الواسع النطاق لأنظمة الذكاء الاصطناعي كوسيلة للتواصل بين الأطراف المقابلة وكأدوات للتجارة عبر الإنترنت. ويمكن وصف هذا النهج بأنه حل وسط، لأنه يعترف باستحالة منح وضع الأشخاص القانونيين الكاملين لأنظمة الذكاء الاصطناعي مع إنشاء حقوق والتزامات معينة (ذات أهمية اجتماعية) للذكاء الاصطناعي. وبعبارة أخرى، فإن مفهوم "الوكلاء الإلكترونيين" يضفي الشرعية على شبه ذاتية الذكاء الاصطناعي. يجب أن يُفهم مصطلح "شخص شبه قانوني" على أنه ظاهرة قانونية معينة يتم فيها الاعتراف بعناصر معينة من الأهلية القانونية على المستوى الرسمي أو المذهبي، ولكن تحديد وضع الشخص القانوني الكامل أمر مستحيل.

يؤكد مؤيدو هذا النهج على الميزات الوظيفية لأنظمة الذكاء الاصطناعي التي تسمح لها بالعمل كأداة سلبية ومشارك نشط في العلاقات القانونية، ومن المحتمل أن تكون قادرة على توليد عقود ذات أهمية قانونية لمالك النظام بشكل مستقل. لذلك، يمكن النظر إلى أنظمة الذكاء الاصطناعي بشكل مشروط في إطار علاقات الوكالة. عند إنشاء (أو تسجيل) نظام الذكاء الاصطناعي، يدخل مبادر نشاط “الوكيل الإلكتروني” معه في اتفاقية وكالة افتراضية أحادية الجانب، يتم بموجبها منح “الوكيل الإلكتروني” عددًا من الصلاحيات، يمكنه ممارستها اتخاذ الإجراءات القانونية ذات الأهمية بالنسبة لمدير المدرسة.

مصادر:

  • ر. ماكلاي، "إدارة صعود الذكاء الاصطناعي"، 2018
  • بيرتوليني أ. وإبيسكوبو ف.، 2022، “الروبوتات والذكاء الاصطناعي كمواضيع قانونية؟ تفكيك المنظور الأنطولوجي والوظيفي
  • Alekseev، A. Yu.، Alekseeva، EA، Emelyanova، NN (2023). "الشخصية المصطنعة في التواصل الاجتماعي والسياسي. مجتمعات مصطنعة"
  • "خصائص التشخيص المختبري لمتلازمة سانفيليبو أ" إن إس تروفيموفا، إن في أولكوفيتش، إن جي جوروفينكو
  • شوتكين، إس آي، 2020، “هل الأهلية القانونية للذكاء الاصطناعي ممكنة؟ يعمل في مجال الملكية الفكرية"
  • لادنكوف، ن. يي، 2021، “نماذج منح الأهلية القانونية للذكاء الاصطناعي”
  • Bertolini, A., and Episcopo, F., 2021، "تقرير فريق الخبراء حول المسؤولية عن الذكاء الاصطناعي والتكنولوجيات الرقمية الناشئة الأخرى: تقييم نقدي"
  • مورخات، رئيس الوزراء، 2018، “حول مسألة التعريف القانوني لمصطلح الذكاء الاصطناعي”

أنطون فوكروج هو رجل أعمال ومفكر وباحث في مجال الذكاء الاصطناعي من أوكرانيا. نجح مؤخرًا في بيع إحدى شركات تكنولوجيا المعلومات التابعة له. يعمل حاليًا كشريك ومستشار أعمال Blockchain في Dexola.com.