Connect with us

كيف تؤثر قوانين آيزاك آسيموف الثلاثة للروبوتات على الذكاء الاصطناعي

الذكاء الاصطناعي العام

كيف تؤثر قوانين آيزاك آسيموف الثلاثة للروبوتات على الذكاء الاصطناعي

mm

قوانين الروبوتات الثلاثة هي أيقونية في عالم الخيال العلمي، وأصبحت رمزًا داخل مجتمع الذكاء الاصطناعي والروبوتات لمدى صعوبة تصميم نظام آمن بشكل صحيح.

للفهم الكامل لأهمية هذه القوانين الثلاث، يجب أن نتعلم أولاً عن العقل المبدع الذي صاغ هذه القوانين، 即 الكاتب الخيالي الراحل آيزاك آسيموف. ثم يجب أن نفهم كيف نتعلم من هذه القوانين وتطويرها لحماية البشرية.

آيزاك آسيموف – ظهور عبقري

ولد آيزاك آسيموف في روسيا في 2 يناير 1920، وهاجر إلى الولايات المتحدة في سن الثالثة. نشأ في بروكلين، نيويورك، وتخرج من جامعة كولومبيا في عام 1939. تم الاعتراف به ككاتب موهوب ومُنتج الذي ركز على العلم والخيال العلمي. خلال مسيرته المهنية كتب و/أوحرر أكثر من 500 كتاب.

كان آسيموف مستوحى من بعض الكتاب الأكثر أيقونية في عالم الخيال العلمي. بدأ العمل في حوض بناء السفن في فيلادلفيا، حيث التقى بزملاء العمل، وهما من أكثر الكتاب ناجحين في تاريخ الخيال العلمي: L. Sprague de Camp وRobert A. Heinlein.

L. Sprague de Camp هو كاتب حائز على جوائز كتب أكثر من 100 كتاب وكان شخصية بارزة في الخيال العلمي في الثلاثينيات والأربعينيات. من أعماله الشهيرة “الظلام يهبط” (1939)، “عجلات إذا” (1940)، “بندقية للديناصور” (1956)، “أرسطو والبندقية” (1958)، و”المجد الذي كان” (1960).

كان Robert A. Heinlein ربما أكثر كاتب خيال علمي شعبية في العالم خلال ذروة مسيرته المهنية. إلى جانب Isaac Asimov وArthur C. Clarke، كان يُعتبر واحدًا من “الثلاثة الكبار” من كتاب الخيال العلمي. من أعماله الشهيرة “مزرعة فارنهام” (1964) و”الرحلة إلى ما وراء الشمس” (1987). ربما يعرفه الجيل الحالي أفضل من خلال فيلم مقتبس من روايته “جنود الفضاء” (1959).

كان آسيموف محترمًا أيضًا في المجتمع العلمي وكان يُحجز بشكل متكرر كمتحدث عام لإلقاء محاضرات عن العلوم.

قوانين الروبوتات الثلاثة

كان آيزاك آسيموف أول من استخدم مصطلح “روبوتيات” في قصة قصيرة بعنوان “كاذب!”، ونُشرت في عام 1941.

بعد ذلك بوقت قصير، قدمت قصته القصيرة “الجري” في عام 1942 العالم لقوانين روبوتياته الثلاثة. القوانين هي:

1. لا يجوز للروبوت أن يؤذي إنسانًا أو، من خلال عدم العمل، يسمح لإنسان أن يتعرض للضرر.

2. يجب على الروبوت اتباع الأوامر التي تُمنح له من قبل البشر، ما لم تكن هذه الأوامر تتعارض مع القانون الأول.

3. يجب على الروبوت حماية وجوده كما长 كما أن هذا الحماية لا تتعارض مع القانون الأول أو الثاني.

تم تصميم هذه القوانين لتقديم نقاط сюжية مثيرة، واستمر آسيموف في إنشاء سلسلة من 37 قصة قصيرة وست روايات تضم روبوتات بوزيترونية.

كانت واحدة من هذه المجموعات القصصية بعنوان “أنا، روبوت” تم تحويلها لاحقًا إلى فيلم في عام 2004. فيلم “أنا، روبوت” بطولة ويل سميث يُعد مكانًا في عام 2035، ويتميز بروبوتات خادمات عامة ذكية تعمل تحت قوانين الروبوتات الثلاثة. الفيلم، مثل القصص، أصبح بسرعة مثلًا لمدى خطورة البرمجة، وأن برمجة أي نوع من الذكاء الاصطناعي المتقدم ينطوي على مخاطر عالية.

لقد أمسكت العالم بما كان في السابق خيالًا علميًا، نحن الآن نصمم الذكاء الاصطناعي الذي هو في بعض النواحي أكثر تقدمًا من أي شيء يمكن لآيزاك آسيموف أن يتخيله، وفي الوقت نفسه أكثر تقييدًا.

تُشير قوانين الروبوتات الثلاثة بشكل متكرر في مناقشات الذكاء الاصطناعي العام (AGI). سنستكشف بسرعة ما هو AGI، وكيف يجب أن تطور قوانين الروبوتات الثلاثة لتجنب المشاكل المحتملة في المستقبل.

الذكاء الاصطناعي العام (AGI)

في الوقت الحالي، معظم أنواع الذكاء الاصطناعي التي نتعامل معها يوميًا هي “ذكاء اصطناعي ضيق”. هذا هو نوع من الذكاء الاصطناعي الذي هو محدد جدًا وضيق في وظيفته. على سبيل المثال، يمكن لمركبة ذاتية القيادة التنقل في الشوارع، ولكن بسبب قيودها “الضيقة”، لا يمكن للذكاء الاصطناعي بسهولة إكمال مهام أخرى. مثال آخر للذكاء الاصطناعي الضيق هو نظام تحديد الصور الذي يمكنه بسهولة تحديد وتسمية الصور في قاعدة بيانات، ولكنه لن يتمكن بسهولة من التكيف مع مهمة أخرى.

الذكاء الاصطناعي العام، الذي يُشار إليه بشكل شائع باسم “AGI”، هو ذكاء اصطناعي يمكنه، مثل البشر، التعلم بسرعة والتكيف والتحول والعمل في العالم الحقيقي. إنه نوع من الذكاء الذي ليس ضيقًا النطاق، يمكنه التكيف مع أي وضع و学习 كيفية التعامل مع مشاكل العالم الحقيقي.

يجب أن يُذكر أن الذكاء الاصطناعي يتطور بسرعة، ولكننا لم نصل بعد إلى الذكاء الاصطناعي العام. متى سنصل إلى AGI هو موضع خلاف، وكل شخص لديه إجابة مختلفة حول الجدول الزمني. أنا أشارك شخصيًا آراء راي كرزويل، المخترع والمستقبلي وكاتب “التناقض القريب”، الذي يعتقد أننا سوف نصل إلى AGI بحلول عام 2029.

من المفترض أن يكون هذا الجدول الزمني 2029 ساعة تيك تاك، يجب أن نتعلم كيفية برمجة نوع من الكتب القانونية إلى الذكاء الاصطناعي، الذي لا ي似 فقط القوانين الثلاثة، ولكن أكثر تقدمًا وقادرًا على تجنب الصراع الحقيقي بين البشر والروبوتات.

قوانين الروبوتات الحديثة

في حين كانت قوانين الروبوتات الثلاثة رائعة للأدب، فهي تفتقر إلى التطور بشكل كبير لبرمجة الروبوتات بجدية. كان هذا بعد كل شيء نقطة المؤامرة وراء القصص القصيرة والروايات. الصراعات بين القوانين الثلاثة، أو على الأقل تفسير القوانين الثلاثة، تسبب في انهيار الروبوتات أو الرد على البشر أو نقاط مؤامرة حاسمة.

المشكلة الرئيسية مع القوانين الحالية هي برمجة البرنامج الأخلاقي دائمًا لاتباع تعليمات البشر ودائمًا لحماية نفسها قد تتعارض. بعد كل شيء، هل يُسمح للروبوت بالدفاع عن نفسه ضد مالكه الذي يسيء معاملته؟

ما هي آلية الأمان التي يجب برمجةها؟ كيف نُخبر الروبوت بأنه يجب أن يغلق مهما كانت العواقب؟ ماذا يحدث إذا كان الروبوت في proceso إنقاذ زوجة من الإساءة، يجب على الروبوت إيقاف تشغيل نفسه إذا تلقى تعليمات بذلك من الزوج المسيء؟

من يجب أن يُمنح تعليمات للروبوتات؟ مع الأسلحة الذكية القادرة على تحديد وتحديد الأهداف من جميع أنحاء العالم، يجب أن يكون الروبوت قادرًا على رفض الأمر بالقضاء على الهدف إذا كان يحدد الهدف على أنه طفل؟

بمعنى آخر، إذا كان الروبوت مملوكًا ومدارًا من قبل شخص متعصب، هل يمكن للروبوت رفض الأوامر التي تتعارض مع الأخلاق؟ الأسئلة عديدة، والإجابات صعبة على أي فرد أن يجيب عليها. هذا هو السبب في أن المنظمات مثل معهد مستقبل الحياة مهمة جدًا، الوقت لمناقشة هذه الأزمة الأخلاقية هو الآن قبل ظهور الذكاء الاصطناعي العام الحقيقي.

أنطوان هو قائد رؤى ومؤسس شريك في Unite.AI، مدفوعًا بشغف لا يتزعزع لتشكيل وتعزيز مستقبل الذكاء الاصطناعي والروبوتات. رجل أعمال متسلسل، يعتقد أن الذكاء الاصطناعي سيكون مدمرًا للمجتمع مثل الكهرباء، وغالبًا ما يُقبض عليه وهو يثرثر عن إمكانات التكنولوجيات المدمرة و AGI.

كما أنه مستقبلي، فهو مخصص لاستكشاف كيف سيشكل هذه الابتكارات العالم. بالإضافة إلى ذلك، فهو مؤسس Securities.io، وهي منصة تركز على الاستثمار في التكنولوجيات المتقدمة التي تعيد تعريف المستقبل وتهيئ القطاعات بأكملها.