قاده التفكير
لا يتعلق الأمر بما يمكن للذكاء الاصطناعي أن يفعله من أجلنا، بل يتعلق بما يمكننا أن نفعله من أجل الذكاء الاصطناعي

ينظر معظم الناس إلى الذكاء الاصطناعي من منظور أحادي الجانب. فالتكنولوجيا موجودة فقط لخدمة البشر وتحقيق مستويات جديدة من الكفاءة والدقة والإنتاجية. ولكن ماذا لو أغفلنا نصف المعادلة؟ وماذا لو كنا، بفعلنا هذا، نُضخّم عيوب التكنولوجيا فحسب؟
لا يزال الذكاء الاصطناعي في مراحله الأولى، ولا يزال يواجه قيودًا كبيرة في التفكير، وجودة البيانات، وفهم مفاهيم مثل الثقة والقيمة والحوافز. الفجوة بين القدرات الحالية و"الذكاء" الحقيقي كبيرة. الخبر السار؟ يمكننا تغيير هذا بأن نصبح متعاونين فاعلين بدلًا من أن نكون مستهلكين سلبيين للذكاء الاصطناعي.
يمتلك البشر مفتاح التطور الذكي بتوفيرهم أطرًا أفضل للتفكير، وتوفير بيانات عالية الجودة، وسدّ فجوة الثقة. ونتيجةً لذلك، يمكن للإنسان والآلة العمل جنبًا إلى جنب لتحقيق فائدة متبادلة، حيث يُنتج التعاون الأفضل بيانات أفضل ونتائج أفضل.
دعونا نفكر في الشكل الذي يمكن أن تبدو عليه علاقة أكثر تكافلية وكيف يمكن للتعاون الهادف، كشركاء، أن يفيد كلا جانبي معادلة الذكاء الاصطناعي.
العلاقة المطلوبة بين الإنسان والآلة
لا شك أن الذكاء الاصطناعي بارع في تحليل مجموعات البيانات الضخمة وأتمتة المهام المعقدة. ومع ذلك، لا تزال هذه التقنية محدودة في قدرتها على التفكير مثلنا. أولًا، تواجه هذه النماذج والمنصات صعوبة في التفكير خارج نطاق بيانات التدريب. لا يُشكل التعرف على الأنماط والتنبؤ الإحصائي أي مشكلة، لكن الحكم السياقي والأطر المنطقية التي نعتبرها أمرًا مسلمًا به يصعب تكرارها. هذه الفجوة في التفكير تعني أن الذكاء الاصطناعي غالبًا ما يتعثر عند مواجهة سيناريوهات دقيقة أو أحكام أخلاقية.
ثانيًا، هناك جودة بيانات "غير مُحققة، غير مُحققة". تُدرَّب النماذج الحالية على كميات هائلة من المعلومات، سواءً بموافقة أو بدونها. تُستخدم معلومات غير مُتحقق منها أو مُتحيزة بغض النظر عن الإسناد أو التفويض المناسب، مما يؤدي إلى... الذكاء الاصطناعي غير المُتحقق منه أو المتحيز. ال "حمية البياناتلذا، فإنّ "نماذجنا" مشكوكٌ فيها في أحسن الأحوال، ومُشتّتة في أسوأها. من المفيد التفكير في هذا التأثير من منظور غذائي. إذا اقتصر البشر على تناول الوجبات السريعة، فنحن بطيئون ومُتكاسلون. وإذا اقتصر الوكلاء على استخدام حقوق الطبع والنشر والمواد المُستعملة، فإنّ أداءهم سيُعيق بالمثل، بسبب نتائج غير دقيقة وغير موثوقة، وعامة أكثر منها مُحدّدة. هذا لا يزال بعيدا اتخاذ القرارات المستقلة والاستباقية التي وعدت بها الموجة القادمة من الوكلاء.
من الأهمية بمكان أن الذكاء الاصطناعي لا يزال يجهل هوية المستخدمين وما يتفاعل معهم. فهو لا يستطيع التمييز بين المستخدمين المتوافقين وغير المتوافقين، ويواجه صعوبة في التحقق من العلاقات، ويفشل في فهم مفاهيم مثل الثقة، وتبادل القيم، وحوافز أصحاب المصلحة - وهي عناصر أساسية تحكم التفاعلات البشرية.
مشاكل الذكاء الاصطناعي مع الحلول البشرية
نحن بحاجة إلى التفكير في منصات وأدوات ووكلاء الذكاء الاصطناعي أقل كخدم وأكثر كمساعدين يُمكننا تدريبهم. لنبدأ بالتفكير المنطقي. يُمكننا استحداث أطر منطقية جديدة، وإرشادات أخلاقية، وتفكير استراتيجي لا تستطيع أنظمة الذكاء الاصطناعي تطويره بمفردها. من خلال التوجيه المدروس والإشراف الدقيق، يُمكننا تعزيز نقاط القوة الإحصائية للذكاء الاصطناعي بالحكمة البشرية، وتعليمه كيفية تمييز الأنماط وفهم السياقات التي تجعل هذه الأنماط ذات معنى.
وعلى نحو مماثل، بدلاً من السماح للذكاء الاصطناعي بالتدريب على أي معلومات يمكنه جمعها من الإنترنت، يمكن للبشر إنشاء مجموعات بيانات ذات جودة أعلى، والتي تم التحقق منها، ومتنوعة، ومستمدة من مصادر أخلاقية.
وهذا يعني تطوير أنظمة إسناد أفضل حيث يتم التعرف على منشئي المحتوى وتعويضهم عن مساهماتهم في التدريب.
الأطر الناشئة تجعل هذا ممكنًا. توحيد الهويات عبر الإنترنت تحت راية واحدة وبتحديد ما يرغبون في مشاركته وما يرغبون في مشاركته، يمكن للمستخدمين تزويد النماذج بمعلومات خاصة تحترم الخصوصية والموافقة واللوائح. والأفضل من ذلك، من خلال تتبع هذه المعلومات على سلسلة الكتل، يمكن للمستخدمين وصانعي النماذج معرفة مصدر المعلومات وتعويض المبدعين بشكل مناسب مقابل توفير هذه المعلومات.زيت جديد"هذه هي الطريقة التي نعترف بها للمستخدمين ببياناتهم ونجعلهم مشاركين في ثورة المعلومات.
وأخيرًا، فإن سد فجوة الثقة يتطلب تزويد النماذج بالقيم والمواقف الإنسانية. وهذا يعني تصميم آليات تُميّز أصحاب المصلحة، وتُوثّق العلاقات، وتُميّز بين المستخدمين المتوافقين وغير المتوافقين. ونتيجةً لذلك، نساعد الذكاء الاصطناعي على فهم سياقه التشغيلي - من يستفيد من أفعاله، وما يُساهم في تطويره، وكيف تتدفق القيمة عبر الأنظمة التي يشارك فيها.
على سبيل المثال، تُجيد الوكلاء المدعومون ببنية بلوكتشين التحتية هذا الأمر. إذ يمكنهم التعرّف على المستخدمين ومنحهم الأولوية من خلال دعمهم المُثبت للنظام البيئي من خلال السمعة أو التأثير الاجتماعي أو ملكية الرموز. وهذا يُمكّن الذكاء الاصطناعي من مواءمة الحوافز من خلال منح أصحاب المصلحة المُشاركين وزنًا أكبر، وإنشاء أنظمة حوكمة يُشارك فيها الداعمون المُوثّقون في صنع القرار بناءً على مستوى مشاركتهم. ونتيجةً لذلك، يُعمّق الذكاء الاصطناعي فهمه لنظامه البيئي، ويُمكّنه من اتخاذ قرارات مُستنيرة بعلاقات حقيقية مع أصحاب المصلحة.
لا تغفل عن العنصر البشري في الذكاء الاصطناعي
لقد قيل الكثير عن صعود هذه التقنية وكيف أنها تهدد بإعادة هيكلة الصناعات وإلغاء الوظائف. ومع ذلك، فإنّ وضع حواجز أمان يمكن أن يضمن أن يُعزز الذكاء الاصطناعي التجربة البشرية بدلًا من أن يُطغى عليها. على سبيل المثال، لا تُغني أنجح تطبيقات الذكاء الاصطناعي عن البشر، بل تُوسّع نطاق ما يُمكننا إنجازه معًا. عندما يتولى الذكاء الاصطناعي التحليلات الروتينية، ويُقدّم البشر التوجيه الإبداعي والإشراف الأخلاقي، يُساهم كلا الجانبين بنقاط قوتهما الفريدة.
عندما يُطبّق الذكاء الاصطناعي بشكل صحيح، فإنه يَعِد بتحسين جودة وكفاءة عدد لا يُحصى من العمليات البشرية. أما عندما يُطبّق بشكل خاطئ، فإنه يُقيّد بمصادر بيانات مشكوك فيها، ويُقلّد الذكاء فقط بدلًا من إظهاره فعليًا. الأمر متروك لنا، الجانب البشري من المعادلة، لجعل هذه النماذج أكثر ذكاءً وضمان بقاء قيمنا وأحكامنا وأخلاقنا في صميمها.
الثقة أمرٌ لا غنى عنه لتعميم هذه التقنية. فعندما يتمكن المستخدمون من التحقق من وجهة بياناتهم، ومعرفة كيفية استخدامها، والمشاركة في القيمة التي تُحدثها، يصبحون شركاء راغبين لا مجرد تابعين مترددين. وبالمثل، عندما تتمكن أنظمة الذكاء الاصطناعي من الاستفادة من أصحاب المصلحة المتوافقين وقنوات البيانات الشفافة، فإنها تصبح أكثر جدارة بالثقة. وبالتالي، تزداد فرص وصولها إلى أهم مجالاتنا الخاصة والمهنية، مما يُسهم في تحسين الوصول إلى البيانات وتحسين النتائج.
لذا، مع اقترابنا من المرحلة التالية من الذكاء الاصطناعي، دعونا نركز على ربط الإنسان بالآلة من خلال علاقات قابلة للتحقق، ومصادر بيانات عالية الجودة، وأنظمة دقيقة. علينا ألا نتساءل عما يمكن للذكاء الاصطناعي أن يقدمه لنا، بل عما يمكننا تقديمه له.












