قادة الفكر
الذكاء الاصطناعي وقوس الثقة

في بداية العام الماضي، عندما كان فريقنا يتنبأ بما سيحدث في المستقبل، كان هناك إجماع على أن غطاء الذكاء الاصطناعي (AI) سوف يتم إزالته. سوف نرى أخيراً ما يمكنه فعله، ونتمنى أن نحصل على وضوح حول تأثيره على الأعمال والمجتمع وكيفية المضي قدمًا. لم يكن هذا التنبؤ جديدًا، ولكن جوهره كان دقيقًا، على الرغم من أننا ما زلنا نناقش حول الآثار الذكاء الاصطناعي وكيف (أو إذا) يجب التحكم فيه بطرق معينة.
سوف نرى في النهاية شركة Apple وMicrosoft وGoogle تبني الذكاء الاصطناعي في الأجهزة وتجلب قوته إلى جمهور أوسع وأكبر. ثم مرة أخرى، كان هناك برنامج محادثة واحد في أداة بحث مدعومة بالذكاء الاصطناعي يهدد المستخدمين ويزعم أنه يتجسس على الموظفين، بينما اقترح الآخر استخدام غراء Elmer’s في بيتزا محلية للحفاظ على الجبن من الانزلاق. ومع ذلك، نمت حالات استخدام الذكاء الاصطناعي في الأعمال بشكل كبير وسوقه أيضًا. وفقًا للبيانات من Crunchbase، ذهب ما يقرب من ثلث التمويل الاستثماري العالمي في العام الماضي إلى شركات في مجالات متعلقة بالذكاء الاصطناعي فقط.
ولكن حتى مع تقديم OpenAI استدلالات محسنة حقًا، حث الباحث المشهور في مجال الذكاء الاصطناعي، يوشوا بنجيو، على اعتماد تدابير أمان لنمذجة ” الحدود ” التي تتمتع بإمكانية تسبب ضرر كارثي. وعلى الرغم من أن التكنولوجيا سوف تأخذ جائزة نوبل في العلوم للتطبيقات في العلوم، أعرب واحد من الفائزين عن قلق حول وجود أنظمة “أكثر ذكاءً منا التي في النهاية تسيطر”.
في مثل هذا الفضاء المتحرك بسرعة، من الصعب على خبراء التكنولوجيا مواكبة الأحداث، ناهيكم عن أولئك في التيار الرئيسي.
وهذه العيوب في الذكاء الاصطناعي – والقلق حول الخصوصية والاستخدام غير الخاضع للرقابة – زادت فقط من حذر الجمهور.
ثقني فقط
نحن نجد أنفسنا في منتصف قوس الثقة، والذي يتطلب تقدمًا في قبول الجمهور للذكاء الاصطناعي، مع ضمان أن المجتمعات التجارية والتكنولوجية تتصرف بمسؤولية. الجزء الأول هو حيث يتم لعب اللعبة الآن، على المستوى الشركات، واكتساب الزخم مع كل نشر آمن وموثوق. نحن نبني على نقاط برهاننا، والتي سوف تؤدي في النهاية إلى زيادة الثقة العامة. الجزء الثاني، ومع ذلك، أكثر صعوبة.
من يحدد وينفذ استخدام الذكاء الاصطناعي المسؤول؟ هل يمكن لمجال معين إنشاء إرشادات عندما هم الذين يحتاجون إلى التنظيم؟ إذا كان خبراء التكنولوجيا يعانون من صعوبة في متابعة الذكاء الاصطناعي، فهل سيكون المشرعون على دراية، وسيحافظون على أجنداتهم السياسية خارج المناقشة؟ وعندما يريد ملياردير الذكاء الاصطناعي فجأة التحدث عن التحكم، هل كان لديه إلهام أو هو مجرد محاولة لضبط فرامل للاستمرار؟
“ثقني فقط” لن يكون كافياً مع الذكاء الاصطناعي، بغض النظر عن من أنت.
ثقني ولكن تحقق
الناس ينظرون إلى الذكاء الاصطناعي التوليدي مثل ChatGPT ويتساءلون إذا كان سيكون نتيجة بحثهم التالية؟ حسنًا، النتيجة الأولى في بحث Google الآن يتم إنشاؤها بواسطة نموذجها الذكاء الاصطناعي، Gemini. المشكلة هي أنك لا يمكنك الاعتماد عليه للأعمال على نطاق واسع عندما يسأل سؤال بسيط مثل “هل اللحم النيء آمن للاستهلاك؟” يعود الجواب “نعم، مجمد”. تحتاج إلى فحص البيانات.
قوس الثقة العامة سوف ي镜 ما فعله مع بحث تقليدي، تم الحصول عليه مع مرور الوقت وبرهان الموثوقية. بشكلironic، في سعينا لتسهيل وتحسين البحث، لقد اتخذنا خطوة إلى الوراء. الآن، بعد الحصول على الجواب الذي تم إنشاؤه بواسطة الذكاء الاصطناعي في أعلى قائمة، عليك التمرير عبر قائمة طويلة من الروابط المدعومة، والنقر على الخمس التالية ومازال تأكيد المعلومات.
هذه الكثير من العمل عندما تبحث عن جواب سريع – ولا يمكنك أن يكون لديك شركة كاملة تفعل نفس الشيء. ومع ذلك، إذا غنيت البيانات التي كنت تعدينها مع الآلاف من تذاكر الخدمة الخاصة بك، فستجلب المعرفة الفعلية حول بيئتك. يمكنك بعد ذلك تكوين الخيال بشكل تنازلي، ولكن لا يزال يبقى “ثقني ولكن تحقق” حالة.
إبقِ السياسة خارج ذلك
عندما يتعلق الأمر بتنظيم الذكاء الاصطناعي، يعتبر البعض أن الحصان قد غادر الحظيرة وربما لن يتم اصطياده. على سبيل المثال، هناك نقص في أدوات فعّالة لتحديد ما إذا كان طالب قد كتب ورقة أو استخدم GenAI. التكنولوجيا هي مجرد خطوة إلى الأمام.
سوف يكون تنظيم هذا الأمر معقدًا جدًا، وللأسف، سوف نكون على ثلج رقيق. نعرف أن شركات التكنولوجيا هي عقود أمام المنظمين المقترحين. ولكننا جيدون في حفر الطريق، وليس كوننا متأخرين. ومع ذلك، في النهاية، قد يقع على عاتق المبتكرين محاولة تطبيق الحوكمة. من يمكنه القيام بذلك – بمسؤولية؟
هناك العديد من السياسيين الذين يحبون أن يفعلوا ذلك. المخاطر، بالإضافة إلى عدم الفهم، هي إذا كان لديهم أجندة سياسية شخصية لتقدمها. تركيزهم، ربما، سيكون أقل على تنمية الذكاء الاصطناعي وأكثر على القيام بما هو في مصلحتهم السياسية. قد يكونوا قادرين على العمل من مخاوف العامة، باستخدام يد ثقيلة لتعطيل تقدمه.
كان قانون CHIPS و العلوم مثالًا جيدًا على الإجراء الحكومي الصحي، مما أدى إلى زيادة دراماتيكية بنسبة 15 مرة في بناء منشآت التصنيع للأجهزة الإلكترونية والحواسيب. ولكن هذا تم إنجازه من خلال التبادل الحزبي – وهو ما يزداد ندرة في العصر الحديث.
هل نحن مستحقون؟
هناك الكثير من الأموال التي تتدفق إلى الذكاء الاصطناعي وعلى مدى العقدين القادمين، سوف يُكسب الكثير من قبل شركات التكنولوجيا. كم، وكيف، وسريعاً، وكم من أمان، تبقى لم تُحسم. في أي يوم معين، يمكن أن يتم تداول خدعة عميقة، تظهر شخصًا في الضوء يلعب بكرات من طائر نادر. سوف يتفاعل الجمهور مع رعب، وعندما قد يتم الكشف عن أن تكون منشأة بواسطة الذكاء الاصطناعي، لا يعود البيض إلى القشرة – الضرر تم إنجازه.
نحن بحاجة إلى مثل هذه الأشياء أن يتم تنظيمها بواسطة خبراء تكنولوجيا مطلعين. ما الشكل الذي سوف يأخذه – مجلس، هيئة معايير، إطار دولي – يبقى لم يُحسم. ما هو معروف هو أن الذكاء الاصطناعي على قوس الثقة، وكمجال، نحن بحاجة إلى إثبات أننا مستحقون له.












