قادة الفكر
مزدوجات رقمية شخصية لبرامج الذكاء الاصطناعي “Agentic AI” ستتطلب تطورًا في التحقق من الهوية

كان الإعلان الذي أصدرته شركة Amazon عن ميزة “اشتري لي” خطوة جريئة تشير إلى الإمكانات الحقيقية لبرامج الذكاء الاصطناعي “Agentic AI” في التجارة الإلكترونية. من خلال تمكين وكلاء الذكاء الاصطناعي من الشراء بسهولة من مواقع أخرى عندما لا تكون هذه العناصر متاحة على Amazon، تقوم الشركة بتمكين نفسها كالمزود الأول لخبرات تسوق ممتعة ومريحة للغاية.
برامج الذكاء الاصطناعي “Agentic AI” – حيث يتصرف الوكلاء المستقلون نيابة عن المستخدمين الحقيقيين – في طريقها لاعتماد سريع في الشركات، خاصة في سياق أعمال إلى أعمال. تخيل عالمًا حيث يمكن لوكلاء “AI” العاملين في مختلف القدرات (مثل خدمة العملاء ومبيعات وسلسلة التوريد وعمليات تكنولوجيا المعلومات والمالية والموارد البشرية) أن يتصرفوا بدون تدخل بشري.
برامج الذكاء الاصطناعي “Agentic AI” أيضًا تحظى بالترحيب في مجال المستهلك، مع تقديم وكلاء “B2C AI” فرصًا كبيرة للمستهلكين لتوفير الوقت والجهد في حياتهم اليومية. فكر في وكيل “مشتري” يمكن أن يساعد المتسوقين عبر الإنترنت في العثور على أفضل الصفقات ومراقبة انخفاض الأسعار وتأتمة الشراء ومعالجة الإرجاع وحجز السفر.似乎 لا نهاية للفرص عبر مختلف الصناعات:
- التحكم المالي والثروة – فكر في وكلاء الذكاء الاصطناعي الذين يمكنهم تنفيذ استراتيجيات مالية بشكل مستقل، واعادة توازن المحفظة، وfinding Interest الأمثل لادخار، وحتى إدارة تقديم الضرائب.
- خدمة العملاء والدعم (لأفراد) – بدلاً من الاتصال بخط المساعدة أو الدردشة مع بوت، يمكن لوكيل “Agentic AI” الشخصي التواصل مباشرة مع وكيل “Agentic AI” للشركة لحل المشكلات أو توضيح الطلبات أو إجراء التغييرات. هذا يزيل الحاجة للمفردين لإعادة المعلومات أو التنقل في أنظمة IVR المعقدة.
- الرعاية الصحية – سيكون وكلاء الذكاء الاصطناعي قادرين على إدارة المواعيد، وتحديد الوصفات الطبية، وتقديم مطالبات التأمين، وحتى السعي للحصول على آراء ثانية أو تحليل البحث الطبي نيابة عن المرضى.
يمنح اعتماد برامج الذكاء الاصطناعي “Agentic AI” المواقع فرصة لتمييز نفسها من خلال تجارب مستخدم استثنائية وسهلة. ومع ذلك، على الجانب الآخر من العملة، فإن برامج الذكاء الاصطناعي “Agentic AI” معرضة للغاية للاحتيال. تشير الأبحاث إلى أن البوتات تشكل بين 40 و 50 في المائة من جميع حركة المرور على الويب، مع اعتقاد أن حوالي 65 في المائة من هذه البوتات خبيثة. برامج الذكاء الاصطناعي “Agentic AI” هي في الأساس طريقة لمستخدميها العاديين لاستخدام البوتات، وسيتمكن المخترقون – الذين غالبًا ما يستخدمون البوتات بكميات كبيرة لتمكين العمليات على نطاق واسع – الآن من اختباء بسهولة في الضوء الساطع وسط حركة برامج الذكاء الاصطناعي المشروعة.
على مستوى أساسي، ستكون القدرة على التمييز بين البوتات الخبيثة والبوتات المشروعة على نطاق واسع عاملاً حاسماً في تمييز القادة في سباق برامج الذكاء الاصطناعي “Agentic AI”. في عالم برامج الذكاء الاصطناعي “Agentic AI”، ستتم منح الآلات الوكالة وستكون تمشي في نفس “الممرات الإلكترونية” مثل البشر.
لكن هل يعد مشهد التجارة الإلكترونية جاهزًا؟
ستتطلب برامج الذكاء الاصطناعي “Agentic AI” إعادة التفكير أو توسيع إطار التحقق من الهوية على الإنترنت كما هو معروف اليوم، وهو ما سيتطلب من مزودي الحلول الاستمرار في التحسين في ما يفعلونه. حتى الآن، كان هذا الإطار مركزًا على ثلاثة أسئلة:
- هل هذا الشخص حقيقي? يُطلب التوسع السريع في التزوير العميق اختبارات الحيوية لجميع المعاملات عالية الخطورة، لضمان أن تكون مبادرة من شخص حقيقي. في سياق برامج الذكاء الاصطناعي “Agentic AI”، قد تكون الإجابة “لا، أنا لست شخصًا”، ولكن هذا لا يعني أن اختبار الحيوية غير ذي صلة. يجب أن يكون اكتشاف الحيوية دائمًا جزءًا من الفحوصات البيومترية التي تحدث في نقاط عالية الخطورة في رحلة المستخدم، لضمان وجود إنسان في الحلقة – مثل عند إنشاء حساب أو نقل الأموال أو استعادة الحساب (“لقد نسيت كلمة المرور”).
- هل هذا الشخص موثوق به? هذه هي القدرة على تحديد ما إذا كان المستخدم مخترقًا أو عميلًا VIP في المستقبل أو شيء ما بينهما، وهو ما غالبًا ما يتضمن التحقق ضد قواعد البيانات العامة. على سبيل المثال، إذا حاول شخص ما حجز سكن على سوق إيجار عبر الإنترنت، فسيتم وضع علامة عالية الخطورة عليه إذا كان لديه تاريخ إجرامي معروف من الاحتلال أو تدمير الممتلكات.
- هل هذا الشخص لا يزال وراء الحساب? هذا يشير إلى المصادقة المستمرة والشاملة – أو التأكد في فترات منتظمة أن الشخص الذي تم التحقق من هويته عند تسجيل الدخول لا يزال هناك، ومنع الاستيلاء على الحساب من قبل بشر آخرين.
تضيف برامج الذكاء الاصطناعي “Agentic AI” سؤالاً رابعًا – هل يملك الوكيل السلطة للعمل كوكيل للمستخدم الحقيقي? هذا مسألة سلطة حاسمة، وتأكيد نطاق ومدة تفويض الإنسان لوكيل الذكاء الاصطناعي للعمل كوكيل له، وفقًا للسياق. هذا ليس فقط حول تفويض إنسان لمهمة، بل عن التأكد من أن وكيل الذكاء الاصطناعي يمتلك أذونات محددة ويمكن إلغاؤها وذات وعي بالسياق مشتقة من الإنسان. يجب أن تكون جميع أفعال وكلاء الذكاء الاصطناعي قابلة للتتبع إلى إنسان حقيقي وشرعي؛ هذا هو المفتاح لتنفيذ مواقع “B2C” لبرامج الذكاء الاصطناعي “Agentic AI” بطريقة آمنة ومسؤولة.
وفقًا لتقدير حديث، كان الذكاء الاصطناعي وراء حوالي 20 في المائة من الاحتيال المرتكب في عام 2024 عبر جميع القطاعات، ويتوقع أن ينمو هذا الرقم مع نشر المخترقين تقنيات جديدة. بالإضافة إلى وكلاء الذكاء الاصطناعي الخبيثين الذين يتصيدون وكلاء مشروعة، فإن مثالًا آخر هو اختطاف الوكيل، أو عندما يتدخل المهاجم في كيفية استلام الوكيل للمعلومات أو اتخاذ القرارات. لذلك، بالإضافة إلى التحقق من شرعية وسلطة وكلاء الذكاء الاصطناعي، من المهم أيضًا التحقق من سلامة الوكلاء لضمان عدم تعرضهم للتلاعب.
كانت توقعات جارت너 القوية لنمو برامج الذكاء الاصطناعي “Agentic AI” بشكل عام مع تحفظ مهم: سيتوقف أكثر من 40 في المائة من مشاريع برامج الذكاء الاصطناعي “Agentic AI” بحلول نهاية عام 2027. كان هذا استيقاظًا حادًا – إشارة إلى أن العديد من المنظمات تقلل من تعقيد تطبيق برامج الذكاء الاصطناعي “Agentic AI”، لا سيما الحاجة إلى ضبط ضوابط المخاطر. بينما هناك العديد من الطرق التي يمكن استغلال وكلاء برامج الذكاء الاصطناعي “Agentic AI” لارتكاب الأذى، فإن القدرة على التحقق من الشرعية والسلطة هي خطوة أساسية لتحديد الحد الأدنى لتحديد المخاطر. لحسن الحظ، ما هو مطلوب ليس إعادة اختراع، بل تطورًا – توسيع الإطارات المثبتة للتحقق من الهوية على الإنترنت التي توجد اليوم.












