قاده التفكير
الذكاء الاصطناعي الذي يتذكر دون الإفراط في مشاركة المعلومات: بنية الخصوصية للجيل القادم من الخدمات الشخصية

لم تدرك معظم الشركات بعد أن مساعدي الذكاء الاصطناعي الشخصيين قد وصلوا إلى مستوى جديد تمامًا. فهم الآن لا يكتفون بالإجابة على الأسئلة، بل تنفيذ الإجراءات نيابة عن الموظفين الحقيقيين: يقومون بإجراء ومراقبة الحجوزات، والمراسلات، واتخاذ القرارات المتعلقة بالشؤون المالية والجداول الزمنية والرحلات والاجتماعات.
لقد تغيرت البيانات التي يعتمد عليها الذكاء الاصطناعي أيضًا: من "ما نوع الموسيقى التي تفضلها؟" إلى "أين أنت، ومع من أنت، وماذا اتفقتما عليه، وكم تدفع مقابل ذلك؟". هذا مستوى مختلف نوعيًا من الهشاشة، ونحن بحاجة ماسة إلى بنية جديدة. أسميها "إيصالات الخصوصية" - إيصالات رقمية السماح للمستخدمين أن يكون بإمكانهم الاطلاع في أي وقت على المعلومات التي يعرفها المساعد عنهم، ومصدرها، وسبب استخدامها. وهذا هو نفس التوقع الذي نتوقعه اليوم من كشوفات الحسابات البنكية: الشفافية، وإمكانية التحقق، وتوفرها عند الطلب.
لماذا أصبح الذكاء الاصطناعي الآمن ذا أهمية بالغة في الوقت الراهن؟
حتى وقت قريب، كانت المساعدات الذكية التي تعمل بالذكاء الاصطناعي تقتصر في الغالب على تقديم المعلومات: البحث، وتلخيص المستندات، وتلميحات البرمجة. ونادراً ما كانت تعمل دون تدخل شخص يتحكم في العملية.
اليوم، نرى صورة مختلفة. أصبحت المساعدات مدمجة في البريد الإلكتروني، والتقويمات، وتطبيقات المراسلة، والخدمات المصرفية، وخدمات السفر؛ ويمكنها أرسل رسالة بشكل مستقل إلى شريك، أو دفع ثمن حجز، أو تغيير رحلة طيران، بالاعتماد على سياق قد لا يكون الشخص المسؤول على دراية به.
في الوقت نفسه، يُعدّ المستخدمون الأوائل والأكثر نشاطًا لهذه المساعدات هم الأشخاص الذين يتحملون تكلفة باهظة للغاية نتيجة الأخطاء: كبار المديرين التنفيذيين والرؤساء التنفيذيين، والعملاء ذوو الثروات العالية، والمتخصصون في القطاع المالي وإدارة رؤوس الأموال. بالنسبة لهم، يُمثل فقدان الخصوصية خطرًا جسيمًا على سمعتهم وقانونهم وأموالهم بشكل مباشر.
عندما يتعلق الأمر بالذكاء الاصطناعي، لم يعد من الممكن التعامل مع قضايا الخصوصية على أنها مجرد إجراء شكلي.
بيانات قليلة، قيمة أكبر
معظم منتجات الذكاء الاصطناعي جمع بيانات أكثر بكثير أكثر مما ينبغي أن تكون عليه لتكون مفيدة حقًا. في تجربتنا، وجدنا أن الغالبية العظمى من البيانات التي تجمعها مساعدات الذكاء الاصطناعي التقليدية لا تُستخدم فعليًا لتقديم الخدمات. على سبيل المثال، في مجال خدمات الاستقبال والإرشاد، تكفي ثلاثة أمور ليقدم المساعد خدمة شخصية عالية الجودة. أولًا، التفضيلات المتعلقة بالمهمة: كيفية سفرك، وطريقة تواصلك المفضلة، والقيود المفروضة عليك فيما يتعلق بالتأشيرات والميزانية والالتزامات العائلية.
ثانياً، سياق الطلب الحالي: أين، ومتى، ومع من، ولأي أغراض، والمواعيد النهائية، والمخاطر.
وأخيراً، فهو يتذكر التفاعلات السابقة داخل المهام: لذلك فهو لا يطرح نفس الأسئلة، ويتذكر الحلول المختارة، ولا يكرر الأخطاء.
هذا يكفي لكي يعمل المنتج بمستوى مساعد شخصي جيد. فهو لا يحتاج إلى أرشيف كامل للمراسلات، أو تتبع مستمر للموقع، أو معاملات مالية.
المساعدون الذين يعملون بالذكاء الاصطناعي والحدود المقبولة
هناك أنواع من البيانات لا مكان لها في المساعد الشخصي. على سبيل المثال، بيانات السلوك السلبي: كالتنصت المستمر، وتحديد الموقع الجغرافي بشكل دائم دون طلب، ومراقبة الشاشة أو المدخلات. إذا جمع النظام معلومات لا تتعلق بما طلبته، بل بما تفعله بشكل عام، فإنه يفقد صفته كمساعد ويتحول إلى أداة مراقبة.
كذلك، لا حاجة لبيانات عن أطراف ثالثة لم تتفاعل مع النظام مطلقاً. على سبيل المثال، لا ينبغي أن يتحول طلب مثل "المساعدة في تنظيم اجتماع" إلى حق في إنشاء ملفات تعريفية للضيوف، ومساراتهم، وعاداتهم.
ثالثًا، لا ينبغي تخزين محتوى رسائلك بالكامل في الذاكرة طويلة المدى افتراضيًا. يمكن للمساعد معالجة بريد إلكتروني محدد إذا طلبت منه ذلك صراحةً، ولكن هذا لا يعني أنه يملك الآن الحق في قراءة بريدك الإلكتروني.
مفيد يعني متطفل: فخ منتجات الذكاء الاصطناعي
إن توفير سياق إضافي يجعل المنتج أكثر ملاءمة بالفعل، لأنه كلما زادت معرفة النظام، زادت دقة التوصيات، وسرعة الاستجابات، وزاد تأثير الإبهار الناتج عن استخدامه.
هنا تبرز الحاجة الطبيعية لربط التقاويم والبريد الإلكتروني والمحادثات ونظام إدارة علاقات العملاء والبيانات الجغرافية، لكي تتمكن الخدمة من توقع احتياجات المستخدمين. ويبدو كل ربط بين المستخدمين منطقياً ومبرراً.
في قطاع خدمات الاستقبال والإرشاد، يُحسّن ربط تقويم العميل وسجل سفره التوصيات بشكل ملحوظ، إذ يستطيع النظام توقع احتياجاته حتى قبل أن يُفصح عنها. في الوقت نفسه، تتعمد بعض الخدمات عدم تخزين محتوى الاتصالات خارج نطاق المهام النشطة، ولا تُنشئ ملفات تعريف سلوكية استنادًا إلى البيانات غير النشطة.
تكمن المشكلة في أن منطق تحسين تجربة المستخدم يُحوّل بنية النظام تدريجياً نحو جمع بيانات أكثر، وتخزينها لفترات أطول، وتوسيع نطاق الوصول إليها. وفي مرحلة ما، يختفي هذا الخط الفاصل تماماً.
تتعلق المشكلة الثانية بصلاحيات الوصول لدعم العملاء. يمكنك بناء نظام تشفير قوي، ثم منح موظف دعم العملاء صلاحية الوصول الكامل إلى سجل العميل لغرض، مثلاً، شراء تذكرة دعم واحدة. في الواقع، غالباً ما تحدث الحوادث بسبب الوصول الداخلي غير المنضبط والخطأ البشري، وليس بسبب هجمات خارجية.
أما الخطر الثالث فيتمثل في بنى الأنظمة متعددة الوكلاء. فعندما يتبادل الوكلاء المعلومات السياقية فيما بينهم، تبدأ البيانات بالتدفق بين المكونات بطرق لم تُصمم خصيصًا لهذا الغرض. وإذا كان لدى أحد الوكلاء صلاحيات واسعة جدًا، فإن هذه المعلومات السياقية تنتقل إلى الوكلاء في المستويات الأدنى من السلسلة.
إيصالات الخصوصية: المعيار التالي للذكاء الاصطناعي
من الخطأ النظر إلى الخصوصية كوظيفة امتثال فحسب. فالخصوصية الحقيقية تعتمد على ما نخزنه وكيف نشاركه للغرض المقصود منه، ومدة وشروط تمديده، ومن يحصل على حق الوصول إليه وتحت أي ظروف، بما في ذلك الأشخاص ووكلاء الذكاء الاصطناعي، وكيف يتحكم المستخدمون فيه.
لسوء الحظ، لا تملك معظم الخدمات إجابة بسيطة على أسئلة المستخدمين: ما الذي يعرفه النظام بالضبط، وهل يمكن تصحيحه أو حذفه بالكامل، وهل يمكن حظر استخدام جزء معين من البيانات؟
لذا، من المهم توفير إيصالات الخصوصية التي تُمكّن المستخدم من سؤال مساعده الذكي عن المعلومات التي يعرفها عنه، وسبب معرفته بها، ومصدرها، والحصول فورًا على إجابة واضحة وقابلة للتحقق. وكما نتوقع كشوفات حساباتنا المصرفية، سنتوقع قريبًا الشفافية من الأنظمة التي تُدير وقتنا وعلاقاتنا وأموالنا.
الأساس التقني للذاكرة الآمنة
لا يمكن ضمان الخصوصية دون أساس هندسي متين. هناك ثلاث طبقات أساسية على الأقل: أولاً، حماية البيانات على مستوى البنية التحتية. يجب أن يكون التشفير مبدأً جوهرياً، لا مجرد إجراء شكلي. ينبغي تخزين البيانات باستخدام مفاتيح خاصة بكل عميل، وليس باستخدام مفتاح رئيسي واحد للجميع، ويجب أن يتم النقل عبر بروتوكولات حديثة، كما يجب فصل السمات الحساسة منطقياً عن بيانات تعريف الخدمة.
علاوة على ذلك، يجب أن يكون لكل خدمة ووكيل ومشغل إمكانية الوصول فقط إلى البيانات الضرورية لأداء مهمة محددة.
وأخيرًا، تُعدّ سجلات الوصول غير القابلة للتلاعب، ومراجعة كل عملية وصول، والتحكم التقني في مواقع التخزين والمعالجة، أمورًا بالغة الأهمية. وينبغي اعتبار الاختبار المنتظم لسيناريوهات متعددة العوامل فئةً مستقلةً من المخاطر.
لا يمكن الحصول على إيصالات الخصوصية إلا من خلال هذه البنية: بهذه الطريقة، يعرف النظام حقًا ما يعرفه ويمكنه إثبات ذلك.
من سيخسر، ومن سيصبح المعيار؟
ستخسر الخدمات والمنتجات التي تعتبر الذاكرة تراكمًا أحادي الاتجاه: ستكون هناك شفافية أقل للمستخدم، ولكن المزيد من المصادر، والمزيد من السياق، وتخزين أطول.
يبدو هذا النموذج مفيدًا على المدى القصير، ولكن بدون قيود وقواعد واضحة، يتحول هذا المنطق إلى توسع غير منضبط، حيث يتم ربط البيانات بشكل أسرع من إمكانية وضع آليات للتفسير والتحكم.
ستؤثر الفضائح المتعلقة بتسريب البيانات، أو إساءة استخدام مساعدي الذكاء الاصطناعي، أو الكشف غير الصحيح عن المعلومات الحساسة، على جميع المنتجات في هذه الفئة. سيطالب المستخدمون بمزيد من المعلومات حول الشفافية، ولن تتمكن من الحفاظ على ثقة المستخدمين إلا الشركات التي أدمجت مسبقًا آليات التفسير والتتبع والتحكم من قِبل المستخدمين في بنيتها.
ستصبح المنتجات التي تصمم النظام بناءً على صورة فورية وقابلة للتحقق لما يعرفه الذكاء الاصطناعي ولماذا، هي المعيار. يجب أن تكون الخصوصية جزءًا لا يتجزأ من النظام منذ البداية، لا سيما عندما يؤثر ذلك على حياة الناس.






