Connect with us

ضع في اعتبارك المخاطر قبل ركوب Bard مع ملحقات الذكاء الاصطناعي

قادة الفكر

ضع في اعتبارك المخاطر قبل ركوب Bard مع ملحقات الذكاء الاصطناعي

mm

أعلنت Google مؤخرًا عن إطلاق Bard Extensions على نطاق واسع، مما يدمج أداة الذكاء الاصطناعي التوليدية المحادثية (GenAI) في خدماتها الأخرى. يمكن لـ Bard الآن الاستفادة من بيانات المستخدمين الشخصية لأداء مجموعة متنوعة من المهام – تنظيم البريد الإلكتروني، حجز الرحلات، تخطيط الرحلات، صياغة استجابات الرسائل، وغيرها الكثير.

مع وجود خدمات Google بالفعل متشابكة بشكل عميق في حياتنا اليومية، يعتبر هذا التكامل خطوة حقيقية向 الأمام لتطبيقات الذكاء الاصطناعي اليومية العملية، مما يخلق طرقًا أكثر كفاءة وإنتاجية للتعامل مع المهام الشخصية والتدفقات العمل. ونتيجة لذلك، مع إطلاق Google أدوات أكثر راحة من الذكاء الاصطناعي، تبرز ميزات الويب الأخرى القائمة على الذكاء الاصطناعي لتلبية طلب المستخدمين الذين يبحثون الآن عن ملحقات الإنتاجية القائمة على المتصفح.

然而، يجب على المستخدمين أن يكونوا حذرين ومسؤولين. كما أن ملحقات Bard وأدوات الإنتاجية الأخرى القائمة على الذكاء الاصطناعي مفيدة وإنتاجية، فإنها تفتح أبوابًا جديدة لثغرات أمنية محتملة يمكن أن ت危ز بيانات المستخدمين الشخصية، بالإضافة إلى المخاطر غير المكتشفة الأخرى. سيفيد المستخدمون الذين يرغبون في استخدام Bard أو أدوات الإنتاجية الأخرى القائمة على الذكاء الاصطناعي من تعلم أفضل الممارسات والبحث عن حلول أمنية شاملة قبل إعطاء معلوماتهم الحساسة بشكل أعمى.

مراجعة البيانات الشخصية

تُصرح Google بشكل صريح rằng موظفي الشركة قد يراجعون محادثات المستخدمين مع Bard – والتي قد تحتوي على معلومات خاصة، من فواتير إلى تفاصيل بنكية إلى ملاحظات حب. يتم إعلام المستخدمين بشكل مناسب بعدم إدخال معلومات سرية أو أي بيانات لا يرغبون في أن يرىها موظفو Google أو يستخدموها لإعلام المنتجات والخدمات وتكنولوجيا التعلم الآلي.

كما من المحتمل أن يستخدم مزودو أدوات GenAI الأخرى بيانات المستخدمين الشخصية لإعادة تدريب نماذج التعلم الآلي – وهو جانب ضروري من تحسينات GenAI. تقوم قوة الذكاء الاصطناعي على قدرتها على تعليم نفسها والتعلم من المعلومات الجديدة، ولكن عندما تأتي هذه المعلومات الجديدة من المستخدمين الذين وثقوا بملحق GenAI ببياناتهم الشخصية، فإنه يحتمل أن يدمج معلومات مثل كلمات المرور أو معلومات البنك أو تفاصيل الاتصال في خدمات Bard العامة.

مخاوف أمنية غير محددة

随着 أصبحت Bard أداة أكثر دمجًا داخل Google، يعمل الخبراء والمستخدمون على حد سواء على فهم مدى وظائفها. ومع ذلك، مثل كل لاعب رائد في مجال الذكاء الاصطناعي، تواصل Google إطلاق المنتجات دون معرفة كيفية استخدام معلومات المستخدمين وبياناتهم. على سبيل المثال، تم الكشف مؤخرًا عن أن مشاركة محادثة Bard مع صديق عبر زر المشاركة قد تظهر المحادثة بأكملها في نتائج البحث العادية من Google للجميع.

على الرغم من أن الحلول الملائمة لتحسين تدفقات العمل والكفاءة، فإن منح Bard أو أي ملحق آخر مدعوم بالذكاء الاصطناعي الإذن بالقيام بمهام يومية مفيدة بالنيابة عنك يمكن أن يؤدي إلى عواقب غير مرغوب فيها على شكل هلوسات الذكاء الاصطناعي – مخرجات خاطئة أو غير دقيقة التي يعرفها GenAI أحيانًا.

对于 مستخدمي Google، قد يعني هذا حجز رحلة خاطئة أو دفع فاتورة غير دقيق أو مشاركة الوثائق مع الشخص الخطأ. يمكن أن يؤدي تعرض بياناتك الشخصية إلى طرف غير صحيح أو ممثل خبيث أو إرسال البيانات الخاطئة إلى الشخص الصحيح إلى عواقب غير مرغوب فيها – من سرقة الهوية وفقدان الخصوصية الرقمية إلى خسارة مالية محتملة أو كشف المراسلات المحرجة.

توسيع الأمان

对于 المستخدم العادي للذكاء الاصطناعي، أفضل ممارسة هي عدم مشاركة أي معلومات شخصية من مساعدي الذكاء الاصطناعي غير المتوقعة. ومع ذلك، لا يضمن ذلك الأمان الكامل.

لقد جعلت التحول إلى التطبيقات القائمة على السحابة والويب من المتصفح هدفًا رئيسيًا للمهاجمين. ومع تبني الناس أدوات الذكاء الاصطناعي القائمة على الويب، تفتح نافذة الفرصة لسرقة البيانات الحساسة قليلاً. مع محاولة ملحقات المتصفح الأخرى الركوب على نجاح GenAI – بإغراء المستخدمين بتثبيتها بميزات جديدة وكفاءة – يجب على الناس أن يكونوا حذرين من حقيقة أن العديد من هذه الملحقات ستنتهك المعلومات أو مفتاح API OpenAI للمستخدم، في حالة أدوات متعلقة بChatGPT.

幸运ًا، توجد بالفعل حلول أمنية لملحقات المتصفح لمنع سرقة البيانات. من خلال تنفيذ ملحق المتصفح مع ضوابط DLP، يمكن للمستخدمين تخفيف خطر دعوة ملحقات المتصفح الأخرى، القائمة على الذكاء الاصطناعي أو غيرها، إلى إساءة استخدام أو مشاركة البيانات الشخصية. يمكن لهذه الملحقات الأمنية فحص نشاط المتصفح وتنفيذ سياسات الأمان، وبالتالي منع خطر تطبيقات الويب من الحصول على معلومات حساسة.

حماية Bard

في حين وعد Bard وملحقات أخرى مماثلة بتحسين الإنتاجية والراحة، فإنها تحمل مخاطر أمنية كبيرة. كلما تمت مشاركة البيانات الشخصية، كانت هناك مخاوف أمنية كامنة يجب على المستخدمين أن يكونوا على دراية بها – خاصة في المياه غير المخططة للذكاء الاصطناعي التوليدي.

随着 السماح لمستخدمي Bard وأدوات الويب الأخرى بالعمل بشكل مستقل مع البيانات الشخصية الحساسة، فإن العواقب الأكثر خطورة تنتظر بالتأكيد المستخدمين غير الحذرين الذين يتركون أنفسهم معرضين دون ملحقات أمان المتصفح أو ضوابط DLP. في النهاية، سيكون تحسين الإنتاجية أقل إنتاجية إذا زاد من فرصة كشف المعلومات، ويجب على الأفراد وضع حماية للذكاء الاصطناعي قبل أن تتم معالجة البيانات على حسابهم.

Tal هو كبير مسؤولي التكنولوجيا في Perception Point. في وقت سابق كان المؤسس والمدير التنفيذي للتكنولوجيا في Hysolate، Tal Zamir هو قائد في صناعة البرمجيات لمدة 20 عامًا مع سجل حافل بحل التحديات التجارية العاجلة من خلال إعادة تصور كيفية عمل التكنولوجيا.
لقد رائد العديد من المنتجات المتقدمة في مجال أمن السيبرانية وتقنية الافتراضية. Tal قام بتحفيز منتجات الحوسبة النهاية التالية الجيل في مكتب المدير التنفيذي للتكنولوجيا في VMware.