الأخلاقيات
جوجل تكشف عن استخدام بيانات الويب العامة في تدريب الذكاء الاصطناعي

في تحديث حديث لسياسة الخصوصية الخاصة بها ، أقرت Google صراحة باستخدام المعلومات المتاحة للجمهور من الويب لتدريب نماذج الذكاء الاصطناعي الخاصة بها. هذا الكشف ، رصده جزمودو، بما في ذلك خدمات مثل Bard و Cloud AI. صرحت المتحدثة باسم Google كريستا مولدون لـ وشك أن التحديث يوضح فقط أن الخدمات الأحدث مثل Bard مدرجة أيضًا في هذه الممارسة ، وأن Google تدمج مبادئ الخصوصية والضمانات في تطوير تقنيات الذكاء الاصطناعي الخاصة بها.
الشفافية في ممارسات التدريب على الذكاء الاصطناعي هي خطوة في الاتجاه الصحيح ، لكنها تثير أيضًا مجموعة من الأسئلة. كيف تضمن Google خصوصية الأفراد عند استخدام البيانات المتاحة للجمهور؟ ما هي التدابير المعمول بها لمنع إساءة استخدام هذه البيانات؟
الآثار المترتبة على أساليب تدريب الذكاء الاصطناعي من Google
تنص سياسة الخصوصية المحدثة الآن على أن Google تستخدم المعلومات لتحسين خدماتها ولتطوير منتجات وميزات وتقنيات جديدة تفيد مستخدميها والجمهور. تحدد السياسة أيضًا أنه يجوز للشركة استخدام المعلومات المتاحة للجمهور لتدريب نماذج الذكاء الاصطناعي من Google وإنشاء منتجات وميزات مثل إمكانات الترجمة من Google و Bard و Cloud AI.
ومع ذلك ، لا توضح السياسة كيف ستمنع Google المواد المحمية بحقوق الطبع والنشر من أن يتم تضمينها في مجموعة البيانات المستخدمة للتدريب. تحتوي العديد من مواقع الويب التي يمكن الوصول إليها بشكل عام على سياسات تحظر جمع البيانات أو تجريف الويب بغرض تدريب نماذج اللغات الكبيرة ومجموعات أدوات الذكاء الاصطناعي الأخرى. قد يتعارض هذا النهج مع اللوائح العالمية مثل القانون العام لحماية البيانات (GDPR) التي تحمي الأشخاص من إساءة استخدام بياناتهم دون إذن صريح منهم.
لا يعد استخدام البيانات المتاحة للجمهور لتدريب الذكاء الاصطناعي مشكلة بطبيعتها ، ولكنه يصبح كذلك عندما ينتهك قوانين حقوق النشر والخصوصية الفردية. إنه توازن دقيق يتعين على شركات مثل Google التنقل فيه بعناية.
التأثير الأوسع لممارسات التدريب على الذكاء الاصطناعي
كان استخدام البيانات المتاحة للجمهور لتدريب الذكاء الاصطناعي مسألة خلافية. كانت أنظمة الذكاء الاصطناعي التوليدية الشهيرة مثل GPT-4 الخاصة بـ OpenAI متحفظة بشأن مصادر بياناتها ، وما إذا كانت تتضمن منشورات على وسائل التواصل الاجتماعي أو أعمال محمية بحقوق الطبع والنشر لفنانين ومؤلفين بشريين. تقع هذه الممارسة حاليًا في منطقة رمادية قانونية ، مما أثار دعاوى قضائية مختلفة ودفع المشرعين في بعض الدول إلى سن قوانين أكثر صرامة لتنظيم كيفية قيام شركات الذكاء الاصطناعي بجمع واستخدام بيانات التدريب الخاصة بهم.
يقاضي Gannett ، أكبر ناشر صحيفة في الولايات المتحدة ، شركة Google وشركتها الأم ، Alphabet ، مدعيا أن التطورات في تكنولوجيا الذكاء الاصطناعي ساعدت شركة البحث العملاقة على احتكار سوق الإعلانات الرقمية. وفي الوقت نفسه ، اتخذت المنصات الاجتماعية مثل Twitter و Reddit تدابير لمنع الشركات الأخرى من جمع بياناتها بحرية ، مما أدى إلى رد فعل عنيف من مجتمعاتها.
تؤكد هذه التطورات على الحاجة إلى إرشادات أخلاقية قوية في الذكاء الاصطناعي. مع استمرار تطور الذكاء الاصطناعي ، من الضروري للشركات أن توازن بين التقدم التكنولوجي والاعتبارات الأخلاقية. يتضمن ذلك احترام قوانين حقوق النشر وحماية الخصوصية الفردية والتأكد من أن الذكاء الاصطناعي يفيد المجتمع بأسره ، وليس قلة مختارة فقط.
ألقى تحديث Google الأخير لسياسة الخصوصية الخاصة بها الضوء على ممارسات تدريب الذكاء الاصطناعي الخاصة بالشركة. ومع ذلك ، فإنه يثير أيضًا أسئلة حول الآثار الأخلاقية لاستخدام البيانات المتاحة للجمهور لتدريب الذكاء الاصطناعي ، والانتهاك المحتمل لقوانين حقوق النشر ، والتأثير على خصوصية المستخدم. بينما نمضي قدمًا ، من الضروري بالنسبة لنا مواصلة هذه المحادثة والعمل نحو مستقبل يتم فيه تطوير الذكاء الاصطناعي واستخدامه بشكل مسؤول.