مقابلات
الدكتورة ماثيلد بافيس، رئيس قسم القانون في OpenOrigins – سلسلة المقابلات

الدكتورة ماثيلد بافيس، رئيس قسم القانون في OpenOrigins، هي خبيرة رائدة في تنظيم الذكاء الاصطناعي وحوكمة الإعلام الرقمي، وتتخصص في التلاعب بالصور والوسائط الإعلامية والبراهين. وهي توفر المشورة للشركات والحكومات والنقابات التجارية بشأن الامتثال والترخيص والمخاطر في الذكاء الاصطناعي، وقد عملت مع مايكروسوفت وElevenLabs على سياسة واستراتيجية الذكاء الاصطناعي. كما أنها قدمت المشورة لليونسكو بشأن الذكاء الاصطناعي والملكية الفكرية، وتساهم بانتظام في تقديم أدلة خبير للمشرعين في المملكة المتحدة.
OpenOrigins يطور تكنولوجيا لمكافحة المعلومات الخاطئة والتلاعب بالصور عن طريق إنشاء سجلات قابلة للتحقق ومقاومة للتلاعب لل内容 الرقمي. يركز منصته على إنشاء براهين واضحة، مما يسمح للوسائط والمنشئين والمنصات بثبات متى وكيف تم إنشاء المحتوى وتعديله وتوزيعه – وهي قدرة حرجة بشكل متزايد مع تقدم الوسائط الإعلامية الاصطناعية وأصبحت أكثر صعوبة في الكشف عنها.
لقد قمت بتقديم المشورة للحكومات والمؤسسات العالمية مثل اليونسكو والشركات مثل مايكروسوفت وElevenLabs بشأن تنظيم الذكاء الاصطناعي. ما الذي دفعك إلى التركيز بشكل خاص على التلاعب بالصور والنسخ الرقمية والوسائط الإعلامية الاصطناعية، وكيف ساهمت هذه الرحلة في قرارك بتأسيس Replique؟
لم يبدأ عملي على التلاعب بالصور مع التكنولوجيا – بل بدأ مع لغز قانوني قديم. عندما بدأت أبحاثي حول الملكية الفكرية لدراستي للدكتوراه في عام 2013، كنت مدفوعة بكيفية حماية الأداء بشكل أقل مقارنة بالكتاب والملحنين والمنتجين. في الممارسة يعني ذلك أن كلماتك أو موسيقاك تظل محمية بشكل أفضل في القانون من صوتك ووجهك وجسدك. هذا الخلل يبدو غريباً، ويدفعني إلى طرح سؤال أعمق: كيف نقيّم ثقافياً وقانونياً عمل شخص يُسهم بموهبته في الشاشة؟
ذلك السؤال أدى بي إلى حقوق الفنانين والبيانات. في ذلك الوقت، كان يُعتبر مجالًا ضيقًا ذا أهمية تجارية قليله. كنت قد نُصحت بالانتقال إلى مجالات أكثر ربحية مثل البراءات أو حقوق التأليف والنشر التقليدية. كان الافتراض هو أن القضايا المتعلقة بالشبه أو الصوت تُدار بشكل غير رسمي – من خلال القواعد الصناعية أو “اتفاقيات सजال” في هوليوود. لكن بالنسبة لي، ذلك النقص في الحماية الرسمية يشير إلى فجوة، وليس نهاية لمسار بحثي، لذا واصلت السير في هذا المسار.
ما تغير هو أن الجميع يُعتبرون فنانين اليوم. حياتنا تُتوسط من خلال الكاميرات – على الهواتف والكمبيوترات والمكالمات المرئية والمنصات الاجتماعية. سواء لأغراض العمل أو الاستخدام الشخصي، الناس يُسجلون ويُشاركون نسخًا من أنفسهم باستمرار. الأسئلة القانونية التي كانت تُطبق في السابق بشكل رئيسي على الممثلين أو الموسيقيين تُطبق الآن على أي شخص يمتلك هاتفًا ذكيًا.
التلاعب بالصور لم يخلق هذه القضايا – بل كشفها وأCELERها. الأبحاث التي كنت أُجريها منذ عام 2013 فصاعدًا أصبحت فجأة ملحة. حول عامي 2017 و2018، بدأت التطورات في الشبكات العصبية – ولا سيما تلك التي خرجت من أماكن مثل معهد ماساتشوستس للتكنولوجيا وجامعة كاليفورنيا، بيركلي – تُظهر كيف يمكن التلاعب بشكل مقنع بوجه شخص وصوته وجسده بشكل رقمي. في غضون عام، أصبحت هذه القدرة معروفة على نطاق واسع باسم “التلاعب بالصور”، وبدأت في اكتساب زخمًا أولاً من خلال طرق ضارة بشكل كبير، خاصة من خلال المحتوى الجنسي غير المُتّفق عليه الذي يستهدف النساء والأطفال.
في وقت لاحق، ظهرت الآثار التجارية، حيث بدأت الصناعات الإبداعية في تبني الوسائط الإعلامية الاصطناعية. ذلك هو عندما أصبحت الأسئلة التعاقدية والاقتصادية التي كنت أُجريها أبحاثًا حولها في طليعة الأمور. تقريبًا في ليلة وضحاها، ما كان يُعتبر مجالًا قانونيًا نظريًا أو عقائدي أصبح مجالًا عمليًا ذا أهمية تجارية كبيرة وذو أهمية اجتماعية ملحة.
في جوهره، لم تتغير التحديات القانونية: الناس يريدون مشاركة جوانب من أنفسهم، لكنهم يريدون أيضًا الحفاظ على سيطرة معنوية. الإطارات الحالية تُجهد مع تلك الدقة. تميل إلى معاملة الأفراد على أنهم إما خاصين بالكامل أو عامين بالكامل – إما محميين أو معرضين للخطر. لكن معظم الناس يوجدون في مكان ما بينهما. تلك التوترات أصبحت الآن مركزية لا فقط للممثلين المحترفين، بل لأي شخص يُشارك في الحياة الرقمية.
أصبحت معروفة كشخصية تُبحث وتعمل في هذا المجال، مما أدى بي إلى العمل مع الحكومات المهتمة بحماية الناس من التلاعب بالصور، والشركات التي تريد جعل منتجات التكرار الرقمي آمنة للاستخدام، مثل ElevenLabs. في Replique، أُجلب كل ما تعلمته إلى الأشخاص والشركات التي تريد استخدام تكنولوجيا التكرار الرقمي أو التكرار الرقمي بشكل مسؤول وآمن. لقد حولت بشكل أساسي بحثي “السماء الزرقاء” إلى عمل استشاري يُقدم مشورة قانونية متخصصة إلى الصناعات الإبداعية.
كما رئيس قسم القانون في OpenOrigins، شركة تركز على إنشاء سجل لا يمكن تغييره لبراهين المحتوى لمكافحة التلاعب بالصور، كيف ترى أنظمة البراهين تتنافس مع أو تحل محل نهج الكشف عن التلاعب بالصور التقليدية؟
مقارنة أدوات الكشف عن التلاعب بالصور يمكن أن تصبح في وقت قريب مثل مقارنة التفاح والبرتقال، لأن فعاليتها تعتمد على السياق والغرض. من منظور سياسي، ما نحتاجه هو مجموعة من الأدوات التكميلية – لا توجد حلول واحدة “أفضل”، وOpenOrigins هي جزء من هذا النظام البيئي الأوسع. حيث تبرز تكنولوجيا OpenOrigins كحل للكشف عن التلاعب بالصور في الحالات التي يحتاج فيها منتج المحتوى أو منظمة المعلومات إلى إثبات صحة المحتوى الذي يُشاركه مع الشركاء أو الجماهير أو العامة.
من خلال تقديم براهين قابلة للتحقق و”إيصالات” في نقطة الإنشاء، تقدم شكلًا قويًا من الوقاية من خلال إثبات أن المحتوى ليس تلاعبًا بالصور. ومع ذلك، فإن هذا النهج أقل فائدة للمستخدمين العاديين على الإنترنت الذين يريدون تقييم المحتوى بسرعة الذي يتعاملون معه على الإنترنت. في تلك الحالات، يعتمد الكشف أكثر على الطرق الاحتمالية وتحليل المحتوى بدلاً من التحقق القائم على البراهين. نحن بحاجة إلى أدوات مختلفة لاحتياجات مختلفة، ونحن بحاجة إلى قبول أن لا يوجد رصاصة فضية ضد التلاعب بالصور.
من منظور قانوني، ما هو أكبر فجوة حاليًا في كيفية تعامل الولايات القضائية مع الموافقة والملكية في المحتوى الذي يتم إنشاؤه أو تكراره بواسطة الذكاء الاصطناعي؟
أوه، كم من الوقت لديك؟ الإجابات تعتمد على ما نقصد به المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي أو تكراره. تختلف القضايا باختلاف ما إذا كنت تنظر إلى صورة تم إنشاؤها بواسطة الذكاء الاصطناعي لمنزل أو قطة. أو إعادة إنشاء رقمية لوجه شخص أو صوته. دعونا نركز على موضوع التلاعب بالصور والتكرار الرقمي، وإجابة سؤالك في سياق “التكرار الرقمي”.
فيما يتعلق بالموافقة، القضية الأساسية هي أن معظم العقود – سواء كانت اتفاقيات توظيف أو شروط المنصة – تحتوي على بنود واسعة وغامضة تمنح حقوقًا واسعة على محتوى المستخدم. يمكن تفسير هذه البنود على أنها شكل من أشكال “الموافقة الخلفية” حيث قد يُفهم الاتفاق على الشروط على أنها موافقة على استخدامات مثل التكرار، على الرغم من أن معظم الأشخاص سيختلفون بشدة مع هذا التفسير. هذا يخلق فجوة كبيرة بين التفسير القانوني وتوقعات المستخدم، وهي فجوة تُفيد حاليًا الشركات بينما تتخلف التنظيمات.
فيما يتعلق بالملكية، لا يوجد إجابة قانونية واضحة لمن يملك التكرار الرقمي، لأن الإطارات الحالية مثل حماية البيانات و حقوق التأليف والنشر وحقوق الشخصية لم تُصمم لهذه التكنولوجيا. اليوم، يُمسح معظم الناس وتُ克隆هم في العمل، بطلب وتمويل من صاحب عمل أو عميل. وتتوقع تلك الكيانات عادةً درجة عالية من السيطرة على هذا الأصول، وهو أمر مفهوم ولكن غالبًا ما يكون مشكلة لأن ذلك الأصول هو تكرار رقمي لوجهك أو صوتك، ويمكن أن يجعلك تقول أشياء لم تقُلها أبدًا، أو تفعل أشياء لم تفعلها أبدًا.
سؤال “من يملك كlonك؟” هو مهم جدًا، ومع ذلك لم يُجاب عليه في القانون حتى الآن.
لقد عملت بشكل وثيق على تكنولوجيا تكرار الصوت. ما هي أكبر مخاطر قانونية خاطئة عندما يتعلق الأمر بالأصوات الاصطناعية، لكل من الشركات والأفراد؟
أكثر القضايا خاطئة في الامتثال القانوني هي التوازن بين.Interest التجاري للشركة في تمويل واستغلال التكرار الرقمي، وحق الفرد في الخصوصية والكرامة الرقمية. هذا التوتر يجلس عبر أنظمة قانونية متعددة (في المقام الأول الملكية الفكرية وحماية البيانات والخصوصية) التي لم تُصمم أبدًا للعمل معًا وتفسر التكرار بطريقة مختلفة بشكل جوهري. ونتيجة لذلك، ترجمة ذلك إلى ممارسات تُجارية قابلة للعمل معقدة وغالبًا غير واضحة. الشركات إما ت忽ن المخاطر الرئيسية أو تتحمل تكاليف كبيرة للتجاوب بشكل صحيح. هذا يخلق نتيجة معكوسة حيث يصبح الامتثال المسؤول أكثر صعوبة وأكثر تكلفة، بدلاً من أن يكون المسار الافتراضي.
كيف يجب على الشركات التفكير في هندسة الموافقة في أنظمة الذكاء الاصطناعي، خاصة عند التعامل مع الشبه والهوية وبيانات التدريب؟
يجب على الشركات تصميم أنظمتها حول ثلاثة قدرات أساسية. أولاً، يجب عليهم تأمين موافقة مستنيرة وسياقية عند التسجيل. ثانيًا، يجب عليهم جعل من السهل على المستخدمين سحب تلك الموافقة وحذف بعض أو كل بياناتهم، وهو شيء يُعتبر تقنيًا صعبًا وغالبًا ما يُ忽ن، ولكن ضروريًا للامتثال للقوانين مثل GDPR في المملكة المتحدة والاتحاد الأوروبي ونظم مماثلة في الولايات المتحدة. الحفاظ على الموافقة مع مرور الوقت يعني بناء أنظمة حيث يكون سحب الموافقة سلسًا تشغيليًا ومتوافقًا مع نموذج العمل.
يجب أن تكون الموافقة شاملة. وثالثًا، يجب على المستخدمين أن يكونوا قادرين على إدارة الأذونات على مستوى الملفات الفردية، وتحديث بيانات الشبه، وفهم كيف يتم استخدامها. ذلك يتطلب الشفافية والسيطرة – أدوات تسمح للمستخدمين بمراقبة ومراجعة وتعديل كيفية نشر التكرارات الرقمية. هذا المستوى من المرونة نادر، ولكنها حيث تقع الميزة التنافسية بشكل متزايد.
من خلال خبرتك في تقديم المشورة للاستартآب والحكومات، أين يقع أكبر انقطاع بين كيفية بناء الذكاء الاصطناعي وكيف يتم تنظيمه؟
الانقطاع بين كيفية بناء الذكاء الاصطناعي وكيف يتم تنظيمه يعود إلى بعثات مختلفة بشكل أساسي. الحكومات تُقدم التنظيم في المصلحة العامة، بينما الشركات التي تعمل بالذكاء الاصطناعي (غالبًا ما يتم تمويلها من قبل المستثمرين) مدفوعة بالنمو والإيرادات والربح. تلك الأولويات لا تتعارض دائمًا، ولكنها تسحب في اتجاهات مختلفة، مع اعتبار التنظيم كعقبة بدلاً من دعم.
ذلك يخلق توترًا هيكليًا: المشرعون والمبتكرون يعملون مع حوافز وقيم ولغات مختلفة. ذلك يجعل التناغم صعبًا في الممارسة، حتى لو لم يكن مستحيلًا. نحن نبدأ في رؤية موجة جديدة من الشركات التكنولوجية تتماشى بشكل أوثق مع أهداف المصلحة العامة، ولكنها لا تزال الاستثناء وليس القاعدة – خاصة بين تلك التي تنجح في التوسع.
يركز OpenOrigins على التحقق من المحتوى في نقطة الإنشاء باستخدام البراهين الكريبتوغرافية. ما مدى أهمية هذا النهج الأولي للمصدر مقارنة بالحماية بعد التوزيع؟
هذا يعود إلى إجابتي السابقة. التحقق من المحتوى عند الإنشاء، “في أعلى التيار” هو أكثر فعالية من محاولة التحقق منه عند نقطة التوزيع أو حتى الاستهلاك، أي “في أسفل التيار”. التحقق من المحتوى عند الإنشاء يشبه تتبع الطعام من لحظة نموه في المزرعة، بدلاً من محاولة معرفة كل شيء من الطبق على طعامك. إذا كنت تعرف أين تم تربية الدجاج، وكيف تم التعامل معه، وكيف انتقل عبر سلسلة التوريد، يمكنك الثقة في ما تأكله. إذا كنت بدلاً من ذلك تحاول استنتاج كل ذلك فقط من النظر إلى الطبق النهائي، فإنك تعتمد على التخمين. الأمر نفسه ينطبق على التمييز بين المحتوى الذي تم إنشاؤه بواسطة الإنسان والمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي على الإنترنت: البراهين في المصدر تمنحك ضمانًا قابلًا للتحقق، بينما الكشف بعد التوزيع هو أكثر غير مؤكد ومتفاعل.
ما الدور الذي ترى أنه سيلعبه معايير مثل C2PA في مستقبل الإعلام، وهل هي كافية بحد ذاتها لاستعادة الثقة على الإنترنت؟
C2PA هي مبادرة مرحب بها، وتدعم في nhiều طرق نفس الحركة لصحة المحتوى مثل OpenOrigins. وهي جزء مهم من نظام أمان المحتوى وصدق المحتوى. كما مع كل أداة أمن السيبراني، لا توجد رصاصة فضية.
لمبدعي المواهب في صناعات مثل السينما والموسيقى والألعاب، ما هي الخطوات العملية التي يجب عليهم اتخاذها اليوم لحماية أنفسهم من التكرار الرقمي غير المصرح به؟
يواجه الفنانون اليوم مخاطر متميزة: تكرار عملهم (مثل الموسيقى أو الصور أو الكتابة) وتكرار شبههم، بما في ذلك وجههم وصدتهم وجسدهم. يمكن للأنظمة الذكية الآن إعادة إنتاج كلاهما بدقة عالية مع مدخلات قليلة. من الناحية العملية، الحماية تبدأ بالاعتناء بما يتم مشاركته على الإنترنت، مع الاعتراف بأن أي محتوى يتم نشره قد يتم حصاده واستخدامه في مجموعات بيانات التدريب، غالبًا بدون موافقة واضحة أو رؤية.
ذلك الخطر هو واقع أساسي لتشغيل الإنترنت. ولكن الخطر الأكثر إلحاحًا غالبًا ما يكمن في العقود. الاتفاقيات التي يبرمها الفنانون مع شركائهم أو موزعيهم أو منصاتهم قد تحتوي على بنود تسمح باستخدام الذكاء الاصطناعي أو إعادة بيع المحتوى لأغراض التدريب – غالبًا بدون مشاركة معنوية في الإيرادات الناتجة.
对于 الفنانين، ذلك يجعل فحص العقود حرجًا. فهم كيف يمكن استخدام عملهم و شبههم هو الآن مهم مثل العملية الإبداعية نفسها. الكثير من النقاش الحالي (عبر النقابات والهيئات الصناعية والمنصات) يركز على تصحيح هذا الخلل وضمان أن يظل المبدعون يتحكمون ويتحصلون على تعويض عادل.
لذلك هناك نصيحتان رئيسيتان: كن حذرًا بما تشاركه على الإنترنت، واقرأ عقودك وابحث عن بنود الذكاء الاصطناعي قبل التوقيع.
متطلعين إلى الأمام ثلاث إلى خمس سنوات، هل تعتقد أننا سنجعل كل قطعة من المحتوى الرقمي تحتاج إلى براهين قابلة للتحقق، أو ستبقى الثقة منقسمة عبر المنصات والولايات القضائية؟
أود أن أقول نعم، ولكن بشكل واقعي، لا – ليس في غضون خمس سنوات. في التكنولوجيا، خمس سنوات تشعر بالطول؛ من حيث تغيير سلوك المستخدم و عاداته، فهي قصيرة جدًا. معظم المستهلكين غير محتمل أن يأخذوا قراراتهم بناءً على ما إذا كان المحتوى يأتي مع براهين موثقة. المنصات تميل إلى اتباع demande المستخدم، وتحسينها من أجل الانخراط بدلاً من البراهين.
ذلك قد يتغير إذا تدخلت التنظيمات. نحن نرى بالفعل حركات أولية في أماكن مثل كاليفورنيا، حيث تظهر متطلبات التسمية والتحكم، ولكن توسيع ذلك على مستوى العالم سيتطلب وقتًا – ربما أقرب إلى عقد من خمس سنوات.
مجال آخر من التغيير هو محدد القطاع: صناعات مثل الصحافة والمالية والتأمين والرعاية الصحية قد تبدأ في طلب البراهين والتأكيد لأن الثقة هي أساسية لعملياتها.
أخيرًا، قد لا يهتم المستهلكون بالبراهين في المدى القصير، ولكنهم سيهتمون بجودة المحتوى ومعلوماته. إذا أصبحت المحتوى التي تم إنشاؤها بواسطة الذكاء الاصطناعي متماثلة أو “مملة” جدًا، قد يبدأ الجمهور في تقدير المحتوى الذي تم إنشاؤه بواسطة الإنسان بشكل صريح. ذلك قد يدفع إلى تقسيم السوق، مع بعض المنصات التي تُفضل الحجم والمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، والبعض الآخر يُحافظ على الصدق والبراهين والمادة الموثوقة بقيادة الإنسان – ولكن ذلك التغيير يبقى مجهولًا.
شكرًا على إجاباتك الرائعة، القراء الذين يرغبون في معرفة المزيد يجب أن يزوروا OpenOrigins.












