Connect with us

مقابلات

جوناثان مورتنسن، المؤسس والرئيس التنفيذي لشركة Confident Security – سلسلة المقابلات

mm

جوناثان مورتنسن، المؤسس والرئيس التنفيذي لشركة Confident Security، يُقود حاليًا تطوير أنظمة الذكاء الاصطناعي التي يمكن إثبات خصوصيتها للصناعات التي لديها متطلبات أمنية وامتثال صارمة. كما يخدم كزميل مؤسس في South Park Commons، حيث يبحث في مستقبل حوسبة الذكاء الاصطناعي، والذاكرة، والخصوصية، والملكية. قبل إطلاق Confident Security، كان مهندس برمجيات في Databricks، حيث قام بتكامل تقنية bit.io في منصة البيانات مع التركيز على أمان متعدد المستأجرين، وآي إيه إم/إيه سي إل، وعزل في بي سي، وتشفير، وملكية البيانات. في وقت سابق، أسس وخدم كمدير تقني لشركة bit.io، حيث بنى خدمة PostgreSQL الخالية من الخادم متعددة السحابية، متعددة المناطق، التي تدعم مئات الآلاف من قواعد البيانات الآمنة، والتي تم الاستحواذ عليها لاحقًا من قبل Databricks.

Confident Security تبني البنية التحتية التي تمكن المؤسسات من تشغيل تدفقات الذكاء الاصطناعي بدون كشف المعلومات الحساسة. تم تصميم منصتها بحيث تظل الإشارات، والبيانات، ومخرجات النموذج كاملة الخصوصية، ولا يتم تسجيلها أبدًا، ولا يتم إعادة استخدامها أبدًا، مما يوفر للمؤسسات طريقة آمنة لتبني الذكاء الاصطناعي مع الامتثال للمعايير التنظيمية والامتثال الصارمة.

لقد أسست Confident Security في عام 2024 بعد بناء bit.io والعمل في Databricks. ما هو الذي أثار إدراكك بأن الذكاء الاصطناعي يحتاج إلى نهج مختلف بشكل جوهري للاختراق؟

تعلّمني خبرتي في بناء البنية التحتية للهندسة أن الناس إذا وضعوا معلومات حساسة في نظام ما، فإن الثقة لا تكفي. إنهم يحتاجون إلى إثبات. لقد بنينا بنية تحتية يملك فيها العملاء بياناتهم، وقمنا بتقديم طرق لهم للتحقق من ذلك.

عندما نظرت إلى كيفية استخدام الشركات للنماذج اللغوية الكبيرة، لم يكن هناك إثبات. كان الموظفون يلصقون شفرة المصدر، والوثائق القانونية، وسجلات المرضى في نماذج تديرها جهات خارجية لا يمكن التحقق منها. لقد رأينا بالفعل محادثات خاصة تم فهرستها عن طريق الخطأ على الإنترنت، وتغييرات في السياسات التي جعلت المحادثات بيانات تدريب افتراضية. أظهر ذلك مدى هشاشة نموذج الخصوصية الحالي.

إذا كان الذكاء الاصطناعي سيحمل أكثر المعلومات الحساسة في العالم، فإننا نحتاج إلى ضمانات لا تعتمد على الثقة في وعود البائع الداخلية. هذا ما دفعني إلى بدء Confident Security.

يُوصف OpenPCC بأنه “Signal للذكاء الاصطناعي”. لماذا كان من المهم أن يكون طبقة الخصوصية هذه مفتوحة، ويمكن التحقق منها، ومتوافقة من اليوم الأول؟

لم تنتشر التشفير من طرف إلى طرف حتى أصبحت معيارًا يمكن الجميع تبنيه. نريد الشيء نفسه للخصوصية في الذكاء الاصطناعي. إذا كان فقط عدد قليل من الشركات يمكن أن تقدم ضمانات حقيقية، فإن الخصوصية لن تتوسع.

OpenPCC هو مفتوح المصدر تحت رخصة Apache 2.0، لذلك يمكن لأي شخص بناء عليه أو فحصه. لا توجد متطلبات ثقة سرية. توفر التأكيد من الأجهزة دليلًا كريبتوجرافيًا حول ما يتم تشغيله وأين. وقمنا بضمان أنه يعمل في أي مكان: أي سحابة، أو مزود نموذج، أو حزمة مطور.

هناك قيمة كبيرة في قاعدة خصوصية متسقة وниверسالية. إذا كنت تستخدم OpenPCC، فتعرف أن بياناتك لا تكون مرئية للمزودين النموذجية، أو المنظمين، أو حتى لنا. المعيار يعمل فقط إذا كان النظام البيئي كله يمكن المشاركة، لذلك قمنا بتصميمه ليكون شاملًا قدر الإمكان من اليوم الأول.

قبل Confident Security، قمت ببناء أنظمة كبيرة النطاق للتنANC، والتشفير، وملكية البيانات. كيف أثرت تلك الخبرات على هندسة OpenPCC؟

أثبتت تلك الأنظمة صحة حقيقتين: إذا كان النظام يمكن أن يحتفظ بالبيانات، فسيفعل ذلك في النهاية، سواء كان ذلك من خلال السجلات، أو سوء التكوين، أو الطلبات القانونية. والثقة ليست نموذجًا للخصوصية. يحتاج المستخدمون إلى الرؤية والتحكم.

يعمل OpenPCC في وضع غير متصل، لذلك تختفي الإشارات بعد المعالجة. يسمح التأكيد للمستخدمين بالتحقق من حيث تذهب بياناتهم وما هي الشفرة التي يتم تشغيلها. ومن خلال عزل التحكم عن البيانات، يمنع OpenPCC معالجة الإدخالات الخاصة على أنها تعليمات تنفيذية.

تلك هي القيود التي كانت المؤسسات تنتظرها: ضمانات أن البيانات لن تظهر مرة أخرى في مكان غير متوقع.

لقد جادلت بأن معظم حلول “الذكاء الاصطناعي الخاص” تعتمد على الثقة في الأنظمة غير الشفافة. لماذا هو التحقق المستقل ضروري للخصوصية الحقيقية؟

اللغة الأكثر استخدامًا للخصوصية اليوم هي في الأساس “ثق بنا”. هذا ليس كافياً عندما تكون المراهنة تشمل الأمن القومي وبيانات الرعاية الصحية المنظمة. إذا لم يتمكن المستخدم من التحقق من المطالبة، فإنه ليس ضمانًا – إنه تسويق.

الخصوصية القابلة للتحقق مختلفة. لا تثق في نوايا المشغل. تُحقق من الأجهزة، وصور البرمجيات، وضمانات معالجة البيانات. يفرض التشفير الحدود. لا توجد سجلات ليفقد شخص ما عن طريق الخطأ أو يصدر أمر استدعاء.

عندما تكون الخصوصية قابلة للتدقيق من قبل المستخدم، فإنك تخلق نظامًا أساسيًا أكثر أمانًا. إنها مساءلة متجذرة في الرياضيات.

جاء إعلان “الذكاء الاصطناعي الخاص” من Google بعد فترة قصيرة من OpenPCC. لقد تحداهم علنًا لتقديم TPU للاختبار المستقل. ما هو الذي دفع هذا التحدي، وماذا تتوقع أن تجده؟

لادعاء ضمانات الخصوصية، يجب أن تسمح للمجتمع بالتحقق منها. يسمح NVIDIA بالفعل بالتحقق الخارجي على وحدات معالجة الرسومات H100، وقمنا حتى بفتح مصدر مكتبة التأكيد الخاصة بهم بلغة Go لتشجيع تبنيها.

إذا أراد Google أن يعد بوعود مماثلة على وحدات معالجة الرسومات TPU، فيجب أن نتمكن من قياسها و التحقق منها، وليس فقط قراءتها في منشور مدونة. سنبحث عن نفس التحكم الذي نتوقعه من أي نظام خصوصية: حدود احتفاظ بيانات صارمة، وتأكيد يمكن التحقق منه، ولا مسارات سرية حيث يمكن للمسؤولين أو المهاجمين الوصول إلى المعلومات الحساسة.

للمقاطع غير المألوفة معآلات، ما الذي يجعل قنوات OpenPCC المشفرة بالكامل مختلفة عن التشفير التقليدي على جانب العميل أو الحوسبة الموثوقة؟

يحمي التشفير على جانب العميل البيانات أثناء انتقالها، وتحمي الحوسبة الموثوقة أثناء معالجتها، ولكن لا يزال هناك فجوات قبل وبعد ذلك حيث يمكن للمشغلين أو المهاجمين الوصول إلى المعلومات الحساسة.

يغلق OpenPCC هذه الفجوات. إنها تخلق مسارًا مغلقًا من طرف إلى طرف بين العميل والنموذج يحمي الإشارة، والاستجابة، وهوية المستخدم، وحتى البيانات الوصفية أو إشارات التوقيت التي يمكن أن تكشف عن النية بصمت.

لا يجب أن تعتمد الخصوصية على أمل أن يقوم المزود بالشئ الصحيح خلف الكواليس. يجب أن يتم فرضها كريبتوجرافيًا.

كيف يغير التحقق من الخصوصية المعادلة للصناعات المنظمة مثل المالية، والرعاية الصحية، والدفاع؟

الصناعات المنظمة لها المزيد لاكتسابها، ولكن أيضًا المزيد لخسارتها إذا تسرب شيء ما. اليوم، 78% من الموظفين يلصقون بيانات داخلية في أدوات الذكاء الاصطناعي، وواحد من كل خمسة حالات يتضمن معلومات منظمة مثل PHI أو PCI. التعرض يحدث بالفعل.

يُزيل التحقق من الخصوصية أكبر عائق. لا توجد إشارات حساسة في النص العادي داخل بيئة مزود النموذج. لا يمكن استخدام أي شيء للتدريب. حتى الطلبات القانونية لا يمكن الوصول إلى ما لا يمكن للنظام نفسه رؤيته.

أخيرًا، تتمكن فرق المخاطر والامتثال من الحصول على طريق حيث يصبح “نعم” الإجابة الافتراضية بدلاً من “لا”.

ما كانت أكبر التحديات الهندسية في تصميم طبقة خصوصية محايدة السحابة تعمل عبر أي حزمة مؤسسية؟

الحوسبة الموثوقة والتأكيد عن بعد لا يزالان في مرحلة الطفولة، في رأيي. كل مزود سحابي ومزود معدات حاسوبية يفعل شيئًا قليلاً مختلفًا. بعض المزودين، مثل AWS، لا يمتلكون حتى الأجهزة اللازمة لفعل ذلك. لذلك، كل ميزة نضيفها تشبه 1000 ضربة ومشي على حبل مشدود. ولكن النقطة هي أن نصبح معيارًا مفتوحًا، لذلك نحتاج إلى القيام بذلك حتى يعمل لأي سحابة. إنه مفتوح المصدر، لذا أنصح الناس بإضافة منصات ومواصفات داعمة إضافية!

ما هو العالم الذي يكون فيه التشفير القابل للتحقق هو الإعداد الافتراضي، وكيف قد يغير ذلك توازن القوة بين المؤسسات، ومزودي السحابة، ومطوري النماذج؟

تظل المؤسسات تحت سيطرة أصولها الأكثر قيمة: بياناتها. يتنافس مزودو النماذج على الأداء والتكلفة بدلاً من من يمكنه تجميع أكبر قدر من المعلومات المملوكة. السحابات تمكن الخصوصية بدلاً من أن تكون مراقبين صامتين لها.

إنها توازن قوة أكثر صحة. ويفوز النظام البيئي كله عندما يتم بناء الأمان في الأساس بدلاً من إصلاحه في الأعلى.

في مستقبل يصبح فيه الذكاء الاصطناعي شائعًا ومراقبًا بشكل كبير، كيف ترى التحقق من الخصوصية يغير المناظر التنافسية للمؤسسات، ومزودي السحابة، ومطوري النماذج؟

المنظمون يطرحون بالفعل أسئلة حول كيفية تخزين بيانات المستخدمين واستخدامها. لن ت满ي الخصوصية القائمة على الثقة هذه الأسئلة لفترة طويلة. سيتوقع المستخدمون ضمانات الخصوصية بنفس الطريقة التي يتوقعون فيها التشفير في تطبيقات المراسلة اليوم.

المنتصرون سيكونون الشركات التي لا تطلب من المستخدمين التنازل. إذا كنت يمكنك إثبات الخصوصية، فستكتسب ثقة المنظمات التي لديها أكثر البيانات قيمة في العالم. تصبح البيانات قابلة للاستخدام في الأماكن التي كانت محظورة فيها.

شكرًا على المقابلة الرائعة، القراء الذين يرغبون في معرفة المزيد يجب أن يزوروا Confident Security.

أنطوان هو قائد رؤى ومؤسس شريك في Unite.AI، مدفوعًا بشغف لا يتزعزع لتشكيل وتعزيز مستقبل الذكاء الاصطناعي والروبوتات. رجل أعمال متسلسل، يعتقد أن الذكاء الاصطناعي سيكون مدمرًا للمجتمع مثل الكهرباء، وغالبًا ما يُقبض عليه وهو يثرثر عن إمكانات التكنولوجيات المدمرة و AGI.

كما أنه مستقبلي، فهو مخصص لاستكشاف كيف سيشكل هذه الابتكارات العالم. بالإضافة إلى ذلك، فهو مؤسس Securities.io، وهي منصة تركز على الاستثمار في التكنولوجيات المتقدمة التي تعيد تعريف المستقبل وتهيئ القطاعات بأكملها.