التمويل:
شركة OPAQUE تحصل على تمويل بقيمة 24 مليون دولار في جولة التمويل الثانية (Series B) بتقييم 300 مليون دولار لدفع تطوير الذكاء الاصطناعي السري الخاص بها إلى الأمام

يستمر تبني الذكاء الاصطناعي في المؤسسات بوتيرة متسارعة، لكن الثقة لا تزال أحد أكبر معوقاته. هذا الأسبوع، مبهمة أعلن أ 24 مليون دولار جولة تمويل المجموعة ب، مما يقدر قيمة الشركة بحوالي 300 مليون دولار بعد التمويل وتوفير التمويل الكامل لـ 55.5 مليون دولار. الجولة كان يقودها والدن محفز، بمشاركة من الداعمين الحاليين بما في ذلك إنتل كابيتال, عاصمة السباق, مشاريع العاصفةو ثومفيستإلى جانب مستثمر استراتيجي جديد مجلس بحوث التكنولوجيا المتقدمة (ATRC).
يؤكد هذا الارتفاع على إجماع متزايد في جميع أنحاء بيئة المؤسسات: لا يمكن للذكاء الاصطناعي أن يتوسع على البيانات الحساسة دون ضمانات أقوى وقابلة للتحقق فيما يتعلق بالخصوصية والحوكمة والأمن.
من الذكاء الاصطناعي التجريبي إلى تفويض المؤسسة
على مدار العام الماضي، تحوّل الذكاء الاصطناعي السري من مفهوم أكاديمي في معظمه إلى مطلب عملي للمؤسسات التي تستخدم النماذج التوليدية ووكلاء الذكاء الاصطناعي في بيئات الإنتاج. ومع تزايد اعتماد أنظمة الذكاء الاصطناعي على البيانات الخاضعة للرقابة، والملكية الفكرية الخاصة، وسير العمل بالغ الأهمية، أثبتت الأساليب التقليدية للأمن - التي تركز على البيانات المخزنة أو المنقولة - عدم كفايتها.
ينصب تركيز عمل منظمة OPAQUE على حماية البيانات والنماذج أثناء استخدامهاليس فقط قبل أو بعد تطبيق الذكاء الاصطناعي، فهذا التمييز مهم. تتعثر العديد من مبادرات الذكاء الاصطناعي المؤسسية بعد التجارب الأولية لأن مسؤولي أمن المعلومات والفرق القانونية وقادة الامتثال لا يستطيعون التحقق مما يحدث للبيانات الحساسة أثناء تنفيذ الذكاء الاصطناعي. والنتيجة هي التردد والتأخير، وفي كثير من الحالات، التخلي عن عمليات النشر.
يهدف الذكاء الاصطناعي السري إلى سد هذه الفجوة من خلال تقديم ضمانات تشفيرية بأن البيانات تظل خاصة، ويتم تطبيق السياسات، ولا يتم الكشف عن النماذج - حتى أثناء وقت التشغيل.
معالجة "فجوة الثقة" في المؤسسات
تتطلع المؤسسات اليوم إلى نشر وكلاء منظمة العفو الدولية تعتمد المؤسسات على البيانات الخاصة لتحقيق مزايا في الإنتاجية ورؤى تشغيلية. ومع ذلك، فإن هذه البيانات نفسها غالباً ما تكون الأكثر حساسية التي تمتلكها المؤسسة. وبدون ضمانات قابلة للتحقق، يتحول الذكاء الاصطناعي بسرعة من فرصة إلى خطر.
تُقدّم OPAQUE منصتها كطبقة ثقة لأنظمة الذكاء الاصطناعي المؤسسية، مصممة لتوفير خصوصية قابلة للإثبات، وإنفاذ السياسات، وسلامة النماذج قبل وأثناء وبعد تنفيذ الذكاء الاصطناعي. وبدلاً من الاعتماد على الافتراضات أو الضمانات التعاقدية، تركز المنصة على الأدلة، مما يُتيح إمكانية إثبات الامتثال والحوكمة في الوقت الفعلي.
يعكس هذا النهج تحولاً أوسع في فكر المؤسسات. لم تعد أنظمة الذكاء الاصطناعي تُقيّم بناءً على الأداء أو الدقة فقط، بل تتساءل المؤسسات بشكل متزايد عما إذا كان بإمكانها يثبت كيف يتصرف الذكاء الاصطناعي، وما هي البيانات التي وصل إليها، وما إذا كان قد اتبع القواعد المعتمدة.
ما الذي يدعمه التمويل الجديد
سيتم استخدام رأس مال السلسلة ب لتسريع تطوير ونشر منصة الذكاء الاصطناعي السرية الخاصة بشركة OPAQUE، مع التركيز على مساعدة المؤسسات على الانتقال من مرحلة التجريب إلى مرحلة الإنتاج بشكل أسرع وأكثر أمانًا.
وبالتوازي مع ذلك، تتوسع الشركة في مجالات مثل أمن ما بعد الكم, تدريب الذكاء الاصطناعي السريو بيئات السحابة السياديةتستهدف هذه المبادرات المنظمات التي تعمل في ظل قيود تنظيمية صارمة أو قيود تتعلق بالأمن القومي أو قيود تتعلق بمكان وجود البيانات، حيث تكون الرؤية والتحكم في أحمال عمل الذكاء الاصطناعي أمراً لا يقبل المساومة.
أطلقت شركة OPAQUE مؤخرًا بيئة تطوير OPAQUE Studio، التي تهدف إلى تبسيط عملية بناء ونشر وكلاء الذكاء الاصطناعي السريين. ويتمثل الهدف في جعل الخصوصية والامتثال القابلين للتحقق أثناء التشغيل جزءًا أساسيًا من دورة حياة تطوير الذكاء الاصطناعي، وليس مجرد إضافة لاحقة.
الآثار الأوسع نطاقاً على الذكاء الاصطناعي في المؤسسات
يشير صعود الذكاء الاصطناعي السري إلى تطور أعمق في كيفية توظيف المؤسسات للأنظمة الذكية. ومع اندماج الذكاء الاصطناعي في عمليات صنع القرار والأتمتة وتفاعلات العملاء، يجب أن يتحول دور الحوكمة من وضع السياسات إلى تطبيقها تقنياً.
قد تصبح التقنيات التي تُثبت، في الوقت الفعلي، حماية البيانات والالتزام بالقواعد، أساسيةً لبنى الذكاء الاصطناعي المؤسسية. ويصدق هذا بشكل خاص في القطاعات الخاضعة للتنظيم، مثل الخدمات المالية والرعاية الصحية والتأمين، حيث تتزايد متطلبات الامتثال بدلاً من تخفيفها.
قد يُتيح الذكاء الاصطناعي السري أشكالاً جديدة من التعاون. إذ يُمكن للمؤسسات تحليل مجموعات البيانات المشتركة أو المُجمّعة دون الكشف عن البيانات الخام، ما يُتيح الوصول إلى رؤى كانت في السابق بعيدة المنال بسبب مخاوف الخصوصية. وبهذا المعنى، قد لا تُقلّل البنية التحتية التي تحافظ على الثقة من المخاطر فحسب، بل قد تُوسّع آفاق إمكانيات الذكاء الاصطناعي.












