رطم روشانك هومانفار ، نائب رئيس منتجات التعلم الآلي في Integrate.ai - سلسلة مقابلات - Unite.AI
اتصل بنا للحصول على مزيد من المعلومات

مقابلات

روشانك هومانفار ، نائب رئيس منتجات التعلم الآلي في Integrate.ai - سلسلة مقابلات

mm
تحديث on

Roshanak (Ro) Houmanfar هو نائب الرئيس لمنتجات التعلم الآلي دمج، شركة تساعد المطورين على حل أهم مشاكل العالم دون المخاطرة بالبيانات الحساسة. يمتلك Ro موهبة خاصة لإيجاد طرق جديدة لتبسيط مفاهيم الذكاء الاصطناعي المعقدة وربطها باحتياجات المستخدم. من خلال الاستفادة من هذه الخبرة ، فهي في طليعة مهمة دمج .ai لإضفاء الطابع الديمقراطي على الوصول إلى تكنولوجيا تعزيز الخصوصية.

ما الذي جذبك في البداية إلى علم البيانات والتعلم الآلي؟

بدأت رحلتي في مجال الروبوتات. بعد تجربة الزوايا المختلفة للروبوتات ، وحرق مختبر اللحام ، توصلت إلى استنتاج مفاده أنني أكثر انجذابًا إلى جانب الذكاء الاصطناعي في مجال عملي ، وهذا قادني إلى عالم رائع من التعلم الآلي.

هل يمكنك وصف دورك الحالي وكيف يبدو اليوم العادي بالنسبة لك؟

أنا نائب رئيس المنتج في دمج، وهي شركة SaaS تساعد المطورين على حل أهم مشاكل العالم دون المخاطرة بالبيانات الحساسة. نحن نبني أدوات للتعلم الآلي الآمن للخصوصية والتحليلات للمستقبل الموزع للبيانات.

في حياتي اليومية ، أعمل مع فرقنا عبر الوظائف لتحقيق ثلاثة أشياء:

فكر في الشكل الذي يمكن أن يبدو عليه مستقبل الذكاء وكيف يمكننا تشكيل ذلك المستقبل بحيث يحل الذكاء أكثر المشكلات خطورة

فهم نقاط ضعف عملائنا وكيف يمكننا الابتكار لجعل عملهم أكثر تأثيرًا وكفاءة.

تأكد من مراعاة رؤيتنا وتعليقات العملاء دائمًا في تطوير المنتجات ، والعمل بشكل تعاوني مع فرقنا لتقديم أفضل الميزات.

تعد البيانات الاصطناعية حاليًا منتشرة في مجال التعلم الآلي، لكن شركةintegra.ai تتخذ نهجًا مناقضًا بعض الشيء. ما هي بعض التطبيقات التي قد لا تكون فيها البيانات الاصطناعية خيارًا مرغوبًا فيه؟

من أجل فهم متى لا تكون البيانات التركيبية هي الحل الأفضل ، من المهم أولاً أن نفهم بشكل عام متى تكون كذلك. يتم استخدام البيانات التركيبية بشكل أفضل عندما يكون لهدف النمذجة إما كمية صغيرة من البيانات الحقيقية المتاحة أو لا تتوفر على الإطلاق - على سبيل المثال ، في مشاكل البداية الباردة وتدريب النموذج القائم على النص والصورة. في بعض الأحيان ، ببساطة لا توجد بيانات كافية لازمة لتدريب النموذج ، وذلك عندما تتألق البيانات التركيبية كحل.

ومع ذلك ، يتم استخدام البيانات التركيبية بشكل متزايد في المواقف التي يوجد فيها الكثير من البيانات الحقيقية ، ولكن يتم عزل هذه البيانات بسبب لوائح الخصوصية أو تكاليف المركزية أو غيرها من حواجز التشغيل البيني. هذه إساءة استخدام صارخة للبيانات التركيبية. في حالات الاستخدام هذه ، من الصعب تحديد المستوى الصحيح للتجريد لإنشاء البيانات التركيبية ، مما يؤدي إلى بيانات تركيبية منخفضة الجودة يمكن أن تسبب تحيزًا فطريًا أو مشكلات أخرى يصعب تصحيحها. بالإضافة إلى ذلك ، لا تقارن النماذج المدربة على البيانات التركيبية بتلك المدربة على بيانات مصدر حقيقية وعالية الجودة ومفصّلة.

Integrate.ai متخصص في تقديم حلول التعلم الموحد، هل يمكنك وصف ما هو التعلم الموحد؟

في التعلم الآلي التقليدي ، يجب أن تكون جميع بيانات التدريب النموذجية مركزية في قاعدة بيانات واحدة. باستخدام التعلم الموحد ، تكون النماذج قادرة على التدريب على مجموعات البيانات اللامركزية الموزعة - أو البيانات الموجودة في قاعدتي بيانات منفصلتين أو أكثر ولا يمكن نقلها بسهولة. كيف يعمل هو أن أجزاء من نموذج التعلم الآلي يتم تدريبها حيث توجد البيانات ، وتتم مشاركة معلمات النموذج بين مجموعات البيانات المشاركة لإنتاج نموذج عالمي محسن. ونظرًا لعدم نقل البيانات داخل النظام ، يمكن للمؤسسات تدريب النماذج بدون حواجز مثل لوائح الخصوصية والأمان أو التكلفة أو مخاوف المركزية الأخرى.

بشكل عام ، تعد بيانات التدريب التي يمكن الوصول إليها من خلال التعلم الموحد ذات جودة أعلى أيضًا ، نظرًا لأن البيانات المركزية تميل إلى فقدان بعض تفاصيلها على حساب سهولة الوصول في مكان واحد.

كيف تحدد المؤسسة أفضل حالات الاستخدام للتعلم الفيدرالي؟

التعلم الموحد عبارة عن مكدس تقني للتعلم الآلي تم تصميمه للحالات التي يكون فيها الوصول إلى البيانات أو إدخالها في البنية التحتية التقليدية للتعلم الآلي باستخدام بحيرات البيانات المركزية أمرًا مؤلمًا. إذا كنت تعاني من أحد الأعراض التالية ، فإن التعلم الموحد يناسبك:

  • أنت تقدم منتجات ذكية مدعومة بالتحليلات والتعلم الآلي ولا يمكنك إنشاء تأثيرات الشبكة لمنتجاتك لأن البيانات مملوكة لعملائك.
  • أنت تعمل من خلال اتفاقيات الخدمة الرئيسية الطويلة أو اتفاقيات مشاركة البيانات للوصول إلى البيانات من شركائك.
  • أنت تقضي الكثير من الوقت في تكوين عقود تعاون مع شركائك ، لا سيما في المواقف التي تكون فيها نتيجة شراكة البيانات هذه غير واضحة لك.
  • أنت تجلس على ثروة من البيانات وترغب في تسييل مجموعات البيانات الخاصة بك ولكنك تخشى الآثار المترتبة على سمعتك.
  • أنت تقوم بالفعل بتحقيق الدخل من بياناتك ، لكنك تنفق الكثير من الوقت والجهد والمال لجعل البيانات آمنة للمشاركة.
  • لقد تم ترك البنية الأساسية الخاصة بك في الخلف أثناء الانتقال إلى السحابة ، ولكنك لا تزال بحاجة إلى التحليلات والتعلم الآلي.
  • لديك الكثير من الشركات التابعة التي تنتمي إلى نفس المؤسسة ولكن لا يمكنك مشاركة البيانات مباشرة مع بعضها البعض.
  • مجموعات البيانات التي تتعامل معها كبيرة جدًا أو مكلفة للتنقل ، لذا قررت إما عدم استخدامها أو أن خطوط أنابيب ETL الخاصة بك تكلفك الكثير.
  • لديك تطبيق أو فرصة تعتقد أنها يمكن أن تحدث تأثيرًا كبيرًا ، لكن ليس لديك البيانات اللازمة لتحقيق ذلك بنفسك.
  • استقرت نماذج التعلم الآلي لديك ولا تعرف كيفية تحسينها أكثر.

غالبًا ما تُستخدم الخصوصية التفاضلية جنبًا إلى جنب مع التعلم الموحد ، ما هذا تحديدًا؟

الخصوصية التفاضلية هي تقنية لضمان الخصوصية مع تسخير قوة التعلم الآلي في الوقت نفسه. باستخدام رياضيات مختلفة عن تقنيات إزالة الهوية القياسية ، تضيف الخصوصية التفاضلية ضوضاء أثناء تدريب النموذج المحلي ، مما يحافظ على معظم الميزات الإحصائية لمجموعة البيانات مع الحد من خطر تحديد بيانات أي فرد.

في عمليات التنفيذ المثالية ، تجعل الخصوصية التفاضلية المخاطر قريبة من الصفر ، بينما تحافظ نماذج التعلم الآلي على أداء مشابه - مما يوفر كل الأمان المطلوب لإلغاء تعريف البيانات ، دون تقليل جودة نتائج النموذج.

يتم تضمين الخصوصية التفاضلية في دمجالنظام الأساسي افتراضيًا ، لذلك يمكن للمطورين ضمان عدم إمكانية استنتاج البيانات الفردية من معلمات النموذج الخاصة بهم.

هل يمكنك وصف كيفية عمل النظام الأساسي للتعلم الفيدرالي Integration.ai؟

تستفيد منصتنا من التعلم الموحد وتقنيات الخصوصية التفاضلية لإلغاء تأمين مجموعة من إمكانات التعلم الآلي والتحليل على البيانات التي قد يكون من الصعب أو المستحيل الوصول إليها بسبب الخصوصية أو السرية أو العقبات التقنية. يتم تنفيذ عمليات مثل تدريب النموذج والتحليلات محليًا ، ويتم تجميع النتائج النهائية فقط بطريقة آمنة وسرية.

تم تجميع أدوات insert.ai كأداة للمطورين ، مما يتيح للمطورين دمج هذه الإمكانات بسلاسة في أي حل تقريبًا باستخدام مجموعة أدوات تطوير برامج سهلة الاستخدام (SDK) ودعم الخدمة السحابية للإدارة الشاملة. بمجرد دمج النظام الأساسي ، يمكن للمستخدمين النهائيين التعاون عبر مجموعات البيانات الحساسة بينما يحتفظ الأوصياء بالسيطرة الكاملة. يمكن أن تُستخدم الحلول التي تتضمن مواقع Integrations.ai كأدوات تجريب فعالة وخدمات جاهزة للإنتاج على حدٍ سواء.

ما هي بعض الأمثلة على كيفية استخدام هذه المنصة في التشخيص الدقيق؟

إحدى شبكات الشركاء التي نعمل معها هي مبادرة تقاسم التوحد، يجمع المعلومات المتعلقة بتشخيص التوحد وكذلك عينات من بيانات الجينوم لفهم الروابط بين مختلف الأنماط الجينية والأنماط الظاهرية لتشخيص التوحد. لا يحتوي كل موقع بيانات فردي على مجموعات بيانات كافية لجعل نماذج التعلم الآلي تعمل ، ولكنها مجتمعة تنشئ حجم عينة ذي مغزى. ومع ذلك ، فإن نقل البيانات يشكل خطرًا كبيرًا على الأمان والخصوصية ، وبسبب اللوائح وسياسات المستشفيات ، فإن معاهد البحث هذه دائمًا ما تتخلف عن عدم المشاركة.

في شبكة مختلفة ، مع إعداد مماثل ، يهتم الباحثون بتحسين تخصيص التجارب السريرية للمرضى باستخدام رؤية أكثر شمولية لتاريخ كل مريض.

تتمتع المعاهد البحثية المختلفة المعنية بإمكانية الوصول إلى معلومات مختلفة حول كل مريض - يمكن لمعمل واحد الوصول إلى فحوصاتهم الطبية ، بينما يتمتع المختبر الآخر بإمكانية الوصول إلى معلومات الجينوم الخاصة به ، ويعرض معهد آخر نتائج التجارب السريرية الخاصة به. لكن هذه المنظمات المختلفة لا يمكنها مشاركة المعلومات مع بعضها البعض بشكل مباشر.

باستخدام حل insert.ai ، يمكن لكل مؤسسة الوصول إلى بيانات بعضها البعض لتحقيق أهدافها دون نقل البيانات بعيدًا عن أمناء البيانات وبالتالي الالتزام بسياساتها الداخلية.

هل يمكنك مناقشة أهمية جعل الخصوصية مفهومة وكيف يتيح التكامل .ai ذلك؟

إن جعل الخصوصية مفهومة يعني فتح الكثير من الأبواب أمام الشركات والمؤسسات التي كانت مغلقة تاريخيًا بسبب الطبيعة الغامضة للمخاطر. تعد لوائح الخصوصية مثل القانون العام لحماية البيانات (GDPR) وقانون حماية خصوصية المستهلك (CCPA) وقانون حماية خصوصية الأطفال (HIPPA) معقدة بشكل لا يصدق ويمكن أن تختلف اعتمادًا على الصناعة والمنطقة ونوع البيانات ، مما يجعل من الصعب على المؤسسات تحديد مشاريع البيانات الآمنة للخصوصية. بدلاً من إضاعة الوقت والقوى العاملة في التحقق من كل مربع ، توفر منصة التعلم الموحدة الخاصة بـ Integration.ai خصوصية تفاضلية مضمنة وتشفيرًا متماثلًا وحسابًا آمنًا متعدد الأطراف ، بحيث يمكن للمطورين وأمناء البيانات الراحة مع العلم أن مشاريعهم ستمتثل تلقائيًا للوائح التنظيمية المتطلبات ، دون عناء القفز من خلال كل طوق قاطع.

هل هناك أي شيء آخر ترغب في مشاركته بشأن برنامج Integral.ai؟

يعد حل Integral.ai أداة صديقة للمطورين بشكل لا يصدق تسمح بالتعلم الآلي المتوافق والمحافظة على الخصوصية والآمن والتحليلات فوق مصادر البيانات الحساسة. من خلال واجهات برمجة التطبيقات سهلة الاستخدام ، يتم التخلص من كل تعقيدات الامتثال التنظيمي والعقود فوق البيانات الحساسة. يسمح حل Integral.ai لعلماء البيانات ومطوري البرامج بإدارة أعباء العمل الخاصة بهم بأمان مع الحد الأدنى من التأثير على البنية التحتية الحالية ومهام سير العمل.

شكرا لك على المقابلة الرائعة ، القراء الذين يرغبون في معرفة المزيد يجب أن يزوروا دمج.

شريك مؤسس في unite.AI وعضو في مجلس تكنولوجيا فوربس ، أنطوان أ المستقبلي من هو شغوف بمستقبل الذكاء الاصطناعي والروبوتات.

وهو أيضًا مؤسس Securities.io، موقع ويب يركز على الاستثمار في التكنولوجيا الثورية.