رطم التعلم الخاضع للإشراف مقابل التعلم غير الخاضع للإشراف - Unite.AI
اتصل بنا للحصول على مزيد من المعلومات
دروس متقدمة في الذكاء الاصطناعي:

منظمة العفو الدولية 101

التعلم الخاضع للإشراف مقابل التعلم غير الخاضع للإشراف

mm
تحديث on

في التعلم الآلي، يمكن تصنيف معظم المهام بسهولة إلى واحدة من فئتين مختلفتين: مشاكل التعلم الخاضعة للإشراف أو مشاكل التعلم غير الخاضعة للإشراف. في التعلم الخاضع للإشراف، تحتوي البيانات على تسميات أو فئات ملحقة بها، بينما في حالة التعلم غير الخاضع للإشراف، تكون البيانات غير مصنفة. دعونا نلقي نظرة فاحصة على سبب أهمية هذا التمييز وننظر إلى بعض الخوارزميات المرتبطة بكل نوع من أنواع التعلم.

التعلم الخاضع للإشراف مقابل التعلم غير الخاضع للإشراف

تقع معظم مهام التعلم الآلي في مجال التعلم تحت الإشراف. في خوارزميات التعلم الخاضع للإشراف ، يكون للمثيلات الفردية / نقاط البيانات في مجموعة البيانات فئة أو تسمية مخصصة لها. هذا يعني أن نموذج التعلم الآلي يمكن أن يتعلم التمييز بين الميزات المرتبطة بفئة معينة وأن مهندس التعلم الآلي يمكنه التحقق من أداء النموذج من خلال معرفة عدد الحالات التي تم تصنيفها بشكل صحيح. يمكن استخدام خوارزميات التصنيف لتمييز العديد من الأنماط المعقدة ، طالما تم تصنيف البيانات بالفئات المناسبة. على سبيل المثال ، يمكن لخوارزمية التعلم الآلي أن تتعلم تمييز الحيوانات المختلفة عن بعضها بناءً على خصائص مثل "الشعيرات" ، "الذيل" ، "المخالب" ، إلخ.

على عكس التعلم الخاضع للإشراف، يتضمن التعلم غير الخاضع للإشراف إنشاء نموذج قادر على استخراج الأنماط من البيانات غير المسماة. بمعنى آخر ، يحلل الكمبيوتر ميزات الإدخال ويحدد بنفسه أهم الميزات والأنماط. يحاول التعلم غير الخاضع للإشراف العثور على أوجه التشابه المتأصلة بين الحالات المختلفة. إذا كانت خوارزمية التعلم الخاضعة للإشراف تهدف إلى وضع نقاط البيانات في فئات معروفة ، فستقوم خوارزميات التعلم غير الخاضعة للإشراف بفحص الميزات المشتركة لمثيلات الكائن ووضعها في مجموعات بناءً على هذه الميزات ، مما يؤدي بشكل أساسي إلى إنشاء فئات خاصة بها.

من أمثلة خوارزميات التعلم الخاضع للإشراف الانحدار الخطي، والانحدار اللوجستي، وأقرب جيران K، وأشجار القرار، وأجهزة المتجهات الداعمة.

وفي الوقت نفسه ، فإن بعض الأمثلة على خوارزميات التعلم غير الخاضعة للإشراف هي تحليل المكونات الرئيسية وتجميع الوسائل K.

خوارزمية التعلم الخاضعة للإشراف

الانحدار الخطي هي خوارزمية تأخذ ميزتين وترسم العلاقة بينهما. يستخدم الانحدار الخطي للتنبؤ بالقيم العددية فيما يتعلق بالمتغيرات العددية الأخرى. يحتوي الانحدار الخطي على معادلة Y = a + bX ، حيث b هو منحدر الخط و a حيث يتقاطع y مع المحور X.

الانحدار اللوجستي هي خوارزمية تصنيف ثنائي. تفحص الخوارزمية العلاقة بين السمات العددية وتكتشف احتمال تصنيف المثيل في فئة من فئتين مختلفتين. يتم "ضغط" قيم الاحتمالات باتجاه إما 0 أو 1. وبعبارة أخرى ، ستقترب الاحتمالات القوية من 0.99 بينما تقترب الاحتمالات الضعيفة من الصفر.

K- أقرب الجيران يخصص فصل دراسي لنقاط بيانات جديدة بناءً على الفئات المعينة لبعض الأعداد المختارة من الجيران في مجموعة التدريب. يعد عدد الجيران الذين تضعهم الخوارزمية في الاعتبار أمرًا مهمًا ، ويمكن لعدد قليل جدًا أو كثير جدًا من الجيران أن يخطئوا في تصنيف النقاط.

أشجار القرار هي نوع من خوارزمية التصنيف والانحدار. تعمل شجرة القرار عن طريق تقسيم مجموعة البيانات إلى أجزاء أصغر وأصغر حتى لا يمكن تقسيم المجموعات الفرعية بشكل أكبر وتكون النتيجة شجرة ذات عقد وأوراق. العقد هي المكان الذي يتم فيه اتخاذ القرارات بشأن نقاط البيانات باستخدام معايير تصفية مختلفة، في حين أن الأوراق هي المثيلات التي تم تعيين بعض التصنيفات لها (نقطة بيانات تم تصنيفها). خوارزميات شجرة القرار قادرة على التعامل مع البيانات العددية والفئوية. يتم إجراء الانقسامات في الشجرة على متغيرات/ميزات محددة.

دعم آلات مكافحة ناقلات هي خوارزمية تصنيف تعمل عن طريق رسم خطوط فاصلة بين نقاط البيانات. يتم فصل نقاط البيانات إلى فئات بناءً على جانب المستوى الفائق الذي توجد عليه. يمكن رسم الطائرات المفرطة المتعددة عبر مستوى ، والغطس في مجموعة بيانات في فئات متعددة. سيحاول المصنف تعظيم المسافة بين الغطس الفائق والنقاط على جانبي المستوى ، وكلما زادت المسافة بين الخط والنقاط ، زادت ثقة المصنف.

خوارزميات التعلم غير الخاضعة للرقابة

تحليل المكون الرئيسي هي تقنية تستخدم لتقليل الأبعاد ، مما يعني أن أبعاد أو تعقيد البيانات يتم تمثيلها بطريقة أبسط. تكتشف خوارزمية تحليل المكون الرئيسي أبعادًا جديدة للبيانات المتعامدة. بينما يتم تقليل أبعاد البيانات ، يجب الحفاظ على التباين بين البيانات قدر الإمكان. ما يعنيه هذا من الناحية العملية هو أنه يأخذ الميزات الموجودة في مجموعة البيانات ويختزلها في عدد أقل من الميزات التي تمثل معظم البيانات.

K- يعني التكتل هي خوارزمية تقوم تلقائيًا بتجميع نقاط البيانات في مجموعات بناءً على ميزات مماثلة. يتم تحليل الأنماط داخل مجموعة البيانات وتقسيم نقاط البيانات إلى مجموعات بناءً على هذه الأنماط. بشكل أساسي ، تقوم K-mean بإنشاء فئاتها الخاصة من البيانات غير المسماة. تعمل خوارزمية K-Means عن طريق تعيين المراكز إلى المجموعات ، أو النقط الوسطى ، وتحريك النقط الوسطى حتى يتم العثور على الموضع الأمثل للنقاط الوسطى. سيكون الموضع الأمثل هو المكان الذي يتم فيه تقليل المسافة بين النقطتين الوسطى إلى نقاط البيانات المحيطة داخل الفصل. يشير الحرف "K" في التجميع K إلى عدد النقط الوسطى التي تم اختيارها.

نبذة عامة

للإغلاق ، دعنا ننتقل بسرعة إلى الاختلافات الرئيسية بين التعلم الخاضع للإشراف وغير الخاضع للإشراف.

كما ناقشنا سابقًا ، في مهام التعلم الخاضعة للإشراف ، يتم تصنيف بيانات الإدخال ويعرف عدد الفصول. وفي الوقت نفسه ، فإن بيانات الإدخال غير مصنفة وعدد الفصول غير معروف في حالات التعلم غير الخاضعة للإشراف. يميل التعلم غير الخاضع للإشراف إلى أن يكون أقل تعقيدًا من الناحية الحسابية ، بينما يميل التعلم الخاضع للإشراف إلى أن يكون أكثر تعقيدًا من الناحية الحسابية. بينما تميل نتائج التعلم الخاضع للإشراف إلى أن تكون عالية الدقة ، فإن نتائج التعلم غير الخاضعة للإشراف تميل إلى أن تكون أقل دقة / دقة متوسطة.