کی سب سے بہترین
10 بہترین مشین لرننگ الگورتھم
اگرچہ ہم GPU- ایکسلریٹڈ مشین لرننگ میں غیر معمولی جدت کے دور سے گزر رہے ہیں، لیکن تازہ ترین تحقیقی مقالے اکثر (اور نمایاں طور پر) الگورتھم کو نمایاں کرتے ہیں جو دہائیوں پر مشتمل ہوتے ہیں، بعض صورتوں میں 70 سال پرانے ہوتے ہیں۔
کچھ لوگ یہ دعوی کر سکتے ہیں کہ ان میں سے بہت سے پرانے طریقے مشین لرننگ کے بجائے 'شماریاتی تجزیہ' کے کیمپ میں آتے ہیں، اور اس شعبے کی آمد کو صرف 1957 تک ہی ترجیح دیتے ہیں۔ Perceptron کی ایجاد.
جس حد تک یہ پرانے الگورتھم سپورٹ کرتے ہیں اور مشین لرننگ میں تازہ ترین رجحانات اور سرخی پکڑنے والی پیشرفت میں شامل ہیں، یہ ایک قابل مقابلہ موقف ہے۔ تو آئیے کچھ 'کلاسک' بلڈنگ بلاکس پر ایک نظر ڈالتے ہیں جو تازہ ترین اختراعات پر روشنی ڈالتے ہیں، نیز کچھ نئی اندراجات جو کہ AI ہال آف فیم کے لیے ابتدائی بولی لگا رہی ہیں۔
1: ٹرانسفارمرز
2017 میں گوگل ریسرچ نے ایک تحقیقی تعاون کی قیادت کی۔ کاغذ توجہ صرف آپ کی ضرورت ہے۔. کام نے ایک نئے فن تعمیر کا خاکہ پیش کیا جس نے فروغ دیا۔ توجہ کے طریقہ کار انکوڈر/ڈیکوڈر اور بار بار چلنے والے نیٹ ورک ماڈلز میں 'پائپنگ' سے لے کر اپنے طور پر ایک مرکزی تبدیلی کی ٹیکنالوجی تک۔
نقطہ نظر کو ڈب کیا گیا تھا۔ ٹرانسفارمر، اور اس کے بعد سے نیچرل لینگویج پروسیسنگ (NLP) میں ایک انقلابی طریقہ کار بن گیا ہے، بہت سی دوسری مثالوں کے ساتھ، خودکار زبان کے ماڈل اور AI پوسٹر چائلڈ GPT-3 کو طاقت دیتا ہے۔
ٹرانسفارمرز نے خوبصورتی سے کا مسئلہ حل کیا۔ تسلسل کی نقل و حمل، جسے 'ٹرانسفارمیشن' بھی کہا جاتا ہے، جس میں ان پٹ سیکوینسز کو آؤٹ پٹ سیکوینسز میں پروسیسنگ کے ساتھ شامل کیا جاتا ہے۔ ایک ٹرانسفارمر بھی ترتیب وار بیچوں کی بجائے مسلسل انداز میں ڈیٹا وصول کرتا ہے اور اس کا انتظام کرتا ہے، جس سے 'میموری کی استقامت' کی اجازت ملتی ہے جسے حاصل کرنے کے لیے RNN فن تعمیر نہیں بنایا گیا ہے۔ ٹرانسفارمرز کے مزید تفصیلی جائزہ کے لیے، پر ایک نظر ڈالیں۔ ہمارا حوالہ مضمون.
ریکرنٹ نیورل نیٹ ورکس (RNNs) کے برعکس جنہوں نے CUDA دور میں ML ریسرچ پر غلبہ حاصل کرنا شروع کر دیا تھا، ٹرانسفارمر فن تعمیر بھی آسانی سے ہو سکتا ہے۔ متوازی، RNNs کے مقابلے میں ڈیٹا کے بہت بڑے کارپس کو نتیجہ خیز طریقے سے حل کرنے کا راستہ کھولتا ہے۔
مقبول استعمال
ٹرانسفارمرز نے 2020 میں OpenAI کے GPT-3 کی ریلیز کے ساتھ عوامی تخیل پر قبضہ کر لیا، جس نے اس وقت کا ریکارڈ توڑ دیا 175 بلین پیرامیٹرز. یہ بظاہر حیران کن کامیابی بالآخر بعد کے پروجیکٹس، جیسے کہ 2021 کے زیر سایہ تھی۔ جاری مائیکروسافٹ کے Megatron-Turing NLG 530B، جس میں (جیسا کہ نام سے پتہ چلتا ہے) 530 بلین سے زیادہ پیرامیٹرز کی خصوصیات ہیں۔

ہائپر اسکیل ٹرانسفارمر NLP پروجیکٹس کی ٹائم لائن۔ ماخذ: مائیکروسافٹ
ٹرانسفارمر فن تعمیر بھی NLP سے کمپیوٹر وژن تک پہنچ گیا ہے، پاورنگ اے نئی نسل تصویری ترکیب کے فریم ورک جیسے OpenAI کے کلپ اور سلیبجو کہ متن>امیج ڈومین میپنگ کا استعمال کرتے ہوئے نامکمل امیجز کو ختم کرنے اور تربیت یافتہ ڈومینز سے نوول امیجز کو سنتھیسائز کرتے ہیں، متعلقہ ایپلی کیشنز کی بڑھتی ہوئی تعداد میں۔

DALL-E افلاطون کے مجسمے کی ایک جزوی تصویر کو مکمل کرنے کی کوشش کرتا ہے۔ ماخذ: https://openai.com/blog/dall-e/
2: جنریٹیو ایڈورسریل نیٹ ورکس (GANs)
اگرچہ ٹرانسفارمرز نے GPT-3 کے اجراء اور اپنانے کے ذریعے غیر معمولی میڈیا کوریج حاصل کی ہے، جنریٹیو ایڈورسریل نیٹ ورک (GAN) اپنے طور پر ایک قابل شناخت برانڈ بن گیا ہے، اور آخر کار اس میں شامل ہو سکتا ہے۔ گہرائی ایک فعل کے طور پر
پہلے تجویز کی۔ 2014 میں اور بنیادی طور پر تصویری ترکیب کے لیے استعمال کیا جاتا ہے، ایک جنریٹو ایڈورسریل نیٹ ورک فن تعمیر پر مشتمل ہے a جنریٹر اور ایک امتیازی سلوک کرنے والا۔. جنریٹر ڈیٹاسیٹ میں ہزاروں امیجز کے ذریعے چکر لگاتا ہے، بار بار ان کی تشکیل نو کی کوشش کرتا ہے۔ ہر کوشش کے لیے، امتیاز کرنے والا جنریٹر کے کام کی درجہ بندی کرتا ہے، اور بہتر کرنے کے لیے جنریٹر کو واپس بھیجتا ہے، لیکن اس طریقے کی کوئی بصیرت کے بغیر کہ پچھلی تعمیر نو میں غلطی ہوئی ہے۔

ماخذ: https://developers.google.com/machine-learning/gan/gan_structure
یہ جنریٹر کو ممکنہ اندھی گلیوں کی پیروی کرنے کے بجائے متعدد راستوں کو تلاش کرنے پر مجبور کرتا ہے جس کا نتیجہ ہوتا اگر امتیاز کرنے والے نے اسے بتایا ہوتا کہ یہ کہاں غلط ہو رہا ہے (نیچے نمبر 8 دیکھیں)۔ تربیت ختم ہونے تک، جنریٹر کے پاس ڈیٹاسیٹ میں پوائنٹس کے درمیان تعلقات کا ایک مفصل اور جامع نقشہ ہوتا ہے۔

کاغذ سے مقامی بیداری کو بڑھا کر GAN توازن کو بہتر بنانا: ایک نیا فریم ورک ایک GAN کی بعض اوقات پراسرار خفیہ جگہ کے ذریعے چکر لگاتا ہے، جو تصویر کی ترکیب سازی کے فن تعمیر کے لیے ذمہ دار آلات فراہم کرتا ہے۔ ماخذ: https://genforce.github.io/eqgan/
مشابہت کے لحاظ سے، یہ وسطی لندن تک ایک ہی ہمڈرم سفر سیکھنے، یا بڑی محنت سے حاصل کرنے میں فرق ہے۔ علم.
نتیجہ تربیت یافتہ ماڈل کی پوشیدہ جگہ میں خصوصیات کا ایک اعلی سطحی مجموعہ ہے۔ اعلی درجے کی خصوصیت کے لیے معنوی اشارے 'شخص' ہو سکتا ہے، جب کہ خصوصیت سے متعلق خصوصیت کے ذریعے نزول دیگر سیکھی ہوئی خصوصیات، جیسے 'مرد' اور 'عورت' کا پتہ لگا سکتا ہے۔ نچلی سطح پر ذیلی خصوصیات 'سنہرے بالوں والی'، 'کاکیشین'، وغیرہ میں ٹوٹ سکتی ہیں۔
الجھاؤ ہے۔ ایک قابل ذکر مسئلہ GANs اور encoder/decoder کے فریم ورک کی پوشیدہ جگہ میں: کیا GAN سے تیار کردہ خاتون کے چہرے پر مسکراہٹ اس کی 'شناخت' کی اویکت جگہ میں الجھی ہوئی خصوصیت ہے، یا یہ ایک متوازی شاخ ہے؟

اس شخص کی طرف سے GAN کے ذریعے تیار کردہ چہرے، نوٹیکسسٹ۔ ماخذ: https://this-person-does-not-exist.com/en
پچھلے کچھ سالوں نے اس سلسلے میں نئی تحقیقی اقدامات کی ایک بڑھتی ہوئی تعداد کو سامنے لایا ہے، شاید GAN کی پوشیدہ جگہ کے لیے فیچر لیول، فوٹوشاپ طرز کی ایڈیٹنگ کے لیے راہ ہموار ہوئی ہے، لیکن اس وقت، بہت سی تبدیلیاں مؤثر طریقے سے ہو رہی ہیں۔ تمام یا کچھ بھی نہیں پیکجز. خاص طور پر، 2021 کے آخر میں NVIDIA کی EditGAN ریلیز نے حاصل کیا۔ تشریح کی اعلی سطح سیمنٹک سیگمنٹیشن ماسک کا استعمال کرکے اویکت جگہ میں۔
مقبول استعمال
مقبول ڈیپ فیک ویڈیوز میں ان کی (حقیقت میں کافی حد تک محدود) شمولیت کے علاوہ، تصویر/ویڈیو مرکوز GAN پچھلے چار سالوں میں پھیلے ہیں، جو محققین اور عوام کو یکساں طور پر مسحور کر رہے ہیں۔ نئی ریلیز کی تیز رفتار شرح اور تعدد کو برقرار رکھنا ایک چیلنج ہے، حالانکہ GitHub ذخیرہ زبردست GAN ایپلی کیشنز اس کا مقصد ایک جامع فہرست فراہم کرنا ہے۔
جنریٹو ایڈورسریل نیٹ ورکس تھیوری میں کسی بھی اچھی طرح سے تیار کردہ ڈومین سے خصوصیات حاصل کر سکتے ہیں، متن سمیت.
3: ایس وی ایم
شروع ہوا 1963 میں, سپورٹ ویکٹر مشین (SVM) ایک بنیادی الگورتھم ہے جو نئی تحقیق میں کثرت سے تیار ہوتا ہے۔ SVM کے تحت، ویکٹر ڈیٹاسیٹ میں ڈیٹا پوائنٹس کے رشتہ دارانہ انداز کا نقشہ بناتے ہیں، جبکہ حمایت ویکٹر مختلف گروہوں، خصوصیات، یا خصلتوں کے درمیان حدود کی وضاحت کرتے ہیں۔

سپورٹ ویکٹر گروپوں کے درمیان حدود کی وضاحت کرتے ہیں۔ ماخذ: https://www.kdnuggets.com/2016/07/support-vector-machines-simple-explanation.html
اخذ کردہ حد کو a کہا جاتا ہے۔ ہائپرپلین.
کم خصوصیت کی سطح پر، SVM ہے دو جہتی (اوپر کی تصویر)، لیکن جہاں گروپوں یا اقسام کی زیادہ تسلیم شدہ تعداد ہے، یہ بن جاتا ہے۔ تین جہتی.

پوائنٹس اور گروپس کی ایک گہری صف کے لیے تین جہتی SVM کی ضرورت ہوتی ہے۔ ماخذ: https://cml.rhul.ac.uk/svm.html
مقبول استعمال
چونکہ سپورٹ ویکٹر مشینیں کئی قسم کے اعلیٰ جہتی ڈیٹا کو مؤثر طریقے سے اور agnostically ایڈریس کر سکتی ہیں، اس لیے وہ مشین لرننگ کے مختلف شعبوں میں بڑے پیمانے پر تیار ہوتی ہیں، بشمول ڈیپ فیک کا پتہ لگانا, تصویر کی درجہ بندی, نفرت انگیز تقریر کی درجہ بندی, ڈی این اے تجزیہ اور آبادی کی ساخت کی پیشن گوئی، بہت سے دوسرے کے درمیان.
4: K- کا مطلب کلسٹرنگ
عام طور پر کلسٹرنگ ایک ہے۔ غیر زیر نگرانی تعلیم نقطہ نظر جو ڈیٹا پوائنٹس کی درجہ بندی کرنا چاہتا ہے۔ کثافت کا تخمینہ، زیر مطالعہ ڈیٹا کی تقسیم کا نقشہ بنانا۔

K- کا مطلب ڈیٹا میں الہی طبقات، گروپس اور کمیونٹیز کو کلسٹر کرنا ہے۔ ماخذ: https://aws.amazon.com/blogs/machine-learning/k-means-clustering-with-amazon-sagemaker/
K- کا مطلب ہے کلسٹرنگ اس نقطہ نظر کا سب سے مقبول نفاذ بن گیا ہے، مخصوص 'K گروپس' میں ڈیٹا پوائنٹس کو چرواہا ہے، جو آبادیاتی شعبوں، آن لائن کمیونٹیز، یا خام شماریاتی اعداد و شمار میں دریافت ہونے کے منتظر کسی دوسرے ممکنہ خفیہ جمع کی نشاندہی کر سکتا ہے۔

K-Means تجزیہ میں کلسٹرز بنتے ہیں۔ ماخذ: https://www.geeksforgeeks.org/ml-determine-the-optimal-value-of-k-in-k-means-clustering/
K قدر بذات خود عمل کی افادیت میں اور ایک کلسٹر کے لیے ایک بہترین قدر قائم کرنے میں فیصلہ کن عنصر ہے۔ ابتدائی طور پر، K قدر تصادفی طور پر تفویض کی جاتی ہے، اور اس کی خصوصیات اور ویکٹر کی خصوصیات اس کے پڑوسیوں کے مقابلے میں۔ وہ پڑوسی جو تصادفی طور پر تفویض کردہ قدر کے ساتھ ڈیٹا پوائنٹ سے زیادہ مشابہت رکھتے ہیں وہ اس کے کلسٹر کو تکراری طور پر تفویض کیے جاتے ہیں جب تک کہ ڈیٹا سے وہ تمام گروپ بندی نہ ہو جائے جن کی پروسیس کی اجازت ہوتی ہے۔
مربع کی غلطی کا پلاٹ، یا کلسٹرز کے درمیان مختلف اقدار کی 'لاگت' ظاہر کرے گا کہنی نقطہ ڈیٹا کے لیے:

کلسٹر گراف میں 'کہنی کا نقطہ'۔ ماخذ: https://www.scikit-yb.org/en/latest/api/cluster/elbow.html
کہنی کا نقطہ تصور میں اس طرح سے ملتا جلتا ہے جس طرح ڈیٹا سیٹ کے لیے تربیتی سیشن کے اختتام پر نقصان کم ہونے والی واپسی کی طرف بڑھ جاتا ہے۔ یہ اس نقطہ کی نمائندگی کرتا ہے جس پر گروپوں کے درمیان مزید کوئی فرق واضح نہیں ہونے والا ہے، اس لمحے کی نشاندہی کرتا ہے کہ ڈیٹا پائپ لائن کے بعد کے مراحل کی طرف بڑھیں، یا پھر نتائج کی اطلاع دیں۔
مقبول استعمال
K-Means کلسٹرنگ، واضح وجوہات کی بنا پر، کسٹمر کے تجزیہ میں ایک بنیادی ٹیکنالوجی ہے، کیونکہ یہ تجارتی ریکارڈ کی بڑی مقدار کو آبادیاتی بصیرت اور 'لیڈز' میں ترجمہ کرنے کے لیے ایک واضح اور قابل وضاحت طریقہ کار پیش کرتا ہے۔
اس ایپلی کیشن کے باہر، K-Means کلسٹرنگ کے لیے بھی کام کیا جاتا ہے۔ لینڈ سلائیڈنگ کی پیشن گوئی, طبی تصویر کی تقسیم, GANs کے ساتھ تصویر کی ترکیب, دستاویز کی درجہ بندی، اور شہر کی منصوبہ بندی، بہت سے دوسرے ممکنہ اور حقیقی استعمال کے درمیان۔
5: بے ترتیب جنگل
بے ترتیب جنگل ایک ہے۔ ensemble سیکھنے کی ایک صف سے نتیجہ اوسط کرنے کا طریقہ فیصلہ درخت نتائج کے لئے ایک مجموعی پیشن گوئی قائم کرنے کے لئے.

ماخذ: https://www.tutorialandexample.com/wp-content/uploads/2019/10/Decision-Trees-Root-Node.png
اگر آپ نے اس پر تحقیق کی ہے یہاں تک کہ اسے دیکھنے کے برابر ہے۔ واپس مستقبل تثلیث، ایک فیصلہ ساز درخت بذات خود تصور کرنا کافی آسان ہے: بہت سے راستے آپ کے سامنے ہیں، اور ہر راستہ ایک نئے نتیجے کی طرف نکلتا ہے جس کے نتیجے میں مزید ممکنہ راستے ہوتے ہیں۔
In قابو پانے کی تعلیم، آپ کسی راستے سے پیچھے ہٹ سکتے ہیں اور پہلے والے موقف سے دوبارہ شروع کر سکتے ہیں، جب کہ فیصلہ کن درخت اپنے سفر کا عہد کرتے ہیں۔
اس طرح رینڈم فارسٹ الگورتھم بنیادی طور پر فیصلوں کے لیے اسپریڈ بیٹنگ ہے۔ الگورتھم کو 'بے ترتیب' کہا جاتا ہے کیونکہ یہ بناتا ہے۔ ایڈہاک کو سمجھنے کے لیے انتخاب اور مشاہدات اوسط فیصلے کے درخت کی صف سے نتائج کا مجموعہ۔
چونکہ اس میں متعدد عوامل کو مدنظر رکھا جاتا ہے، لہٰذا بے ترتیب جنگل کے نقطہ نظر کو فیصلہ سازی کے درخت کے مقابلے میں بامعنی گراف میں تبدیل کرنا زیادہ مشکل ہو سکتا ہے، لیکن اس کے زیادہ نتیجہ خیز ہونے کا امکان ہے۔
فیصلہ کرنے والے درخت اوور فٹنگ کے تابع ہوتے ہیں، جہاں حاصل کردہ نتائج ڈیٹا کے لحاظ سے ہوتے ہیں اور عام ہونے کا امکان نہیں ہوتا ہے۔ ڈیٹا پوائنٹس کا رینڈم فاریسٹ کا من مانی انتخاب اس رجحان کا مقابلہ کرتا ہے، ڈیٹا میں بامعنی اور مفید نمائندہ رجحانات کو کھودتا ہے۔

فیصلہ ٹری ریگریشن۔ ماخذ: https://scikit-learn.org/stable/auto_examples/tree/plot_tree_regression.html
مقبول استعمال
جیسا کہ اس فہرست میں موجود بہت سے الگورتھم کے ساتھ، رینڈم فاریسٹ عام طور پر ڈیٹا کے ایک 'ابتدائی' چھانٹنے والے اور فلٹر کے طور پر کام کرتا ہے، اور اسی طرح نئے تحقیقی مقالوں میں مسلسل اضافہ ہوتا ہے۔ رینڈم فارسٹ کے استعمال کی کچھ مثالیں شامل ہیں۔ مقناطیسی گونج تصویری ترکیب, ویکیپیڈیا قیمت کی پیشن گوئی, مردم شماری کی تقسیم, متن کی درجہ بندی اور کریڈٹ کارڈ فراڈ کا پتہ لگانا.
چونکہ رینڈم فاریسٹ مشین لرننگ آرکیٹیکچرز میں ایک نچلی سطح کا الگورتھم ہے، اس لیے یہ دیگر نچلے درجے کے طریقوں کے ساتھ ساتھ ویژولائزیشن الگورتھم کی کارکردگی میں بھی حصہ ڈال سکتا ہے، بشمول انڈکٹیو کلسٹرنگ, فیچر ٹرانسفارمیشنزمتنی دستاویزات کی درجہ بندی ویرل خصوصیات کا استعمال کرتے ہوئے، اور پائپ لائنوں کی نمائش.
6: بولی Bayes
کثافت کے تخمینے کے ساتھ مل کر (دیکھیں۔ 4اوپر)، a بولی Bayes کلاسیفائر ایک طاقتور لیکن نسبتاً ہلکا پھلکا الگورتھم ہے جو اعداد و شمار کی حسابی خصوصیات کی بنیاد پر امکانات کا تخمینہ لگانے کی صلاحیت رکھتا ہے۔

ایک بولی Bayes درجہ بندی میں تعلقات کو نمایاں کریں۔ ماخذ: https://www.sciencedirect.com/topics/computer-science/naive-bayes-model
اصطلاح 'بے ہودہ' میں مفروضہ سے مراد ہے۔ Bayes کا نظریہ کہ خصوصیات غیر متعلق ہیں، کے طور پر جانا جاتا ہے مشروط آزادی. اگر آپ اس نقطہ نظر کو اپناتے ہیں تو، بطخ کی طرح چلنا اور بات کرنا یہ ثابت کرنے کے لیے کافی نہیں ہے کہ ہم بطخ کے ساتھ معاملہ کر رہے ہیں، اور کوئی 'واضح' مفروضہ قبل از وقت اپنایا نہیں جاتا۔
علمی اور تحقیقاتی سختی کی یہ سطح حد سے زیادہ ہوگی جہاں 'عام فہم' دستیاب ہے، لیکن مشین لرننگ ڈیٹاسیٹ میں موجود بہت سے ابہام اور ممکنہ طور پر غیر متعلقہ ارتباط کو عبور کرتے وقت یہ ایک قیمتی معیار ہے۔
ایک اصل Bayesian نیٹ ورک میں، خصوصیات کے تابع ہیں اسکورنگ کے افعالکم سے کم تفصیل کی لمبائی سمیت بایسیئن اسکورنگ، جو ڈیٹا پوائنٹس کے درمیان پائے جانے والے تخمینی رابطوں کے لحاظ سے ڈیٹا پر پابندیاں عائد کر سکتا ہے، اور یہ کنکشن جس سمت میں بہہ رہے ہیں۔
ایک سادہ Bayes درجہ بندی کرنے والا، اس کے برعکس، یہ فرض کر کے کام کرتا ہے کہ کسی دی گئی شے کی خصوصیات خود مختار ہیں، بعد ازاں Bayes کے تھیورم کو استعمال کرتے ہوئے اس کی خصوصیات کی بنیاد پر کسی دیے گئے شے کے امکان کا حساب لگاتا ہے۔
مقبول استعمال
Naive Bayes کے فلٹرز اچھی طرح سے پیش کیے گئے ہیں۔ بیماری کی پیشن گوئی اور دستاویز کی درجہ بندی, سپیم فلٹرنگ, جذبات کی درجہ بندی, سفارش کرنے والے نظام، اور فراڈ کا پتہ لگانے، دیگر ایپلی کیشنز کے علاوہ۔
7: K- قریبی پڑوسی (KNN)
سب سے پہلے یو ایس ایئر فورس سکول آف ایوی ایشن میڈیسن کی طرف سے تجویز کردہ 1951 میںاور خود کو 20ویں صدی کے وسط کے کمپیوٹنگ ہارڈویئر کے جدید ترین معیار کے مطابق ڈھالنا، K-قریب ترین پڑوسی (KNN) ایک دبلی پتلی الگورتھم ہے جو اب بھی تعلیمی پیپرز اور نجی شعبے کی مشین لرننگ تحقیقی اقدامات میں نمایاں طور پر نمایاں ہے۔
KNN کو 'کاہل سیکھنے والا' کہا جاتا ہے، کیونکہ یہ مکمل طور پر ایک ڈیٹاسیٹ کو اسکین کرتا ہے تاکہ ڈیٹا پوائنٹس کے درمیان تعلقات کا اندازہ لگایا جا سکے، بجائے اس کے کہ ایک مکمل مشین لرننگ ماڈل کی تربیت کی ضرورت ہو۔

ایک KNN گروپنگ۔ ذریعہ: https://scikit-learn.org/stable/modules/neighbors.html
اگرچہ KNN آرکیٹیکچرل طور پر پتلا ہے، لیکن اس کا منظم طریقہ کار پڑھنے/لکھنے کے کاموں میں ایک قابل ذکر مطالبہ رکھتا ہے، اور بہت بڑے ڈیٹاسیٹس میں اس کا استعمال پرنسپل کمپوننٹ اینالیسس (PCA) جیسی منسلک ٹیکنالوجیز کے بغیر مشکل ہوسکتا ہے، جو پیچیدہ اور اعلی حجم والے ڈیٹاسیٹس کو تبدیل کر سکتا ہے۔ میں نمائندہ گروپس کہ KNN کم محنت کے ساتھ عبور کر سکتا ہے۔
A حالیہ تحقیق متعدد الگورتھم کی تاثیر اور معیشت کا جائزہ لیا کہ آیا یہ پیشین گوئی کرنے کا کام سونپا گیا ہے کہ آیا کوئی ملازم کمپنی چھوڑ دے گا، یہ پتہ چلا کہ سیپٹیوجنرین KNN درستگی اور پیشین گوئی کی تاثیر کے لحاظ سے زیادہ جدید دعویداروں سے برتر ہے۔
مقبول استعمال
تصور اور عمل درآمد کی اپنی تمام مقبول سادگی کے لیے، KNN 1950 کی دہائی میں نہیں پھنسا ہے - اسے اس میں ڈھال لیا گیا ہے۔ زیادہ DNN پر مرکوز نقطہ نظر پنسلوانیا اسٹیٹ یونیورسٹی کی طرف سے 2018 کی تجویز میں، اور بہت زیادہ پیچیدہ مشین لرننگ فریم ورک میں ایک مرکزی ابتدائی مرحلے کا عمل (یا پوسٹ پروسیسنگ تجزیاتی ٹول) ہے۔
مختلف کنفیگریشنز میں، KNN استعمال کیا گیا ہے یا اس کے لیے آن لائن دستخط کی تصدیق, تصویر کی درجہ بندی, متن کان کنی, فصل کی پیشن گوئی، اور چہرے کی شناختدیگر ایپلی کیشنز اور کارپوریشنز کے علاوہ۔

تربیت میں KNN پر مبنی چہرے کی شناخت کا نظام۔ Source: https://pdfs.semanticscholar.org/6f3d/d4c5ffeb3ce74bf57342861686944490f513.pdf
8: مارکوف فیصلہ سازی کا عمل (MDP)
ایک ریاضیاتی فریم ورک جو امریکی ریاضی دان رچرڈ بیل مین نے متعارف کرایا تھا۔ 1957 میں، مارکوف فیصلہ سازی کا عمل (MDP) سب سے بنیادی بلاکس میں سے ایک ہے۔ قابو پانے کی تعلیم فن تعمیرات اپنے طور پر ایک تصوراتی الگورتھم، اسے بہت سے دوسرے الگورتھم میں ڈھال لیا گیا ہے، اور AI/ML تحقیق کی موجودہ فصل میں اکثر دہرایا جاتا ہے۔
MDP اپنی موجودہ حالت کی تشخیص (یعنی ڈیٹا میں 'کہاں' ہے) کا استعمال کرتے ہوئے ڈیٹا کے ماحول کی کھوج کرتا ہے تاکہ یہ فیصلہ کیا جا سکے کہ ڈیٹا کے کون سے نوڈ کو اگلا دریافت کرنا ہے۔

ماخذ: https://www.sciencedirect.com/science/article/abs/pii/S0888613X18304420
ایک بنیادی مارکوف فیصلہ سازی کا عمل زیادہ مطلوبہ طویل مدتی مقاصد پر قریب المدت فائدہ کو ترجیح دے گا۔ اس وجہ سے، یہ عام طور پر کمک سیکھنے میں زیادہ جامع پالیسی فن تعمیر کے سیاق و سباق میں سرایت کرتا ہے، اور یہ اکثر محدود عوامل جیسے کہ رعایتی انعام، اور دیگر تبدیل کرنے والے ماحولیاتی متغیرات سے مشروط ہوتا ہے جو اسے بغیر غور کیے فوری ہدف تک پہنچنے سے روکتا ہے۔ وسیع تر مطلوبہ نتائج کا۔
مقبول استعمال
MDP کا نچلی سطح کا تصور مشین لرننگ کی تحقیق اور فعال تعیناتیوں دونوں میں وسیع ہے۔ کے لیے تجویز کیا گیا ہے۔ آئی او ٹی سیکیورٹی ڈیفنس سسٹم, مچھلی کی کٹائی، اور مارکیٹ کی پیشن گوئی.
اس کے علاوہ واضح قابل اطلاق شطرنج اور دیگر سختی سے ترتیب وار کھیلوں کے لیے، MDP بھی ایک فطری دعویدار ہے۔ روبوٹکس سسٹم کی طریقہ کار کی تربیتجیسا کہ ہم نیچے ویڈیو میں دیکھ سکتے ہیں۔
9: ٹرم فریکوئنسی-الٹی دستاویز کی فریکوئنسی
اصطلاحی تعدد (TF) کسی دستاویز میں لفظ کے ظاہر ہونے کی تعداد کو اس دستاویز میں الفاظ کی کل تعداد سے تقسیم کرتا ہے۔ اس طرح لفظ سیل ہزار الفاظ کے مضمون میں ایک بار ظاہر ہونے کی اصطلاح کی تعدد 0.001 ہے۔ بذات خود، TF اصطلاحی اہمیت کے اشارے کے طور پر بڑی حد تک بیکار ہے، اس حقیقت کی وجہ سے کہ بے معنی مضامین (جیسے a, اور, la، اور it) غالب۔
کسی اصطلاح کے لیے معنی خیز قدر حاصل کرنے کے لیے، الٹا دستاویز کی فریکوئنسی (IDF) ڈیٹاسیٹ میں متعدد دستاویزات میں ایک لفظ کے TF کا حساب لگاتا ہے، بہت زیادہ تعدد کو کم درجہ بندی تفویض کرتا ہے۔ سٹاپ ورڈزجیسے مضامین۔ نتیجے میں آنے والے فیچر ویکٹر کو پوری اقدار میں معمول بنایا جاتا ہے، ہر لفظ کو ایک مناسب وزن تفویض کیا جاتا ہے۔

TF-IDF متعدد دستاویزات میں تعدد کی بنیاد پر اصطلاحات کی مطابقت کا وزن کرتا ہے، شاذ و نادر ہی وقوع پذیر ہونے کے اشارے کے ساتھ۔ ماخذ: https://moz.com/blog/inverse-document-frequency-and-the-importance-of-uniqueness
اگرچہ یہ نقطہ نظر معنوی طور پر اہم الفاظ کو کھو جانے سے روکتا ہے۔ outliers, تعدد وزن کو الٹنے کا خود بخود یہ مطلب نہیں ہے کہ کم تعدد کی اصطلاح ہے۔ نوٹ ایک outlier، کیونکہ کچھ چیزیں نایاب ہیں اور بیکار لہذا کم تعدد والی اصطلاح کو ڈیٹاسیٹ میں متعدد دستاویزات میں (یہاں تک کہ فی دستاویز کم تعدد پر) نمایاں کرکے وسیع تر تعمیراتی تناظر میں اپنی قدر ثابت کرنے کی ضرورت ہوگی۔
اس کے باوجود عمر، TF-IDF قدرتی زبان پروسیسنگ فریم ورک میں ابتدائی فلٹرنگ پاسز کے لیے ایک طاقتور اور مقبول طریقہ ہے۔
مقبول استعمال
چونکہ TF-IDF نے پچھلے بیس سالوں میں گوگل کے بڑے پیمانے پر خفیہ پیج رینک الگورتھم کی ترقی میں کم از کم کچھ حصہ ادا کیا ہے، یہ بن گیا ہے بہت وسیع پیمانے پر اپنایا جان مولر کے 2019 کے باوجود SEO کی ایک ہیرا پھیری کی حکمت عملی کے طور پر مسترد تلاش کے نتائج کے لیے اس کی اہمیت۔
PageRank کے ارد گرد رازداری کی وجہ سے، اس بات کا کوئی واضح ثبوت نہیں ہے کہ TF-IDF ہے۔ نوٹ فی الحال گوگل کی درجہ بندی میں اضافے کے لیے ایک مؤثر حربہ ہے۔ آگ لگانے والا بحث IT پیشہ ور افراد کے درمیان حال ہی میں ایک مقبول فہم کی نشاندہی کرتا ہے، درست ہے یا نہیں، اس اصطلاح کے غلط استعمال کے نتیجے میں SEO کی جگہ کا تعین بہتر ہو سکتا ہے (اگرچہ اضافی اجارہ داری کے غلط استعمال کے الزامات اور ضرورت سے زیادہ تشہیر اس نظریہ کی حدود کو دھندلا کر دیں)۔
10: Stochastic Gradient Descent
Stochastic گریڈینٹ ڈیسنٹ (SGD) مشین لرننگ ماڈلز کی تربیت کو بہتر بنانے کا ایک مقبول طریقہ ہے۔
گریڈیئنٹ ڈیسنٹ بذات خود بہتر بنانے اور بعد ازاں اس بہتری کی مقدار طے کرنے کا ایک طریقہ ہے جو ایک ماڈل ٹریننگ کے دوران کر رہا ہے۔
اس لحاظ سے، 'گریڈینٹ' نیچے کی طرف ڈھلوان کی نشاندہی کرتا ہے (رنگ پر مبنی درجہ بندی کے بجائے، نیچے کی تصویر دیکھیں)، جہاں بائیں جانب 'پہاڑی' کا سب سے اونچا مقام تربیتی عمل کے آغاز کی نمائندگی کرتا ہے۔ اس مرحلے پر ماڈل نے ابھی تک پورے ڈیٹا کو ایک بار بھی نہیں دیکھا ہے، اور مؤثر تبدیلیاں پیدا کرنے کے لیے ڈیٹا کے درمیان تعلقات کے بارے میں کافی نہیں سیکھا ہے۔

FaceSwap ٹریننگ سیشن پر ایک تدریجی نزول۔ ہم دیکھ سکتے ہیں کہ تربیت نے دوسرے نصف میں کچھ وقت کے لیے سطح مرتفع کیا ہے، لیکن آخر کار ایک قابل قبول ہم آہنگی کی طرف میلان سے نیچے کا راستہ بحال ہو گیا ہے۔
سب سے نچلا نقطہ، دائیں طرف، کنورجنسنس کی نمائندگی کرتا ہے (وہ نقطہ جس پر ماڈل اتنا ہی موثر ہے جتنا کہ یہ کبھی بھی مسلط کردہ رکاوٹوں اور ترتیبات کے تحت آنے والا ہے)۔
گریڈینٹ غلطی کی شرح (ماڈل نے فی الحال ڈیٹا کے رشتوں کو کس حد تک درست طریقے سے نقشہ بنایا ہے) اور وزن (وہ ترتیبات جو ماڈل سیکھنے کے طریقہ کو متاثر کرتی ہے) کے درمیان تفاوت کے لیے ریکارڈ اور پیشن گوئی کے طور پر کام کرتا ہے۔
پیش رفت کے اس ریکارڈ کو مطلع کرنے کے لیے استعمال کیا جا سکتا ہے۔ سیکھنے کی شرح کا شیڈول, ایک خودکار عمل جو فن تعمیر کو مزید دانے دار اور عین مطابق بننے کے لیے کہتا ہے کیونکہ ابتدائی مبہم تفصیلات واضح رشتوں اور نقشوں میں تبدیل ہو جاتی ہیں۔ درحقیقت، تدریجی نقصان ایک وقتی نقشہ فراہم کرتا ہے کہ تربیت کو آگے کہاں جانا چاہیے، اور اسے کیسے آگے بڑھنا چاہیے۔
Stochastic Gradient Descent کی جدت یہ ہے کہ یہ ماڈل کے پیرامیٹرز کو ہر تربیتی مثال کے مطابق ہر اعادہ پر اپ ڈیٹ کرتا ہے، جو عام طور پر کنورجنسی کے سفر کو تیز کرتا ہے۔ حالیہ برسوں میں ہائپر اسکیل ڈیٹاسیٹس کی آمد کی وجہ سے، SGD نے آنے والے لاجسٹک مسائل کو حل کرنے کے لیے ایک ممکنہ طریقہ کے طور پر حال ہی میں مقبولیت حاصل کی ہے۔
دوسری طرف، SGD ہے منفی اثرات فیچر اسکیلنگ کے لیے، اور اسی نتیجے کو حاصل کرنے کے لیے مزید تکرار کی ضرورت ہو سکتی ہے، جس کے لیے ریگولر گریڈینٹ ڈیسنٹ کے مقابلے میں اضافی منصوبہ بندی اور اضافی پیرامیٹرز کی ضرورت ہوتی ہے۔
مقبول استعمال
اس کی ترتیب کی وجہ سے، اور اپنی خامیوں کے باوجود، SGD نیورل نیٹ ورکس کو فٹ کرنے کے لیے سب سے مقبول اصلاحی الگورتھم بن گیا ہے۔ SGD کی ایک ترتیب جو نئے AI/ML تحقیقی مقالوں میں غالب ہوتی جا رہی ہے وہ ہے Adaptive Moment Estimation (ADAM، متعارف کرایا گیا) کا انتخاب 2015 میں) اصلاح کنندہ۔
ADAM ہر پیرامیٹر کے لیے سیکھنے کی شرح کو متحرک طور پر ڈھالتا ہے ('انکولی سیکھنے کی شرح')، اور ساتھ ہی ساتھ پچھلے اپ ڈیٹس کے نتائج کو بعد کی ترتیب ('مومینٹم') میں شامل کرتا ہے۔ مزید برآں، اسے بعد کی اختراعات، جیسے کہ استعمال کرنے کے لیے ترتیب دیا جا سکتا ہے۔ نیسٹروف مومینٹم.
تاہم، کچھ کا خیال ہے کہ رفتار کا استعمال ADAM (اور اسی طرح کے الگورتھم) کو بھی تیز کر سکتا ہے۔ ذیلی بہترین نتیجہ. جیسا کہ مشین لرننگ ریسرچ سیکٹر کے زیادہ تر خون بہہ رہا ہے، SGD پر کام جاری ہے۔
پہلی بار 10 فروری 2022 کو شائع ہوا۔ ترمیم شدہ 10 فروری 20.05 EET – فارمیٹنگ۔