никулец Што е теорема на Бејс? - Обединете се.АИ
Поврзете се со нас
Мастеркласа за вештачка интелигенција:

АИ 101 година

Што е теорема на Бејс?

mm
Ажурирани on

Ако сте учеле за науката за податоци или за машинско учење, има добри шанси да сте ги слушнале терминот „Бејсова теорема“ пред, или „класифицирач на Бајс“. Овие концепти може да бидат донекаде збунувачки, особено ако не сте навикнати да размислувате за веројатноста од традиционална, фреквентистичка статистика перспектива. Оваа статија ќе се обиде да ги објасни принципите зад теоремата на Бајс и како таа се користи во машинското учење.

Што е теорема на Бејс?

Бејсовата теорема е метод на пресметување условна веројатност. Традиционалниот метод за пресметување на условната веројатност (веројатноста дека еден настан се случил со оглед на појавата на различен настан) е да се користи формулата за условна веројатност, пресметувајќи ја заедничката веројатност на настанот еден и настанот два да се случат во исто време, а потоа се дели според веројатноста да се случи вториот настан. Сепак, условната веројатност може да се пресмета и на малку поинаков начин со користење на теоремата на Бејс.

Кога пресметувате условна веројатност со теоремата на Бејс, ги користите следните чекори:

  • Одреди ја веројатноста условот Б да биде вистинит, под претпоставка дека условот А е вистинит.
  • Одреди ја веројатноста настанот А да биде вистинит.
  • Помножете ги двете веројатности заедно.
  • Поделете со веројатноста да се случи настанот B.

Ова значи дека формулата за Бејсовата теорема може да се изрази вака:

P (A | B) = P (B | A)*P (A) / P (B)

Пресметувањето на условната веројатност како ова е особено корисно кога обратната условна веројатност може лесно да се пресмета, или кога пресметувањето на заедничката веројатност би било премногу предизвикувачко.

Пример за теорема на Бајс

Ова може да биде полесно да се протолкува ако поминеме извесно време гледајќи во пример за тоа како би го примениле Бајсовото расудување и Бајсовата теорема. Да претпоставиме дека игравте едноставна игра каде повеќе учесници ви раскажуваат приказна и треба да одредите кој од учесниците ве лаже. Ајде да ја пополниме равенката за теоремата на Бејс со променливите во ова хипотетичко сценарио.

Се обидуваме да предвидиме дали секој поединец во играта лаже или ја кажува вистината, па ако има тројца играчи освен вас, категоричните променливи може да се изразат како А1, А2 и А3. Доказ за нивните лаги/вистини е нивното однесување. Како кога играте покер, ќе барате одредени „кажи“ дека некое лице лаже и ќе ги искористите како делови од информации за да ја информирате вашата претпоставка. Или ако ви беше дозволено да ги испрашувате, тоа ќе биде доказ дека нивната приказна не се собира. Можеме да ги претставиме доказите дека едно лице лаже како Б.

За да бидеме јасни, ние имаме за цел да ја предвидиме веројатноста (А лаже/ја кажува вистината|со оглед на доказите за нивното однесување). За да го направиме ова, би сакале да ја откриеме веројатноста за Б даден А, или веројатноста дека нивното однесување би се случило со оглед на лицето кое вистински лаже или ја кажува вистината. Се обидувате да одредите под кои услови однесувањето што го гледате би имало најмногу смисла. Ако има три однесувања на кои сте сведоци, вие би ја направиле пресметката за секое однесување. На пример, P(B1, B2, B3 * A). Потоа би го направиле ова за секоја појава на А/за секое лице во играта настрана од вас самите. Тоа е овој дел од равенката погоре:

P (B1, B2, B3, | A) * P | A

Конечно, ние само го делиме тоа со веројатноста за Б.

Доколку добиеме некаков доказ за реалните веројатности во оваа равенка, би го рекреирале нашиот модел на веројатност, земајќи ги предвид новите докази. Ова се нарекува ажурирање на вашите приоритети, бидејќи ги ажурирате вашите претпоставки за претходната веројатност да се случат набљудуваните настани.

Апликации за машинско учење за теорема на Бејс

Најчеста употреба на теоремата на Бајес кога станува збор за машинско учење е во форма на алгоритам наив Бејс.

Naive Bayes се користи за класификација и на бинарни и на повеќекласни збирки на податоци. еден на друг. Се претпоставува дека овие атрибути не влијаат еден на друг со цел да се поедностави моделот и да се овозможат пресметките, наместо да се обидат сложената задача за пресметување на односите помеѓу секој од атрибутите. И покрај овој поедноставен модел, Naive Bayes има тенденција да функционира доста добро како алгоритам за класификација, дури и кога оваа претпоставка веројатно не е точна (што е најчесто).

Исто така има најчесто користени варијанти од класификаторот Naive Bayes како што се Multinomial Naive Bayes, Bernoulli Naive Bayes и Gaussian Naive Bayes.

Мултином наивен Бејс Алгоритмите често се користат за класификација на документите, бидејќи е ефикасен во толкувањето на зачестеноста на зборовите во документот.

Бернули наив Бејс работи слично како Multinomial Naive Bayes, но предвидувањата направени од алгоритмот се булови. Ова значи дека кога се предвидува класа вредностите ќе бидат бинарни, не или да. Во доменот на класификацијата на текстот, алгоритамот на Бернули наив Бејс ќе ги додели параметрите со да или не врз основа на тоа дали е пронајден збор во текстуалниот документ или не.

Ако вредноста на предвидувачите/карактеристиките не се дискретни, туку се континуирани, Гаусовиот наивен Бејс може да се користи. Се претпоставува дека вредностите на континуираните карактеристики се земени од гаусова дистрибуција.

Блогер и програмер со специјалитети во Машинско учење Длабоко учење теми. Даниел се надева дека ќе им помогне на другите да ја искористат моќта на вештачката интелигенција за општествено добро.