Stumm Wat ass Bayes Theorem? - Unite.AI
Connect mat eis

AI 101

Wat ass Bayes Theorem?

mm
aktualiséiert on

Wann Dir iwwer Datewëssenschaft oder Maschinnléiere geléiert hutt, ass et eng gutt Chance datt Dir den héieren hutt Begrëff "Bayes Theorem" virun, oder engem "Bayes Classeur". Dës Konzepter kënnen e bëssen duerchernee sinn, besonnesch wann Dir net gewinnt sidd u Wahrscheinlechkeet aus enger traditioneller, frequentistescher Statistik Perspektiv ze denken. Dësen Artikel wäert probéieren d'Prinzipien hannert Bayes Theorem z'erklären a wéi et am Maschinnléiere benotzt gëtt.

Wat ass Bayes Theorem?

Bayes Theorem ass eng Method fir Berechnung bedingt Wahrscheinlechkeet. Déi traditionell Method fir d'bedingte Wahrscheinlechkeet ze berechnen (d'Wahrscheinlechkeet datt een Event geschitt wann en aneren Event geschitt ass) ass d'bedingte Wahrscheinlechkeetsformel ze benotzen, déi gemeinsame Wahrscheinlechkeet vum Event eent an Event zwee gläichzäiteg ze berechnen, an dann ze deelen duerch d'Wahrscheinlechkeet vun Event zwee geschitt. Wéi och ëmmer, bedingt Wahrscheinlechkeet kann och op eng liicht aner Manéier berechent ginn andeems Dir Bayes Theorem benotzt.

Wann Dir bedingt Wahrscheinlechkeet mam Bayes Theorem berechent, benotzt Dir déi folgend Schrëtt:

  • Bestëmmt d'Wahrscheinlechkeet datt Conditioun B wouer ass, unzehuelen datt Conditioun A wouer ass.
  • Bestëmmt d'Wahrscheinlechkeet datt Event A wouer ass.
  • Multiplizéieren déi zwou Wahrscheinlechkeeten zesummen.
  • Divisioun mat der Wahrscheinlechkeet vum Event B geschitt.

Dëst bedeit datt d'Formel fir Bayes Theorem esou ausgedréckt ka ginn:

P(A|B) = P(B|A)*P(A) / P(B)

D'Berechnung vun der bedingte Wahrscheinlechkeet wéi dëst ass besonnesch nëtzlech wann déi ëmgedréint bedingt Wahrscheinlechkeet einfach berechent ka ginn, oder wann d'Berechnung vun der gemeinsamer Wahrscheinlechkeet ze schwéier wier.

Beispill vum Bayes Theorem

Dëst ass vläicht méi einfach ze interpretéieren wa mir e bëssen Zäit verbréngen fir eng Beispill wéi Dir Bayesian Begrënnung a Bayes Theorem géift applizéieren. Loosst eis unhuelen datt Dir en einfacht Spill gespillt hutt wou verschidde Participanten Iech eng Geschicht erzielen an Dir musst bestëmmen wéi ee vun de Participanten Iech liewt. Loosst eis d'Equatioun fir Bayes Theorem mat de Variablen an dësem hypotheteschen Szenario ausfëllen.

Mir probéieren virauszesoen ob all Eenzelpersoun am Spill läit oder d'Wourecht seet, also wann et dräi Spiller ausser Iech sinn, kënnen déi kategoresch Verännerlechen als A1, A2 an A3 ausgedréckt ginn. De Beweis fir hir Ligen / Wourecht ass hiert Verhalen. Wéi wann Dir Poker spillt, géift Dir no bestëmmte "erzielen" kucken datt eng Persoun läit a benotzt déi als Informatiounsbëssen fir Är Rotschléi z'informéieren. Oder wann Dir dierft se a Fro stellen, wier et e Beweis datt hir Geschicht net stëmmt. Mir kënnen d'Beweiser vertrieden datt eng Persoun als B läit.

Fir kloer ze sinn, ziele mir d'Wahrscheinlechkeet virauszesoen (A liegt / seet d'Wourecht|gëtt de Beweis vun hirem Verhalen). Fir dëst ze maachen, wëlle mir d'Wahrscheinlechkeet vu B gegeben A erausfannen, oder d'Wahrscheinlechkeet datt hiert Verhalen géif optrieden wann d'Persoun wierklech léien oder d'Wourecht seet. Dir probéiert ze bestëmmen ënner wéi enge Konditiounen d'Verhalen déi Dir gesitt am meeschte Sënn mécht. Wann et dräi Behuelen sinn, déi Dir Zeien, géift Dir d'Berechnung fir all Verhalen maachen. Zum Beispill, P (B1, B2, B3 * A). Dir géift dat dann fir all Optriede vun A maachen / fir all Persoun am Spill ausser Iech selwer. Dat ass dësen Deel vun der Equatioun hei uewen:

P(B1, B2, B3,|A) * P|A

Schlussendlech deele mir dat just duerch d'Wahrscheinlechkeet vu B.

Wa mir Beweiser iwwer déi tatsächlech Wahrscheinlechkeeten an dëser Equatioun kréien, wäerte mir eise Wahrscheinlechkeetsmodell nei kreéieren, déi nei Beweiser berücksichtegen. Dëst gëtt genannt Är Prioritéiten ze aktualiséieren, well Dir Är Viraussetzungen iwwer déi virdru Probabilitéit vun den observéierten Eventer aktualiséieren.

Maschinn Léieren Uwendungen fir Bayes Theorem

Déi heefegst Notzung vum Bayes Theorem wann et ëm Maschinnléiere kënnt ass a Form vum Naive Bayes Algorithmus.

Naive Bayes gëtt fir d'Klassifikatioun vu béide binären a Multi-Klassen Datesätz benotzt, Naive Bayes kritt säin Numm well d'Wäerter, déi un den Zeien Beweiser / Attributer zougewisen sinn - Bs an P(B1, B2, B3 * A) - ugeholl ginn onofhängeg ze sinn vuneneen. Et gëtt ugeholl datt dës Attributer net géigesäiteg beaflossen fir de Modell ze vereinfachen an d'Berechnungen méiglech ze maachen, anstatt déi komplex Aufgab ze probéieren d'Relatiounen tëscht jidderengem vun den Attributer ze berechnen. Trotz dësem vereinfachte Modell tendéiert Naive Bayes ganz gutt als Klassifikatioun Algorithmus ze Leeschtunge, och wann dës Viraussetzung wahrscheinlech net wouer ass (wat meeschtens ass).

Et ginn och allgemeng benotzt Varianten vum Naive Bayes Klassifizéierer wéi Multinomial Naive Bayes, Bernoulli Naive Bayes, a Gaussian Naive Bayes.

Multinomial Naiv Bayes Algorithmen ginn dacks benotzt fir Dokumenter ze klassifizéieren, well et effektiv ass fir d'Frequenz vu Wierder an engem Dokument ze interpretéieren.

Bernoulli Naiv Bayes funktionnéiert ähnlech wéi Multinomial Naive Bayes, awer d'Prognosen, déi vum Algorithmus gemaach ginn, si Booleaner. Dëst bedeit datt wann Dir eng Klass viraussoe wäerten d'Wäerter binär sinn, nee oder jo. Am Beräich vun der Textklassifikatioun géif e Bernoulli Naive Bayes Algorithmus d'Parameteren e Jo oder Nee zouginn, baséiert op ob e Wuert am Textdokument fonnt gëtt oder net.

Wann de Wäert vun de Prädiktoren/Features net diskret sinn awer amplaz kontinuéierlech, Gaussesch Naiv Bayes ka benotzt ginn. Et gëtt ugeholl datt d'Wäerter déi kontinuéierlech Features aus enger gaussescher Verdeelung geprobéiert goufen.

Blogger a Programméierer mat Spezialitéiten am Machine Learning an Deep Learning Themen. Den Daniel hofft anerer ze hëllefen d'Kraaft vun der AI fir sozial Gutt ze benotzen.