부본 베이즈 정리란? - Unite.AI
Rescale 미팅 예약

AI 101

베이즈 정리란?

mm
업데이트 on

데이터 과학이나 기계 학습에 대해 배워왔다면 다음과 같은 말을 들어봤을 가능성이 높습니다. 용어 "베이즈 정리" 이전 또는 "베이즈 분류기"입니다. 이러한 개념은 다소 혼란스러울 수 있습니다. 특히 전통적인 빈도주의 통계 관점에서 확률을 생각하는 데 익숙하지 않은 경우 더욱 그렇습니다. 이 기사에서는 베이즈 정리의 기본 원리와 이것이 기계 학습에서 어떻게 사용되는지 설명하려고 합니다.

베이즈 정리란?

베이즈 정리는 다음과 같은 방법입니다. 조건부 확률 계산. 조건부 확률(다른 사건이 발생했을 때 하나의 사건이 발생할 확률)을 계산하는 전통적인 방법은 조건부 확률 공식을 사용하여 사건 XNUMX과 사건 XNUMX가 동시에 발생하는 결합 확률을 계산한 다음 이를 나누는 것입니다. 사건 XNUMX가 일어날 확률에 의해. 그러나 Bayes Theorem을 사용하여 조건부 확률을 약간 다른 방식으로 계산할 수도 있습니다.

Bayes 정리로 조건부 확률을 계산할 때 다음 단계를 사용합니다.

  • 조건 A가 참이라고 가정하고 조건 B가 참일 확률을 결정합니다.
  • 사건 A가 참일 확률을 결정하십시오.
  • 두 확률을 함께 곱하십시오.
  • 사건 B가 발생할 확률로 나눕니다.

이것은 Bayes Theorem의 공식이 다음과 같이 표현될 수 있음을 의미합니다.

P(A|B) = P(B|A)*P(A) / P(B)

이와 같이 조건부 확률을 계산하는 것은 역조건부 확률을 쉽게 계산할 수 있거나 결합 확률을 계산하기가 너무 어려울 때 특히 유용합니다.

베이즈 정리의 예

우리가 시간을 들여 베이지안 추론과 베이즈 정리를 적용하는 방법. 여러 참가자가 이야기를 하고 참가자 중 누가 거짓말을 하는지 확인해야 하는 간단한 게임을 하고 있다고 가정해 보겠습니다. 이 가상 시나리오의 변수로 베이즈 정리의 방정식을 채워봅시다.

우리는 게임의 각 개인이 거짓말을 하는지 아니면 진실을 말하고 있는지 예측하려고 하므로, 당신 외에 세 명의 플레이어가 있는 경우 범주형 변수는 A1, A2 및 A3으로 표현할 수 있습니다. 그들의 거짓말/진실에 대한 증거는 그들의 행동입니다. 포커를 할 때처럼, 당신은 어떤 사람이 거짓말을 하고 있다는 특정한 "말"을 찾고 그것을 당신의 추측을 알리기 위한 약간의 정보로 사용할 것입니다. 또는 그들에게 질문할 수 있다면 그들의 이야기가 합산되지 않는다는 증거가 될 것입니다. 우리는 사람이 거짓말을 하고 있다는 증거를 B로 나타낼 수 있습니다.

명확하게 하기 위해 우리는 확률을 예측하는 것을 목표로 하고 있습니다(A는 거짓말을 하고 있습니다/진실을 말하고 있습니다|그들의 행동에 대한 증거가 주어졌습니다). 이것을 하기 위해 우리는 A가 주어졌을 때 B의 확률, 또는 그 사람이 진정으로 거짓말을 하거나 진실을 말했을 때 그들의 행동이 일어날 확률을 알아내고 싶습니다. 당신은 당신이 보고 있는 행동이 어떤 조건에서 가장 합당한지 결정하려고 합니다. 세 가지 행동을 목격하고 있다면 각 행동에 대한 계산을 수행합니다. 예를 들어, P(B1, B2, B3 * A). 그런 다음 자신을 제외한 게임의 모든 사람에 대해 A/의 모든 발생에 대해 이 작업을 수행합니다. 이것이 위 방정식의 이 부분입니다.

P(B1, B2, B3,|A) * P|A

마지막으로, 우리는 그것을 B의 확률로 나눕니다.

이 방정식의 실제 확률에 대한 증거를 받으면 새로운 증거를 고려하여 확률 모델을 다시 만들 것입니다. 관찰된 이벤트가 발생할 사전 확률에 대한 가정을 업데이트하므로 이를 사전 업데이트라고 합니다.

Bayes 정리를 위한 기계 학습 응용 프로그램

기계 학습과 관련하여 베이즈 정리의 가장 일반적인 사용은 나이브 베이즈 알고리즘의 형태입니다.

Naive Bayes는 이진 및 다중 클래스 데이터 세트의 분류에 사용됩니다. Naive Bayes는 증인 증거/속성에 할당된 값(P(B1, B2, B3 * A)의 Bs)이 독립적인 것으로 가정하기 때문에 그 이름을 얻었습니다. 서로의. 각 속성 간의 관계를 계산하는 복잡한 작업을 시도하는 대신 모델을 단순화하고 계산을 가능하게 하기 위해 이러한 속성이 서로 영향을 미치지 않는다고 가정합니다. 이 단순화된 모델에도 불구하고 Naive Bayes는 이 가정이 사실이 아닌 경우에도(대부분의 경우) 분류 알고리즘으로 꽤 잘 수행되는 경향이 있습니다.

도 있습니다 일반적으로 사용되는 변형 Multinomial Naive Bayes, Bernoulli Naive Bayes 및 Gaussian Naive Bayes와 같은 Naive Bayes 분류기의

다항식 나이브 베이 알고리즘은 문서 내의 단어 빈도를 해석하는 데 효과적이므로 문서를 분류하는 데 자주 사용됩니다.

베르누이 나이브 베이즈 Multinomial Naive Bayes와 유사하게 작동하지만 알고리즘에 의해 렌더링된 예측은 부울입니다. 즉, 클래스를 예측할 때 값은 이진법(예 또는 아니요)이 됩니다. 텍스트 분류 영역에서 Bernoulli Naive Bayes 알고리즘은 텍스트 문서 내에서 단어가 발견되는지 여부에 따라 매개변수에 예 또는 아니오를 할당합니다.

예측 변수/특징의 값이 불연속적이지 않고 대신 연속적인 경우 가우시안 나이브 베이즈 사용할 수 있습니다. 연속 피쳐 값이 가우시안 분포에서 샘플링되었다고 가정합니다.

전문 분야의 블로거 및 프로그래머 기계 학습 깊은 학습 주제. 다니엘은 다른 사람들이 사회적 이익을 위해 AI의 힘을 사용하도록 돕기를 희망합니다.