본문 바로가기
AI월드/⚙️AI BOOTCAMP_Section 1

베이지안적 통계 이론_Day9(2)

by khalidpark 2021. 1. 8.

1. 총 확률의 법칙 (The Low of Total Probability)

 

 

 

2. 조건부 확률 (The Law of Conditional Probability)

 

 

 

A와 B1 교집합의 확률 + A와B2 교집합의 확률 + A와 B3 교집합의 확률 + A와B4 교집합의 확률 +....

 

 

2. 베이지안 이론 (Bayes Theorem)

 

 

A의 확률은 A가 주어진 상황에서의 B의 확률 곱하기 A의 확률, 나누기 B 의 확률

 

P(A|B) -> 사후 확률. (B라는 정보가 업데이트 된 이후의 사(이벤트)후 확률)

P(A) -> 사전 확률( B라는 정보가 업데이트 되기 전의 사전확률)

P(B|A) -> likelihood

 

여기서 조건이 붙지 않은 확률 은 사전확률("Prior"), 

조건이 붙은 부분은 사후확률("Updated")

 

 

 

 


위키피디아 약물테스트 베이지안 정리

 

(사각형을 그려서 천천히 생각해보면서 풀기)

# 베이지안 계산을 위해서는 4개의 변수가 필요합니다.
# p_pos_used # 마약을 한 사람을 positive 해내는 비율 #True positive rate (TPR)
# p_pos_not_used # 마약을 하지 않은 positive 해버리는 비율 #False positive rate (FPR)
# p_used # 마약을 한 비율 #prior probability
# p_not_used #마약을 하지 않은 비율

p_pos_used = 0.99 #마약을 한 사람을 positive로 골라내는 비율 99%
p_used = 0.005 #실제로 마약을 한 비율 0.5%
p_pos_not_used = 0.01 #마약을 안한 사람을 positive로 분류해버리는 비율 1%
p_not_used = 1 - p_used # 1 - p_used  

numerator = p_pos_used * p_used 
denominator = (p_pos_used * p_used) + (p_pos_not_used * p_not_used)
posterior_probability = numerator / denominator
posterior_probability
#0.3322

 

출처 : en.wikipedia.org/wiki/Bayes%27_theorem

 

Bayes' theorem - Wikipedia

P ( A ∣ B , C ) = P ( A , B , C ) P ( B , C ) = P ( B ∣ A , C ) P ( A , C ) P ( B , C ) = P ( B ∣ A , C ) P ( A ∣ C ) P ( C ) P ( B , C ) = P ( B ∣ A , C ) P ( A ∣ C ) P ( C ) P ( B ∣ C ) P ( C ) = P ( B ∣ A , C ) P ( A ∣ C ) P ( B ∣ C

en.wikipedia.org

728x90

댓글