베이지 통계의 정의
베이지 통계의 예제
- $Y$: 두번째공이 첫번째공의 왼쪽/오른쪽인지를 나타내는 확률변수 $\sim$ Bernoulli distribution
- $\theta$: 첫번째공의 위치, 랜덤하게 [0,1]의 무작위 값을 가진다고 가정
- first: 첫번째 공의 위치(아래의 그림에서 화살표 끝 부분)
- second: 두번째 공의 위치(아래의 그림에서 화살표 끝 부분)
- prior: 데이터가 관측되기 전에 $\theta$(우리가 찾고자 하는 것)의 확률
- 확률이 동등하므로 단순하게 uniform 분포를 가정
- $p(\theta) = p(\text{parameter}) = 1 $
- posterior: 데이터가 관측된 후에 $\theta$의 확률
- 위 예제에서, 두번째공이 왼쪽에 있을수록, $\theta$가 큰값(오른쪽)일 확률이 커짐
- 위 예제에서, 두번째공이 오른쪽에 있을수록, $\theta$가 작은값(왼쪽)일 확률이 커짐
- $p(\theta | Y)= p(\text{parameter} | \text{data})$
- likelihood: $\theta$ 주어 졌을 때, 데이터가 발생할 확률
- 위 예제에서, $\theta$가 왼쪽에 있을수록, 두번째공이 오른쪽($Y=1$)일 확률이 커짐
- 위 예제에서, $\theta$가 오른쪽에 있을수록, 두번째공이 왼쪽($Y=0$)일 확률이 커짐
- $p(Y | \theta)= p(\text{data} | \text{parameter})$
- $Y$는 0 or 1 이기 때문에, 베르누이 분포를 가정
- 빨간색($Y=0$) 길이: $p(Y | \theta) = \theta,$ if $Y=0$
- 파란색($Y=1$) 길이: $p(Y | \theta) = 1- \theta,$ if $Y=1$
- $p(Y | \theta) =\theta^{1-Y}(1-\theta)^{Y}$
- 초기의 Posterior는 prior(p($\theta$))와 같다고 할 수 있으므로, 그림에서 1로 점선 처리된 것을 확인 할 수가 있다.
- 여기에 Y를 conditional하게 주게되면 prior는 기울기를 가지는 직선의 posterior(p($\theta | Y$))로 업데이트 된다고 할 수 있다.
- 왼쪽그림은 prior 분포를 가우시안 분포를 가정하였고, $\mu = 10$, $\sigma = 0.01$ 가정
- 오른쪽그림은 prior 분포를 가우시안 분포를 가정하였고, $\mu = 10$, $\sigma = 0.5$ 가정
먼저 알 수 있는 것은,