8.13 이항 분포와 다항 분포

1. 이항 분포(Binomial Distribution)

1.1 정의와 유도

이항 분포는 성공 확률 p인 독립적 베르누이 시행을 n회 반복할 때, 성공 횟수 X의 분포이다.

P(X = k) = \binom{n}{k}p^k(1-p)^{n-k}, \quad k = 0, 1, \ldots, n

여기서 \binom{n}{k} = \frac{n!}{k!(n-k)!}은 이항 계수이다. X \sim \text{Bin}(n, p)로 표기한다.

1.2 기본 통계량

\mathbb{E}[X] = np, \quad \text{Var}(X) = np(1-p)

1.3 적률 생성 함수

M_X(t) = \mathbb{E}[e^{tX}] = (pe^t + 1 - p)^n

1.4 정규 근사

n이 충분히 크면 중심극한정리에 의해 이항 분포는 정규 분포로 근사된다.

\frac{X - np}{\sqrt{np(1-p)}} \xrightarrow{d} \mathcal{N}(0, 1)

통상 np \geq 5이고 n(1-p) \geq 5이면 근사가 양호하다.

1.5 로봇 공학에서의 응용

센서 신뢰도 평가: n개의 독립 센서 중 정상 작동하는 센서의 수가 이항 분포를 따른다.

통신 패킷 손실: n개 패킷 중 성공적으로 수신된 패킷의 수.

반복 실험의 성공률: n회 파지(grasp) 시도 중 성공 횟수.

2. 다항 분포(Multinomial Distribution)

2.1 정의

다항 분포는 이항 분포의 K-범주 확장이다. 각 시행에서 K개의 가능한 결과 중 하나가 확률 p_1, \ldots, p_K (\sum p_k = 1)로 발생하는 독립 시행을 n회 반복할 때, 각 범주의 발생 횟수 \mathbf{X} = (X_1, \ldots, X_K)의 결합 분포이다.

P(X_1 = x_1, \ldots, X_K = x_K) = \frac{n!}{x_1! \cdots x_K!}p_1^{x_1} \cdots p_K^{x_K}

제약: \sum_{k=1}^{K} x_k = n, x_k \geq 0.

2.2 기본 통계량

\mathbb{E}[X_k] = np_k, \quad \text{Var}(X_k) = np_k(1-p_k)

\text{Cov}(X_i, X_j) = -np_ip_j, \quad i \neq j

공분산이 음수인 것은 총 횟수가 n으로 고정되어 있어 한 범주의 증가가 다른 범주의 감소를 동반하기 때문이다.

2.3 주변 분포

X_k의 주변 분포는 이항 분포이다: X_k \sim \text{Bin}(n, p_k).

2.4 로봇 공학에서의 응용

다중 클래스 분류: 물체 인식에서 n개의 관측에 대해 각 클래스별 분류 결과의 빈도가 다항 분포를 따른다.

히스토그램 기반 분포 표현: 연속 분포를 이산 빈(bin)으로 히스토그램화할 때, 각 빈의 관측 수가 다항 분포를 따른다.

이산 상태 전이 카운트: 마르코프 체인에서 각 상태 전이의 관측 횟수가 다항 분포로 모델링된다.

3. 이항 분포와 다항 분포의 관계

이항 분포는 K = 2인 다항 분포의 특수한 경우이다. X_1 = k이면 X_2 = n - k이므로, 하나의 변수로 완전히 기술된다.

4. 베이즈 추론에서의 켤레 사전

4.1 이항 분포의 켤레 사전: 베타 분포

이항 가능도 p(k \vert p) = \binom{n}{k}p^k(1-p)^{n-k}에 대해 베타 사전 p \sim \text{Beta}(\alpha, \beta)을 사용하면, 사후 분포도 베타 분포이다.

p \vert k \sim \text{Beta}(\alpha + k, \beta + n - k)

4.2 다항 분포의 켤레 사전: 디리클레 분포

다항 가능도에 대해 디리클레(Dirichlet) 사전 (p_1, \ldots, p_K) \sim \text{Dir}(\boldsymbol{\alpha})를 사용하면, 사후도 디리클레 분포이다.

(p_1, \ldots, p_K) \vert \mathbf{x} \sim \text{Dir}(\alpha_1 + x_1, \ldots, \alpha_K + x_K)

이 켤레 관계는 로봇의 온라인 확률 갱신에서 효율적 베이즈 학습을 가능하게 한다.

5. 참고 문헌

  • Papoulis, A., & Pillai, S. U. (2002). Probability, Random Variables, and Stochastic Processes (4th ed.). McGraw-Hill.
  • Ross, S. M. (2014). A First Course in Probability (9th ed.). Pearson.
  • Bishop, C. M. (2006). Pattern Recognition and Machine Learning. Springer.
  • Murphy, K. P. (2012). Machine Learning: A Probabilistic Perspective. MIT Press.

version: 1.0