KL 발산은 두 개의 확률분포 P, Q가 있을 때, Q에 대한 P의 상대적인 비대칭값을 나타낸다[1]. 다른 말로 표현하면, KL 발산은 두 확률분포의 다름의 정도를 나타낸다고 말할 수 있다[2]. KL 발산을 식으로 나타내면 다음과 같다.
$D_{KL}(P\parallel Q) = \sum_{i}^{\, }P(i)log{\frac{P(i)}{Q(i)}}$
Q를 사전확률분포, P를 사후확률분포로 본다면, $D_{KL}(P\parallel Q)$은 사전확률에서 사후확률로 변하면서 얻은 정보의 양으로 해석할 수 있다[2].
어떤 논문에서는 간혹 KL 발산을 KL distance, 즉 거리의 개념으로 쓰기도 하는데 $D_{KL}(P\parallel Q)$와 $D_{KL}(Q\parallel P)$는 다른 값을 갖기 때문에 엄밀히 따지면 거리의 개념은 아니다.
이번 포스팅은 간략하게 KL 발산의 개념을 이해하기 위해 발췌 정리했다. 좀 더 깊은 이해를 원하는 분들은 아래 링크들을 참고하시길 바랍니다.
<참고자료>
[1] https://blog.naver.com/sancholok/30113530188, 에이미, "Kullback-leibler(KL) divergence"
[2] https://brunch.co.kr/@chris-song/69#comment, Chris송호연, "정보 이론 2편: KL-Divergence"
'Research > 확률, 통계' 카테고리의 다른 글
[정보이론] 상호정보량(mutual information)이란 (3) | 2020.05.15 |
---|---|
직관적으로 쉽게 이해하는 베이즈 정리 (수식은 저리 치워) (2) | 2020.04.15 |
[정보이론] 결합(joint) 엔트로피와 조건부(conditional) 엔트로피 (0) | 2019.10.25 |
[정보이론] 정보량과 엔트로피의 의미 (2) | 2019.10.25 |
자료를 대표하는 숫자, 대표값: 평균, 중앙값, 최빈값 (0) | 2019.06.03 |
모평균의 신뢰구간 추정하기 (31) | 2019.05.16 |
중심극한정리(표본이 크면 표본평균은 결국 정규분포를 따르네?) (6) | 2019.05.14 |
독립 표본 t검정은 무엇인가? (MATLAB 코드 포함) (0) | 2019.04.30 |