우리는 여러가지 편견(또는 믿음)을 가지고 살아갑니다.
"A 핸드폰을 샀을 때 나를 행복하게 만들 확률은 70%야."
"B 커피를 마셨을 때 내가 만족할 확률은 80%야."
"C 당 소속의 후보를 뽑았을 때 우리나라가 발전할 확률은 60%야."
이런 편견을 갖고 있는 상황에서 어떤 사건이 발생합니다.
"A 핸드폰을 샀는데 2주만에 고장이 났어."
"B 커피 종업원이 불친절했어."
"C 당의 한 의원이 논문을 표절했어."
그러면 우리의 편견은 조금 바뀝니다.
"A 핸드폰을 샀을 때 나를 행복하게 만들 확률은 60%야." (70 -> 60)
"B 커피를 마셨을 때 내가 만족할 확률은 75%야." (80 -> 75)
"C 당 소속의 후보를 뽑았을 때 우리나라가 발전할 확률은 50%야." (60 -> 50)
얼마 후 또 다른 사건이 발생합니다.
"A 핸드폰 회사가 고장난 폰을 새로운 기종으로 바꿔줬어."
"B 커피 회사 사장이 직원들에게 갑질을 했어."
"C 당의 핵심 인사가 성범죄에 연루되었어."
그러면 우리의 편견은 또 다시 새로워집니다.
"A 핸드폰을 샀을 때 나를 행복하게 만들 확률은 75%야." (70 -> 60 -> 75)
"B 커피를 마셨을 때 내가 만족할 확률은 65%야." (80 -> 75 -> 65)
"C 당 소속의 후보를 뽑았을 때 우리나라가 발전할 확률은 30%야." (60 -> 50 -> 30)
이것이 바로 베이즈 정리가 의미하는 것입니다. 여기서 편견은 사전확률(prior probability)인 것이고, 어떤 사건이 일어났을 때 그로 인해 우리의 변화된 편견은 사후확률(posteriori probability)을 의미합니다. 그 사후확률이 새롭게 우리의 편견, 즉 사전확률이 되는 것입니다. 또 다른 사건이 발생하면 그에 따라 우리의 편견은 또 새로워질 것이고, 이것은 계속해서 반복될 것입니다.
사전확률 -> 사건 -> 사후확률 -> 사전확률 -> 사건 -> 사후확률 -> 사전확률 -> 사건 -> ...
이러한 베이지안적 사고를 중단하면 문제가 발생합니다. 분명히 우리의 편견을 깰, 우리의 편견을 새롭게 할 증거들이 많음에도 우리의 사전확률을 갱신하지 않는다면 현실과 동떨어진 생각을 할 수도 있는 것이죠. 그러나 우리는 생각보다 편견 또는 믿음을 쉽게 바꾸지 않습니다.
"우리 남편이 바람필 리가 없어." (남편 와이셔츠에서 립스틱 자국이 수차례 발견되었음에도.)
"북한이 남한에 핵미사일을 쏠 가능성은 제로야." (북한이 계속해서 핵실험을 하는 중에도.)
"그 사람은 그런 범죄를 저지를 사람이 아니야." (유죄 판결이 나왔음에도.)
등등.
왜냐하면 계속해서 우리의 편견 또는 믿음을 갱신해가는 과정은 상당히 많은 에너지를 요구하는 피곤한 과정이기 때문이죠. 그래서 우리는 우리의 편견에 반하는 사건이 수없이 발생해도 무시하곤 합니다.
"그럴리 없어. 거짓말이야. 가짜뉴스야. 내 믿음이 옳아."
물론 발생한 사건이 얼마나 정확한 정보인가를 확인하는 과정은 필요합니다. 확실치 않은 정보에 우리의 편견을 갱신시켜서 안됩니다. 그러나 믿을 만한 확실한 정보일 때는 우리의 편견을 조금씩 갱신해가는 것이 좋습니다. 이후에 더 나은 결정, 더 나은 판단을 하기 위해서 말이죠. 저는 이렇게 베이지안적으로 살아가는 것이 좀 더 객관적인 시각을 가지고 살아갈 수 있도록 도와준다고 생각합니다.
지금까지 수식없이 베이즈 정리의 실체에 대해 다뤄봤습니다. 이 글이 베이즈 정리 이해에 도움이 되었으면 좋겠네요. "이 글이 베이즈 정리의 이해에 도움이 될 것이다"라는 가설에 대한 저의 사전확률은 60% 정도입니다. 이 글에 공감이 많이 눌리고, 댓글이 많이 남겨진다면 그 사전확률은 70%, 80%로 갱신될 것입니다. 아무런 반응도 없고 조회수도 적다면 사전확률은 50%, 40%로 점차 줄어들겠죠. ㅎㅎ 끝까지 읽어주셔서 감사합니다!
bskyvision의 추천글 ☞
'Research > 확률, 통계' 카테고리의 다른 글
이산 확률 분포 정리(균일분포, 이항분포, 포아송분포) (1) | 2022.10.13 |
---|---|
가우시안(정규) 분포와 라플라스 분포의 차이 (4) | 2020.06.12 |
[정보이론] 상호정보량(mutual information)이란 (3) | 2020.05.15 |
[정보이론] 결합(joint) 엔트로피와 조건부(conditional) 엔트로피 (0) | 2019.10.25 |
[정보이론] 정보량과 엔트로피의 의미 (2) | 2019.10.25 |
kullback-leibler divergence(KL 발산)의 간략한 설명 (14) | 2019.09.09 |
자료를 대표하는 숫자, 대표값: 평균, 중앙값, 최빈값 (0) | 2019.06.03 |
모평균의 신뢰구간 추정하기 (31) | 2019.05.16 |