베이지안 접근 방식을 취하고 분포를 임의의 변수 / 벡터로 설명하는 매개 변수를 처리하는 경우 관측 값은 독립적 이지 않지만 대한 지식이 주어지면 조건부 독립적 입니다. 따라서 가 유지됩니다.XθP(Xn∣Xn−1,…X1,θ)=P(Xn∣θ)
고전적인 통계적 접근에서 는 임의 변수 가 아닙니다. 계산은 가 무엇인지 아는 것처럼 수행됩니다 . 어떤 의미에서, 당신은 항상 조절하고 있습니다 (값을 모르더라도).θθθ
"... 배포 구조에 대한 정보를 제공하고 대한 결과를 썼을 때"는 암묵적으로 베이지안 접근 방식을 채택했지만 정확하게 수행하지는 않았습니다. 자주 사용하는 IID 샘플의 속성을 작성하고 있지만 Bayesian 설정의 해당 명령문에는 조정이 포함됩니다 .Xnθ
베이지안 대 고전 통계 학자
하자 일방적 인 불공정 동전 던지기의 결과. 우리는 동전이 나올 확률을 모른다.xi
- 고전 통계 학자에게 자주 사용되는 는 일부 매개 변수 입니다. 이를 라고합시다 . 가 숫자 1/3과 같은 스칼라 라는 것을 관찰하십시오 . 우리는 숫자가 무엇인지 모르지만 숫자입니다! 무작위 가 아닙니다 !P(xi=H)θθ
- 베이지안 통계 학자에게, 자체는 무작위 변수입니다! 이것은 매우 다릅니다!θ
여기서 핵심 아이디어는 베이지안 통계학자가 고전 통계학자가 그렇지 않은 상황으로 확률 도구를 확장한다는 것입니다 . 잦은 주의자에게 는 하나의 가능한 값만 가지기 때문에 무작위 변수가 아닙니다 ! 여러 결과가 불가능합니다! 그러나 베이지안의 상상에서는 여러 값의 가 가능하며, 베이지안은 확률의 도구를 사용하여 자신의 마음에 그 불확실성을 모델링하려고합니다.θθ
이것은 어디로 가고 있습니까?
우리가 동전을 번 뒤집 었다고 가정 해 봅시다 . 한 플립은 다른 플립의 결과에 영향을 미치지 않습니다. 고전 통계학자는이 독립 플립을 호출 할 것이다. 우리는 :
여기서 는 알려지지 않은 매개 변수. (우리는 그것이 무엇인지 모르지만 임의의 변수는 아닙니다 ! 그것은 숫자입니다.)n
P(xn=H∣xn−1,xn−2,…,x1)=P(xn=H)=θ
θ
주관적 확률에 깊은 베이지안은 중요한 것은 그녀의 관점에서 볼 확률이라고 말할 것입니다 ! . 그녀가 10 개의 머리를 연속으로 볼 경우, 11 개의 머리는 연속으로 10 개의 머리가 동전을 머리쪽으로 편향 시킨다고 믿기 때문에 더 가능성이 높습니다.
P(x11=H∣x10=H,x9=H,…,x1=H)>P(x1=H)
여기서 무슨 일이 있었습니까? 무엇이 다른가요?! 잠재 임의 변수 에 대한 신념 업데이트 ! 경우 확률 변수로 취급되면, 플립은 더 이상 독립적이지. 그러나 뒤집기 는 값이 주어지면 조건부 독립적 입니다.θθθ
P(x11=H∣x10=H,x9=H,…,x1=H,θ)=P(x1=H∣θ)=θ
어떤 의미 에서 에 대한 컨디셔닝 은 베이지안과 고전 통계학자가 문제를 모델링하는 방법을 연결합니다. 또는 다른 방법으로, 베이 시언이 조건이 있는지 잦은 주의자와 베이지안 통계학자가 동의 할 것 입니다.θθ
추가 메모
나는 짧은 소개를하기 위해 최선을 다했지만, 내가 한 일은 기껏해야 아주 피상적이며 개념은 다소 깊은 의미입니다. Savage의 1954 년 저서 인 Statistics of Statistics 는 확률의 철학에 뛰어 들기를 원한다면 고전입니다. 베이지안 대 잦은 사람을위한 구글과 많은 것들이 등장 할 것입니다.
IID 추첨에 대해 생각하는 또 다른 방법은 Finetti의 정리 와 교환 성의 개념입니다 . 베이지안 프레임 워크에서, 교환 가능성은 잠재적 인 임의의 변수 (이 경우 코인의 일 방성)에 대한 조건부 독립성과 같습니다.