문제에 대한 베이지안 접근 방식 은 일련의 데이터 포인트 를 고려하여 모델 대한 사후 확률을 고려하는 것 입니다 ,M∈{Normal,Log-normal}X={x1,...,xN}
P(M∣X)∝P(X∣M)P(M).
어려운 부분은 한계 가능성을 얻는 것입니다 .
P(X∣M)=∫P(X∣θ,M)P(θ∣M)dθ.
의 특정 선택에 대해 가우스의 한계 확률은 닫힌 형태로 얻을 수 있습니다 . 말하는 이후 분산 일반적으로 로그가 말하는 것과 동일하다 정규 분포}, 당신은에 대해 동일한 한계 가능성 사용할 수 있어야 로그를 정상 대신 에 적용하여 가우시안 모델과 같습니다 . 자코비 안의 변화 를 고려하는 것만 기억하십시오 .p(θ∣M)XY={logx1,...,logxNYX
P(X∣M=Log-Normal)=P(Y∣M=Normal)⋅∏i∣∣∣1xi∣∣∣.
이 방법을 사용하려면 모수 대한 분포를 선택해야합니다. 여기에서 아마도 및 이전 확률 .P(θ∣M)P(σ2,μ∣M=Normal)P(M)
예:
들면 I는 선택 정상 역 감마 분포 매개 변수 .P(μ,σ2∣M=Normal)m0=0,v0=20,a0=1,b0=100
따르면 머피 (2007) (식 203), 정규 분포 확률의 한계는 다음에 의해 주어진다
P(X∣M=Normal)=|vN|12|v0|12ba00baNnΓ(aN)Γ(a0)1πN/22N
여기서 및 은 사후 의 매개 변수입니다 (수학 식 196-200).aN,bN,vNP(μ,σ2∣X,M=Normal)
vNmNaNbN=1/(v−10+N),=(v−10m0+∑ixi)/vN,=a0+N2,=b0+12(v−10m20−v−1Nm2N+∑ix2i).
로그 정규 분포에 동일한 하이퍼 파라미터를 사용합니다.
P(X∣M=Log-normal)=P({logx1,...,logxN}∣M=Normal)⋅∏i∣∣∣1xi∣∣∣.
log-normal의 사전 확률 , , 다음 log-normal 분포에서 얻은 데이터P ( M = 로그-노멀 ) = 0.10.1P(M=Log-normal)=0.1
후부는 다음과 같이 동작합니다.
실선은 데이터 포인트 의 다른 드로우에 대한 중간 사후 확률을 보여줍니다 . 데이터가 거의 없거나 전혀없는 경우, 신념은 이전 신념에 가깝습니다. 약 250 개의 데이터 포인트에 대해 알고리즘은 거의 항상 데이터가 로그 정규 분포에서 도출되었음을 확신합니다.N
방정식을 구현할 때는 밀도 대신 로그 밀도로 작업하는 것이 좋습니다. 그러나 그렇지 않으면 매우 간단합니다. 플롯을 생성하는 데 사용한 코드는 다음과 같습니다.
https://gist.github.com/lucastheis/6094631