코인 토스 예제에 기대 극대화 적용


18

나는 최근에 Expectation Maximization을 스스로 연구했고 그 과정에서 몇 가지 간단한 예를 들었습니다.

에서 여기에 세 동전이 있습니다 0 , 120 , 12 던져 머리에 착륙 각각의 확률. 0졌습니다. 결과가 Head이면 1 3 번 던지거나 그렇지 않으면 2 3 번 던지십시오 . 1 의해 생성 된 관찰 된 데이터는 2HHH, TTT, HHH, TTT, HHH와 같습니다. 숨겨진 데이터는 의 결과입니다 0. 추정 0 ,12 .

그리고에서 여기 : 두 개의 동전이 있습니다 cBpApB 던져 때 머리에 착륙 각각의 확률 인가. 각 라운드마다 동전 하나를 무작위로 골라 10 번 던집니다. 결과를 기록하십시오. 관찰 된 데이터는이 두 코인이 제공 한 던지기 결과입니다. 그러나 특정 라운드에 어떤 동전이 선택되었는지는 알 수 없습니다. pA 추정합니다 p.

계산을 할 수는 있지만 해결 방법을 원래 EM 이론과 연관시킬 수는 없습니다. 특히, 두 예제의 M-Step 중에는 어떻게 최대화하는지 알 수 없습니다. 매개 변수를 다시 계산하는 것처럼 보이며 어쨌든 새 매개 변수가 이전 매개 변수보다 낫습니다. 더욱이, 두 개의 E- 단계는 원래 이론의 E- 단계를 언급하지 않고 서로 비슷해 보이지 않습니다.

그렇다면이 예제들은 정확히 어떻게 작동합니까?


첫 번째 예에서 동일한 실험의 사례는 몇 개입니까? 두 번째 예에서, "하나의 동전을 무작위로 선택"하는 법칙은 무엇입니까? 우리는 얼마나 많은 라운드를 관찰합니까?
Raphael

내가 링크 한 PDF 파일은 이미이 두 예제를 단계별로 해결합니다. 그러나 EM 알고리즘을 실제로 이해하지 못합니다.
IcySnow

@IcySnow, 임의 변수의 기대 및 조건부 기대의 개념을 이해합니까?
Nicholas Mancuso

나는 임의 변수와 조건부 확률에 대한 기본적인 기대를 이해합니다. 그러나 나는 조건부 기대, 그 파생어 및 충분한 통계에 익숙하지 않습니다.
IcySnow

답변:


12

(이 답변은 귀하가 제공 한 두 번째 링크를 사용합니다.)

θ = ( θ A , θ B ) X = ( X 1 , , X 5 ) X i Z = ( Z 1 , , Z 5 )

L[θ|X]=Pr[X|θ]=ZPr[X,Z|θ]
θ=(θA,θB)X=(X1,,X5)XiZ=(Z1,,Z5)

우리는 최대 우도 추정기 찾으려면 θ를 . 기대치 - 최대화 (EM) 알고리즘 (최소 로컬) 발견하는 하나의 이러한 방법 θ를 . 조건부 기대 값을 찾아서 작동하며 θ 를 최대화하는 데 사용됩니다 . 아이디어는 각 반복에서 더 가능성이 높은 (즉, 더 가능성이 높은) θ 를 지속적으로 찾아서 Pr [ X , Zθ^θ^θθ 는 우도 함수를 증가시킵니다. EM 기반 알고리즘을 설계하기 전에 수행해야 할 세 가지가 있습니다.홍보[엑스,|θ]

  1. 모델 구성
  2. 모델 하의 ​​조건부 기대 계산 (E-Step)
  3. 현재 추정치를 업데이트하여 가능성을 극대화 (M-Step)θ

모델 구성

EM을 계속 진행하기 전에 정확히 그것이 무엇인지 계산해야합니다. E- 단계에서는 . 이 값은 무엇입니까? 그 로그 Pr [ X , Z | θ ]로그홍보[엑스,|θ]

로그홍보[엑스,|θ]=나는=15로그{,}홍보[엑스나는,나는=|θ]=나는=15로그{,}홍보[나는=|엑스나는,θ]홍보[엑스나는,나는=|θ]홍보[나는=|엑스나는,θ]나는=15{,}홍보[나는=|엑스나는,θ]로그홍보[엑스나는,나는=|θ]홍보[나는=|엑스나는,θ].
그 이유는 5 가지 실험이 있고 각 동전에 어떤 동전이 사용되었는지 모르기 때문입니다. 불평등은 가 오목하고 Jensen의 불평등을 적용 하기 때문 입니다. 하한이 필요한 이유는 원래 방정식에 대한 arg max를 직접 계산할 수 없기 때문입니다. 그러나 최종 하한값을 계산할 수 있습니다.로그

이제 ? 실험 X iθ가 주어지면 코인 C를 볼 확률입니다 . 조건부 확률을 사용하여 Pr [ Z i = C | X i , θ ] = Pr [ X i , Z i = C | θ홍보[나는=|엑스나는,θ]엑스나는θ

홍보[나는=|엑스나는,θ]=홍보[엑스나는,나는=|θ]홍보[엑스나는|θ].

우리는 약간의 진전을 이루었지만 아직 모델을 완성하지 못했습니다. 주어진 코인이 시퀀스 뒤집었을 확률은 얼마입니까? 시키는 시간 내가 = # 에서 헤드  X I[ X I , Z = C를 | θ ] =엑스나는h나는=#머리 엑스나는 이제Pr[Xi| θ]Zi=A또는Zi=B의 두 가지 가능성 모두에서 확률 일뿐입니다. 이후잠이[Z=A를]Z는=

홍보[엑스나는,나는=|θ]=12θh나는(1θ)10h나는,  ...에 대한  {,}.
홍보[엑스나는|θ]나는=나는= 우리가, [ X I | θ ] = 1 / 2 ( 잠이 [ X | Z가 나는 = , θ ] + 홍보 [ X | Z는 = B는 , θ ] )홍보[나는=]=홍보[나는=]=1/2
홍보[엑스나는|θ]=1/2(홍보[엑스나는|나는=,θ]+홍보[엑스나는|나는=,θ]).

전자 단계

알았어 .. 재미 있지는 않았지만 이제 EM 작업을 시작할 수 있습니다. EM 알고리즘은 대해 임의의 추측을하는 것으로 시작합니다 . 이 예에서는 θ 0 = ( 0.6 , 0.5 ) 입니다. 우리는 Pr [ Z 1 = A | X 1 , θ ] = 1 / 2 ( 0.6 50.4 5 )θθ0=(0.6,0.5) 이 값은 논문의 내용과 일치합니다. 이제동전A, E에서X1=(H,T,T,T,H,H,T,H,T,H)에서예상 헤드 수를 계산할 수 있습니다

홍보[1=|엑스1,θ]=1/2(0.650.45)1/2((0.650.45)+(0.550.55))0.45.
엑스1=(H,,,,H,H,,H,,H) = B우리가 얻는 동전 B에 대해 똑같은 일을한다. E [ # 동전 B의 머리  | X 1 , θ ] = h 1Pr [ Z 1 | X 1 ,
이자형[#동전으로 머리 |엑스1,θ]=h1홍보[1=|엑스1,θ]=50.452.2.
h 1 10 - h 1 로 대체하여 꼬리 수에 대해 동일하게 계산할 수 있습니다. 이것은 X i h i 1 i 5의 다른 모든 값에 대해 계속됩니다. 기대의 선형성 덕분에 우리는 동전 A로 E [ # 머리를  알아낼 수 있습니다 | X , θ ] = 5 i E [ # 동전 A 머리 
이자형[#동전으로 머리 |엑스1,θ]=h1홍보[1=|엑스1,θ]=50.552.8.
h110h1엑스나는h나는 1나는5
이자형[#동전으로 머리 |엑스,θ]=나는=15이자형[#동전으로 머리 |엑스나는,θ]

M 단계

θ

θ1=이자형[#머리 위로 엑스 동전으로 |엑스,θ]이자형[#머리와 꼬리 엑스 동전으로 |엑스,θ]=21.321.3+9.60.71.
θ1θθ^=θ10=(0.8,0.52)홍보[엑스,|θ]θ .

θ^


확실하지 않은 부분이 있으면 확장 할 수도 있습니다.
Nicholas Mancuso

이제 훨씬 더 명확 해집니다. 내가 실제로 얻지 못하는 것은 동전 A에 대한 예상 헤드 수가 다음과 같이 계산 된 이유입니다. 2.2? 첫 번째 PDF에서 언급 된 문제는 더 복잡합니다. 마음에 들지 않는다면, 그것에 대한 예시적인 계산을 할 수 있습니까? 답변 주셔서 감사합니다.
IcySnow

이자형[# 동전으로 머리 |엑스1,θ]=# 머리 엑스1홍보[1=|엑스1,θ]=5홍보[1=|엑스1,θ]. 그 이유는 A를 사용한 경우 다른 표시기 임의 변수가 있다고 생각할 수 있기 때문입니다. 인디케이터 변수에 대한 예상 계산은 해당 이벤트의 확률입니다.
Nicholas Mancuso

답장이 느려 죄송합니다. 덕분에 답을 여러 번 겪은 후 두 동전 예제의 논리를 실제로 이해할 수 있습니다. 이 질문에 관해 마지막으로 물어보고 싶은 것이 있습니다.이 슬라이드의 8 페이지부터 시작하는 예제 cs.northwestern.edu/~ddowney/courses/395_Winter2010/em.ppt 는 M-Step에서 먼저 계산해야 함을 보여줍니다. 로그 우도 함수의 미분을 사용하여 기대치를 최대화합니다. 동전 던지기 예제에서 M-Steps와 같은 것이 아닌 이유는 무엇입니까? 이 M-Step은 무엇을 최대화하고있는 것처럼 보이지 않기 때문에
IcySnow

홍보[나는=|엑스나는,θ]+홍보[나는=|엑스나는,θ]=1나는
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.