답변:
문제는 합법적이며 EM 알고리즘을 처음 배웠을 때도 같은 혼란을 겪었습니다.
일반적으로 EM 알고리즘은 모델의 일부 변수가 "잠재적"이거나 알 수없는 경우 파라 메트릭 모델의 가능성 함수를 최대화 할 수있는 반복 프로세스를 정의합니다.
이론적으로 동일한 목적으로 최소화 알고리즘을 사용하여 모든 모수에 대한 최대 우도 함수를 수치 적으로 찾을 수 있습니다. 그러나 실제 상황에서이 최소화는 다음과 같습니다.
EM 방법의 가장 일반적인 적용은 혼합 모델을 맞추는 것입니다. 이 경우 각 샘플을 컴포넌트 중 하나에 "잠재적 인"변수로 할당하는 변수를 고려하면 문제가 크게 단순화됩니다.
예를 보자. 2 개의 정규 분포의 혼합물에서 추출한 N 개의 샘플 있습니다. EM이없는 파라미터를 찾으려면 다음을 최소화해야합니다.
반대로 EM 알고리즘을 사용하여 먼저 각 샘플을 구성 요소에 "할당"하고 ( E 단계 ) 각 구성 요소를 개별적으로 적합 (또는 가능성 을 최대화 )합니다 ( M 단계 ). 이 예에서 M 단계 는 단순히 및 σ k 를 찾기위한 가중 평균 입니다. 이 두 단계의 반복을 최소화 할 수있는 간단하고 강력한 방법입니다 - 로그 L ( X , θ ) .
EM도 수치 방법이기 때문에 일부 수치 기술을 사용하는 대신 EM이 필요하지 않습니다. 따라서 Newton-Raphson을 대체하지 않습니다. EM은 데이터 매트릭스에 결 측값이있는 특정 경우를위한 것입니다. 샘플 고려 조건부 밀도를 갖는 F X를 | Θ ( x | θ ) . 그런 다음 이의 로그 우도는 l ( θ ; X ) = l o g f X | Θ 이제 X 가 관측 된 데이터 Y 와 누락 된 (또는 잠재 된) 변수 Z 로 구성되어 X = ( Y , Z ) 와 같은 완전한 데이터 세트가 없다고 가정합니다. 관측 된 데이터의 로그 우도는 l o b s ( θ , Y ) = l o g ∫ f X | Θ ( Y , z | θ ) ν z (
방법에 대한 자세한 정보가 필요하면 해당 속성, 증명 또는 응용 프로그램에서 해당 Wiki 기사를 살펴보십시오 .
EM 은 종종 해당 모델에서 주어진 데이터 세트의 확률을 최대화하는 모델의 매개 변수를 직접 계산하는 것이 불가능하거나 불가능하기 때문에 사용됩니다.