참고 : 기술적 인 이유로 본인의 게시물을 게시 할 수없는 이전 학생으로부터 질문을 게시하고 있습니다.
pdf Weibull 분포 의 iid 표본 을 고려하면 유용한 누락 변수 표현 따라서 대신 MLE을 찾는 데 사용할 수있는 관련 EM (예상 최대화) 알고리즘 간단한 수치 최적화?
참고 : 기술적 인 이유로 본인의 게시물을 게시 할 수없는 이전 학생으로부터 질문을 게시하고 있습니다.
pdf Weibull 분포 의 iid 표본 을 고려하면 유용한 누락 변수 표현 따라서 대신 MLE을 찾는 데 사용할 수있는 관련 EM (예상 최대화) 알고리즘 간단한 수치 최적화?
답변:
질문을 올바르게 이해했다면 대답은 '예'라고 생각합니다.
쓴다 . 그런 다음 반복의 EM 알고리즘 유형은, 예를위한 시작하여 K = 1 인
단계 E
단계 M
이것은 Aitkin and Clayton (1980)에 의해 Weibull 비례 위험 모델에 제안 된 반복의 특별한 경우 (검열 및 공변량이없는 경우)입니다. Aitkin et al (1989)의 섹션 6.11에서도 찾을 수 있습니다.
Aitkin, M. and Clayton, D., 1980. GLIM을 사용하여 복잡한 검열 생존 데이터에 지수, Weibull 및 극단 값 분포를 적합시킵니다. 응용 통계 , pp.156-163.
Aitkin, M., Anderson, D., Francis, B. and Hinde, J., 1989. GLIM의 통계 모델링 . 옥스포드 대학 출판부. 뉴욕.
이블 MLE는 단지 수치 적으로 풀 수있다 :
f λ , β ( x ) = { β라고 하자 과β,
1) Likelihoodfunction :
로그인을 Likelihoodfunction :
2) MLE 문제 : 3)0-구배에의한최대화: ∂ l
Plugging into the second 0-gradient condition:
This equation is only numerically solvable, e.g. Newton-Raphson algorithm. can then be placed into to complete the ML estimator for the Weibull distribution.
Though this is an old question, it looks like there is an answer in a paper published here: http://home.iitk.ac.in/~kundu/interval-censoring-REVISED-2.pdf
In this work the analysis of interval-censored data, with Weibull distribution as the underlying lifetime distribution has been considered. It is assumed that censoring mechanism is independent and non-informative. As expected, the maximum likelihood estimators cannot be obtained in closed form. In our simulation experiments it is observed that the Newton-Raphson method may not converge many times. An expectation maximization algorithm has been suggested to compute the maximum likelihood estimators, and it converges almost all the times.
In this case the MLE and EM estimators are equivalent, since the MLE estimator is actually just a special case of the EM estimator. (I am assuming a frequentist framework in my answer; this isn't true for EM in a Bayesian context in which we're talking about MAP's). Since there is no missing data (just an unknown parameter), the E step simply returns the log likelihood, regardless of your choice of . The M step then maximizes the log likelihood, yielding the MLE.
EM would be applicable, for example, if you had observed data from a mixture of two Weibull distributions with parameters and , but you didn't know which of these two distributions each observation came from.