나는 약하게 일관된 최대 가능성 추정기 (MLE)에서 평가 된 관측 된 정보 매트릭스가 기대되는 정보 매트릭스의 약하게 일관된 추정기임을 증명하려고 노력하고있다. 이것은 널리 인용 된 결과이지만 아무도 참조 또는 증거를 제공하지 않습니다 (Google 결과의 첫 20 페이지와 통계 교과서가 소진되었다고 생각합니다)!
약하게 일관된 MLE 시퀀스를 사용하면 약한 수의 법칙 (WLLN)과 연속 매핑 정리를 사용하여 원하는 결과를 얻을 수 있습니다. 그러나 연속 매핑 정리를 사용할 수 없다고 생각합니다. 대신 나는 많은 수의 균일 법칙 (ULLN)을 사용해야한다고 생각한다. 아무도 이것에 대한 증거가있는 참조를 알고 있습니까? ULLN에 대한 시도가 있지만 간략히하기 위해 지금은 생략합니다.
이 질문의 길이에 대해 사과하지만 표기법을 도입해야합니다. 표기법은 다음과 같습니다 (내 증거는 끝났습니다).
밀도가 인 임의 변수 의 iid 샘플이 있다고 가정합니다 . 여기서 (여기서 는 샘플 멤버 중 하나와 밀도가 같은 일반적인 랜덤 변수입니다). 벡터 는 모든 대해 인 모든 샘플 벡터의 벡터입니다. . 밀도의 실제 매개 변수 값은 이며 는 의 약한 일관된 최대 가능성 추정기 (MLE)입니다θ N ( Y는 ) θ 0. 규칙적인 조건에 따라 Fisher 정보 매트릭스는 다음과 같이 쓸 수 있습니다.
여기서 는 헤 시안 행렬입니다. 이에 상응하는 샘플은
여기서 . 관찰 된 정보 매트릭스는 다음과 같습니다.
,
(일부 사람들은 매트릭스가 평가 되길 요구 하지만 그렇지 않은 사람들도 있습니다). 관찰 된 정보 매트릭스는 다음과 같습니다.
여기서 .
추정량 ~ 확률로 수렴을 증명할 수 있지만 를 . 여기까지 내 증거가 있습니다.I ( θ ) N - 1 J N ( θ N ( Y ) ) I ( θ 0 )
이제 는 요소 의 , 대해, 표본이 iid이면 큰 수의 약한 법칙 (WLLN)에 의해 이러한 소환 자의 평균은 이므로 모든 대해 등 . 불행히도 ( r , s ) J N ( θ ) r , s = 1 , … , k − E θ [ ( H θ ( log f ( N - 1 ( J N ( θ ) ) (R) 의 P → ( I ( θ ) ) R S , R , s = 1 , … , k N N - 1 J N ( θ N (Y)) P → I( θ 0 ) N - 1 J N (⋅)I(⋅) 은 와 동일한 기능이 아니므로 연속 매핑 정리를 사용합니다 .
이에 대한 도움을 주시면 감사하겠습니다.