회귀 분석을 수행하는 동안 다음과 같은 정의로 가면 : 부분 우도, 프로파일 우도 및 한계 우도의 차이점은 무엇입니까?
그 최우
L 극대화 찾기 β 및 θ (β, θ | 데이터).
, Marginal Likelihood
우리는 β에 조건부 θ의 확률 분포를 식별 할 수 있다는 사실을 이용하여 가능성 방정식에서 θ를 통합합니다.
더 나은 방법론은 무엇이며 왜 최대화해야합니까?
회귀 분석을 수행하는 동안 다음과 같은 정의로 가면 : 부분 우도, 프로파일 우도 및 한계 우도의 차이점은 무엇입니까?
그 최우
L 극대화 찾기 β 및 θ (β, θ | 데이터).
, Marginal Likelihood
우리는 β에 조건부 θ의 확률 분포를 식별 할 수 있다는 사실을 이용하여 가능성 방정식에서 θ를 통합합니다.
더 나은 방법론은 무엇이며 왜 최대화해야합니까?
답변:
이들 각각은 다른 해석으로 다른 결과를 제공합니다. 첫 번째 는 가장 가능성이 높은 쌍인 , 를 찾고, 두 번째 는 (거의) 가장 가능성 있는 를 찾습니다 . 배포판이 다음과 같다고 상상해보십시오.
0.0 0.2
0.1 0.2
0.3 0.2
그런 다음 최대 우도 답변은 ( )이고 최대 한계 우도 답변은 (따라서 보다 , ).θ = 3 β = 2 θ P ( β = 2 ) = 0.6
나는 일반적으로 한계 가능성이 종종 당신이 원하는 것이라고 말하고 싶습니다. 매개 변수 의 값에 정말로 신경 쓰지 않는다면 , 그것들을 넘어서야합니다. 그러나 아마 실제로 이러한 방법은 매우 다른 결과를 얻을하지 않습니다 - 그들이 할 경우, 그것은 솔루션의 일부 기본 불안정, 서로 다른 조합 등 여러 모드를 가리킬 수 , 모두 비슷한 예측을 줄 것이다.β θ
나는이 질문을 지금 당장 잡고있다. 도움이 될만한 결과가 있습니다. 선형 모형을 고려하십시오
여기서 및 및 가 관심있는 매개 변수입니다. 공동 가능성β σ 2
공동 가능성 수율 최적화
여기서 의 의사 역행렬이고 및 착용감 잔차 벡터이다. 참고에 우리가 친숙한 자유도가 비 보정 대신에 . 이 추정기는 유한 샘플 경우에 편향되는 것으로 알려져 있습니다. X R = Y - X β σ 2 1 / n은 1 / ( N - P )
이제 와 에 대해 최적화하는 대신 out을 통합하고 결과 통합 가능성에서 를 추정합니다 :σ 2 β σ 2
기초 선형 대수와 가우스 적분 공식을 사용하면
이것은 자유도 보정을 통해 편향되지 않으며 일반적으로 공동 ML 추정치보다 선호됩니다.
이 결과로부터 통합 가능성에 본질적으로 유리한 것이 있는지 물을 수 있지만, 그 질문에 대한 일반적인 결과는 모릅니다. 합의는 통합 ML이 대부분의 추정 문제에서 불확실성을 설명하는 데 더 나은 것으로 보인다. 특히 다른 모수 추정치 (암시 적으로도)에 의존하는 수량을 추정하는 경우 다른 모수에 통합하면 불확실성이 더 잘 설명됩니다.