약간 더 일반적인 맥락에서 와이 과 엔의 차원 벡터 와이관찰 (응답 또는 종속 변수) 엑스 과 n × p 매트릭스 엑스관측 (공변량 또는 종속 변수) θ = (β1,β2, σ) 그런 매개 변수 와이~ N( Xβ1, Σ (β2, σ) ) 마이너스 로그 우도는
l (β1,β2, σ) =12( Y− Xβ1)티Σ (β2, σ)− 1( Y− Xβ1) +12로그| Σ(β2, σ) |
OP의 질문에서
Σ (β2, σ) 와 대각선
Σ (β2, σ)나는 내가=σ2지(지티나는β2)2
그래서 결정자는
σ2 N∏엔나는 = 1지(지티나는β2)2 그 결과 마이너스 로그 우도는
12σ2∑나는 = 1엔(와이나는−엑스티나는β1)2지(지티나는β2)2+ n 로그σ+∑나는 = 1엔로그지(지티나는β2)
이 기능을 최소화하는 데는 몇 가지 방법이 있습니다 (세 개의 매개 변수가 변이와 무관하다고 가정).
- 제약 조건을 기억하는 표준 최적화 알고리즘으로 함수를 최소화하려고 할 수 있습니다. σ> 0.
- 마이너스-로그 우도의 프로파일을 계산할 수 있습니다. (β1,β2) 를 최소화함으로써 σ 고정 용 (β1,β2)그런 다음 결과 함수를 제한없는 표준 최적화 알고리즘에 연결합니다.
- 세 가지 매개 변수 각각에 대해 개별적으로 최적화하는 방법을 번갈아 사용할 수 있습니다. 이상 최적화σ 분석적으로 수행 할 수 있습니다. β1 가중 최소 제곱 회귀 문제이며 최적화 β2 감마 일반화 선형 모형을 피팅하는 것과 같습니다. 지2 역 링크.
마지막 제안은 내가 이미 잘 알고있는 솔루션을 기반으로하기 때문에 나에게 호소력이 있습니다. 또한 첫 번째 반복은 어쨌든 내가 고려할 것입니다. 즉, 먼저 초기 추정치를 계산하십시오.β1 잠재적 인 이분산성을 무시하고 보통 최소 제곱을 구한 다음 감마 glm을 제곱 잔차에 피팅하여 β2 −더 복잡한 모델이 가치가 있는지 확인하십시오. 가중치에 따라 이분산성을 최소 제곱 솔루션에 통합하는 반복은 추정에 따라 개선 될 수 있습니다.
질문의 두 번째 부분과 관련하여 아마도 선형 조합에 대한 신뢰 구간 계산을 고려할 것입니다. 승티1β1+승티2β2 표준 MLE 무증상을 사용하거나 (무증상이 작동하는 시뮬레이션으로 확인) 부트 스트랩을 사용합니다.
편집 : 으로 표준 MLE의 점근 I는 공분산 행렬 피셔 정보와 역 MLE의 분포에 근사 다변량 정규를 사용 뜻. Fisher 정보는 정의에 따라 기울기의 공분산 행렬입니다.엘. 일반적으로 매개 변수에 따라 다릅니다. 이 수량에 대한 분석 표현식을 찾을 수 있으면 MLE을 연결해보십시오. 대안으로, 관측 된 Fisher 정보, 즉 Hessian에 의해 Fisher 정보를 추정 할 수 있습니다.엘MLE에서. 관심있는 매개 변수는 두 매개 변수의 선형 조합입니다.β-vectors, 따라서 MLE의 근사 다변량 법선에서 여기에 설명 된 추정량 분포의 정규 근사값을 찾을 수 있습니다 . 이는 대략적인 표준 오차를 제공하며 신뢰 구간을 계산할 수 있습니다. 그것은 많은 (수학적) 통계 책에 잘 설명되어 있지만, 내가 추천 할 수있는 합리적인 접근 방식은 Yudi Pawitan의 In All Likelihood 입니다. 어쨌든, 점근 론 이론의 공식적인 도출은 상당히 복잡하고 많은 규칙 성 조건에 의존하며, 유효한 점근선 만 제공합니다.분포. 따라서 의심 스러우면 항상 새 모델로 시뮬레이션을 수행하여 실제 매개 변수 및 샘플 크기에 대한 결과를 신뢰할 수 있는지 확인합니다. 트리플을 샘플링하는 간단한 비모수 부트 스트랩(와이나는,엑스나는,지나는) 피팅 절차가 너무 시간 소모적이지 않은 경우 교체 된 관측 데이터 세트에서 유용한 대안이 될 수 있습니다.