다중 사이트 연구에서 혼합 모형과 풀링 표준 오차-혼합 모형이 훨씬 더 효율적인 이유는 무엇입니까?


16

소수의 사이트에서 일련의 "브로큰 스틱"월간 사례 수로 구성된 데이터 세트가 있습니다. 두 가지 기술로 단일 요약 견적을 얻으려고합니다.

기술 1 : 0/1 표시기 변수가있는 Poisson GLM에 "브로큰 스틱"을 맞추고 시간 및 시간 ^ 2 변수를 사용하여 시간 추세를 제어합니다. 0/1 인디케이터 변수의 추정치와 SE는 꽤 직선적 인 위 / 아래 모멘트 방법을 사용하거나 R의 tlnise 패키지를 사용하여 "Bayesian"추정치를 얻습니다. 이것은 Peng 및 Dominici가 대기 오염 데이터를 사용하여 수행하는 것과 유사하지만 더 적은 수의 사이트 (약 12 개)를 사용합니다.

기술 2 : 시간별 추세에 대한 일부 사이트 별 제어를 포기하고 선형 혼합 모델을 사용하십시오. 특별히:

lmer(cases ~ indicator + (1+month+I(month^2) + offset(log(p)), family="poisson", data=data)

내 질문에는 이러한 추정치에서 나오는 표준 오류가 포함됩니다. 기법 1의 표준 오차는 실제로 매월 설정 한 시간이 아닌 주 단위를 사용하므로 정확도 가 높아야합니다.이 방법은 모멘트 방법의 경우 ~ 0.206, tlnise의 경우 ~ 0.306의 표준 오차를 갖습니다.

lmer 방법은 ~ 0.09의 표준 오류를 제공합니다. 효과 추정치가 합리적으로 가깝기 때문에 혼합 모형이 훨씬 더 효율적일 때 서로 다른 요약 추정치에서 제로화되는 것은 아닙니다.

기대하는 것이 합리적입니까? 그렇다면 왜 혼합 모델이 훨씬 더 효율적인가? 이것이 일반적인 현상입니까, 아니면이 모델의 특정 결과입니까?


이 질문은 당신의 기술 1에 어떤 모델이 맞는지 정확히 알지 못하고 대답하기가 어렵습니다. 그런 다음 "기술 1의 표준 오류 [...]는 ~ 0.206입니다."라고 말합니다. 정확히 어떤 모델이 표준 오차입니까? 기술 2와 마찬가지로이 모델을 피팅하는 데 사용한 구문을 게시 하시겠습니까? 두 모델 모두에 적합 할 수있는 재현 가능한 예제 (원본 데이터 세트 일 필요는 없음)를 제공하는 것이 더 좋습니다.
Jake Westfall

@JakeWestfall 당신이 맞습니다. 제가 이것을 처음 썼을 때 그것은 문제가 발전함에 따라 일종의 의식 문제였습니다. 몇 가지 편집 작업을 수행하고 더 도움이 될 수 있는지 확인하겠습니다. 불행히도, 코드는 어딘가에서 방황했습니다 ...
Fomite

약간의 정리를 완료했습니다. 모델 설계는 동일한 변수를 사용합니다. 불행히도 코드, 데이터 등이 다른 컴퓨터에 있으며 회의 중입니다. "여러 사이트 추정치 : 혼합 모델이 풀링보다 항상 / 종종 더 효율적입니까?"라는 근본 질문을 요약 할 수 있습니다.
Fomite

답변:


5

나는 이것이 오래된 질문이라는 것을 알고 있지만 비교적 인기가 있고 간단한 대답이 있기 때문에 앞으로 다른 사람들에게 도움이되기를 바랍니다. 좀 더 심도있게 살펴 보려면 여기 에서 게놈 전체 연관 연구의 맥락에서 모델을 조사하는 선형 혼합 모델에 대한 Christoph Lippert의 과정을 살펴 보십시오 . 특히 강의 5 참조 .

혼합 모형이 훨씬 더 잘 작동하는 이유는 제어하려는 대상, 즉 모집단 구조를 정확하게 고려하도록 설계 되었기 때문입니다. 연구의 "인구"는 예를 들어 동일한 프로토콜의 약간 다르지만 일관된 구현을 사용하는 다른 사이트입니다. 또한 연구 대상이 사람인 경우 다른 사이트에서 모인 사람들이 같은 사이트의 사람들보다 관련성이 적으므로 혈액 관련성도 중요한 역할을 할 수 있습니다.

N(Y|Xβ,σ2)KN(Y|Xβ+Zu,σ2I+σg2K)

모집단 구조를 명시 적으로 제어하려고하기 때문에 선형 혼합 모형이 다른 회귀 기술보다 성능이 우수하다는 것은 놀라운 일이 아닙니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.