"패밀리 효과"와 "항목 효과"를 얻으려면이 둘 모두에 대해 임의의 인터셉트가 있다고 생각한 다음 'lme4'패키지를 사용하여 모델링하십시오.
그러나 먼저 각 형제 자매에게 가족 내 고유 ID가 아닌 고유 ID를 부여해야합니다 .
그런 다음 "동일한 제품군 내에서 서로 다른 항목에 대해 측정 한 형제들 사이의 상관 관계 "에 대해 다음과 같이 지정할 수 있습니다.
mod<-lmer(value ~ (1|family)+(1|item), data=family)
이렇게하면 모든 형제 자매에 대해 고정 효과 차단을 제공 한 다음 가족과 항목에 대해 두 가지 임의 효과 차단 (분산 포함)을 제공합니다.
그런 다음 " 동일한 항목에 대해 동일한 제품군 내에서 형제에 대해 측정 한 측정 값 간의 상관 관계"에 대해 동일한 작업을 수행 할 수 있지만 데이터의 하위 집합 만 설정하면 다음과 같은 결과가 나타납니다.
mod2<-lmer(value ~ (1|family), data=subset(family,item=="1"))
나는 이것이 당신의 질문에 더 쉬운 접근법 일 것이라고 생각합니다. 그러나 항목 또는 제품군에 대한 ICC 만 원한다면 'psych'패키지에는 ICC () 함수가 있습니다. 예제 데이터에서 항목과 값이 어떻게 녹아 있는지주의해야합니다.
최신 정보
아래 중 일부는 나에게 새로운 것이지만 나는 그것을 해결하는 것을 즐겼습니다. 나는 부정적 인 클래스 상관 관계에 대한 아이디어에 익숙하지 않습니다. Wikipedia에서“초기 ICC 정의”가 쌍을 이룬 데이터와 음의 상관 관계를 허용했음을 알 수 있습니다. 그러나 현재 가장 일반적으로 사용되는 ICC는 그룹 간 분산 인 총 분산의 비율로 이해됩니다. 그리고이 가치는 항상 양수입니다. Wikipedia가 가장 권위있는 참고 자료는 아니지만이 요약은 ICC가 항상 사용되는 방식과 일치합니다.
이 ANOVA 프레임 워크의 장점은 다른 그룹이 다른 수의 데이터 값을 가질 수 있다는 점입니다. 이는 이전 ICC 통계를 사용하여 처리하기가 어렵습니다. 또한이 ICC는 항상 음이 아니므로 "그룹 간"총 분산의 비율로 해석 할 수 있습니다. 이 ICC는 공변량 효과를 허용하도록 일반화 될 수 있으며,이 경우 ICC는 공변량 조정 된 데이터 값의 클래스 내 유사성을 캡처하는 것으로 해석됩니다.
즉, 여기에 나와있는 데이터를 사용하면 항목 1, 2 및 3 사이의 클래스 간 상관 관계가 매우 부정적 일 수 있습니다. 그리고 우리는 이것을 모델링 할 수 있지만 그룹간에 설명 된 분산의 비율은 여전히 긍정적입니다.
# load our data and lme4
library(lme4)
## Loading required package: Matrix
dat<-read.table("http://www.wvbauer.com/fam_sib_item.dat", header=TRUE)
따라서 항목 그룹 간의 그룹 분산도 제어하면서 제품군 간의 분산 비율은 몇 퍼센트 입니까? 제안한대로 임의의 요격 모델을 사용할 수 있습니다.
mod<-lmer(yijk ~ (1|family)+(1|item), data=dat)
summary(mod)
## Linear mixed model fit by REML ['lmerMod']
## Formula: yijk ~ (1 | family) + (1 | item)
## Data: dat
##
## REML criterion at convergence: 4392.3
##
## Scaled residuals:
## Min 1Q Median 3Q Max
## -3.6832 -0.6316 0.0015 0.6038 3.9801
##
## Random effects:
## Groups Name Variance Std.Dev.
## family (Intercept) 0.3415 0.5843
## item (Intercept) 0.8767 0.9363
## Residual 4.2730 2.0671
## Number of obs: 1008, groups: family, 100; item, 3
##
## Fixed effects:
## Estimate Std. Error t value
## (Intercept) 2.927 0.548 5.342
우리는 두 개의 랜덤 효과 절편과 잔차에서 분산을 얻어 ICC를 계산합니다. 그런 다음 모든 분산의 제곱의 합에 대한 가족 분산의 제곱을 계산합니다.
temp<-as.data.frame(VarCorr(mod))$vcov
temp.family<-(temp[1]^2)/(temp[1]^2+temp[2]^2+temp[3]^2)
temp.family
## [1] 0.006090281
그런 다음 다른 두 분산 추정치에 대해서도 동일한 작업을 수행 할 수 있습니다.
# variance between item-groups
temp.items<-(temp[2]^2)/(temp[1]^2+temp[2]^2+temp[3]^2)
temp.items
## [1] 0.04015039
# variance unexplained by groups
temp.resid<-(temp[3]^2)/(temp[1]^2+temp[2]^2+temp[3]^2)
temp.resid
## [1] 0.9537593
# clearly then, these will sum to 1
temp.family+temp.items+temp.resid
## [1] 1
이러한 결과는 총 분산 중 거의 차이가 제품군 간 또는 항목 그룹 간 분산으로 설명됨을 나타냅니다. 그러나 위에서 언급했듯이 항목 간 클래스 간 상관 관계 는 여전히 음수 일 수 있습니다. 먼저 데이터를 더 넓은 형식으로 가져 오겠습니다.
# not elegant but does the trick
dat2<-cbind(subset(dat,item==1),subset(dat,item==2)[,1],subset(dat,item==3)[,1])
names(dat2)<-c("item1","family","sibling","item","item2","item3")
이제 예를 들어 item1과 item3 사이의 상관 관계를 이전과 같이 패밀리에 대한 임의의 절편으로 모델링 할 수 있습니다. 그러나 먼저 간단한 선형 회귀 분석의 경우 모델의 r 제곱의 제곱근은 항목 1 및 항목 2의 클래스 간 상관 계수 (피어슨의 r)와 동일하다는 사실을 상기 할 가치가 있습니다.
# a simple linear regression
mod2<-lm(item1~item3,data=dat2)
# extract pearson's r
sqrt(summary(mod2)$r.squared)
## [1] 0.6819125
# check this
cor(dat2$item1,dat2$item3)
## [1] 0.6819125
# yep, equal
# now, add random intercept to the model
mod3<-lmer(item1 ~ item3 + (1|family), data=dat2)
summary(mod3)
## Linear mixed model fit by REML ['lmerMod']
## Formula: item1 ~ item3 + (1 | family)
## Data: dat2
##
## REML criterion at convergence: 1188.8
##
## Scaled residuals:
## Min 1Q Median 3Q Max
## -2.3148 -0.5348 -0.0136 0.5724 3.2589
##
## Random effects:
## Groups Name Variance Std.Dev.
## family (Intercept) 0.686 0.8283
## Residual 1.519 1.2323
## Number of obs: 336, groups: family, 100
##
## Fixed effects:
## Estimate Std. Error t value
## (Intercept) -0.07777 0.15277 -0.509
## item3 0.52337 0.02775 18.863
##
## Correlation of Fixed Effects:
## (Intr)
## item3 -0.699
item1과 item3 사이의 관계는 양수입니다. 그러나 여기에서 음의 상관 관계를 얻을 수 있는지 확인하기 위해 데이터를 조작 해 보겠습니다.
# just going to multiply one column by -1
# to force this cor to be negative
dat2$neg.item3<-dat2$item3*-1
cor(dat2$item1, dat2$neg.item3)
## [1] -0.6819125
# now we have a negative relationship
# replace item3 with this manipulated value
mod4<-lmer(item1 ~ neg.item3 + (1|family), data=dat2)
summary(mod4)
## Linear mixed model fit by REML ['lmerMod']
## Formula: item1 ~ neg.item3 + (1 | family)
## Data: dat2
##
## REML criterion at convergence: 1188.8
##
## Scaled residuals:
## Min 1Q Median 3Q Max
## -2.3148 -0.5348 -0.0136 0.5724 3.2589
##
## Random effects:
## Groups Name Variance Std.Dev.
## family (Intercept) 0.686 0.8283
## Residual 1.519 1.2323
## Number of obs: 336, groups: family, 100
##
## Fixed effects:
## Estimate Std. Error t value
## (Intercept) -0.07777 0.15277 -0.509
## neg.item3 -0.52337 0.02775 -18.863
##
## Correlation of Fixed Effects:
## (Intr)
## neg.item3 0.699
따라서 항목 간의 관계는 부정적 일 수 있습니다. 그러나 우리가이 관계에서 가족들 사이의 분산 비율, 즉 ICC (가족)을 살펴보면 그 수는 여전히 양수입니다. 이전과:
temp2<-as.data.frame(VarCorr(mod4))$vcov
(temp2[1]^2)/(temp2[1]^2+temp2[2]^2)
## [1] 0.1694989
따라서 item1과 item3의 관계에서이 차이의 약 17 %는 가족 간의 차이로 인한 것입니다. 그리고 우리는 여전히 항목들 사이에 부정적인 상관 관계가 존재하도록 허용했습니다.