정렬 된 로지스틱 회귀 분석에서 음의 계수


17

우리는 순서 응답이 가정 변수의 집합 X : = [ X 1 , X 2 , X 3 ] 우리가 생각하는 것을 설명 할 것이다 Y를 . 그런 다음 y 에 대해 X (디자인 행렬) 의 순서화 된 로지스틱 회귀 분석을 수행합니다.y:{Bad, Neutral, Good}{1,2,3}X:=[x1,x2,x3]yXy (응답) .

의 추정 계수 가정 , 그것은 호출 β (1) (가) 회귀가 주문에 - 0.5 . e - 0.5 = 0.607 의 승산 비 (OR)를 어떻게 해석 합니까?x1β^10.5e0.5=0.607

에서 1 개 단위 증가 I "는 말을합니까 , 관찰의 가능성 paribus을 다른 조건 좋은이 있습니다 0.607 관찰 배 확률 나쁜 ∪가 중립이 , 그리고에서 같은 변화를 X 1 , 관찰의 가능성 중립 좋은이 있습니다 0.607을 배가 나쁜 것을 관찰 할 확률x1Good0.607BadNeutralx1NeutralGood0.607Bad " " ?

교과서 나 Google에서 음의 계수 해석에 대한 예를 찾을 수 없습니다.


2
네 맞습니다. 양의 계수를 해석하는 방법과 거의 동일합니다.
Peter Flom-Monica Monica 복원

2
주의 : 일반적으로 우리는 "회귀의 말을 에서 X "다른 방법은 주위를. yX
gung-모니 티 복원

답변:


25

올바른 길을 가고 있지만 항상 어떤 모델이 실제로 적합한 지 확인하기 위해 사용중인 소프트웨어의 설명서를 살펴보십시오. 순서화 된 카테고리 1 , , g , , k 및 예측 변수 X 1 , , X j , , X p 를 갖는 범주 형 종속 변수 가 있는 상황을 가정하십시오 .Y1,,g,,kX1,,Xj,,Xp

"와일드 (wild)"에서는 다른 암시 적 매개 변수 의미를 가진 이론적 비례 홀수 모델을 작성하기위한 세 가지 동등한 선택이 발생할 수 있습니다.

  1. logit(p(Yg))=lnp(Yg)p(Y>g)=β0g+β1X1++βpXp(g=1,,k1)
  2. logit(p(Yg))=lnp(Yg)p(Y>g)=β0g(β1X1++βpXp)(g=1,,k1)
  3. logit(p(Yg))=lnp(Yg)p(Y<g)=β0g+β1X1++βpXp(g=2,,k)

(Models 1 and 2 have the restriction that in the k1 separate binary logistic regressions, the βj do not vary with g, and β01<<β0g<<β0k1, model 3 has the same restriction about the βj, and requires that β02>>β0g>>β0k)

  • βjXjY
  • βjXjY
  • β0gβj
  • βjβ0g 에는 반대 부호가 있습니다.

X1Y=Good' vs. observing 'Y=Neutral OR Bad' change by a factor of eβ^1=0.607.", and likewise "with a 1 unit increase in X1, ceteris paribus, the predicted odds of observing 'Y=Good OR Neutral' vs. observing 'Y=Bad' change by a factor of eβ^1=0.607." Note that in the empirical case, we only have the predicted odds, not the actual ones.

Here are some additional illustrations for model 1 with k=4 categories. First, the assumption of a linear model for the cumulative logits with proportional odds. Second, the implied probabilities of observing at most category g. The probabilities follow logistic functions with the same shape. enter image description here

For the category probabilities themselves, the depicted model implies the following ordered functions: enter image description here

P.S. To my knowledge, model 2 is used in SPSS as well as in R functions MASS::polr() and ordinal::clm(). Model 3 is used in R functions rms::lrm() and VGAM::vglm(). Unfortunately, I don't know about SAS and Stata.


@Harokitty The binary logistic regression model has no error term like the linear regression model. Note that we're modeling a probability, not the dependent variable itself. The assumption about an error distribution for Y has to be specified separately, e.g., in R with glm(..., family=binomial).
caracal

Do you have a reference that deals with the way of expressing specification #2 in your list of 3 alternatives?

1
@Harokitty It's briefly described in Agresti's "Analysis of Ordinal Categorical Data", section 3.2.2, p49, equation 3.8. Alternatively in Agresti's "Categorical Data Analysis", section 9.4, p323, equation 9.12.
caracal

Hi, sorry to bother you, do you have a reference for the 3rd one? Agresti doesn't seem to talk about that.

2
@Jase Well, Agresti just uses logit(Y>g) in the section linked above. For logit(Yg), see Harrell's "Regression Modeling Strategies", section 13.3.1, p333, eqn 13.4.
caracal
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.