«regression» 태그된 질문

하나 이상의 "종속"변수와 "독립"변수 간의 관계를 분석하는 기술.

2
레벨 당 1 개의 관측치가있는 혼합 모형
glmer비즈니스 데이터에 임의 효과 모델을 적용하고 있습니다. 목표는 지역별 변동을 고려하여 총판 별 판매 실적을 분석하는 것입니다. 다음과 같은 변수가 있습니다. distcode: 약 800 레벨의 총판 ID region: 최상위 지리 ID (북쪽, 남쪽, 동쪽, 서쪽) zone: 중간 수준 지리 내에 region약 30 개 수준이 중첩되어 있습니다. territory: zone약 150 단계 …

1
히든 마르코프 모델에서 "최상의"모델을 선택하기위한 기준
데이터의 잠재 상태 수를 추정하기 위해 HMM (Hidden Markov Model)에 맞추려고하는 시계열 데이터 세트가 있습니다. 이 작업을 수행하는 의사 코드는 다음과 같습니다. for( i in 2 : max_number_of_states ){ ... calculate HMM with i states ... optimal_number_of_states = "model with smallest BIC" ... } 이제 일반적인 회귀 모델에서 BIC는 가장 …

2
시계열과 회귀의 관계 및 차이점은 무엇입니까?
시계열과 회귀의 관계와 차이점은 무엇입니까? 들면 모델 가정 회귀 모델의 입력 변수의 다른 값에 대한 출력 변수 간의 독립성을 가정하는 시계열 모형은하지 않지만 그것은 정확? 다른 차이점은 무엇입니까? 방법 에 대해서는 Darlington의 웹 사이트 에서 시계열 분석에는 여러 가지 접근 방법이 있지만 가장 잘 알려진 두 가지 방법은 회귀 방법과 …

1
특정 대조 테스트 : 이것은 어려운 문제일까요?
나는 이것을 mathoverflow에 게시했지만 아무도 대답하지 않았다. 통계적으로 유의 한 대비를 식별하는 Scheffé의 방법 은 널리 알려져 있습니다. 대조 수단 중 , 의 인구 선형 조합 에있는 , 그리고 대비의 스칼라 배수는 본질적으로 동일한 대비이므로, 대비 세트가 투영 공간이라고 말할 수 있습니다. Scheffé의 방법 은 이러한 모집단 간의 모든 대비 …



3
상관 관계 또는 결정 계수가 회귀선을 따르는 값의 백분율과 관련이 있습니까?
상관 관계 은 두 변수 사이의 선형 연관성 척도입니다. 결정 계수 는 한 변수의 변수가 다른 변수의 "설명"에 의해 얼마나 설명 될 수 있는지를 측정 한 것입니다.r 2아르 자형rr아르 자형2r2r^2 예를 들어, 이 두 변수 사이의 상관 경우 입니다. 따라서 한 변수의 64 %가 다른 변수의 차이로 설명 될 수 …

1
R에서 반복 측정 값이있는 선형 회귀
반복 측정 설계를 위해 R에서 선형 회귀를 수행하는 방법을 알 수 없었습니다. A의 이전 질문 (아직 답) 그것은 사용하지 않는 나에게 제안 된 lm혼합 모델을 사용하지 않고 있지만. 나는 lm다음과 같은 방식으로 사용 했다 : lm.velocity_vs_Velocity_response <- lm(Velocity_response~Velocity*Subject, data=mydata) (데이터 세트에 대한 자세한 내용은 위의 링크에서 찾을 수 있습니다) 그러나 …

1
R-자유도에서 PROC Mixed과 lme / lmer의 차이점
참고 :이 질문은 법적 이유로 인해 이전 질문을 삭제해야했기 때문에 다시 게시되었습니다. SAS의 PROC MIXED를 R lme의 nlme패키지 기능과 비교하는 동안 다소 혼란스러운 차이점을 발견했습니다. 구체적으로는, 다른 시험에서 자유도간에 상이 PROC MIXED하고 lme, 그리고 왜 생각해. 다음 데이터 세트에서 시작하십시오 (아래 제공된 R 코드). ind : 측정 대상을 나타내는 계수 …
12 r  mixed-model  sas  degrees-of-freedom  pdf  unbiased-estimator  distance-functions  functional-data-analysis  hellinger  time-series  outliers  c++  relative-risk  absolute-risk  rare-events  regression  t-test  multiple-regression  survival  teaching  multiple-regression  regression  self-study  t-distribution  machine-learning  recommender-system  self-study  binomial  standard-deviation  data-visualization  r  predictive-models  pearson-r  spearman-rho  r  regression  modeling  r  categorical-data  data-visualization  ggplot2  many-categories  machine-learning  cross-validation  weka  microarray  variance  sampling  monte-carlo  regression  cross-validation  model-selection  feature-selection  elastic-net  distance-functions  information-theory  r  regression  mixed-model  random-effects-model  fixed-effects-model  dataset  data-mining 

1
회귀 모형에서 변수를 어떻게 선택합니까?
변수 선택에 대한 기존의 접근 방식은 새로운 반응을 예측하는 데 가장 크게 기여하는 변수를 찾는 것입니다. 최근에 나는 이것에 대한 대안을 배웠다. 예를 들어 제약의 임상 시험에서와 같이 치료 효과를 결정하는 모델링 변수에서 변수는 정 성적으로 상호 작용 한다고합니다.다른 것들을 고정시킨 채로 그 변수의 변화가 치료가 가장 효과적인 변화를 만들 …

2
로지스틱 회귀 계수 분석
다음은 로지스틱 회귀 계수 목록입니다 (첫 번째는 인터셉트입니다). -1059.61966694592 -1.23890500515482 -8.57185269220438 -7.50413155570413 0 1.03152408392552 1.19874787949191 -4.88083274930613 -5.77172565873336 -1.00610998453393 절편이 너무 낮아서 실제로 0과 같은 계수를 갖는 것이 이상하다는 것을 알았습니다. 나는 이것을 어떻게 해석 할 것인지 완전히 확신하지 못합니다. 0은 특정 변수가 모델에 전혀 영향을 미치지 않음을 나타 냅니까? 그러나 …

1
R의 부분 최소 제곱 회귀 : 표준화 된 데이터의 PLS가 상관을 최대화하는 것과 다른 이유는 무엇입니까?
나는 부분 최소 제곱 (PLS)에서 아주 새로운 오전 나는 R 함수의 출력을 이해하려고 노력 plsr()에서 pls패키지를. 데이터를 시뮬레이션하고 PLS를 실행하겠습니다 : library(pls) n <- 50 x1 <- rnorm(n); xx1 <- scale(x1) x2 <- rnorm(n); xx2 <- scale(x2) y <- x1 + x2 + rnorm(n,0,0.1); yy <- scale(y) p <- plsr(yy …

2
교차 검증 및 순서 형 로지스틱 회귀
순서 형 로지스틱 회귀 분석에 대한 교차 유효성 검사를 이해하려고합니다. 게임의 목표는 분석에 사용 된 모델의 유효성을 검사하는 것입니다. 먼저 장난감 데이터 세트를 구성합니다. set.seed(1) N <- 10000 # predictors x1 <- runif(N) x2 <- runif(N) x3 <- runif(N) # coeffs in the model a <- c(-2,-1) x <- -x1+2*x2+x3 …

1
로지스틱 회귀 분석을위한 Hosmer-Lemeshow vs AIC
Hosmer-Lemeshow가 적합하지 않음을 나타내지 만 모든 모델 중에서 AIC가 가장 낮다면 .... 여전히 모델을 사용해야합니까? 변수를 삭제하면 Hosmer-Lemeshow 통계량이 중요하지 않습니다 (즉, 총 적합치가 없음을 의미 함). 그러나 AIC는 증가합니다. 편집 : 일반적으로 다른 모델의 AIC가 서로 가깝다면 (즉 ) 기본적으로 동일하다고 생각합니다. 그러나 AIC는 매우 다릅니다. 이것은 Hosmer-Lemeshow 테스트가 …

2
선형 회귀 분석에서 t- 검정과 분산 분석의 차이점
선형 회귀 분석에서 t- 검정과 분산 분석의 차이점이 무엇인지 궁금합니다. t-test는 기울기와 절편 중 하나가 평균 0을 갖는지 테스트하는 반면 ANOVA는 모든 기울기가 평균 0을 갖는지 테스트합니까? 이것이 그들 사이의 유일한 차이점입니까? 단순한 선형 회귀 분석에서, 즉 예측 변수가 하나만있는 경우 추정 할 기울기는 하나뿐입니다. 그렇다면 t- 검정과 분산 분석은 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.