«regression» 태그된 질문

하나 이상의 "종속"변수와 "독립"변수 간의 관계를 분석하는 기술.

1
통제와 치료의 차이를 명시 적 또는 암시 적으로 모델링해야합니까?
다음과 같은 실험 설정이 제공됩니다. 피험자로부터 여러 샘플을 채취하고 각 샘플을 여러 방법으로 처리합니다 (대조 치료 포함). 가장 흥미로운 점은 대조군과 각 치료법의 차이입니다. 이 데이터에 대한 두 가지 간단한 모델을 생각할 수 있습니다. 샘플 , 처리 , 처리 0이 제어 인 경우 데이터로, 를 샘플 의 기준선으로 , 를 …

1
조건부 이분산성을 갖는 선형 모델의 추론
독립 변수 벡터 및 및 종속 변수 관찰한다고 가정 해 봅시다 . I는 형태의 모델에 맞게하고자 : 여기서 는 양의 값을 두 배로 구분할 수있는 함수이고, 는 알 수없는 스케일링 매개 변수이며, 은 평균이 0 인 단위 분산 가우스 랜덤 변수입니다 ( 독립적 인 것으로 가정) 및 ). 이것은 본질적으로 …

2
LARS에서 찾은 모델이 전체 검색에서 찾은 모델과 가장 다른 설정은 무엇입니까?
조금 더 많은 정보; 한다고 가정 선택할 변수 수와 LARS 절차에서 계수가 0이 아닌 변수를 정확히 갖는 것과 같은 복잡성 패널티를 미리 설정 한 경우, 계산 비용은 문제가되지 않습니다 (총 변수 수는 작습니다 (예 : 50)). 모든 변수 (y, x)는 연속적입니다. LARS 모델 (즉, LARS 피팅에서 0이 아닌 계수를 갖는 …

2
회귀 계수가 그룹화 변수에 의해 완화되는지 여부를 테스트하는 방법은 무엇입니까?
중재 변수 (예 : 성별)를 기준으로 두 그룹의 표본에 대해 회귀 분석을 수행했습니다. 한 세트에서 회귀의 유의성이 손실되고 다른 세트에는 남아 있는지 여부를 확인하여 중재 효과에 대한 간단한 테스트를 수행하고 있습니다. Q1 : 위의 방법이 유효합니까? Q2 : 제 연구의 신뢰 수준은 95 %로 설정되었습니다. 한 그룹의 경우 회귀는 .000에서 …


1
다변량 직교 다항식 회귀?
질문에 동기를 부여하는 수단으로, 우리가 추정하려고하는 등록 문제를 고려하십시오 와이와이Y 관측 변수 사용 { a , b }{ㅏ,비}\{ a, b \} 다변량 다항식 등록을 수행 할 때 함수의 최적의 편집을 찾으려고 노력합니다. 에프( y) =씨1a +씨2b +씨삼ㅏ2+씨4a b +씨5비2+ ⋯에프(와이)=씨1ㅏ+씨2비+씨삼ㅏ2+씨4ㅏ비+씨5비2+⋯f(y)=c_{1}a+c_{2}b+c_{3}a^{2}+c_{4}ab+c_{5}b^{2}+\cdots 최소 제곱으로 데이터에 가장 적합합니다. 그러나 이것의 문제는 매개 변수가 …

1
포아송 / 로그 선형 모형의 우도 비 검정을 위해 제로 카운트를 조정해야합니까?
우연성 표에 0이 glm있고 우도 비율 검정에 중첩 포아송 / 로그 선형 모형 (R의 함수 사용)을 피팅하는 경우 glm 모형을 피팅하기 전에 데이터를 조정해야합니다 (예 : 모두에 1/2 추가) 카운트)? 조정 없이는 일부 파라미터를 추정 할 수 없지만 조정 / 조정 부족이 LR 테스트에 어떤 영향을 줍니까?

4
변수 순서가 선형 회귀에서 중요합니까?
두 변수 ( 과 ) 사이의 상호 작용을 조사 하고 있습니다. 와 이러한 변수 사이에는 많은 선형 상관 관계가 있습니다. 문제의 본질에서 인과 관계에 대해 아무 말도 할 수 없습니다 ( 이 유발 하는지 또는 다른 방법으로). 특이 치를 탐지하기 위해 회귀선과의 편차를 연구하고 싶습니다. 이를 위해 의 함수로 의 …

1
기능 선택을위한 랜덤 순열 테스트
로지스틱 회귀 컨텍스트에서 기능 선택에 대한 순열 분석에 대해 혼란스러워합니다. 랜덤 순열 테스트에 대한 명확한 설명을 제공하고이 기능이 기능 선택에 어떻게 적용됩니까? 정확한 알고리즘과 예제가있을 수 있습니다. 마지막으로 올가미 또는 LAR과 같은 다른 수축 방법과 어떻게 비교됩니까?

4
선형 회귀 계수 추정에 대한 분석 솔루션
행렬 표기법을 이해하고 벡터 및 행렬로 작업하려고합니다. 지금 은 다중 회귀 분석에서 계수 추정값 벡터가 어떻게 계산되는지 이해하고 싶습니다 .β^β^\hat{\beta} 기본 방정식은 ddβ(y−Xβ)′(y−Xβ)=0.ddβ(y−Xβ)′(y−Xβ)=0. \frac{d}{d\boldsymbol{\beta}} (\boldsymbol{y}-\boldsymbol{X\beta})'(\boldsymbol{y}-\boldsymbol{X\beta}) = 0 \>. 이제 여기서 벡터 \ beta 를 어떻게 해결할 수 ββ\beta있습니까? 편집 : 잠깐 만요. 나는 지금 여기 있고 계속하는 방법을 모른다 : …

1
부분 결정 계수의 R 구현
부분 결정 계수를 계산할 제안이나 패키지가 있습니까? 부분 결정 계수는 축소 모형에서는 설명 할 수 없지만 전체 모형에 지정된 예측 변수로 설명 할 수있는 변동 백분율로 정의 할 수 있습니다. 이 계수는 하나 이상의 추가 예측 변수가보다 완전하게 지정된 회귀 모형에 유용 할 수 있는지에 대한 통찰력을 제공하는 데 사용됩니다. …
9 r  regression  anova 

1
최소 각도 회귀는 상관 관계를 단조롭게 감소시키고 묶는 것을 유지합니까?
최소 각도 회귀 (LAR)에 대한 문제를 해결하려고합니다. 이 문제가 3.23 페이지 (97) 의 Hastie 등., 통계 학습의 요소, 2. 에드. (5 번째 인쇄) . 모든 변수와 반응의 평균이 0이고 표준 편차가 1 인 회귀 문제를 고려하십시오. 각 변수가 반응과 동일한 절대 상관 관계를 가지고 있다고 가정하십시오. 1엔| ⟨엑스제이, Y ⟩ …

1
특이 값 분해를 사용하여 선형 회귀 모형에서 분산 공분산 행렬 계산
p 회귀 분석기, n 개의 관측치의 설계 행렬이 있고 모수의 표본 분산 공분산 행렬을 계산하려고합니다. svd를 사용하여 직접 계산하려고합니다. 난 설계 행렬의 SVD를 취할 때,이 세 성분을 얻을 R을 사용하고 : 행렬 이다 , 행렬 인 (아마도 고유 값)와, 행렬 인 . 나는 대각선 으로 만들어서 대각선 이 0 인 …
9 r  regression 

4
Tobit 회귀 모델을 적용하기위한 가정은 무엇입니까?
Tobit 회귀 모델에 대한 나의 (매우 기본적인) 지식은 내가 선호하는 것처럼 수업이 아닙니다. 대신, 여러 인터넷 검색을 통해 여기저기서 정보를 수집했습니다. 잘린 회귀에 대한 가정에 대한 최선의 추측은 그것들이 보통 최소 제곱 (OLS) 가정과 매우 유사하다는 것입니다. 그래도 그것이 맞는지 전혀 모른다. 따라서 내 질문 : Tobit 회귀를 수행 할 …

2
데이터에 대한 ROC 곡선 계산
그래서, 나는 16 개의 시험을 가지고 있는데, 여기에서 Hamming Distance를 사용하여 생체 특성으로부터 사람을 인증하려고합니다. 임계 값이 3.5로 설정되었습니다. 내 데이터는 다음과 같으며 1 번 시험 만 참 긍정입니다. Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 7 0.47 8 0.32 9 0.39 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.