«predictor» 태그된 질문

반응을 예측하기 위해 모델에서 사용되는 변수를 나타냅니다. 이 태그는 예측 모델링뿐만 아니라 설명 및 설명 모델링의 변수 에도 사용할 수 있습니다 . 이 동일한 구조는 독립 변수, 설명 변수, 회귀 변수, 공변량 등을 포함하여 서로 다른 컨텍스트에서 여러 이름으로 사용됩니다.이 태그는 이러한 동의어 용어에 사용할 수 있습니다. 엑스

1
올가미에 대한 LARS 대 좌표 하강
L1 정규 선형 회귀 피팅에 LARS [1] 사용과 좌표 하강 사용의 장단점은 무엇입니까? 나는 주로 퍼포먼스 측면에 관심이있다 (내 문제는 N수십만에서 p20 이하인 경향이있다 ). 그러나 다른 통찰력도 인정 될 것이다. 편집 : 내가 질문을 게시 한 후 chl은 Friedman 등의 논문 [2]에 좌표 하강이 다른 방법보다 상당히 빠른 것으로 …

2
일별, 주별 및 연간 주기로 시간별 시계열 예측
주요 편집 : 지금까지 그들의 답변에 대해 Dave & Nick에게 큰 감사를 표하고 싶습니다. 좋은 소식은 내가 일할 루프가 있다는 것입니다 (배치 예측에 대한 Hydnman 교수의 게시물에서 빌린 원칙). 미해결 쿼리를 통합하려면 다음을 수행하십시오. a) auto.arima의 최대 반복 횟수를 늘리는 방법-많은 외인성 변수를 사용하면 auto.arima가 최종 모델에 수렴하기 전에 최대 …


2
상관 관계를 개선하기 위해 데이터 집합에 평균을 사용할 수 있습니까?
종속적이고 독립적 인 변수가있는 데이터 세트가 있습니다. 둘 다 시계열이 아닙니다. 120 개의 관측치가 있습니다. 상관 계수는 0.43입니다 이 계산 후, 12 개의 관측치마다 평균을 갖는 두 변수에 대한 열을 추가하여 108 개의 관측치 (쌍)를 갖는 2 개의 새로운 열을 생성했습니다. 이 열의 상관 계수는 0.77입니다. 이런 식으로 상관 관계가 …

1
백분위 수를 예측 변수로 사용-좋은 생각입니까?
선형 회귀를 사용하여 고객의 로그 (지출)를 예측하는 문제에 대해 생각하고 있습니다. 입력으로 사용할 기능을 고려하고 변수의 백분위 수를 입력으로 사용할 수 있는지 궁금합니다. 예를 들어 회사 수입을 입력으로 사용할 수 있습니다. 내가 궁금한 것은 회사 매출 백분위 수를 대신 사용할 수 있는지 여부입니다. 또 다른 예는 범주 형 산업 분류기 …

2
데이터에 대한 ROC 곡선 계산
그래서, 나는 16 개의 시험을 가지고 있는데, 여기에서 Hamming Distance를 사용하여 생체 특성으로부터 사람을 인증하려고합니다. 임계 값이 3.5로 설정되었습니다. 내 데이터는 다음과 같으며 1 번 시험 만 참 긍정입니다. Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 7 0.47 8 0.32 9 0.39 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.