«penalized» 태그된 질문

3
상호 작용 항이있는 LASSO-주요 효과가 0으로 줄어든다면 괜찮습니까?
LASSO 회귀는 계수를 0으로 축소하여 효과적으로 모델 선택을 제공합니다. 내 데이터에는 공칭 및 연속 공변량 사이에 의미있는 상호 작용이 있다고 생각합니다. 그러나 반드시 진정한 모델의 '주요 효과'가 의미가있는 것은 아닙니다 (0이 아님). 물론 나는 진정한 모델을 알 수 없기 때문에 이것을 모른다. 저의 목표는 실제 모델을 찾고 가능한 한 밀접하게 …

2
올가미 회귀의 제한되지 않은 제형에 대한 KKT
L1 불이익 회귀 (일명 올가미)는 두 가지 제형으로 제공됩니다. 두 목적 함수를 그런 다음 두 가지 다른 공식은 은 및 KKT (Karush-Kuhn-Tucker) 조건을 사용하면 첫 번째 공식의 정상 상태가 두 번째 공식의 기울기를 가져 와서 0으로 설정하는 것과 어떻게 동등한 지 쉽게 알 수 있습니다. , 첫 번째 공식에 대한 …

1
벌점 형 회귀 분석에서 수축 매개 변수에 대해 가능한 가능한 값 범위는 무엇입니까?
올가미 또는 릿지 회귀에서는 종종 또는 α로 불리는 수축 매개 변수를 지정해야합니다 . 이 값은 종종 훈련 데이터에서 여러 가지 다른 값을 확인하고 테스트 데이터에서 어떤 R 2 가 가장 좋은지 확인함으로써 교차 검증을 통해 선택됩니다 . 확인해야 할 값의 범위는 무엇입니까? 그것은이다 ( 0 , 1 ) ?λλ\lambdaαα\alpha아르 자형2아르 …


1
베이지안 스파이크 및 슬래브 대 벌점 법
BSTS R 패키지에 대한 Steven Scott의 슬라이드를 읽고 있습니다 (여기에서 찾을 수 있습니다 : 슬라이드 ). 어떤 시점에서, 구조 시계열 모델에 많은 회귀자를 포함하는 것에 대해 이야기 할 때 회귀 계수의 스파이크 및 슬래브 사전을 소개하고 처벌 된 방법에 비해 더 우수하다고 말합니다. Scott은 100 개의 예측 변수가있는 데이터 세트의 …

2
축소가 영리한 방식으로 적용되는 경우 더 효율적인 추정기에서 항상 더 잘 작동합니까?
I 두 추정기 있다고 가정 과 같은 파라미터의 일관성 추정기 것을 그러한 저 와 의 PSD 감각. 따라서 은 보다 효율적 입니다. 이 두 추정기는 서로 다른 손실 함수를 기반으로합니다. β 2β0√βˆ1β^1\widehat{\beta}_1βˆ2β^2\widehat{\beta}_2β0β0\beta_0V1≤V2 β 1 β 2엔−−√( βˆ1− β0) →디엔( 0 , V1) ,엔−−√( βˆ2− β0) →디엔( 0 , V2)n(β^1−β0)→dN(0,V1),n(β^2−β0)→dN(0,V2)\sqrt{n}(\widehat{\beta}_1 -\beta_0) …

2
회귀 분석에서 B- 스플라인 VS 고차 다항식
구체적인 예나 과제가 없습니다. b- 스플라인 사용에 익숙하지 않아서 회귀 컨텍스트에서이 기능을 더 잘 이해하고 싶었습니다. 반응 변수 와 일부 예측 변수 의 관계를 평가한다고 가정합니다 . 예측 변수에는 몇 가지 숫자 변수와 범주 형 변수가 포함됩니다.yyyx1,x2,...,xpx1,x2,...,xpx_1, x_2,...,x_p 회귀 모델을 피팅 한 후 과 같은 숫자 변수 중 하나 가 …

1
상호 배타적이지 않은 카테고리를 분류 할 수있는 딥 러닝 모델
예 : 직업 설명에 "영국의 Java Senior Engineer"문장이 있습니다. 나는 2 개 종류로 예측하는 깊은 학습 모델을 사용하려면 : English 와 IT jobs. 기존 분류 모델을 사용하는 경우 softmax마지막 레이어에서 함수가있는 레이블 하나만 예측할 수 있습니다 . 따라서 두 모델 신경망을 사용하여 두 범주 모두에서 "예"/ "아니오"를 예측할 수 있지만 …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

1
glmnet은 과대 산포를 어떻게 처리합니까?
카운트 데이터를 통해 텍스트를 모델링하는 방법, 특히 lasso기법을 사용하여 기능을 줄이는 방법에 대한 질문이 있습니다. 온라인 기사가 N 개 있고 각 기사에 대한 페이지 뷰 수가 있다고 가정합니다. 각 기사마다 1 그램과 2 그램을 추출했으며 1,2 그램에 대해 회귀 분석을 원했습니다. 피처 (1,2 그램)는 관측치보다 훨씬 많으므로 올가미는 피처 수를 …
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.