«hyperparameter» 태그된 질문

통계 모델 (또는 데이터 생성 프로세스)을위한 것이 아니라 통계 방법을위한 매개 변수입니다. 사전 분포, 평활화, 정규화 방법의 페널티 또는 최적화 알고리즘에 대한 매개 변수가 될 수 있습니다.

3
예 : 이진 결과에 glmnet을 사용하는 LASSO 회귀
관심있는 결과가 이분법 인 LASSO Regressionglmnet 과 함께 사용하기 시작했습니다 . 아래에 작은 모의 데이터 프레임을 만들었습니다. age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, 0.85, 0.67, 0.91, 0.29, 0.88) …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 

5
실제 하이퍼 파라미터 최적화 : 랜덤 대 그리드 검색
저자는 현재 Bengio와 Bergsta의 Hyper-Parameter Optimization에 대한 Random Search [1]를 진행하고 있는데, 여기서 저자는 거의 동일한 성능을 달성하는 데있어 그리드 검색보다 랜덤 검색이 더 효율적이라고 주장합니다. 내 질문은 : 여기 사람들이 그 주장에 동의합니까? 내 작품에서 나는 무작위 검색을 쉽게 수행 할 수있는 도구가 없기 때문에 그리드 검색을 주로 사용했습니다. …

3
딥 러닝에서 하이퍼 파라미터 선택 지침
스택 형 자동 인코더 또는 딥 믿기 네트워크와 같은 딥 아키텍처의 하이퍼 파라미터를 선택하는 방법에 대한 지침을 제공하는 데 도움이되는 논문을 찾고 있습니다. 하이퍼 파라미터가 많고 선택하는 방법이 매우 혼란 스럽습니다. 또한 훈련에 많은 시간이 걸리기 때문에 교차 유효성 검사를 사용하는 것도 옵션이 아닙니다!


3
Adam Optimizer가 하이퍼 매개 변수의 값에 대해 강력한 것으로 간주되는 이유는 무엇입니까?
저는 Deep Learning 의 Adam 최적화 프로그램에 대해 읽었으며 Bengio, Goodfellow 및 Courville 의 새 책 Deep Learning 에서 다음 문장 을 보았습니다. Adam은 일반적으로 학습 매개 변수를 제안 된 기본값에서 변경해야하지만 하이퍼 매개 변수를 선택하는 데 상당히 강력한 것으로 간주됩니다. 이것이 사실이라면 하이퍼 파라미터 검색은 딥 러닝 시스템의 통계 …

2
LDA 하이퍼 파라미터에 대한 자연 해석
누군가 LDA 하이퍼 파라미터에 대한 자연 해석이 무엇인지 설명 할 수 있습니까? ALPHA그리고 BETA(문서 당) 주제 및 (주제 당) 단어 분포에 대한 디리클레 분포의 매개 변수입니다. 그러나 누군가이 하이퍼 매개 변수의 값을 더 작게 선택하는 것이 무엇을 의미하는지 설명 할 수 있습니까? 그것은 문서의 주제 희소성 및 주제의 상호 배타성에 …

4
교차 검증 외부에서 하이퍼 파라미터 튜닝이 얼마나 나쁩니 까?
크로스 밸리데이션 외부에서 하이퍼 파라미터 튜닝을 수행하면 성능을 측정하는 데 사용하는 데이터 세트가 기능을 튜닝하는 데 사용한 것과 동일하므로 바이어스 유효성이 높은 외부 유효성 추정치가 발생할 수 있습니다. 내가 궁금한 것은 이것이 얼마나 나쁜 문제인지 입니다. 튜닝 할 매개 변수가 매우 많기 때문에 기능 선택이 실제로 얼마나 나쁜지 이해할 수 …

1
중첩 교차 검증 후 최종 모델을 작성하고 확률 임계 값을 조정하는 방법은 무엇입니까?
먼저, 여기 , 여기 , 여기 , 여기 , 여기 에서 이미 오랫동안 논의 된 질문을 게시 한 것에 대해 사과드립니다이전 주제를 재가열합니다. 나는 @DikranMarsupial 이이 주제에 대해 게시물과 저널 논문에 길게 쓴 것을 알고 있지만 여전히 혼란스럽고 비슷한 게시물 수를 판단하면 다른 사람들이 이해하기 어려워합니다. 또한 혼란에 추가 한이 …

5
이름에있는 것 : 하이퍼 파라미터
정규 분포에는 mean 와 variance 두 매개 변수가 있습니다 . Pattern Recognition and Machine Learning 서적에서 갑자기 오류 함수의 정규화 용어에 하이퍼 파라미터 가 나타납니다 .μμ\muσ2σ2\sigma^2λλ\lambda 하이퍼 파라미터 란 무엇입니까? 왜 그렇게 지명 되었습니까? 그리고 그것들은 일반적으로 매개 변수와 직관적으로 어떻게 다른가요?

6
데이터 세트 샘플의 하이퍼 파라미터 튜닝이 나쁜 생각입니까?
이진 분류 (SVM, 로지스틱 회귀, 랜덤 포레스트 등)를위한 여러 분류기를 훈련하는 140000 개의 예와 30 개의 기능에 대한 데이터 세트가 있습니다. 많은 경우에 그리드 또는 랜덤 검색을 사용하는 전체 데이터 세트에 대한 하이퍼 파라미터 튜닝은 시간이 너무 많이 걸립니다. 나는 다음 기술을 사용하기 시작했다 하위 샘플 내 데이터 세트 획득 …

2
하이퍼 파라미터 튜닝을위한 베이지안 최적화에 비해 입자 떼 최적화의 장점은 무엇입니까?
ML 하이퍼 파라미터를 튜닝하기위한 베이지안 최적화 (1)에 대한 실질적인 현대 연구가 있습니다 . 여기서의 동기 부여는 모델 교육에 시간이 많이 걸리기 때문에 약간의 노력이 필요하기 때문에 (객관적인 함수 호출이 비싸므로 더 적은 것을 만드는 것이 좋습니다) 어떤 정보를 선택해야하는지에 대한 최소한의 데이터 포인트가 필요하다는 것입니다. 내가 작업 한 큰 SVM …

3
중첩 교차 검증에서 하이퍼 파라미터를 얻는 방법은 무엇입니까?
중첩 교차 유효성 검사에 대한 다음 게시물을 읽었으며 여전히 중첩 교차 유효성 검사를 사용하여 모델 선택과 관련하여 100 % 확실하지 않습니다. 모델 선택을위한 중첩 교차 검증 모델 선택 및 교차 검증 : 올바른 방법 혼란을 설명하기 위해 중첩 교차 검증 방법을 사용하여 모델 선택을 단계별로 살펴 보겠습니다. K-Fold를 사용하여 외부 …

3
하이퍼 파라미터 튜닝 : 랜덤 검색 vs 베이지안 최적화
따라서 임의 검색이 그리드 검색보다 더 효과적이라는 것을 알고 있지만 가장 최근의 접근 방식은 베이 시안 최적화 (가우시안 프로세스 사용)입니다. 나는 둘 사이의 비교를 찾았지만 아무것도 찾지 못했습니다. 스탠포드의 cs231n에서는 무작위 검색 만 언급하지만 일을 단순하게 유지하고 싶을 수도 있습니다. 내 질문은 : 어떤 접근 방식이 일반적으로 더 좋으며, 대답이 …

3
기계 학습 파이프 라인에서 기능 선택 및 하이퍼 파라미터 최적화를 어떻게 주문해야합니까?
내 목표는 센서 신호를 분류하는 것입니다. 지금까지 내 솔루션의 개념은 다음과 같습니다. i) 원시 신호에서 엔지니어링 기능 ii) ReliefF 및 클러스터링 방식으로 관련 기능 선택 iii) NN, 랜덤 포레스트 및 SVM 적용 그러나 나는 딜레마에 갇혀있다. ii) 및 iii)에는 ReliefF의 k-Nearest Neigbours 또는 센서 신호가 평가되는 창 길이 또는 NN의 …

2
로지스틱 회귀 분석에서 결정 임계 값이 하이퍼 파라미터입니까?
(이진) 로지스틱 회귀 분석에서 예측 된 클래스는 모델에 의해 생성 된 클래스 멤버쉽 확률에 대한 임계 값을 사용하여 결정됩니다. 내가 이해하는 것처럼 일반적으로 0.5가 기본적으로 사용됩니다. 그러나 임계 값을 변경하면 예측 분류가 변경됩니다. 임계 값이 하이퍼 파라미터라는 의미입니까? 그렇다면 (예를 들어) scikit-learn의 GridSearchCV방법을 사용하여 임계 값 그리드를 쉽게 검색 할 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.