«pac-learning» 태그된 질문

PAC는 아마도 대략 올바른 학습 일 것입니다.

20
두 문화 : 통계 대 기계 학습?
작년에 저는 Brendan O'Connor 의 "통계 vs. 기계 학습, 싸움!" 라는 블로그 게시물을 읽었습니다 . 두 필드의 차이점에 대해 논의했습니다. Andrew Gelman은 다음과 같이 호의적으로 반응했습니다 . 사이먼 블룸버그 : R의 운세 패키지에서 : 도발적으로 말하면, '기계 학습은 통계에서 모델과 가정의 확인을 뺀 통계입니다'. -Brian D. Ripley (머신 러닝과 통계의 …

3
'약한 학습자'란 무엇입니까?
누구나 '약한 학습자'라는 구절의 의미를 말해 줄 수 있습니까? 약한 가설이되어야합니까? 나는 약한 학습자와 약한 분류기의 관계에 대해 혼란스러워합니다. 둘 다 같거나 차이가 있습니까? adaboost 알고리즘에서 T=10. 그게 무슨 뜻입니까? 왜 우리는 선택 T=10합니까?

4
수학자를위한 머신 러닝 소개
어떤 의미에서 이것은 math.stackexchange 에서 얻은 크로스 포스트이며이 사이트가 광범위한 대상을 제공 할 수 있다고 생각합니다. 기계 학습에 대한 수학적 소개를 찾고 있습니다. 특히, 찾을 수있는 많은 문헌은 비교적 부정확하며 많은 페이지가 내용없이 사용됩니다. 그러나 문학에서 시작, 내가 발견 한 코 세라의 앤드류 응, 패턴 인식에 주교의 책과 Smola의 마지막 …

6
매개 변수 추정을위한 머신 러닝의 '기본'아이디어는 무엇입니까?
모수 추정에 대한 통계의 '기본'아이디어는 최대 가능성 입니다. 기계 학습에서 해당 아이디어가 무엇인지 궁금합니다. Qn 1. 매개 변수 추정을위한 머신 러닝의 '기본'아이디어는 '손실 함수'라고 말할 수 있습니다. [참고 : 머신 러닝 알고리즘은 종종 손실 함수를 최적화하여 위의 질문에 대한 것입니다.] Qn 2 : 통계와 머신 러닝 사이의 격차를 해소하려는 문헌이 …

1
왜 우리는 오류가 정규 분포라고 가정합니까?
오류를 모델링 할 때 왜 가우시안 가정을 ​​사용해야하는지 궁금합니다. 에서 스탠포드의 ML 과정 , 교수 잉은 두 가지 방식으로 기본적으로 설명 : 수학적으로 편리합니다. (최소 제곱 피팅과 관련이 있으며 의사 역수로 쉽게 해결할 수 있습니다) 중앙 한계 정리로 인해 프로세스에 영향을 미치는 많은 기본 사실이 있다고 가정 할 수 있으며 …

2
신경망의 복잡성을 측정하기위한 VC 차원의 대안은 무엇입니까?
신경망의 복잡성을 측정하는 몇 가지 기본 방법을 살펴 보았습니다. 순진하고 비공식적 : 뉴런, 숨겨진 뉴런, 레이어 또는 숨겨진 레이어의 수를 계산합니다. VC 차원 (Eduardo D. Sontag [1998] "신경망의 VC 차원"[ pdf ].) T C 0 d 와 등가에 의한TC0dTCd0TC^0_d 코스 그레인 및 점근 적 계산 복잡도 측정 . 다른 대안이 …

2
PAC 학습 이론은 무엇을 의미합니까?
나는 기계 학습에 새로운 사람입니다. 저는 기계 학습 (Stanford University) 과정을 공부하고 있는데이 이론의 의미와 그 유용성이 무엇인지 이해하지 못했습니다. 누군가 나를 위해이 이론을 자세히 설명 할 수 있는지 궁금합니다. 이 이론은이 방정식을 기반으로합니다.


2
데이터에 대한 ROC 곡선 계산
그래서, 나는 16 개의 시험을 가지고 있는데, 여기에서 Hamming Distance를 사용하여 생체 특성으로부터 사람을 인증하려고합니다. 임계 값이 3.5로 설정되었습니다. 내 데이터는 다음과 같으며 1 번 시험 만 참 긍정입니다. Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 7 0.47 8 0.32 9 0.39 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.