«kernel-trick» 태그된 질문

커널 기법은 머신 러닝에서 선형 기술을 비선형 상황, 특히 SVM, PCA 및 GP에 일반화하는 데 사용됩니다. 커널 밀도 추정 (KDE) 및 커널 회귀를 위해 [커널 스무딩]과 혼동하지 마십시오.

4
PCA 공간에 새로운 벡터를 투영하는 방법?
주성분 분석 (PCA)을 수행 한 후 PCA 공간에 새 벡터를 투영하려고합니다 (즉, PCA 좌표계에서 해당 좌표를 찾습니다). 를 사용하여 R 언어로 PCA를 계산했습니다 prcomp. 이제 내 벡터에 PCA 회전 행렬을 곱할 수 있어야합니다. 이 매트릭스의 주요 구성 요소를 행 또는 열로 배열해야합니까?
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 

3
“커널 트릭”을 선형 방법에 적용 하시겠습니까?
커널 트릭은 여러 기계 학습 모델 (예에 사용되는 SVM ). 그것은 1964 년에 "패턴 인식 학습의 잠재적 기능 방법의 이론적 기초"논문에서 처음 소개되었다. 위키 백과 정의에 따르면 원래의 비선형 관측치를보다 높은 차원의 공간으로 매핑함으로써 선형 비 분류 알고리즘을 사용하여 비선형 문제를 해결하는 방법; 이렇게하면 새 공간의 선형 분류가 원래 공간의 …

2
Matérn 공분산 함수의 이론적 근거는 무엇입니까?
Matérn 공분산 함수는 일반적으로 가우시안 프로세스에서 커널 함수로 사용됩니다. 이렇게 정의되어 있습니다 Cν(d)=σ221−νΓ(ν)(2ν−−√dρ)νKν( 2ν−−√dρ)Cν(디)=σ221−νΓ(ν)(2ν디ρ)ν케이ν(2ν디ρ) {\displaystyle C_{\nu }(d)=\sigma ^{2}{\frac {2^{1-\nu }}{\Gamma (\nu )}}{\Bigg (}{\sqrt {2\nu }}{\frac {d}{\rho }}{\Bigg )}^{\nu }K_{\nu }{\Bigg (}{\sqrt {2\nu }}{\frac {d}{\rho }}{\Bigg )}} 여기서 디디d 는 거리 함수 (예 : 유클리드 거리), ΓΓ\Gamma 는 감마 함수, 케이ν케이νK_\nu …


1
원시, 이중 및 커널 릿지 회귀의 차이점
Primal , Dual 및 Kernel Ridge Regression 의 차이점은 무엇입니까 ? 사람들은 세 가지를 모두 사용하고 있으며 다른 출처에서 사용하는 다른 표기법으로 인해 따르기가 어렵습니다. 누군가이 단어의 차이점을 간단한 단어로 말해 줄 수 있습니까? 또한 각각의 장단점은 무엇이며 복잡성은 무엇입니까?

1
표준 PCA에 비해 커널 PCA의 장점은 무엇입니까?
커널 SVD를 사용하여 데이터 매트릭스를 분해하는 종이에 알고리즘을 구현하고 싶습니다. 그래서 커널 방법과 커널 PCA 등에 관한 자료를 읽었습니다. 그러나 수학적 세부 사항에 관해서는 특히 나에게 매우 모호하며 몇 가지 질문이 있습니다. 왜 커널 메소드인가? 아니면 커널 메소드의 장점은 무엇입니까? 직관적 인 목적은 무엇입니까? 실제 문제에서 훨씬 높은 차원 공간이 …
18 pca  svd  kernel-trick 


1
RBF SVM의 효과를 이해하는 방법
SVM의 RBF 커널이 무엇을 이해하는지 어떻게 알 수 있습니까? 나는 수학을 이해한다는 것을 의미하지만이 커널이 유용 할 때 느낌을 얻는 방법이 있습니까? RBF에 벡터 거리가 포함되어 있기 때문에 kNN의 결과가 SVM / RBF와 관련이 있습니까? 다항식 커널에 대한 느낌을 얻는 방법이 있습니까? 치수가 높을수록 더 빠를 수 있습니다. 그러나 가능한 …
17 svm  kernel-trick 

6
가장 빠른 SVM 구현
더 일반적인 질문입니다. 예측 모델링을 위해 rbf SVM을 실행하고 있습니다. 현재 프로그램에 약간의 속도 향상이 필요하다고 생각합니다. 나는 scikit learn을 거친 그리드 검색 + 교차 유효성 검사와 함께 사용합니다. 각 SVM 실행에는 약 1 분이 걸리지 만 모든 반복 작업으로 인해 여전히 너무 느립니다. 결국 여러 코어에서 교차 유효성 검사 …

5
커널 SVM : 더 높은 차원의 피쳐 공간에 대한 매핑에 대한 직관적 인 이해와 이것이 선형 분리를 가능하게하는 방법을 원합니다.
커널 SVM의 직관을 이해하려고합니다. 이제 선형 SVM의 작동 방식을 이해하고 데이터를 최대한 분할하는 의사 결정 라인을 만듭니다. 또한 데이터를 더 높은 차원의 공간으로 포팅하는 원리와 이것이 새로운 공간에서 선형 의사 결정 라인을 더 쉽게 찾을 수있는 방법을 이해합니다. 내가 이해하지 못하는 것은 커널을 사용하여 데이터 포인트를이 새로운 공간에 투영하는 방법입니다. …

1
무한 차원 기반 함수 뷰를 통한 가우시안 프로세스 회귀 이해
가우시안 프로세스 회귀는 (GPR)이 무한한 양의 기본 함수를 가진 베이지안 선형 회귀에 해당한다고 종종 말합니다. 나는 현재 GPR을 사용하여 표현할 수있는 모델의 종류에 대한 직감을 얻기 위해 이것을 자세히 이해하려고 노력하고 있습니다. 이것이 GPR을 이해하기위한 좋은 접근법이라고 생각하십니까? 책의 기계 학습 가우시안 프로세스 스무 윌리엄스 쇼 가우시안 프로세스들의 세트는 상기 …

2
가우스 RBF 커널에 대한 유한 차원 피쳐 공간이 없음을 증명하는 방법은 무엇입니까?
방사형 기저 함수 에는 유한 차원 피쳐 공간이없는H는일부되도록Φ:RN→H우리가K(X를,Y)=⟨Φ(X),Φ(Y)⟩?k(x,y)=exp(−||x−y||2)2σ2)k(x,y)=exp⁡(−||x−y||2)2σ2)k(x, y) = \exp(-\frac{||x-y||^2)}{2\sigma^2})HHHΦ:Rn→HΦ:Rn→H\Phi: \text{R}^n \to Hk(x,y)=⟨Φ(x),Φ(y)⟩k(x,y)=⟨Φ(x),Φ(y)⟩k(x, y) = \langle \Phi(x), \Phi(y)\rangle

3
비선형 데이터에 대해 가능하면 커널 트릭을 사용해야합니까?
최근에 Kernel 트릭을 사용하는 방법에 대해 배웠습니다.이 방법은 데이터를 해당 차원의 데이터를 선형화하기 위해 더 높은 차원의 공간에 매핑합니다. 이 기술을 사용하지 않아야하는 경우가 있습니까? 올바른 커널 기능을 찾는 것이 문제입니까? 선형 데이터의 경우 물론 도움이되지 않지만 비선형 데이터의 경우 항상 유용합니다. 학습 시간 및 확장 성 측면에서 선형 분류기를 …


1
커널 PCA 용 커널을 선택하는 방법은 무엇입니까?
커널 PCA (주성분 분석)가 최종 데이터 출력에서 ​​어떤 커널을 선택하여 데이터를 양호하게 분리 할 수있는 방법은 무엇이며 커널의 매개 변수를 최적화하는 방법은 무엇입니까? 가능한 경우 Layman의 용어를 높이 평가할 것이며 그러한 방법을 설명하는 논문 링크도 좋습니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.