«kernel-trick» 태그된 질문

커널 기법은 머신 러닝에서 선형 기술을 비선형 상황, 특히 SVM, PCA 및 GP에 일반화하는 데 사용됩니다. 커널 밀도 추정 (KDE) 및 커널 회귀를 위해 [커널 스무딩]과 혼동하지 마십시오.



1
커널 화 된 k 가장 가까운 이웃
나는 커널을 처음 사용하고 kNN을 커널 화하려고 시도하면서 걸림돌을 쳤다. 예비 다항식 커널을 사용하고 있습니다. 케이( x , y ) = ( 1 + ⟨ X , Y ⟩ )디K(x,y)=(1+⟨x,y⟩)dK(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d 일반적인 유클리드 kNN은 다음 거리 측정법을 사용합니다. 디( x , y ) = | …

5
Numpy에서 효과적으로 가우스 커널을 계산하는 방법 [닫기]
닫은. 이 질문은 주제에 맞지 않습니다 . 현재 답변을받지 않습니다. 이 질문을 개선하고 싶습니까? 교차 검증에 대한 주제가 되도록 질문을 업데이트하십시오 . 휴일 삼년 전에 . m 개의 열과 n 개의 행 이있는 numpy 배열이 있으며 열은 차원과 행 데이터 포인트입니다. 이제 각 데이터 포인트 조합에 대한 커널 값을 계산해야합니다. …

1
커널 근사에 대한 Nystroem 방법
나는 낮은 순위의 커널 aproximation을위한 Nyström 방법에 대해 읽었습니다. 이 방법은 scikit-learn [1]에서 구현되어 커널 기능 매핑의 낮은 순위에 데이터 샘플을 투사하는 방법으로 사용됩니다. 내가 아는 한, 훈련 세트 과 커널 함수가 주어지면 SVD를 에 적용 하여 커널 매트릭스 의 낮은 순위 근사값을 생성합니다. 및 .{xi}ni=1{xi}i=1n\{x_i\}_{i=1}^nn×nn×nn \times nKKKWWWCCC K=[WK21KT21K22]K=[WK21TK21K22]K = …

2
머서의 정리는 반대로 작동합니까?
동료는 기능이 우리의 목적은 블랙 박스입니다. 이 함수 는 두 객체 의 유사성 를 측정 합니다.s ( a , b )ssss(a,b)s(a,b)s(a,b) 우리는 에 다음과 같은 속성이 있음을 알고 있습니다.sss 유사성 점수는 0과 1 사이의 실수입니다. 자체적으로 동일한 객체의 점수는 1입니다. 따라서 의미 하며 그 반대도 마찬가지입니다.a = bs(a,b)=1s(a,b)=1s(a,b)=1a=ba=ba=b 우리는 보장되는 …


1
커널 릿지 회귀 효율
릿지 회귀는 여기서 는 예측 된 레이블입니다. , , 매트릭스를 식별 우리가 레이블을 찾기 위해 노력하고있는 객체와 의 매트릭스 객체 :y^=(X′X+aId)−1Xxy^=(X′X+aId)−1Xx\hat{y} = (\mathbf{X'X} + a\mathbf{I}_d)^{-1}\mathbf{X}xy^y^\hat{y}IdId\mathbf{I}_dd×dd×dd \times dxx\mathbf{x}XX\mathbf{X}n×dn×dn \times dnnnxi=(xi,1,...,xi,d)∈Rdxi=(xi,1,...,xi,d)∈Rd\mathbf{x}_i = (x_{i,1}, ..., x_{i,d})\in \mathbb{R}^d X=⎛⎝⎜⎜⎜⎜⎜x1,1x2,1⋮xn,1x1,2x2,2⋮x1,2……⋱…x1,dx2,d⋮xn,d⎞⎠⎟⎟⎟⎟⎟X=(x1,1x1,2…x1,dx2,1x2,2…x2,d⋮⋮⋱⋮xn,1x1,2…xn,d) \mathbf{X} = \begin{pmatrix} x_{1,1} & x_{1,2} & \ldots & x_{1,d}\\ x_{2,1} & x_{2,2} & \ldots …

1
간단한 퍼셉트론을 커널 화하는 방법?
비선형 경계의 분류 문제는 단순한 퍼셉트론 으로 해결할 수 없습니다 . 다음 R 코드는 설명을위한 것이며 Python 의이 예제 를 기반으로합니다 . nonlin <- function(x, deriv = F) { if (deriv) x*(1-x) else 1/(1+exp(-x)) } X <- matrix(c(-3,1, -2,1, -1,1, 0,1, 1,1, 2,1, 3,1), ncol=2, byrow=T) y <- c(0,0,1,1,1,0,0) syn0 …

1
그래프 커널 SVM 하이퍼 파라미터 튜닝에는 어떤 방법이 있습니까?
그래프 에 존재하는 데이터가 있습니다 . 꼭짓점은 두 클래스 중 하나에 속하며 두 클래스 를 구별하기 위해 SVM을 훈련시키는 데 관심이 있습니다. 이것에 대한 하나의 적절한 커널은 인 확산 커널 , 는 IS 라플라시안 의 및 튜닝 파라미터이다.y i ∈ { − 1 , 1 }G = ( V, E)G=(V,E)G=(V,E)와이나는∈ …

1
피셔 커널 너머
한동안 피셔 커널은 확률 모델에서 커널을 구성하는 방법 인 것처럼 보였기 때문에 인기가있는 것처럼 보였습니다. 그러나 나는 그들이 실제로 사용되는 것을 거의 보지 못했고, 그들이 잘 작동하지 않는 좋은 권위를 가지고 있습니다. 그들은 Wikipedia를 인용 하여 Fisher 정보 의 계산에 의존합니다 . 피셔 정보는 f의 자연 로그의 θ에 대한 2 …

2
어떤 커널 방법이 최상의 확률 출력을 제공합니까?
최근에 기본 이벤트의 확률을 추정하기 위해 Platt의 SVM 출력 스케일링을 사용했습니다. 더 직접적인 대안은 "Kernel logistic Regression"(KLR) 및 관련 "Import Vector Machine"으로 보입니다. 누구나 확률 출력을 제공하는 커널 방법이 현재 최첨단인지 알 수 있습니까? KLR의 R 구현이 존재합니까? 당신의 도움을 주셔서 대단히 감사합니다!

1
SVM은 어떻게 템플릿 일치합니까?
SVM에 대해 읽고 최적화 문제를 해결하고 있으며 최대 마진 아이디어가 매우 합리적이라는 것을 알게되었습니다. 이제 커널을 사용하면 비선형 분리 경계까지도 찾을 수 있습니다. 지금까지 SVM (특수 커널 머신)과 커널 머신이 신경망과 어떤 관련이 있는지 전혀 모른다. Yann Lecun => 의 의견을 고려 하십시오 . kernel methods were a form of …

1
커널 메소드의 한계와 커널 메소드 사용시기는 무엇입니까?
커널 방법은 많은 감독 분류 작업에 매우 효과적입니다. 커널 메소드의 한계와 커널 메소드 사용시기는 무엇입니까? 특히 대규모 데이터 시대에서 커널 방법의 발전은 무엇입니까? 커널 메소드와 다중 인스턴스 학습의 차이점은 무엇입니까? 데이터 인 경우 500x10000, 500샘플의 수는, 그리고 10000우리가 커널 방법을 사용할 수 있습니다,이 상황에서 다음, 각 기능의 차원입니까?

1
R 선형 회귀 범주 형 변수 "숨김"값
이것은 여러 번 나온 예제 일뿐이므로 샘플 데이터가 없습니다. R에서 선형 회귀 모델 실행 : a.lm = lm(Y ~ x1 + x2) x1연속 변수입니다. x2범주 형이며 "낮음", "중간"및 "높음"의 세 가지 값이 있습니다. 그러나 R이 제공하는 출력은 다음과 같습니다. summary(a.lm) Estimate Std. Error t value Pr(>|t|) (Intercept) 0.521 0.20 1.446 …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.