에서는 통계 학습 요소 , 문제는 고차원 공간에서 K-NN으로 하이라이트 문제로 도입된다. 거기 균일하게 분포되어 데이터 포인트 차원 부 공.P
원점에서 가장 가까운 데이터 포인트까지의 중간 거리는 다음 식으로 제공됩니다.
때 가장 가까운 지점으로 국경에 접근하는 방법, 볼의 절반 반경 아래 수식 휴식, 나는 볼 수있는 따라서 직관 뒤에 높은 차원으로 분해 KNN 만들기. 그러나 수식이 N에 의존하는 이유를 알 수 없습니다. 누군가 명확히 할 수 있습니까?p → ∞
또한이 책은 "... 예측은 훈련 샘플의 가장자리 근처에서 훨씬 더 어렵다. 예측하기는 주변 샘플 포인트 사이에서 보간하는 것이 아니라 외삽해야한다"고 말함으로써이 문제를 더 다루고있다. 이것은 심오한 진술처럼 보이지만 그 의미를 파악할 수없는 것 같습니다. 누구나 다시 말씀해 주시겠습니까?