k-Nearest-Neighbour 의 주요 아이디어는 k 가장 가까운 포인트 를 고려하고 다수결로 데이터의 분류를 결정합니다. 그렇다면, 위치에 민감한 해싱 과 같은 방법이 가장 가까운 이웃을 효율적으로 찾을 수 있기 때문에 더 높은 차원의 데이터에 문제가 없어야합니다 .
또한 베이지안 네트워크를 통한 기능 선택으로 데이터의 차원을 줄이고 학습을 더 쉽게 할 수 있습니다.
그러나 통계 학습에서 John Lafferty 의이 검토 논문 은 고차원 특징 공간에서의 비모수 적 학습이 여전히 도전적이고 해결되지 않았 음을 지적합니다.
무슨 일이야?