알고리즘은 다음과 같습니다. k = 사용 된 트레이닝 포인트 수를 가진 k- 최근 접 이웃 알고리즘. 나는 이것을 jms-k-nearest-neighbor 로 정의한다 .
VC 차원은 열차 오류 0 의 알고리즘으로 산산조각을 낼 수있는 가장 많은 트레이닝 포인트 이므로 jms-k-nearest-neighbor 의 VC 차원은 k 또는 0 일 수 있습니다.
1 훈련 인스턴스 => k = 1 : 훈련 중 jms-1-nearest-neighbor는이 인스턴스를 정확하게 저장합니다. 정확히 동일한 교육 세트에 적용하는 동안 하나의 인스턴스는 저장된 교육 인스턴스와 가장 비슷하므로 (동일하므로) 교육 오류는 0입니다.
따라서 VC 차원은 1 이상입니다.
2 교육 사례 => k = 2 : 라벨이 다른 경우에만 문제가있을 수 있습니다. 이 경우 문제는 클래스 레이블 결정 방법입니다. 과반수 투표는 결과 (VC = 0?)로 이어지지 않습니다. 거리에 반비례 가중치를 적용한 경우 VC 차원은 2입니다 (라벨이 다른 동일한 트레이닝 인스턴스를 두 번 가질 수 없다고 가정 할 때). 모든 알고리즘의 VC 차원은 0입니다 (추측).
표준 k- 최근 접 이웃 알고리즘은 없으며 구현 세부 사항과 관련하여 동일한 기본 아이디어는 있지만 풍미가 다른 제품군에 속합니다.
사용 된 리소스 : Andrew Moore의 VC 치수 슬라이드