전산 학습에서 NFL 정리는 보편적 학습자가 없다고 말합니다. 모든 학습 알고리즘에 대해, 학습자 출력에 오류가 많고 확률이 높은 가설을 출력하는 분포가 있습니다 (오류 가설은 낮음). 결론은 학습하기 위해 가설 클래스 또는 분포를 제한해야한다는 것입니다. Devroye 등은 자신의 저서 "패턴 인식에 대한 확률론"에서 K- 최근 접 이웃 학습자들을위한 다음과 같은 정리를 증명하고있다 : 여기서
는 베이 즈 최적화 규칙의 오류이고, 은 K-NN 출력의 실제 오류입니다 (확률은 크기 의 훈련 세트를 초과합니다 ), 는 인스턴스 공간의 확률 측정입니다 \ mathbb {R} ^ d 와 C_d 는 일부 상수는 유클리드 차원에만 의존합니다. 따라서 우리는 분배에 대한 어떠한 가정도하지 않으면 서, 어떤 제한된 클래스에서는 최고가 아니라는 최고의 가설에 가깝게 접근 할 수 있습니다. 그래서 나는이 결과가 어떻게 NFL 정리와 모순되지 않는지를 이해하려고 노력하고 있습니까? 감사!