전산 학습에서 NFL 정리는 보편적 학습자가 없다고 말합니다. 모든 학습 알고리즘에 대해, 학습자 출력에 오류가 많고 확률이 높은 가설을 출력하는 분포가 있습니다 (오류 가설은 낮음). 결론은 학습하기 위해 가설 클래스 또는 분포를 제한해야한다는 것입니다. Devroye 등은 자신의 저서 "패턴 인식에 대한 확률론"에서 K- 최근 접 이웃 학습자들을위한 다음과 같은 정리를 증명하고있다 :
여기서
전산 학습에서 NFL 정리는 보편적 학습자가 없다고 말합니다. 모든 학습 알고리즘에 대해, 학습자 출력에 오류가 많고 확률이 높은 가설을 출력하는 분포가 있습니다 (오류 가설은 낮음). 결론은 학습하기 위해 가설 클래스 또는 분포를 제한해야한다는 것입니다. Devroye 등은 자신의 저서 "패턴 인식에 대한 확률론"에서 K- 최근 접 이웃 학습자들을위한 다음과 같은 정리를 증명하고있다 :
여기서
답변:
NFL 정리를 이해하는 방법은 모든 작업에서 나머지 것보다 나은 학습 알고리즘이 없다는 것입니다. 그러나 이것은 명백한 수학적 의미에서 그것이 이론적 증거가 아니라 경험적 관찰이라는 이론이 아니다.
kNN에 대해 말한 것과 유사하게 신경망에 대한 범용 근사 정리 (Universal Approximation Theorem for Neural Networks)도 있는데, 이는 2 계층 신경망이 주어지면 임의의 오류로 모든 기능을 근사 할 수 있다고 말합니다.
자, 이것이 어떻게 NFL을 깨뜨리지 않습니까? 기본적으로 간단한 2 계층 NN으로 생각할 수있는 모든 문제를 해결할 수 있습니다. 그 이유는 이론적으로 NN은 무엇이든 근사 할 수 있지만 실제로는 어떤 것도 근사하도록 가르치기가 매우 어렵 기 때문입니다. 그렇기 때문에 일부 작업의 경우 다른 알고리즘이 선호됩니다.
NFL을 해석하는보다 실용적인 방법은 다음과 같습니다.
주어진 작업에 가장 적합한 알고리즘을 미리 결정할 방법이 없습니다.