Deigo의 답변을 계속 따르기 위해 학습 이론의 표준 샘플 복잡도 범위는 "대략적으로 올바른"프로그램을 찾는 데 만족한다면 매우 많은 포인트를 전혀 시도 할 필요가 없다는 것을 알려줍니다. 프로그램을 2 진법으로 인코딩 하여 길이 d의 프로그램 만 있다고 가정 해 봅시다 . 입력 예제 대해 약간의 분포가 있다고 가정 합니다. 아마도 당신의 목표는 당신이 거의 옳다고 확신하는 프로그램을 찾는 것입니다 (예 : Valiants PAC 학습 모델에서와 같이 "아마 대략"). 즉, 적은 수의 샘플 를 와 함께 사용 하고 적어도 확률로 알고리즘을 실행하려고합니다. D x ~ D f ( x ) ( 1 − δ ) P f ( 1 − ϵ ) D2dDx∼Df(x)(1−δ) 에서 가져온 입력의 적어도 부분에 대해 와 일치하는 일부 프로그램 를 출력 합니다 . Pf(1−ϵ)D
우리는 단순히 예제 를 그리고 모든 예제에서 와 일치하는 길이 의 프로그램 를 출력 할 것이다. ( 는 Kolmogorov 복잡도를 최대 라고 가정하기 때문에 존재한다는 것이 보장됩니다 ) ...x ~ D P ≤ d f f dmx∼DP≤dffd
예제 의 보다 더 많은 부분에서 에 동의하지 않는 특정 프로그램 가 선택한 예제 와 일치 할 확률은 얼마입니까? 최대 입니다. 이 확률을 최대 하여 모든 프로그램에 대해 결합 된 결합을 취하고 적어도 확률로 "나쁜"프로그램이 일관성이 없다고 말합니다. 우리가 그린 예제와 함께. 해결하면
예제 만으로도 충분하다는 것을 알 수 있습니다
. (즉, Kolmogorov 복잡성에서 선형 적으로 만 많음f ϵ m ( 1 − ϵ ) m δ / 2 d 2 d 1 − δ m ≥ 1Pfϵm(1−ϵ)mδ/2d2d1−δf
m≥1ϵ(d+log1/δ)
f...)
BTW, 이와 같은 주장은 "Occam 's Razor"를 정당화하는 데 사용될 수 있습니다.이를 설명하는 모든 이론 중에서 고정 된 수의 관측이 주어지면 과적 합의 가능성이 가장 적기 때문에 Kolmogorov 복잡도가 가장 낮은 것을 선택해야합니다.
물론 이런 방식으로 단일 고정 프로그램 만 확인하려면 예제 만 있으면됩니다 .O(log(1/δ)/ϵ)