이 질문에 관심을 가져 주신 Aryeh 에게 감사드립니다 .
다른 언급 된 바와 같이, (1)에 대한 응답이 예 와 경험적 위험 최소화하는 간단한 방법 C 달성 O((d/ε)log(1/ε)) 샘플 복잡성 (Vapnik 및 Chervonenkis, 1974 참조; Blumer, Ehrenfeucht, Haussler, Warmuth, 1989).
(2)에 관해서는,이 공간을이 존재한다는 사실은 알려져 C 없이 적절한 학습 알고리즘 달성 한 더 이상 Ω((d/ε)log(1/ε)) 샘플 복잡성 때문에 적절한 학습이 최적의 달성 할 수없는 O(d/ε) 샘플 복잡성. 내가 아는 한,이 사실은 실제로 출판 된 적이 없지만 Daniely와 Shalev-Shwartz (COLT 2014) (원래 멀티 클래스 학습의 다른 질문이지만 관련 질문을 위해 공식화 됨)의 관련 주장에 근거하고 있습니다.
간단한 경우 d=1 고려하고 공간 X 를 {1,2,...,1/ε} 로 두십시오 . . . , 1 / ε } 와 C 싱글 인 fz(x):=I[x=z],z∈X : 즉, 각 분류 C 행 정확히 하나의 포인트를 분류 X 로서 1 과 등과 같은 0. 가 하한 들어, 임의의 싱글로서 타겟 기능을 fx∗ 여기서, x∗∼Uniform(X) , 및 P 의 여백 분포 X , 균일에 X∖{x∗} . 이제 학습자 레이블 어떤 예를 볼 수 없다 1 하지만, 포인트 선택해야 z 에 추측 레이블이 1 (중요한 것은``모두 0 ''기능은 하지 에 C임의의 적절한 학습자 그렇게 해야 어떤 추측 z 그것의 모든 점을 볼 때까지), 및 X∖{x∗} 는 적어도 갖는 1/2 즉, 자신의 사후 확률 (잘못된 추측 확률 fz 갖는 z≠x∗1/2 이상 ) 쿠폰 수집기 인수는 Ω ( ( 1 / ε ) 로그 ( 1 / ε ) ) 가 필요함을 나타냅니다.Ω((1/ε)log(1/ε))X∖{x∗} 모든 점을 볼 수있는 표본 . 따라서 이것은 모든 적절한 학습자에 대해 Ω((1/ε)log(1/ε)) 의 하한을 증명합니다 .
일반 d>1 경우 X 를 {1,2,...,d/(4ε)} 취할 C 분류 기준으로 IA 세트의 ⊂ X 정확하게 크기 거라고 , 임의로 목표 함수 선택 C를 하고 가지고 P를 단지 포인트 균일로 다시 목표 함수를 분류 0 ( 따라서 학습자는 1 이라는 점을 보지 못합니다.A⊂XdCP01). 그런 다음 쿠폰 컬렉터 인수의 일반화는 우리가 필요로하는 의미 Ω((d/ε)log(1/ε)) 샘플은 적어도 보려면 |X|−2d 구별 점 X , 임의의 적절한 학습자 적어도 갖고이 많은 고유 점 보지 않고 1/3 보다 큰 점점 확률 d/4 의 추측의 의 차원 의 선택된 가설에 점 잘못된 시간 을AdhA오류율이 ε 보다 큰 것을 의미합니다 . 따라서이 경우 Ω((d/ε)log(1/ε)) 보다 작은 샘플 복잡도를 가진 적절한 학습자가 없으며 , 이는 적절한 학습자가 최적의 샘플 복잡도 O(d/ε) 달성하지 못함을 의미 합니다.
결과는 구성된 공간 C 에 따라 상당히 다릅니다 . 존재 공간 거기에서 C 적절한 학습자가 달성 O(d/ε) 최적 샘플 복잡성, 실제로 심지어 정확한 전체 식 O((d/ε)+(1/ε)log(1/δ)) 으로부터는 ( Hanneke, 2016a). 일반 ERM 학습자에 대한 일부 상한 및 하한은 (Hanneke, 2016b)에서 개발되었으며 공간 C 의 특성으로 정량화되었습니다.C특정 학습자가 때때로 최적의 샘플 복잡성을 달성 할 수있는 좀 더 전문화 된 사례에 대해 논의합니다.
참고 문헌 :
Vapnik and Chervonenkis (1974). 패턴 인식 이론. 1974 년 모스크바 나우 카
Blumer, Ehrenfeucht, Haussler 및 Warmuth (1989). 학습 성과 Vapnik-Chervonenkis 차원. 전산 기계 학회지, 36 (4) : 929–965.
Daniely and Shalev-Shwartz (2014). 멀티 클래스 문제에 대한 최적의 학습자. 제 27 차 학습 이론 회의에서 발췌.
Hanneke (2016a). PAC 학습의 최적의 샘플 복잡성. 머신 러닝 리서치, Vol. 17 (38), 1-15면.
Hanneke (2016b). 여러 학습 알고리즘에 대한 개선 된 오류 경계. 머신 러닝 리서치, Vol. 17 (135), 1-55 쪽.