하자 / 라벨 쌍 비트 스트링을 통해 배포 될 및하자 부울 값 함수들의 집합 일 . 각 기능의 경우 , 보자 및하자 OPT (C, D) = \ min_을 {f \ in C} \ err (f, D) 알고리즘 A 가 모든 분포에 대해 C 를 무의식적으로 학습 한다고 가정합니다. D의 경우 확률 적으로 2/3 이면 err (f, D) \ leq 와 같은 함수 f를 찾을 수 있습니다 OPT (C, D) + \ epsilon , 주어진 시간과 D 의 샘플 수{ 0 , 1 } d × { 0 , 1 } C f : { 0 , 1 } d → { 0 , 1 } f ∈ C e r r ( f , D ) = Pr ( x , y ) ∼ D [ f ( x ) ≠ y ] O P T ( C
C D 2 / 3 (F)의 전자 (R)의 R ( F , D ) ≤ O P T ( C , D ) + ε D
와 1 / \ epsilon 의 다항식으로 묶 입니다.
질문 : 임의의 분포에 대해 어떤 클래스의 함수 가 진 단적으로 학습 가능한 것으로 알려져 있습니까?
수업이 너무 간단하지 않습니다! 모노톤 연결조차도 임의의 분포에 대해 불가지론 적으로 배울 수있는 것으로 알려지지 않았으므로 사소한 클래스의 함수를 찾고 있습니다.
가치에 대한 지적 미숙 OPT (C, D)> 0 (즉, 잘못된 가설 클래스가있을 때 불가지론 학습은 경우에 초점을 맞추고 있음
—
수레 쉬 벤 카트
좋은 지적. OPT (C, D) = 0 인 특수한 경우 PAC 학습이며 훨씬 쉽습니다. 불가지론 학습의 경우, OPT (C, D)가 무엇이든 보증이 유지되어야합니다.
—
Aaron Roth
OPT (C, D)> 0 인 "PAC w / Classification Noise"사례도 있는데, 올바른 가설 클래스 (실현 가능한 설정)를 가지고 있지만 노이즈로 인해 레이블이 무작위로 뒤집기 때문에 약간의 오류가 있습니다 ... I 다른 설정의 이름이 덜 혼동되기를 바랍니다.
—
Lev Reyzin
그것은 OPT (C, D)의 상한을 가진 불가지론적인 학습처럼 들립니다
—
Suresh Venkat
분류 노이즈 모델에서 노이즈가 임의적이지 않기 때문에 확실하지 않습니다. 따라서 불가지론 적 모델에서 학습 (또는 경험적 위험 최소화기를 찾는)을 야기한 일부 적대적 노이즈 패턴이있는 경우 분류 노이즈 모델에서 자주 발생하지 않을 수 있습니다 (예 : PAC 델타 매개 변수에 해당).
—
Lev Reyzin