내부의 학습 가능성 상태


16

임계 값 게이트를 통해 표현할 수있는 기능의 복잡성을 이해하려고 노력하고 있으며이를 통해 . 특히, 나는 해당 분야 의 전문가가 아니기 때문에 현재 T C 0 내부 학습에 대해 알려진 것에 관심 이 있습니다.TC0TC0

지금까지 내가 발견 한 것은 :

  • 모든 C 0 을 통해 균일 한 분포 하에서 quasipolynomial 시간 배울 수 Linial-만수-니산 .AC0
  • 그들의 논문은 또한 의사 난수 함수 발생기가 학습을 방해한다는 점을 지적하며, 이는 T C 0이 PRFG를 인정 한다는 Naor-Reingold 의 나중 결과와 함께 T C 0 이 학습 능력의 한계를 나타냅니다 (적어도 PAC에서) -감각)TC0TC0
  • Jackson / Klivans / Servedio 의 2002 년 논문 에는 의 조각 (대부분의 다항식 다수 게이트 포함)을 배울 수 있습니다 .TC0

나는 일반적인 Google 학자금을 수행했지만 cstheory의 집단적 지혜가 더 빨리 대답하기를 바랍니다.

Is what I described the state of the art for our understanding of the complexity of learning (in terms of which classes sandwich efficient learners) ? And is there a good survey/reference that maps out the current state of the landscape ?


1
+1 좋은 질문입니다. 랜스는 얼마 전에 관련 블로그 게시물을 가지고 있지 않았습니까?
Kaveh

1
이것을 의미합니까 (Ryan O'Donnell의 게스트 게시물) : blog.computationalcomplexity.org/2005/08/…
Suresh Venkat


1
NC0에 의사 난수 발생기 가 있다는 것은 그럴듯합니다 . (특히, 의사 난수 발생기가 학습을 방해하는 것으로 알려진 경우는 거의 없습니다.) 한편,지도의 존재 xF(r,x)의사 난수 함수 패밀리 는 학습을 방해하지 않습니다. F

3
Linial - 만수르 - 니산는 것을 보여 세 이하 배울 수있는 균일 한 분포 에서 quasipolynomial 시간. Kharitinov는 준 다항식이 다항식으로 개선되면 Blum 정수를 인수 분해하기위한 서브 지수 시간 알고리즘을 생성 할 수 있음을 보여주었습니다. AC0
Robin Kothari

답변:



5

깊이 -2 TC0은 임의 오라클 액세스를 통한 균일 한 분포에 대해 하위 지수 시간에 PAC를 학습 할 수 없습니다. 나는 이것에 대한 참조를 모르지만 여기에 내 추론이 있습니다 : 우리는 패리티 함수의 클래스 자체를 배울 수 있다는 의미에서 패리티는 거의 배우지 못한다는 것을 알고 있습니다. 임의의 노이즈를 추가하면 학습이 중단됩니다. 그러나 depth-2 TC0은 모든 패리티 함수를 표현할 수있을 정도로 강력하고 교란 된 버전의 패리티를 표현할 수있을만큼 강력하므로 depth-2 TC0을 PAC를 학습 할 수 없다고 생각하는 것이 안전하다고 생각합니다.

영형(1)-깊이 TC0은 멤버쉽 쿼리로 학습 할 수 있습니다. AC0 [6] (또는 심지어 AC0 [2])로 시작하여 거기서 시작하는 것이 좋습니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.