일부 배경 :
LWE (Learning with Errors) 문제에 대한 "알려지지 않은"하한 (또는 경도 결과) 및 링 위의 오류를 사용한 학습과 같은 일반화를 찾는 데 관심이 있습니다. 구체적인 정의 등을 보려면 다음과 같이 Regev의 훌륭한 설문 조사를 참조하십시오 . http://www.cims.nyu.edu/~regev/papers/lwesurvey.pdf
(R) LWE 스타일 가정의 표준 유형은 (아마도, 양자) 감소를 통해 (아마도, 이상적인) 격자에서 최단 벡터 문제로 축소하는 것입니다. SVP의 일반적인 공식은 NP-hard 인 것으로 알려져 있으며 작은 다항식 요소에 근접하기는 어렵다고 생각됩니다. (관련 : CVP를 / almost-polynomial / factor 내로 근사하기는 어렵습니다 : http://dl.acm.org/citation.cfm?id=1005180.1005182 ) 또한 (양자 알고리즘 측면에서) 언급 한 것을 들었습니다. SVP와 같은 특정 격자 문제를 작은 다항식 근사 계수에 근사화하는 것은 비 Abelian 숨겨진 하위 그룹 문제와 관련이 있습니다.
그러나 학습 이론의 노이즈 패리티 문제로 인한 경도 결과 (모든 유형)에 더 관심이 있습니다. 이는 복잡도 등급 경도 결과, 구체적인 알고리즘 하한, 샘플 복잡도 경계 또는 교정 크기 하한 (예 : 해상도) 일 수 있습니다. LWE는 잡음이 많은 패리티 / 소음과 학습 패리티 (LPN) 문제의 일반화로 볼 수있는 것으로 알려져 있으며 (구글링에서) 코딩 이론 및 PAC와 같은 영역의 경도 감소에 사용 된 것으로 보입니다. 배우기.
내 주위를 둘러 보았을 때 LPN 문제에 대한 (하위 지수) 상한을 발견했습니다. 예 : http://www.di.ens.fr/~lyubash/papers/parityproblem.pdf
질문:
학습 커뮤니티에서 LPN을 믿었다는 것을 알고 있습니다. 내 질문은 : 왜?
모두가 정말로 열심히 노력했지만 아무도 아직 좋은 알고리즘을 찾지 못했기 때문입니까? 이탤릭체로 된 다양성의 하한이 있습니까?
대답이 매우 명확하다면, 알려진 내용 및 / 또는 설문 / 강의 노트에 대한 간결한 요약이 좋을 것입니다.
많은 것이 알려지지 않은 경우, "최첨단"논문이 많을수록 좋습니다. :) (미리 감사합니다!)