LWE (Noisy Parity) 하한 / 경도 결과


11

일부 배경 :

LWE (Learning with Errors) 문제에 대한 "알려지지 않은"하한 (또는 경도 결과) 및 링 위의 오류를 사용한 학습과 같은 일반화를 찾는 데 관심이 있습니다. 구체적인 정의 등을 보려면 다음과 같이 Regev의 훌륭한 설문 조사를 참조하십시오 . http://www.cims.nyu.edu/~regev/papers/lwesurvey.pdf

(R) LWE 스타일 가정의 표준 유형은 (아마도, 양자) 감소를 통해 (아마도, 이상적인) 격자에서 최단 벡터 문제로 축소하는 것입니다. SVP의 일반적인 공식은 NP-hard 인 것으로 알려져 있으며 작은 다항식 요소에 근접하기는 어렵다고 생각됩니다. (관련 : CVP를 / almost-polynomial / factor 내로 근사하기는 어렵습니다 : http://dl.acm.org/citation.cfm?id=1005180.1005182 ) 또한 (양자 알고리즘 측면에서) 언급 한 것을 들었습니다. SVP와 같은 특정 격자 문제를 작은 다항식 근사 계수에 근사화하는 것은 비 Abelian 숨겨진 하위 그룹 문제와 관련이 있습니다.

그러나 학습 이론의 노이즈 패리티 문제로 인한 경도 결과 (모든 유형)에 더 관심이 있습니다. 이는 복잡도 등급 경도 결과, 구체적인 알고리즘 하한, 샘플 복잡도 경계 또는 교정 크기 하한 (예 : 해상도) 일 수 있습니다. LWE는 잡음이 많은 패리티 / 소음과 학습 패리티 (LPN) 문제의 일반화로 볼 수있는 것으로 알려져 있으며 (구글링에서) 코딩 이론 및 PAC와 같은 영역의 경도 감소에 사용 된 것으로 보입니다. 배우기.

내 주위를 둘러 보았을 때 LPN 문제에 대한 (하위 지수) 상한을 발견했습니다. 예 : http://www.di.ens.fr/~lyubash/papers/parityproblem.pdf

질문:

학습 커뮤니티에서 LPN을 믿었다는 것을 알고 있습니다. 내 질문은 : 왜?

모두가 정말로 열심히 노력했지만 아무도 아직 좋은 알고리즘을 찾지 못했기 때문입니까? 이탤릭체로 된 다양성의 하한이 있습니까?

대답이 매우 명확하다면, 알려진 내용 및 / 또는 설문 / 강의 노트에 대한 간결한 요약이 좋을 것입니다.

많은 것이 알려지지 않은 경우, "최첨단"논문이 많을수록 좋습니다. :) (미리 감사합니다!)

답변:


7

LPN 문제는 실제로 어렵다고 생각되지만 대부분의 문제가 어렵다고 생각하는 주된 이유는 많은 현명한 사람들이 효율적인 알고리즘을 찾아서 실패했기 때문입니다.

LPN 경도에 대한 최상의 "증거"는 패리티 문제의 높은 통계 쿼리 차원에서 비롯됩니다. 통계 쿼리는 가우스 제거 (소음이 발생할 때마다 실패), 해싱 및이 두 가지와 유사한 기술을 제외하고 가장 알려진 학습 알고리즘을 캡처합니다. 비 통계 쿼리 알고리즘을 설계하는 것은 어렵고 이것이 주요 병목 현상입니다. LPN의 경도에 대한 다른 증거는 다른 어려운 문제 (LWE, SVP 등 지적한 바와 같이)와의 관계입니다.

SQ-hardness의 경우, Kearns ('98) 논문의 링크 입니다.

이 문제의 상한선에 대한 진행 결과에는 몇 가지 결과가 있습니다.

  • 22/로그
  • 영형(2/로그로그)영형(1+ϵ)
  • 케이영형(0.5케이)영형(케이)영형(케이)η1/2
  • 영형(0.8케이)

2
이것은 매우 좋은 답변입니다. 감사! 나는 현상금이 조금씩 떠 올릴 수있게 할 것입니다 (누군가가 이상한 공의 하한선을 준설하는 경우). 그러나 이것은 내 관점에서 완전한 것으로 보입니다.
Daniel Apon
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.