라스 베이거스 vs 몬테카를로 무작위 의사 결정 트리 복잡성


13

배경:

의사 결정 트리 복잡성 또는 쿼리 복잡성은 다음과 같이 정의 된 간단한 계산 모델입니다. 하자 있을 부울 함수. 로 표시된 의 결정 론적 쿼리 복잡도 는 결정 론적 알고리즘에 의해 (더 나쁜 경우) 읽어야 하는 입력 의 최소 ​​비트 수 입니다. 계산합니다 . 복잡성의 척도는 읽은 입력의 비트 수입니다. 다른 모든 계산은 무료입니다.f D ( f ) x { 0 , 1 } n f ( x )f:{0,1}n{0,1}fD(f)x{0,1}nf(x)

유사하게, 우리는 를 계산하는 제로 에러 랜덤 알고리즘에 의해 판독 될 필요가있는 입력 비트의 최소 수로서 로 표시 되는 라스 베이거스 랜덤 화 된 쿼리 복잡도 정의한다 . 제로 오류 알고리즘은 항상 정답을 출력하지만이 알고리즘에서 읽은 입력 비트 수는 알고리즘의 내부 임의성에 따라 다릅니다. (이로 인해 예상되는 입력 비트 수를 측정합니다.)R 0 ( F ) F ( X )fR0(f)f(x)

로 표시된 의 Monte Carlo 무작위 쿼리 복잡도는 를 계산하는 경계 오류 무작위 알고리즘으로 읽어야하는 최소 입력 비트 수로 정의 합니다. 경계 오류 알고리즘은 항상 끝에 응답을 출력하지만 확률은 보다 큰 경우에만 정확해야합니다 (예 .R 2 ( F ) F ( X ) 2 / 3fR2(f)f(x)2/3


질문

여부의 문제에 대해 알려진 것

R0(f)=Θ(R2(f)) ?

그것은 알려져있다

R0(f)=Ω(R2(f))

Monte Carlo 알고리즘은 적어도 Las Vegas 알고리즘만큼 강력하기 때문입니다.

나는 최근에 두 복잡성 사이에 알려진 분리가 없다는 것을 배웠다. 이 주장에 대해 찾을 수있는 최신 자료는 1998 년의 것입니다.

[1] Nikolai K. Vereshchagin, 무작위 부울 결정 트리 : 몇 가지 언급, 이론적 컴퓨터 과학, 볼륨 207, 발행 2, 1998 년 11 월 6 일, 페이지 329-342, ISSN 0304-3975, http://dx.doi.org/ 10.1016 / S0304-3975 (98) 00071-1 .

다른 측면에서 가장 잘 알려진 상한은

R0(f)=O(R2(f)2logR2(f))

[2]로 인해 :

[2] Kulkarni, R. & Tal, A. (2013, 11 월). 분수 블록 감도. ECCC (Electronic Compoquium on Computational Complexity)에서 (Vol. 20, p. 168).

두 가지 구체적인 질문이 있습니다.

  1. [참조 요청] :이 문제를 다루는 최신 논문 (1998 년 이후)이 있습니까?
  2. 더 중요한 것은 이 두 복잡성을 분리하기 위해 추측되는 후보 함수가 있는가?

v2에 추가됨 : ref [2]를 추가하여 후보 함수의 존재에 대한 두 번째 질문을 강조했습니다.

답변:


7

내가 아는 한, 이것은 여전히 ​​열려 있습니다. 이러한 양과 한계를 언급 한 최근 논문은 Aaronson et al : Weak parity ( http://arxiv.org/abs/1312.0036 참조 )입니다. Jukna : Boolean funcions의 14 장과 Buhrman과 de Wolf의 1999 (여전히 1998 년)을 볼 수 있습니다. 무작위 의사 결정 트리 복잡성에 대한 또 다른 최신 논문은 Magniez et al : http://arxiv.org/abs/1309.7565

마지막으로, 지난 달에 내가 작성한 간단한 요약 (defs 제외) :

R2 <= R0 <= D <= n

D <= N0 * N1 <= C ^ 2 <= R0 ^ 2

s <= bs <= C <= s * bs <= bs ^ 2 (신규 : [Gilmer-Saks-Srinivasan] : f st bs ^ 2 (f) = O (C (f))가 있습니다)

D <= N1 * bs <= bs ^ 3 <= (3R2) ^ 3

deg <= D <= bs * deg <= deg ^ 3 (신규 : [Tal] : bs <= deg ^ 2)

D <= N1 * deg

C <= bs * deg ^ 2 <= deg ^ 4

민감도는 s가 다른 변수와 다항식으로 관련되어 있다는 것입니다.


이 논문들이 라스 베이거스 vs 몬테카를로 알고리즘의 문제를 어디에서 언급하는지 구체적으로 지적 해 주시겠습니까? 이 논문에서 찾아 보았지만 찾을 수 없었습니다.
Robin Kothari

내가 모호한 경우 죄송합니다.이 논문은 명시 적으로 질문을 언급하지 않으며 다른 매개 변수에 대해 다른 불평등 만 있습니다. 질문의 개방성에 대한 나의 유일한 증거는 그것이 아니라면 언급 될 것이라는 것입니다.
domotorp

오, 무슨 말인지 이해합니다 나는이 논문들을 읽었다. 이 문제가 최근에 구체적으로 연구되었는지 궁금합니다. 또한이 두 가지 복잡성을 분리 할 수있는 기능이 있는지 궁금합니다. (사람들이 믿는 경우 아니면은 동일합니다.)
로빈 Kothari의

D와의 가장 큰 분리는 R0과 R2 모두에 대한 NAND- 트리라고 추측됩니다.
domotorp

7

이 질문은 해결되었습니다!

며칠 전 Andris Ambainis, Kaspars Balodis, Aleksandrs Belovs, Troy Lee, Miklos Santha 및 Juris Smotrovs 는 총 기능 되는 프리 프린트를 업로드했습니다.f

R0(f)=Ω~(R2(f)2)

심지어

R0(f)=Ω~(R1(f)2)

R1(f)

두 분리는 최대 로그 인자까지 최적입니다!


새 버전의 논문에서는 거의 이차 간격으로 개선되어 로그 요소에 가깝습니다.
Shalev
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.