몬테카를로 알고리즘에 대한 야오의 미니 맥스 원리


22

유명한 Yao의 Minimax 원리 는 분포 복잡성과 무작위 복잡성 사이의 관계를 나타냅니다. 하자 유한 집합에 문제가 의 입력과 유한 집합 해결하는 결정적 알고리즘의 . 또한 은 입력 분포를 나타내고 은 의 확률 분포를 나타냅니다 . 그러면 원리는 PXAPDA ARA

minAAEcost(A,D)maxxXEcost(R,x)for all D and R.
이 증거는 제로섬 게임에 대한 폰 노이만의 미니 맥스 정리에서 직접 따릅니다.

Yao의 원칙은 대부분 Las Vegas 알고리즘 만 다루지 만 다음과 같이 Monte Carlo 알고리즘 으로 일반화 할 수 있습니다 .

12minAAEcost2ϵ(A,D)maxxXEcostϵ(R,x)for all DR and ϵ[0,1/2]
에서 costϵ(,) 은 최대 \ epsilon만큼 확률을 없애는 Monte Carlo 알고리즘의 비용을 나타냅니다 ϵ.

에서 치아의 원래 종이 , 몬테 카를로 알고리즘에 대한 관계는 증거없이 정리 3에 주어진다. 그것을 증명하는 힌트가 있습니까?

답변:


6

이것은 그의 표기법을 사용하여 Marcos의 답변에 대한 확장 된 주석입니다. 나는 그의 주장에 대한 세부 사항을 잘 이해할 수 없으며 아래 내용은 매우 짧고 쉽습니다.

평균화하여

Aq(A)xd(x)ϵ(A,x)=xd(x)Aq(A)ϵ(A,x)λ.

위의 사실과 Markov의 불평등은 Aβ(2λ)q(A)1/2 합니다.

그래서 우리는 얻는다 :

maxxAq(A)r(A,x)xd(x)Aq(A)r(A,x)=Aq(A)xd(x)r(A,x)Aβ(2λ)q(A)xd(x)r(A,x)(Aβ(2λ)q(A))minAβ(2λ)xd(x)r(A,x)12minAβ(2λ)xd(x)r(A,x)

8

이것에 대해 시도해 볼 것입니다. Yao의 원래 표기법을 사용하겠습니다. 이런 식으로 그의 논문과 그의 정의와 대조하기가 더 쉬울 것이다.

하자 입력 유한 집합, 그리고하자 일부 입력에 대한 정확한 대답을하지 못할 수 있습니다 결정적 알고리즘의 유한 집합을합니다. 또한하자 하는 경우 정확한 답에 대한 제공 및 , 그렇지. 또한 입력 에 대해 가 수행 한 쿼리 수를 로 표시 하거나 의 의사 결정 트리 깊이를 표시 합니다.A 0 ϵ ( A , x ) = 0 A x ϵ ( A , x ) = 1 r ( A , x ) A x AIA0ϵ(A,x)=0Axϵ(A,x)=1r(A,x)AxA

평균 비용 : 확률 분포 감안 에 은 평균 비용 의 알고리즘 인 .I A A 0 C ( A , d ) = x I d ( x ) r ( A , x )dIAA0C(A,d)=xId(x)r(A,x)

분포 복잡성 : 보자 . 입력에 대한 분포 의 경우, 를 의해 주어진 의 부분 집합으로합니다 . 계산 문제 대한 오차 의 분포 복잡도 는 .d β ( λ ) A 0 β ( λ ) = { A : A A 0 , x I d ( x ) ϵ ( A , x ) λ } λ P F 1 , λ ( P ) = 최대 dA βλ[0,1]dβ(λ)A0β(λ)={A:AA0,xId(x)ϵ(A,x)λ}λPF1,λ(P)=maxdminAβ(λ)C(A,d)

λ -tolerance : 분배 패밀리에 IS -tolerant 경우 .A 0 λ 최대 x IA A 0 q ( A ) ϵ ( A , x ) λqA0λmaxxIAA0q(A)ϵ(A,x)λ

예상 비용 : 무작위 알고리즘 경우 는 에서 tolerant 인 확률 분포입니다 . 예상 비용 의 주어진 입력에 대한 이고 .q λ A 0 R x E ( R , x ) = A A 0 q ( A ) r ( A , x )RqλA0RxE(R,x)=AA0q(A)r(A,x)

무작위 복잡성 : 하자 . 오류 의 무작위 복잡도 는 입니다.λ F 2 , λ = 최소 R max x I E ( R , x )λ[0,1]λF2,λ=minRmaxxIE(R,x)

이제 사업을 시작할 준비가되었습니다. 우리가 배포 주어진다 입증 할 입력에와 무작위 알고리즘 (즉, 배포 에 )R q A 0dRqA0

Montecarlo 알고리즘에 대한 Yao의 Minimax 원리 대 .λ[0,1/2]

maxxIE(R,x)12minAβ(2λ)C(A,d)
λ[0,1/2]

나는 Fich, Meyer auf der Heide, Ragde 및 Wigderson (Lemma 4 참조)이 제시 한 접근법을 따를 것 입니다. 그들의 접근 방식은 Las Vegas 알고리즘에 대한 특성을 나타내지 않지만 (하한에만 해당), 우리의 목적에는 충분합니다. 그들의 증거로부터, 및IA0I

주장 1. .maxxIE(R,x)minAA0C(A,d)

정확한 숫자를 얻기 위해 비슷한 것을 할 것입니다. 무작위 알고리즘 의해 주어진 확률 분포 가 대해 tolerant 라면, 제품군 을R λ A 0 λqRλA0A0β(2λ)

λmaxxI{AA0q(A)ϵ(A,x)}xId(x)AA0q(a)ϵ(A,x)=AA0q(a)xId(x)ϵ(A,x)minAA0{xId(x)ϵ(A,x)}.
A0β(2λ) 우리는 그것을 본다

λmaxxI{AA0q(A)ϵ(A,x)}maxxI{Aβ(2λ)q(A)ϵ(A,x)}xId(x)Aβ(2λ)q(a)ϵ(A,x)=Aβ(2λ)q(a)xId(x)ϵ(A,x)minAβ(2λ){12xId(x)ϵ(A,x)},

여기서 두 번째 부등식은 이므로 마지막 부등식은 합을 2로 나눈 값이 보다 클 수없는 의 정의에 의해 주어집니다 . 따라서 β ( 2 λ ) λ max x I { A A 0 q ( A ) ϵ ( A , x ) }1β(2λ)A0β(2λ)λ

maxxI{AA0q(A)ϵ(A,x)}12minAβ(2λ){xId(x)ϵ(A,x)}.

것을주의함으로써 매핑 및 매핑 및 상기 제 1, 이제 우리는 안전 함수 바꿀 수 이상 부등식하여 수득 원하는 불평등.{ 0 , 1 } r N ϵ r ( A , x )ϵ{0,1}rNϵr(A,x)


2의 요소가 어디에서 오는지에 대한 간단한 설명이 있습니까?
로빈 Kothari의

간단히 말해 의 정의에서 비롯된 것 입니다. 정의에서 2로 나눈 합은 최대 입니다. λβ(2λ)λ
Marcos Villagra

뭔가 이상한 것 같습니다. 정의에 따르면 그렇다면 왜 분입니까? maxAβ(2λ)){12xId(x),ϵ(A,x)}λ
Sasho Nikolov

그리고 나는 마지막 문장을 이해하지 못합니다. 에 대한 전체 논쟁을 어떻게 하고 로 대체 했습니까? rϵr
Sasho Nikolov

첫 번째 질문과 관련하여 더 자세한 내용을 추가했습니다.
Marcos Villagra
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.