내가 뭔가 반대를 표시하여 내 이전 오류를 속죄하려고 시도합니다 - 것으로 샘플은 아래의 하한 (충분한 는 거의 타이트합니다!) 당신의 생각을 참조하십시오 ....1/ϵ2Θ~(1ϵ2)1/ϵ2
주요 직관은 두 가지 관찰에서 시작됩니다. 먼저, 분포의 거리가 이 되려면 확률이 높은 점이 있어야합니다 ( ). 예를 들어, 확률 이면 입니다. ε Ω ( ε 2 ) 1 / ε 3 ε 3 ‖ D (1) - D 2 ‖ 2 ≤ √L2ϵΩ(ϵ2)1/ϵ3ϵ3∥D1−D2∥2≤1ϵ3(ϵ3)2−−−−−−√=ϵ3/2<ϵ
둘째, 거리가 균일 분포를 고려하십시오 . 우리가 있었다면 확률의 점 , 그 후에는 각각 다를 것이다 및 샘플 충분하다. 반면에 포인트가 있으면 와 다시 샘플 (상수는 포인트)면 충분합니다. 따라서 앞에서 언급 한 확률이 높은 점 중에서 가 구별하는 "충분한"점이 항상 다른 점이 있기를 바랍니다. ϵ O ( 1 ) O ( 1 ) O ( ϵ ) 1 / ϵ 2 O ( 1 / ϵ 2 ) O ( ϵ 2 ) O ( 1 / ϵ 2 ) O ( 1 / ϵ 2 )L2ϵO(1)O(1)O(ϵ)1/ϵ2O(1/ϵ2)O(ϵ2)O(1/ϵ2)O(1/ϵ2)
연산. 과 신뢰 매개 변수 주어지면 이라고하자 . 그리 각 분포로부터 샘플. 를 점 대한 각각의 더 높은, 더 적은 수의 샘플로 하자 . 및 대한 점 이있는 경우 다른 배포판. 그렇지 않으면 동일하게 선언하십시오.M X = M log ( 1 / ϵ 2 ) XϵMX=Mlog(1/ϵ2) ai,biii∈[n]ai≥XXϵ2ai,biii∈[n] ai−bi≥√ai≥X8ai−bi≥ai−−√X√4
정확성과 신뢰 한계 ( )는 거리 의 모든 편차 가 확률이 따라 다른 점 에서 한다는 다음의 정리에 따라 다릅니다 . L 2 Ω ( ϵ 2 )1−e−Ω(M)L2Ω(ϵ2)
청구. 이라고 가정하십시오 . 하자. 하자 . 그런 다음
δ i = | D 1 ( I ) - D 2 ( I ) | S k = { i : δ i > ϵ 2∥D1−D2∥2≥ϵδi=|D1(i)−D2(i)|∑i∈ S k δ 2 i ≥ϵ2(1−2Sk={i:δi>ϵ2k}
∑i∈Skδ2i≥ϵ2(1−2k).
증거 . 우리는이
두 번째 합을 결집합시다. 따라 를 최대화하고 싶습니다 . 함수 보낸 엄격 볼록하고, 우리가 어떤 취하여 목적을 높일 수 증가 및 증가 하여 감소시키면서 하여 . 따라서 목표는 최대 값에서 최대한 많은 항을 사용하고 나머지는 최대화합니다.∑ i ∉ S k δ 2 i ∑ i ∉ S k δi≤2x↦x2δi≥δjδiγδjγ0 ϵ 2
∑i∈Skδ2i + ∑i∉Skδ2i≥ϵ2.
∑i∉Skδ2i∑i∉Skδi≤2x↦x2δi≥δjδiγδjγ0. 각 기간의 최대 값은 및 기껏있다 이 값 환산 (그들은 최대 합이 때문에 ). 따라서
2kϵ2k 2∑i∉Skδ 2 i ≤2k2kϵ22∑i∉Skδ2i≤2kϵ2(ϵ2k)2=2ϵ2k. □
청구 . 하자 . 만약 , 적어도 하나의 포인트가 존재한다 와 및 .‖ D (1) - D 2 ‖ 2 ≥ ε I ∈ [ N ] P I > ε 2pi=max{D1(i),D2(i)}∥D1−D2∥2≥ϵi∈[n]pi>ϵ24δi≥ϵpi√2
증거 . 먼저, 모든 포인트는 에 따라 를 ( 는 이전 청구 에서 에 대해 비어 수 없음 ).Skpi≥δi>ϵ2kSkk>2
둘째, 이므로
또는 재 배열,
이므로 부등식
는 에서 하나 이상의 점을 합니다. 이제 선택하십시오 . ∑ipi≤2
∑i∈Skδ2i≥ϵ2(12−1k)∑i∈Skpi,
∑i∈Sk(δ2i−piϵ2(12−1k))≥0,
δ2i≥piϵ2(12−1k)
Skk=4□
클레임 (거짓 긍정) . 인 경우 알고리즘은 최대 확률로 다르게 선언합니다 .D1=D2e−Ω(M)
스케치 . 및 두 가지 경우를 고려하십시오 . 첫 번째 경우, 의 표본 수는 두 분포에서 을 초과하지 않습니다 . 평균 표본 수는 이며 꼬리 한계는 확률이 , 의 표본은 첨가제 의한 평균을 초과하지 않습니다 . 값을 테일 바운드 로 유지하는 데주의를 기울이면 그러한 포인트가 몇 개 있든 관계없이 그 값 에 대해 결합 바운드를 결합 할 수 있습니다 (직관적으로는 가능한 포인트 수에서 기하 급수적으로 지수가 감소합니다).pi<ϵ2/16pi≥ϵ2/16iX/8<X/16e−Ω(X/pi)=ϵ2e−Ω(M/pi)iX/16pi
경우 , 우리는 Chernoff 바인딩 사용할 수 있습니다 : 우리가 걸릴 때, 그 말한다 샘플을 및 지점은 확률로 그려진 , 평균과는 다른 가능성 에 의해 은 최대 입니다. 여기에서 으로 설정하여 확률은 됩니다.pi≥ϵ2/16mppmcpm−−−√e−Ω((cpm√)2/pm)=e−Ω(c2)c=X√16e−Ω(X)=ϵ2e−Ω(M)
그래서 확률 (두 배포본)의 샘플의 개수 내 의 평균의 . 따라서 우리의 테스트는 이러한 점을 포착하지 못하고 (그들은 서로 매우 가깝습니다), 우리는 의 모든 영역에 대해 결합 된 경계를 가질 수 있습니다. 1−ϵ2e−Ω(M)ipiXϵ2−−−−√X√16piXϵ216/ϵ2□
주장 (거짓 부정) . 경우 , 우리의 알고리즘은 최대 확률 그들이 동일한 선언 .∥D1−D2∥2≥ϵϵ2e−Ω(M)
스케치 . 및 포인트 가 있습니다. 앞의 주장과 같은 체 르노 프는 확률 에서 의 샘플 수 는 평균 과 최대 만큼 다르다고 말합니다 . 그것은 를 갖는 (WLOG) 분포 대한 ; 그러나 분포 에서 의 샘플 수가 확률이 훨씬 낮습니다.ipi>ϵ2/4δi≥ϵpi−−√/21−ϵ2e−Ω(M)ipimpim−−−√X√161pi=D1(i)=D2(i)+δii2 이 첨가량에 의해 평균과 다른 것 (평균과 분산이 더 낮기 때문에).
따라서 높은 확률 로 각 분포 의 샘플 수는 평균의 있습니다. 그러나 그 확률은 마다 다르 므로 그 수단은
ipiXϵ2−−−√X√16δi
Xϵ2δi≥Xpi−−√2ϵ=piXϵ2−−−−√X−−√2.
따라서 높은 확률로 포인트 의 경우 샘플 수는 적어도 만큼 다릅니다 . i#samples(1)−−−−−−−−−−−√X√4□
스케치를 완료하려면 충분히 큰 경우 의 샘플 수가 알고리즘 이 아닌 사용할 때의 평균에 충분히 가깝다 는 것을보다 엄격하게 보여 주어야합니다. , 그것은 아무것도 변경하지 않습니다 (상황에 약간의 흔들림 공간을 남겨두면 간단해야 함).Mi#samples−−−−−−−−√mean−−−−−√