분포가 IID 임의 변수 이 있다고 가정 합니다. 우리는 다음과 같은 방식으로 의 샘플을 관찰 할 것입니다 : 이 독립 랜덤 변수가되게하자, 모든 와 가 독립적이며 표본 크기 . Y_i '의 어떤들 표시 x_i로부터 시료에의'우리는에 의해 정의 된 샘플에서 성공의 분율을 연구하고자
분포가 IID 임의 변수 이 있다고 가정 합니다. 우리는 다음과 같은 방식으로 의 샘플을 관찰 할 것입니다 : 이 독립 랜덤 변수가되게하자, 모든 와 가 독립적이며 표본 크기 . Y_i '의 어떤들 표시 x_i로부터 시료에의'우리는에 의해 정의 된 샘플에서 성공의 분율을 연구하고자
답변:
우리는 Hoeffding의 불평등과 직접적인 관계를 맺을 수 있습니다 .
주 우리가 가지고
집합 이므로 것을 IID되고, 및 Hoeffding의 불평등을 간단하게 적용 하여 ( 이므로 1 간격 간격으로 값을 가져 .Z i E Z i = 0 P ( Z > θ + ϵ ) = P ( ∑ i Z i > n ϵ / 2 ) ≤ e − n ϵ 2 / 2Z의 I ∈ [ - θ - ε / 2 , 1 - θ - ε / 2 ]
지난 몇 년 동안, 특히 다양한 실제 응용을 갖는 랜덤 매트릭스 이론과 관련된 주제에 대해 풍부하고 매혹적인 관련 문헌이 있습니다. 이런 종류의 것에 관심이 있으시면 다음을 적극 권장합니다.
R. Vershynin, 랜덤 매트릭스의 비 점근 분석 소개 , 압축 감지, 이론 및 응용의 5 장. Y. Eldar와 G. Kutyniok에 의해 편집 됨. 케임브리지 대학 출판부, 2012.
나는 박람회가 명확하고 문헌에 빨리 적응할 수있는 아주 좋은 방법을 제공한다고 생각합니다.
이 답변은 계속 변경됩니다. 현재 버전은 의견에서 @cardinal과 함께 한 토론과 관련이 없습니다 (이 토론을 통해 컨디셔닝 접근 방식이 아무데도 인도하지 않는 것으로 감사하다는 것을 알았지 만).
이를 위해 Hoeffding의 1963 년 논문의 다른 부분 , 즉 5 절 "종속적 인 임의 변수의 합" 을 사용하겠습니다 .
집합
우리가 설정하면서 경우 .
그런 다음 변수가 있습니다
우리는 확률에 관심이 있습니다
다른 많은 불평등에 관해서, Hoeffding은 그
종속 변수의 경우 Hoeffding으로서 이라는 사실을 사용 하고 (볼록한) 지수 함수에 대해 Jensen의 부등식을 호출하여
결과를 연결하여
우리의 경우를 중심으로 와 는 독립적이므로 예상 값을 분리 할 수 있습니다
우리의 경우, 는 매개 변수 가진 iid Bernoullis 이고, 는 의 공통 모멘트 생성 함수입니다 . . 그래서
관련하여 우를 최소화 , 우리가 얻을
불평등에 끼 우고 우리가 얻는 조작
동안
Hoeffding은
OP 제공 : (감사합니다. 조금 지쳤습니다 ...)
마지막으로, "종속 변수 접근"은
이것을 추기경의 경계와 비교해 봅시다. 이것은 "독립성"변환 인 합니다. 우리의 경계가 더 단단해 지려면
그래서위한 우리는이 . 들어 , 꽤 빨리 보다 엄격하게 하지만, 아주 작은을 위해 도이 작은 "창은"빠르게 제로로 수렴하면서. 예를 들어, 의 경우 인 경우 가 더 엄격합니다. 결국, 추기경의 경계가 더 유용합니다. B D ≤ B I n ≥ 5 B I B D ϵ n = 12 ϵ ≥ 0.008 B I
COMMENT가
Hoeffding 의존 확률 변수의 결정 볼록 조합의 경우를 검사하는 것이 Hoeffding의 원래 종이에 대한 노출이 오해의 소지 방지하기 위해, 내가 언급해야한다. 구체적으로, 그의 는 랜덤 변수가 아닌 숫자이고, 각각의 는 독립적 인 랜덤 변수의 합이며, 사이에 의존성이 존재할 수있다 . 그런 다음 이러한 방식으로 표현할 수있는 다양한 "U- 통계"를 고려합니다.X i X i