«central-limit-theorem» 태그된 질문

중앙 한계 정리에 관한 질문에 대해, "특정 조건이 주어지면, 각각 잘 정의 된 평균과 잘 정의 된 분산을 갖는 충분히 많은 수의 독립적 인 랜덤 변수 반복 횟수의 평균이 대략 정규 분포 될 것입니다." (위키 백과)

1
상관 랜덤 변수의 가중 합에 대한 "중앙 한계 정리"
나는 그것을 주장하는 논문을 읽고 있습니다 엑스^케이= 1엔−−√∑j = 0엔− 1엑스제이이자형− i 2 πk j / N,엑스^케이=1엔∑제이=0엔−1엑스제이이자형−나는2π케이제이/엔,\hat{X}_k=\frac{1}{\sqrt{N}}\sum_{j=0}^{N-1}X_je^{-i2\pi kj/N}, (즉, 이산 푸리에 변환 CLT에 의한 DFT)는 (복잡한) 가우스 랜덤 변수 인 경향이있다. 그러나 나는 이것이 사실이 아니라는 것을 알고 있습니다. 이 잘못된 주장을 읽은 후, 나는 인터넷을 검색 하고 Peligrad & …

2
마르코프 체인에 대한 중앙 한계 정리
\newcommand{\E}{\mathbb{E}}\newcommand{\P}{\mathbb{P}} CLT (Central Limit Theorem)는 독립적이고 동일하게 분포 된 (iid) 및 이면 합은 정규 분포로 로 수렴됩니다 . 엑스1,엑스2, ...X1,X2,…X_1,X_2,\dots전자 [엑스나는] = 0E[Xi]=0\E[X_i]=0바르(엑스나는) &lt; ∞Var⁡(Xi)&lt;∞\operatorname{ Var} (X_i)<\inftyn → ∞n→∞n\to\infty∑나는 = 1엔엑스나는→ N( 0 ,엔−−√) .∑i=1nXi→N(0,n). \sum_{i=1}^n X_i \to N\left(0, \sqrt{n}\right). 대신 엑스1,엑스2, ...X1,X2,…X_1,X_2,\dots 는 고정 분포 피∞P∞\P_\infty 와 기대 값 …

3
중앙 한계 정리 및 파레토 분포
누군가 파레토 분포와 중앙 한계 정리 사이의 관계에 대한 간단한 설명을 제공 할 수 있습니까 (예 : 적용됩니까? 왜 / 왜 안됩니까?)? 다음 진술을 이해하려고합니다. "중앙 한계 정리는 모든 분포에서 작동하지 않습니다. 이것은 하나의 은밀한 사실 때문입니다. 표본 평균이 존재하는 경우 기본 분포의 평균 주위에 군집되어 있습니다. 그러나 분포가 의미가없는 …

2
독립 제곱 균일 랜덤 변수의 합의 제곱근의 기대
하자 BE 독립적이고 identicallly 분산 표준 균일 한 확률 변수를.X1,…,Xn∼U(0,1)X1,…,Xn∼U(0,1)X_1,\dots,X_n \sim U(0,1) Let Yn=∑inX2iI seek: E[Yn−−√]Let Yn=∑inXi2I seek: E[Yn]\text{Let }\quad Y_n=\sum_i^nX_i^2 \quad \quad \text{I seek: } \quad \mathbb{E}\big[\sqrt{Y_n } \big] 대한 기대 는 쉽습니다.YnY엔Y_n E[X2]E[Yn]=∫10y2y√=13=E[∑inX2i]=∑inE[X2i]=n3이자형[엑스2]=∫01와이2와이=1삼이자형[와이엔]=이자형[∑나는엔엑스나는2]=∑나는엔이자형[엑스나는2]=엔삼\begin{align} \mathbb{E}\left[X^2\right] &=\int_0^1\frac{y}{2\sqrt{y}}=\frac{1}{3}\\ \mathbb{E}\left[Y_n\right] &=\mathbb{E}\left[\sum_i^nX_i^2\right] = \sum_i^n\mathbb{E}\left[X_i^2\right]=\frac{n}{3} \end{align} 이제 지루한 부분입니다. LOTUS를 적용하려면 의 pdf가 필요합니다 …

1
정규 분포 오차와 중심 한계 정리
Wooldridge 's Introductory Econometrics에는 다음과 같은 인용문이 있습니다. 오류의 정규 분포를 정당화하는 인수는 대개 다음과 같이 실행됩니다. uuu 영향을 미치는 여러 가지 관찰되지 않은 요소의 합입니다 yyy우리는 중앙 한계 정리를 호출하여 uuu 근사 정규 분포가 있습니다. 이 인용문은 선형 모델 가정 중 하나와 관련이 있습니다. u∼N(μ,σ2)u∼N(μ,σ2)u \sim N(μ, σ^2) 여기서 …


1
확률 분포의 앙상블이 완료된 토폴로지
나는 확률 분포에 대한 거의 모든 토폴로지가 가지고있는 이상한 속성으로 확률 분포에 대한 직관적 인 이해를 조정하는 데 상당히 어려움을 겪고 있습니다. 예를 들어, 혼합 임의 변수 고려하십시오 . 분산이 1이고 확률이 인 0을 중심으로 한 가우시안을 선택 하고 결과 에 을 추가하십시오 . 이러한 임의의 변수 시퀀스는 분산 1을 …

1
t- 검정의 정규성 가정에 관한 질문
t- 검정의 경우 대부분의 텍스트에 따르면 모집단 데이터가 정규 분포되어 있다고 가정합니다. 왜 그런지 모르겠습니다. t- 검정은 표본 평균의 표본 분포가 모집단이 아닌 정규 분포를 요구할 뿐입니 까? t- 검정이 궁극적으로 샘플링 분포에서 정규성을 요구하는 경우에 모집단은 어떤 분포처럼 보일 수 있습니까? 합리적인 표본 크기가있는 한. 이것이 중심 제한 정리 …

3
만약
다음 설정 가정 하자 Zi=min{ki,Xi},i=1,...,nZi=min{ki,Xi},i=1,...,nZ_i = \min\{k_i, X_i\}, i=1,...,n . 또한 Xi∼U[ai,bi],ai,bi&gt;0Xi∼U[ai,bi],ai,bi&gt;0X_i \sim U[a_i, b_i], \; a_i, b_i >0 입니다. 또한 ki=cai+(1−c)bi,0&lt;c&lt;1ki=cai+(1−c)bi,0&lt;c&lt;1k_i = ca_i + (1-c)b_i,\;\; 0 k_i) = 1- \Pr(X_i \le k_i) =1−ki−aibi−ai=1−(1−c)(bi−ai)bi−ai=c=1−ki−aibi−ai=1−(1−c)(bi−ai)bi−ai=c= 1- \frac {k_i - a_i}{b_i-a_i} = 1-\frac {(1-c)(b_i-a_i)}{b_i-a_i} =c 따라서 모든 FZi(zi)=⎧⎩⎨⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪0zi&lt;aizi−aibi−aiai≤zi&lt;ki1ki≤ziFZi(zi)={0zi&lt;aizi−aibi−aiai≤zi&lt;ki1ki≤ziF_{Z_i}(z_i) = \begin{cases} 0\qquad z_i0zi=kizi=kiz_i …

2
Distribution \ CLT의 컨버전스
주어진 , 조건부 DISTR. 의 이다 . 에는 한계 편차가 있습니다. Poisson ( )에서 는 양의 상수입니다.N=nN=nN = nYYYχ2(2n)χ2(2n)\chi ^2(2n)NNNθθ\thetaθθ\theta 그보기로서 , 분포이다.θ→∞θ→∞\theta \rightarrow \infty (Y−E(Y))/Var(Y)−−−−−−√→N(0,1) (Y−E(Y))/Var⁡(Y)→N(0,1)\space \space (Y - E(Y))/ \sqrt{\operatorname{Var}(Y)} \rightarrow N(0,1) 누구든지 이것을 해결할 전략을 제안 할 수 있습니까? CLT (Central Limit Theorem)를 사용해야하는 것처럼 보이지만 에 …

1
모멘트가 없을 때의 CLT 예
고려Xn=⎧⎩⎨1−12kw.p. (1−2−n)/2w.p. (1−2−n)/2w.p. 2−k for k&gt;nXn={1w.p. (1−2−n)/2−1w.p. (1−2−n)/22kw.p. 2−k for k&gt;nX_n = \begin{cases} 1 & \text{w.p. } (1 - 2^{-n})/2\\ -1 & \text{w.p. } (1 - 2^{-n})/2\\ 2^k & \text{w.p. } 2^{-k} \text{ for } k > n\\ \end{cases} 이 순간에 무한한 순간이 있더라도n−−√(X¯n)→dN(0,1)n(X¯n)→dN(0,1)\sqrt{n}(\bar{X}_n) \overset{d}{\to} N(0,1) 나는 Levy 's Continuity …

2
혼합 모델을위한 파라 메트릭, 세미 파라 메트릭 및 비 파라 메트릭 부트 스트랩
이 기사 에서 다음과 같은 이식편을 가져옵니다 . 부트 스트랩을 사용하고 R boot패키지가있는 선형 혼합 모델을 위해 파라 메트릭, 반 파라 메트릭 및 비 파라 메트릭 부트 스트랩 부트 스트랩을 구현하려고 초보자 입니다. R 코드 내 R코드 는 다음과 같습니다 . library(SASmixed) library(lme4) library(boot) fm1Cult &lt;- lmer(drywt ~ Inoc + …
9 r  mixed-model  bootstrap  central-limit-theorem  stable-distribution  time-series  hypothesis-testing  markov-process  r  correlation  categorical-data  association-measure  meta-analysis  r  anova  confidence-interval  lm  r  bayesian  multilevel-analysis  logit  regression  logistic  least-squares  eda  regression  notation  distributions  random-variable  expected-value  distributions  markov-process  hidden-markov-model  r  variance  group-differences  microarray  r  descriptive-statistics  machine-learning  references  r  regression  r  categorical-data  random-forest  data-transformation  data-visualization  interactive-visualization  binomial  beta-distribution  time-series  forecasting  logistic  arima  beta-regression  r  time-series  seasonality  large-data  unevenly-spaced-time-series  correlation  statistical-significance  normalization  population  group-differences  demography 

2
데이터에 대한 ROC 곡선 계산
그래서, 나는 16 개의 시험을 가지고 있는데, 여기에서 Hamming Distance를 사용하여 생체 특성으로부터 사람을 인증하려고합니다. 임계 값이 3.5로 설정되었습니다. 내 데이터는 다음과 같으며 1 번 시험 만 참 긍정입니다. Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 7 0.47 8 0.32 9 0.39 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.