«convergence» 태그된 질문

수렴은 일반적으로 샘플 크기가 무한대 인 경향이 있으므로 특정 샘플 수량의 시퀀스가 ​​상수에 근접 함을 의미합니다. 수렴은 목표 값을 안정화시키는 반복 알고리즘의 속성이기도합니다.

1
Gelman과 Rubin 수렴 진단, 벡터 작업을 일반화하는 방법?
Gelman 및 Rubin 진단은 병렬로 실행되는 여러 mcmc 체인의 수렴을 확인하는 데 사용됩니다. 체인 내 분산과 체인 간 분산을 비교하면 노출은 다음과 같습니다. 단계 (각 매개 변수) : 과도하게 분산 된 시작 값에서 길이 2n의 m ≥ 2 체인을 실행하십시오. 각 체인에서 첫 번째 n 추첨을 버리십시오. 체인 내 및 …

4
일관되고 무증상의 편견의 차이점에 대한 직관적 인 이해
나는 일관성 있고 무증상이라는 용어 사이의 차이점과 실제적인 차이에 대해 직관적 인 이해와 느낌을 얻으려고 노력하고 있습니다. 나는 그들의 수학적 / 통계적 정의를 알고 있지만 직관적 인 것을 찾고 있습니다. 나에게 그들의 개별 정의를 보면 거의 같은 것 같습니다. 나는 그 차이가 미묘해야한다는 것을 알고 있지만 나는 그것을 보지 못한다. …

1
수렴 속도가 빠르기 때문에
내가 가지고 있다고 가정하자 IID하고 내가하는 가설 테스트를 수행 할 μ는 0입니다 내가 큰 N이와 중심 극한 정리를 사용할 수 있습니다 가정하자. 또한 μ 2 가 0 이라는 테스트를 수행 할 수 있는데, μ 가 0 이라는 테스트와 동등해야 합니다. 또한 n ( ˉ X 2 − 0 ) 은 …

2
Slutsky의 정리는 두 시퀀스가 ​​모두 비 변형 랜덤 변수로 수렴 될 때 여전히 유효합니까?
나는 Slutsky의 정리 에 대한 몇 가지 세부 사항에 대해 혼란스러워합니다 . 하자 , 스칼라 / 벡터 / 행렬 랜덤 요소 두 시퀀스 수.{Xn}{Xn}\{X_n\}{Yn}{Yn}\{Y_n\} 만약 임의의 요소에 분배 수렴 및 정수의 행 확률 수렴 다음 이 제공 여기서 가역 인 {\ xrightarrow {d}} 는 분포의 수렴을 나타냅니다.XnXnX_nXXXYnYnY_ncccXn+Yn XnYn Xn/Yn →d …

3
확률의 수렴에 대하여
보자 {Xn}n≥1{Xn}n≥1\{X_n\}_{n\geq 1} 확률 변수 일 수 시퀀스 Xn→aXn→aX_n \to a 확률에서 a&gt;0a&gt;0a>0 고정 상수이다. 나는 다음을 보여 주려고 노력하고있다 : Xn−−−√→a−−√Xn→a\sqrt{X_n} \to \sqrt{a} 와 aXn→1aXn→1\frac{a}{X_n}\to 1 둘 다 확률입니다. 나는 나의 논리가 건전한 지보기 위해 왔습니다. 여기 내 작품이 있습니다 시도 첫 번째 부분은 |Xn−−−√−a−−√|&lt;ϵ⟸|Xn−a|&lt;ϵ|Xn−−−√+a−−√|=ϵ|(Xn−−−√−sqrta)+2a−−√||Xn−a|&lt;ϵ⟸|Xn−a|&lt;ϵ|Xn+a|=ϵ|(Xn−sqrta)+2a||\sqrt{X_n}-\sqrt{a}|<\epsilon \impliedby |X_n-a|<\epsilon|\sqrt{X_n}+\sqrt{a}|=\epsilon|(\sqrt{X_n}-sqrt{a})+2\sqrt{a}| ≤ϵ|Xn−−−√−a−−√|+2ϵa−−√&lt;ϵ2+2ϵa−−√≤ϵ|Xn−a|+2ϵa&lt;ϵ2+2ϵa\leq \epsilon|\sqrt{X_n}-\sqrt{a}|+2\epsilon\sqrt{a}<\epsilon^2+2\epsilon\sqrt{a} …

2
점점 더 많은 데이터가 수집 될수록 가능성 비율은 어떻게됩니까?
하자 , 와 밀도하고 당신이 가정 , . 로 가능성 비율 는 어떻게됩니까? (수렴? 무엇에?)fffggghhhxi∼hxi∼hx_i \sim hi∈Ni∈Ni \in \mathbb{N}∏i=1nf(xi)g(xi)∏i=1nf(xi)g(xi) \prod_{i=1}^n \frac{f(x_i)}{g(x_i)} n→∞n→∞n \rightarrow \infty 예를 들어 라고 가정 할 수 있습니다 . 일반적인 경우도 관심이 있습니다.h=gh=gh = g

3
또 다른 중심 제한 정리 문제
하자 독립적 베르누이 랜덤 변수들의 시퀀스 일 집합 보여 표준 정규 분포 변수로 수렴 등이 무한대.{Xn:n≥1}{Xn:n≥1}\{X_n:n\ge1\}P{Xk=1}=1−P{Xk=0}=1k.P{Xk=1}=1−P{Xk=0}=1k.P\{X_k=1\}=1-P\{X_k=0\}=\frac{1}{k}.Sn=∑k=1n(Xk−1k), B2n=∑k=1nk−1k2Sn=∑k=1n(Xk−1k), Bn2=∑k=1nk−1k2S_n=\sum^{n}_{k=1}\left(X_k-\frac{1}{k}\right), \ B_n^2=\sum^{n}_{k=1}\frac{k-1}{k^2}SnBnSnBn\frac{S_n}{B_n}ZZZnnn 내 시도는 그러므로 우리가 존재 보여줄 필요가, 아프 노프 CLT를 사용하는 것입니다 등, 그 δ&gt;0δ&gt;0\delta>0limn→∞1B2+δn∑k=1nE[|Xk−1k|2+δ]=0.limn→∞1Bn2+δ∑k=1nE[|Xk−1k|2+δ]=0.\lim_{n\rightarrow \infty}\frac{1}{B_n^{2+\delta}}\sum_{k=1}^{n}E[|X_k-\frac{1}{k}|^{2+\delta}]=0. 따라서 δ=1δ=1\delta=1∑k=1nE∣∣Xk−k−1∣∣3=∑k=1n(1k−3k2+4k3−2k4)∑k=1nE|Xk−k−1|3=∑k=1n(1k−3k2+4k3−2k4) \sum_{k=1}^{n}E\left|X_k-k^{-1}\right|^{3}=\sum_{k=1}^{n} \left(\frac{1}{k}-\frac{3}{k^2}+\frac{4}{k^3}-\frac{2}{k^4}\right) 및 B3n=(∑k=1n1k−1k2)(∑k=1n1k−1k2)−−−−−−−−−−−−⎷Bn3=(∑k=1n1k−1k2)(∑k=1n1k−1k2) B_n^3=\left( \sum_{k=1}^n \frac{1}{k}-\frac{1}{k^2} \right) \sqrt{\left( \sum_{k=1}^n \frac{1}{k}-\frac{1}{k^2} \right)} …

1
(X,Y)(X,Y)(X,Y) 에 pdf가 있다고 가정 fθ(x,y)=e−(x/θ+θy)1x&gt;0,y&gt;0,θ&gt;0fθ(x,y)=e−(x/θ+θy)1x&gt;0,y&gt;0,θ&gt;0f_{\theta}(x,y)=e^{-(x/\theta+\theta y)}\mathbf1_{x>0,y>0}\quad,\,\theta>0 따라서이 모집단에서 추출한 샘플의 밀도 (X,Y)=(Xi,Yi)1≤i≤n(X,Y)=(Xi,Yi)1≤i≤n(\mathbf X,\mathbf Y)=(X_i,Y_i)_{1\le i\le n} 은 gθ(x,y)=∏i=1nfθ(xi,yi)=exp[−∑i=1n(xiθ+θyi)]1x1,…,xn,y1,…,yn&gt;0=exp[−nx¯θ−θny¯]1x(1),y(1)&gt;0,θ&gt;0gθ(x,y)=∏i=1nfθ(xi,yi)=exp⁡[−∑i=1n(xiθ+θyi)]1x1,…,xn,y1,…,yn&gt;0=exp⁡[−nx¯θ−θny¯]1x(1),y(1)&gt;0,θ&gt;0\begin{align} g_{\theta}(\mathbf x,\mathbf y)&=\prod_{i=1}^n f_{\theta}(x_i,y_i) \\&=\exp\left[{-\sum_{i=1}^n\left(\frac{x_i}{\theta}+\theta y_i\right)}\right]\mathbf1_{x_1,\ldots,x_n,y_1,\ldots,y_n>0} \\&=\exp\left[-\frac{n\bar x}{\theta}-\theta n\bar y\right]\mathbf1_{x_{(1)},y_{(1)}>0}\quad,\,\theta>0 \end{align} θθ\theta 의 최대 우도 추정값은 다음 과 같이 도출 될 수 있습니다. θ^(X,Y)=X¯¯¯¯Y¯¯¯¯−−−√θ^(X,Y)=X¯Y¯\hat\theta(\mathbf X,\mathbf Y)=\sqrt\frac{\overline X}{\overline Y} 이 MLE의 제한 …

1
주문 통계를 통해 추정값을 백분위 수로 수렴 표시
하자 에서 샘플링 IID 랜덤 변수들의 시퀀스 일 알파 안정된 분포 파라미터와 입니다. α = 1.5 ,X1,X2,…,X3nX1,X2,…,X3nX_1, X_2, \ldots, X_{3n}α=1.5,β=0,c=1.0,μ=1.0α=1.5,β=0,c=1.0,μ=1.0\alpha = 1.5, \; \beta = 0, \; c = 1.0, \; \mu = 1.0 이제 시퀀스를 고려하십시오 . 여기서 , .Y1,Y2,…,YnY1,Y2,…,YnY_1, Y_2, \ldots, Y_{n}Yj+1=X3j+1X3j+2X3j+3−1Yj+1=X3j+1X3j+2X3j+3−1Y_{j+1} = X_{3j+1}X_{3j+2}X_{3j+3} - 1j=0,…,n−1j=0,…,n−1j=0, \ldots, n-1 …

3
두 개의 유사한 시계열이 언제 발산하기 시작하는지 확인하기위한 통계 테스트
제목에서와 같이, 나는 두 개의 유사한 시계열 사이의 상당한 차이를 식별하는 데 도움이되는 통계 테스트가 존재하는지 알고 싶습니다. 구체적으로, 아래 그림을 보면, 시간 t1에서, 즉 이들 간의 차이가 커지기 시작할 때 계열이 분기되기 시작한다는 것을 감지하고 싶습니다. 또한 시리즈 간 차이가 중요하지 않은 시점을 감지합니다. 이를 위해 유용한 통계 테스트가 …

2
,?
반례를 증명하거나 제공하십시오. 만약 , 다음XnXnX_n →a.s.→a.s.\,{\buildrel a.s. \over \rightarrow}\, ( ∏ n i = 1 X i ) 1 / nXXX(∏ni=1Xi)1/n(∏i=1nXi)1/n(\prod_{i=1}^{n}X_i)^{1/n} →a.s.→a.s.\,{\buildrel a.s. \over \rightarrow}\, XXX 내 시도 : FALSE : 가 음수 값만 취할 수 있고 이라고 가정합니다.X N ≡ X ∀ NXXXXn≡XXn≡XX_n \equiv X ∀∀\forall nnn THEN …

1
이 무한대로 갈 때 가 정규 분포로 수렴 한다는 이론이 있습니까?
하자 정의 평균, 함께 임의 분배 및 표준 편차 . 중심 한계 정리에 따르면 는 표준 정규 분포로 수렴합니다. 를 표본 표준 편차 대체 하면 가 t- 분포로 수렴 한다는 이론이 있습니까? 큰 부터μ σ √XXXμμ\muσσ\sigma σS√n−−√X¯−μσnX¯−μσ \sqrt{n}\frac{\bar{X} - \mu}{\sigma} σσ\sigmaSSS NXn−−√X¯−μSnX¯−μS \sqrt{n}\frac{\bar{X} - \mu}{S} nnnt- 분포가 정규에 접근하면, 정리가 …

1
K- 평균 : 실제 상황에서 얼마나 많은 반복이 있습니까?
데이터 마이닝 또는 빅 데이터에 대한 업계 경험이 없으므로 경험을 공유하는 것을 듣고 싶습니다. 사람들이 실제로 큰 데이터 세트에서 k- 평균, PAM, CLARA 등을 실행합니까? 아니면 무작위로 샘플을 추출합니까? 데이터 집합의 샘플 만 가져 오는 경우 데이터 집합이 정규 분포를 따르지 않으면 결과가 신뢰할 수 있습니까? 이러한 알고리즘을 실행할 때 …

1
거의 확실한 수렴은 완전한 수렴을 의미하지는 않습니다.
우리는 말을 X1,X2,…X1,X2,…X_1, X_2, \ldots 완전히 수렴하다 XXX 모든 경우에 ϵ&gt;0ϵ&gt;0\epsilon>0 ∑∞n=1P(|Xn−X|&gt;ϵ)&lt;∞∑n=1∞P(|Xn−X|&gt;ϵ)&lt;∞\sum_{n=1}^\infty \text{P}\left(|X_n-X|>\epsilon\right) <\infty. 보렐 칸 텔리의 명예는 완전한 수렴이 거의 확실한 수렴을 의미한다는 것을 증명하는 것입니다. Borel Cantelli로 컨버전스를 입증 할 수없는 예를 찾고 있습니다. 이것은 거의 확실하지만 완벽하게 수렴하지 않는 일련의 무작위 변수입니다.

1
R 선형 회귀 범주 형 변수 "숨김"값
이것은 여러 번 나온 예제 일뿐이므로 샘플 데이터가 없습니다. R에서 선형 회귀 모델 실행 : a.lm = lm(Y ~ x1 + x2) x1연속 변수입니다. x2범주 형이며 "낮음", "중간"및 "높음"의 세 가지 값이 있습니다. 그러나 R이 제공하는 출력은 다음과 같습니다. summary(a.lm) Estimate Std. Error t value Pr(&gt;|t|) (Intercept) 0.521 0.20 1.446 …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.