«convergence» 태그된 질문

수렴은 일반적으로 샘플 크기가 무한대 인 경향이 있으므로 특정 샘플 수량의 시퀀스가 ​​상수에 근접 함을 의미합니다. 수렴은 목표 값을 안정화시키는 반복 알고리즘의 속성이기도합니다.


1
자유도는 정수가 아닌 숫자 일 수 있습니까?
GAM을 사용할 때 잔여 DF는 (코드의 마지막 줄). 그게 무슨 뜻이야? GAM 예제를 넘어 서면 일반적으로 자유도는 정수가 아닌 숫자 일 수 있습니까?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 -1.6217 -0.8971 1.2445 6.0516 (Dispersion Parameter …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

5
분포의 수렴과 확률의 수렴에 대한 직관적 인 설명
확률로 수렴하는 랜덤 변수와 분포로 수렴하는 임의 변수 사이 의 직관적 인 차이점 은 무엇입니까 ? 나는 수많은 정의와 수학 방정식을 읽었지만 실제로 도움이되지는 않습니다. (생태계를 공부하는 학부생입니다.) 랜덤 변수는 어떻게 단일 숫자로 수렴하지만 분포로 수렴 할 수 있습니까?

2
기대 최대화 알고리즘이 로컬 최적으로 수렴하도록 보장되는 이유는 무엇입니까?
EM 알고리즘에 대한 몇 가지 설명을 읽었습니다 (예 : Bishop의 패턴 인식 및 기계 학습 및 기계 학습에 대한 Roger 및 Gerolami 첫 번째 과정). EM의 파생은 괜찮습니다. 이해합니다. 또한 알고리즘이 무언가에 적용되는 이유를 이해합니다. 각 단계에서 결과를 개선하고 가능성은 1.0로 제한됩니다. 따라서 간단한 사실 (함수가 증가하고 제한되면 수렴)을 사용하여 …

2
극한 가치 이론-Show : Normal to Gumbel
최대 iid Standardnormals는 극한값 이론 에 따라 표준 Gumbel 분포로 수렴됩니다 .X1,…,Xn.∼X1,…,Xn.∼X_1,\dots,X_n. \sim 우리는 어떻게 그것을 보여줄 수 있습니까? 우리는 P(maxXi≤x)=P(X1≤x,…,Xn≤x)=P(X1≤x)⋯P(Xn≤x)=F(x)nP(maxXi≤x)=P(X1≤x,…,Xn≤x)=P(X1≤x)⋯P(Xn≤x)=F(x)nP(\max X_i \leq x) = P(X_1 \leq x, \dots, X_n \leq x) = P(X_1 \leq x) \cdots P(X_n \leq x) = F(x)^n 다음 과 같은 상수의 시퀀스 를 찾거나 선택해야 …


3
0이 아닌 점근 적 분산으로 점근 적 일관성-무엇을 나타내는가?
문제가 전에 제기되었지만 문제를 명확히하고 분류 할 수있는 답변을 이끌어 낼 구체적인 질문을하고 싶습니다. "가난한 사람의 무증상"에서, (a) 확률로 상수로 수렴하는 무작위 변수의 시퀀스 대조적으로 (b) 확률 변수에서 확률 변수로 수렴하는 (따라서 분포) 무작위 변수의 순서. 그러나 "Wise Man 's Asymptotics"에서 우리는 또한 (c) 한계에서 0이 아닌 분산을 유지하면서 확률로 …

1
중앙 제한 정리 및 다수의 법칙
CLT (Central Limit Theorem)에 관한 초보자 질문이 있습니다. CLT는 iid 임의 변수의 평균이 대략 정규 분포 ( 인 경우 은 summands의 인덱스 임)이거나 표준화 된 무작위 변수는 표준 정규 분포를 갖는다는 것을 알고 있습니다.n → ∞엔→∞n \to \infty엔엔n 이제 대수 법칙은 iid 랜덤 변수의 평균이 (확률 적으로 또는 거의 확실하게) …


5
k- 평균이 왜 세계 최소값을 제공하지 않습니까?
k- 평균 알고리즘은 전역 최소값이 아닌 로컬 최소값으로 만 수렴된다는 것을 읽었습니다. 왜 이런거야? 논리적으로 초기화가 최종 클러스터링에 영향을 줄 수있는 방법을 생각할 수 있으며 하위 최적 클러스터링의 가능성이 있지만 수학적으로 증명할 수있는 것은 찾지 못했습니다. 또한 k- 평균은 왜 반복 과정입니까? 목적 함수 wrt를 중심과 부분적으로 구별 할 수없고,이 …

2
중앙 한계 정리의 역동적 인 시스템 관점?
(원래 MSE에 게시 됨 ) 나는 고전적인 중앙 한계 정리에 대한 많은 휴리스틱 토론이 정규 분포 (또는 안정적인 분포)를 확률 밀도 공간의 "유인 자"라고 말합니다. 예를 들어, Wikipedia의 치료 맨 위에서 다음 문장을 고려하십시오 . 보다 일반적인 사용법에서 중심 한계 정리는 확률 이론의 약한 수렴 이론 세트 중 하나입니다. 그들은 …

1
glmer에서 수렴 경고의 의미
내가 사용하고 glmer으로부터 기능을 lme4R의 패키지, 그리고 내가 사용하고 bobyqa최적화 (내 경우에는 기본 즉). 경고 메시지가 표시되며 그 의미가 무엇인지 궁금합니다. Warning message: In optwrap(optimizer, devfun, start, rho$lower, control = control, : convergence code 3 from bobyqa: bobyqa -- a trust region step failed to reduce q "신뢰 영역 단계에서 …

1
스탠
여기 에서 다운로드 할 수있는 Stan 설명서를 살펴 보았습니다 . 특히 Gelman-Rubin 진단을 구현하는 데 관심이있었습니다. 최초의 논문 Gelman & Rubin (1992 )은 다음과 같이 잠재적 스케일 감소 계수 (PSRF)를 정의합니다. 하자 Xi,1,…,Xi,NXi,1,…,Xi,NX_{i,1}, \dots , X_{i,N} 일 iii 샘플링 일 마르코프 체인 및 전반적인있을 수 있습니다 MMM 샘플링 독립 체인. …

1
고차원 회귀 : 왜 특별합니까?
고차원 회귀 영역에 대한 연구를 읽으려고 노력하고 있습니다. 경우 보다 큰 이며, . 이 용어처럼 보인다 회귀 추정량에 대한 수렴 속도 측면에서 종종 나타납니다.피피p엔엔nP > > N피>>엔p >> n로그p / n로그⁡피/엔\log p/n 예를 들어, 여기서 식 (17)은 올가미 적합 가 β^β^\hat{\beta}1엔∥ Xβ^− Xβ∥22= O피( σ로그피엔−−−−−√∥ β∥1).1엔”엑스β^−엑스β”22=영형피(σ로그⁡피엔”β”1). \dfrac{1}{n}\|X\hat{\beta} - X \beta\|_2^2 …

1
GLM의 로그 가능성이 글로벌 최대 값으로 수렴을 보장합니까?
내 질문은 : 일반화 된 선형 모델 (GLM)이 전체 최대 값으로 수렴되도록 보장됩니까? 그렇다면 왜 그렇습니까? 또한, 볼록 함을 보장하기 위해 링크 기능에는 어떤 제약이 있습니까? GLM에 대한 나의 이해는 이들이 매우 비선형 우도 함수를 최대화한다는 것입니다. 따라서 여러 로컬 최대 값이 있고 수렴 할 매개 변수 세트가 최적화 알고리즘의 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.