«normality-assumption» 태그된 질문

많은 통계적 방법은 데이터가 정규 분포되어 있다고 가정합니다. 정규성의 가정 및 테스트 또는 * 속성 *의 정규성에 대한 질문에이 태그를 사용하십시오. 정규 분포 자체에 대한 질문은 [정규 분포]를 사용하십시오.


5
정규 분포를 따르는 자연 현상이 너무 많은 이유에 대한 설명이 있습니까?
나는 이것이 매혹적인 주제라고 생각하며 그것을 완전히 이해하지 못한다. 많은 자연 현상이 정규 분포를 갖도록 물리 법칙은 무엇입니까? 그것들이 균일 한 분포를 갖는 것이 더 직관적 인 것처럼 보일 것입니다. 이해하기가 너무 어려워서 정보가 누락 된 것 같습니다. 누군가 좋은 설명을하도록 도와 주거나 책 / 비디오 / 문서로 연결시킬 수 …

6
Shapiro-Wilk 테스트의 해석
통계가 처음이므로 도움이 필요합니다. 다음과 같이 작은 샘플이 있습니다. H4U 0.269 0.357 0.2 0.221 0.275 0.277 0.253 0.127 0.246 R을 사용하여 Shapiro-Wilk 테스트를 실행했습니다. shapiro.test(precisionH4U$H4U) 그리고 나는 다음과 같은 결과를 얻었다 : W = 0.9502, p-value = 0.6921 이제 p- 값보다 0.05의 유의 수준이 알파보다 크면 (0.6921> 0.05) 정규 분포에 …

1
가정이 충족되지 않을 때 회귀 모형이 얼마나 잘못 되었습니까?
회귀 모델을 피팅 할 때 출력의 가정이 충족되지 않으면 어떻게됩니까? 잔차가 동형이 아닌 경우 어떻게됩니까? 잔차가 잔차 대 적합 그림에서 증가하거나 감소하는 패턴을 나타내는 경우 잔차가 정규 분포를 따르지 않고 Shapiro-Wilk 테스트에 실패하면 어떻게됩니까? 정규성 Shapiro-Wilk 검정은 매우 엄격한 검정이며, 경우에 따라 정상 -QQ 플롯이 다소 합리적으로 보일지라도 데이터가 검정에 …

1
lmer 모델의 효과 반복 계산
방금 혼합 효과 모델링을 통해 측정의 반복성 (일명 신뢰성, 일명 클래스 내 상관 관계)을 계산하는 방법을 설명하는 이 문서를 보았습니다. R 코드는 다음과 같습니다. #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 intercept_var = attr(vc$id,'stddev')[1]^2 #compute the unadjusted repeatability R = intercept_var/(intercept_var+residual_var) …
28 mixed-model  reliability  intraclass-correlation  repeatability  spss  factor-analysis  survey  modeling  cross-validation  error  curve-fitting  mediation  correlation  clustering  sampling  machine-learning  probability  classification  metric  r  project-management  optimization  svm  python  dataset  quality-control  checking  clustering  distributions  anova  factor-analysis  exponential  poisson-distribution  generalized-linear-model  deviance  machine-learning  k-nearest-neighbour  r  hypothesis-testing  t-test  r  variance  levenes-test  bayesian  software  bayesian-network  regression  repeated-measures  least-squares  change-scores  variance  chi-squared  variance  nonlinear-regression  regression-coefficients  multiple-comparisons  p-value  r  statistical-significance  excel  sampling  sample  r  distributions  interpretation  goodness-of-fit  normality-assumption  probability  self-study  distributions  references  theory  time-series  clustering  econometrics  binomial  hypothesis-testing  variance  t-test  paired-comparisons  statistical-significance  ab-test  r  references  hypothesis-testing  t-test  normality-assumption  wilcoxon-mann-whitney  central-limit-theorem  t-test  data-visualization  interactive-visualization  goodness-of-fit 

1
자유도는 정수가 아닌 숫자 일 수 있습니까?
GAM을 사용할 때 잔여 DF는 (코드의 마지막 줄). 그게 무슨 뜻이야? GAM 예제를 넘어 서면 일반적으로 자유도는 정수가 아닌 숫자 일 수 있습니까?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 -1.6217 -0.8971 1.2445 6.0516 (Dispersion Parameter …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

3
미가공 데이터 또는 잔차와 같은 정규성에 대해 무엇을 확인해야합니까?
나는 원시 데이터가 아닌 잔차에 대한 정규성을 테스트해야한다는 것을 배웠습니다. 잔차를 계산 한 다음 Shapiro–Wilk의 W 검정을 수행해야합니까? 잔차는 다음과 같이 계산됩니다. ?Xi−meanXi−meanX_i - \text{mean} 내 데이터와 디자인에 대한 이 이전 질문 을 참조하십시오 .

3
매우 작은 표본 크기 (예 : n = 6)로 정규성을 테스트하는 것이 의미가 있습니까?
표본 크기는 6입니다. 이러한 경우 Kolmogorov-Smirnov 검정을 사용하여 정규성을 검정하는 것이 합리적입니까? 나는 SPSS를 사용했다. 각 샘플을 얻는 데 시간이 걸리기 때문에 샘플 크기가 매우 작습니다. 의미가 없다면 테스트하기에 가장 적은 수의 샘플이 몇 개입니까? 참고 : 소스 코드와 관련된 실험을했습니다. 샘플은 소프트웨어 버전 (버전 A) 에서 코딩하는 데 소요되는 …

4
Shapiro–Wilk가 최고의 정규성 검정입니까? Anderson-Darling과 같은 다른 테스트보다 더 나은 이유는 무엇입니까?
샤피로-윌크 검정은 주어진 유의 수준 αα\alpha 에 대해 귀무 가설이 기각 될 경우 귀무 가설을 기각 할 확률이 다른 정규성보다 높기 때문에 Shapiro-Wilk 검정이 최상의 정규성 검정으로 간주된다는 문헌을 읽었습니다. 테스트. 가능한 경우 수학적 인수를 사용하여 다른 정규성 테스트 (Anderson–Darling 테스트)와 비교하여 어떻게 작동하는지 설명해 주시겠습니까?

5
표본 분포가 비정규 일 때 독립 표본 t- 검정은 얼마나 강력합니까?
샘플 분포가 정규성을 벗어날 때 t- 검정 이 "합리적으로 강력" 하다는 것을 읽었습니다 . 물론 중요한 차이의 샘플링 분포입니다. 두 그룹에 대한 데이터가 있습니다. 그룹 중 하나가 종속 변수에 치우쳐 있습니다. 표본 크기는 두 그룹 모두에 대해 상당히 작습니다 (하나는 n = 33, 다른 하나는 45). 이러한 조건에서 내 t- …

5
비정규 분포 DV에 대한 분산 분석 결과를 신뢰할 수 있습니까?
반복 측정 ANOVA로 실험을 분석했습니다. 분산 분석은 개체 간 요인이 2 개이고 (N = 189) 내에 3이있는 3x2x2x2x3입니다. 오류율은 종속 변수입니다. 오차율 분포는 3.64의 왜곡과 첨도는 15.75입니다. 스큐 및 첨도는 오류율의 90 %가 0이라는 결과입니다. 여기서 정규성 테스트에서 이전 스레드 중 일부를 읽는 것은 약간 혼란 스럽습니다. 정규 분포가 아닌 …

9
Ping 응답 시간에 대해이 데이터를 나타내는 분포 유형을 어떻게 알 수 있습니까?
네트워크 핑 시간과 같은 실제 프로세스를 샘플링했습니다. "왕복 시간"은 밀리 초 단위로 측정됩니다. 결과는 히스토그램으로 표시됩니다. 핑 시간은 최소값이지만 긴 꼬리는 길다. 통계 분포가 무엇인지, 매개 변수를 추정하는 방법을 알고 싶습니다. 분포가 정규 분포가 아니지만 달성하려는 것을 여전히 보여줄 수 있습니다. 정규 분포는 다음 기능을 사용합니다. 두 매개 변수로 μ …

5
선형 모형의 가정 및 잔차가 정규 분포가 아닌 경우 수행 할 작업
선형 회귀의 가정이 무엇인지 조금 혼란 스럽습니다. 지금까지 나는 여부를 확인했다. 모든 설명 변수는 응답 변수와 선형으로 상관됩니다. (이 경우였다) 설명 변수 사이에 공선 성이있었습니다. (공동성이 거의 없었습니다). 내 모델의 데이터 포인트의 Cook 거리가 1 미만입니다 (이 경우 모든 거리가 0.4 미만이므로 영향 지점이 없음). 잔차는 정규 분포입니다. (이것이 아닐 …


4
PCA 공간에 새로운 벡터를 투영하는 방법?
주성분 분석 (PCA)을 수행 한 후 PCA 공간에 새 벡터를 투영하려고합니다 (즉, PCA 좌표계에서 해당 좌표를 찾습니다). 를 사용하여 R 언어로 PCA를 계산했습니다 prcomp. 이제 내 벡터에 PCA 회전 행렬을 곱할 수 있어야합니다. 이 매트릭스의 주요 구성 요소를 행 또는 열로 배열해야합니까?
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.