«kurtosis» 태그된 질문

분포 또는 데이터 세트의 정규화 된 네 번째 순간.

3
로지스틱 회귀 95 % 신뢰 구간을 수동으로 계산하는 것과 R에서 confint () 함수를 사용하는 것 사이에 차이가있는 이유는 무엇입니까?
사랑하는 여러분, 제가 설명 할 수없는 이상한 것을 발견했습니다. 요약 : 로지스틱 회귀 모델에서 신뢰 구간을 계산하는 수동 방법과 R 함수 confint()는 다른 결과를 제공합니다. Hosmer & Lemeshow의 Applied Logistic Regression (2 판)을 진행했습니다. 세 번째 장에는 승산 비와 95 % 신뢰 구간을 계산하는 예가 있습니다. R을 사용하면 모델을 쉽게 …
34 r  regression  logistic  confidence-interval  profile-likelihood  correlation  mcmc  error  mixture  measurement  data-augmentation  r  logistic  goodness-of-fit  r  time-series  exponential  descriptive-statistics  average  expected-value  data-visualization  anova  teaching  hypothesis-testing  multivariate-analysis  r  r  mixed-model  clustering  categorical-data  unsupervised-learning  r  logistic  anova  binomial  estimation  variance  expected-value  r  r  anova  mixed-model  multiple-comparisons  repeated-measures  project-management  r  poisson-distribution  control-chart  project-management  regression  residuals  r  distributions  data-visualization  r  unbiased-estimator  kurtosis  expected-value  regression  spss  meta-analysis  r  censoring  regression  classification  data-mining  mixture 

1
자유도는 정수가 아닌 숫자 일 수 있습니까?
GAM을 사용할 때 잔여 DF는 (코드의 마지막 줄). 그게 무슨 뜻이야? GAM 예제를 넘어 서면 일반적으로 자유도는 정수가 아닌 숫자 일 수 있습니까?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 -1.6217 -0.8971 1.2445 6.0516 (Dispersion Parameter …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

4
정상 rv의 첨도 및 왜도를 증가시키는 변형
나는 관측 값 가 정규 분포 되어 있다는 사실에 의존하는 알고리즘을 연구하고 있으며 경험적 으로이 가정에 대한 알고리즘의 견고성을 테스트하고 싶습니다.와이YY 이를 위해 의 정규성을 점진적으로 중단시키는 일련의 변환 을 . 예를 들어, 가 정상 왜도 이고 첨도 이므로 점진적으로 증가하는 변형 순서를 찾는 것이 좋습니다.Y Y = 0 = …


2
정규 분포의 첨도가 0이 아닌 3 인 이유
정규 분포의 첨도는 3이라는 진술의 의미는 무엇입니까? 그것은 수평선에서 3의 값이 최대 확률에 해당한다는 것을 의미합니까? 3은 시스템의 모드입니까? 정상적인 곡선을 볼 때, 중심에서 일명 0이 발생하는 것처럼 보입니다. 왜 첨도는 0이 아닌 3입니까?

5
응용 통계 과정에서 첨도를 가르쳐야합니까? 그렇다면 어떻게?
중앙 경향, 확산 및 왜도는 적어도 직관적 인 기준으로 비교적 잘 정의 될 수 있습니다. 이러한 것들에 대한 표준 수학적 측정은 또한 우리의 직관적 인 개념과 비교적 잘 일치합니다. 그러나 첨도는 다른 것 같습니다. 매우 혼란스럽고 분포 모양에 대한 직감과 잘 맞지 않습니다. 적용된 설정에서 첨도에 대한 일반적인 설명은 Microsoft …

1
lmer 모델에 사용할 다중 비교 방법 : lsmeans 또는 glht?
하나의 고정 효과 (조건)와 두 개의 임의 효과 (대상 내 설계 및 쌍으로 인해 참가자)가있는 혼합 효과 모델을 사용하여 데이터 세트를 분석하고 있습니다. lme4패키지로 모델이 생성되었습니다 exp.model<-lmer(outcome~condition+(1|participant)+(1|pair),data=exp). 다음으로, 고정 효과 (조건)없이 모형에 대해이 모형의 우도 비 검정을 수행했으며 유의 한 차이가 있습니다. 내 데이터 세트에는 3 가지 조건이 있으므로 다중 …

2
지수 가중 이동 왜곡 / 커트 시스
지수 가중 이동 평균 및 공정의 표준 편차 을 계산하기위한 잘 알려진 온라인 공식이 (xn)n=0,1,2,…(xn)n=0,1,2,…(x_n)_{n=0,1,2,\dots}있습니다. 평균적으로 μn=(1−α)μn−1+αxnμn=(1−α)μn−1+αxn\mu_n = (1-\alpha) \mu_{n-1} + \alpha x_n 그리고 분산을 위해 σ2n=(1−α)σ2n−1+α(xn−μn−1)(xn−μn)σn2=(1−α)σn−12+α(xn−μn−1)(xn−μn)\sigma_n^2 = (1-\alpha) \sigma_{n-1}^2 + \alpha(x_n - \mu_{n-1})(x_n - \mu_n) 표준 편차를 계산할 수 있습니다. 지수 가중 된 제 3 및 제 4 중심 …

3
가설 검정에 높은 양의 첨도가 문제가되는 이유는 무엇입니까?
나는 잔차의 긍정적 인 첨도가 정확한 가설 검정과 신뢰 구간 (따라서 통계적 추론에 문제가 있음)에 문제가 될 수 있다고 들었습니다 (죄송합니다. 이것이 사실입니까? 그렇다면 그 이유는 무엇입니까? 높은 양의 첨도 잔차가 잔차의 대부분이 잔차 평균 0에 가까워서 잔차가 적다는 것을 나타내지 않습니까? (답이 있다면 수학적으로 크게 기울이지 않았으므로 깊이있는 수학을 …

2
분포의 평균에 대한 순간 직감?
누군가가 왜 세 번째와 네 번째 모멘트와 같이 확률 분포 의 더 높은 모멘트 가 왜도 및 첨도에 해당 하는지에 대한 직감을 제공 할 수 있습니까 ? 구체적으로, 왜 세 번째 또는 네 번째 거듭 제곱으로 올린 평균에 대한 편차가 왜도 및 첨도의 척도로 변환 되는가? 이것을 함수의 3 차 …

4
두 표본 분포의 꼬리 비교
대략 0을 중심으로하는 두 개의 데이터 세트가 있지만 꼬리가 다른 것으로 의심됩니다. 분포를 정규 분포와 비교하기위한 몇 가지 테스트를 알고 있지만 두 분포를 직접 비교하고 싶습니다. 두 분포의 꼬리의 비만을 비교 하는 간단한 테스트가 있습니까? 감사합니다 fRed


2
분산 분석의 정규성 가정에서 출발 : 첨도 또는 왜도가 더 중요합니까?
Kutner 등의 응용 선형 통계 모델. ANOVA 모델의 정규성 가정에서 벗어난 것과 관련하여 다음과 같이 설명 합니다. 오차 분포의 첨도 (정규 분포보다 많거나 적은 피크)는 추론에 미치는 영향 측면에서 분포의 왜도보다 중요합니다 . 나는이 진술에 약간 당황하고 책이나 온라인에서 관련 정보를 찾지 못했습니다. 또한 꼬리가 두꺼운 QQ- 플로트는 선형 회귀 …

3
Leptokurtic 분포를 정규로 변환하는 방법은 무엇입니까?
정규성으로 변환하고 싶은 leptokurtic 변수가 있다고 가정합니다. 이 작업을 수행 할 수있는 변형은 무엇입니까? 데이터 변환이 항상 바람직하지는 않지만 학업을 추구함에 따라 데이터를 정상으로 "해머링"한다고 가정합니다. 또한 그림에서 알 수 있듯이 모든 값은 엄격하게 양수입니다. 나는 포함하여 내가 전에 사용 보았다 변환의 다양한 (거의 아무것도 시도 등)이지만 특히 잘 작동하지는 …

5
분포의 첨도는 밀도 함수의 기하학과 어떤 관련이 있습니까?
첨도는 분포의 정점과 평탄도를 측정하는 것입니다. 분포의 밀도 함수 (있는 경우)는 곡선으로 볼 수 있으며 모양과 관련된 기하학적 특성 (예 : 곡률, 볼록도 등)이 있습니다. 분포의 첨도가 첨도의 기하학적 의미를 설명 할 수있는 밀도 함수의 일부 기하학적 특징과 관련이 있는지 궁금합니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.