«variance» 태그된 질문

평균에서 랜덤 변수의 예상 제곱 편차; 또는 평균에 대한 데이터의 평균 제곱 편차입니다.

10
평균 만 이해하는 사람에게 공분산을 어떻게 설명 하시겠습니까?
... 나는 직관적 인 방식으로 ( "직관적으로"를 이해 하는) 직관적 인 방식으로 분산에 대한 지식을 보강 할 수 있다고 가정합니다 . '평균'에서 데이터 값의 평균 거리입니다. 단위를 동일하게 유지하기 위해 제곱근을 취합니다.이를 표준 편차라고합니다. 이것이 '수신자'에 의해 분명히 표현되고 (희망적으로) 이해된다고 가정 해 봅시다. 이제 공분산이란 무엇이며 수학 용어 / …


7
Leave-one-Out 대 K- 폴드 교차 검증의 편차 및 편차
서로 다른 교차 검증 방법이 모델 분산 및 바이어스 측면에서 어떻게 비교됩니까? 내 질문은 부분적으로이 스레드에 의해 좌우된다 폴드의 최적의 수 -fold 교차 검증 : 항상 남겨-하나를 아웃 CV 최선의 선택? 케이KK K. 이에 대한 답은 Leave-one-Out 교차 검증으로 학습 된 모델은 일반적인 -fold 교차 검증으로 학습 된 모델 보다 …

10
"변이"를 직관적으로 이해
분산 개념을 누군가에게 설명하는 가장 깨끗하고 쉬운 방법은 무엇입니까? 직관적으로 무엇을 의미합니까? 자녀에게 이것을 설명한다면 어떻게해야할까요? 특히 분산과 위험을 연관시킬 때 분명히 설명하기 어려운 개념입니다. 나는 수학적으로 그것을 이해하고 그렇게 설명 할 수 있습니다. 그러나 실제 현상을 설명 할 때 어떻게 분산을 이해하게하는지, 그리고 그것이 '실제 세계'에 적용 할 수있게하는 …

3
예 : 이진 결과에 glmnet을 사용하는 LASSO 회귀
관심있는 결과가 이분법 인 LASSO Regressionglmnet 과 함께 사용하기 시작했습니다 . 아래에 작은 모의 데이터 프레임을 만들었습니다. age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, 0.85, 0.67, 0.91, 0.29, 0.88) …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 

8
기존 변수와 정의 된 상관 관계를 갖는 랜덤 변수 생성
시뮬레이션 연구를 위해 기존 변수 와의 미리 정의 된 (인구) 상관 관계를 나타내는 임의의 변수를 생성해야합니다 .YYY I는 들여다 R패키지 copula와 CDVine소정 의존성 구조 랜덤 변수 분포를 생성 할 수있다. 그러나 결과 변수 중 하나를 기존 변수에 고정 할 수 없습니다. 기존 기능에 대한 아이디어와 링크를 부탁드립니다! 결론 : 서로 …

5
통계 학자들은 (n-1)을 시뮬레이션없이 모집단 분산에 대한 편견 추정량으로 사용하는 데 정확히 어떻게 동의 했습니까?
분산을 계산하는 공식 은 분모에 이 있습니다.( n - 1 )(n−1)(n-1) 에스2= ∑엔나는 = 1( x나는− x¯)2n - 1s2=∑i=1N(xi−x¯)2n−1s^2 = \frac{\sum_{i=1}^N (x_i - \bar{x})^2}{n-1} 나는 항상 이유를 궁금해했다. 그러나 "왜"에 대한 몇 가지 좋은 비디오를 읽고 보는 것은 이 인구 분산의 좋은 편견이 아닌 것 같습니다 . 반면 N 과소 …


5
모집단 분산 계산에서 N과 N-1의 차이점은 무엇입니까?
나는 거기에 이유를하지 않았다 N및 N-1인구 분산을 계산하는 동안. 우리가 언제 사용할 N때 N-1? 더 큰 버전을 보려면 여기를 클릭하십시오 인구가 매우 많을 때 N과 N-1 사이에는 차이가 없지만 처음에 N-1이 왜 있는지는 알 수 없습니다. 편집 : 견적 n과 혼동하지 마십시오 n-1. Edit2 : 인구 추정에 대해서는 이야기하지 않습니다.


3
로그 변환 예측 변수 및 / 또는 응답의 해석
종속 변수, 종속 변수 및 독립 변수 또는 독립 변수 만 로그 변환인지 해석에 차이가 있는지 궁금합니다. 의 경우를 고려 log(DV) = Intercept + B1*IV + Error IV를 백분율 증가로 해석 할 수 있지만 log(DV) = Intercept + B1*log(IV) + Error 또는 내가있을 때 DV = Intercept + B1*log(IV) + …
46 regression  data-transformation  interpretation  regression-coefficients  logarithm  r  dataset  stata  hypothesis-testing  contingency-tables  hypothesis-testing  statistical-significance  standard-deviation  unbiased-estimator  t-distribution  r  functional-data-analysis  maximum-likelihood  bootstrap  regression  change-point  regression  sas  hypothesis-testing  bayesian  randomness  predictive-models  nonparametric  terminology  parametric  correlation  effect-size  loess  mean  pdf  quantile-function  bioinformatics  regression  terminology  r-squared  pdf  maximum  multivariate-analysis  references  data-visualization  r  pca  r  mixed-model  lme4-nlme  distributions  probability  bayesian  prior  anova  chi-squared  binomial  generalized-linear-model  anova  repeated-measures  t-test  post-hoc  clustering  variance  probability  hypothesis-testing  references  binomial  profile-likelihood  self-study  excel  data-transformation  skewness  distributions  statistical-significance  econometrics  spatial  r  regression  anova  spss  linear-model 



1
코헨의 카파 분산 (및 표준 오차) 계산
카파 ( κκ\kappa ) 통계는 Cohen [1]에 의해 1960 년에 도입되어 두 평가자 간의 합의를 측정합니다. 그러나 그 차이는 꽤 오랫동안 모순의 원천이었습니다. 내 질문은 큰 샘플과 함께 사용할 최상의 분산 계산에 대한 것입니다. 나는 Fleiss [2]에 의해 테스트되고 검증 된 것이 올바른 선택이 될 것이라고 생각하는 경향이 있지만, 이것이 …


당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.