«unbiased-estimator» 태그된 질문

평균적으로 "실제 값에 도달"하는 모집단 모수 추정값을 나타냅니다. 즉, 관측 된 데이터 의 함수는 경우 매개 변수 의 편향 추정량입니다 . 편향 추정치의 가장 간단한 예는 모집단 평균의 추정치 인 표본 평균입니다. θ^θE(θ^)=θ

3
일관된 견적 도구와 편향되지 않은 견적 도구의 차이점은 무엇입니까?
아무도 이걸 이미 묻지 않은 것 같습니다. 추정자를 논의 할 때 자주 사용되는 두 가지 용어는 "일관성"및 "편견없는"입니다. 내 질문은 간단합니다. 차이점은 무엇입니까? 이러한 용어의 정확한 기술적 정의는 상당히 복잡하며 그 의미에 대한 직관적 인 느낌을 얻기가 어렵습니다 . 좋은 견적 도구와 나쁜 견적 도구를 상상할 수는 있지만 어떤 견적 …

8
기존 변수와 정의 된 상관 관계를 갖는 랜덤 변수 생성
시뮬레이션 연구를 위해 기존 변수 와의 미리 정의 된 (인구) 상관 관계를 나타내는 임의의 변수를 생성해야합니다 .YYY I는 들여다 R패키지 copula와 CDVine소정 의존성 구조 랜덤 변수 분포를 생성 할 수있다. 그러나 결과 변수 중 하나를 기존 변수에 고정 할 수 없습니다. 기존 기능에 대한 아이디어와 링크를 부탁드립니다! 결론 : 서로 …

5
통계 학자들은 (n-1)을 시뮬레이션없이 모집단 분산에 대한 편견 추정량으로 사용하는 데 정확히 어떻게 동의 했습니까?
분산을 계산하는 공식 은 분모에 이 있습니다.( n - 1 )(n−1)(n-1) 에스2= ∑엔나는 = 1( x나는− x¯)2n - 1s2=∑i=1N(xi−x¯)2n−1s^2 = \frac{\sum_{i=1}^N (x_i - \bar{x})^2}{n-1} 나는 항상 이유를 궁금해했다. 그러나 "왜"에 대한 몇 가지 좋은 비디오를 읽고 보는 것은 이 인구 분산의 좋은 편견이 아닌 것 같습니다 . 반면 N 과소 …

2
Stein의 역설이
Stein 's Example 은 평균 μ 1 , … , μ n 및 분산 1을 갖는 정규 분포 변수 의 최대 우도 추정값이 제곱 손실 함수에서 iff n ≥ 3 인 것을 허용하지 않음을 보여 줍니다. 깔끔한 증거를 보려면 Bradley Effron의 대규모 추론 : 추정, 테스트 및 예측 을 위한 …

3
로그 변환 예측 변수 및 / 또는 응답의 해석
종속 변수, 종속 변수 및 독립 변수 또는 독립 변수 만 로그 변환인지 해석에 차이가 있는지 궁금합니다. 의 경우를 고려 log(DV) = Intercept + B1*IV + Error IV를 백분율 증가로 해석 할 수 있지만 log(DV) = Intercept + B1*log(IV) + Error 또는 내가있을 때 DV = Intercept + B1*log(IV) + …
46 regression  data-transformation  interpretation  regression-coefficients  logarithm  r  dataset  stata  hypothesis-testing  contingency-tables  hypothesis-testing  statistical-significance  standard-deviation  unbiased-estimator  t-distribution  r  functional-data-analysis  maximum-likelihood  bootstrap  regression  change-point  regression  sas  hypothesis-testing  bayesian  randomness  predictive-models  nonparametric  terminology  parametric  correlation  effect-size  loess  mean  pdf  quantile-function  bioinformatics  regression  terminology  r-squared  pdf  maximum  multivariate-analysis  references  data-visualization  r  pca  r  mixed-model  lme4-nlme  distributions  probability  bayesian  prior  anova  chi-squared  binomial  generalized-linear-model  anova  repeated-measures  t-test  post-hoc  clustering  variance  probability  hypothesis-testing  references  binomial  profile-likelihood  self-study  excel  data-transformation  skewness  distributions  statistical-significance  econometrics  spatial  r  regression  anova  spss  linear-model 

5
표본 크기 1에서 모집단 평균에 대해 무엇을 말할 수 있습니까?
아무튼 나는 인구 평균에 대해, 우리가 말할 수있는 궁금, 내가 가진 모두가 하나 개의 측정이다 (1 샘플 크기). 분명히, 우리는 더 많은 측정을 원하지만, 얻을 수는 없습니다.y 1μμ\mu와이1y1y_1 이는 표본 평균 때문에, 저 보인다 , 사소하다 동일 그리고, . 그러나 표본 크기가 1이면 표본 분산이 정의되지 않으므로 의 추정값으로 를 …


6
공분산 추정량의 분모가 왜 n-1이 아닌 n-2가 아니어야합니까?
(편향되지 않은) 분산 추정기의 분모는 이며, 관측치 가 개이고 하나의 모수 만 추정되기 때문입니다.Nn−1n−1n-1nnn V(X)=∑ni=1(Xi−X¯¯¯¯)2n−1V(X)=∑i=1n(Xi−X¯)2n−1 \mathbb{V}\left(X\right)=\frac{\sum_{i=1}^{n}\left(X_{i}-\overline{X}\right)^{2}}{n-1} 같은 토큰으로 두 개의 모수를 추정 할 때 왜 공분산의 분모가 가되지 않아야하는지 궁금합니다 .n−2n−2n-2 Cov(X,Y)=∑ni=1(Xi−X¯¯¯¯)(Yi−Y¯¯¯¯)n−1Cov(X,Y)=∑i=1n(Xi−X¯)(Yi−Y¯)n−1 \mathbb{Cov}\left(X, Y\right)=\frac{\sum_{i=1}^{n}\left(X_{i}-\overline{X}\right)\left(Y_{i}-\overline{Y}\right)}{n-1}

3
로지스틱 회귀 95 % 신뢰 구간을 수동으로 계산하는 것과 R에서 confint () 함수를 사용하는 것 사이에 차이가있는 이유는 무엇입니까?
사랑하는 여러분, 제가 설명 할 수없는 이상한 것을 발견했습니다. 요약 : 로지스틱 회귀 모델에서 신뢰 구간을 계산하는 수동 방법과 R 함수 confint()는 다른 결과를 제공합니다. Hosmer & Lemeshow의 Applied Logistic Regression (2 판)을 진행했습니다. 세 번째 장에는 승산 비와 95 % 신뢰 구간을 계산하는 예가 있습니다. R을 사용하면 모델을 쉽게 …
34 r  regression  logistic  confidence-interval  profile-likelihood  correlation  mcmc  error  mixture  measurement  data-augmentation  r  logistic  goodness-of-fit  r  time-series  exponential  descriptive-statistics  average  expected-value  data-visualization  anova  teaching  hypothesis-testing  multivariate-analysis  r  r  mixed-model  clustering  categorical-data  unsupervised-learning  r  logistic  anova  binomial  estimation  variance  expected-value  r  r  anova  mixed-model  multiple-comparisons  repeated-measures  project-management  r  poisson-distribution  control-chart  project-management  regression  residuals  r  distributions  data-visualization  r  unbiased-estimator  kurtosis  expected-value  regression  spss  meta-analysis  r  censoring  regression  classification  data-mining  mixture 

3
R : 데이터 집합에 NaN이 없어도 "외부 함수 호출"오류에서 NaN / Inf를 발생시키는 임의 포리스트 [닫기]
캐럿을 사용하여 데이터 세트에 대해 교차 유효성 검사 임의 포리스트를 실행하고 있습니다. Y 변수는 요인입니다. 내 데이터 세트에 NaN, Inf 또는 NA가 없습니다. 그러나 임의의 포리스트를 실행하면 Error in randomForest.default(m, y, ...) : NA/NaN/Inf in foreign function call (arg 1) In addition: There were 28 warnings (use warnings() to see …

1
자유도는 정수가 아닌 숫자 일 수 있습니까?
GAM을 사용할 때 잔여 DF는 (코드의 마지막 줄). 그게 무슨 뜻이야? GAM 예제를 넘어 서면 일반적으로 자유도는 정수가 아닌 숫자 일 수 있습니까?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 -1.6217 -0.8971 1.2445 6.0516 (Dispersion Parameter …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 



2
축소 된
Pearson 상관 계수의 모집단 값에 대한 두 가지 유형의 추정기에 대해 머릿속에 약간의 혼란이있었습니다. A. Fisher (1915) 는 2 변량 정규 모집단의 경우 경험적 이 의 음으로 바이어스 된 추정 인 것으로 나타 났지만, 바이어스는 작은 샘플 크기 ( )에 대해서만 실질적으로 상당한 양일 수 있음을 보여 줍니다. 샘플 은 …

2
가중 분산의 바이어스 보정
가중 분산 용 는 평균 동일한 데이터로부터 추정 될 때, 상기 바이어스 샘플 분산을 수정이 존재한다 : Var ( X) : = 1엔∑나는( x나는− μ )2바르(엑스): =1엔∑나는(엑스나는−μ)2\text{Var}(X):=\frac{1}{n}\sum_i(x_i - \mu)^2Var ( X) : = 1n - 1∑나는( x나는− E[ X] )2바르(엑스): =1엔−1∑나는(엑스나는−이자형[엑스])2\text{Var}(X):=\frac{1}{n-1}\sum_i(x_i - E[X])^2 가중 평균과 분산을 조사하고 가중 분산에 대한 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.