«mse» 태그된 질문

MSE는 평균 제곱 오차를 나타냅니다. 관측 값과 추정 / 예측값 간의 평균 제곱 차이와 동일한 추정 또는 예측의 성능 척도입니다.

7
작은 표본에서 모멘트 방법이 최대 가능성을 능가 할 수있는 예는 무엇입니까?
최대 가능성 추정기 (MLE)는 점진적으로 효율적입니다. 표본 크기가 작은 경우에도 MoM (Method of Moments) 추정치 (상이한 경우)보다 종종 더 나은 점에서 실제적인 결과를 볼 수 있습니다. 여기서 "보다 낫다"는 일반적으로 둘 다 편향되지 않은 경우 분산이 더 작고 일반적으로 더 작은 평균 제곱 오차 (MSE)가 작다는 의미입니다. 그러나 문제는 다음과 …

1
오류 측정을 해석하는 방법?
특정 데이터 세트에 대해 Weka에서 분류를 실행 중이며 공칭 ​​값을 예측하려고하면 출력에 정확하고 잘못 예측 된 값이 구체적으로 표시됩니다. 그러나 이제 숫자 속성으로 실행하고 출력은 다음과 같습니다. Correlation coefficient 0.3305 Mean absolute error 11.6268 Root mean squared error 46.8547 Relative absolute error 89.2645 % Root relative squared error 94.3886 % …

3
평균 제곱 오차 및 잔차 제곱합
Wikipedia 정의를 살펴보면 : 평균 제곱 오차 (MSE) 잔차 제곱합 (RSS) 그것은 나에게 보인다 MSE = 1엔RSS = 1엔∑ ( f나는− y나는)2MSE=1NRSS=1N∑(fi−yi)2\text{MSE} = \frac{1}{N} \text{RSS} = \frac{1}{N} \sum (f_i -y_i)^2 여기서 은 샘플 수이고 는 의 추정치입니다 .엔NN에프나는fif_i와이나는yiy_i 그러나 위키피디아 기사 중 어느 것도이 관계를 언급하지 않습니다. 왜? 뭔가 빠졌습니까?
31 residuals  mse 

3
R : 데이터 집합에 NaN이 없어도 "외부 함수 호출"오류에서 NaN / Inf를 발생시키는 임의 포리스트 [닫기]
캐럿을 사용하여 데이터 세트에 대해 교차 유효성 검사 임의 포리스트를 실행하고 있습니다. Y 변수는 요인입니다. 내 데이터 세트에 NaN, Inf 또는 NA가 없습니다. 그러나 임의의 포리스트를 실행하면 Error in randomForest.default(m, y, ...) : NA/NaN/Inf in foreign function call (arg 1) In addition: There were 28 warnings (use warnings() to see …

1
자유도는 정수가 아닌 숫자 일 수 있습니까?
GAM을 사용할 때 잔여 DF는 (코드의 마지막 줄). 그게 무슨 뜻이야? GAM 예제를 넘어 서면 일반적으로 자유도는 정수가 아닌 숫자 일 수 있습니까?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 -1.6217 -0.8971 1.2445 6.0516 (Dispersion Parameter …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

3
분산 및 바이어스 제곱으로의 MSE 분해
MSE가 분산과 바이어스의 제곱으로 분해 될 수 있음을 보여주기 위해 Wikipedia의 증거는 그림에서 강조된 단계가 있습니다. 어떻게 작동합니까? 3 단계에서 4 단계로 제품에 대한 기대 수준은 어떻습니까? 두 용어가 서로 독립적 인 경우 두 용어 모두에 기대치를 적용해서는 안됩니까? 그렇지 않은 경우이 단계가 유효합니까?

1
자동 인코더에 대한 손실 기능
비트 자동 인코더를 실험하고 있으며 tensorflow를 사용하여 MNIST 데이터 세트를 재구성하는 모델을 만들었습니다. 내 네트워크는 매우 간단합니다. X, e1, e2, d1, Y. 여기서 e1과 e2는 인코딩 레이어이고 d2와 Y는 디코딩 레이어입니다 (Y는 재구성 된 출력). X는 784 개, e1은 100, e2는 50, d1은 다시 100, Y 784를 다시 갖습니다. 레이어 …

2
편차-분산 트레이드 오프 파생 이해
난의 편향 - 분산 트레이드 오프의 제 판독하고 통계적 학습 요소 되도록 상기 데이터 모델에서 발생하자 I은 29 페이지의 식 의심이 여기서 무작위 예상 값이 이고 분산 입니다. 모델의 예상 오차 값을 여기서 는 학습자 의 에 대한 예측입니다 . 책에 따르면 오류는 Y=f(x)+ϵY=f(x)+ϵ Y = f(x)+\epsilonϵϵ\epsilonϵ^=E[ϵ]=0ϵ^=E[ϵ]=0\hat{\epsilon} = E[\epsilon]=0E[(ϵ−ϵ^)2]=E[ϵ2]=σ2E[(ϵ−ϵ^)2]=E[ϵ2]=σ2E[(\epsilon - …

3
다른 예측 (예 : MSE)과 달리 특정 측정 오차 (예 : MAD)를 사용하는 이유는 무엇입니까?
MAD = 평균 절대 편차 MSE = 평균 제곱 오차 나는 몇몇 바람직하지 않은 특성에도 불구하고 MSE가 사용되는 여러 곳에서 제안을 보았다 (예 : http://www.stat.nus.edu.sg/~staxyc/T12.pdf , p8에 나와 있음) MSE보다 더 나은 기준이지만 MAD보다 수학적으로 MSE가 더 편리합니다. ") 그것보다 더 있습니까? 예측 오차를 측정하는 다양한 방법이 더 적합하거나 적은 …
15 forecasting  error  mse  mae 

4
평균 제곱 오차가 한 추정기의 상대적인 우월성을 평가하는 데 사용됩니까?
어떤 매개 변수 대해 두 개의 추정기 및 가 있다고 가정하십시오 . 어떤 추정기가 "더 나은"지를 결정하기 위해 MSE (평균 제곱 오차)를 살펴 볼까요? 다시 말해 우리는 봅니다. 여기서 는 추정기의 치우침이고 는 추정기의 분산입니까? MSE가 더 큰 쪽이 더 나쁜 견적일까요?α 2 x M S E = β 2 …
13 estimation  mse 

2
가우스 마르코프 정리 : BLUE and OLS
나는 Wikipedia 의 Guass-Markov 정리를 읽고 있는데 , 누군가 정리의 요점을 알아낼 수 있기를 바랐습니다. 행렬 형태의 선형 모델은 다음과 같이 가정합니다. 와이= Xβ+ ηy=Xβ+η y = X\beta +\eta 우리는 BLUE를 찾고 있습니다. βˆβ^ \widehat\beta . 이것에 따라 , 나는 라벨을 붙일 것이다η= y− Xβη=y−Xβ\eta = y - X\beta "잔여"와 …
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.