나는 함께 재현 해 봅니다 optim
장착 된 단순 회귀 분석의 결과 glm
또는 nls
R 기능을 제공합니다.
모수 추정치는 동일하지만 잔차 분산 추정과 다른 모수의 표준 오차는 특히 표본 크기가 작을 때 동일하지 않습니다. 이것이 최대 가능성과 최소 제곱 접근법 사이에서 잔차 표준 오차가 계산되는 방식에 차이가 있다고 가정합니다 (n으로 나 n-k + 1로 나눔 예에서 아래 참조).
웹에서 읽은 내용에 따르면 최적화가 단순한 작업이 아니라는 것을 알지만 glm
사용하는 동안 표준 오류 추정치가 간단한 방식으로 재현 될 수 있는지 궁금합니다 optim
.
작은 데이터 세트 시뮬레이션
set.seed(1)
n = 4 # very small sample size !
b0 <- 5
b1 <- 2
sigma <- 5
x <- runif(n, 1, 100)
y = b0 + b1*x + rnorm(n, 0, sigma)
최적화로 견적
negLL <- function(beta, y, x) {
b0 <- beta[1]
b1 <- beta[2]
sigma <- beta[3]
yhat <- b0 + b1*x
likelihood <- dnorm(y, yhat, sigma)
return(-sum(log(likelihood)))
}
res <- optim(starting.values, negLL, y = y, x = x, hessian=TRUE)
estimates <- res$par # Parameters estimates
se <- sqrt(diag(solve(res$hessian))) # Standard errors of the estimates
cbind(estimates,se)
> cbind(estimates,se)
estimates se
b0 9.016513 5.70999880
b1 1.931119 0.09731153
sigma 4.717216 1.66753138
glm 및 nls와 비교
> m <- glm(y ~ x)
> summary(m)$coefficients
Estimate Std. Error t value Pr(>|t|)
(Intercept) 9.016113 8.0759837 1.116411 0.380380963
x 1.931130 0.1376334 14.030973 0.005041162
> sqrt(summary(m)$dispersion) # residuals standard error
[1] 6.671833
>
> summary(nls( y ~ b0 + b1*x, start=list(b0 = 5, b1= 2)))
Formula: y ~ b0 + b1 * x
Parameters:
Estimate Std. Error t value Pr(>|t|)
b0 9.0161 8.0760 1.116 0.38038
b1 1.9311 0.1376 14.031 0.00504 **
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 6.672 on 2 degrees of freedom
다음과 같이 다른 잔류 표준 오차 추정치를 재현 할 수 있습니다.
> # optim / Maximum Likelihood estimate
> sqrt(sum(resid(m)^2)/n)
[1] 4.717698
>
> # Least squares estimate (glm and nls estimates)
> k <- 3 # number of parameters
> sqrt(sum(resid(m)^2)/(n-k+1))
[1] 6.671833