«least-squares» 태그된 질문

변수의 관측 값 및 변수 값에 따라 조정 된 관측 값의 기대 값과 같이 두 수량 간의 제곱 차를 최소화하기 위해 모수 값을 선택하는 일반 추정 기법을 나타냅니다. 가우시안 선형 모델은 최소 제곱에 적합하며 최소 제곱은 추정기를 평가하는 방법으로 MSE (평균 제곱 오차)를 사용하는 아이디어입니다.

2
최소 제곱 가정
다음 선형 관계를 가정하십시오. Yi=β0+β1Xi+uiYi=β0+β1Xi+uiY_i = \beta_0 + \beta_1 X_i + u_i, 어디 YiYiY_i 종속 변수 XiXiX_i 단일 독립 변수 uiuiu_i 에러 항. Stock & Watson (Ecoduction to Econometrics; Chapter 4 )에 따르면, 세 번째로 작은 제곱 가정 은 네 번째 순간이XiXiX_i 과 uiuiu_i 0이 아니고 유한하다 (0<E(X4i)<∞ and 0<E(u4i)<∞)(0<E(Xi4)<∞ …

1
R을 사용하여 데이터가 불확실한 선형 모델
불확실성이있는 데이터가 있다고 가정 해 봅시다. 예를 들면 다음과 같습니다. X Y 1 10±4 2 50±3 3 80±7 4 105±1 5 120±9 불확실성의 특성은 예를 들어 반복 측정 또는 실험 또는 계측기 불확실성 일 수 있습니다. 나는 일반적으로 내가 할 것 인 R을 사용하여 곡선을 맞추고 싶습니다 lm. 그러나 이것은 …

1
가중 최소 제곱 가중치 정의 : R lm 함수 대.
아무도 왜 매트릭스 연산으로 R가중치가 가장 작은 제곱 과 수동 솔루션 에서 다른 결과를 얻고 있는지 말해 줄 수 있습니까? 특히 수동으로 해결하려고합니다. W A x = W bWAx=Wb\mathbf W \mathbf A\mathbf x=\mathbf W \mathbf b, 어디 여W\mathbf W 가중치의 대각선 행렬입니다. ㅏA\mathbf A 데이터 매트릭스입니다. 비b\mathbf b 반응 벡터입니다. …

1
보통 최소 제곱에서 보통은 무엇입니까?
내 친구가 최근에 보통 최소 제곱에 대해 그렇게 평범한 것을 물었습니다. 우리는 토론의 어느 곳에도 가지 않는 것 같았습니다. 우리는 OLS가 선형 모델의 특별한 경우이고 많은 용도가 있고 잘 알고 있으며 다른 많은 모델의 특별한 경우라는 것에 동의했습니다. 그러나 이것이 전부입니까? 따라서 알고 싶습니다 : 이름은 어디에서 유래 한 것입니까? …

2
이 분산 하에서 OLS가 무증상으로 효율적인가?
나는 선형 회귀 설정에서이 분산 하에서 OLS가 편견이 없지만 효율적이지 않다는 것을 알고 있습니다. 위키 백과에서 http://en.wikipedia.org/wiki/Minimum_mean_square_error MMSE 추정기는 무증상으로 편향되어 정규 분포로 분포합니다 : 여기서 I (x)는 x의 Fisher 정보입니다. 따라서 MMSE 추정기는 점진적으로 효율적입니다.엔−−√(엑스^− x )→디엔( 0 ,나는− 1( x ) )엔(엑스^−엑스)→디엔(0,나는−1(엑스))\sqrt{n}(\hat{x} - x) \xrightarrow{d} \mathcal{N}\left(0 , I^{-1}(x)\right) …

2
잔차는 근본적인 장애와 어떤 관련이 있습니까?
최소 제곱 법에서는 모형에서 알 수없는 매개 변수를 추정하려고합니다. 와이제이= α + β엑스제이+ε제이( j = 1 ... n )Yj=α+βxj+εj(j=1...n)Y_j = \alpha + \beta x_j + \varepsilon_j \enspace (j=1...n) 일단 우리가 (일부 관찰 된 값들에 대해), 우리는 적합 회귀선을 얻습니다 : 와이제이=α^+β^x +이자형제이( J = 1 , . . . N …

1
불분명 한 방정식 시스템에 릿지 회귀를 적용합니까?
하면 구형 제한을 부과 최소 제곱 문제 값에 같이 쓸 수있다 과대 결정된 시스템. \ | \ cdot \ | _2 는 벡터의 유클리드 표준입니다.y=Xβ+ey=Xβ+ey = X\beta + eδδ\deltaββ\betamin ∥y−Xβ∥22s.t. ∥β∥22≤δ2min⁡ ‖y−Xβ‖22s.t.⁡ ‖β‖22≤δ2\begin{equation} \begin{array} &\operatorname{min}\ \| y - X\beta \|^2_2 \\ \operatorname{s.t.}\ \ \|\beta\|^2_2 \le \delta^2 \end{array} \end{equation}∥⋅∥2‖⋅‖2\|\cdot\|_2 \ beta에 …

1
일반적인 최소 제곱 법은 어떤 가정 하에서 효율적이고 편견없는 추정량을 제공합니까?
가우스 마르코프 가정 하에서 일반적인 최소 제곱 법이 효율적이고 편견없는 추정값을 제공한다는 것이 사실입니까? 그래서: 이자형(유티) = 0E(ut)=0E(u_t)=0 모든 대해티tt 이자형(유티유에스) =σ2이자형(유티유에스)=σ2E(u_tu_s)=\sigma^2 대t = s티=에스t=s 이자형(유티유에스) = 0이자형(유티유에스)=0E(u_tu_s)=0 대해t ≠ s티≠에스t\neq s 여기서 는 잔차입니다.유유u

2
가우스 마르코프 정리 : BLUE and OLS
나는 Wikipedia 의 Guass-Markov 정리를 읽고 있는데 , 누군가 정리의 요점을 알아낼 수 있기를 바랐습니다. 행렬 형태의 선형 모델은 다음과 같이 가정합니다. 와이= Xβ+ ηy=Xβ+η y = X\beta +\eta 우리는 BLUE를 찾고 있습니다. βˆβ^ \widehat\beta . 이것에 따라 , 나는 라벨을 붙일 것이다η= y− Xβη=y−Xβ\eta = y - X\beta "잔여"와 …

2
혼합 모델을위한 파라 메트릭, 세미 파라 메트릭 및 비 파라 메트릭 부트 스트랩
이 기사 에서 다음과 같은 이식편을 가져옵니다 . 부트 스트랩을 사용하고 R boot패키지가있는 선형 혼합 모델을 위해 파라 메트릭, 반 파라 메트릭 및 비 파라 메트릭 부트 스트랩 부트 스트랩을 구현하려고 초보자 입니다. R 코드 내 R코드 는 다음과 같습니다 . library(SASmixed) library(lme4) library(boot) fm1Cult <- lmer(drywt ~ Inoc + …
9 r  mixed-model  bootstrap  central-limit-theorem  stable-distribution  time-series  hypothesis-testing  markov-process  r  correlation  categorical-data  association-measure  meta-analysis  r  anova  confidence-interval  lm  r  bayesian  multilevel-analysis  logit  regression  logistic  least-squares  eda  regression  notation  distributions  random-variable  expected-value  distributions  markov-process  hidden-markov-model  r  variance  group-differences  microarray  r  descriptive-statistics  machine-learning  references  r  regression  r  categorical-data  random-forest  data-transformation  data-visualization  interactive-visualization  binomial  beta-distribution  time-series  forecasting  logistic  arima  beta-regression  r  time-series  seasonality  large-data  unevenly-spaced-time-series  correlation  statistical-significance  normalization  population  group-differences  demography 
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.