«least-squares» 태그된 질문

변수의 관측 값 및 변수 값에 따라 조정 된 관측 값의 기대 값과 같이 두 수량 간의 제곱 차를 최소화하기 위해 모수 값을 선택하는 일반 추정 기법을 나타냅니다. 가우시안 선형 모델은 최소 제곱에 적합하며 최소 제곱은 추정기를 평가하는 방법으로 MSE (평균 제곱 오차)를 사용하는 아이디어입니다.

3
최소 제곱이 나쁜 생각은 언제입니까?
I는 회귀 경우 : Y=Xβ+ε와이=엑스β+ε Y = X\beta + \varepsilon V[ε]=Id∈Rn×nV[ε]=나는디∈아르 자형엔×엔\mathbb{V}[\varepsilon] = Id \in \mathcal{R} ^{n \times n} 과 E[ε]=(0,…,0)이자형[ε]=(0,…,0)\mathbb{E}[\varepsilon]=(0, \ldots , 0) , 사용 할 때 βOLSβOLS\beta_{\text{OLS}} ,의 정규 방정식 추정 ββ\beta , 추정량에 대한 빈약 한 선택? 최소 제곱이 제대로 작동하지 않는 예를 찾으려고합니다. 따라서 이전 가설을 …

3
AR (1) 계수의 OLS 추정기가 바이어스되는 이유는 무엇입니까?
OLS가 AR (1) 프로세스의 바이어스 추정기를 제공하는 이유를 이해하려고합니다. 고려 이 모델에서는 엄격한 외 생성이 위반됩니다. 즉, 와 는 상관되지만 과 는 상관되지 않습니다. 그러나 이것이 사실이라면 왜 다음과 같은 간단한 파생이 이루어지지 않습니까? 와이티ϵ티= α + β와이t - 1+ϵ티,∼I I D엔( 0 , 1 ) .yt=α+βyt−1+ϵt,ϵt∼iidN(0,1). \begin{aligned} y_{t} &= …

4
오차가 정규 분포를 따르지 않는 경우 최소 제곱 법과 최대 가능성 회귀 분석법이 다른 이유는 무엇입니까?
제목은 모든 것을 말합니다. 최소 오차와 최대 확률은 모형의 오차가 정규 분포를 따르는 경우 회귀 계수에 대해 동일한 결과를 제공한다는 것을 이해합니다. 그러나 오류가 정상적으로 분포되지 않으면 어떻게됩니까? 두 방법이 더 이상 동일하지 않은 이유는 무엇입니까?

3
제한된 (음수가 아닌) 최소 제곱에서 p- 값 계산
나는 Matlab을 사용하여 제한되지 않은 최소 제곱 (일반 최소 제곱)을 수행했으며 계수, 테스트 통계 및 p- 값을 자동으로 출력합니다. 내 질문은 제한된 최소 제곱 (음이 아닌 음의 계수)을 수행하면 테스트 통계없이 p- 값없이 계수 만 출력합니다. 유의성을 확보하기 위해 이러한 값을 계산할 수 있습니까? 소프트웨어에서 직접 사용할 수없는 이유는 무엇입니까?

3
뒤에 직관
선형 회귀 분석에서 닫힌 형태의 w는 다음과 같이 쓸 수 있습니다. w^=(XTX)−1XTyw^=(XTX)−1XTy\hat{w}=(X^TX)^{-1}X^Ty 이 방정식에서 의 역할을 직관적으로 설명 할 수 있습니까?(XTX)−1(XTX)−1(X^TX)^{-1}

2
OLS를 사용하여 잔차의 오차를 회귀 할 때 기울기가 항상 정확히 1 인 이유는 무엇입니까?
R에서 간단한 시뮬레이션을 사용하여 오차와 잔차 간의 관계를 실험하고 있습니다. 내가 찾은 것 중 하나는 표본 크기 또는 오차 분산에 관계없이 모델에 적합 할 때 항상 기울기에 대해 정확히 을 얻는다는 것 입니다.111 e r r o r s ∼ β0+ β1× r e s i d u a l …


2
조건부 평균 독립성은 OLS 추정기의 편견과 일관성을 의미합니다
다음 다중 회귀 모델을 고려하십시오.Y=Xβ+Zδ+U.(1)(1)Y=Xβ+Zδ+U.Y=X\beta+Z\delta+U.\tag{1} 여기서 는 열 벡터이며; 행렬; a column vector; 행렬; 열 벡터; 그리고 오류 항인 는 열 벡터입니다.YYYn×1n×1n\times 1XXXn×(k+1)n×(k+1)n\times (k+1)ββ\beta(k+1)×1(k+1)×1(k+1)\times 1ZZZn×ln×ln\times lδδ\deltal×1l×1l\times 1UUUn×1n×1n\times1 질문 제 강사, Econometrics 소개 교과서 제 3 판. James H. Stock 및 Mark W. Watson, p. 281 및 계량 경제학 : Honor …

1
일반화 된 최소 제곱 : 회귀 계수에서 상관 계수까지?
예측 변수가 하나 이상인 제곱의 경우 : y=βx+ϵy=βx+ϵy = \beta x + \epsilon 피팅하기 전에 와 가 표준화 된 경우 (예 : ) :xxxyyy∼N(0,1)∼N(0,1)\sim N(0,1) ββ\beta 는 Pearson 상관 계수 .rrr ββ\beta반사 회귀 분석에서 는 동일합니다.x=βy+ϵx=βy+ϵx = \beta y + \epsilon 일반 최소 제곱 (GLS)의 경우에도 동일하게 적용됩니까? 즉, 데이터를 …

1
ARIMA 모델의 관측치 48에서 혁신적인 특이 치를 어떻게 통합합니까?
데이터 세트를 작업 중입니다. 일부 모델 식별 기술을 사용한 후 ARIMA (0,2,1) 모델을 만들었습니다. R detectIO의 패키지 TSA에 있는 함수를 사용하여 48 번째 원본 데이터 세트에서 혁신적인 이상치 (IO) 를 감지했습니다 . 이 특이 치를 내 모델에 어떻게 통합하여 예측 목적으로 사용할 수 있습니까? R에서 예측할 수 없기 때문에 ARIMAX …
10 r  time-series  arima  outliers  hypergeometric  fishers-exact  r  time-series  intraclass-correlation  r  logistic  glmm  clogit  mixed-model  spss  repeated-measures  ancova  machine-learning  python  scikit-learn  distributions  data-transformation  stochastic-processes  web  standard-deviation  r  machine-learning  spatial  similarities  spatio-temporal  binomial  sparse  poisson-process  r  regression  nonparametric  r  regression  logistic  simulation  power-analysis  r  svm  random-forest  anova  repeated-measures  manova  regression  statistical-significance  cross-validation  group-differences  model-comparison  r  spatial  model-evaluation  parallel-computing  generalized-least-squares  r  stata  fitting  mixture  hypothesis-testing  categorical-data  hypothesis-testing  anova  statistical-significance  repeated-measures  likert  wilcoxon-mann-whitney  boxplot  statistical-significance  confidence-interval  forecasting  prediction-interval  regression  categorical-data  stata  least-squares  experiment-design  skewness  reliability  cronbachs-alpha  r  regression  splines  maximum-likelihood  modeling  likelihood-ratio  profile-likelihood  nested-models 

3
사이의 관계
에 관한 매우 기본적인 질문 아르 자형2R2R^2 OLS 회귀 OLS 회귀 y ~ x1을 실행하면 아르 자형2R2R^20.3이라고 OLS 회귀 분석 y ~ x2를 실행하십시오. 아르 자형2R2R^20.4라고 이제 우리는 회귀 y ~ x1 + x2를 실행합니다.이 회귀의 R 제곱은 얼마입니까? 나는 그것이 분명하다고 생각 아르 자형2R2R^2 다중 회귀는 0.4 이상이어야하지만 0.7 …


4
R의 이산 시간 이벤트 기록 (생존) 모델
R에 이산 시간 모델을 맞추려고하지만 어떻게 해야할지 모르겠습니다. 종속 변수를 각 시간 관찰마다 하나씩 다른 행 glm으로 구성하고 logit 또는 cloglog 링크와 함께 함수를 사용할 수 있다는 것을 읽었습니다. 이런 의미에서, 나는 세 개의 열이 있습니다 : ID, Event(각 시간 경과시 1 또는 0) 및 Time Elapsed(관측 시작부터 ) 그리고 …
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

1
R 선형 회귀 범주 형 변수 "숨김"값
이것은 여러 번 나온 예제 일뿐이므로 샘플 데이터가 없습니다. R에서 선형 회귀 모델 실행 : a.lm = lm(Y ~ x1 + x2) x1연속 변수입니다. x2범주 형이며 "낮음", "중간"및 "높음"의 세 가지 값이 있습니다. 그러나 R이 제공하는 출력은 다음과 같습니다. summary(a.lm) Estimate Std. Error t value Pr(>|t|) (Intercept) 0.521 0.20 1.446 …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 


당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.