이동 평균 모델 오류 항


17

Box-Jenkins MA 모델에 대한 기본적인 질문입니다. 내가 이해하는 것처럼 MA 모델은 기본적으로 이전 오류 용어 에 대한 시계열 값 의 선형 회귀입니다 . 즉, 관측 값 는 먼저 이전 값 Y_ {t-1}, ..., Y_ {tn} 에 대해 회귀 된 다음 하나 이상의 Y-\ hat {Y} 값이 MA의 오류 항으로 사용됩니다. 모델.전자 t을 , . . . , 전자 t - N Y Y t - 1 , . . . , Y의 t - N Y - YYet,...,etnYYt1,...,YtnYY^

그러나 ARIMA (0, 0, 2) 모델에서 오차 항은 어떻게 계산됩니까? MA 모델이 자동 회귀 부품없이 사용되어 추정값이없는 경우 어떻게 오차항을 가질 수 있습니까?


1
아니요, 회귀 분석이 e_ {ti} 만으로 eti평가되고 eti 가 데이터에서 추정 되는 MA (n) 모델의 정의를 혼동한다고 생각합니다 .
Xi'an

1
귀하의 질문의 주요 문제는 MA 모델이 기본적으로 선형 회귀라고 말합니다. 우리는 오류 용어를 관찰하지 않기 때문에 이것은 사실이 아닙니다.
mpiktas

오류 용어 실제로 이며 여기서 는 또는 단순히 입니다. 이것이 MA 부분 모수 추정치가 부분 자기 상관 함수 의 반복 패턴 , 즉 잔차의 거동 으로부터 도출되는 이유 입니다. 대신 AR 파라미터 추정은 acf (Y)의 반복 패턴을 기반으로합니다. Y E ( Y | Y의 t , . . . , t - N ) Y의 t - Y에 t - 1 YYtYt^Y^E(Y|Yt,...,tn)YtYt1Y
Robert Kubrick

답변:


20

MA 모델 추정치 :

100 개의 시점을 가진 시리즈를 가정 해 봅시다. 이것은 인터셉트가없는 MA (1) 모델에 의해 특징 지어집니다. 그런 다음 모델은

yt=εtθεt1,t=1,2,,100(1)

여기서 오류 용어는 관찰되지 않습니다. 이를 얻기 위해 Box et al. 시계열 분석 : 예측 및 제어 (제 3 판) , 페이지 (228)는 , 오류 용어에 의해 반복적으로 계산하는 것이 좋습니다

εt=yt+θεt1

따라서 대한 오차항t=1

ε1=y1+θε0
이제 우리는 값을 모르면 이것을 계산할 수 없습니다 θ. 이를 얻기 위해서는 모델의 초기 또는 예비 추정치를 계산해야합니다 (Box et al. 상기 책의 섹션 6.3.2 페이지 202

먼저 도시 한 q MA (의 자기 상관 q ) 처리가 0이고 같이 모델의 파라미터로 기록 될 수 θ 1 , θ 2 , , θ q 에서 ρ 1 , ρ 2, ρ q

ρk=θk+θ1θk+1+θ2θk+2++θqkθq1+θ12+θ22++θq2k=1,2,,q
대한 위의 표현은 q 미지수로 q 방정식을제공합니다. 의 예비 추정치 θ 의 추정값을 치환함으로써 얻을 수는 r에 K를 위해 ρ K 상기 식에서ρ1,ρ2,ρqθ1,θ2,,θqqqθrkρk

참고 상기 추정 된 자기 상관 (autocorrelation)이다. 6.3 절-모수에 대한 초기 추정치에 대한 자세한 설명이 나와 있습니다 . 이제 초기 추정치 θ = 0.5를 얻는다고 가정 합니다. 그러면 ε 1 = y 1 + 0.5 ε 0 이제 또 다른 문제는 t 가 1에서 시작 하기 때문에 ε 0 값 이 없으므로 ε 1을 계산할 수 없다는 것 입니다. 다행히 두 가지 방법으로 두 가지를 얻을 수 있습니다.rkθ=0.5

ε1=y1+0.5ε0
ε0tε1
  1. 조건부 가능성
  2. 무조건적 가능성

Box et al.에 따르면 섹션 7.1.3 227 페이지에서 n 이 보통이거나 크면 의 값을 근사값으로 0으로 대체 할 수 있습니다 .이 방법은 조건부 가능성입니다. 그렇지 않으면 무조건 가능성이 사용되며, 여기서 ε 0 의 값은 역 예측에 의해 얻어진다 (Box et al. 이 방법을 권장합니다. 역 예측에 대한 자세한 내용은 231 페이지 7.1.4 섹션을 참조하십시오 .ε0nε0

의 초기 추정값과 값을 얻은 후에는 오차항 의 재귀 계산을 진행할 수 있습니다. 그런 다음 마지막 단계는 모델의 모수를 추정하는 것입니다 ( 1 ) . 이것은 더 이상 예비 추정치가 아님을 기억하십시오.ε0(1)

MA 모델은 매개 변수에 대해 비선형이므로 매개 변수 추정 할 때 비선형 추정 절차, 특히 Levenberg-Marquardt 알고리즘을 사용합니다.θ

전반적으로 Box et al. 시계열 분석 : 예측 및 제어 (제 3 판) .


가 무엇인지 설명 할 수 있습니까 ? rk
Piyush Divyanakar

4

가우시안 MA (Q)와 같은 모델 (!뿐만 박스 및 젠킨스) 정의 된 석사 (Q) 모델은 "순수"오류 모델, 학위 그래서 Q 상관 돌아 간다 얼마나 정의.

Yt=i=1qϑieti+σet,etiidN(0,1)
q

1
가 어디에서 왔는지 여전히 명확하지 않습니다 . 가 전자 t 확률 변수? 나는 그렇게 생각하지 않습니다. 그렇지 않으면 왜 q 상관 관계를 찾고 있습니까? etetq
Robert Kubrick

1
왜 수식에 마이너스가 있습니까? 일반적으로 마이너스는 AR 모델에 대한 것입니다. 수학적으로 문제가되지는 않습니다. MA 모델에서 마이너스를 본 적이 없기 때문에 궁금합니다.
mpiktas

3
@RobertKubrick, Wold 분해 정리 를 알고 있습니까? 각각의 정상 과정 용어가 어디에 내지 그 대응 프로세스 혁신 갖는다 온한다. et
mpiktas

1
@mpiktas 감사합니다. 오류 용어에 대한 배경 지식을 제공하지만 혁신 프로세스의 출처는 아직 확실하지 않습니다. 혁신이 존재하기 위해서는 어딘가에 예측이 있어야합니다 ( en.wikipedia.org/wiki/Innovation_ ( signal_processing) ). 최적의 예측은 단순히 E ( Y ) 입니까, 즉 계열의 평균입니까? YE(Y)
Robert Kubrick

1

"관찰 당신은 말할 먼저 이전 값에 대해 회귀되는 Y의 t - 1 , . . . , Y t - N 및 하나 이상의 Y - Y의 값이 MA 모델에 대한 오류 용어로 사용됩니다." 내가 말한 것은 Y 가 두 예측 변수 시리즈 e t - 1e t - 2 에 대해 회귀 되어 모든 i = 3,4 ,,,, t에 대해 상관 관계가없는 오류 프로세스 e t 를 생성한다는 것입니다. 그런 다음 두 개의 회귀 계수가 있습니다. : θYYt1,...,YtnYY^Yet1et2et 의 영향을 나타내는 전자 t을 - 1 θ 2 의 영향을 나타내는 전자 t - 2 . 따라서 e t 는 n-2 값을 포함하는 화이트 노이즈 랜덤 시리즈입니다. n-2 추정 가능한 관계가 있으므로 e1과 e2가 0.0과 같다는 가정으로 시작합니다. 이제 θ 1 θ 2 쌍에대해 t-2 잔차 값을 추정 할 수 있습니다. 가장 작은 오차 제곱합을 산출하는 조합은 θ 1 θ 2 의 최상의 추정치가됩니다.θ1et1θ2et2etθ1θ2θ1θ2


다른 2 개의 예측 변수 시리즈는 무엇입니까? 나는 문학을 볼 때 분명히 명시되어 있지 않기 때문에 묻습니다. 이 다른 두 시리즈는 와 관련이 없습니까? 모든 ARIMA 공식이 Y 시리즈로 제한되어 있다는 인상을 받았습니다 . YY
Robert Kubrick

1
두 예측 변수는 오차항의 지연입니다. 우리가 시작하기 전에 오차 항을 모르기 때문에 이것들은 선험적으로 알려지지 않았기 때문에 이것이 비선형 추정에 의해 처리되어야하는 이유입니다. 혼동하는 것은 과거에 유한 한 모형 (즉, AR MODEL)은 오류가 무한 할 수 있고 오류가 유한 한 모델 (예 : MA MODEL)은 Y의 과거에 잠재적으로 무한합니다. 때때로 우리는 Y의 이력과 오류의 이력을 혼합 한 ARMA 모델을 구성합니다.
IrishStat

1
As I commented in the other answer, what I am still missing is what's the optimal forecast for Y, which is used to calculate the innovation etn.
Robert Kubrick

1

See my post here for an explanation of how to understand the disturbance terms in a MA series.

You need different estimation techniques to estimate them. This is because you cannot first get the residuals of a linear regression and then include the lagged residual values as explanatory variables because the MA process uses the residuals of the current regression. In your example you are making two regression equations and using residuals from one into the other. This is not what an MA process is. It cannot be estimated with OLS.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.