일반적으로 시계열은 다른 머신 러닝 문제와 실제로 다르지 않습니다. 훈련 세트에서 배운 모델이 테스트 세트에 여전히 적합하기를 원하기 때문에 테스트 세트가 트레이닝 세트와 같이 보이기를 원합니다. 그것이 문구성에 관한 중요한 기본 개념입니다. 시계열은 모델에 학습하기에 정교하지 않은 데이터에 장기 구조 가있을 수있는 추가 복잡성을 가지고 있습니다. 예를 들어, N의 자동 회귀 지연을 사용하는 경우 N보다 긴 간격에 대한 종속성을 학습 할 수 없습니다. 따라서 ARIMA와 같은 간단한 모델을 사용하는 경우 데이터도 로컬로 고정 되기를 원합니다 .
당신이 말했듯이, 고정은 단지 모델의 통계가 시간이 지남에 따라 변하지 않는다는 것을 의미합니다 ( '로컬'정적). ARIMA 모델은 본질적으로 과거 N 값을 선형 회귀에 대한 입력으로 사용하여 N + 1 값을 예측하는 회귀 모델입니다. (적어도 AR 부분은 그렇게합니다). 모형을 배우면 회귀 계수를 배우게됩니다. 과거 N 포인트와 다음 포인트 사이의 관계를 학습 한 시계열이 있고이를 다른 N 포인트 세트에 적용하여 다음 값을 예측하는 경우 동일한 관계가 N 개의 예측 점과 예측하려는 N + 1 번째 지점. 문 구성입니다. 트레이닝 세트를 두 개의 간격으로 분리하고 별도로 트레이닝 한 경우, 매우 다른 두 가지 모델을 얻었습니다. 그로부터 무엇을 결론 내겠습니까? 당신은 당신이 예측하기 위해 해당 모델을 적용 확신새로운 데이터? 어느 것을 사용 하시겠습니까? 데이터가 '고정되지 않은'경우 이러한 문제가 발생합니다.
RNN에 대한 나의 견해는 이것입니다. 여전히 시계열의 한 세그먼트에서 패턴을 배우고 있으며 예측을 얻기 위해 시계열의 다른 부분에 패턴을 적용하고 싶습니다. 모델은 시계열의 단순화 된 표현을 학습합니다. 해당 표현이 훈련 세트에는 적용되지만 테스트 세트에는 적용되지 않으면 성능이 떨어집니다. 그러나 ARIMA와 달리 RNN은 비선형 성을 학습 할 수 있으며 LSTM 노드와 같은 특수 노드가 이보다 훨씬 우수합니다. 특히 LSTM과 GRU는 장기적인 의존성을 배우는 데 매우 능숙합니다. 예를 들어이 블로그 게시물을 참조하십시오 . 사실상 이것은 '정상 성'이 의미하는 것이 RNN과 덜 취하기 때문에 덜 걱정한다는 것을 의미합니다. 그러나 장기적인 의존성을 배우려면 훈련 할 데이터가 많이 필요합니다.
궁극적으로 증거는 푸딩에 있습니다. 즉, 다른 기계 학습 프로젝트와 마찬가지로 모델 유효성 검사를 수행하십시오. 모델이 홀드 아웃 데이터를 잘 예측하면 사용에 다소 자신감이 생길 수 있습니다. 그러나 다른 ML 프로젝트와 마찬가지로 테스트 데이터가 교육 데이터와 크게 다르면 모델 성능이 떨어집니다.