일부 프로세스의 시계열을 시뮬레이션하는 데 사용되는 확률 모델이 있습니다. 하나의 매개 변수를 특정 값으로 변경하는 효과에 관심이 있고 시계열 (예 : 모델 A 및 모델 B)과 일종의 시뮬레이션 기반 신뢰 구간 간의 차이를 표시하려고합니다.
나는 단순히 모델 A와 모델 B에서 많은 시뮬레이션을 실행 한 다음 각 시점에서 중앙값을 빼서 시간에 따른 중앙값 차이를 찾습니다. 동일한 접근법을 사용하여 2.5 및 97.5 Quantile을 찾았습니다. 이것은 각 시계열을 공동으로 고려하지 않기 때문에 매우 보수적 인 접근 방식으로 보입니다 (예 : 각 지점은 이전 및 미래의 다른 모든 지점과 독립적 인 것으로 간주 됨).
더 좋은 방법이 있습니까?
평균이 아닌 중앙값을 사용하는 이유는 무엇입니까? 분포가 대칭 적이 지 않습니까?
—
naught101
이 질문에 대한 답변을 찾으셨습니까?
—
tchakravarty