내 질문은 Monte Carlo 분석 방법에 필요한 시뮬레이션 수에 관한 것입니다. 최대한 멀리있는 허용 백분율 오차에 대한 시뮬레이션에 필요한 수의 참조로서 (예컨대, 5)이며 n = { 100 ⋅ z c ⋅ 표준 ( x )
여기서 는 결과 샘플링의 표준 편차이고 는 신뢰 수준 계수입니다 (예 : 95 %의 경우 1.96). 따라서이 방법으로 시뮬레이션 의 결과 평균 및 표준 편차가 95 % 신뢰 수준의 실제 평균 및 표준 편차를 나타내는 지 확인할 수 있습니다.z c n
필자의 경우 시뮬레이션을 7500 번 실행하고 7500 시뮬레이션에서 각 100 개의 샘플링 세트에 대한 이동 수단과 표준 편차를 계산합니다. 필요한 시뮬레이션 수는 항상 100보다 작지만 평균 및 표준 오차의 % 오차는 전체 결과의 평균 및 표준 오차와 비교할 때 항상 5 % 이상인 것은 아닙니다. 대부분의 경우 평균 오차 (%)는 5 % 미만이지만 표준 오차는 최대 30 %입니다.
실제 평균과 표준을 모르고 필요한 시뮬레이션 수를 결정하는 가장 좋은 방법은 무엇입니까 (필자의 경우 시뮬레이션 결과가 정상적으로 분포 됨)?
도움을 주셔서 감사합니다.
반복 횟수가 무한정 실행될 때 시뮬레이션 결과의 분포가 어떻게 보일지에 대한 아이디어를 얻으려면 n 번의 시뮬레이션 후에 결과 평균과 분산을 사용하는 대신 결과 분포의 적합 함수를 찾기로 결정했습니다. 그러나 여기서 n은 허용 된 % 오류를 완전히 채워야합니다. 그런 식으로 나는 97.5 %와 관련된 누적 distrubution 함수에 대해 더 정확한 결과를 찾을 수 있다고 생각합니다. 400과 7000 시뮬레이션의 결과를 비교할 때 두 샘플링에 대한 분포의 적합 함수가 서로 비슷해 보이기 때문에 두 번째 곡선 만 더 부드럽습니다. 또한 MATLAB / Simulink의 모델은 비선형 적이지만, 생성 된 입력 매개 변수는 정규 분포이지만 결과적인 시뮬레이션 히스토그램은 "일반화 된 극값 분포"를 사용한 이유 때문에 정상이 아닙니다. MATLAB에서 'gev'로 명명됩니다. 그러나 여전히, 나는이 방법에 대해 확실하지 않습니다. 사전 명령에 감사드립니다.