훈련의 각 반복을 다른 순서로 연결하거나 실행하는 것이 옳은 것은 아닙니다. 올바른 접근 방식에는 몇 가지 설명이 필요합니다.
하나는 보통 EM 알고리즘을 사용하여 HMM을 훈련시킵니다.. 이것은 여러 반복으로 구성됩니다. 각 반복에는 하나의 "추정"및 하나의 "최대화"단계가 있습니다. "최대화"단계에서는 가능성 측정이 최대화되도록 각 관측 벡터 x를 모델의 상태 s와 정렬합니다. "추정"단계에서 각 상태 s에 대해 (a) s에 정렬 된 x 벡터에 대한 통계 모델의 매개 변수 및 (b) 상태 전이 확률을 추정합니다. 다음 반복에서는 최대화 된 단계가 업데이트 된 통계 모델 등을 사용하여 다시 실행됩니다. 프로세스가 설정된 횟수만큼 반복되거나 가능성 측정이 크게 증가하지 않는 경우 (즉, 모델이 안정적인 솔루션으로 수렴). 마지막으로 (적어도 음성 인식에서) HMM은 일반적으로 지정된 "시작"을 갖습니다.
따라서 여러 훈련 시퀀스가있는 경우 추정 단계에서 각 시퀀스를 실행하여 초기 관측 벡터가 초기 상태와 정렬되도록해야합니다. 이렇게하면 해당 초기 상태에 대한 통계가 모든 관측 시퀀스에 대한 첫 관측에서 수집되며 일반적으로 관측 벡터는 각 시퀀스에서 가장 가능성이 높은 상태에 정렬됩니다. 훈련을 위해 모든 시퀀스가 제공된 후에 만 최대화 단계 (및 이후 반복) 를 수행 합니다. 다음 반복에서는 정확히 같은 일을 할 것입니다.
각 관측 시퀀스의 시작을 초기 상태로 정렬하면 한 시퀀스의 끝과 다음의 시작 사이의 전환을 잘못 모델링하는 시퀀스를 연결하는 문제를 피할 수 있습니다. 또한 각 반복에서 모든 시퀀스를 사용하면 응답자가 언급 한대로 각 반복마다 다른 시퀀스를 제공하지 않아도 수렴이 보장되지 않습니다.