숨겨진 것과 관찰되는 것
숨겨진 Markov 모델에 숨겨진 것은 개별 혼합 모델에 숨겨진 것과 동일하므로 명확성을 위해 숨겨진 상태의 역학을 잊고 유한 혼합 모델을 예로들 수 있습니다. 이 모델에서 '상태'는 각 관측을 유발 한 구성 요소의 정체성입니다. 이러한 유형의 모델에서 이러한 원인은 결코 관찰 되지 않으므로 , '숨겨진 원인'은 통계적으로 관찰 된 데이터가 소스 구성 요소를 알 때 제거되는 한계 의존성을 갖는다는 주장으로 변환됩니다. 그리고 소스 구성 요소는이 통계적 관계를 충족시키는 것으로 추정됩니다.
S 자형 중간 단위를 갖는 피드 포워드 다층 신경망에 숨겨진 것은 추론의 대상이되는 출력이 아니라 해당 단위의 상태입니다. 네트워크의 출력이 분류, 즉 가능한 출력 카테고리에 대한 확률 분포 인 경우, 이러한 숨겨진 단위 값은 카테고리를 분리 할 수있는 공간을 정의합니다. 이러한 모델을 학습하는 요령은 문제가 선형 인 (입력 장치에서 매핑을 조정하여) 숨겨진 공간을 만드는 것입니다. 결과적으로 시스템 전체에서 비선형 결정 경계가 가능합니다.
생성 대 차별
혼합 모델 (및 HMM)은 데이터 생성 프로세스의 모델로, 가능성 또는 '전달 모델'이라고도합니다. 각 상태의 사전 확률에 대한 몇 가지 가정과 함께 베이 즈 정리 (생성 접근법)를 사용하여 숨겨진 상태의 가능한 값에 대한 분포를 유추 할 수 있습니다. '선점'이라고 불리는 반면, 가능성의 이전 및 매개 변수는 일반적으로 데이터에서 학습됩니다.
혼합 모델 (및 HMM)과 달리 신경망은 출력 범주에 대한 사후 분포를 직접 배웁니다 (차별적 접근). 이는 추정 동안 출력 값이 관찰 되었기 때문에 가능합니다. 그리고 그것들이 관찰 되었기 때문에, 혼합물과 같은 가능성에 대한 이전 및 특정 모델로부터 사후 분포를 구성 할 필요가 없습니다. 후자는 데이터에서 직접 학습되므로 더 효율적이며 모델에 덜 의존합니다.
믹스 앤 매치
상황을 좀 더 혼란스럽게 만들기 위해, 이러한 접근법은 혼합 모델 (또는 HMM) 상태가 실제로 관찰되는 경우와 같이 혼합 될 수 있습니다. 그것이 사실 일 때, 그리고 여기에 관련이없는 다른 상황에서, 다른 생성 모델에서 차별적으로 훈련하는 것이 가능합니다. 유사하게, HMM의 혼합 모델 매핑을보다 유연한 순방향 모델, 예를 들어 신경망으로 대체 할 수 있습니다.
질문
따라서 두 모델 모두 숨겨진 상태를 예측하는 것은 사실이 아닙니다. HMM 을 사용하면 포워드 모델이 기대하는 종류 일지라도 숨겨진 상태를 예측할 수 있습니다. 신경망은 아직 관측되지 않은 상태, 예를 들어 예측자가 이용 가능한 미래 상태 를 예측하는데 사용될 수있다 . 이러한 종류의 상태는 원칙적으로 숨겨져 있지 않으며 아직 관찰되지 않았습니다.
언제 다른 것을 사용하지 않습니까? 신경망은 내 경험상 다소 어색한 시계열 모델을 만듭니다. 또한 출력을 관찰했다고 가정합니다. HMM은 그렇지 않지만 실제로 숨겨진 상태를 제어 할 수는 없습니다. 그럼에도 불구하고 그것들은 적절한 시계열 모델입니다.