분류를 위해 HMM을 교육하려면 어떻게해야합니까?


12

따라서 분류를 위해 HMM을 훈련시킬 때 표준 접근법은 다음과 같습니다.

  1. 데이터 세트를 각 클래스의 데이터 세트로 분리하십시오.
  2. 수업 당 하나의 HMM 훈련
  3. 테스트 세트에서 각 모델의 가능성을 비교하여 각 창을 분류하십시오.

그러나 각 수업에서 HMM을 어떻게 훈련합니까? 한 클래스와 관련된 데이터를 함께 연결합니까? 그러나 시계열 데이터는 순차적이 아닙니다. 그렇게하면 일부 데이터 포인트가 연속적이지 않다고 말하는 것입니까?

좀 더 구체적으로 말하면 96xT 매트릭스 인 EEG 데이터가 있습니다. 여기서 다른 채널에서 다른 주파수의 전력 스펙트럼 밀도 인 96 개의 특징 벡터가 있으며 T는 신호의 시간 길이입니다 (일부 샘플링 속도에서)

이것은 실험 프로토콜 (데이터가 표시되어 있음)에서 알 수있는 창으로 나눌 수 있으므로 각 클래스에 대해 96 * t 행렬 집합을 모을 수 있습니다. 여기서 t는 T보다 작으며 각 창의 크기를 나타냅니다.

그런 다음이 데이터에 대해 HMM을 어떻게 훈련합니까? pmtk3 툴킷을 사용하는 데 도움이되지만 실제로는 아무것도 사용하지 않습니다. 파워 스펙트럼 밀도가 불 연속적이지 않고 연속적이므로 실제 관측 값을 처리 할 수 ​​있어야합니다 (기본 MATLAB 툴박스는 불연속 관찰).

목표는 EEG 데이터 창을 레이블이 지정된 데이터를 학습 한 주어진 정신 상태로 분류 할 수 있도록하는 것입니다. 베를린 BCI 경쟁 데이터를 사용하는 뇌-컴퓨터 인터페이스 문제 입니다.


1
이 페이지 가 필요한 내용에 적합 합니까 ?
merours

그것은 보인다-나는 그것을 확인하기 위해 그것을 시도 할 것이다. 다항식보다는 가우시안 모델과 가우시안 모델의 혼합이 가능합니다. 그리고 여러 관측 값에 대해 전 세계적으로 모델을 학습 할 수있는 것처럼 보입니다. 어쨌든 파이썬은 훨씬 더 광범위하게 사용되므로 올바르게 배우는 것을 의미했습니다. 감사합니다 :)
Alex McMurray

답변:


9

T

레딧 에서 각 클래스에 단일 상태를 할당하는 것을 주저한다고 언급했습니다 . 이것을 시도 했습니까? 생각만큼 제대로 작동하지 않을 수 있습니다. 이 경우 추정 문제도 상당히 쉽습니다. 전환 확률을 추정하는 것은 쉽습니다. 기본적으로 계산하면됩니다. 또한 시간적 측면을 무시하고 관찰 된 데이터와 해당 클래스를 기반으로 각 주에 대한 배출 확률을 맞출 수 있습니다.

KNN×Kskik=1,,Ki=1,Ntkt

마지막으로 조건부 임의 필드와 같은 차별적 모델로 전환 할 수 있습니다. 차별적 모델을 사용하면보다 복잡한 기능을 쉽게 통합하고 현재 발생하는 문제를보다 직접적으로 해결할 수 있습니다 (조건부 밀도 추정). 이것은 아마도 내가 먼저 시도한 것입니다.


관찰 된 값은 연속적이므로 가우시안 또는 GMM에 적합합니다. reddit에서 논의했듯이 이것은 모델의 능력을 제한합니다. 이 모델을 사용하여 시간적 측면이 정적 모델과 비교하여 분류 정확도에 어떤 영향을 미치는지 확인합니다. 나는 차별적 모델이 분류에 더 좋으며 Murphy의 논문을 읽었 음을 알고 있습니다. 이것은 흥미로워 보이지만 교수님이 HMM을 추천했습니다 (오픈 엔드 프로젝트). 앞으로 EEG / MEG 신호로 더 많은 작업을 원하지만 다른 방법을 시도해 볼 것입니다. :)
Alex McMurray

1
결국 나는 sklearn과 다중 관측에 대한 지원을 사용했습니다. 제대로 작동하는 것 같습니다. 코드를 파고 코드가 실제로 어떻게 처리되는지 확인해야합니다.
Alex McMurray

1
알렉스, 당신은 당신이 "다발 관찰과 다중 관측에 대한 지원"이라고 말하는 것에 대한 링크 나 예제를 제공 할 수 있습니까? 나는 수년 동안이 문제 (및 여러 관측치가 단일 클래스 레이블에 속하는 HMM을 "알리는 방법"과 관련된 문제)를 다루어 왔으며 어떻게 해결했는지 알고 싶습니다.
Rubenulis
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.