(동적) Bayes 네트워크와 HMM의 차이점은 무엇입니까?


14

HMM, 파티클 필터 및 칼만 필터가 다이내믹 베이 네트워크의 특별한 사례라는 것을 읽었습니다. 그러나 HMM 만 알고 있으며 동적 Bayes 네트워크와의 차이점은 없습니다.

누군가 설명해 주시겠습니까?

귀하의 답변이 다음과 유사하지만 베이 즈 네트워크의 경우 좋을 것입니다.

숨겨진 마르코프 모델

HMM (Hidden Markov Model)은 5- 튜플 .λ=(에스,영형,,,Π)

  • 에스 : 상태 집합 (예 : "음소의 시작", "음소의 중간", "음소의 끝")
  • 영형 : 가능한 관측치 세트 (오디오 신호)
  • 아르 자형|에스|×|에스| : 확률적인 행렬을 제공하는 확률 행렬(나는제이) 주에서 벗어나 다 나는 상태로 제이.
  • 아르 자형|에스|×|영형|: 영아를 제공하는 확률 론적 매트릭스 (케이) 상태에있다 케이 관찰 .
  • Π아르 자형|에스|: 상태 중 하나에서 시작되는 초기 배포.

일반적으로 각 그래프가 하나의 상태에 해당하는 유 방향 그래프로 표시됩니다. sS and the transition probabilities are denoted on the edges.

Hidden Markov Models are called "hidden", because the current state is hidden. The algorithms have to guess it from the observations and the model itself. They are called "Markov", because for the next state only the current state matters.

For HMMs, you give a fixed topology (number of states, possible edges). Then there are 3 possible tasks

  • Evaluation: given a HMM λ, how likely is it to get observations o1,,ot (Forward algorithm)
  • Decoding: given a HMM λ and a observations o1,,ot, what is the most likely sequence of states s1,,st (Viterbi algorithm)
  • Learning: learn A,B,Π: Baum-Welch algorithm, which is a special case of Expectation maximization.

Bayes networks

Bayes networks are directed acyclical graphs (DAGs) G=(X,E). The nodes represent random variables XX. For every X, there is a probability distribution which is conditioned on the parents of X:

P(X|parents(X))

There seem to be (please clarify) two tasks:

  • Inference: Given some variables, get the most likely values of the others variables. Exact inference is NP-hard. Approximately, you can use MCMC.
  • Learning: How you learn those distributions depends on the exact problem (source):

    • 알려진 구조, 완전히 관찰 가능 : 최대 우도 추정 (MLE)
    • 알려진 구조, 부분적으로 관찰 가능 : 예상 최대화 (EM) 또는 Markov Chain Monte Carlo (MCMC)
    • 알려지지 않은 구조, 완전히 관찰 가능 : 모형 공간을 통한 검색
    • 알려지지 않은 구조, 부분적으로 관찰 가능 : EM + 모델 공간을 통한 검색

다이내믹 베이 네트워크

동적 베이 즈 네트워크 (DBN)도 확률 적 그래픽 모델을 지향한다고 생각합니다. 변동성은 시간이 지남에 따라 변화하는 네트워크에서 비롯된 것 같습니다. 그러나 이것은 동일한 네트워크를 복사하고 모든 노드를 한 번에 연결하는 것과 같습니다. 시간에 해당하는 모든 노드와 함께 +1. 그 경우입니까?


2
1. You can also learn the topology of an HMM. 2. When doing inference with BNs, besides asking for maximum likelihood estimates, you can also sample from the distributions, estimate the probabilities, or do whatever else probability theory lets you. 3. A DBN is just a BN copied over time, with some (not necessarily all) nodes chained from past to the future. In this sense, a HMM is a simple DBN with just two nodes in each time-slice and one of the nodes chained over time.
KT.

I asked someone about this and they said: "HMMs are just special cases of dynamic Bayes nets, with each time slice containing one latent variable, dependent on the previous one to give a Markov chain, and one observation dependent on each latent variable. DBNs can have any structure that evolves over time."
ashley

답변:


1

A로부터 유사한 교차 검증 질문 은 다음과 @jerad 대답 :

HMM은 DBN과 동일하지 않으며, 전 세계의 모든 상태가 단일 숨겨진 상태 변수로 표시되는 DBN의 특수한 경우입니다. DBN 프레임 워크 내의 다른 모델은 기본 HMM을 일반화하여보다 숨겨진 상태 변수를 허용합니다 (많은 종류에 대해서는 위의 두 번째 논문 참조).

마지막으로, 아니오, DBN이 항상 분리 된 것은 아닙니다. 예를 들어 선형 가우시안 상태 모델 (Kalman Filters)은 종종 공간에서 객체를 추적하는 데 사용되는 연속 값을 갖는 HMM으로 생각할 수 있습니다.

이 두 가지 훌륭한 검토 논문을 살펴 보는 것이 좋습니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.