HMM, 파티클 필터 및 칼만 필터가 다이내믹 베이 네트워크의 특별한 사례라는 것을 읽었습니다. 그러나 HMM 만 알고 있으며 동적 Bayes 네트워크와의 차이점은 없습니다.
누군가 설명해 주시겠습니까?
귀하의 답변이 다음과 유사하지만 베이 즈 네트워크의 경우 좋을 것입니다.
숨겨진 마르코프 모델
HMM (Hidden Markov Model)은 5- 튜플 .
- : 상태 집합 (예 : "음소의 시작", "음소의 중간", "음소의 끝")
- : 가능한 관측치 세트 (오디오 신호)
- : 확률적인 행렬을 제공하는 확률 행렬 주에서 벗어나 다 상태로 .
- : 영아를 제공하는 확률 론적 매트릭스 상태에있다 관찰 .
- : 상태 중 하나에서 시작되는 초기 배포.
일반적으로 각 그래프가 하나의 상태에 해당하는 유 방향 그래프로 표시됩니다. and the transition probabilities are denoted on the edges.
Hidden Markov Models are called "hidden", because the current state is hidden. The algorithms have to guess it from the observations and the model itself. They are called "Markov", because for the next state only the current state matters.
For HMMs, you give a fixed topology (number of states, possible edges). Then there are 3 possible tasks
- Evaluation: given a HMM , how likely is it to get observations (Forward algorithm)
- Decoding: given a HMM and a observations , what is the most likely sequence of states (Viterbi algorithm)
- Learning: learn : Baum-Welch algorithm, which is a special case of Expectation maximization.
Bayes networks
Bayes networks are directed acyclical graphs (DAGs) . The nodes represent random variables . For every , there is a probability distribution which is conditioned on the parents of :
There seem to be (please clarify) two tasks:
- Inference: Given some variables, get the most likely values of the others variables. Exact inference is NP-hard. Approximately, you can use MCMC.
Learning: How you learn those distributions depends on the exact problem (source):
- 알려진 구조, 완전히 관찰 가능 : 최대 우도 추정 (MLE)
- 알려진 구조, 부분적으로 관찰 가능 : 예상 최대화 (EM) 또는 Markov Chain Monte Carlo (MCMC)
- 알려지지 않은 구조, 완전히 관찰 가능 : 모형 공간을 통한 검색
- 알려지지 않은 구조, 부분적으로 관찰 가능 : EM + 모델 공간을 통한 검색
다이내믹 베이 네트워크
동적 베이 즈 네트워크 (DBN)도 확률 적 그래픽 모델을 지향한다고 생각합니다. 변동성은 시간이 지남에 따라 변화하는 네트워크에서 비롯된 것 같습니다. 그러나 이것은 동일한 네트워크를 복사하고 모든 노드를 한 번에 연결하는 것과 같습니다. 시간에 해당하는 모든 노드와 함께 . 그 경우입니까?