에서 이 인기있는 질문 , 높은 upvoted 대답은 MLE와 바움 웰치는 HMM 피팅에서 분리합니다.
훈련 문제의 경우 MLE (최대 우도 추정), Viterbi 훈련 (Viterbi 디코딩과 혼동하지 마십시오), Baum Welch = 순방향 알고리즘의 3 가지 알고리즘을 사용할 수 있습니다.
그러나 Wikipedia 에서는
Baum–Welch 알고리즘은 잘 알려진 EM 알고리즘을 사용하여 모수의 최대 가능성 추정치를 찾습니다.
그렇다면 MLE과 Baum-Welch 알고리즘의 관계는 무엇입니까?
내 시도 : Baum-Welch 알고리즘의 목표는 가능성을 극대화하는 것이지만 최적화를 해결하기 위해 특수 알고리즘 (EM)을 사용합니다. 그래디언트 괜찮은 등 다른 방법을 사용하여 가능성을 최대화 할 수 있습니다. 이것이 답이 두 알고리즘을 분리시키는 이유입니다.
내가 옳고 누구든지 명확히 할 수 있습니까?