«expectation-maximization» 태그된 질문

결측 데이터가있을 때 최대 가능성 추정에 종종 사용되는 최적화 알고리즘.


3
반복 관찰 횟수로 샘플링되는 모집단의 크기 추정
5 천만 개의 고유 한 개체군이 있고 1,000 만 개의 샘플을 교체한다고 가정 해 보겠습니다. 첫 번째 그래프는 내가 첨부 한 동일한 "사물"을 몇 번이나 샘플링했는지 보여줍니다. 인구가 샘플보다 큽니다. 그러나 제 인구가 천만 개에 불과하고 천만 개 샘플을 채취하면 두 번째 그래프에서 볼 수 있듯이 동일한 횟수를 반복하여 샘플링하는 …

4
표본에서 두 모집단 분리
단일 데이터 세트에서 두 개의 값 그룹을 분리하려고합니다. 모집단 중 하나가 정규 분포이고 표본 크기의 절반 이상이라고 가정 할 수 있습니다. 두 번째 값은 첫 번째 값보다 낮거나 높습니다 (배포를 알 수 없음). 내가하려는 것은 정상적으로 분포 된 인구를 다른 사람들과 묶는 상한과 하한을 찾는 것입니다. 내 가정은 시작점을 제공합니다. …

2
MLE은 항상 데이터의 기본 PDF를 알고 있다는 의미입니까, EM은 그렇지 않다는 의미입니까?
MLE (Maximum Likelihood Estimation) 및 EM (Expectation Maximization)과 어떤 관련이 있는지에 대한 간단한 개념적 질문이 있습니다. 내가 이해하는 것처럼 누군가 "우리는 MLE를 사용했습니다"라고 말하면 데이터 PDF의 명시 적 모델을 가지고 있다는 의미입니까? 이것에 대한 대답은 그렇습니다. 다른 말로하면, 누군가 "MLE"이라고 말하면 어떤 PDF를 사용하는지 물어 보는 것이 좋습니다. 이것이 맞습니까? …

2
윌크스 정리와 유한 한 혼합으로 가우스 수를 찾는가?
독립적이고 동일하게 분포 된 일 변량 관측 값 와 x 가 어떻게 생성 되었는지에 대한 두 가지 가설 이 있다고 가정합니다 .엑스엑스x엑스엑스x : x 는 평균과 분산을 알 수없는 단일 가우스 분포에서 도출됩니다.H0H0H_0엑스엑스x : x 는 평균, 분산 및 혼합 계수가 알려지지 않은 두 가우스 혼합에서 도출됩니다.HㅏHㅏH_A엑스엑스x 만약 내가 제대로 …

2
숨겨진 마르코프 모델에서 초기 전이 probabilites의 중요성
히든 마르코프 모델에서 전환 확률에 특정 초기 값을 부여하면 어떤 이점이 있습니까? 결국 시스템은 그것들을 배우므로 임의의 값 이외의 값을 제공하는 요점은 무엇입니까? 기본 알고리즘이 Baum-Welch와 같은 차이를 만들어 냅니까? 처음에 과도기 확률을 매우 정확하게 알고 주요 목적이 숨겨진 상태에서 관측치까지의 출력 확률을 예측하는 것이라면 무엇을 조언 하시겠습니까?



1
행렬을 양수로 명확하게 만드는 방법은 무엇입니까?
다음 요인 분석 모델에 대해 EM 알고리즘을 구현하려고합니다. 여제이= μ + B a제이+ 전자제이...에 대한j = 1 , … , nWj=μ+Baj+ejforj=1,…,nW_j = \mu+B a_j+e_j \quad\text{for}\quad j=1,\ldots,n 여기서 P 차원 랜덤 벡터 인, j는 잠재 변수 Q 차원 벡터이고, B는 파라미터이 개의 행렬이다.여제이WjW_jㅏ제이aja_j비BB 모형에 사용 된 다른 가정의 결과로, 여기서 D …

3
HMM 피팅에서 MLE과 Baum Welch의 차이점
에서 이 인기있는 질문 , 높은 upvoted 대답은 MLE와 바움 웰치는 HMM 피팅에서 분리합니다. 훈련 문제의 경우 MLE (최대 우도 추정), Viterbi 훈련 (Viterbi 디코딩과 혼동하지 마십시오), Baum Welch = 순방향 알고리즘의 3 가지 알고리즘을 사용할 수 있습니다. 그러나 Wikipedia 에서는 Baum–Welch 알고리즘은 잘 알려진 EM 알고리즘을 사용하여 모수의 최대 …

2
종이를 통한 기대 극대화에 도움 : 사전 배포 방법은?
이 문제는 결합 복사 전송-확산 모델을 이용한 확산 광 단층 촬영의 이미지 재구성이라는 제목의 논문을 기반으로합니다. 다운로드 링크 저자 는 이미지의 픽셀을 추정하기 위해 알 수없는 벡터 의 희소성 정규화 와 함께 EM 알고리즘을 적용 합니다. 모델은엘1엘1l_1μμ\mu 와이= A μ + e(1)(1)와이=ㅏμ+이자형y=A\mu + e \tag{1} 추정치는 식 (8)에 μ^= 인수m …

1
MCMC / EM 제한? EM보다 MCMC?
현재 R의 JAGS를 사용하는 계층 적 베이지안 모델을 배우고 있으며 Python을 사용하는 pymc ( "Bayesian Methods for Hackers" ) 도 배우고 있습니다. 이 포스트 에서 직관을 얻을 수 있습니다 . "알고 싶은 복잡한 분포에서 독립 표본을 채취 한 것처럼"있는 것처럼 "보이는 숫자 더미로 끝납니다. 조건부 확률을 제공 한 다음 조건부 …

1
EM 알고리즘은 Gaussian Mixture 모델의 파라미터를 일관되게 추정합니까?
Gaussian Mixture 모델을 연구하고 있으며이 질문을 직접 제기합니다. 기본 데이터가 가우시안 분포 의 혼합에서 생성 되고 각각의 평균 벡터가 이고 여기서 1 \ leq k \ leq K 와 각각 동일한 co- 분산 행렬 \ Sigma이며이 \ Sigma 가 대각선 행렬 이라고 가정합니다 . 그리고 혼합 비율이 1 / K …

1
이변 량 혼합 분포를 갖는 EM 알고리즘으로부터의 수렴
주어진 데이터 세트 와 부분적으로 관측 된 데이터 세트 의 최대 우도 추정치를 찾고자하는 혼합 모델이 있습니다. I는 (의 기대 계산 단계 E를 모두 구현 한 주어진 및 전류 파라미터 예상 소정의 음의 로그 우도 최소화하기 위해, 상기 M-공정) .xxxzzzzzzxxxθkθk\theta^kzzz 내가 이해했듯이 모든 반복에 대해 최대 가능성이 증가하고 있습니다. 이것은 …

1
EM 알고리즘이 반복되어야하는 이유는 무엇입니까?
각각 랜덤 변수 가있는 단위 의 모집단이 있다고 가정합니다 . 모든 단위에 대해 값을 관찰 합니다. 의 추정치를 원합니다 .NNNXi∼Poisson(λ)Xi∼Poisson(λ)X_i \sim \text{Poisson}(\lambda)n=N−n0n=N−n0n = N-n_0Xi>0Xi>0X_i > 0λλ\lambda 답변을 얻는 방법과 조건부 최대 가능성 방법이 있지만 EM 알고리즘을 시도하고 싶었습니다. EM 알고리즘을 여기서 아래 첨자는 알고리즘의 이전 반복 값을 나타내며 는 매개 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.