이미지에서 픽셀을 분류하기위한 기본 Markov Random Field 교육


16

Markov Random Fields를 사용하여 이미지의 영역을 분할하는 방법을 배우려고합니다. MRF의 일부 매개 변수를 이해하지 못하거나 수행하는 기대 최대화가 때때로 솔루션에 수렴하지 못하는 이유를 이해하지 못합니다.

베이 즈 정리에서 시작하여 . 여기서 y 는 픽셀의 회색조 값이고 x 는 클래스 레이블입니다. p ( y | x )에 대해 Gaussian 분포를 사용하기로 선택한 반면 p ( x ) 는 MRF를 사용하여 모델링되었습니다.p(x|y)=p(y|x)p(x)/p(y)yxp(y|x)p(x)

나는 페어 와이즈 클릭 포텐셜과 분류되는 픽셀의 클래스 라벨에 대한 포텐셜 값을 모두 갖는 MRF에 포텐셜 함수를 사용합니다. 단일 픽셀 전위 값은 클래스 레이블 x 에 의존하는 일정한 입니다 . 페어 와이즈 포텐셜 함수는 4 개의 연결된 이웃에 대해 평가 되며 이웃에이 픽셀과 동일한 클래스 레이블이있는 경우 양의 β를 반환 하고 -αxβ 라벨 다르면.β

로그 우도의 예상 값을 최대화하는 β 값을 찾아야하는 기대 극대화의 시점에서 나는 수치 최적화 방법 (시도 된 켤레 구배, BFGS, Powell의 방법)을 사용했지만 항상 β 의 값 이 음수가되고, α 가 급격히 증가하고, 반복 또는 2 년 후에 전체 이미지가 하나의 레이블에만 할당 됨을 알 수 있습니다 (배경 : MRF 매개 변수가 지정된 클래스 레이블 할당은 ICM을 사용하여 수행됨). 알파를 제거했다면 (즉, 페어 단위의 클릭 전위 만 사용하는 경우) 기대 최대화는 제대로 작동합니다.α(x)ββα

각 클래스의 알파 목적이 무엇인지 설명해주세요. 나는 그들이 이미지에 존재하는 클래스의 양과 관련이 있다고 생각했지만 그렇지는 않습니다. MRF가 페어 와이즈 전위로만 작동하게되면이를 직선 가우시안 혼합 모델과 비교하여 거의 동일한 결과를 얻었습니다. 나는 짝을 이루는 잠재력이 클래스를 약간 부드럽게 할 것으로 기대했지만 그 일은 일어나지 않았습니다. 내가 잘못한 곳을 알려주세요.


궁금한 점이 있는데, 왜 무 방향 그래프 모델을 선택 했습니까?

내 응용 프로그램에서 픽셀 수와 주변 픽셀의 그레이 스케일 값은 동일한 클래스 레이블을 가질 가능성이 높지만 각 쌍별 클릭에 대해 다른 베타를 사용해야 할 이유는 없습니다. 나는 당신의 질문을 올바르게 이해하기를 바랍니다.
chippies

1
상수 알파는 레이블에 대한 사전 분포를 모델링하는 목적으로 사용됩니다. 예상 한대로 올바른 알파는 훈련 세트에서 더 자주 접하는 레이블을 겹쳐 놓을 수 있습니다. 모델이 모델없이 잘 작동하는 경우 모델에서 모델을 삭제하지 않는 이유는 무엇입니까? 당신의 설명은 왜 알파가 모든 것을 자라고 망칠 수 있는지에 대한 자세한 설명은 아니지만, 아마도 정규화가 필요할 것입니다. 알파에 앞서 가우시안을 모형에 추가하십시오. 즉 , 로그 앞쪽 에 를 추가 하면 과적 합을 막을 수 있습니다. λα2
로마 Shapovalov

귀하의 질문에서 분명하지 않은 점은 1) 가능성 p (y | x)가 픽셀을 통해 분해되므로 각각에 1D 가우스를 사용합니까? 2) EM에서 최적화하는 정확한 목표는 무엇입니까 (로그 우도를 언급했지만 사전 모델링에는 MRF를 사용합니까)? 3) 로그 영역에서 잠재력을 정의합니까? 베타 증가는 P (x) 또는 에너지, 즉 -log P (x) 또는 음의 에너지 증가를 의미합니까? 4) 그러한 퇴행성 알파를 설정하여 EM 목표를 실제로 줄입니까, 아니면 최적화에 실패합니까?
Roman Shapovalov

루피 한 믿음 전파는 어떻습니까?
wolfsatthedoor

답변:


1

진단

초기화 문제처럼 들립니다.

사용중인 MRF 모델은 볼록하지 않으며 여러 개의 로컬 최소값이 있습니다. 내가 아는 한, 기존의 모든 최적화 기술은 초기화에 민감합니다. 즉, 최종 솔루션의 품질은 최적화 절차를 시작하는 위치에 크게 영향을받습니다.

제안 된 해결책

모델을 초기화하기 위해 다른 전략을 시도하는 것이 좋습니다. 예를 들어, 내 마음에 오는 전략은 다음과 같습니다.

  1. p(y|x) p(x)α=β=0 p(x)α

  2. αβ

제안 된 초기화는 최적화를 초기화하는 가장 좋은 방법이 아니라 하나의 가능한 옵션 일뿐입니다.

마지막으로 Roman Shapovalov가 제안했듯이 이전 매개 변수를 정규화하는 것을 고려할 수 있습니다. 예를 들어 가우시안을 앞에두면 다음과 같습니다.λα||α||2+λβ||β||2 어디 λαλβ 가우시안 이전의 분산으로 해석 할 수있는 하이퍼 파라미터입니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.