인과 관계 베이지안 네트워크에서의 d- 분리 이론 이해


15

Causal Bayesian Networks의 d-Separation 논리를 이해하려고합니다. 알고리즘의 작동 방식을 알고 있지만 알고리즘에 명시된대로 "정보 흐름"이 작동 하는 이유를 정확히 이해하지 못합니다 .

여기에 이미지 설명을 입력하십시오

예를 들어 위의 그래프에서 우리에게 X 만 주어지고 다른 변수는 관찰되지 않았다고 생각합시다. 그런 다음 d- 분리 규칙에 따라 정보가 X에서 D로 흐릅니다.

  1. X는 줍니다. A는 X를 유발하고 X의 영향을 알고 있으면 A에 대한 우리의 믿음에 영향을 미칩니다. 정보가 흐릅니다.P(A)P(A|X)

  2. X는 줍니다. A는 X에 대한 우리의 지식에 의해 변경되었으므로 A에서의 변경은 그 원인 B에 대한 우리의 신념에도 영향을 줄 수 있습니다.P(B)P(B|X)

  3. X는 줍니다. B가 간접 효과 X에 대한 지식에 의해 바이어스되고 B가 X에 의해 바이어스되기 때문에 B의 모든 직접 및 간접 효과에 영향을 미치기 때문에 이는 괜찮습니다. C는 B의 직접적인 영향이며 X에 대한 지식의 영향을받습니다.P(C)P(C|X)

글쎄, 지금까지는 정보의 흐름이 직관적 인 원인-효과 관계에 따라 발생하기 때문에 모든 것이 괜찮습니다. 그러나 나는이 체계에서 소위 "V- 구조"또는 "콜 리더"의 특별한 행동을 얻지 못한다. d-Separation 이론에 따르면, B와 D는 위의 그래프에서 C의 일반적인 원인이며 C 또는 그 자손을 관찰하지 않으면 X의 흐름 정보가 C에서 차단된다고 말합니다. 하지만 내 질문은 왜?

X에서 시작하여 위의 세 단계에서 C가 X에 대한 지식의 영향을 받고 정보 흐름이 원인-효과 관계에 따라 발생 함을 알 수있었습니다. d- 분리 이론은 C가 관찰되지 않기 때문에 C에서 D로 갈 수 없다고 말합니다. 그러나 우리는 C가 편향되어 있고 D가 C의 원인이라는 것을 알기 때문에 이론에도 반대 의견이 있지만 D는 영향을 받아야합니다. 내 사고 패턴에서 분명히 무언가를 놓치고 있지만 그것이 무엇인지 알 수 없습니다.

따라서 C가 준수되지 않으면 왜 정보 흐름이 C에서 차단되는지에 대한 설명이 필요합니다.


X 만 관찰되면 X에서 D로 흐르지 않습니다. 사진 바로 아래에 표시합니다. (하지만 아래에 정확하게 설명하십시오).
ziggystar

정보 흐름이 "V-Structure"가있는 C에서 차단되었다는 것을 이미 알고 있습니다. 내가 알고 싶은 것은 이유입니다. V-Structure가 원인-효과 관계 관점에서 C를 관찰하지 않을 때 정보 흐름을 차단하는 이유.
Ufuk Can Bicici

답변:


6

원인에서 관찰되지 않은 결과로 다른 원인으로 추론 할 수 없다는 것이 직관적이지 않습니까? 비 (B)와 스프링클러 (D)가 습한지면 (C)의 원인 인 경우 비를 보는 것은지면이 젖었을 가능성이 있음을 암시 할 수 있으며지면 이후에 스프링클러가 계속 켜져 있어야한다고 추론 할 수 있습니다 젖어?! 당연히 아니지. 비 때문에 땅이 젖었다 고 주장했습니다. 추가 원인을 찾을 수 없습니다!

젖은 땅을 관찰하면 물론 상황이 바뀝니다. 이제 Frank가 설명하는 것처럼 한 원인에서 다른 원인으로 추론 할 수 있습니다.


4

잠시 동안 X를 잊고 B, C 및 D의 충돌체 만 고려해 봅시다. v- 구조가 B와 D 사이의 경로를 차단할 수있는 이유는 일반적으로 두 개의 독립적 인 랜덤 변수 (B와 D) 동일한 결과 (C)에 영향을 미치고 결과를 알면 랜덤 변수 간의 관계에 대한 결론을 도출하여 정보 흐름을 허용 할 수 있습니다.

인과 관계에 대한 Pearl의 저서에 실린 예를 사용하여 C는 잔디밭이 젖었 음을 관찰하고, 비가 올 경우 D를, 스프링클러가 있었던 이벤트 B를 보자. 그런 다음 잔디밭이 젖 었는지 여부를 모르는 경우 C와 D는 완전히 독립적입니다 (정보 흐름 없음). 그러나 잔디밭이 젖었 음을 알면 비가 오면 스프링클러가 켜져있을 가능성이 적고 ( ), 스프링클러가 켜져있을 가능성이 적습니다. 젖은 잔디는 비 때문에 발생했습니다 ( ). 따라서 잔디밭이 젖었 음을 알면 경로가 막히지 않고 B와 D가 종속됩니다.P(B|D)P(B)P(D|B)P(D)

이것을 더 잘 이해하려면 같은 상황을 설명하는 Berkson 's Paradox를 살펴 보는 것이 도움이 될 수 있습니다 .


1) D- 분리에 대해 정의하기 전에 독립 원인이 무엇인지 이해하기가 어렵습니다. 많은 저자들이 직관적 인 원인-효과 관계를 사용하여 D- 분리를 정의합니다. 나는 다른 출처에서 읽은 내용과 직관을 바탕으로 추론 시스템을 구축하려고 노력하여이 정리에 동의 할 수 있습니다. "X 이외의 변수가 관찰되지 않으면 X에 대한 지식이 X의 영향 (모든 자손), X의 직간접 적 원인 (조상) 및 X의 원인에 대한 다른 모든 영향에 영향을 줄 수 있습니다."
Ufuk Can Bicici

2) 나는이 생각을 다음과 같이 정당화한다 : A) X는 다른 X 값이 다른 원인을 생성 할 것이기 때문에, 직간접적인 영향에 영향을 줄 수있다. B) X는 직간접적인 원인에 영향을 줄 수있다. 영향을 관찰하면 진단 접근법으로 원인에 대한 새로운 정보를 얻을 수 있기 때문이다. C) X는 모든 직간접 원인의 다른 영향 (자체 제외)에 영향을 미칩니다. X에 대한 지식이 이러한 원인에 대한 우리의 신념을 바꾸어 모든 영향에 영향을 미치기 때문입니다. 이러한 패턴으로 이러한 인과 관계 베이지안 네트워크를 해석하려고합니다. 이것으로 시작하는 것이 맞습니까?
Ufuk Can Bicici

3) 변수의 독립-의존적 행동을 이해하기 위해 직관적 인 "정보 흐름"패턴을 구성하려고하는 것과 같습니다. 이 패턴으로 나는 독립 원인이 무엇인지 알 수 없으며 이것이 내가 붙어있는 곳입니다. 분명히 나는 ​​무언가를 그리워 하거나이 사고 패턴으로 완전히 잘못되었을 수 있습니다.
Ufuk Can Bicici

B와 D를 '원인'(지금 수정)으로 언급했기 때문에 원래의 대답은 약간 오도 된 것 같습니다. 정보 흐름은 인과 적 개입이 아니라 관찰과 관련된 개념입니다. 아시다시피, 하나를 관찰하면 두 번째에 대한 정보가 없으면 두 개의 임의 변수가 독립적입니다. 당신의 진술은 관찰과 추론을 혼란스럽게하는 것 같습니다. X를 관찰하면 부모 (의문 A)와 그 직접적인 원인에 대한 추론을 조정할 수 있지만, v- 구조가 경로를 막고 있다면 위에서 설명한 이유로 간접적 인 원인에 대한 추론을 조정할 수 없습니다.
FrankD

1

글쎄, 지금까지는 정보의 흐름이 직관적 인 원인-효과 관계에 따라 발생하기 때문에 모든 것이 괜찮습니다. 그러나 나는이 체계에서 소위 "V- 구조"또는 "콜 리더"의 특별한 행동을 얻지 못한다.

그런 다음 여기에 딱딱한 너트가 v- 구조입니다. 나는 가상의 예를 사용하여 동일한 상황에서 S와 무관 한 다른 변수 D의 관측의 영향효과의 관찰에만 조건화 된 변수 S확률의 차이를 설명하고 싶습니다 .

누군가가 과정을 밟고 있다고 가정합시다. 그가 통과 할 수 있다면 주로 시험의 어려움에 달려 있습니다. P가 코스를 통과 한 이벤트를 나타내며, 그렇지 않으면 1과 0을 전달합니다. 넌센스가 1, 0은 쉽지만 시험의 어려움도 있습니다. 그리고 말도 안되는 것이 그의 성능이나 결과에 영향을 미칠 수 있습니다. 특이점이 발생하고 기계에 의해 세뇌되고 나서하지 않기로 결정한다고 가정 해 봅시다. 시험을 치르십시오. 우리는 사건을 S로 표시하고 그 확률은 0.0001입니다. 그것은 불가능 해 보이지만 정의상 그 기회는 0이되어서는 안됩니다.

따라서 이제 v- 구조 형식의 그래프가 있습니다.

 D   S
  | |
 \| |/ 
   P  

(¬|에스)=0.999999(|에스)=0.000001

| d0   | d1      |      
|:-----|--------:|   
| 0.5  | 0.5     |  

| s0     | s1      |      
|:-------|--------:|   
| 0.9999 | 0.0001  |

| S     | D    | P(p0|S,D) | P(p1|S,D) |  
|:------|-----:|----------:|----------:|
|s0     | d0   |   0.20    |   0.80    |
|s0     | d1   |   0.90    |   0.10    |
|s1     | d0   |   0.999999|   0.000001|
|s1     | d1   |   0.999999|   0.000001| 

(에스|)(에스|,)

1) 결과를 모르는 경우 코스가 쉽다는 점에서 특이점이 발생할 확률을 계산할 수 있습니다.

P(S|¬D)=P(S,P|¬D)+P(S,¬P|¬D)=P(S=1,P=1,D=0)P(D=0)+P(S=1,P=0,D=0)P(D=0)=P(S=1)P(D=0|S=1)P(P=1|D=0,S=1)P(D=0)+P(S=1)P(D=0|S=1)P(P=0|D=0,S=1)P(D=0)=P(S=1)P(D=0|S=1)P(D=0)=P(S=1)P(D=0)P(D=0)=P(S=1)=0.0001

위에서 볼 수 있듯이 시험을 통과했는지 여부는 중요하지 않습니다. 무엇이 올 것인가? P에 대한 한계 확률로 볼 수 있습니다.

또한 학생이 시험에 합격하지 못한 경우 특이점이 발생할 확률을 계산할 수 있습니다.

P(S,|¬P)=P(S,¬P)P(¬P)=P(S,¬p,D)+P(S,¬P,¬D)P(¬P)=P(¬P|S,D)P(S)P(D)+P(¬P|S,¬D)P(S)P(¬D)S,DP(¬P|S,D)P(S)P(D)=0.0001818

그 사람이 시험에 합격하지 못한다는 것을 알면 우리는 그가 기계로 세뇌 당했을 수도 있습니다.

P(S,|¬P,¬D)=P(S=1,P=0,D=0)P(P=0,D=0)=P(P=0|S=1,D=0)P(S=1)P(D=0)P(P=0|S=1,D=0)P(S=1)P(D=0)+P(P=0|S=0,D=0)P(S=0)P(D=0)=0.999999×0.0001×0.50.2×0.9999×0.5+0.999999×0.0001×0.5=0.0004998

P(S|P)P(S|P,D)SD|PI(P(P,S,D))

이 상세한 파생물이 hl이되기를 바랍니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.