매우 흥미로운 질문입니다. 여기에 제가 가지고 있습니다.
정보를 인코딩 한 다음 베이지안 크랭크를 돌립니다. 사실이 너무 좋아 보이지만 둘 다 생각보다 어렵습니다.
질문을 시작합니다
다중 비교에 대해 걱정할 때 어떤 정보가 사용되고 있습니까?
나는 몇 가지를 생각할 수 있습니다-첫 번째는 "데이터 준설"입니다-충분한 합격 / 불합격을 얻을 때까지 "모든 것"을 테스트하십시오 (교육을받은 거의 모든 통계가이 문제에 노출 될 것이라고 생각합니다). 당신은 또한 불길한 것이지만 본질적으로 동일합니다. "실행할 테스트가 너무 많습니다. 반드시 모든 것이 정확할 수는 없습니다."
이것에 대해 생각한 후에, 내가 알고있는 한 가지는 특정 가설이나 비교에 대해 많이 듣지 않는 것입니다. 그것은 "수집"에 관한 것입니다-이것은 교환 가능성에 대한 나의 생각을 유발합니다. 비교되는 가설은 어떤 방식 으로든 서로 "유사"합니다. 그리고 교환 성을 베이지안 분석으로 어떻게 인코딩합니까? -하이퍼-프라이어, 혼합 모델, 랜덤 효과 등 !!!
그러나 교환 가능성은 그 길의 일부일뿐입니다. 모든 것이 교환 가능합니까? 또는 많은 후보 풀이있는 0이 아닌 회귀 계수와 같은 "스파 스"가 있습니까? 혼합 모델과 정규 분포 무작위 효과는 여기서 작동하지 않습니다. 스 쿼싱 노이즈와 신호를 건드리지 않은 상태로 "고정"됩니다 (예 : locationB와 locationC "true"매개 변수를 동일하게 유지하고 locationA "true"매개 변수를 임의로 크거나 작게 설정하고 표준 선형 혼합 모델이 실패한 것을 확인하십시오.) . 그러나 예를 들어 "스파이크 및 슬래브"이전 또는 "말 구두"이전과 같이 고정 될 수 있습니다.
따라서 실제로 어떤 종류의 가설을 이야기하고 이전과 가능성에 알려진 많은 기능을 반영하는지 설명합니다. Andrew Gelman의 접근 방식은 광범위한 다중 비교를 암시 적으로 처리하는 방법 일뿐입니다. 최소 제곱 및 정규 분포와 마찬가지로 대부분의 경우 잘 작동하는 경향이 있습니다 (모두는 아님).
이것이 어떻게 수행되는지에 관해서는 다음과 같이 추론하는 사람을 생각할 수 있습니다-그룹 A와 그룹 B는 같은 평균을 가질 수 있습니다-나는 데이터를 보았고 평균은 "가까이"입니다-따라서 더 나은 추정치를 얻으려면 두 가지 모두 초기 생각이 동일한 의미를 가졌기 때문에 데이터를 모아야합니다. -동일하지 않은 데이터는 데이터가 "가까웠다"는 증거를 제공하므로 "가끔"풀링해도 내 가설이 잘못되어도 나쁘게 해치지 않습니다 (일부 모델이 모두 잘못되었거나 일부는 유용함)
위의 모든 사항은 초기 전제에 달려 있습니다. 그것을 빼앗아 풀링에 대한 정당성이 없습니다. 테스트에 대한 "정규 분포"사고 방식을 볼 수도 있습니다. "영점이 가장 많을 것", "0이 아니라면 0에 가까울 것", "극단 값은 없을 것" 이 대안을 고려하십시오.
- 그룹 A와 그룹 B는 같을 수도 있지만, 크게 다를 수도 있음을 의미합니다.
그렇다면 "조금"풀링에 대한 논쟁은 매우 나쁜 생각입니다. 총 풀링 또는 제로 풀링을 선택하는 것이 좋습니다. Cauchy, spike & slab, 상황 유형 (0에 대한 많은 질량 및 극단적 인 값에 대한 많은 질량)과 훨씬 유사합니다.
베이지안 접근법은 우리를 이전 및 / 또는 가능성에 대해 걱정하게 하는 정보를 통합하기 때문에 전체 다중 비교를 다룰 필요는 없습니다 . 어떤 정보를 사용할 수 있는지에 대해 올바르게 생각하고 분석에 포함했는지 확인하는 것이 더 중요합니다.