내가 볼 수있는 가장 큰 문제는 테스트 통계 파생이 없다는 것입니다. 값에 대한 (베이지안 통계 그것에 대해 실장하는 모든 비평 포함) -value 테스트 통계 로서 정의된다 ( 통계 의 경우와 같이 더 큰 값에 대해 널이 거부된다고 가정 ). 더 중요한 결정에 도달해야하는 경우 임계 값을 높이고 거부 영역을 더 높일 수 있습니다. 실제로 Bonferroni와 같은 여러 가지 테스트 수정으로 대해 훨씬 낮은 임계 값을 사용하도록 지시합니다.t T P r o b [ T ≥ t | H 0 ] T의 χ 2 P 0 , 1 / 36 , 2 / 36 , ...ptTProb[T≥t|H0]Tχ2p-값. 대신, 잦은 통계학자는 의 그리드에서 크기 테스트를 수행합니다 .0,1/36,2/36,…
물론,이 "자주 주의적"접근 방식은 결과가 거의 재현 될 수 없기 때문에 비 과학적입니다. Sun이 초신성을 유지하면 초신성을 유지하므로 감지기는 계속해서 "예"라고 말합니다. 그러나이 시스템을 반복해서 실행해도 "예"결과가 다시 나타나지 않을 수 있습니다. 이것은 자신을 엄격하게 제시하고 실험 결과를 재현하려고하는 분야에서 인정됩니다. 내가 이해하는 한 5 % (원본을 게시하는 것은 순수한 유형 I 오류였습니다) 사이의 확률로 발생합니다. 일부 의료 분야에서는 약 30-40 % 정도입니다. 메타 분석 사람들은 더 나은 숫자로 당신을 채울 수 있습니다. 이것은 통계 포도 나무를 통해 때때로 저를 가로 질러 오는 버즈입니다.
"적절한"빈번한 관점에서 또 다른 문제는 다이를 굴리는 것이 전력 = 유의 수준 (최소한이 아니라면 5 % 유의 수준에 대한 2.7 %의 전력은 자랑 할만한 것이 없음) 인 가장 강력한 테스트라는 것입니다. t-tests에 대한 Neyman-Pearson 이론은 이것이 UMPT임을 입증하는 것에 대해 괴로워하며 많은 눈썹 통계 이론 (간신히 이해해야하지만 인정해야 함)은 전력 곡선을 도출하고 주어진 조건을 찾는 데 전념 주어진 수업에서 가장 강력한 시험입니다. (크레딧 : @Dikran Marsupial은 의견 중 하나에서 권력 문제를 언급했습니다.)
나는 이것이 당신을 괴롭히는 지 모르겠지만, 베이지안 통계학자는 수학을 모르고 도박 문제가있는 사람으로 여기에 표시됩니다. 적절한 베이지안 통계학자는 이전을 가정하고, 객관성 정도를 논의하고, 후자를 도출하며, 데이터에서 얼마나 많은 것을 배웠는지 보여줄 것입니다. 그 중 어느 것도 수행되지 않았으므로 베이지안 프로세스는 빈번한 프로세스만큼 지나치게 단순화되었습니다.
이 상황은 암 문제에 대한 고전적인 스크리닝을 보여줍니다 (그리고 나는 생물 통계학자가 그것을 할 수있는 것보다 더 잘 묘사 할 수 있다고 확신합니다). 불완전한 도구로 희귀 질환을 선별 할 때, 대부분의 양성은 거짓 양성으로 나타납니다. 똑똑한 통계 학자들은이를 알고 있으며 더 비싸고 정확한 생검으로 값 싸고 더러운 스크리너를 추적하는 것이 좋습니다.