통계 테스트에 대한 가장 광범위한 접근 방식은 두 가지 접근 방식, 즉 Fisher와 Neyman-Pearson의 접근 방식 사이에서 "하이브리드"라는 특정 사고 방식이 있습니다. 이 두 가지 접근법은 "호환되지 않는다"고 주장하기 때문에 결과 "하이브리드"는 "일관되지 않은 혼란"이다. 아래에 참고 문헌과 인용문을 제공 하겠지만 통계적 가설 검정 에 대한 위키피디아 기사에 그 내용에 대해 많이 언급되어 있다고해도 충분합니다 . CV에서이 지점은 @Michael Lew ( 여기 및 여기 참조)에 의해 반복적으로 작성되었습니다 .
내 질문은 : 왜 F와 NP 접근법이 호환되지 않는다고 주장하고 하이브리드가 왜 일관성이 없다고 주장합니까? 필자는 최소 6 개의 하이브리드 용지를 읽었지만 (아래 참조) 여전히 문제 나 주장을 이해하지 못합니다. 또한 F 나 NP가 더 나은 접근법인지에 대해서는 논의 할 것을 제안하지 않습니다. 베이직주의와 베이 즈 프레임 워크에 대한 논의도 제안하지 않았다. 대신에 F와 NP가 모두 유효하고 의미있는 접근법이라는 사실을 받아들이는 것은 하이브리드에 대해 무엇이 나쁜가?
상황을 이해하는 방법은 다음과 같습니다. Fisher의 접근법은 값 을 계산 하여 귀무 가설에 대한 증거로 사용하는 것입니다. p가 작을수록 증거가 더 설득력이 있습니다. 연구원은이 증거를 그의 배경 지식과 결합하고, 그것이 충분히 설득력이 있는지를 결정 하고, 그에 따라 진행해야합니다. (피셔의 견해는 수년에 걸쳐 바뀌었지만, 이것이 그가 수렴 한 것으로 보입니다.) 반면에, Neyman-Pearson 접근법은 사전에 α 를 선택한 다음 p ≤ α 인지 확인하는 것입니다.; 그렇다면 중요한 것으로 간주하고 귀무 가설을 기각하십시오 (여기서는 현재 논의와 관련이없는 NP 스토리의 대부분을 생략합니다). Fisher 및 Neyman-Pearson 프레임 워크 를 언제 사용해야합니까? 에서 @gung의 훌륭한 답변도 참조하십시오 .
하이브리드 접근 방식은 값 을 계산하고 이를보고 (암시 적으로 작을수록 더 좋다고 가정)하고 p ≤ α (보통 α = 0.05 ) 이면 중요 하고 그렇지 않은 경우 결과를 호출하는 것 입니다. 이것은 일관성이 없어야합니다. 두 가지 유효한 일을 동시에하는 것이 어떻게 무효가 될 수 있습니까?
특히 모순으로 방지 hybridists는보고의 광범위한 연습 볼 같은 -values P < 0.05 , P < 0.01 또는 P < 0.001 (또는 P는 « 0.0001 항상 강한 불평등이 선택된다). (a) 정확한 p 가보고 되지 않았기 때문에 증거의 강도를 올바르게 평가할 수 없으며 , (b) 불평등의 오른손 수를 α 로 해석하여 제 1 종 오류율로 보는 경향이있는 것으로 보인다 그리고 그것은 잘못입니다. 나는 여기서 큰 문제를 보지 못한다. 먼저 정확한 p 보고확실히 더 나은 방법이지만 가 0.02 또는 0.03 인 경우 아무도 신경 쓰지 않으므로 로그 스케일에서 반올림하는 것은 그리 좋지 않습니다 ( 약 0.0001 이하로 내려가는 것은 의미가 없습니다. 작은 p- 값을보고 해야하는 방법 참조) ? ). 둘째, 합의가 0.05 이하의 모든 것을 호출한다면 가설 검정에서 p- 값 해석 에서 @gung이 설명하는 것처럼 오류율 은 α = 0.05 및 p ≠ α 가됩니다.. 이것은 잠재적으로 혼란스러운 문제이지만 통계 테스트 (하이브리드 외부)의 다른 문제보다 더 혼란스럽지 않습니다. 또한 모든 독자는 하이브리드 논문을 읽을 때 자신이 선호하는 를 염두에두고 결과적으로 자신의 오류율을 가질 수 있습니다 . 그래서 큰 문제는 무엇입니까?
내가이 질문을하고 싶은 이유 중 하나는 통계 가설 테스트 에 대한 위키 백과 기사 중 얼마나 많은 양의 하이브리드를 다루는 지를 보는 것이 실제로 아프기 때문 입니다. Halpin & Stam에 따르면, 특정 Lindquist가 책임을 져야한다고 주장합니다 (노란색으로 강조 표시된 "오류"와 함께 그의 교과서에 대한 많은 스캔이 있음). 물론 Lindquist 자신에 대한 위키 기사 는 동일한 고발로 시작됩니다. 그러나 어쩌면 뭔가 빠진 것일 수도 있습니다.
참고 문헌
Gigerenzer 1993, 초자아, 자아, 통계 추론의 ID가 - 용어는 "하이브리드"를 소개하고 "조리 뒤범벅"라고 불렀다
- Gigerenzer 등의 최근 설명 : 예 : Mindless statistics (2004) 및 Null Ritual. 유의성 테스트에 대해 항상 알고 싶었지만 물어 보는 것을 두려워했습니다 (2004).
Goodman, 1999, 증거 기반 의료 통계를 향하여. 1 : P 값 오류
Halpin & Stam, 2006 년, 귀납적 추론 또는 귀납적 행동 : Fisher and Neyman-Pearson이 심리학 연구에서 통계적 시험에 접근하는 방법 (1940-1960) [등록 후 무료]- "하이브리드"접근 방식을 도입 한 Lindquist의 1940 교과서
@Michael Lew, 2006, 약리학 및 기타 기본 생의학 분야의 나쁜 통계 관행 : P를 모르는 경우 - 좋은 검토 및 개요
인용 부호
Gigerenzer : 심리학에서 추론 통계로 제도화 된 것은 어부의 통계가 아닙니다. 한편으로는 Fisher의 일부 아이디어와 다른 한편으로는 Neyman과 ES Pearson의 일부 아이디어가 일관되지 않습니다. 이 혼합을 통계적 추론의 "하이브리드 논리"라고합니다.
Goodman : [Neyman-Pearson] 가설 검정 접근법은 과학자들에게 Faustian 특가를 제공했습니다. 장기적으로 잘못된 결론의 수를 제한하는 자동적 인 방법이지만, 증거 [la Fisher]를 측정하고 평가하는 능력을 포기함으로써 만 가능합니다 단일 실험에서 진실.
Neyman-Pearson 가설 검정이 포함되었습니다. [...] 예를 들어 Gibbons와 Pratt [...]는 다음과 같이 잘못 언급했습니다. "정확한 또는 간격 내에서 P- 값을보고하면 각 개인이 최대 허용 가능한 확률로 자신의 유의 수준을 선택할 수 있습니다 "I 형 오류가 발생했습니다."
Halpin & Stam : Lindquist의 1940 년 텍스트는 Fisher와 Neyman-Pearson 접근법의 하이브리드 화의 원천이었습니다. [...] 통계 테스트의 특정 해석을 고수하기보다는 심리학자들은 Fisher와 Neyman-Pearson 논쟁으로 인해 발생하는 개념적 어려움에 대해 모호한 태도를 보였으며 실제로는 거의 인식하지 못했습니다.
Lew : 우리가 가진 것은 오류율을 통제하거나 증거의 강도를 평가할 수없는 하이브리드 접근법입니다.