모델에 데이터를 피팅하는 기본 수준에서 머신 러닝과 통계를 구별하는 공식적인 차이점은 없습니다. 모델 선택, 모델을 데이터에 맞추는 목표, 해석의 확장에 문화적 차이가있을 수 있습니다.
전형적인 예에서 우리는 항상
- 일부 인덱스 세트 대해 대한 모델 의 컬렉션 ,Mii∈II
- 그리고 각각의 에 대해 모델 의 미지의 성분 (매개 변수는 무한 치수 일 수 있음) .iθiMi
피팅 데이터로하는 것은 거의 항상 알 수없는 구성 요소의 최적의 선택을 찾는 구성된 수학적 최적화 문제입니다 만들기 위해 어떤 마음에 드는 기능에 의해 측정 된 데이터를 맞습니다.MiθiMi
모델 중에서 선택하는 것이 표준이 사용 가능한 다양한 기술이 있습니다. 모델 피팅의 목적이 순전히 예측 가능한 경우, 우수한 예측 성능을 얻으려는 시도로 모델 선택을 수행하는 반면, 주요 목표가 결과 모델을 해석하는 경우 다른 모델보다 해석하기 쉬운 모델을 다른 모델보다 더 쉽게 선택할 수 있습니다. 예측력이 더 나빠질 것으로 예상됩니다.Mi
구식 통계 모델 선택 이라고하는 것은 단계적 선택 전략과 결합 된 통계 테스트를 기반으로하는 반면, 머신 러닝 모델 선택은 일반적으로 교차 검증을 사용하여 추정되는 예상 일반화 오류에 중점을 둡니다. 그러나 현재 모델 선택의 개발과 이해는보다 일반적인 근거로 수렴하는 것으로 보입니다 (예 : 모델 선택 및 모델 평균화 참조) .
모델에서 인과 관계 추론
문제의 핵심은 모델을 해석하는 방법입니다 . 얻은 데이터가 신중하게 설계된 실험에서 얻은 것이며 모델이 적절한 경우 모델의 변수 변경 효과를 인과 관계 효과로 해석 할 수 있으며 실험을 반복하고이 특정 변수에 개입하는 경우 우리는 추정 된 효과를 관찰 할 수 있습니다. 그러나 데이터가 관측 가능한 경우 모형의 추정 효과가 관측 가능한 개입 효과와 일치 할 것으로 예상 할 수 없습니다. 이를 위해서는 모델이 "기계 학습 모델"인지 "고전 통계 모델"인지에 관계없이 추가 가정이 필요합니다.
일 변량 모수 추정 및 효과 크기 해석에 중점을 둔 클래식 통계 모델을 사용하여 교육을받은 사람들은 기계 학습 프레임 워크보다이 프레임 워크에서 인과 해석이 더 유효하다는 인상을받습니다. 나는 그렇지 않다고 말할 것입니다.
통계에서 인과 추론의 영역이 실제로 문제를 제거하는 것은 아니지만 인과 결론이 명백한 가정을 만듭니다. 그것들은 테스트 할 수없는 가정 이라고합니다 . 통계의 인과 추론 논문 : Judea Pearl 의 개요 는 읽을만한 좋은 논문입니다. 인과 추론의 주요 기여는 실제로 관찰되지 않은 혼란자가 존재하는 가정 하에서 인과 효과를 추정하는 방법의 수집이며, 그렇지 않으면 주요 관심사입니다. 위의 진주 종이에서 섹션 3.3을 참조하십시오. 좀 더 진보 된 예는 논문 Marginal Structural Models and Causal Inference in Epidemiology에서 찾을 수 있습니다 .
검증 할 수없는 가정이 적용되는지 여부는 중요한 문제입니다. 데이터를 사용하여 테스트 할 수 없으므로 테스트 할 수 없습니다. 가정을 정당화하려면 다른 주장이 필요합니다.
기계 학습과 인과 추론이 만나는 곳의 예 로서 Mark van der Laan과 Daniel Rubin의 Targeted Maximum Likelihood Learning 에 제시된 목표 최대 가능성 추정 의 아이디어는 일반적으로 비모수 추정을위한 기계 학습 기법을 활용하여 "타겟팅 "관심 매개 변수를 향해 후자는 인과적인 해석을 갖는 매개 변수가 될 수 있습니다. Super Learner 의 아이디어관심있는 매개 변수를 추정하기 위해 머신 러닝 기술에 크게 의존하는 것입니다. Mark van der Laan (개인 커뮤니케이션)은 고전적이고 단순하며 "해석 할 수있는"통계 모델이 종종 잘못되었다는 점이 중요합니다. 이로 인해 추정 된 추정자가 치우치고 추정의 불확실성을 너무 낙관적으로 평가할 수 있습니다.