선형 회귀의 가정이 현실적이지 않다는 것은 사실입니다. 그러나 이것은 모든 통계 모델에 해당됩니다. "모든 모델이 잘못되었지만 일부는 유용합니다."
더 복잡한 모델을 사용할 수있을 때 선형 회귀를 사용할 이유가 없다는 인상을 받았다고 생각합니다. 일반적으로 더 복잡한 모델은 과적 합에 더 취약하고 더 많은 계산 리소스를 사용하기 때문에 내장 프로세서 나 웹 서버에서 통계를 수행하려는 경우 중요합니다. 간단한 모델도 이해하고 해석하기가 더 쉽습니다. 대조적으로, 신경망과 같은 복잡한 기계 학습 모델은 다소 블랙 박스로 끝나는 경향이 있습니다.
언젠가 선형 회귀가 더 이상 실용적이지 않더라도 (예상 할 수 없을 것 같지만) 더 복잡한 모델은 선형 회귀를 기반으로하는 경향이 있기 때문에 이론적으로 여전히 중요합니다. 예를 들어, 정규화 된 혼합 효과 로지스틱 회귀를 이해하려면 먼저 일반 선형 선형 회귀를 이해해야합니다.
더 복잡하고 새롭고 더 빛나는 모델이 유용하거나 중요하지 않다는 것은 아닙니다. 그들 중 많은 사람들이 있습니다. 그러나 더 간단한 모델은 더 광범위하게 적용 가능하므로 더욱 중요하며 다양한 모델을 제시하려는 경우 먼저 제시하는 것이 좋습니다. 요즘 자신을 "데이터 과학자"라고 부르거나 신뢰 구간이 실제로 무엇인지와 같은 기초적인 내용조차 모르는 사람들이 수행 한 나쁜 데이터 분석이 많이 있습니다. 통계하지 마십시오!