GLM은 통계 또는 기계 학습 모델입니까?


11

일반화 선형 모델 (GLM)은 통계 모델로 간주 될 것이라고 생각했지만 친구가 일부 논문에서이를 기계 학습 기술로 분류한다고 말했습니다. 어느 것이 사실입니까 (또는 더 정확합니까)? 모든 설명을 부탁드립니다.


1
기계 학습은 일반적으로 통계 모델링의 응용 프로그램이라고 생각하므로 둘 다라고 말합니다.
joews

답변:


21

GLM은 절대적으로 통계 모델이지만 통계 모델과 기계 학습 기술은 상호 배타적이지 않습니다. 일반적으로 통계는 매개 변수 유추에 더 관심이있는 반면 머신 러닝에서는 예측이 궁극적 인 목표입니다.


15

예측과 관련하여 통계 및 기계 학습 과학은 다른 관점에서 대부분 동일한 문제를 해결하기 시작했습니다.

기본적으로 통계는 데이터가 주어진 확률 모델에 의해 생성되었다고 가정합니다. 따라서 통계적 관점에서 모델이 가정되고 다양한 가정이 주어지면 오류가 처리되고 모델 매개 변수 및 기타 질문이 추론됩니다.

기계 학습은 컴퓨터 과학 관점에서 비롯됩니다. 모델은 알고리즘이며 데이터에 관한 가정은 거의 없습니다. 우리는 가설 공간과 학습 편견으로 작업합니다. 내가 찾은 기계 학습의 가장 좋은 설명은 Tom Mitchell의 기계 학습 이라는 책에 포함되어 있습니다.

두 문화에 대한보다 철저하고 완전한 아이디어를 얻으려면 통계 모델링 : 두 문화 라는 Leo Breiman 논문을 읽으십시오 .

그러나 추가해야 할 것은 두 과학이 서로 다른 관점에서 시작 되더라도 이제는 상당한 양의 공통된 지식과 기술을 공유한다는 것입니다. 문제는 같지만 도구가 다르기 때문입니다. 이제 기계 학습은 대부분 통계적 관점에서 처리됩니다 (통계 학적 처리를 통해 기계 학습 관점에서 Hastie, Tibshirani, Friedman 저서 통계 학습의 요소 확인). 그리고 아마도 Kevin P. Murphy의 저서 기계 학습 : 확률 론적 관점 , 오늘날 이용 가능한 최고의 서적 중 일부를 언급).

이 분야의 개발 역사조차도 이러한 관점의 병합의 이점을 보여줍니다. 두 가지 사건을 설명하겠습니다.

첫 번째는 Breiman이 CART 트리를 생성 한 것으로 통계적 배경이 확실합니다. 거의 동시에 Quinlan은 더 많은 컴퓨터 과학 배경을 가진 의사 결정 트리 제품군 인 ID3, C45, See5 등을 개발했습니다. 이제이 나무 군과 자루와 숲과 같은 앙상블 방식은 상당히 비슷해졌습니다.

두 번째 이야기는 부스팅에 관한 것입니다. 처음에 그들은 AdaBoost를 발견했을 때 Freund와 Shapire에 의해 개발되었습니다. AdaBoost를 설계하기위한 선택은 주로 컴퓨터 관점에서 이루어졌습니다. 저자조차도 그것이 왜 효과가 있는지 잘 이해하지 못했습니다. 불과 5 년 후 Breiman (다시!)은 adaboost 모델을 통계적 관점에서 설명하고 그 이유를 설명했습니다. 그 후, 두 가지 유형의 배경을 가진 여러 저명한 과학자들은 물류 부스팅, 그래디언트 부스팅, 부드러운 부스팅 ans 등과 같은 부스팅 알고리즘의 Pleiads로 이어지는 아이디어를 더욱 발전 시켰습니다. 확실한 통계적 배경 없이는 부스팅을 생각하기가 어렵습니다.

일반화 선형 모형은 통계 개발입니다. 그러나 새로운 베이지안 처리는이 알고리즘을 기계 학습 운동장에도 적용합니다. 그래서 나는 그것이 어떻게 작동하는지에 대한 해석과 치료가 다를 수 있기 때문에 두 주장이 모두 옳을 것이라고 믿는다.


5

Ben의 답변 외에도 통계 모델과 기계 학습 모델의 미묘한 차이는 통계 모델에서 모델을 만들기 전에 출력 방정식 구조를 명시 적으로 결정한다는 것입니다. 이 모델은 매개 변수 / 계수를 계산하기 위해 만들어졌습니다.

예를 들어 선형 모델 또는 GLM을 사용하십시오.

y = a1x1 + a2x2 + a3x3

독립 변수는 x1, x2, x3이며 결정해야 할 계수는 a1, a2, a3입니다. 모형을 작성하기 전에이 방법으로 방정식 구조를 정의하고 a1, a2, a3을 계산합니다. y가 비선형 방식으로 x2와 상관 관계가 있다고 생각되면 다음과 같이 시도 할 수 있습니다.

y = a1x1 + a2(x2)^2 + a3x3.

따라서 출력 구조 측면에서 제한이 있습니다. 본질적으로 통계 모델은 시그 모이 드 또는 커널과 같은 변환을 명시 적으로 적용하여 비선형으로 만들지 않는 한 선형 모델입니다 (GLM 및 SVM).

기계 학습 모델의 경우 출력 구조를 지정하는 경우가 거의 없으며 의사 결정 트리와 같은 알고리즘은 본질적으로 비선형적이고 효율적으로 작동합니다.

Ben이 지적한 것과는 달리, 머신 러닝 모델은 예측에 관한 것이 아니라 분류, 회귀 등을 수행하여 다양한 통계 모델에 의해 수행되는 예측을 수행 할 수 있습니다.


아키텍처가 사전에 결정되었으므로 논리 신경망을 사용하는 것은 통계 모델입니다. 통계와 머신 러닝을 명확하게 구분하려는 시도가 가능하거나 필요하지 않다고 생각합니다.
Marc Claesen

이것이 바로 기계 학습 단락에서 '드물게'라는 단어를 언급 한 이유입니다. 나는 당신이 절대적으로 그렇지 않다고 말하지 않았습니다! 글쎄, 이러한 것들을 탐구하기 시작한 사람들에게 통계 학습과 기계 학습의 뉘앙스를 아는 것이 좋습니다
binga

나는이 설명을 좋아했다. 통계 세계에서는 데이터 정규화, 기능 엔지니어링 및 모델 피팅에 큰 중점을 두었습니다. ML 세계에서는 여전히 중요하지만 사람들은 정규화와 더 많은 양의 데이터를 사용하여 '적절한 모델을 찾기'때문에 선행 가정이 덜 필요합니다. 참고 : 그것은 둘 다 마스터를 수행 한 내 감각이지만 다른 사람들이 내가 틀렸다고 생각하면 나를 교정하도록 환영합니다.
user1761806

2

GLM은 절대적으로 통계 모델이며, 산업 생산에 점점 더 많은 통계 방법이 기계 학습 기법 으로 적용되고 있습니다. 요즘 가장 많이 읽은 메타 분석은 통계 분야에서 좋은 예입니다.

GLM을 사용한 완벽한 산업 응용 프로그램은 친구가 GLM이 기계 학습 기술 로 간주되었다고 말한 이유를 설명 할 수 있습니다 . 이에 대한 소스 논문 http://www.kdd.org/kdd2016/papers/files/adf0562-zhangA.pdf를 참조 할 수 있습니다 .

몇 주 전에 프로덕션 시나리오에서 권장 시스템의 기본 프레임 워크로 취급되는 단순화 된 것을 구현했습니다. 나에게 몇 가지 팁을 주시면 소스 코드를 확인할 수 있습니다. https://github.com/PayneJoe/algo-sensetime/blob/master/src/main/scala/GLMM.scala

희망이 당신을 도울 것입니다, 좋은 하루!

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.