거래는 다음과 같습니다.
기술적으로 당신은 진정한 문장을 작성했습니다 (두 모델 모두 충분한 매개 변수가 주어지면 '미치지 않은'기능을 근사 할 수 있습니다).
왜 그런 겁니까? 글쎄, 보편적 근사 이론이나 신경망이 충분하다면 신경망이 어떤 f (x)를 계산할 수 있는지에 대한 공식적인 증거를 자세히 살펴보십시오.
내가 본 모든 종류의 증명은 하나의 숨겨진 레이어 만 사용합니다.
직관에 대해서는 http://neuralnetworksanddeeplearning.com/chap5.html 을 간단히 살펴보십시오 . 한 층을 사용하는 경우 필요한 뉴런 수가 기하 급수적으로 증가한다는 것을 보여주는 연구가 있습니다.
그래서 이론 상으로는 옳습니다. 실제로, 당신은 무한한 양의 기억을 가지고 있지 않으므로 2 ^ 1000 개의 뉴런 그물을 훈련시키고 싶지 않습니까? 당신이 무한한 양의 메모리를 가지고 있더라도, 그 그물은 확실히 초과 적합합니다.
제 생각에 ML의 가장 중요한 점은 실용적인 점입니다! 그것에 대해 조금 확장 해 봅시다. 여기서 가장 큰 문제는 다항식이 훈련 세트 밖에서 매우 빠르게 증가 / 감소하는 방법 만이 아닙니다. 전혀. 간단한 예로, 사진의 픽셀이 매우 특정한 범위 (각 RGB 색상에 대해 [0,255]) 내에 있으므로 새 샘플이 학습 설정 값 범위 내에있게됩니다. 아닙니다. 가장 중요한 것은이 비교는 (!)로 시작하는 데 유용하지 않습니다.
MNIST로 약간의 실험을 해보고 단 하나의 레이어 만 사용하여 얻을 수있는 실제 결과를 확인하십시오.
실용적인 그물은 하나 이상의 숨겨진 레이어를 사용하며 때로는 수십 개의 레이어를 사용합니다. 이런 이유로. 그 이유는 입증되지 않았으며, 일반적으로 신경망을위한 아키텍처를 선택하는 것은 뜨거운 연구 분야입니다. 다시 말해, 우리는 여전히 더 알아야 할 것이지만, 많은 데이터 세트에 대해 비교 한 두 모델 (선형 회귀 및 NN은 하나의 숨겨진 레이어)은 유용하지 않습니다!
그건 그렇고, ML에 들어갈 경우 실제로 현재 '연구 영역'-PAC (아마도 대략적인) / VC 차원 인 다른 쓸모없는 정리가 있습니다. 나는 그것을 보너스로 확장 할 것입니다 :
보편적 근사치에 기본적으로 무한한 양의 뉴런이 있다고한다면 어떤 기능에 대해서도 근사 할 수 있습니다 (매우 감사합니다). PAC가 말하는 실질적인 용어는 실용적으로 무한한 양의 레이블이있는 예입니다. 모델 내 최고의 가설을 원합니다. 실제 그물에 필요한 실제 예제의 양을 계산할 때 실제로 재미있는 양을 계산하면 정말 재미있었습니다. PS는 또한 샘플이 IID라고 가정합니다.