답변:
신경망은 원칙적으로 비선형 성을 자동으로 모델링 할 수 있으며 ( 범용 근사 정리 참조 ) 선형 회귀 분석에서 변형 (스플라인 등)을 사용하여 명시 적으로 모델링해야합니다.
경고 : 숨겨진 층이나 뉴런을 추가하는 것은 무해 해 보이기 때문에 과적 합 (refit)에 대한 유혹은 회귀보다 신경망에서 더 강할 수 있습니다. 따라서 샘플 외부 예측 성능을 살펴 보는 데 특히주의하십시오.
선형 회귀를 언급했습니다. 이것은 로지스틱 회귀 와 관련이 있으며 , 이는 유사한 빠른 최적화 알고리즘을 가지고 있습니다. 분류 문제와 같이 목표 값에 대한 경계가있는 경우 로지스틱 회귀 분석을 선형 회귀 일반화로 볼 수 있습니다.
하나의 중간 전략은 신경망을 초기화 할 때 발생하는 것과 유사한 다수의 임의 노드를 선택하고 입력-숨김 가중치를 수정하는 것입니다. *-출력 무게에 대한 최적화는 선형으로 유지됩니다. 이것을 익스트림 러닝 머신 이라고합니다 . 최소한 원래 로지스틱 회귀 분석뿐만 아니라 작동합니다.
선형 회귀는 선형으로 분리 가능한 데이터를 분리하는 것을 목표로합니다. 예. 추가 3 차 다항식을 사용할 수 있지만 그런 식으로 목적 함수의 구조를 정의한 이후에 데이터에 대한 몇 가지 가정을 다시 나타냅니다. 신경망에서. 일반적으로 데이터에 대한 선형 구분 기호를 만드는 입력 레이어가 있고 숨겨진 레이어와 일부 클래스를 묶는 영역과 마지막 레이어 또는이 모든 영역을 숨기는 레이어가 있습니다. 이러한 방식으로 모든 데이터를 비선형 방식으로 분류 할 수 있으며 이러한 모든 프로세스는 내부적으로 학습 된 가중치 및 정의 된 기능으로 진행됩니다. 또한 선형 회귀의 피처 수를 늘리는 것은 "차원의 저주"와 반대됩니다. 또한 일부 응용 프로그램은 상수 출력보다 확률이 더 높은 결과가 필요합니다.