저는 1 년 이상 ELM (Extreme Learning Machine) 패러다임을 생각하고 구현하고 사용하고 있으며, 더 오래할수록 실제로 좋은 일인지 의심합니다. 그러나 내 의견은 인용과 새로운 출판물을 측정 할 때 인기있는 주제 인 과학계와는 대조되는 것 같습니다.
ELM은 Huang 등에 의해 소개되었습니다 . 알. 기본 아이디어는 다소 간단합니다. 2 계층 인공 신경망으로 시작하여 첫 번째 계층의 계수를 임의로 할당합니다. 이것은 일반적으로 역 전파를 통해 처리되는 비선형 최적화 문제를 간단한 선형 회귀 문제로 변환합니다. 더 상세한 모델은
이제 단지 의 반면 (제곱 오차 손실을 최소화하기 위하여) 조정된다 의 전부를 임의로 선택한다. 자유도 손실에 대한 보상으로서, 일반적인 제안은 다소 많은 숨겨진 노드 (즉, 자유 매개 변수 ) 를 사용하는 것 입니다.
또 다른 관점 (안 신경 네트워크 측에서 오는 일반적으로 문헌에 승진 한)에서 전체 과정 입니다 단순히 선형 회귀,하지만 당신은 당신의 기저 함수 중 하나를 선택 예를 들어, 무작위
(시그 모이 드 이외의 다른 선택은 임의 함수에 대해 가능합니다. 예를 들어, 동일한 원리가 방사형 기저 함수를 사용하여 적용되었습니다.)
이 관점에서 전체 방법이 거의 단순 해졌으며,이 방법이 실제로 좋은 방법인지 의심하기 시작하는 시점이기도합니다 (그러나 과학적 마케팅은 확실합니다). 내 질문은 다음과 같습니다.
임의 기준 함수를 사용하여 입력 공간을 래스터하는 아이디어는 저 차원에 적합합니다. 높은 차원에서 합리적인 수의 기본 기능을 가진 무작위 선택을 사용하여 좋은 선택을 찾는 것이 불가능하다고 생각합니다. 따라서 ELM은 치수의 저주 때문에 고차원으로 저하됩니까?
이 의견을지지하거나 모순되는 실험 결과에 대해 알고 있습니까? 링크 된 논문에는 SVM과 유사한 방법을 수행하는 27 차원 회귀 데이터 세트 (PYRIM)가 하나 있습니다 (역 전파 ANN과의 비교를보고 싶습니다)
좀 더 일반적으로 ELM 방법에 대한 의견을 드리고자합니다.