본질적으로, 내 질문은 다층 퍼셉트론에서 퍼셉트론이 시그 모이 드 활성화 기능과 함께 사용된다는 것입니다. 업데이트 규칙에서 는 다음과 같이 계산됩니다.
이 "sigmoid"Perceptron은 로지스틱 회귀와 어떻게 다릅니 까?
단일 계층 시그 모이 드 퍼셉트론은 업데이트 규칙의또한 예측에서 을 합니다. 그러나 다층 퍼셉트론에서, S 자형 활성화 함수는 로지스틱 회귀 및 단일 층 퍼셉트론과 달리 온 오프 신호가 아닌 확률을 반환하는 데 사용됩니다. 기호( Y =1
"퍼셉트론 (Perceptron)"이라는 용어의 사용법은 약간 모호 할 수 있으므로 단일 레이어 퍼셉트론에 대한 현재의 이해를 바탕으로 몇 가지 배경을 제공하겠습니다.
클래식 퍼셉트론 규칙
먼저 F. Rosenblatt의 클래식 퍼셉트론은 step 함수를 사용합니다.
무게를 업데이트
그래서 다음과 같이 계산됩니다
그라데이션 하강
경사 하강을 사용하여 비용 함수를 최적화 (최소화)
여기서 우리는 "실제"숫자를 가지므로, 분류 출력이 임계 값을 갖는 차이와 함께 선형 회귀와 기본적으로 유사하다는 것을 알 수 있습니다.
여기에서 가중치를 업데이트 할 때 그라디언트의 음의 방향으로 단계를 밟습니다.
그러나 여기 에 대신
또한 새로운 학습 샘플이 도착함에 따라 가중치를 업데이트하는 클래식 퍼셉트론 규칙 (배치 학습 모드)과는 달리 전체 학습 데이터 세트 (배치 학습 모드에서)에 대한 전체 패스에 대한 제곱 오류의 합을 계산합니다 (스토크 스틱 그래디언트 디센트-온라인) 배우기).
S 자형 활성화 기능
자, 여기 내 질문이 있습니다.
다층 퍼셉트론에서, 퍼셉트론은 시그 모이 드 활성화 기능과 함께 사용됩니다. 업데이트 규칙에서 는 다음과 같이 계산됩니다.
이 "sigmoid"Perceptron은 로지스틱 회귀와 어떻게 다릅니 까?