«perceptron» 태그된 질문

6
로지스틱 회귀와 퍼셉트론의 차이점은 무엇입니까?
앤드류 응의 머신 러닝 강의 노트 를 보겠습니다 . 메모는 우리에게 로지스틱 회귀와 퍼셉트론을 소개합니다. Perceptron을 설명하는 동안 메모는 로지스틱 회귀에 사용되는 임계 값 함수의 정의 만 변경한다고 말합니다. 그런 다음 Perceptron 모델을 사용하여 분류 할 수 있습니다. 내 질문은-이것이 지정되어야하고 Perceptron을 분류 기술로 고려한다면 로지스틱 회귀는 정확히 무엇입니까? 클래스 …

3
퍼셉트론 규칙에서 그라디언트 디센트까지 : S 자형 활성화 기능을 가진 퍼셉트론은 로지스틱 회귀와 어떻게 다른가?
본질적으로, 내 질문은 다층 퍼셉트론에서 퍼셉트론이 시그 모이 드 활성화 기능과 함께 사용된다는 것입니다. 업데이트 규칙에서 는 다음과 같이 계산됩니다.와이^와이^\hat{y} 와이^= 11 +특급( − w티엑스나는)와이^=11+특급⁡(−승티엑스나는)\hat{y} = \frac{1}{1+\exp(-\mathbf{w}^T\mathbf{x}_i)} 이 "sigmoid"Perceptron은 로지스틱 회귀와 어떻게 다릅니 까? 단일 계층 시그 모이 드 퍼셉트론은 업데이트 규칙의또한 예측에서 을 합니다. 그러나 다층 퍼셉트론에서, S 자형 …

3
다층 퍼셉트론 vs 심층 신경망
이것은 용어의 문제입니다. 때때로 사람들은 심층 신경망을 "다 계층 퍼셉트론"이라고하는데 왜 이럴까요? 내가 배운 퍼셉트론은 가중치를 역 훈련하는 특정 방법을 사용하는 이진 임계 값 출력을 가진 단일 계층 분류기 (또는 회귀)입니다. 퍼셉트론의 출력이 목표 출력과 일치하지 않으면 입력 벡터를 가중치에 더하거나 뺍니다 (퍼셉트론이 위양성 또는 위양성을 제공했는지에 따라 다름). 매우 …

1
Perceptron Rule vs. Gradient Descent vs Stochastic Gradient Descent 구현에 대한 설명
다른 Perceptron 구현을 약간 실험 해보고 "반복"을 올바르게 이해하고 있는지 확인하고 싶습니다. 로젠 블랏의 원래 퍼셉트론 규칙 내가 아는 한 Rosenblatt의 고전적인 퍼셉트론 알고리즘에서 가중치는 모든 훈련 예제를 통해 동시에 업데이트됩니다. Δ의 w( t + 1 )= Δ w( t )+ η( t a r ge t − a c …


2
퍼셉트론에 대한 결정 경계 플롯
퍼셉트론 알고리즘의 결정 경계를 플롯하려고하는데 실제로 몇 가지 사항에 대해 혼란스러워합니다. 내 입력 인스턴스는 이며 기본적으로 2D 입력 인스턴스 ( x 1 및 x 2 ) 및 이진 클래스 대상 값 ( y ) [1 또는 0]입니다.[(x1,x2),y][(x1,x2),y][(x_{1},x_{2}), y]x1x1x_{1}x2x2x_{2}yyy 내 가중치 벡터는 입니다.[w1,w2][w1,w2][w_{1}, w_{2}] 이제 추가 바이어스 매개 변수 을 통합해야 …

1
간단한 퍼셉트론을 커널 화하는 방법?
비선형 경계의 분류 문제는 단순한 퍼셉트론 으로 해결할 수 없습니다 . 다음 R 코드는 설명을위한 것이며 Python 의이 예제 를 기반으로합니다 . nonlin <- function(x, deriv = F) { if (deriv) x*(1-x) else 1/(1+exp(-x)) } X <- matrix(c(-3,1, -2,1, -1,1, 0,1, 1,1, 2,1, 3,1), ncol=2, byrow=T) y <- c(0,0,1,1,1,0,0) syn0 …
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.