로지스틱 회귀 및 가능성 이해
로지스틱 회귀의 모수 추정 / 훈련은 실제로 어떻게 작동합니까? 지금까지 가지고있는 것을 넣어 보도록하겠습니다. x의 값에 따른 확률의 형태로 로지스틱 함수의 출력은 y입니다. P(y=1|x)=11+e−ωTx≡σ(ωTx)P(y=1|x)=11+e−ωTx≡σ(ωTx)P(y=1|x)={1\over1+e^{-\omega^Tx}}\equiv\sigma(\omega^Tx) P(y=0|x)=1−P(y=1|x)=1−11+e−ωTxP(y=0|x)=1−P(y=1|x)=1−11+e−ωTxP(y=0|x)=1-P(y=1|x)=1-{1\over1+e^{-\omega^Tx}} 한 차원에서 소위 홀수는 다음과 같이 정의됩니다. p(y=1|x)1−p(y=1|x)=p(y=1|x)p(y=0|x)=eω0+ω1xp(y=1|x)1−p(y=1|x)=p(y=1|x)p(y=0|x)=eω0+ω1x{{p(y=1|x)}\over{1-p(y=1|x)}}={{p(y=1|x)}\over{p(y=0|x)}}=e^{\omega_0+\omega_1x} 이제 log선형 형태로 W_0 및 W_1을 얻는 함수를 추가합니다 . Logit(y)=log(p(y=1|x)1−p(y=1|x))=ω0+ω1xLogit(y)=log(p(y=1|x)1−p(y=1|x))=ω0+ω1xLogit(y)=log({{p(y=1|x)}\over{1-p(y=1|x)}})=\omega_0+\omega_1x 이제 문제 부분 으로 우도 사용 …