딥 러닝의 딥 레지던트 네트워크와 관련하여 레거시 학습 블록은 정확히 무엇입니까?


12

나는 이미지 인식을위한 딥 레지던트 학습 (Deep Residual Learning)을 읽고 있었고, 잔차 블록이 계산적으로 수반하는 것을 100 % 확실하게 이해하는 데 어려움을 겪었습니다. 그들의 논문을 읽고 그들은 그림 2를 가지고 있습니다.

여기에 이미지 설명을 입력하십시오

Residual Block이 무엇을 의미하는지 보여줍니다. 잔차 블록의 계산은 단순히 다음과 같습니다.

와이=σ(2σ(1엑스+1)+2+엑스)

아니면 다른 것입니까?

다른 말로하면 종이의 표기법과 일치하려고 시도하는 것입니다.

에프(엑스)+엑스=[2σ(1엑스+1)+2]+엑스

그게 사실입니까?

와이

σ(에프(엑스)+엑스)=σ([2σ(1엑스+1)+2]+엑스)

σ


이고, X는 X = 포지티브 relu (X)는
레이 Tayek

답변:


당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.