최근에, 우리는 Residual Neural Net의 출현을 보았습니다. 여기서 각 레이어는 계산 모듈 와 i 번째 레이어의 출력과 같이 레이어에 대한 입력을 유지하는 바로 가기 연결 로 구성됩니다 . 네트워크는 잔존 피처를 추출 할 수 있으며 깊이가 더 깊어지면서 배니싱 그라디언트 문제에 대해보다 강력한 성능을 제공하여 최첨단 성능을 달성합니다.y i + 1 = c i + y i
파 놓은 광산 데 밀어 그라데이션 , 또한 손실의 잔류에 그라데이션 최적화의 양식을 수행 할 것으로 보인다 기계 학습의 세계에서 매우 강력한 ensembling 기술은, 그것의 하드 유사성의 형태를 볼 수 없습니다.
나는 그것들이 비슷하지만 동일하지 않다는 것을 알고 있습니다. 내가 주목 한 한 가지 주요 차이점은 그라디언트 부스팅은 덧셈 항에 대해 최적화를 수행하는 반면 잔여 그물은 전체 네트워크를 최적화한다는 것입니다.
나는 그가 원래 논문 에서 그들의 동기 부여의 일부로 이것을 언급하지 않았다 . 그래서 나는이 주제에 대한 당신의 통찰력이 무엇인지 궁금해하고 있으며 당신이 가진 흥미로운 자료를 공유해달라고 부탁합니다.
감사합니다.