3
'epoch', 'batch'및 'minibatch'의 차이점은 무엇입니까?
내가 아는 한 Stochastic Gradient Descent를 학습 알고리즘으로 채택 할 때 누군가는 전체 데이터 세트에 'epoch'를 사용하고 단일 업데이트 단계에서 사용되는 데이터에 'batch'를 사용하고 다른 하나는 'batch'와 'minibatch'를 사용합니다. 다른 사람들은 'epoch'와 'minibatch'를 사용합니다. 이것은 논의하는 동안 많은 혼란을 가져옵니다. 그렇다면 올바른 말은 무엇입니까? 아니면 그들은 모두 허용되는 방언입니까?