선택한 미니 배치 크기와 딥 러닝 모델 아키텍처가 있다고 가정 해보십시오. 해당 모델을 학습하기 위해 예상되는 메모리 요구 사항에서 어떻게 도출합니까?
예를 들어, 차원 1000의 입력, 차원 100의 완전히 연결된 숨겨진 계층 4 개 및 차원 10의 추가 출력 계층이있는 (반복되지 않은) 모델을 고려하십시오. 미니 배치 크기는 256 개의 예입니다. CPU와 GPU에서 훈련 과정의 대략적인 메모리 (RAM) 풋 프린트를 어떻게 결정합니까? 차이가 있다면 모델이 TensorFlow를 사용하여 GPU에서 훈련되었다고 가정합니다 (따라서 cuDNN 사용).