나는 계산 리소스가 공유되는 환경에서 일합니다. 즉, 각각 몇 개의 Nvidia Titan X GPU가 장착 된 서버 시스템이 몇 대 있습니다.
중소형 모델의 경우 12GB의 Titan X는 일반적으로 2 ~ 3 명이 동일한 GPU에서 동시에 교육을 수행하기에 충분합니다. 단일 모델이 GPU의 모든 계산 단위를 충분히 활용할 수 없을 정도로 모델이 작 으면 실제로는 한 번의 교육 프로세스를 실행하는 것과 비교하여 실제로 속도가 향상 될 수 있습니다. GPU에 대한 동시 액세스가 개별 교육 시간을 느리게하는 경우에도 여러 사용자가 동시에 GPU를 교육 할 수있는 유연성을 갖는 것이 좋습니다.
TensorFlow의 문제점은 기본적으로 시작시 사용 가능한 전체 GPU 메모리를 할당한다는 것입니다. 작은 2 계층 신경망에서도 12GB의 GPU 메모리가 모두 사용 된 것을 알 수 있습니다.
주어진 모델에 충분하다는 것을 알고 있다면 TensorFlow가 4GB의 GPU 메모리 만 할당하도록하는 방법이 있습니까?