24 개의 Intel Xeon CPU를 포함하는 노드로 구성된 Ubuntu Linux 클러스터에서 MD (Molecular Dynamics) 코드 GROMACS 를 실행했습니다 . 내 관심의 대상은 부동 소수점 산술 정밀도에 다소 민감하다는 것이 밝혀 졌으므로 배정 밀도의 높은 계산 비용에도 불구하고 단 정밀도가 아닌 배정 밀도로 GROMACS를 실행해야했습니다. 클러스터에서 GROMACS를 배정도로 컴파일했습니다.
CPU에 비해 속도가 상대적으로 높기 때문에 ( "GPU 가속") 일부 GPU 구매를 고려하고 있습니다. 그러나 배정도 산술을 수행 할 수있는 GPU가 필요합니다. 그러한 하드웨어가 상업적으로 이용 가능한지 아십니까? GROMACS 메일 링리스트 의 최근 게시물에 따르면 배정 밀도 GPU는 상업적으로 이용할 수 없습니다.
하드웨어는 아직 AFAIK를 지원하지 않습니다 [배정 밀도 산술].
이 Wikipedia 페이지 는 배정 밀도 GPU가 비효율적 일 수 있기 때문에 일반적이지 않다고 제안합니다.
Nvidia GPU에서 부동 소수점 구현은 대부분 IEEE를 준수합니다. 그러나 이것이 모든 공급 업체에 해당되는 것은 아닙니다. 이것은 일부 과학적 응용에 중요한 것으로 간주되는 정확성에 대한 영향을 미칩니다. 64 비트 부동 소수점 값 (배정 밀도 부동 소수점)은 CPU에서 일반적으로 사용 가능하지만 GPU에서는 보편적으로 지원되지 않습니다. 일부 GPU 아키텍처는 IEEE 준수를 희생하는 반면, 일부 GPU 아키텍처는 배정 밀도가 부족합니다. GPU에서 배정 밀도 부동 소수점 값을 에뮬레이션하려는 노력이있었습니다. 그러나 속도 트레이드 오프는 계산을 GPU로 오프로드하는 이점을 먼저 무효화합니다.
차트에서 "피크 배정 밀도 부동 소수점 성능"을 참조하는 이 NVIDIA Tesla 페이지 는 실제로 배정 밀도 계산 이 GPU에서 수행 될 수 있음을 시사하는 것 같습니다 (더 높은 계산 비용에도 불구하고).
그래서 무엇을 믿어야합니까? 이 문제에 대한 경험이 있습니까?