IPoIB (IP over InfiniBand) 및 RDMA 성능


8

나는 두 개의 데비안 호스트 사이에서 IPoIB (IP over InfiniBand)를 통해 DRBD 8 over IPoIB와의 연결을 제공하는 Linux HA 클러스터를 부분적으로 상속했습니다. 그것은 깨지지 않았으므로 고치지 않을 것입니다.

또한 DRBD 9가 RDMA를 지원한다는 사실을 알았으므로 향후 RDMA를 통해 DRBD 9 (예 : "기본"InfiniBand)로 연결을 교체할지 여부에 대한 의문이 생길 수 있습니다.

프로덕션 시스템에서 성능 테스트를 실행하고 싶지 않기 때문에 궁금합니다. IPoIB와 RDMA / InfiniBand의 성능 비교가 게시되어 있습니까? 예를 들어 IPoIB에서 10 %, 50 % 또는 100 % 순서로 IPoIB를 전환하면 대역폭 / 대기 시간이 늘어날 것으로 예상 할 수 있습니까? 무엇을 기대할 수 있습니까?

답변:


6

이 프리젠 테이션을 보셨습니까? https://www.linbit.com/en/drbd-9-over-rdma-with-micron-ssds/ http://downloads.openfabrics.org/Media/Monterey_2015/Tuesday/tuesday_09_ma.pdf

InfiniBand는 RDMA를 제공하는 특정 네트워크 아키텍처 일 뿐이지 만 실행중인 애플리케이션 유형에 따라 성능이 달라집니다. 내 경험은 주로 MPI 기반 응용 프로그램을 사용하는 학술 / 연구 시스템을 기반으로합니다. 어떤 경우에는 RDMA가 IPoIB보다 20 % 더 나은 성능을 보였습니다. 그러나 나는 그러한 벤치마킹에 대해 잘 모르지만 많은 학술 논문과 공급 업체 백서가 있습니다. I / O에 대해서만 생각하고 있다면 파일 크기, 읽기 수 및 쓰기 수를 고려하십시오. RDMA는 일반적으로 임의의 작은 읽기에는 큰 이점을 제공하지만 쓰기에는 작은 이점 만 제공했습니다. RoCE (RDMA over Converged Ethernet) 및 InfiniBand 기본 RDMA에서 읽을 수 있습니다.


Thx, 특히 20 % 수량. 맨 위에서 실행되는 응용 프로그램은 PostgreSQL입니다. (pgdata는 DRBD 장치에 상주합니다.)
rookie09

2
그렇습니다. 시스템의 디스크보다 더 빠를 수는 없지만 디스크가 복제하는 네트워크보다 디스크가 더 빠르다고 가정하면 시스템에서 더 많은 성능을 발휘할 수 있습니다. RDMA로 전환.
Matt Kereczman

4
다음은 RDMA에 대한 다른 대안적인 설명입니다. starwindsoftware.com/…
Net Runner
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.