drbd와 같이 데이터에 무관 한 복제를 제안하는 경향이 있습니다. 많은 수의 파일로 인해 "block storage"보다 높은 수준에서 실행되는 모든 것이 rsync를 사용하거나 inotify watch를 만드는 것처럼 나무를 걷는 데 많은 시간을 소비하게됩니다.
내 개인적인 이야기를 뒷받침하는 짧은 버전 : 나는 Ceph를 사용하지 않았지만 이것이 Gluster와의 유사성에 기초한 주요 시장 목표가 아니라고 확신합니다. 그러나 지난 몇 년 동안 Gluster를 사용하여 이러한 종류의 솔루션을 구현하려고했습니다. 몇 가지 주요 버전 업데이트가 있었지만 대부분의 시간 동안 작동하고 있었지만 문제는 없었습니다. 목표보다 성능이 중복되는 경우 Gluster가 좋은 해결책이 아닐 수 있습니다. 특히 사용 패턴에 stat () 호출이 많은 경우 Gluster는 복제를 제대로 수행하지 않습니다. 이는 복제 된 볼륨에 대한 통계 호출이 모든 복제 된 노드 (실제로는 "브릭")로 이동하지만 호스트 당 하나의 브릭을 가지기 때문입니다. 예를 들어 양방향 복제본이있는 경우 클라이언트의 각 stat ()는 현재 데이터를 사용하고 있는지 확인하기 위해 두 브릭의 응답을 기다립니다. 그런 다음 중복을 위해 기본 Gluster 파일 시스템을 사용하는 경우 FUSE 오버 헤드가 발생하고 캐싱이 부족합니다 (Gluster를 NFS로 백엔드로 사용하고 중복을 위해 자동 마운터를 사용하는 대신 stat () 이유 때문에 여전히 짜증납니다) . 그러나 Gluster는 여러 서버에 데이터를 분산시킬 수있는 대용량 파일을 실제로 사용합니다. 데이터 스트라이핑 및 배포는 실제로 작동하기 때문에 잘 작동합니다. 최신 RAID10 유형 복제는 기존의 직선 복제 볼륨보다 성능이 우수합니다. 그러나 내가 추측하는 것은 귀하의 사용 모델이므로, 나는 그것에 반대하는 것이 좋습니다. 그런 다음 중복을 위해 기본 Gluster 파일 시스템을 사용하는 경우 FUSE 오버 헤드가 발생하고 캐싱이 부족합니다 (Gluster를 NFS로 백엔드로 사용하고 중복을 위해 자동 마운터를 사용하는 대신 stat () 이유 때문에 여전히 짜증납니다) . 그러나 Gluster는 여러 서버에 데이터를 분산시킬 수있는 대용량 파일을 실제로 사용합니다. 데이터 스트라이핑 및 배포는 실제로 작동하기 때문에 잘 작동합니다. 최신 RAID10 유형 복제는 기존의 직선 복제 볼륨보다 성능이 우수합니다. 그러나 내가 추측하는 것은 귀하의 사용 모델이므로, 나는 그것에 반대하는 것이 좋습니다. 그런 다음 중복을 위해 기본 Gluster 파일 시스템을 사용하는 경우 FUSE 오버 헤드가 발생하고 캐싱이 부족합니다 (Gluster를 NFS로 백엔드로 사용하고 중복을 위해 자동 마운터를 사용하는 대신 stat () 이유 때문에 여전히 짜증납니다) . 그러나 Gluster는 여러 서버에 데이터를 분산시킬 수있는 대용량 파일을 실제로 사용합니다. 데이터 스트라이핑 및 배포는 실제로 작동하기 때문에 잘 작동합니다. 최신 RAID10 유형 복제는 기존의 직선 복제 볼륨보다 성능이 우수합니다. 그러나 내가 추측하는 것은 귀하의 사용 모델이므로, 나는 그것에 반대하는 것이 좋습니다. stat () 이유 때문에 여전히 짜증납니다. 그러나 Gluster는 여러 서버에 데이터를 분산시킬 수있는 대용량 파일을 실제로 사용합니다. 데이터 스트라이핑 및 배포는 실제로 작동하기 때문에 잘 작동합니다. 최신 RAID10 유형 복제는 기존의 직선 복제 볼륨보다 성능이 우수합니다. 그러나 내가 추측하는 것은 귀하의 사용 모델이므로, 나는 그것에 반대하는 것이 좋습니다. stat () 이유 때문에 여전히 짜증납니다. 그러나 Gluster는 여러 서버에 데이터를 분산시킬 수있는 대용량 파일을 실제로 사용합니다. 데이터 스트라이핑 및 배포는 실제로 작동하기 때문에 잘 작동합니다. 최신 RAID10 유형 복제는 기존의 직선 복제 볼륨보다 성능이 우수합니다. 그러나 내가 추측하는 것은 귀하의 사용 모델이므로, 나는 그것에 반대하는 것이 좋습니다.
머신간에 마스터 선거를하거나 분산 잠금을 구현할 수있는 방법을 찾아야 할 수도 있습니다. 공유 블록 장치 솔루션에는 다중 마스터 인식 (GFS와 같은) 파일 시스템이 필요하거나 하나의 노드 만 파일 시스템 읽기 / 쓰기를 마운트해야합니다. 파일 시스템은 일반적으로 그 아래의 블록 장치 수준에서 데이터가 변경 될 때 싫어합니다. 즉, 고객이 어느 마스터인지, 직접 쓰기 요청을 할 수 있어야합니다. 그것은 큰 성가신 것으로 판명 될 수 있습니다. GFS 및 모든 지원 인프라가 옵션 인 경우 다중 마스터 모드 ( "이중 기본"이라고 함)의 drbd가 제대로 작동 할 수 있습니다. 이에 대한 자세한 내용은 https://www.drbd.org/en/doc/users-guide-83/s-dual-primary-mode 를 참조하십시오.
당신이가는 방향에 상관없이, 이것은 SAN 회사에 돈을 싣지 않고 실시간으로하는 것이 여전히 큰 고통이라는 것을 알게 될 것입니다.