나는 40 년의 컴퓨팅 경험을 가지고 있지만, 이와 비슷한 서버를 구축 할 필요는 없었으므로 이것은 n00b 질문 일 수 있습니다.
다운로드 할 수있는 초 고화질 음악 파일을 제공 할 클라이언트가 있습니다. 이 경우 FLAC 압축 24 / 192Khz = ~ 10GB / 앨범을 의미합니다. (아니요, 제품의 바람직 함, 서버 구성에 대해서만 논의하고 싶지 않습니다.) 카탈로그는 약 3,000 개의 앨범이 될 것입니다. 기본 데이터의 35-40TB 정도.
이 제품은 매우 전문화 된 제품이므로 시장 규모는 상대적으로 작습니다 (생각 : 오디오 시스템에 $ 20,000 이상을 소비하는 사람들). 이는 대부분 서버가 100 % 유휴 상태에있을 것입니다. 1Gbps 연결과 대역폭이 약 $ 20 / TB 인 ColocationAmerica의 우수한 코 로케이션 오퍼링과 같은 것을 얻었으므로 이제는 제품을 배송하기위한 상자를 만들어야합니다.
데이터 액세스 사용 사례는 한 번 쓰기 / 읽기-많이이므로 드라이브 쌍에 소프트웨어 RAID 1을 사용하려고합니다. 이것은 (내가 나를 수 있도록 할 생각 하여 어떤 시스템 관리자는 시스템 (그들은 무료로 스왑 아웃 할)에 붉은 빛을 통지하기 전에 두 번째 드라이브로 다시 시작할 수있는, 온 - 더 - 플라이 실패한 것들에 대한 재구성 예비 드라이브). 대부분의 드라이브가 필요하지 않은 경우 대부분의 드라이브를 절전 / 스핀 다운 상태로 만들 수 있다면 좋을 것입니다.
컴퓨팅 파워에는 많은 것이 필요하지 않습니다. 이것은 파이프에 뚱뚱한 물체를 밀어 넣는 것입니다. 따라서 CPU / 마더 보드는이 개수의 드라이브를 지원할 수있는 한 아주 겸손 할 수 있습니다.
현재 다음 구성을 고려하고 있습니다.
Chasis: Supermicro CSE-847E26-RJBOD1
Drives: 30 4TB SAS drives (Seagate ST4000NM0023 ?)
MB: SUPERMICRO MBD-X10SAE-O w/ 8GB
CPU: Xeon E3-1220V3 3.1GHz LGA 1150 80W Quad-Core Server
그래서, 나는 올바른 방향으로 가고 있습니까, 아니면 이것이 문제에 접근하는 완전히 n00b / 공룡 방법입니까?
몇 가지 사항을 명확히하기 위해 업데이트하십시오.
- 내가 소유 한 마지막 Sun 제품이 80 년대 후반에 돌아 왔기 때문에 ZFS에 대한 경험이 없습니다. 그것이 올바른지 알기 위해 약간의 RTFMing을 할 것입니다.
- 파일 이름이 단순한 UUID이고 객체가 드라이브 전체에 걸쳐 균형을 이룰 것이므로 (큰 캐싱 시스템과 같은) 파일 시스템이 필요하지 않습니다. 그래서 저는 이것들을 40 개의 개별 파일 시스템으로 생각했고, RAID 1을 제대로 들었습니다 (그러나 여기서는 무지를 인정합니다).
- 현재 우리가 기대하는 바는 한 번에 수십 개 이상의 파일을 다운로드 할 가능성이 거의 없으며 대부분의 경우 주어진 파일을 다운로드하는 사람이 정확히 한 명일 것이므로 많은 메모리가 필요한지 모르겠습니다. 버퍼 용. 어쩌면 8GB가 약간 가벼울 수도 있지만 128GB가 에너지를 소비하는 것 이상을 할 것이라고는 생각하지 않습니다.
- 없습니다 여기에 언급이 별도의 시스템은 다음과 같습니다 거의 완전히 분리 다운로드 마스터는 현재 웹 스토어는, 그 핸들 모든 인증, 관리 인제 신제품, 정책 적용 (결국, 이것은 이다 RIAA의 놀이터가), 임시 URL 생성 (그리고 아마도 트래픽이 예상치를 초과하는 경우), 사용량 추적 및 보고서 생성과 같은 두 가지 이상의 짐승에게 다운로드를 전달합니다. 즉, 이 기계는 Quaaludes에서 gerbils를 사용하여 거의 구축 할 수 있습니다.
ZFS? 이점은 어디에 있습니까?
OK, 나는 여러 ZFS 가이드, FAQ 등을 통해 길을 가고 있습니다. 어리석은 소리를내어 용서하지만 실제로 N RAID1 쌍에 대한 고대의 개념보다 ZFS를 사용 하는 이점 을 이해하려고합니다 . 이 모범 사례 페이지 (2006 년부터)에서는 48 개의 장치 ZFS를 수행 하지 말고 24 개의 2 장치 미러를 수행 할 것을 제안 합니다. 다른 페이지에는 1 (한 개의) ZFS 블록을 전달하기 위해 액세스해야하는 장치 수가 언급되어 있습니다. 또한 객체 당 10GB, 디스크 사용률 80 %에서 4TB 드라이브 당 총 320 개의 파일을 저장하고 있습니다 . 특정 드라이브 장애에 대해 N RAID 1을 사용한 재 구축 시간은 한 장치에서 다른 장치로 4TB 쓰기입니다.ZFS는 어떻게 이것을 개선합니까?
나는 공룡이라는 것을 인정할 것이지만 디스크는 저렴하고 RAID 1이고, 파일 관리 요구는 사소한 것이며 Linux의 ZFS (내가 선호하는 OS)는 여전히 젊습니다. 어쩌면 나는 너무 보수적이지만 생산 시스템을 볼 때 그렇게 굴립니다.
나는 이것에 대해 생각하게 한 당신의 의견에 대해 당신 모두에게 감사합니다. 나는 아직 완전히 결정되지 않았고 돌아와서 더 많은 n00b 질문을해야 할 수도 있습니다.