SLES 10 서버에 아카이브 / 스테이징 스토리지를 추가해야합니다. 요구 사항은 큰 이미지 파일 (대부분 150Meg Tiff)로 구성된 아카이브 데이터를 저장하는 데 사용되는 상당히 큰 볼륨 (총 약 9-20TB, 총 60TB 정도)을 표시하는 것입니다. 그리고 큰 타르볼. 데이터는> 95 %, 아마도 99 %를 초과하는 IO를 읽도록 압도적으로 편향 될 것입니다.
스토리지는 이미 구입했습니다. 2 개의 MD1000이 2TB 7200 RPM SATA 드라이브 (총 45 개의 드라이브)로 채워진 Dell MD3000 SAS 어레이 데이지 체인입니다. 어레이 스택은 2 개의 이중 포트 외부 SAS 어댑터를 사용하여 연결됩니다. 즉, 스택에 대한 4 개의 경로가 있습니다.
필자는 어레이 당 하나의 핫 스페어가있는 4 개의 RAID 그룹에있는 4 개의 볼륨 세트로이 볼륨을 구성하려고합니다. 모든 그룹은 7 또는 14 개의 드라이브가있는 RAID 6이며 각 RAID 그룹은 해당 그룹의 모든 용량을 사용하여 단일 LUN으로 표시됩니다. SLES 측에서는 XFS 볼륨으로 포맷해야합니다.
나는 SLES (및 일반적으로 Linux)에 대한 경험이 제한적이며 이것에 대한 몇 가지 권장 사항을 찾고 있습니다.
- SLES 10에서이 크기의 XFS 볼륨을 구성 할 때주의해야 할 특정 사항이 있습니까? 즉, IO 프로파일이 제공되면 기본 설정이 정상입니까?
- 이를 초기화 / 파티션 \ 포맷하는 가장 좋은 방법은 무엇입니까? Parted를 사용하여 디스크 레이블과 YAST Partition Manager (모든 기본값 허용)를 설정하여 초기 테스트를위한 XFS 볼륨을 만들고 포맷했습니다.
- 다중 경로를 설정하려면 어떻게합니까? 초기 테스트 볼륨을 제시하면 4 개의 개별 장치 (/ dev / sdl, / dev / sdm, / dev / sdn 및 / dev / sdn)로 나타납니다. 이것을 단일 볼륨으로 사용하려면 어떻게해야합니까?
- 초기 테스트에서 기존 EMC Clariion SAN 볼륨의 전송 속도는 약 30Meg / sec입니다. 이것은 예상보다 훨씬 낮습니다. 심지어 RAID 6 쓰기 패널티를 고려하더라도 70-100Meg / sec의 야구장에서 무언가를 볼 것으로 예상됩니다.
- 모든 것이 정상인지 어떻게 알 수 있습니까? 오류 / 경고 등을 어디에서 찾아야합니까? 예를 들어 YAST Partition 편집기는 시작하는 데 시간이 오래 걸리며 그 이유를 알고 싶습니다.
- 이것을 다르게 분할하거나 다른 파일 시스템을 사용 하시겠습니까? 그렇다면 왜 그런가요?
서버는 Dell 2950입니다. 자세한 사양은 확인하지 않았지만 top은 최대 한 자리 숫자로 사용률을 표시합니다.