SLES 10 서버에 60TB 스토리지 추가


10

SLES 10 서버에 아카이브 / 스테이징 스토리지를 추가해야합니다. 요구 사항은 큰 이미지 파일 (대부분 150Meg Tiff)로 구성된 아카이브 데이터를 저장하는 데 사용되는 상당히 큰 볼륨 (총 약 9-20TB, 총 60TB 정도)을 표시하는 것입니다. 그리고 큰 타르볼. 데이터는> 95 %, 아마도 99 %를 초과하는 IO를 읽도록 압도적으로 편향 될 것입니다.

스토리지는 이미 구입했습니다. 2 개의 MD1000이 2TB 7200 RPM SATA 드라이브 (총 45 개의 드라이브)로 채워진 Dell MD3000 SAS 어레이 데이지 체인입니다. 어레이 스택은 2 개의 이중 포트 외부 SAS 어댑터를 사용하여 연결됩니다. 즉, 스택에 대한 4 개의 경로가 있습니다.

필자는 어레이 당 하나의 핫 스페어가있는 4 개의 RAID 그룹에있는 4 개의 볼륨 세트로이 볼륨을 구성하려고합니다. 모든 그룹은 7 또는 14 개의 드라이브가있는 RAID 6이며 각 RAID 그룹은 해당 그룹의 모든 용량을 사용하여 단일 LUN으로 표시됩니다. SLES 측에서는 XFS 볼륨으로 포맷해야합니다.

나는 SLES (및 일반적으로 Linux)에 대한 경험이 제한적이며 이것에 대한 몇 가지 권장 사항을 찾고 있습니다.

  1. SLES 10에서이 크기의 XFS 볼륨을 구성 할 때주의해야 할 특정 사항이 있습니까? 즉, IO 프로파일이 제공되면 기본 설정이 정상입니까?
  2. 이를 초기화 / 파티션 \ 포맷하는 가장 좋은 방법은 무엇입니까? Parted를 사용하여 디스크 레이블과 YAST Partition Manager (모든 기본값 허용)를 설정하여 초기 테스트를위한 XFS 볼륨을 만들고 포맷했습니다.
  3. 다중 경로를 설정하려면 어떻게합니까? 초기 테스트 볼륨을 제시하면 4 개의 개별 장치 (/ dev / sdl, / dev / sdm, / dev / sdn 및 / dev / sdn)로 나타납니다. 이것을 단일 볼륨으로 사용하려면 어떻게해야합니까?
  4. 초기 테스트에서 기존 EMC Clariion SAN 볼륨의 전송 속도는 약 30Meg / sec입니다. 이것은 예상보다 훨씬 낮습니다. 심지어 RAID 6 쓰기 패널티를 고려하더라도 70-100Meg / sec의 야구장에서 무언가를 볼 것으로 예상됩니다.
  5. 모든 것이 정상인지 어떻게 알 수 있습니까? 오류 / 경고 등을 어디에서 찾아야합니까? 예를 들어 YAST Partition 편집기는 시작하는 데 시간이 오래 걸리며 그 이유를 알고 싶습니다.
  6. 이것을 다르게 분할하거나 다른 파일 시스템을 사용 하시겠습니까? 그렇다면 왜 그런가요?

서버는 Dell 2950입니다. 자세한 사양은 확인하지 않았지만 top은 최대 한 자리 숫자로 사용률을 표시합니다.

답변:


4

이전 직장에서 비슷한 문제가있었습니다. 우리는 플라네타륨을 생산하고 있었고 각 프레임은 64 메가 픽셀이었습니다. 큰 이미지가 많이 있습니다. 이들은 컴퓨터 클러스터를 통한 매우 적극적인 읽기 작업으로 각 극장에 대해 처리됩니다.

이 경우 서버의 저장소 설정은 비슷했습니다. 여러 개의 외부 직접 연결 RAID 어레이 이들 각각은 호스트에 노출 된 RAID6 볼륨에 있었고 LVM (Logical Volume Manager)의 VG (Volume Group)에 추가되었습니다. 각 쇼 / 프로덕션은 XFS 형식의 자체 LV (Logical Volume)를 가져와 필요에 따라 프로젝트와 함께 확장합니다.

데이터 세트가 정적이거나 이와 같이 예측 가능한 방식으로 성장하는 경우이 방법이 적합합니다. 그러나이 방법에는 단점이 있습니다. 스토리지에서 LV를 마이크로 관리해야합니다. 일부 관리자는이 방법을 선호하지만 다른 관리자는이를 피하려고합니다. 그러나이를 통해 데이터 세트가 증가함에 따라 각 LV 및 XFS 파일 시스템을 확장 할 수 있습니다. XFS 볼륨을 가능한 작게 유지하면 완료하는 데 몇 년이 걸리는 fsck가 생길 수 있습니다. 파일 시스템이 남쪽으로 이동하면 손상 제어 역할을 할 수 있습니다.

면책 조항 : 오늘 이것을 설정하려면 OpenSolaris와 ZFS를 사용합니다. 주로 b / c는 마이크로 관리 문제를 피하고 우수한 파일 시스템 / 볼륨 관리자입니다. 그래서 당신도 그것을보고 싶을 수도 있습니다.


4

더 많은 디스크와 RAID 10을 구입하는 데 훨씬 더 포함됩니다.

우리가 구입 한 수백 개의 1TB FATA (Fibre-Attached SATA) 디스크에 끔찍한 문제가 있었는데, 각각 1 파운드 £ 1이며 한 달에 5 % 씩 잃고 있습니다! 기본적으로 그들은 24x7 듀티 사이클을 위해 설계되지 않았으며 동일한 문제가 발생할 수 있으므로 R10을 권장합니다.

RAID6은 올바른 방향으로 나아가는 단계이지만, 최소한 하나의 디스크를 핫 스페어로 남겨 두어야합니다. 디스크가 어레이의 아무 곳에서나 죽으면 기다릴 때까지 튀어 나오게됩니다. 고장난 디스크를 교체하십시오. 해당 주제에 대해 교체 할 준비가 된 현장에 최소 2 개 또는 3 개의 예비 디스크가 있는지 확인하고 24x7 문제가있을 때 알려주는 모든 경고 설정이 있는지 확인하십시오.

성능에 관해서는 2GB 디스크는 7.2k 디스크에 적합하지 않으며 SAS는 매우 빠를 수 있으므로 언급 한 순차적 읽기에 70MBps가 필요합니다. 임의의 무작위 및 쓰기는 상당히 낮을 것입니다.

내가 부정적인 것처럼 보이면 죄송합니다. 지금은 스토리지로 어려움을 겪었고 엔터프라이즈 디스크 시스템으로는 쉽게 잠을 잘 수 없었습니다. 저는 저급 장비를 고정하는 48/72 시간의 교대를 너무 많이 잡아 냈습니다.


2
우수한 점-질문에 지정하지 않았지만 어레이 당 1 개의 핫 스페어 3 개를 예약했습니다. 불행히도 곧 더 많은 디스크를 넣을 수있는 옵션이 없지만 고객이 일부 볼륨의 용량을 줄 이도록 동의 할 수 있습니다.
Helvick
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.