zfs 및 향후 확장 성


8

freebsd 9와 zfs를 사용하여 서버를 만들고 싶습니다. 오래된 하드웨어 (8GB 램이 장착 된 인텔 쿼드 코어)가 있으며 2 ~ 3 개의 1TB 디스크를 기꺼이 구입할 것입니다. 또한 2TB의 1TB 디스크가있는 dlink RAID 서버가 이미 사용을 중지했을 것이므로 데이터를 이동하면 zfs 서버에서 2 개의 하드 디스크를 사용할 수 있습니다 (현재 약 300MB) 급습 1) 새 서버로.

따라서 zfs 서버를 성공적으로 설정하고 데이터를 복사 한 후 시작시 2 개 또는 3 개의 디스크가 제공되며 4 개 또는 5 개의 디스크로 이동할 수 있습니다.

내 질문은 zfs 풀을 가장 잘 설정하여 나중에 최대 2 개 또는 3 개 이상의 드라이브를 사용할 수있게함으로써 최대 중복성 및 스토리지 공간을 확보하는 방법입니다. 그래서 속도에 대해서는별로 신경 쓰지 않습니다. 이더넷 (1gb / s에서도)이 시스템 속도의 결정 요소가 될 것이라고 생각합니다 ...?

나의 현재 생각은 2 개의 새로운 디스크를 구입하고 스트라이핑 모드를 사용하여 설정하는 것입니다. dlink nas에서 모든 데이터를 복사 한 후에는 해당 드라이브 중 하나를 제거하고 새 드라이브 중 하나의 미러로 만들어서 풀에 추가합니다. 어레이가 재 구축되면 다른 드라이브를 풀로 옮겨 두 번째 새 드라이브를 미러링합니다. 모든 작업이 끝나면 RAID 10 "striped mirrors"와 거의 동등한 성능을 갖추어야합니다.

가능합니까, 아니면 더 나은 설정 방법이 있습니까?

다시 한 번, 최대 중복성, 유지 관리 (신규 / 더 큰 드라이브로 기존 드라이브 스왑 및 전체 풀 공간 증가), 사용 가능한 스토리지 공간 및 속도가 우선 순위입니다. 그와 같은 순서로.

답변:


6

몇 개의 디스크 만 교체하여 스토리지 공간을 늘리려면 미러링 된 vdev를 함께 스트라이프해야합니다 (이는 RAID10에 해당됨).

귀하의 경우 4 개의 드라이브가 있으면 다음과 같이 작동합니다.

    zpool
      mirror
        disk1
        disk2
      mirror
        disk3
        disk4

이렇게하면 2TB의 스토리지 (모든 디스크가 1TB 인 경우)와 우수한 중복성 (1 번의 디스크 충돌 후 어레이 오류의 0 %, 2 번의 동시 디스크 충돌과 함께 어레이 오류의 33 % 만)이 제공됩니다.

이제 거기에 가기 위해 2 개의 새로운 1TB 디스크를 구입하여 풀에 넣습니다.

zpool create zpool mirror disk1 disk2

그런 다음 DLINK 항목을 새로 작성된 풀로 이동하십시오.

완료되면 DLINK 디스크를 청소하고 풀에 추가하여 스토리지를 늘릴 수 있습니다.

zpool add zpool mirror disk3 disk4

나중에 스토리지를 더 많이 늘리려면 더 많은 vdev (바람직하게는 미러)를 추가하거나 4 개의 디스크 중 2 개만 바꾸면됩니다. 교체는 다음과 같습니다.

zpool offline zpool disk3
# remove physical disk3 at this point
# insert new, bigger disk in place of disk3
zpool online zpool disk3
# wait for resilver
# after resilver, do the same with disk4
# your vdev is now bigger, increasing the size of the pool

이제 다른 옵션을 봅시다. 다음과 같이 raidz vdev를 1 개 만든 경우 :

zpool
  raidz
    disk1
    disk2
    disk3
    disk4

3TB의 스토리지가 있지만 디스크를 교체하고 추가하지 않고 스토리지를 늘리려면 풀 크기를 늘리려면 4 개의 디스크를 모두 교체해야합니다 (물론 하나씩). 또한 2 개의 디스크가 동시에 충돌하면이 구성에 100 % 어레이 오류가 발생합니다.

raidz 구성도 스트라이프 미러 구성보다 느립니다. raidz는 계산 집약적이므로 스트라이프 + 미러는 실제로 읽기 및 쓰기 성능을 향상시킵니다. ZFS가 디스크 대역폭을 결합 할 수 있기 때문에 '일반'하드 디스크 (비 SSD)를 사용하면 스트라이프 미러가 기가비트 연결을 순차적으로 읽고 쓸 수 있습니다 (1Gb / s는 표준 '일반' 하드 디스크는 약 90MB를 제공합니다). 위의 raidz 구성이 소비자 하드웨어에서 그렇게 할 수 있다고 생각하지 않습니다.

결론적으로, 디스크 양이있는 스트라이프 미러 / RAID 10의 점수는 다음과 같습니다.

+ max redundancy
+ maintenance
- available storage space
+ speed

raidz의 점수는 다음과 같습니다.

- max redundancy
- maintenance
+ available storage space
- speed

나는 줄무늬 거울이 이길 것이라고 말했다 :)

마지막 팁 : 시작하기 전에 방법과 이유에 대해 자세히 읽어보십시오! 가상 머신에서 전체 절차를 시뮬레이션 할 수도 있습니다. 특히 두 번째 미러 vdev를 추가하는 단계에 대해 생각하고 있습니다! 잘못하면 원하는 다른 구성을 얻을 수 있으며 ZFS는 풀에서 vdev를 제거하거나 raidz vdev에서 디스크를 제거 할 수 없기 때문에 매우 용서할 수 없습니다! (그러나 미러 vdev에서 디스크를 제거하는 것은 허용됩니다)

또한 향후 증거가되고 디스크에 레이블을 지정하고 디스크를 정렬하므로 Advanced Format 드라이브에 문제가 발생하지 않습니다! ZFS 및 4K 드라이브의 복잡성에 대한 자세한 내용 은 FreeBSD 포럼에서이 스레드 를 읽는 것이 좋습니다 .


3

동시에 추가하는 각 디스크 그룹에는 새 풀 추가 또는 생성에 관계없이 자체 중복 정책이 있습니다. 2 개의 디스크 = 미러, 3 개의 RAIDZ를 사용할 수 있습니다 (또는 독창적이기 때문에 권장하지 않음). 그런 드라이브에서는 1Gb 이더넷의 성능이 저하 될 수 있습니다. 또한 나중에 더 큰 드라이브로 드라이브를 교체하는 것은 완전히 번거롭지 만 다소 번거 롭습니다.

시작하기 전에 ZFS 관리 가이드 시작을 읽고 끝내는 것이 좋습니다 .

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.