많은 파티션을 활용하기 위해 ZFS 풀 또는 LVM 볼륨 그룹이 더 안정적입니까?


11

새 파일 서버를 구성 할 때 LVM 볼륨 그룹 또는 ZFS 풀을 사용할지 여부를 결정할 때 고려해야 할 사항은 무엇입니까? 다목적 파일 서버 영역에서 "더 나은"선택이 있습니까? 이 이전 질문 과 달리 기술을 계층화하고 싶지 않습니다.

대본:

  • RHEL / CentOS 6 x64 서버
  • 사용 가능한 동일한 DAS 및 SAN LUN

선택:

나는 개인적으로 LVM에 대해 잘 알고 있으므로 더 나은 옵션이라면 편안하게 사용할 수 있습니다. 그러나 ZFS는 매우 유망 해 보이며 항상 새로운 기술을 배우는 것이 좋습니다.

기본적으로 풀 매니저에 ZFS 또는 LVM을 사용하는 경우 상당히 큰 저장소 (여러 TB)를 다른 부서와 공유하고 CIFS와 NFS를 통해 액세스 할 수 있어야한다는 점을 감안할 때 ?


나는 같은 제품을 사용하는 FreeNAS것이 가능 하다는 것을 알고 있지만, 여러 가지 이유로 "일반적인"Linux 서버로 롤아웃 할 수 있어야합니다.


5
요컨대, ZFS 파일 시스템은 갈 길입니다 ... 나중에 설명하겠습니다.
ewwhite

4
나는 몇 년 동안 ZFS를 사용해 왔습니다. (내 생각에)의 '찬성 가장 강력한 인수는 (에서 여기에 데이터 손실에 대한 평균 시간을 보여주는). 어쨌든, 내가 raid-z3을 실행하는 이유입니다.
Elliott Frisch

FreeNAS와 관련하여이 방법은 훌륭한 솔루션 일 수 있지만 NAS와 같은 많은 솔루션과 같이 숨겨져있는 것이 몇 가지 있습니다 (예 : 각 디스크의 시작 부분에 작은 스왑 파티션 등). 당신은 짐승과 놀고있는 것을 배울 수 있지만, 무엇을하고 있는지 알고 있다면 혼자서해야합니다.
Ouki

@Ouki-다른 맥락에서 FreeNAS 또는 이와 유사한 것을 배포 할 것입니다. 이 맥락에서 우리는 할 수 없습니다 :)
warren

@STW-귀하의 의견에 감사하지만 SF 커뮤니티의 기존 회원에 동의하지 않는 이유가 무엇인지 궁금합니다. :)
warren

답변:


12

둘 다 사용하지만 ZFS를 선호합니다. Linux의 ZFS는 나에게 매우 좋았지 만 모든 상황에서 "모두 수정"하는 것은 아닙니다.

일반적인 서버는 다음과 같습니다.

(저는 보통 하드웨어 RAID를 사용하며 대부분 ZFS를 유연한 볼륨 관리자로 사용합니다.)

  • 기본 디스크로 구성된 논리 볼륨이있는 하드웨어 RAID. 이 어레이는 작은 OS 볼륨 (블록 장치로 표시됨)으로 조각 된 다음 분할됩니다 (/, / usr, / var 등).
  • 남은 공간은 ZFS zpool로 사용될 다른 블록 장치를 나타냅니다.
Smart Array P420i in Slot 0 (Embedded)    (sn: 001438029619AC0)

   array A (SAS, Unused Space: 1238353  MB)

      logicaldrive 1 (72.0 GB, RAID 1+0, OK)
      logicaldrive 2 (800.0 GB, RAID 1+0, OK)

      physicaldrive 1I:2:1 (port 1I:box 2:bay 1, SAS, 900.1 GB, OK)
      physicaldrive 1I:2:2 (port 1I:box 2:bay 2, SAS, 900.1 GB, OK)
      physicaldrive 1I:2:3 (port 1I:box 2:bay 3, SAS, 900.1 GB, OK)
      physicaldrive 1I:2:4 (port 1I:box 2:bay 4, SAS, 900.1 GB, OK)

그런 다음 zpool을 가져 와서 필요에 따라 추가 ZFS 파일 시스템 (또는 마운트 지점)과 zvol을 만듭니다.

# zpool list -v vol1
NAME   SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
vol1   796G   245G   551G    30%  1.00x  ONLINE  -
  wwn-0x600508b1001c4d9ea960806c1becebeb   796G   245G   551G         -

그리고 파일 시스템 ...

# zfs list
NAME                USED  AVAIL  REFER  MOUNTPOINT
vol1                245G   539G   136K  /vol1
vol1/images         245G   539G   245G  /images
vol1/mdmarra        100G   539G   100G  /growlr_pix

따라서 데이터 파티션에 ZFS를 사용하면 데이터 풀 주소 지정, 할당량 설정 및 마운트 포인트 단위로 속성을 관리 할 수 ​​있으므로 매우 좋습니다. LVM은 여전히 ​​파일 시스템 도구를 다루어야하며 조금 더 엄격합니다.


6
RAID에서 ZFS를 사용하는 것은 권장되지 않으며 ZFS의 이점을 부분적으로 상실합니다. en.wikipedia.org/wiki/ZFS#ZFS_and_hardware_RAID
STW

8
위의 예는 ZFS의 이점을 완전히 손상시키는 것으로 보입니다. zpool에서 4 개의 물리적 디스크를 단일 RAID 논리 디스크로 사용한다는 것은 ZFS의 데이터 무결성을 얻지 못함을 의미하므로 RAID 컨트롤러는 ZFS가 디스크 상태를 모니터링하고 디스크 상태에 응답하는 것을 방지하며 효과적으로 이득을 얻기 위해 메모리를 희생합니다. 설정은 ZFS가 아닌 LVM의 이상적인 후보입니다. 할당량, 속성 (Linux의 ZFS에서는 지원되지 않음) 및 압축과 같은 기능은 ZFS 없이도 가질 수 있습니다.
STW

2
@STW 귀하는 제 환경에서 무엇이 효과가 있거나 없는지 알려 주실 수 없습니다. 다른 곳으로 가져 가십시오.
ewwhite

4
@ewwhite이 설정을 사용하는 사람은 치명적인 데이터 손실 위험이 있습니다. 실제로 볼륨 관리를 위해 ZFS 만 사용하려는 경우에는 문제가 없지만 ZFS 기능의 일부일 뿐이며 보호 기능을 잃게됩니다.
STW

6
RAID10을 실행 중이고 zpool을로 구성하면 비교적 안전합니다 copies=2. 그러나 디스크 나 컨트롤러 오류가 발생하면 ZFS에서 완전히 동일한 설정을 사용하는 것보다 풀이 완전히 손실 될 가능성이 높습니다.
STW
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.