타임머신, ZFS 및 중복 제거


8

나는 현재와 ZFS 파티션을 수출하고 있습니다 dedup=on사용 ubuntu-zfs하고 netatalk. 그러나 타임머신은 스파 스 번들 (sparsebundle)을 만들어야한다고 주장하며, "파일"이라는 개념이 사라지고 아마도 블록 정렬도 좋지 않기 때문에 이것이 중복 제거에 어떤 영향을 미칠지 궁금해지기 시작했습니다. .

추신 : dedup 사용에 대한 내 생각은 같은 장소에 백업하는 두 개의 맥북이 있고 많은 파일이 동일하다는 것입니다.


부록 : 블록 수준 정렬이 중복 제거에 실패한 것 같습니다. 내 경험은 다음과 같습니다.

  • 두 개의 서로 다른 맥북의 타임머신 사본들 (중복 된 200Gb)
  • 두 개의 맥북을 두 개의 희소 이미지로 CCC합니다.

중복 제거 요소? 1.01 배


타임 머신 백업과 올바르게 작동하도록 ZFS 중복 제거를 설정하는 방법에 대한 아이디어가 있습니까? 다른 백업 (w / dedup) 대안을 찾아야합니까?


압축은 실제로 더 나은 옵션으로 보입니다. 그래도 암호화 될 수 있습니까? 동일한 내용을 가진 두 개의 암호화 된 파일은 암호화 작동 방식으로 인해 파일 시스템과 다르게 "보일 수 있습니다". 중복 제거가 아닌 거대한 파일 인 경우에도 dedup 이 암호화되지 않은 볼륨에서 잘 작동한다고 생각합니다 .
Oleg Lobachev

답변:


7

ZFS의 중복 제거는 블록 수준이므로 파일 개념에 의존하지 않습니다. 중복 제거를 방지 할 수있는 유일한 방법은 스파 스 번들 내에서 파일의 오프셋이 항상 블록 크기와 동일한 모듈로가 아닌 경우입니다. ZFS는 스파 스 번들 내에서 HFS + 파일 시스템의 블록 크기보다 큰 가변 블록 크기를 사용할 수 있으므로 올바른 정렬이 보장되지는 않지만 중복 제거가 실패하지는 않습니다.

공간이 걱정된다면 ZFS 풀에서 압축을 활성화 할 수도 있습니다. 추가 CPU 오버 헤드가 발생하지만 실제로 효과적인 디스크 처리량을 증가시킬 수 있습니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.