나는 현재와 ZFS 파티션을 수출하고 있습니다 dedup=on
사용 ubuntu-zfs
하고 netatalk
. 그러나 타임머신은 스파 스 번들 (sparsebundle)을 만들어야한다고 주장하며, "파일"이라는 개념이 사라지고 아마도 블록 정렬도 좋지 않기 때문에 이것이 중복 제거에 어떤 영향을 미칠지 궁금해지기 시작했습니다. .
추신 : dedup 사용에 대한 내 생각은 같은 장소에 백업하는 두 개의 맥북이 있고 많은 파일이 동일하다는 것입니다.
부록 : 블록 수준 정렬이 중복 제거에 실패한 것 같습니다. 내 경험은 다음과 같습니다.
- 두 개의 서로 다른 맥북의 타임머신 사본들 (중복 된 200Gb)
- 두 개의 맥북을 두 개의 희소 이미지로 CCC합니다.
중복 제거 요소? 1.01 배
타임 머신 백업과 올바르게 작동하도록 ZFS 중복 제거를 설정하는 방법에 대한 아이디어가 있습니까? 다른 백업 (w / dedup) 대안을 찾아야합니까?
압축은 실제로 더 나은 옵션으로 보입니다. 그래도 암호화 될 수 있습니까? 동일한 내용을 가진 두 개의 암호화 된 파일은 암호화 작동 방식으로 인해 파일 시스템과 다르게 "보일 수 있습니다". 중복 제거가 아닌 거대한 파일 인 경우에도 dedup 이 암호화되지 않은 볼륨에서 잘 작동한다고 생각합니다 .
—
Oleg Lobachev