MDADM을 사용하여 청크 크기가 256KB 인 RAID-5 어레이에 4 개의 3TB 디스크로 구성된 9TB XFS 파티션이 있습니다.
파티션을 만들 때 최적의 스트라이프 단위와 너비 값 (64 및 192 블록)이 자동으로 감지되고 설정되어 xfs_info가 확인합니다.
# xfs_info /dev/md3
meta-data=/dev/md3 isize=256 agcount=32, agsize=68675072 blks
= sectsz=512 attr=2
data = bsize=4096 blocks=2197600704, imaxpct=5
= sunit=64 swidth=192 blks
naming =version 2 bsize=4096 ascii-ci=0
log =internal bsize=4096 blocks=521728, version=2
= sectsz=512 sunit=64 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
그러나 나는 느린 전송 속도를 겪고 있었고 조사하면서 특별히 파티션을 마운트하지 않으면 -o sunit=64,swidth=192
스트라이프 장치는 항상 512로 설정되고 너비는 1536으로 설정되었습니다.
# umount /dev/md3
# mount -t xfs -o rw,inode64 /dev/md3 /data
# grep xfs /proc/mounts
/dev/md3 /data xfs rw,relatime,attr2,delaylog,inode64,logbsize=256k,sunit=512,swidth=1536,noquota 0 0
의도 된 동작입니까? sunit=64,swidth=192
매번 마운트를 시작할 수 있다고 생각 하지만 현재 데이터 (로 마운트 된 상태에서 작성된 sunit=512,swidth=1536
)가 잘못 정렬되지 않습니까?
운영 체제는 커널 3.2.51이 설치된 Debian Wheezy입니다. 4 개의 하드 디스크는 모두 고급 포맷 디스크입니다 (smartctl 512 bytes logical, 4096 bytes physical
). 값에 8을 곱한다는 사실은 이것이 문제가 512와 4096 섹터 크기 디스크의 곱셈 계수와 일치한다는 것을 알면 문제와 관련이 있는지 궁금합니다.
누구든지 이것에 대해 약간의 빛을 비출 수 있습니까? :-)
conv=notrunc
) 없이는 문제가되지 않습니다 .