VM 인프라에는 클러스터 된 호스트가 SAN으로 이동합니다.
내가 알아 내려고하는 것은 Redhat 서버에서 파일을 삭제할 때 얼마나 많은 "공백"이 남아 있는지입니다. Windows 서버에서 sdelete를 사용하면 문제가 해결되지만 Linux에서는 해결책을 찾는 데 어려움을 겪고 있습니다.
"공백"을 섹터로 정의하고 있습니까? SSD 드라이브에 쓰기를 시작하기 전에 먼저 드라이브를 0으로 설정해야한다는 점이 제로가 아닙니다.
내가 지적 할 한 가지는 Linux에 관해서는 위험 할 정도로 충분히 알고 있지만 슈퍼 사용자는 아닙니다.
드라이브 및 파티션 살펴보기 :
[root@rhserver1-DATA10 /]# fdisk -l
Disk /dev/sda: 53.7 GB, 53687091200 bytes, 104857600 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x0005d52e
Device Boot Start End Blocks Id System
/dev/sda1 * 2048 1026047 512000 83 Linux
/dev/sda2 1026048 104857599 51915776 8e Linux LVM
Disk /dev/sdb: 53.7 GB, 53687091200 bytes, 104857600 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/mapper/rhel_rhserver1--data10-root: 51.0 GB, 50964987904 bytes, 99540992 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/mapper/rhel_rhserver1--data10-swap: 2147 MB, 2147483648 bytes, 4194304 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
이제 디스크 사용량을 살펴보십시오.
[root@rhserver1-DATA10 /]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel_rhserver1--data10-root 48G 6.1G 42G 13% /
devtmpfs 906M 0 906M 0% /dev
tmpfs 921M 340K 920M 1% /dev/shm
tmpfs 921M 90M 831M 10% /run
tmpfs 921M 0 921M 0% /sys/fs/cgroup
/dev/sdb 50G 3.5G 44G 8% /ACMS01Backup
/dev/sda1 497M 210M 288M 43% /boot
tmpfs 185M 20K 185M 1% /run/user/1000
tmpfs 185M 0 185M 0% /run/user/1002
많은 시간을 인터넷 검색 한 결과이를 발견 한 후, "공백"을 얼마나 정리할 수 있는지 보여주고 있습니다.
[root@rhserver1-DATA10 /]# parted /dev/sda unit MB print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
1.02MB
[root@rhserver1-DATA10 /]# parted /dev/sda unit '%' print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
0.00%
나는 497M 파티션에 대한 합리적인 출력을 생각합니다.
그래서 이제는 마운트 된 드라이브에서만 똑같은 일을하고 싶습니다 (마운트 된 것 같습니다).
parted /dev/mapper/rhel_rhserver1--data10-root unit MB print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
parted /dev/mapper/rhel_rhserver1--data10-root unit '%' print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
어느 것도 나에게 아무것도주지 않습니다.
내 / etc / fstab / :
[root@rhserver1-DATA10 /]# cat /etc/fstab
/dev/mapper/rhel_rhserver1--data10-root / xfs defaults 0 0
UUID=2f97a17c-a6d5-4904-ad5c-7c16b4510201 /boot xfs defaults 0 0
/dev/mapper/rhel_rhserver1--data10-swap swap swap defaults 0 0
/dev/disk/by-uuid/be4c45cf-5d72-4b97-b647-2e585947041f /ACMS01Backup auto nosuid,nodev,nofail,x-gvfs-show 0 0
그래서 내 질문은 내가 올바른 길에 있습니까?
내가 무엇을 찾고 있는지 설명했습니까?
인터넷 검색에 도움이되는 "공백"이라는 용어가 있습니까?
루트에서 "fstrim -v /"를 실행할 수 있지만 공간이 얼마나 있는지 알고 싶습니다.
또한 나는 이것들이 프로덕션 시스템이 fstrim I / O 집약적이라는 것을 알아 내려고 노력하고 있습니다. 피크가 아닌 시간에 실행되어야합니까?
"fstrim -v /"를 실행하는 데이터가 손실 될 가능성이 있습니까?
blkid
하고 UUID를 얻을 수 있는지 확인한 후 parted
명령을 다시 실행하십시오 .
discard
파일 시스템 에서 마운트 옵션을 설정할 수도 있습니다 .