Amahi / Fedora / Greyhole을 사용하고 있지만 Greyhole의 작동 원리를 설명하기 위해 일반적인 Linux 질문을 유지하려고 노력할 것입니다.
기본적으로 전체 부팅 드라이브 (아래 / dev / sda3 참조)로 끝났습니다. 페도라는 멈출 수있는 기반을 가지고 있습니다. 나는 모든 공간을 차지하지 못한다. 나는 다른 질문을 시도했지만 캐시, tmp 디렉토리 등 운 좋게 사냥하지 않았다.
잠재적으로 그레이홀 정보 관련 : Greyhole NAS 서비스에는 방문 영역이 있으며이 영역에서 파일을 모니터링 한 다음 저장소 풀 (아래 별도의 물리적 드라이브)으로 파일을 이동합니다. 루트 드라이브의 방문 영역이 지워질 수있는 것보다 빨리 채워진 것을 발견했습니다 (iPhoto 라이브러리에서 수천 개의 작은 파일을 실수로 동기화 했음). 나는 착륙장을 다른 드라이브에 설치하도록함으로써 그레이홀을 고정 시켰습니다.
나는 또한 시동 드라이브의 착륙장을 정리했다. 그러나 신비하게도, 나의 시동은 가득 차있다.
나는 리눅스에 익숙하지 않으므로 ELI5를 가정 해주십시오.
df -h
Filesystem Size Used Avail Use% Mounted on
devtmpfs 1.5G 0 1.5G 0% /dev
tmpfs 1.5G 0 1.5G 0% /dev/shm
tmpfs 1.5G 8.6M 1.5G 1% /run
tmpfs 1.5G 0 1.5G 0% /sys/fs/cgroup
/dev/sda3 50G 50G 20K 100% /
tmpfs 1.5G 32K 1.5G 1% /tmp
/dev/sdc1 917G 73M 871G 1% /var/hda/files/drives/1tbDisk
/dev/sdd1 459G 328G 108G 76% /var/hda/files/drives/500green
/dev/sdb1 459G 335G 101G 77% /var/hda/files/drives/500blue
/dev/sda1 477M 74M 374M 17% /boot
none 4.0M 0 4.0M 0% /var/spool/greyhole/mem
tmpfs 301M 0 301M 0% /run/user/1000
df -i
Filesystem Inodes IUsed IFree IUse% Mounted on
devtmpfs 382198 458 381740 1% /dev
tmpfs 384173 1 384172 1% /dev/shm
tmpfs 384173 514 383659 1% /run
tmpfs 384173 15 384158 1% /sys/fs/cgroup
/dev/sda3 100904 96514 4390 96% /
tmpfs 384173 26 384147 1% /tmp
/dev/sdc1 61054976 25 61054951 1% /var/hda/files/drives/1tbDisk
/dev/sdd1 30531584 88745 30442839 1% /var/hda/files/drives/500green
/dev/sdb1 30531584 88244 30443340 1% /var/hda/files/drives/500blue
/dev/sda1 128016 342 127674 1% /boot
none 384173 1 384172 1% /var/spool/greyhole/mem
tmpfs 384173 4 384169 1% /run/user/1000
sudo du -hxd1 /
17M /etc
100K /root
1.4G /var
1.2G /usr
2.5M /home
0 /media
0 /mnt
0 /opt
0 /srv
0 /gh
2.6G /
이 용량 문제를 어떻게 해결할 수 있습니까?
추신 : 누군가가 에이스가 될 그레이홀 태그를 추가 할 수 있다면.
ls -a /