페도라 부팅 / 공간 부족


0

Amahi / Fedora / Greyhole을 사용하고 있지만 Greyhole의 작동 원리를 설명하기 위해 일반적인 Linux 질문을 유지하려고 노력할 것입니다.

기본적으로 전체 부팅 드라이브 (아래 / dev / sda3 참조)로 끝났습니다. 페도라는 멈출 수있는 기반을 가지고 있습니다. 나는 모든 공간을 차지하지 못한다. 나는 다른 질문을 시도했지만 캐시, tmp 디렉토리 등 운 좋게 사냥하지 않았다.

잠재적으로 그레이홀 정보 관련 : Greyhole NAS 서비스에는 방문 영역이 있으며이 영역에서 파일을 모니터링 한 다음 저장소 풀 (아래 별도의 물리적 드라이브)으로 파일을 이동합니다. 루트 드라이브의 방문 영역이 지워질 수있는 것보다 빨리 채워진 것을 발견했습니다 (iPhoto 라이브러리에서 수천 개의 작은 파일을 실수로 동기화 했음). 나는 착륙장을 다른 드라이브에 설치하도록함으로써 그레이홀을 고정 시켰습니다.

나는 또한 시동 드라이브의 착륙장을 정리했다. 그러나 신비하게도, 나의 시동은 가득 차있다.

나는 리눅스에 익숙하지 않으므로 ELI5를 가정 해주십시오.

df -h

Filesystem      Size  Used Avail Use% Mounted on
devtmpfs        1.5G     0  1.5G   0% /dev
tmpfs           1.5G     0  1.5G   0% /dev/shm
tmpfs           1.5G  8.6M  1.5G   1% /run
tmpfs           1.5G     0  1.5G   0% /sys/fs/cgroup
/dev/sda3        50G   50G   20K 100% /
tmpfs           1.5G   32K  1.5G   1% /tmp
/dev/sdc1       917G   73M  871G   1% /var/hda/files/drives/1tbDisk
/dev/sdd1       459G  328G  108G  76% /var/hda/files/drives/500green
/dev/sdb1       459G  335G  101G  77% /var/hda/files/drives/500blue
/dev/sda1       477M   74M  374M  17% /boot
none            4.0M     0  4.0M   0% /var/spool/greyhole/mem
tmpfs           301M     0  301M   0% /run/user/1000

df -i

Filesystem       Inodes IUsed    IFree IUse% Mounted on
devtmpfs         382198   458   381740    1% /dev
tmpfs            384173     1   384172    1% /dev/shm
tmpfs            384173   514   383659    1% /run
tmpfs            384173    15   384158    1% /sys/fs/cgroup
/dev/sda3        100904 96514     4390   96% /
tmpfs            384173    26   384147    1% /tmp
/dev/sdc1      61054976    25 61054951    1% /var/hda/files/drives/1tbDisk
/dev/sdd1      30531584 88745 30442839    1% /var/hda/files/drives/500green
/dev/sdb1      30531584 88244 30443340    1% /var/hda/files/drives/500blue
/dev/sda1        128016   342   127674    1% /boot
none             384173     1   384172    1% /var/spool/greyhole/mem
tmpfs            384173     4   384169    1% /run/user/1000

sudo du -hxd1 /

17M /etc
100K    /root
1.4G    /var
1.2G    /usr
2.5M    /home
0   /media
0   /mnt
0   /opt
0   /srv
0   /gh
2.6G    /

이 용량 문제를 어떻게 해결할 수 있습니까?

추신 : 누군가가 에이스가 될 그레이홀 태그를 추가 할 수 있다면.


루트에있는 다른 디렉토리는 무엇입니까? ls -a /
user4556274

답변:


0

기본 디렉토리에 Grehole 공유 영역을 마운트하고있는 파일이 있습니다.

문제

루트 드라이브가 가득 차서 Amahi가 충돌합니다. SSHing to box와 'df -h'를 실행하면 외부 데이터 드라이브의 마운트 위치 인 / var / hda / files / drives에 중요한 파일 만 표시됩니다.

이 위치에있는 폴더를 통해 / var / hda / files / drives에 외부 드라이브를 마운트하더라도, 여전히 기본 파일 시스템에 파일이있을 수 있습니다. 필자의 경우 Greyhole 동기화에서 새 외장 드라이브가 제대로 장착되지 않은 경우. 데이터 드라이브를 장착하면 아래에있는 것을 알기가 어렵습니다.

확인

  • 그레이 홀 해제
  • 'nofail'을 fstab의 인수로 외부에 추가하십시오. 페도라가 부팅하지 않고 데이터 센터에 접속하지 못하게하는 데이터 드라이브
  • 그 시스템 종료 서버 및 데이터 드라이브 분리 및 재부팅
  • 아직 데이터가있는 경우 / var / hda / files / drives에서 액세스 할 수 있습니다. 왜 부팅이 꽉 찼는 지 이유가 있습니다 (단순히 외장형 드라이브는 확실히 알고 싶었습니다.)

고치다

  • Amahi 웹 UI에 로그인하여 새로운 (그레이홀이 아닌) 공유를 만듭니다. 예 : '임시 복구'
  • 부팅 드라이브에서 SSH를 통해 임시 공유로 데이터를 이동합니다. 예 : mv / var / hda / files / drives / your_disk / gh / var / hda / files / temprecovery / gh
  • 네트워크에서 파일을 백업 한 다음 공유에서 삭제하십시오. 필요할 때 나중에 확인할 수는 있지만 항상 백업하는 것이 가장 좋습니다.
  • Amahi 웹 UI : Disk- & gt; Partition에서 복구 된 공간을 확인하십시오. 작성한 임시 공유를 삭제하십시오.
  • 서버를 끄고 드라이브를 다시 연결 한 다음 다시 켜고 Greyhole을 활성화하고 이익을 얻으십시오.
  • 'nofail'인수를 fstab에서 다시 편집하려면 나중에 부팅 할 때 데이터 드라이브가 마운트되지 않는 경우 내부 드라이브에 파일을 다시 보내지 않도록하십시오. 따라서 데이터 드라이브가 온라인 상태가되지 않으면 부팅에 실패하는 것이 가장 좋습니다.

더 많은 정보 이 게시물은 여기에 .

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.