mdadm을 사용하여 두 개의 3TB 드라이브를 사용하여 RAID 1 어레이를 만들었습니다. 밤새 걸리는 프로세스 후에 두 개의 3TB 드라이브 인 / sdb와 / sdc가 파일 탐색기에서 사라지는 것을 발견했습니다. 시스템을 재부팅하고 다시 나타난 후 다시 부팅 한 후 다시 사라지면 GParted에서 발견 된 오류로 인해 손상된 것처럼 보입니다.
Corrupt extent header while reading journal super block</i>
<i>Unable to read the contents of this file system!
Because of this, some operations may be unavailable.
The cause might be a missing software package.
The following list of software packages is required for ext4 file system support: e2fsprogs v1.41
새 RAID 어레이 md0을 호출했는데이 폴더에는 / mnt / md0에 비어있는 폴더가 있습니다.
/ etc / mdadm에는 다음과 같은 conf 파일이 있습니다.
# mdadm.conf
#
# !NB! Run update-initramfs -u after updating this file.
# !NB! This will ensure that initramfs has an uptodate copy.
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR root
# definitions of existing MD arrays
# This configuration was auto-generated on Mon, 24 Dec 2018 02:28:48 -0500 by mkconf
ARRAY /dev/md0 metadata=1.2 name=dna-computer:0 UUID=df25e6e6:cccb8138:aa9f4538:31608c33
이것이 도움이되는지 확실하지 않지만 명령 cat /proc/mdstat
은 다음과 같이 읽습니다.
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
unused devices: <none>