Ok-문제에 대해 무언가를 괴롭 히고 있었기 때문에 VM을 시작하여 예상되는 동작에 뛰어 들었습니다. 나는 잠시 후에 나를 괴롭히는 것에 도착할 것이다. 먼저 이것을 말하겠습니다.
무엇이든 시도하기 전에이 드라이브를 백업하십시오 !!
재 동기화를 넘어 이미 손상을 입었을 수 있습니다. 당신이 말했을 때의 의미를 명확히 할 수 있습니까?
제안에 따라 수퍼 블록을 정리하고 --assume-clean 옵션을 사용하여 배열을 다시 만들었지 만 운이 없었습니다.
를 실행했다면 mdadm --misc --zero-superblock
괜찮을 것입니다.
어쨌든, 새로운 디스크를 청소하고 디스크에 더 이상 쓸 수있는 작업을하기 전에 정확한 현재 이미지를 가져옵니다.
dd if=/dev/sdd of=/path/to/store/sdd.img
그것은 .. 이것들에 저장된 데이터는 놀랍게도 재 동기화에 충격적으로 탄력적 인 것처럼 보입니다. 계속 읽으십시오. 희망이 있으며 이것이 대답 길이 제한에 도달 한 날 일 수 있습니다.
최고의 시나리오
시나리오를 재현하기 위해 VM을 함께 던졌습니다. 드라이브는 단지 100MB이므로 각 재 동기화에서 영원히 기다리지 않을 것입니다. 그렇지 않으면 꽤 정확한 표현이어야합니다.
512k 청크, 왼쪽 대칭 레이아웃, 문자 순서의 디스크 등 가능한 일반적으로 기본 배열을 구축했습니다. 특별한 것은 없습니다.
root@test:~# mdadm --create /dev/md0 --chunk=512 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
root@test:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sdd1[3] sdc1[1] sdb1[0]
203776 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
unused devices: <none>
여태까지는 그런대로 잘됐다; 파일 시스템을 만들어서 데이터를 만들어 봅시다.
root@test:~# mkfs.ext4 /dev/md0
mke2fs 1.41.14 (22-Dec-2010)
Filesystem label=
OS type: Linux
Block size=1024 (log=0)
Fragment size=1024 (log=0)
Stride=512 blocks, Stripe width=1024 blocks
51000 inodes, 203776 blocks
10188 blocks (5.00%) reserved for the super user
First data block=1
Maximum filesystem blocks=67371008
25 block groups
8192 blocks per group, 8192 fragments per group
2040 inodes per group
Superblock backups stored on blocks:
8193, 24577, 40961, 57345, 73729
Writing inode tables: done
Creating journal (4096 blocks): done
Writing superblocks and filesystem accounting information: done
This filesystem will be automatically checked every 30 mounts or
180 days, whichever comes first. Use tune2fs -c or -i to override.
root@test:~# mkdir /mnt/raid5
root@test:~# mount /dev/md0 /mnt/raid5
root@test:~# echo "data" > /mnt/raid5/datafile
root@test:~# dd if=/dev/urandom of=/mnt/raid5/randomdata count=10000
10000+0 records in
10000+0 records out
5120000 bytes (5.1 MB) copied, 0.706526 s, 7.2 MB/s
root@test:~# sha1sum /mnt/raid5/randomdata
847685a5d42524e5b1d5484452a649e854b59064 /mnt/raid5/randomdata
승인. 파일 시스템과 일부 데이터 ( "data" datafile
, 5MB 상당의 임의의 SHA1 해시가있는 임의 데이터 randomdata
)가 있습니다. 다시 만들 때 어떤 일이 발생하는지 봅시다.
root@test:~# umount /mnt/raid5
root@test:~# mdadm --stop /dev/md0
mdadm: stopped /dev/md0
root@test:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
unused devices: <none>
root@test:~# mdadm --create /dev/md1 --chunk=512 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: /dev/sdb1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 21:07:06 2012
mdadm: /dev/sdc1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 21:07:06 2012
mdadm: /dev/sdd1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 21:07:06 2012
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
root@test:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md1 : active raid5 sdd1[2] sdc1[1] sdb1[0]
203776 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
unused devices: <none>
이 작은 디스크로 재 동기화가 매우 빠르게 완료되었지만 발생했습니다. 여기에 저를 괴롭히는 것이 있습니다. 당신의 fdisk -l
출력. md
장치 에 파티션 테이블 이없는 것은 전혀 문제가되지 않습니다. 파일 시스템은 파티션 테이블이없는 가짜 블록 장치에 직접 상주합니다.
root@test:~# fdisk -l
...
Disk /dev/md1: 208 MB, 208666624 bytes
2 heads, 4 sectors/track, 50944 cylinders, total 407552 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 524288 bytes / 1048576 bytes
Disk identifier: 0x00000000
Disk /dev/md1 doesn't contain a valid partition table
예, 파티션 테이블이 없습니다. 그러나...
root@test:~# fsck.ext4 /dev/md1
e2fsck 1.41.14 (22-Dec-2010)
/dev/md1: clean, 12/51000 files, 12085/203776 blocks
재 동기화 후 완벽하게 유효한 파일 시스템. 그래서 좋습니다. 데이터 파일을 확인합시다 :
root@test:~# mount /dev/md1 /mnt/raid5/
root@test:~# cat /mnt/raid5/datafile
data
root@test:~# sha1sum /mnt/raid5/randomdata
847685a5d42524e5b1d5484452a649e854b59064 /mnt/raid5/randomdata
견고 – 데이터 손상이 전혀 없습니다! 그러나 이것은 정확히 동일한 설정이므로 두 RAID 그룹간에 다르게 매핑 된 것은 없습니다. 우리가 그것을 깨뜨리기 전에 이것을 떨어 뜨리 자.
root@test:~# umount /mnt/raid5
root@test:~# mdadm --stop /dev/md1
물러나
이 문제를 해결하기 전에 왜 깨지기 어려운지 이야기 해 봅시다. RAID 5는 어레이의 다른 모든 디스크에있는 블록과 동일한 크기의 영역을 보호하는 패리티 블록을 사용하여 작동합니다. 패리티는 하나의 특정 디스크에만있는 것이 아니라 정상적인 작동 상태에서 디스크 전체에 읽기로드를 더 잘 분산시키기 위해 디스크를 균등하게 회전시킵니다.
패리티를 계산하는 XOR 연산은 다음과 같습니다.
DISK1 DISK2 DISK3 DISK4 PARITY
1 0 1 1 = 1
0 0 1 1 = 0
1 1 1 1 = 0
따라서 패리티는 디스크간에 분산됩니다.
DISK1 DISK2 DISK3 DISK4 DISK5
DATA DATA DATA DATA PARITY
PARITY DATA DATA DATA DATA
DATA PARITY DATA DATA DATA
재 동기는 일반적으로 사용하지 않거나 누락 된 디스크를 교체 할 때 수행됩니다. mdadm create
디스크의 데이터가 RAID의 구조와 일치하는지 확인하기 위해 수행되었습니다 . 이 경우 어레이 사양의 마지막 디스크는 '동기화'된 디스크입니다. 다른 디스크의 기존 데이터는 모두 동기화에 사용됩니다.
따라서 '새'디스크의 모든 데이터가 지워지고 다시 작성됩니다. 거기에 있었던 것에 대한 패리티 블록으로부터 새로운 데이터 블록을 구축하거나, 새로운 패리티 블록을 구축하는 것.
멋진 점은이 두 가지에 대한 절차가 동일하다는 것입니다. 나머지 디스크의 데이터에 대한 XOR 작업입니다. 이 경우의 재 동기화 프로세스는 레이아웃에서 특정 블록이 패리티 블록이어야한다는 사실을 알고있을 수 있으며 실제로는 오래된 데이터 블록을 다시 생성 할 때 새로운 패리티 블록을 구축한다고 생각합니다. 그래서 그것이 생각 하는 경우에도 :
DISK1 DISK2 DISK3 DISK4 DISK5
PARITY DATA DATA DATA DATA
DATA PARITY DATA DATA DATA
DATA DATA PARITY DATA DATA
... DISK5
위의 레이아웃에서 다시 작성 중일 수 있습니다 .
따라서 어레이가 잘못 구축 된 경우에도 데이터가 일관되게 유지 될 수 있습니다.
작품에서 원숭이 던지기
(렌치가 아니라 원숭이 전체)
시험 1 :
배열을 잘못된 순서로 만들어 보자! sdc
다음 sdd
, 다음 sdb
..
root@test:~# mdadm --create /dev/md1 --chunk=512 --level=5 --raid-devices=3 /dev/sdc1 /dev/sdd1 /dev/sdb1
mdadm: /dev/sdc1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:06:34 2012
mdadm: /dev/sdd1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:06:34 2012
mdadm: /dev/sdb1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:06:34 2012
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
root@test:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md1 : active raid5 sdb1[3] sdd1[1] sdc1[0]
203776 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
unused devices: <none>
좋아, 그게 다 잘 됐어. 파일 시스템이 있습니까?
root@test:~# fsck.ext4 /dev/md1
e2fsck 1.41.14 (22-Dec-2010)
fsck.ext4: Superblock invalid, trying backup blocks...
fsck.ext4: Bad magic number in super-block while trying to open /dev/md1
The superblock could not be read or does not describe a correct ext2
filesystem. If the device is valid and it really contains an ext2
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
e2fsck -b 8193 <device>
아니! 왜 그런가요? 데이터가 모두있는 동안 순서가 잘못 되었기 때문입니다. 한 번 512KB의 A, 그 다음 512KB의 B, A, B 등이 이제 B, A, B, A로 셔플되었습니다. 디스크는 이제 파일 시스템 검사기에서 흔들리는 것처럼 보이므로 실행되지 않습니다. 의 결과 mdadm --misc -D /dev/md1
는 우리에게 더 자세한 정보 를 제공합니다. 다음과 같이 보입니다 :
Number Major Minor RaidDevice State
0 8 33 0 active sync /dev/sdc1
1 8 49 1 active sync /dev/sdd1
3 8 17 2 active sync /dev/sdb1
다음과 같이 보일 때 :
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
3 8 49 2 active sync /dev/sdd1
그래서 그것은 모두 훌륭합니다. 이번에는 새로운 패리티 블록으로 모든 데이터 블록을 덮어 썼습니다. 올바른 순서로 다시 작성하십시오.
root@test:~# mdadm --stop /dev/md1
mdadm: stopped /dev/md1
root@test:~# mdadm --create /dev/md1 --chunk=512 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: /dev/sdb1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:11:08 2012
mdadm: /dev/sdc1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:11:08 2012
mdadm: /dev/sdd1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:11:08 2012
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
root@test:~# fsck.ext4 /dev/md1
e2fsck 1.41.14 (22-Dec-2010)
/dev/md1: clean, 12/51000 files, 12085/203776 blocks
깔끔한, 여전히 파일 시스템이 있습니다! 여전히 데이터가 있습니까?
root@test:~# mount /dev/md1 /mnt/raid5/
root@test:~# cat /mnt/raid5/datafile
data
root@test:~# sha1sum /mnt/raid5/randomdata
847685a5d42524e5b1d5484452a649e854b59064 /mnt/raid5/randomdata
성공!
시험 2
자, 청크 크기를 변경하고 그것이 우리에게 약간의 파손을 가져 오는지 봅시다.
root@test:~# umount /mnt/raid5
root@test:~# mdadm --stop /dev/md1
mdadm: stopped /dev/md1
root@test:~# mdadm --create /dev/md1 --chunk=64 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: /dev/sdb1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:21:19 2012
mdadm: /dev/sdc1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:21:19 2012
mdadm: /dev/sdd1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:21:19 2012
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
root@test:~# fsck.ext4 /dev/md1
e2fsck 1.41.14 (22-Dec-2010)
fsck.ext4: Superblock invalid, trying backup blocks...
fsck.ext4: Bad magic number in super-block while trying to open /dev/md1
The superblock could not be read or does not describe a correct ext2
filesystem. If the device is valid and it really contains an ext2
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
e2fsck -b 8193 <device>
예, 이런 식으로 설정하면 문제가 발생합니다. 그러나 우리는 회복 할 수 있습니까?
root@test:~# mdadm --stop /dev/md1
mdadm: stopped /dev/md1
root@test:~# mdadm --create /dev/md1 --chunk=512 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: /dev/sdb1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:21:51 2012
mdadm: /dev/sdc1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:21:51 2012
mdadm: /dev/sdd1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:21:51 2012
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
root@test:~# fsck.ext4 /dev/md1
e2fsck 1.41.14 (22-Dec-2010)
/dev/md1: clean, 12/51000 files, 12085/203776 blocks
root@test:~# mount /dev/md1 /mnt/raid5/
root@test:~# cat /mnt/raid5/datafile
data
root@test:~# sha1sum /mnt/raid5/randomdata
847685a5d42524e5b1d5484452a649e854b59064 /mnt/raid5/randomdata
다시 성공!
시험 3
이것은 내가 데이터를 확실히 죽일 것이라고 생각한 것입니다-다른 레이아웃 알고리즘을 수행합시다!
root@test:~# umount /mnt/raid5
root@test:~# mdadm --stop /dev/md1
mdadm: stopped /dev/md1
root@test:~# mdadm --create /dev/md1 --chunk=512 --level=5 --layout=right-asymmetric --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: /dev/sdb1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:32:34 2012
mdadm: /dev/sdc1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:32:34 2012
mdadm: /dev/sdd1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:32:34 2012
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
root@test:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md1 : active raid5 sdd1[3] sdc1[1] sdb1[0]
203776 blocks super 1.2 level 5, 512k chunk, algorithm 1 [3/3] [UUU]
unused devices: <none>
root@test:~# fsck.ext4 /dev/md1
e2fsck 1.41.14 (22-Dec-2010)
fsck.ext4: Superblock invalid, trying backup blocks...
Superblock has an invalid journal (inode 8).
무섭고 나쁜 것-그것은 무언가를 발견했다고 생각하고 약간의 수정을 원합니다! Ctrl+ C!
Clear<y>? cancelled!
fsck.ext4: Illegal inode number while checking ext3 journal for /dev/md1
좋아, 위기를 피했다. 잘못된 레이아웃으로 다시 동기화 한 후에도 데이터가 손상되지 않았는지 확인하십시오.
root@test:~# mdadm --stop /dev/md1
mdadm: stopped /dev/md1
root@test:~# mdadm --create /dev/md1 --chunk=512 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: /dev/sdb1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:33:02 2012
mdadm: /dev/sdc1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:33:02 2012
mdadm: /dev/sdd1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Sat Jan 7 23:33:02 2012
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
root@test:~# fsck.ext4 /dev/md1
e2fsck 1.41.14 (22-Dec-2010)
/dev/md1: clean, 12/51000 files, 12085/203776 blocks
root@test:~# mount /dev/md1 /mnt/raid5/
root@test:~# cat /mnt/raid5/datafile
data
root@test:~# sha1sum /mnt/raid5/randomdata
847685a5d42524e5b1d5484452a649e854b59064 /mnt/raid5/randomdata
성공!
시험 4
또한 수퍼 블록 제로화가 그렇게 빨리 해롭지 않다는 것을 증명해 보자.
root@test:~# umount /mnt/raid5
root@test:~# mdadm --stop /dev/md1
mdadm: stopped /dev/md1
root@test:~# mdadm --misc --zero-superblock /dev/sdb1 /dev/sdc1 /dev/sdd1
root@test:~# mdadm --create /dev/md1 --chunk=512 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
root@test:~# fsck.ext4 /dev/md1
e2fsck 1.41.14 (22-Dec-2010)
/dev/md1: clean, 12/51000 files, 12085/203776 blocks
root@test:~# mount /dev/md1 /mnt/raid5/
root@test:~# cat /mnt/raid5/datafile
data
root@test:~# sha1sum /mnt/raid5/randomdata
847685a5d42524e5b1d5484452a649e854b59064 /mnt/raid5/randomdata
예, 별거 아니에요
시험 5
우리가 가진 모든 것을 던져 보자. 이전의 모든 4 가지 테스트가 결합되었습니다.
- 잘못된 기기 주문
- 잘못된 청크 크기
- 잘못된 레이아웃 알고리즘
- 수퍼 블록 제로화 (두 가지 생성간에이 작업을 수행함)
앞으로!
root@test:~# umount /mnt/raid5
root@test:~# mdadm --stop /dev/md1
mdadm: stopped /dev/md1
root@test:~# mdadm --misc --zero-superblock /dev/sdb1 /dev/sdc1 /dev/sdd1
root@test:~# mdadm --create /dev/md1 --chunk=64 --level=5 --raid-devices=3 --layout=right-symmetric /dev/sdc1 /dev/sdd1 /dev/sdb1
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
root@test:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md1 : active raid5 sdb1[3] sdd1[1] sdc1[0]
204672 blocks super 1.2 level 5, 64k chunk, algorithm 3 [3/3] [UUU]
unused devices: <none>
root@test:~# fsck.ext4 /dev/md1
e2fsck 1.41.14 (22-Dec-2010)
fsck.ext4: Superblock invalid, trying backup blocks...
fsck.ext4: Bad magic number in super-block while trying to open /dev/md1
The superblock could not be read or does not describe a correct ext2
filesystem. If the device is valid and it really contains an ext2
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
e2fsck -b 8193 <device>
root@test:~# mdadm --stop /dev/md1
mdadm: stopped /dev/md1
판결?
root@test:~# mdadm --misc --zero-superblock /dev/sdb1 /dev/sdc1 /dev/sdd1
root@test:~# mdadm --create /dev/md1 --chunk=512 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
root@test:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md1 : active raid5 sdd1[3] sdc1[1] sdb1[0]
203776 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
unused devices: <none>
root@test:~# fsck.ext4 /dev/md1
e2fsck 1.41.14 (22-Dec-2010)
/dev/md1: clean, 13/51000 files, 17085/203776 blocks
root@test:~# mount /dev/md1 /mnt/raid5/
root@test:~# cat /mnt/raid5/datafile
data
root@test:~# sha1sum /mnt/raid5/randomdata
847685a5d42524e5b1d5484452a649e854b59064 /mnt/raid5/randomdata
와우.
따라서 이러한 작업 중 어떤 것도 데이터를 손상시키지 않은 것으로 보입니다. 솔직히이 결과에 놀랐습니다. 청크 크기 변경에서 중간 정도의 데이터 손실 가능성과 레이아웃 변경에서 약간의 손실이 예상되었습니다. 나는 오늘 무언가를 배웠다.
그래서 .. 어떻게 내 데이터를 얻을 수 있습니까 ??
기존 시스템에 대한 정보는 최대한 도움이 될 것입니다. 파일 시스템 유형을 알고있는 경우 /proc/mdstat
드라이브 순서, 알고리즘, 청크 크기 및 메타 데이터 버전에 대한 정보 가있는 오래된 사본이있는 경우 . mdadm의 이메일 알림이 설정되어 있습니까? 그렇다면 오래된 것을 찾으십시오. 그렇지 않은 경우 확인하십시오 /var/spool/mail/root
. ~/.bash_history
원래 빌드가 있는지 확인하십시오 .
따라서해야 할 일 목록 :
dd
무엇이든하기 전에 디스크를 백업하십시오 !!
fsck
현재 활성화 된 md를 시도하십시오 -이전과 동일한 순서로 빌드했을 수 있습니다. 파일 시스템 유형을 알고 있다면 도움이됩니다. 특정 fsck
도구를 사용하십시오. 도구 중 하나라도 문제를 해결하도록 제안한 경우 실제로 유효한 파일 시스템을 찾았는지 확실하지 않으면 도구를 사용하지 마십시오! 당신 fsck
을 위해 무언가를 고치 겠다는 제안이 있다면, 실제로 도움이되는지 아니면 데이터를 핵화하려고하는지에 대한 의견을 남기십시오.
- 다른 매개 변수로 배열을 작성하십시오. 당신이 오래된 것을 가지고 있다면, 당신은
/proc/mdstat
그것이 보여주는 것을 모방 할 수 있습니다. 그렇지 않다면, 당신은 어두움에 처해 있습니다. 다른 드라이브 주문을 모두 시도하는 것이 합리적이지만 가능한 모든 주문으로 가능한 모든 청크 크기를 확인하는 것은 쓸데없는 일입니다. 각각에 대해 fsck
유망한 것이 있는지 확인하십시오.
그게 다야. 소설에 대해 죄송합니다. 궁금한 점이 있으면 언제든지 의견을 남겨주세요.
각주 : 22,000 자 미만; 길이 제한 8k + 부끄러워