왜 RAID / dev / md1이 / dev / md126로 표시됩니까? mdadm.conf가 무시됩니까?


26

다음을 사용하여 RAID를 만들었습니다.

sudo mdadm --create --verbose /dev/md1 --level=mirror --raid-devices=2 /dev/sdb1 /dev/sdc1
sudo mdadm --create --verbose /dev/md2 --level=mirror --raid-devices=2 /dev/sdb2 /dev/sdc2

sudo mdadm --detail --scan 보고:

ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

내가 추가 한 것은 /etc/mdadm/mdadm.conf아래를 참조하십시오.

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays

# This file was auto-generated on Mon, 29 Oct 2012 16:06:12 -0500
# by mkconf $Id$
ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

cat /proc/mdstat 보고:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md2 : active raid1 sdb2[0] sdc2[1]
      208629632 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sdb1[0] sdc1[1]
      767868736 blocks super 1.2 [2/2] [UU]

unused devices: <none>

ls -la /dev | grep md 보고:

brw-rw----   1 root disk      9,   1 Oct 30 11:06 md1
brw-rw----   1 root disk      9,   2 Oct 30 11:06 md2

그래서 나는 모든 것이 좋다고 생각하고 재부팅합니다.


재부팅 후, / dev에 / MD1 지금 은 / dev / md126 하고는 / dev / MD2 지금 은 / dev / md127 ?????

sudo mdadm --detail --scan 보고:

ARRAY /dev/md/ion:1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md/ion:2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

cat /proc/mdstat 보고:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md126 : active raid1 sdc2[1] sdb2[0]
      208629632 blocks super 1.2 [2/2] [UU]

md127 : active (auto-read-only) raid1 sdb1[0] sdc1[1]
      767868736 blocks super 1.2 [2/2] [UU]

unused devices: <none>

ls -la /dev | grep md 보고:

drwxr-xr-x   2 root root          80 Oct 30 11:18 md
brw-rw----   1 root disk      9, 126 Oct 30 11:18 md126
brw-rw----   1 root disk      9, 127 Oct 30 11:18 md127

모든 것이 잃어 버리지 않습니다.

sudo mdadm --stop /dev/md126
sudo mdadm --stop /dev/md127
sudo mdadm --assemble --verbose /dev/md1 /dev/sdb1 /dev/sdc1
sudo mdadm --assemble --verbose /dev/md2 /dev/sdb2 /dev/sdc2

모든 것을 확인하십시오.

sudo mdadm --detail --scan 보고:

ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

cat /proc/mdstat 보고:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md2 : active raid1 sdb2[0] sdc2[1]
      208629632 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sdb1[0] sdc1[1]
      767868736 blocks super 1.2 [2/2] [UU]

unused devices: <none>

ls -la /dev | grep md 보고:

brw-rw----   1 root disk      9,   1 Oct 30 11:26 md1
brw-rw----   1 root disk      9,   2 Oct 30 11:26 md2

다시 한 번, 모든 것이 좋다고 생각하고 재부팅합니다.


다시, 재부팅 / 디바이스 / IS MD1 / 디바이스 / md126 및 / 디바이스 / IS MD2 / 디바이스 / md127 ?????

sudo mdadm --detail --scan 보고:

ARRAY /dev/md/ion:1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md/ion:2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

cat /proc/mdstat 보고:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md126 : active raid1 sdc2[1] sdb2[0]
      208629632 blocks super 1.2 [2/2] [UU]

md127 : active (auto-read-only) raid1 sdb1[0] sdc1[1]
      767868736 blocks super 1.2 [2/2] [UU]

unused devices: <none>

ls -la /dev | grep md 보고:

drwxr-xr-x   2 root root          80 Oct 30 11:42 md
brw-rw----   1 root disk      9, 126 Oct 30 11:42 md126
brw-rw----   1 root disk      9, 127 Oct 30 11:42 md127

내가 여기서 무엇을 놓치고 있습니까?

답변:


26

여기에서 대답을 찾았습니다. RAID는 md0 대신 md127에서 시작 합니다. 요컨대, 나는 /etc/mdadm/mdadm.conf 정의를 다음에서 잘라 냈다 :

ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

에:

ARRAY /dev/md1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

실행 :

sudo update-initramfs -u

나는 이것에 대한 전문가와는 거리가 멀지 만 내 이해는 이것입니다 ...

커널은 어레이를 조립하기 위해 정상적인 시간 이전에 어레이를 조립했습니다. 커널이 어레이를 어셈블 할 때 mdadm.conf를 사용하지 않습니다. 파티션은 커널에 의해 이미 어셈블되었으므로 mdadm.conf를 사용하는 일반 어레이 어셈블은 생략되었습니다.

호출 sudo update-initramfs -u하면 커널이 시스템을 다시 살펴보고 시작 방법을 알아냅니다.

더 나은 지식을 가진 사람이 나를 고치거나 정교하게 만들 것이라고 확신합니다.

다음 줄을 사용하여 시스템에 존재하는 각각의 커널에 대한 initrd를 업데이트하십시오 :

sudo update-initramfs -k all -u

3
예, 실제로 이것은 커널의 initrd를 다시 만들고 MD-RAID 구성과 관련된 구성 파일을 포함합니다. 즉, 장치가 생성 될 때 커널은 설정에 따라 장치 이름을 지정하는 방법을 알게됩니다. 잘 잡았습니다. +1 ... btw :이 내용은 링크 된 포럼 주제에서도 설명합니다.
0xC0000022L

이 답변은 Arch Linux 시스템에서 느린 RAID 초기화 문제를 해결했습니다. 부팅하는 동안 RAID0 어레이를 시작하고 실행하는 데 5 초가 걸립니다. 설명 된대로 mdadm.conf를 변경하고 mkinitcpio를 실행 한 후에는 무시할만한 시간이 걸립니다!
rep_movsd

이것없이 Ubuntu 12.04 (Mint 13)를 부팅 할 수 없습니다. 루트 FS를 initramfs 쉘에서 마운트 할 수도 없었습니다. 마운트하려고하는 많은 dm-linear 오류와 'bad superblock'오류가 발생했습니다. 또한 md0 장치의 이름을 0으로 바꾸고 md1 장치의 이름을 1로 바꿨습니다. 또한 필요한지 모르겠습니다.
cmcginty

6
sudo update-initramfs -u

그 문제를 해결하는 데 필요한 전부였습니다. /etc/mdadm/mdadm.conf에서 아무것도 편집하지 않았습니다.



0

다음과 같은 방법으로 문제를 복제했습니다.

"소프트웨어 업데이터"가 패키지 (우분투베이스 포함)와 커널을 업데이트 할 것인지 물었을 때 다음과 같이 말했습니다 : 확인. 새로 설치된 커널이 현재 커널 / 시스템 설정을 사용했습니다. 그런 다음 어레이를 만들었습니다. 현재 실행중인 커널 만 업데이트되었습니다 일단 재부팅하면 새 커널은 RAID에 대해 아무것도 알지 못하고 md127 이름을 부여했습니다!

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.