Linux 소프트웨어 RAID를 새 시스템으로 어떻게 이동합니까?


20

새로운 Gentoo Linux를 설치하고 다른 머신 (오프 보드 PCI 컨트롤러에 연결된 4 개의 IDE 디스크)에서 소프트웨어 RAID 5 어레이를 갖춘 새로 구축 한 머신이 있습니다. 컨트롤러를 새 컴퓨터로 성공적으로 옮겼습니다. 드라이브는 커널에 의해 감지됩니다. mdadm --examine을 사용하여 단일 RAID 파티션이 감지되고 깨끗하며 심지어 "올바른"순서 (hde1 == drive 0, hdg1 == drive 1 등)인지 확인했습니다.

내가 액세스 할 수없는 것은 이전 컴퓨터의 원본 구성 파일입니다. 데이터를 잃지 않고이 어레이를 다시 활성화하려면 어떻게해야합니까?

답변:


20

원래 mdadm.conf 파일이 필요합니다. 그러나 가지고 있지 않은 경우 다시 만들어야합니다. 먼저, 무엇이든하기 전에, 매뉴얼 페이지를 통해 mdadm을 읽으십시오 . 왜 파악하지 못한 상황이나 명령으로 데이터를 잃을 수 있습니까?

그러나이 조언은 사용자의 책임입니다. 잘못된 명령으로 모든 데이터를 쉽게 잃을 수 있습니다. 실행하기 전에 명령의 영향을 다시 확인하십시오 . 그래서 - 나는 데이터 손실이나 취할 조치에 관련된 다른 문제에 대한 책임을지지 않습니다 퍼펙트 다 .

당신은 이것을 시도 할 수 있습니다 :

mdadm --assemble --scan --verbose /dev/md{number} /dev/{disk1} /dev/{disk2} /dev/{disk3} /dev/{disk4}

이렇게하면 ID와 함께 작업을 시작하기위한 정보가 제공됩니다. 또한 새로운 어레이 장치 / dev / md {number}를 생성 할 것입니다. 거기서 마운트를 찾을 수 있습니다. --auto옵션을 사용하지 않으면 매뉴얼 페이지 언어는 특정 상황에서 드라이브의 어레이 설정을 덮어 쓸 수 있음을 나타냅니다. 이것은 사실이 아니며 아마도 명확성을 위해 페이지를 다시 작성해야하지만 왜 그럴 가능성이 있습니까?

어레이가 올바르게 조립되고 모든 것이 "정상"인 경우 mdadm.conf를 작성하여 저장 /etc하고 부팅시 저장하십시오. 배열에있는 새 ID를 파일에 포함시켜 파일을 도와줍니다.


+1-바로! Linux 시스템간에 여러 RAID-1 및 RAID-5 세트를 이동했습니다. 확실하지 않은 한 가지는 "--auto"에 대한 정보를 볼 수있는 위치입니다. CentOS 5.1 시스템의 매뉴얼 페이지에서 "--auto"만 어레이에 대한 / dev / mdX 항목을 생성하는 것을 볼 수 있습니다. 드라이브에 쓸 것임을 나타내는 내용이 없습니다. (실제로 "--auto"가 지정되지 않은 경우 CentoS 5.1의 mdadm에서 "--auto = yes"가 기본값입니다.) "--update"는 다른 배열로 배열을 이동해야하는 경우 친구가 될 수 있습니다. 수퍼 블록에 지정된 원래의 mdX 번호.
Evan Anderson

훌륭합니다. 어레이를 성공적으로 마운트 할 수 있습니다. 유일한 문제는 재부팅 후 RAID가 나타나지 않는다는 것입니다. mdadm -Av / dev / md0을 다시 실행해야합니다. 왜 그런지 알아?
romandas

/etc/mdadm.conf 파일을 다시 작성 했습니까? 시스템은 부팅 할 때이 파일에서 배열을 찾습니다.
Avery Payne

나는했다. 차이점은 CONFIG_MD_AUTO로 커널을 다시 컴파일하는 것이 었습니다. 나는 mdadm이 대신 할 방법이 있다고 생각했기 때문에 처음에는 아니었다. 커널 코드가 mdadm을 사용하여 자동 마운트하는 것만 큼 강력하지는 않다는 것을 읽었지만 더 이상 백업 할 내용을 찾을 수 없습니다.
romandas 2016 년

2

적어도 데비안에 대한 완전한 대답을 추가하고 싶었습니다.

  • ->를 통해 RAID 관리자를 설치하십시오. sudo apt-get install mdadm
  • 다음을 통해 오래된 RAID 디스크를 검색하십시오-> sudo mdadm --assemble --scan

  • 이 시점에서 나는 BLKID레이드를 수동으로 확인 하고 마운트하여 확인 하고 싶습니다 .

    blkid mount /dev/md0 /mnt

  • ->를 통해 mdadm.conf에 정보 추가 mdadm --detail --scan >> /etc/mdadm/mdadm.conf
  • ->를 통해 initramfs 업데이트 update-initramfs -u

  • 문제 해결:

출력이 mdadm --detail --scan일치 하는지 확인하십시오./etc/mdadm/mdadm.conf

    nano /etc/mdadm/mdadm.conf

    ARRAY /dev/md/0 level=raid5 num-devices=3 metadata=00.90 UUID=a44a52e4:0211e47f:f15bce44:817d167c
  • FSTAB 예

    /dev/md0    /mnt/mdadm   ext4    defaults,nobootwait,nofail     0    2
    

/unix/23879/using-mdadm-examine-to-write-mdadm-conf/52935#52935

/ubuntu/729370/can-i-transfer-my-mdadm-software-raid-to-a-new-system-in-case-of-hardware-failur

Linux 소프트웨어 RAID를 새 시스템으로 어떻게 이동합니까?


1
mdadm -Ac partitions -m 0 /dev/md0

/ proc / partitions에 나열된 모든 파티션과 장치를 스캔하고 부 번호가 0 인 RAID 수퍼 블록이있는 모든 장치에서 / dev / md0을 어셈블하십시오.

conf가 성공적이면 --detail --scan >> /etc/mdadm/mdadm.conf를 추가하여 부팅시이를 잡을 수 있습니다

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.