RAID5에서 실수로 제거한 하드 드라이브를 다시 추가하는 방법


14

RAID 5에 4 개의 2TB 하드 드라이브가 장착 된 NAS가 Ubuntu Server에 있습니다. 몇 주 전에 하드 드라이브 중 하나가 사망했지만 RAID는 작동하지만 성능이 저하되었습니다. 운 좋게도 여전히 보증이 적용되었으며 오늘 설치 한 새 하드 드라이브가 발송되었습니다. 그러나 새 하드 드라이브를 RAID에 추가하려고 할 때 재 구축되지 않았습니다. 그래서 하드 드라이브의 플러그를 뽑고 컴퓨터를 재부팅했습니다. 그러나 실수로 RAID의 OTHER 하드 드라이브 중 하나가 실패하도록 설정하고 mdadm을 사용하여 제거했습니다.

이제 RAID에 두 개의 제거 된 하드 드라이브가 있습니다. 여전히 모든 데이터가 그대로 유지되는 세 번째 하드 드라이브가 있지만 RAID 어레이에 다시 추가하는 방법을 모르므로 다시 양호한 상태로 돌아와서 계속 추가 할 수 있습니다 네 번째 하드 드라이브와 어레이를 재 구축하십시오. 우분투가 세 번째 하드 드라이브에 내 데이터가 있음을 인식하고 어레이의 일부로 다시 인식하게 할 수 있습니까?

내가 실행하려고 할 때 :

sudo mdadm --manage /dev/md127 --re-add /dev/sdd1 

그것은 말한다 :

mdadm: --re-add for /dev/sdd1 to dev/md127 is not possible

누군가가 줄 수있는 도움은 대단히 감사하겠습니다.


1
나는 그것을 악화 된 상태로 되돌릴 수 있다고 생각합니다. 설명서에서 mdadm --assemble --force 명령을 사용할 수 있었고 4 개 드라이브 중 3 개 이상이 작동하는 상황으로 되돌 렸다고 생각합니다. 미래 에이 문제를 겪는 사람은 이것이 내가 사용한 명령입니다 (3 개의 작업 드라이브가 각각 sdb1, sdc1, sdd1의 단일 파티션이있는 sdb, sdc, sdd라고 가정 함 : 코드 : sudo mdadm --assemble- 강제 / dev / md127 / dev / sdb1 / dev / sdc1 / dev / sdd1 (상황에 따라 sudo가 필요하지 않을 수 있음)
Chunky56

답변:


5

하지 --add말고 그냥해야 할 수도 있습니다 --re-add. 맨 페이지를 읽으면 --re-add이벤트 수가 나머지 장치에 가까워지면 장치를 다시 추가하는 방법에 대해 설명합니다. 당신 --examine이 이것을 찾을 수 있습니다 .

$ mdadm --examine /dev/sd[a-z]1 | egrep 'Event|/dev/sd'
mdadm: No md superblock detected on /dev/sda1.
/dev/sdb1:
         Events : 992655
/dev/sdd1:
         Events : 992655
/dev/sde1:
         Events : 992655
/dev/sdf1:
         Events : 992655
/dev/sdg1:
         Events : 158
/dev/sdh1:
         Events : 992655
/dev/sdj1:
         Events : 992655

보시다시피 내 /dev/sdh1장치가 일정 기간 동안 어레이에 있지 않았으며 --re-add작동하지 않으며 어레이를 추가하고 복구해야합니다.

당신은 mdadm --detail /dev/md126무슨 일이 일어나고 있는지 볼 때 사용할 수 있습니다. 이 작업을 수행하기 전에 이것을 실행하는 것이 좋지 않을 수도 있습니다.

$ mdadm --detail /dev/md126
/dev/md126:
        Version : 1.2
  Creation Time : Tue Jun 24 05:17:47 2014
     Raid Level : raid6
     Array Size : 14650158080 (13971.48 GiB 15001.76 GB)
  Used Dev Size : 2930031616 (2794.30 GiB 3000.35 GB)
   Raid Devices : 7
  Total Devices : 7
    Persistence : Superblock is persistent

    Update Time : Thu Nov  6 05:47:56 2014
          State : clean, degraded, recovering
 Active Devices : 6
Working Devices : 7
 Failed Devices : 0
  Spare Devices : 1

         Layout : left-symmetric
     Chunk Size : 512K

 Rebuild Status : 0% complete

           Name : omegacentauri:0  (local to host omegacentauri)
           UUID : 9fdcacc0:14f7ef3c:a6931b47:bfb8b4a1
         Events : 992656

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       49        1      active sync   /dev/sdd1
       2       8       65        2      active sync   /dev/sde1
       3       8       81        3      active sync   /dev/sdf1
       4       8       97        4      active sync   /dev/sdg1
       5       8      145        5      active sync   /dev/sdj1
       7       8      113        6      spare rebuilding   /dev/sdh1

또는 이것을 사용할 수도 있습니다 :

$ cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4]
md126 : active raid6 sdh1[7] sdg1[4] sdj1[5] sdf1[3] sdd1[1] sde1[2] sdb1[0]
      14650158080 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/6] [UUUUUU_]
      [>....................]  recovery =  0.9% (26657536/2930031616) finish=1162.5min speed=41624K/sec

md127 : active (auto-read-only) raid1 sdi[1] sdc[0]
      1465007360 blocks super 1.2 [2/2] [UU]

귀하의 손실 된 데이터에 대해서는 책임을지지 않습니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.