3X500GB SATA 드라이브가있는 14.04 64 비트 데스크탑에 큰 LVM 디스크를 설정하려고했습니다. 설치 중 장치 오류로 인해 실패했습니다. 256G 이상의 드라이브가 범위의 한계라는 링크를 찾았지만 여기에 적용되는지 모르겠습니다.
또한 RAID (RAID 1 / boot 300MB, RAID 0 swap 2GB 및 / RAID 5 이외의 다른 모든 것) 설정을 시도했습니다.
$ sudo apt-get 설치 -y mdadm
Live CD "Install Ubuntu Without Install"옵션에서 MDADM을 계속 설치할 수 있습니다. 아직 운이 없다. GParted 탐지는 약간 재 태그 된 것으로 보이며 파일 시스템이 이미 제공되지 않은 경우 LVM의 일부 볼륨 또는 RAID / dev / mdX의 일부 볼륨을 선택하지 않습니다.
$ sudo mkfs.etx4 / dev / md2
또한 RAID 구성은 현재 훨씬 더 많은 과제를 안고 있습니다. MDADM이 더 이상 설치의 / target / usr / sbin 패키지 목록에 추가되지 않은 것 같습니다. 설치시 다시 부팅 할 때 설치가 시작되는 것은 큰 시련 일 것입니다. 시간이나 인내심이 없습니다. GRUB 문제로 인해 새로운 Windows 8 성능 해킹 마더 보드 (UEFI)에서 몇 시간 더 작업 한 후에도 시작되지 않았다는 것을 알았습니다.
/ (루트 파티션에 디스크를 더 추가해야 할 때까지 유비 쿼티에서 LVM을 설치하면 전체 설치가 중단 될 가능성이 매우 높아집니다. LVM 크기 조정 작업이 계속 실패하고 다시 정사각형 1로 돌아갑니다. .
14.04 서버 설치 프로그램 Partman을 사용하면 하루가 절약됩니다.
14.04 서버 설치 프로그램으로 부팅하여 아키텍처를 정확히 식별하고 MDADM을 설치했으며 grub을 3 개의 디스크에 모두 설치했으며 모든 것이 잘 작동했습니다.
디스크 3 개 (500GB SATA)
각각 3 개의 파티션. fdisk에서 모든 파티션이 Linux Raid 유형으로 설정되었습니다.
RAID 1 / boot, 300MB 파티션, RAID 0 스왑, 2GB 파티션 및 RAID 5 /, 500GB (남은 것은 무엇이든)
$ sudo fdisk -l
장치 부팅 시작 종료 블록 ID 시스템
/ dev / sda1 2048 616447 307200 83 Linux
/ dev / sda2 616448 4810751 2097152 83 Linux
/ dev / sda3 4810752 976773167 485981208 fd Linux raid 자동 감지
장치 부팅 시작 종료 블록 Id 시스템
/ dev / sdc1 * 2048 616447 307200 83 Linux
/ dev / sdc2 616448 4810751 2097152 83 Linux
/ dev / sdc3 4810752 976773167 485981208 fd Linux raid autodetect
장치 부팅 시작 끝 블록 ID 시스템
/ dev / sdb1 2048 616447 307200 83 Linux
/ dev / sdb2 616448 4810751 2097152 83 Linux
/ dev / sdb3 4810752 976773167 485981208 fd Linux raid 자동 감지
...
$ sudo ls / dev / md *
/ dev / md0 / dev / md1 / dev / md2
/ dev / md :
01 2
$ sudo mdadm -D / dev / md0
/ dev / md0 :
버전 : 1.2 제작
시간 : 수 8 월 6 일
13:03:01 2014
공격대 레벨 : raid1
배열 크기 : 306880 (299.74 MiB 314.25 MB)
사용되는 Dev 크기 : 306880 (299.74 MiB 314.25 MB)
RAID 장치 : 3
총 장치 : 3
지속성 : 수퍼 블록이 영구적입니다
Update Time : Mon Aug 11 19:51:44 2014
State : clean
활성 장치 : 3
작동 장치 : 3
실패 장치 : 0
예비 장치 : 0
Name : ubuntu:0
UUID : 03a4f230:82f50f13:13d52929:73139517
Events : 19
번호 Major Minor Raid 장치 상태 0 8 1 0 활성 동기화 / dev / sda1 1 17 1 1 활성 동기화 / dev / sdb1 2 33 3 2 활성 동기화 / dev / sdc1
$ sudo mdadm -D / dev / md1 / dev / md1 : 버전 : 1.2 제작 시간 : 수 8 월 6 일 13:03:31 2014 레이드 레벨 : raid0 어레이 크기 : 6289920 (6.00 GiB 6.44 GB) 레이드 디바이스 : 3 총 디바이스 : 3 지속성 : 수퍼 블록은 영구적입니다
업데이트 시간 : 수 8 월 6 일 13:03:31 상태 : 클린 활성 장치 : 3 작동 장치 : 3 고장난 장치 : 0 예비 장치 : 0
Chunk Size : 512K
Name : ubuntu:1
UUID : 9843bdd3:7de01b63:73593716:aa2cb882
Events : 0
번호 Major Minor Raid 장치 상태 0 8 2 0 활성 동기화 / dev / sda2 1 8 18 1 활성 동기화 / dev / sdb2 2 34 34 2 활성 동기화 / dev / sdc2
$ sudo mdadm -D / dev / md2 / dev / md2 : 버전 : 1.2 제작 시간 : 수 8 월 6 일 13:03:50 2014 공격대 레벨 : raid5 배열 크기 : 971699200 (926.68 GiB 995.02 GB) 사용되는 Dev 크기 : 485849600 (463.34 GiB 497.51 GB) RAID 장치 : 3 총 장치 : 3 지속성 : 수퍼 블록이 영구적입니다
업데이트 시간 : 월요일 8 월 11 일 19:54:49 상태 : 활성 활성 장치 : 3 작동 장치 : 3 실패한 장치 : 0 예비 장치 : 0
Layout : left-symmetric
Chunk Size : 512K
Name : ubuntu:2
UUID : 6ead2827:3ef088c5:a4f9d550:8cd86a1a
Events : 14815
번호 Major Minor Raid 장치 상태 0 8 3 0 활성 동기화 / dev / sda3 1 8 19 1 활성 동기화 / dev / sdb3 3 35 35 2 활성 동기화 / dev / sdc3
$ sudo cat / etc / fstab
'# / etc / fstab : 정적 파일 시스템 정보.'
'#'
'#'blkid '를 사용하여 장치의 보편적으로 고유 한 식별자를 인쇄하십시오
.
디스크를 추가하고 제거하더라도 작동하는 장치의 이름을 지정하는보다 강력한 방법으로 UUID =와 함께 사용할 수 있습니다 . fstab (5)를 참조하십시오. '
'#'
'#'
'# /는 설치 중에 / dev / md126에있었습니다'
UUID = 2af45208-3763-4cd2-b199-e925e316bab9 / ext4 errors = remount-ro 0 1
'# / boot는 설치 중에 / dev / md125에있었습니다 '
UUID = 954e752b-30e2-4725-821a-e143ceaa6ae5 / boot ext4 기본값은 0 2
'
UUID = fb81179a-6d2d-450d-8d19-3cb3bde4d28a 스왑 없음 sw 0 0
이제 순종처럼 달리기.
32 비트 하드웨어를 사용하는 경우 이것이 작동하지 않지만,이 시점에서 소프트 RAID는 작은 디스크의 경우 단일 디스크 LVM보다, 더 오래된 것의 경우 JBOD보다 나쁜 선택 일 수 있습니다. .
감사.
lvextend -l +100%FREE
대신에 사용 가능한 공간을 모두 사용 하도록 확장 할 수 있습니다.lvextend -L+20G