Wisdom’s Cloud

[LINUX] 19. 여러 개의 하드디스크를 하나처럼 사용하기 본문

LINUX/Beginner

[LINUX] 19. 여러 개의 하드디스크를 하나처럼 사용하기

지혜로운지혜쓰 2021. 3. 20. 00:28
RAID(Redundant Array of Inexpensive/Independent Disks)란?
  • 여러 개의 하드디스크를 하나의 하드디스크처럼 사용하는 방식으로, 비용을 절감하면서도 신뢰성을 높이며 성능까지 향상시킬 수 있다.
  • RAID의 종류는 크게 하드웨어 RAID와 소프트웨어 RAID로 나눌 수 있다.
  • 하드웨어 RAID는 하드웨어 제조업체에서 여러 개의 하드디스크를 연결한 장비를 만들어 그 자체를 공급하는 것이며, 좀 더 안정적이고 각 제조업체에서 기술 지원을 받을 수 있기 때문에 많이 선호하는 방법이다. 최근에는 저렴한 가격의 제품도 출시되고 있지만, 안정적이고 성능이 좋은 제품은 고가다. 대게 고가의 경우 SA-SCSI 하드디스크를, 중저가는 SATA 하드디스크를 사용해 만들어지며, 각 제조업체에 따라 조작 방법이 다를 수 있다.
  • 소프트웨어 RAID는 고가 하드웨어 RAID이 대안으로, 하스디스크만 여러 개 있으면 운영체제에서 지원하는 방식으로 RAID를 구성하는 방법을 말한다. 하드웨어 RAID와 비교하면 신뢰성이나 속도 등이 떨어질 수 있지만, 아주 저렴한 비용으로 좀 더 안전하게 데이터를 저장할 수 있다는 점에서 적극 고려해볼 수 있는 방식이다.

 

 

[출처 : https://slidesplayer.org/slide/11281091/]

RAID 레벨
  • RAID는 기본적으로 구성 방식에 따라 Linear RAID, RAID 0, RAID 1, RAID 2, RAID3, RAID4, RAID5의 일곱 가지로 분류할 수 있다.
  • 실무에서 주로 사용하는 방식은 Linear RAID, RAID 0, RAID 1, RAID 5와 RAID 5의 변형인 RAID 6, 그리고 RAID 1과 0의 혼합인 RAID 1+0 등이다.
  • 단순 볼륨과 많이 쓰이는 RAID 방식인 Linear RAID, RAID 0 , RAID 1, RAID 5, RAID 6를 비교하면 그림과 같다.

 

 

단순 볼륨
  • 하드디스크 하나를 볼륨(묶음) 하나로 사용하는 방법이며 RAID 방식에는 포함되지 않는다.

 

 

Linear RAID
  • 2개 이상의 하드디스크를 1개의 볼륨으로 사용하며, 파일이 저장되는 방식은 앞 하드디스크에 데이터가 완전히 저장된 후 다음 하드디스크에 데이터를 저장한다.
  • 즉, 앞 하드디스크에 데이터가 완전히 저장되지 않으면 다음 하드디스크는 전혀 사용되지 않기 때문에 각 하드디스크의 용량이 달라도 전체 용량을 문제 없이 사용할 수 있어 공간 효율성이 100%다.

 

 

RAID 0
  • Linear RAID 방식과 마찬가지로 2개 이상의 하드디스크를 1개의 볼륨으로 사용하지만, 모든 하드디스크를 동시에 사용하며, 이렇게 여러 개의 하드디스크에 동시에 저장되는 방식을 'Stripping' 방식이라고 부른다.
  • 따라서 저장되는 시간 또는 속도 면에서 RAID 방식 중 성능이 가장 뛰어나다고 할 수 있으며, 하드디스크 개수가 가진 총 용량을 모두 사용하므로 공간 효율이 아주 좋다.
  • 하지만 여러 개의 하드디스크 중 하나라도 고장난다면 모든 데이터를 잃어버리게 된다. 그러므로 RAID 0 방식을 사용하는 데이터는 '빠른 성능을 요구하되, 전부 잃어버려도 큰 문제가 되지 않는 자료'를 저장하는 데 적절한 방식이라고 생각할 수 있다.

 

 

RAID 1
  • 2개의 하드디스크를 1개의 볼륨으로 사용하여 똑같은 데이터의 거울을 만들어놓는 'Mirroring' 방식으로, 비용이 많이 들더라도 중요도가 높은 데이터들을 저장할 때 사용한다.
  • 똑같은 데이터를 2번 저장하므로 2배의 시간이 걸린다고 생각할 수 있지만, 똑같은 데이터가 다른 하드디스크에 동시에 저장되는 것이므로 저장 속도는 빠르지도 느리지도 않다.
  • 따라서 2개의 하드디스크 중 하나가 고장 나도 데이터가 손상되지 않으며, 이것을 '결함 허용을 제공한다'라고 표현한다.
  • 하지만 실제 계획보다 2배 큰 저장 공간이 필요하다. 즉, 총 2TB 중 1TB에 저장된 내용만 사용하므로 공간 효율이 50% 밖에 되지 않으며, 이를 '공간 효율이 떨어진다'라고 표현한다.

 

 

RAID 5
  • RAID 1처럼 데이터의 안전성이 어느 정도 보장되면서 RAID 0처럼 공간 효율성도 좋은 방식을 요구하게 되었는데, 이를 어느 정도 포용하는 방식이 바로 RAID 5다.
  • 최소한 3개 이상의 하드디스크가 있어야 구성할 수 있으며, 대부분 5개 이상의 하드디스크로 구성하고, 하드디스크에 오류가 발생하면 패리티를 이용해서 데이터를 복구할 수 있다.
  • 따라서 짝수 패리티를 사용하기 때문에 여러 개의 하드디스크 중 1개가 고장 나도 원래의 데이터를 추출할 수 있으며, 하드디스크의 개수를 N개라고 하면 패리티로 사용하는 용량을 제외한 N-1개만큼의 공간을 사용할 수 있으므로 저장 공간의 효율을 높일 수 있다.

 

 

RAID 6
  • RAID 5 방식이 개선된 것으로, RAID 5는 1개의 패리티를 사용하지만 RAID 6은 2개의 패리티를 사용하여 2개의 하드디스크가 동시에 고장나도 데이터에는 이상이 없도록 한다.
  • 따라서 공간 효율이 RAID 5보다 약간 낮지만, 데이터의 신뢰도는 더욱 높아지는 효과를 갖는다.
  • 또한 RAID 5는 패리티를 1개만 생성하면 되지만, RAID 6은 패리티를 2개를 생성해야 하므로 내부적인 쓰기 알고리즘이 복잡해져 RAID 5와 비교했을 때 성능(속도)이 약간 떨어진다.

 

 

RAID 1+0
  • RAID 1로 구성한 데이터를 다시 RAID 0으로 구성하는 방법으로, 신뢰성(안전성)과 성능(속도)을 동시에 확보할 수 있다.
  • 따라서 전체 글자 12글자(12바이트)를 저장하는 데 각 하드디스크당 6글자만 저장하면 되므로 총 6초밖에 걸리지 않으며, 각각 하드디스크가 1개씩 고장 나도 데이터는 안전하므로 신뢰성까지 얻을 수 있다.

 

 

[실습 1] RAID를 실습하기 위해 9개의 하드디스크를 장착한 가장머신 환경을 만들자.

  step 0 Server를 초기화하자.

 

  step 1 다음의 표와 같이 하드디스크 9개를 추가하자.

장치 이름 하드디스크 크기 파일 이름 비고
SCSI 0:1 2GB disk0-1.vmdk Linear RAID
SCSI 0:2 1GB disk0-2.vmdk
SCSI 0:3 1GB disk0-3.vmdk RAID 0
SCSI 0:4 1GB disk0-4.vmdk
SCSI 0:5 1GB disk0-5.vmdk RAID 1
SCSI 0:6 1GB disk0-6.vmdk
SCSI 0:7 사용할 수 없음(VMware에서 예약되어 있음)
SCSI 0:8 1GB disk0-8.vmdk RAID 5
SCSI 0:9 1GB disk0-9.vmdk
SCSI 0:10
1GB disk0-10.vmdk

1. Server 가상머신의 설정에 들어간 후 [Add...] 버튼을 클릭한다. 그리고 표와 같이 하드디스크 9개를 추가한 후 [OK] 버튼을 클릭한다.

 

  step 2 9개의 하드디스크 모두를 RAID용 파티션으로 만들자.

1. 부팅하고 root 사용자로 접속한 후 터미널을 연다. VMware 오른쪽 위 아이콘에 지금 장착한 9개의 하드디스크를 합한 총 10개의 하드디스크가 보일 것이다.
2. 터미널에 "ls -l /dev/sd*" 명령을 입력해 조금 전 장착한 SCSI 장치가 /dev 디렉터리에 있는지 확인한다.
3. "fdisk /dev/sdb" 명령을 입력해 /dev/sdb 장치에 /dev/sdb1 파티션을 생성한다. 그리고 계속 "fdisk /dev/sdc"부터 "fdisk /dev/sdj" 명령까지 입력해 나머지 하드디스크 8개의 파티션을 생성한다.

# fdisk /dev/sdb     → SCSI 0:1 하드디스크 선택
Command : n     → 새로운 파티션 분할
Select : p     → Primary 파티션 선택
Partition number : 1     → 파티션 번호 1번 선택
First sector : Enter    → 시작 섹터 번호
Last sector : Enter    → 마지막 섹터 번호
Command : t     → 파일 시스템 유형 선택
Hex Code : fd     → 'Linux raid autodetect' 유형 번호(L을 입력하면 전체 유형이 출력됨)
Command : p     → 설정 내용 확인
Command : w     → 설정 저장

 

4. 9개의 하드디스크 파티션이 모두 만들어졌으면 "ls /dev/sd*" 명령을 입력해 확인한다.

 

  step 3 지금까지 설정한 내용을 스냅숏으로 저장하자.

1. "halt -p" 명령으로 VMware Player를 종료한다. 그리고 VMware Workstation Pro를 실행해서 Server 가상머신을 열고 '9개의 하드디스크 파티션 완료'라는 이름으로 현재 상태를 스냅숏한 후 VMware Workstation Pro를 종료한다.

 

 

[실습 2] Linear RAID를 구성해 보자. (/dev/sdb와 /dev/sdc로 구성)

  step 1 실제 RAID를 구성하자.

1. 부팅하고 root로 접속한 후 /dev/sdb1과 /dev/sdc1을 Linear RAID 장치인 /dev/md9로 생성하고, 잘 생성되었는지 확인한다.
2. "mkfs.ext4 /dev/md9" 명령을 입력해 /dev/md9 파티션 장치의 파일 시스템을 생성한다. 즉, 포맷하는 과정이다.
3. "mkdir /raidLinear" 명령을 입력해 마운트할 디렉터리를 생성하고, "mount /dev/md9 /raidLinear" 명령을 입력해 마운트 시킨다. 그리고 "df" 명령을 입력해서 확인한다.

* /dev/sdb는 2GB, /dev/sdc는 1GB 용량이므로

Linear RAID는 2개의 하드디스크 용량을 모두 사용하기 때문에 3GB 정도가 나오는 것을 확인할 수 있다. *

 

4. 컴퓨터를 켤 때 언제든지 /dev/md9 장치가 /raidLinear 디렉터리에 마운트되어 있도록 설정하기 위해 /etc/fstab 파일을 vi 에디터로 열어서 다음을 추가하고 저장한다.
5. "mdadm --detail /dev/md9" 명령을 입력해 구축한 Linear RAID를 자세히 확인할 수 있다.

 

 

[실습 3] RAID 0을 구성해 보자. (/dev/sdd와 /dev/sde로 구성)

  step 1 실제 RAID를 구성하자.

1. 이어서 /dev/sdd1과 /dev/sde1을 RAID 0 장치인 /dev/md0으로 생성하고, 잘 생성되었는지 확인한다.
2. "mkfs.ext4 /dev/md0" 명령을 입력해 /dev/md0 파티션 장치의 파일 시스템을 생성한다.
3. "mkdir /raid0" 명령을 입력해 마운트할 디렉터리를 생성하고, "mount /dev/md0 /raid0" 명령을 입력해 마운트 시킨다. 그리고 "df" 명령을 입력해서 확인한다.

* /dev/md0 장치는 RAID 0이므로 하드디스크 용량을 모두 사용한다.

따라서 /dev/sdd의 1GB와 /dev/sde의 1GB를 합한 약 2GB의 용량이 나오는 것을 확인할 수 있다.*

 

4. /etc/fstab 파일을 vi 에디터로 열어서 다음을 추가하고 저장한다.
5. "mdadm --detail /dev/md0" 명령을 입력해 구축한 RAID 0를 자세히 확인한다.

 

 

[실습 4] RAID 1을 구성해 보자. (/dev/sdf와 /dev/sdg로 구성)

  step 1 실제 RAID를 구성하자.

1. 이어서 /dev/sdf1과 /dev/sdg1을 RAID 1 장치인 /dev/md1으로 생성하고, 잘 생성되었는지 확인한다.

* RADI 1 생성 시 나오는 경고 메시지는 부팅 장치로 사용할 수 없다는 경고다.

지금 만드는 RAID 1은 부팅 장치로 사용할 일이 없으므로 관계 없다. *

 

2. "mkfs.ext4 /dev/md1" 명령을 입력해 /dev/md1 파티션 장치의 파일 시스템을 생성한다.
3. "mkdir /raid1" 명령을 입력해 마운트할 디렉터리를 생성하고, "mount /dev/md1 /raid1" 명령을 입력해 마운트 시킨다. 그리고 "df" 명령을 입력해서 확인한다.

* RAID 1은 동일한 데이터를 2회 저장하므로

실제 가용 용량은 2GB의 절반인 1GB 정도가 나오는 것을 확인할 수 있다. *

 

4. /etc/fstab 파일을 vi 에디터로 열어서 다음을 추가하고 저장한다.
5. "mdadm --detail /dev/md1" 명령을 입력해 구축한 RAID 1를 자세히 확인한다.

 

 

[실습 5] RAID 5를 구성해 보자. (/dev/sdh와 /dev/sdi, /dev/sdj로 구성)

  step 1 실제 RAID를 구성하자.

1. 이어서 /dev/sdh1, /dev/sdi1, /dev/sdj1을 RAID 5 장치인 /dev/md5으로 생성하고, 잘 생성되었는지 확인한다.
2. "mkfs.ext4 /dev/md5" 명령을 입력해 /dev/md5 파티션 장치의 파일 시스템을 생성한다.
3. "mkdir /raid5" 명령을 입력해 마운트할 디렉터리를 생성하고, "mount /dev/md5 /raid5" 명령을 입력해 마운트 시킨다. 그리고 "df" 명령을 입력해서 확인한다.

* RAID 5는 '하드디스크 개수-1'만큼의 용량을 사용할 수 있다.

따라서 3개를 설치했으므로 2개의 용량인 2GB만 사용할 수 있다. *

 

4. /etc/fstab 파일을 vi 에디터로 열어서 다음을 추가하고 저장한다.
5. "mdadm --detail /dev/md5" 명령을 입력해 구축한 RAID 5를 자세히 확인한다.

 

  step 2 지금까지 설정한 내용을 스냅숏으로 저장하자.

1. "halt -p" 명령으로 VMware Player를 종료한다. 그리고 VMware Workstation Pro를 실행해서 Server 가상머신을 열고 'RAID 5까지 구성 완료'라는 이름으로 현재 상태를 스냅숏한 후 VMware Workstation Pro를 종료한다.

 

 

[실습 6] Linear RAID, RAID 0, 1, 5의 하드디스크가 고장 난 상황을 살펴보고, 정상적으로 부팅이 가능하도록 하자.

  step 1 정상적으로 작동하는 RAID에 적당한 파일을 복사해놓자.

1. /raidLinaer, /raid0, /raid1, /raid5 디렉터리에 아무 파일이나 testFile이라는 이름으로 복사해 넣는다. 그리고 "halt -p" 명령을 입력해 종료한다.

 

  step 2 4개의 하드디스크를 고장 내자.

1. Server 가상머신의 설정에 들어간 후 [Hard Disk 3 (SCSI 0:2)], [Hard Disk 5 (SCSI 0:4)], [Hard Disk 7 (SCSI 0:6)], [Hard Disk 9 (SCSI 0:9)]를 선택하고 [Remove] 버튼을 클릭해서 하드디스크 4개를 제거한다. 그리고 [OK] 버튼을 클릭한다.

 

  step 3 다시 부팅하자.

1. 부팅하면 하드디스크가 6개만 남아 있는 것을 확인할 수 있다.
2. 잠시 기다리면 정상적으로 부팅되지 않고 RAID로 구성된 하드디스크가 고장 났기 때문에 응급 모드로 접속된다. 일단 접속하기 위해 root 사용자의 비밀번호를 입력한다.
3. 먼저 "ls -l /dev/sd*" 명령을 입력해 장치 이름을 확인해 보면 /dev/sdb~/dev/sdj까지 9개였던 것이 /dev/sdb~/dev/sdf까지 5개만 남아 있는 것을 알 수 있다.
4. "df" 명령을 입력해서 확인하면 기존의 /raidLinear, /raid0 디렉터리는 보이지 않고 결함 허용을 하는 /raid1, /raid5만 보인다.
5. "ls -l /raid1 /raid5" 명령을 입력해 RAID 1 및 RAID 5에 저장했던 파일을 확인해 보면 잘 있는 것을 알 수 있다.
6. "mdadm --detail /dev/md1" 명령을 입력해 RAID 1 장치가 어떻게 작동하는지 상세히 확인한다.
7. 마찬가지로 "mdadm --detail /dev/md5" 명령을 입력해 RAID 5 장치도 확인한다.
8. "mdadm --run /dev/md9" 명령을 입력해 Linear RAID 장치를, "mdadm --run /dev/md0" 명령을 입력해 RAID 0 장치를 다시 가동시켜 보면 작동 자체를 하지 않는 것을 확인할 수 있다.

 

  stpe 4 Linear RAID와 RAID 0 장치를 중지시키고, /etc/fstab에서도 제거하자.

1. "mdadm --stop /dev/md9" 명령과 "mdadm --stop /dev/md0" 명령을 입력해 Linear RAID, RAID 0을 중지한다.
2. vi 에디터로 /etc/fstab을 열어서 /dev/md9와 /dev/md0 두 행 앞에 주석을 붙인 후 저장하고 종료한다.
3. "reboot" 명령을 입력해 재부팅하면 정상적으로 X 윈도로 부팅된다.

 

 

[실습 7] Linear RAID, RAID 0, 1, 5 장치의 고장난 하드디스크를 새로운 하드디스크로 교체하자.

  step 1 고장 난 장치를 새로운 하드디스크로 교체하자. (단, 가상머신이 꺼진 상태여야 한다.)

장치명 하드디스크 크기 파일명 비고
SCSI 0:2 1GB newDisk0-2.vmdk Linear RAID
SCSI 0:4 1GB newDisk0-4.vmdk RAID 0
SCSI 0:6 1GB newDisk0-6.vmdk RAID 1
SCSI 0:9 1GB newDisk0-9.vmdk RAID 5

1. Server 가상머신의 설정에 들어간 후 [Add...] 버튼을 클릭한다. 그리고 표와 같이 하드디스크 4개를 추가한 후 [OK] 버튼을 클릭한다.

 

  step 2 새로 장착한 하드디스크를 이용해서 Linear RAID, RAID 0, 1, 5를 복구하자.

1. 우선 새로운 하드디스크 /dev/sdc(SCSI 0:2)의 파일 시스템을 만든다. 그리고 같은 방법으로 하드디스크 /dev/sde(SCSI 0:4), /dev/sdg(SCSI 0:6), /dev/sdi(SCSI 0:9)의 파일 시스템을 만든다.
2. 모든 파티션이 작성되었는지 확인한다.
3. "mdadm --stop /dev/md9" 명령을 입력해 Linear RAID 장치를 중지하고, "mdadm --create /dev/md9 --level=linear --raid-devices=2 /dev/sdb1 /dev/sdc1" 명령을 입력해 다시 구성한다.
4. 마찬가지로 "mdadm --stop /dev/md0" 명령을 입력해 RAID 0 장치를 중지하고, "mdadm --create /dev/md0 --level=0 --raid-devices=2 /dev/sdd1 /dev/sde1" 명령을 입력해 다시 구성한다.
5. RAID 1은 잘 작동하고 있기 때문에 새로운 하드디스크만 추가하는 명령인 "mdadm /dev/md1 --add /dev/sdg1" 명령을 입력해 재구성한다.
6. "mdadm /dev/md5 --add /dev/sdi1" 명령을 입력해서 마찬가지로 RAID 5를 재구성한다.
7. vi 에디터로 /etc/fstab을 열어 앞에서 주석 표시했던 /dev/md9과 /dev/md0의 주석을 제거하고 "reboot" 명령을 입력해 재부팅한다.
8. ls 명령으로 /raid0 디렉터리를 확인하면 당연히 testFile이 보이지 않아야 한다.

* 만약 raid0에 파일이 보인다면 이 파일은 정상 파일이 아닌 50%만 정상인 파일이다.

파일 크기가 기존과 동일해도 실제 내용의 50%는 비었다고 보면 된다.

그러므로 RAID 0을 복구한 후에는 mkfs 명령으로 깨끗하게 포맷하는 것이 좋다. *

 

9. /raidLinear 디렉터리를 확인해 보면 기존의 testFile이 보일 것이다. 즉 복구되었다.

* 이것은 운 좋게 복구된 것뿐이다.

처음에 2GB(SCSI 0:1)와 1GB(SCSI 0:2)를 사용했고, 데이터가 얼마 저장되지 않은 상태에서 1GB가 고장났기 때문이다.

즉 데이터는 모두 2GB에만 있었기 때문에 지금과 같이 복구된 것뿐이다.

Linear RAID 역시 RAID 0과 같이 결함 허용 기능이 없으므로 지금과 같이 운 좋은 경우를 기대해서는 안 된다. *

 

 

[실습 8] RAID 6과 RAID 1+0을 구성해 보자.

  step 0 Server를 초기화하자.

 

  step 1 하드디스크 8개를 준비하자.

1. 1GB SCSI 하드디스크 8개를 장착한다. 즉 [SCSI 0:1](/dev/sdb)~[SCSI 0:9](/dev/sdi)까지 추가한다.
2. 8개의 하드디스크(sdb~sdi) 각각에 "fdisk /dev/하드디스크이름" 명령을 입력해 RAID용 파티션을 생성한다.

 

  step 2 /dev/sdb1~/dev/sde1을 RAID 6 장치인 /dev/md6로 생성하자.

1. "mdadm --create /dev/md6 --level=6 --raid-device=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1" 명령을 입력해 RAID 6을 만든다. 그리고 "mdadm --detail /dev/md6" 명령을 입력해서 만들어진 RAID 6 구성을 확인한다.
2. "mkfs.ext4 /dev/md6" 명령을 입력해 /dev/md6 파티션을 포맷한다.
3. "mkdir /raid6" 명령을 입력해서 마운트할 디렉터리를 생성하고, "mount /dev/md6 /raid6" 명령을 입력해서 마운트시킨 후 "df" 명령으로 확인한다.

* RAID 6은 '하드디스크개수-2'만큼의 용량을 사용할 수 있기 때문에

결과를 보면 /raid6 디렉터리에 약 2GB 정도의 공간이 있는 것을 확인할 수 있다. *

 

  step 3 /dev/sdf1~/dev/sdi1을 RAID 1+0 장치인 /dev/md10으로 생성하자.

1. 먼저 "mdadm --create /dev/md2 --level=1 --raid-device=2 /dev/sdf1 /dev/sdg1" 명령을 입력해 /dev/sdf와 /dev/sdg를 /dev/md2에 RAID 1로 구성한다. 그리고 /dev/sdh와 /dev/sdi도 "mdadm --create /dev/md3 --level=1 --raid-device=2 /dev/sdh1 /dev/sdi1" 명령을 입력해 /dev/md3에 RAID 1로 구성한다.
2. 이번에는 "mdadm --create /dev/md10 --level=0 --raid-devices=2 /dev/md2 /dev/md3" 명령을 입력해 두 개의 RAID 1 장치를 RAID 0으로 묶는다.
3. 이제 "mkfs.ext4 /dev/md10" 명령을 입력해 /dev/md10 파티션을 포맷한다.
4. "mkdir /raid6" 명령을 입력해서 마운트할 디렉터리를 생성하고, "mount /dev/md10 /raid10" 명령을 입력해서 마운트시킨 후 "df" 명령으로 확인한다.

* RAID 1+0은 RAID1과 마찬가지로 공간 효율이 '하드디스크개수/2'가 되기 때문에

결과를 보면 /raid10 디렉터리에 약 2GB 정도의 공간이 있는 것을 확인할 수 있다. *

 

  step 4 RAID 6와 RAID 1+0 장치에 적당한 파일을 복사하자.

1. "cp /boot/vmlinuz-4* /raid6/testFile" 명령과 "cp /boot/vmlinuz-4* /raid10/testFile" 명령을 입력해 RAID 6과 RAID 1+0 장치에 적당한 파일을 복사한다.

 

  step 5 /dev/md6 장치는 /raid6 디렉터리에, /dev/md10 장치는 /raid10 디렉터리에 마운트되어 있도록 설정하자.

1. /etc/fstab 파일을 vi 에디터로 열고, 맨 아랫부분에 다음 2줄을 추가한다. 그리고 "halt -p" 명령을 입력해 시스템을 종료한다.

 

 

[실습 9] RAID 6와 RAID 1+0의 결함 허용을 확인하자.

  step 1 Server가 종료된 상태에서 4개의 하드디스크를 고장 내자.

1. 장치 중 [Hark Disk 3 (SCSI 0:2)], [Hark Disk 5 (SCSI 0:4)], [Hark Disk 7 (SCSI 0:6)], [Hark Disk 8 (SCSI 0:8)]을 제거한다.

 

  step 2 파일이 정상적으로 있는지 확인해 보자.

1. 부팅해서 데이터를 확인한다. 현재 각 RAID의 하드디스크가 2개씩 모두 고장난 상태지만 데이터는 안전하다.
2. "mdadm --detail /dev/md6" 명령을 입력해 RAID 6 장치의 구성을 확인하면 4개 중 2개의 장치만 작동 중인 것을 알 수 있다.
3. 마찬가지로 RAID 1 장치인 /dev/md2, /dev/md3도 역시 1개씩만 작동하고 있다.