mdadm 소프트 레이드 raid1과 multipath 속도 테스트

· 13년 전 · 1228
 
/dev/md0 raid1로 구성
/dev/md1 multipath 로 구성
 
Personalities : [raid0] [multipath] [raid1] 
md1 : active multipath xvda8[0] xvda7[1]
      104320 blocks [2/2] [UU]
      
md0 : active raid1 xvda6[1] xvda5[0]
      104320 blocks [2/2] [UU]
 
 
 
hdparm 테스트
 
raid1 
 
1차: 
 
 Timing cached reads:   18036 MB in  1.99 seconds = 9048.53 MB/sec
 Timing buffered disk reads:  100 MB in  0.79 seconds = 126.93 MB/sec
 
2차:
 
 Timing cached reads:   15768 MB in  1.99 seconds = 7906.37 MB/sec
 Timing buffered disk reads:  100 MB in  0.92 seconds = 108.52 MB/sec
 
3차:
 
 Timing cached reads:   15724 MB in  1.99 seconds = 7885.65 MB/sec
 Timing buffered disk reads:  100 MB in  0.86 seconds = 116.37 MB/sec
 
 
multipath
 
1차:
 
 Timing cached reads:   17672 MB in  1.99 seconds = 8864.20 MB/sec
 Timing buffered disk reads:  100 MB in  0.47 seconds = 212.10 MB/sec
 
2차:
 
 Timing cached reads:   16460 MB in  1.99 seconds = 8256.26 MB/sec
 Timing buffered disk reads:  100 MB in  0.40 seconds = 248.29 MB/sec
 
3차:
 
 Timing cached reads:   16076 MB in  1.99 seconds = 8062.19 MB/sec
 Timing buffered disk reads:  100 MB in  0.44 seconds = 228.45 MB/sec
 
2. 데이터 복사 속도
 
 
20M 데이터
 
raid1 
real    0m3.290s
user    0m0.004s
sys     0m0.036s
 
multipath
real    0m0.305s
user    0m0.020s
sys     0m0.040s
 
 
3. 하드 fail 테스트
 
하드 1개씩 fail 상태로 만들기
 
초기상태 
 
[root@www local]# cat /proc/mdstat 
Personalities : [raid0] [multipath] [raid1] 
md1 : active multipath xvda8[0] xvda7[1]
      104320 blocks [2/2] [UU]
      
md0 : active raid1 xvda6[1] xvda5[0]
      104320 blocks [2/2] [UU]
      
unused devices: <none>
 
 
하드1개 fail 
 
[root@www local]# mdadm /dev/md0 -f /dev/xvda5
mdadm: set /dev/xvda5 faulty in /dev/md0
 
[root@www local]# mdadm /dev/md1 -f /dev/xvda7
mdadm: set /dev/xvda7 faulty in /dev/md1
 
 
Personalities : [raid0] [multipath] [raid1] 
md1 : active multipath xvda8[0] xvda7[2](F)
      104320 blocks [2/1] [U_]
      
md0 : active raid1 xvda6[1] xvda5[2](F)
      104320 blocks [2/1] [_U]
 
 
 
용량 및 파일 갯수
 
[root@www data1]# du -sh
20M     .
[root@www data1]# find ./ -name "*" | wc -l
593
 
[root@www data2]# du -sh
20M     .
[root@www data2]# find ./ -name "*" | wc -l
593
 
 
데이터 6M 복사
 
[root@www data2]# du -sh /data1
25M     /data1
[root@www data2]# du -sh /data2
25M     /data2
 
 
문제있는 하드 hot remove
 
[root@www data2]# mdadm /dev/md0 -r /dev/xvda5
mdadm: hot removed /dev/xvda5
[root@www data2]# mdadm /dev/md1 -r /dev/xvda7
mdadm: hot removed /dev/xvda7
 
md1 : active multipath xvda8[0]
      104320 blocks [2/1] [U_]
      
md0 : active raid1 xvda6[1]
      104320 blocks [2/1] [_U]
 
 
fail 되었던 하드 다시 포맷
 
 mkfs -j /dev/xvda5
 mkfs -j /dev/xvda7
 
새하드 hot add
 
[root@www data2]# mdadm /dev/md0 -a /dev/xvda5
mdadm: added /dev/xvda5
[root@www data2]# mdadm /dev/md1 -a /dev/xvda7
mdadm: added /dev/xvda7
 
 
하드 용량 및 파일 갯수 확인
 
[root@www data2]# du -sh /data1
25M     /data1
[root@www data2]# find /data1 -name "*" | wc -l
768
[root@www data2]# du -sh /data2
25M     /data2
[root@www data2]# find /data2 -name "*" | wc -l
768
 
 
결론: 
raid1 로 했을때 보다 multipath 로 했을때 속도도 더 잘 나옴.
자료 유실 없음.
 
차이점:
 
md1 : active multipath xvda7[2](S) xvda8[0]
      104320 blocks [2/1] [U_]
      
      --->  State : clean, degraded
 
md0 : active raid1 xvda5[0] xvda6[1]
      104320 blocks [2/2] [UU]
 
 
 
/dev/md1의 상태
 
    Number   Major   Minor   RaidDevice State
       0     202        8        0      active sync   /dev/xvda8
       1       0        0        1      removed
 
       2     202        7        -      spare   /dev/xvda7
 
리부팅후 mdadm -a /dev/md1 /dev/xvda7 하면 정상 상태로 됨.
 
[root@www data2]# cat /proc/mdstat 
Personalities : [raid1] [multipath] 
md1 : active multipath xvda7[2] xvda8[0]
      104320 blocks [2/2] [UU]
      
md0 : active raid1 xvda5[0] xvda6[1]
      104320 blocks [2/2] [UU]
 
 
[root@www data2]# du -sh /data1 ; find /data1 -name "*" | wc -l
25M     /data1
768
 
[root@www data2]# du -sh /data2 ; find /data1 -name "*" | wc -l
25M     /data2
768
|
댓글을 작성하시려면 로그인이 필요합니다.

프로그램

+
제목 글쓴이 날짜 조회
13년 전 조회 2,624
13년 전 조회 1,656
13년 전 조회 2,155
13년 전 조회 1,154
13년 전 조회 1,202
13년 전 조회 1,133
13년 전 조회 1,073
13년 전 조회 1,401
13년 전 조회 1,407
13년 전 조회 1,115
13년 전 조회 1,360
13년 전 조회 1,938
13년 전 조회 1,156
13년 전 조회 1,980
13년 전 조회 1,061
13년 전 조회 1,273
13년 전 조회 1,050
13년 전 조회 1,284
13년 전 조회 1,127
13년 전 조회 1,462
13년 전 조회 1,521
13년 전 조회 1,385
13년 전 조회 3,240
13년 전 조회 1,032
13년 전 조회 1,272
13년 전 조회 1,141
13년 전 조회 1,647
13년 전 조회 1,379
13년 전 조회 2,079
13년 전 조회 2,411
13년 전 조회 1,756
13년 전 조회 3,709
13년 전 조회 1,898
13년 전 조회 1,253
13년 전 조회 2,707
13년 전 조회 3,152
13년 전 조회 974
13년 전 조회 1,091
13년 전 조회 1,010
13년 전 조회 1,096
13년 전 조회 1,013
13년 전 조회 1,240
13년 전 조회 2,480
13년 전 조회 954
13년 전 조회 962
13년 전 조회 1,100
13년 전 조회 1,049
13년 전 조회 950
13년 전 조회 1,263
13년 전 조회 1,229
13년 전 조회 963
13년 전 조회 968
13년 전 조회 2,003
13년 전 조회 1,213
13년 전 조회 1,578
13년 전 조회 908
13년 전 조회 1,546
13년 전 조회 1,061
13년 전 조회 933
13년 전 조회 1,235
13년 전 조회 2,776
13년 전 조회 1,378
13년 전 조회 2,065
13년 전 조회 928
13년 전 조회 1,007
13년 전 조회 1,244
13년 전 조회 996
13년 전 조회 1,889
13년 전 조회 900
13년 전 조회 926
13년 전 조회 1,295
13년 전 조회 1,034
13년 전 조회 945
13년 전 조회 1,083
13년 전 조회 1,123
13년 전 조회 964
13년 전 조회 2,799
13년 전 조회 1,920
13년 전 조회 1,766
13년 전 조회 987
13년 전 조회 955
13년 전 조회 1,038
13년 전 조회 1,257
13년 전 조회 1,046
13년 전 조회 1,623
13년 전 조회 1,693
13년 전 조회 1,275
13년 전 조회 1,431
13년 전 조회 2,466
13년 전 조회 2,805
13년 전 조회 6,063
13년 전 조회 957
13년 전 조회 1,420
13년 전 조회 957
13년 전 조회 1,223
13년 전 조회 1,863
13년 전 조회 1,445
13년 전 조회 1,082
13년 전 조회 1,158
13년 전 조회 1,008