IO 활용도가 낮은 시스템을 실행 중입니다.
- HP DL380G7 (24GB RAM)
- 512MB Battary Backed Write Cache를 갖춘 Smart Array p410i
- RAID10에 6 개의 SAS 10k rpm 146gb 드라이브
- 데비안 스퀴즈 리눅스, ext4 + LVM, hpacucli 설치
iostat (cciss / c0d1 = raid10 어레이, dm-7 = 60G lvm 파티션 테스트) :
장치 : rrqm / s wrqm / sr / sw / s rMB / s wMB / s avgrq-sz avgqu-sz await svctm % util cciss / c0d0 0,00 101,20 0,00 6,20 0,00 0,42 138,58 0,00 0,00 0,00 0,00 cciss / c0d1 0,00 395,20 3,20 130,20 0,18 2,05 34,29 0,04 0,26 0,16 2,08 dm-0 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 dm-2 0,00 0,00 3,20 391,00 0,18 1,53 8,87 0,04 0,11 0,05 1,84 dm-3 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 dm-4 0,00 0,00 0,00 106,80 0,00 0,42 8,00 0,00 0,00 0,00 0,00 dm-5 0,00 0,00 0,00 0,60 0,00 0,00 8,00 0,00 0,00 0,00 0,00 dm-6 0,00 0,00 0,00 2,80 0,00 0,01 8,00 0,00 0,00 0,00 0,00 dm-1 0,00 0,00 0,00 132,00 0,00 0,52 8,00 0,00 0,02 0,01 0,16 dm-7 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 dm-8 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00
hpacucli "ctrl all show config"
슬롯 0의 스마트 어레이 P410i (내장) (sn : 5001438011FF14E0) 배열 A (SAS, 사용되지 않은 공간 : 0MB) 논리 드라이브 1 (136.7GB, RAID 1, 확인) physicaldrive 1I : 1 : 1 (포트 1I : 박스 1 : 베이 1, SAS, 146GB, 확인) 물리적 드라이브 1I : 1 : 2 (포트 1I : 박스 1 : 베이 2, SAS, 146GB, 확인) 배열 B (SAS, 사용되지 않은 공간 : 0MB) 논리 드라이브 2 (410.1GB, RAID 1 + 0, 확인) 물리적 드라이브 1I : 1 : 3 (포트 1I : 박스 1 : 베이 3, SAS, 146GB, 확인) 물리적 드라이브 1I : 1 : 4 (포트 1I : 박스 1 : 베이 4, SAS, 146GB, 확인) physicaldrive 2I : 1 : 5 (포트 2I : 박스 1 : 베이 5, SAS, 146GB, 확인) physicaldrive 2I : 1 : 6 (포트 2I : 박스 1 : 베이 6, SAS, 146GB, 확인) physicaldrive 2I : 1 : 7 (포트 2I : 박스 1 : 베이 7, SAS, 146GB, 확인) physicaldrive 2I : 1 : 8 (포트 2I : 박스 1 : 베이 8, SAS, 146GB, 확인) SEP (공급 업체 ID PMCSIERA, 모델 SRC 8x6G) 250 (WWID : 5001438011FF14EF)
hpacucli "ctrl 모든 표시 상태"
슬롯 0의 스마트 어레이 P410i (내장) 컨트롤러 상태 : OK 캐시 상태 : OK 배터리 / 커패시터 상태 : 정상
Sysbench 명령
sysbench --init-rng = on --test = fileio --num-threads = 16 --file-num = 128 --file-block-size = 4K --file-total-size = 54G-파일 테스트 -mode = rndrd --file-fsync-freq = 0 --file-fsync-end = off 실행 --max-requests = 30000
Sysbench 결과
sysbench 0.4.12 : 다중 스레드 시스템 평가 벤치 마크 다음 옵션으로 테스트를 실행하십시오. 스레드 수 : 16 타이머에서 난수 생성기를 초기화합니다. 추가 파일 열기 플래그 : 0 128 개 파일, 각 432Mb 총 파일 크기 54Gb 블록 크기 4Kb 임의 IO에 대한 임의 요청 수 : 30000 랜덤 랜덤 IO 테스트의 읽기 / 쓰기 비율 : 1.50 동기식 I / O 모드 사용 랜덤 읽기 테스트 수행 스레드가 시작되었습니다! 끝난. 수행 된 작업 : 30000 읽기, 0 쓰기, 0 기타 = 30000 총계 읽기 117.19Mb 기록됨 0b 전송 된 총 117.19Mb (935.71Kb / sec) 233.93 요청 / 초 실행 테스트 실행 요약 : 총 시간 : 128.2455s 총 이벤트 수 : 30000 이벤트 실행에 걸린 총 시간 : 2051.5525 요청 당 통계 : 최소 : 0.00ms 평균 : 68.39ms 최대 : 2010.15ms 약. 95 백분위 수 : 660.40ms 스레드 공정성 : 이벤트 (avg / stddev) : 1875.0000 / 111.75 실행 시간 (avg / stddev) : 128.2220 / 0.02
테스트 중 iostat
평균 CPU : % user % nice % system % iowait % steal % idle 0,00 0,01 0,10 31,03 0,00 68,86 장치 : rrqm / s wrqm / sr / sw / s rMB / s wMB / s avgrq-sz avgqu-sz await svctm % util cciss / c0d0 0,00 0,10 0,00 0,60 0,00 0,00 9,33 0,00 0,00 0,00 0,00 cciss / c0d1 0,00 46,30 208,50 1,30 0,82 0,10 8,99 29,03 119,75 4,77 100,00 dm-0 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 dm-2 0,00 0,00 0,00 51,60 0,00 0,20 8,00 49,72 877,26 19,38 100,00 dm-3 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 dm-4 0,00 0,00 0,00 0,70 0,00 0,00 8,00 0,00 0,00 0,00 0,00 dm-5 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 dm-6 0,00 0,00 0,00 0,00 0,00 0,00 0,00 7,00 0,00 0,00 100,00 dm-1 0,00 0,00 0,00 0,00 0,00 0,00 0,00 7,00 0,00 0,00 100,00 dm-7 0,00 0,00 208,50 0,00 0,82 0,00 8,04 25,00 75,29 4,80 100,00 dm-8 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00
보니 ++ v1.96
cmd : / usr / sbin / bonnie ++ -c 16 -n 0 한 번에 바이트 쓰기 ... 완료 지능적으로 글쓰기 ... 완료 다시 쓰기 ... 완료 한 번에 바이트를 읽는 중 ... 완료 지능적으로 읽기 ... 완료 시작해 ... 완료 ... 완료 ... 완료 ... 완료 ... 완료 ... 완료 ... 버전 1.96 ------ 순차 출력 -------순차 입력--랜덤- 동시성 16 -Chr 당--블록--다시 쓰기 -Chr 당 ---- 블록--찾기- 기계 크기 K / 초 % CP K / 초 % CP K / 초 % CP K / 초 % CP K / 초 % CP / 초 % CP seo-db 48304M 819 99 188274 17 98395 8 2652 78 201280 8 265.2 1 지연 시간 14899us 726ms 15194ms 100ms 122ms 665ms 1.96,1.96, seo-db, 16,1337541936,48304M ,, 819,99,188274,17,98395,8,2652,78,201280,8,265.2,1 ,,,,,,,,,,,,,,, ,,,,, 14899us, 726ms, 15194ms, 100ms, 122ms, 665ms ,,,,,,
질문
따라서 sysbench는 초당 234 개의 임의 읽기를 표시했습니다.
400 이상일 것으로 예상됩니다.
병목 현상은 무엇입니까? LVM?
mdadm raid1 + 2x 7200rpm 드라이브가있는 다른 시스템은 초당 200 개 이상의 임의 읽기를 표시합니다.
도움을 주셔서 감사합니다!
sysbench
명령 줄로 정확히 무엇을 테스트하고 있습니까? 실제 사용 시나리오를 시뮬레이션하고 있습니까?