Ubuntu 서버 10.04를 실행하는 94.6GiB RAM이 장착 된 24 코어 시스템이 있습니다. 동일한 유형 및 양의 프로세스를 실행하는 다른 서버 (4 코어)와 달리이 상자는 % iowait가 높습니다. 두 머신은 VNX Raid 파일 서버, 24 개의 FC 머신은 4 개의 FC 카드를 통해, 다른 머신은 2 기가비트 이더넷 카드를 통해 연결됩니다. 4 코어 시스템은 현재 24 코어 시스템보다 성능이 뛰어나고 CPU 사용량이 높으며 % iowait는 낮습니다.
가동 시간 9 일 동안 % iowait는 평균 16 %이며 일반적으로 30 % 이상입니다. 대부분의 경우 CPU 사용량은 매우 낮으며 약 5 %입니다 (높은 iowait로 인해). 충분한 여유 메모리가 있습니다.
내가 이해하지 못하는 한 가지는 모든 데이터가 데이터 이동기를 직접 거치지 않고 장치 sdc를 통과하는 것처럼 보이는 이유입니다.
avg-cpu: %user %nice %system %iowait %steal %idle
6.11 0.39 0.75 16.01 0.00 76.74
Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn
sda 0.00 0.00 0.00 1232 0
sdb 0.00 0.00 0.00 2960 0
sdc 1.53 43.71 44.54 36726612 37425026
dm-0 0.43 27.69 0.32 23269498 268696
dm-1 1.00 1.86 7.74 1566234 6500432
dm-2 0.96 1.72 5.97 1442482 5014376
dm-3 0.49 9.57 0.18 8040490 153272
dm-4 0.00 0.00 0.00 1794 24
dm-5 0.00 0.00 0.00 296 0
퍼즐의 또 다른 부분은 작업이 종종 io holdup으로 인해 상호 작용할 수없는 절전 모드 (위쪽)로 들어가는 것입니다.
문제 진단을 돕기 위해 무엇을 볼 수 있습니까? 모든 데이터가 왜 / dev / sdc를 통과합니까? 그게 정상인가요?
최신 정보:
네트워크 연결 및 VNX 읽기 / 쓰기 용량이 병목 현상으로 배제되었습니다. 4 개의 본드 된 NIC (라운드 로빈)로 800MB / s의 속도에 도달 할 수 있습니다. 파이버 채널 카드는 아직 사용되지 않습니다. VNX는 IO (RAID6, 풀당 30x2TB 7.2kRPM 디스크 2 개 풀 (전체 60 디스크), 약 60 % 읽기)를 처리 할 수 있습니다.
dm 및 sdc에 대해서는 위에서 무시하십시오. 이들은 모두 내부 디스크이며 문제의 일부는 아닙니다.
우리는 nfs 마운트 나 TCP (VNX에 5 개의 마운트와 5 개의 파티션이 있음)에 문제가 있다고 생각하지만 정확히 무엇인지 모릅니다. 어떤 충고?
dm
데이터 이동기가 아니라 장치 매퍼를 나타냅니다. 이 질문은 아마도 Server Fault에서 훨씬 나을 것입니다.