1GB 이더넷을 통한 iSCSI 및 NFS의 "좋은"속도는 무엇입니까?


9

두 개의 ZFS 파일 시스템을 공유하는 OpenSolaris 상자가 있습니다. 하나는 VMware 서버를 실행하는 CentOS 상자에 대한 NFS 연결입니다 (디스크 이미지는 ZFS에 저장 됨). 다른 하나는 ZFS 위에 NTFS 형식을 가진 Windows 2008 서버에 대한 iSCSI 연결입니다. 두 연결 모두 gig-E를 통해 직접 연결됩니다 (스위치 없음).

상자를 모니터링하기 위해 munin을 실행하고 있지만 어떤 숫자를 기대 해야하는지 잘 모르겠습니다. 아무도 튜닝을 시작할 위치와 비교하거나 제안 할 기준 번호를 줄 수 있습니까?

다음은 내가보고있는 NFS 통계입니다. 솔라리스 상자에 munin을 수정하면 iSCSI를 게시합니다.

상호 작용

nfs 클라이언트


어떤 단위를 찾고 있습니까? KBPS? IO / 초?
WerkkreW

어디서부터 시작해야할지 모르겠습니다. 나는 munin에서 얻은 통계로 게시물을 업데이트했습니다. 더 좋은 곳이 있는지 알려주세요.
Sysadminicus

답변:


12

본딩 된 GigE 및 iSCSI를 Sun X4500에서 280MB / s로 덮어 쓰는 Sun X4100을 푸시했습니다.

솔라리스에서 TCP 스택을 튜닝하기 위해 할 수있는 일이 많이 있습니다. 제 주식 조정 설정입니다. (일부 백서 모음에서 가져옴) :

$ cat /etc/rc3.d/S99ndd
#!/bin/bash

NDD=/usr/sbin/ndd

$NDD -set /dev/tcp tcp_xmit_hiwat 1048576
$NDD -set /dev/tcp tcp_recv_hiwat 8388608
$NDD -set /dev/tcp tcp_max_buf 8388608
$NDD -set /dev/udp udp_xmit_hiwat 1048576
$NDD -set /dev/udp udp_recv_hiwat 8388608
$NDD -set /dev/udp udp_max_buf 8388608
$NDD -set /dev/tcp tcp_conn_req_max_q 65536
$NDD -set /dev/tcp tcp_conn_req_max_q0 65536
$NDD -set /dev/tcp tcp_fin_wait_2_flush_interval 67500

또한 OpenSolaris 시스템을 살펴보면 fsflush 간격, 인터럽트 조정 "마법"및 소프트 링 비활성화가 변경됩니다. 다음을 / etc / system에 추가하십시오 (재부트 필요).

* "fsflush" tuning
set tune_t_fsflushr = 5
set autoup = 300
* Disable the Automatic Interrupt Adjustment
set dld:dld_opt = 2
* Disable "soft rings"
set ip:ip_squeue_fanout = 0
set ip:ip_soft_rings_cnt = 0

언급 할 가치가있는 것은 OpenSolaris가 아닌 Solaris 10에서이 작업을 수행하지만 튜너 블이 동일하게 작동해야한다고 생각합니다.

튜닝 옵션을 사용하고 처리량 테스트를 수행하는 Filebench의 팬입니다.

(최근 이름이 바뀐) OpenSolaris 2009.06 릴리스는 iSCSI 및 ZFS의 세계에서 매우 흥미로워 보입니다.

이것이 도움이되기를 바랍니다!


3

1GB 이더넷의 iSCSI를 통해 EMC AX150i 스토리지에 약 90MB / 초를 얻습니다.


1

단 하나의 dd 또는 bonnie ++ (원시 속도, 선형 쓰기)의 경우 유선 속도에 거의 가까워 야합니다.

그러나 병목 현상은 디스크 배열이 될 것입니다. 일단 여러 VM의 임의 IO로드가 전송보다 훨씬 많이 발생하기 시작합니다.

또한, 많은 양의 RAM이있는 배터리 백업 쓰기 캐시가없는 경우 다른 IO가 진행되는 동안 많은 쓰기를 시작하자마자 성능이 저하됩니다.


0

iSCSI를 통해 1GB 링크를 통해 약 200Mbit / sec로 데이터를 푸시 할 수있었습니다. 그러나 EMC CX4-240에서 호스팅하는 14 디스크 RAID 6을 사용하여 당시 캐시를 많이 사용하지 않았습니다.

가장 큰 병목 현상은 아마도 컨트롤러 캐시의 양과 디스크 속도입니다 (캐시가 가득 찼을 때).


1
12 개의 디스크를 모두 같은 컨트롤러에 배치하여 계획 단계에서 실패했습니다. 그것들을 다른 컨트롤러로 나누는 것이 우리에게는 쉬운 속도 승리라고 생각합니다.
Sysadminicus

병목 현상의 위치에 따라 다를 수 있습니다. RAID 6은 모두 단일 선반 내에 있으므로 단일 컨트롤러입니다. 그러나 그것은 꽤 고급 하드웨어에 있습니다. 병목 현상은 어디에 있습니까? 컨트롤러에 더 많은 캐시를 배치하거나 쓰기 캐시로 더 높은 캐시 비율을 할당해야 할 수도 있습니다.
mrdenny

비슷한 설정이 있습니다 (AX4-5를 사용하더라도). iSCSI를 사용하지 않지만 SAN의 두 시스템간에 암호화되지 않은 프로토콜을 사용하여 전송 속도가 매우 빠릅니다. 좋은 SAN 최적화 문서를 알고 싶습니다.
매트 시몬스

0

1G 이더넷의 ISCSI를 통해 Windows 서버에 약 80MB / S를 제공합니다. 대상 : KernSafe iStorage 서버 http://www.kernsafe.com/Product.aspx?id=5 초 기자 : Microsoft 초 기자 www.microsoft.com/downloads/details.aspx?familyid=12cb3c1a-15d6-4585-b385-befd1319f825&displaylang= en

하 디스크 : ATA 7200


0

우리가 (pro 대신) semi-pro 일의 끝에 더 가까이있는 사람들을 위해 d2012의 draytek 매니지드 스위치를 통해 팀으로 구성된 듀얼 1GB nic에서 150MB 읽기 120MB 쓰기가 RJ45 구리를 통해 20arm 파일의 단일 전송으로 일정하고 일관된 150MB 읽기 120MB 쓰기를 얻습니다. 테스트 중에는 다른 동시 작업이 없습니다. 이것을 달성하기 위해 나는 점보 프레임 9k, rx & tx 흐름, 즉 모든 정상적인 드라이버 최적화를 사용하고 있지만 물건을 켜고 점보 프레임을 최대로 올리는 것 외에 다른 조정은 없습니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.