데이터 센터에서 여러 VMware vSphere 5.5 및 6.0 클러스터에 대한 스토리지 백엔드를 확장하는 중입니다. 필자는 VMware 환경 (Solaris ZFS, Isilon, VNX, Linux ZFS)에서 NFS 데이터 스토어를 주로 사용 했으며 환경에 Nimble iSCSI 어레이 와 가능한 Tegile (ZFS) 하이브리드 어레이를 도입 할 수 있습니다.
현재 스토리지 솔루션은 Nexenta ZFS 및 Linux ZFS 기반 어레이이며 vSphere 호스트에 NFS 마운트를 제공합니다. 네트워킹 연결은 스토리지 헤드의 2 x 10GbE LACP 트렁크와 각 ESXi 호스트의 2 x 10GbE를 통해 제공됩니다. 스위치는 MLAG 피어 로 구성된 듀얼 Arista 7050S-52 랙 상단 장치 입니다.
vSphere 측에서는 VM 포트 그룹, NFS, vMotion 및 관리 트래픽 에 대해 2 x 10GbE 업 링크 및 NIOC (Network I / O Control) 할당 공유에서 LACP 본드로 구성된 vDS (vSphere Distributed Switch) 를 사용하고 있습니다.
이 솔루션과 디자인 방식은 수년간 훌륭하게 작동했지만 iSCSI 블록 스토리지를 추가하는 것은 큰 변화입니다. 앞으로도 NFS 인프라를 유지해야합니다.
물리적 디자인을 변경하지 않고 iSCSI를이 환경에 통합하는 방법을 알고 싶습니다. ToR 스위치의 MLAG는 나에게 매우 중요합니다.
- NFS 기반 스토리지의 경우 LACP는 경로 중복성을 제공하는 데 일반적으로 사용되는 수단입니다.
- iSCSI의 경우, LACP는 일반적으로 눈살을 찌푸리고 MPIO 다중 경로 설계가 권장되는 접근법입니다.
- 10GbE를 어느 곳에서나 사용하고 있으며 각 서버에 대한 간단한 2 포트 링크를 유지하고 싶습니다. 이는 케이블 연결 및 설계 단순화를위한 것입니다.
위의 상황에서 iSCSI 솔루션을 최대한 활용하려면 어떻게해야합니까?
- LACP를 통한 iSCSI를 구성 하시겠습니까?
- vDS에서 VMkernel iSCSI 어댑터를 생성하고 이들을 바인딩하여 업 링크를 분리하여 일종의 돌연변이 MPIO를 달성하려고합니까?
- 더 많은 네트워크 어댑터를 추가 하시겠습니까?