하나의 10 기가 포트는 하나의 10 기가 포트와 동일


17

나는 며칠 동안 나에게 이것을 요구해 왔고 여러 번 검색 한 후에도 내 머리 속에 이해가되는 이론적 인 대답조차 이해할 수없는 포괄적 인 대답을 얻을 수 없었습니다.

Mac 호스팅 솔루션을 가지고 놀고 있는데 썬더 볼트 이더넷 카드를 Mac에 추가하고 VLAN에 연결하여 DB 또는 외부 스토리지에 대한 액세스 속도를 높이기 위해 시스템에 대역폭 병목 현상을 반으로 해결할 수 있는지 궁금합니다. .

예를 들어, 두 개의 이더넷 카드를 Mac Mini에 연결하고 본드하고 2Gb / s 대역폭의 VLAN을 갖습니다.


8
N 1- 기가 포트는 1 N- 기가 포트와 동일하지 않습니다.
EEAA

1
이를 VLAN이라고 부르지 않습니다. VLAN은 다른 것을 의미합니다.
user253751

1
당신이 찾고있는 것은 링크 집계입니다. 일부 스위치는 그것을 지원합니다. 지원하는 드라이버가있는 호환 가능한 어댑터를 찾아야합니다.
기즈모

답변:


39

간단히 말해서, 그들은 다릅니다 :

  • 10GbE 인터페이스 를 사용하면 단일 연결에서도 10Gb / s의 대역폭을 얻을 수 있습니다
  • 10x 1GbE 인터페이스 (및 802.ad 프로토콜 사용)의 경우 단일 연결 / 세션은 1Gb / s로 제한됩니다. 반면에 각각 1Gb / s의 대역폭으로 10 개의 동시 세션을 제공 할 수 있습니다.

다시 말해, 본딩은 일반적으로 단일 연결 속도를 증가시키지 않습니다. 유일한 예외는 Linux 본딩 유형 0 (balance-rr)이며 라운드 로빈 방식으로 패킷을 전송하지만 상당한 단점과 제한적인 확장이 있습니다. 실용적인 예를 보려면 여기를 살펴보십시오 .


16
아니, 그것은 결합이 작동하는 방식이 아닙니다.
EEAA

2
훌륭하고 정답이지만 도움을 드리겠습니다. 이론적으로 다르고 OP가 의미 적으로 정확하지는 않지만 링크 집계 는 여전히 원래 문제인 대역폭 병목 현상에 매우 적합한 솔루션입니다.
Esa Jokinen

4
@ConstantinJacob Bonding은 일반적으로 헤더의 일부 필드를 해시하고이를 사용하여 번들에서 링크를 선택합니다. 해시되는 필드에 충분한 변형이 있으면 트래픽이 고르게 분산됩니다. 해시되는 필드가 모두 동일한 경우 번들에서 하나의 링크 만 사용됩니다. 해시에 포함되는 필드는 구현에 따라 다르지만 일반적으로 소스 / 대상 MAC / IP / 포트 및 프로토콜 번호와 같은 필드를 포함합니다.
kasperd

5
@ConstantinJacob 약간 다르게 표현되었습니다. 번들을 통해 실행되는 각 TCP 연결은 번들의 임의 링크에 할당됩니다. TCP 연결이 10 개인 경우 각각 하나의 링크를 갖도록 운이 좋을 수 있습니다. 그러나 하나 이상의 유휴 링크가있을 가능성이 훨씬 높으며 일부 TCP 연결은 링크를 공유합니다. 이는 쿠폰 수집기 문제의 경우이므로 모든 링크를 사용하기 전에 약 30 개의 TCP 연결에 도달해야하며 트래픽이 고르게되기 전에 더 많은 것을 기대해야합니다.
kasperd

8
비즈니스 관점에서 또 다른 큰 차이점이 있습니다. 첫째, 하나의 48 포트 10GbE 스위치는 여전히 10 개의 48 포트 1Gb 스위치보다 저렴합니다. 48 개의 케이블을 연결하고 관리하는 것이 480 개의 케이블보다 훨씬 쉽습니다. 서버에는 제한된 수의 카드 슬롯이 있으므로 하나의 10GbE 카드는 20Gbps, 아마도 40Gbps를 쉽게 운반 할 수 있지만 단일 1Gb 카드는 일반적으로 4Gbps 만 운반 할 수 있습니다. "대역폭 밀도"와 같은 것을 모두 부르면 10GbE의 증가 된 대역폭 밀도는 실질적인 엔지니어링 및 비용 이점을 제공합니다.
Todd Wilcox

20

x10 1gb / s 포트를 통한 10gb / s

나는 완전성을 위해서만 대답하고 두통을 덜어줍니다. 나는 20k 이상의 서버가 이와 비슷한 것을하고 있으며 그것이 나쁜 생각이라고 말할 수 있습니다. 이 방법은 나중에 운영 문제를 일으킬 수있는 많은 복잡성을 추가합니다. 우리는 이것을 서버 당 4 개의 1GB nic으로 수행했습니다. 당시에는 실제로 10gig보다 더 의미가있었습니다. 당시 10gig는 거의 이익이 거의 없었던 비용의 몇 배였습니다. 우리의 최근 데이터 센터 해고는 더 이상 그렇게하지 않습니다.

단일 LAG 파트너와 의 LACP 본드 ( 모드 4 )는 단일 10gb / s 포트와 거의 동일한 10gb / s를 제공합니다. 실제로 두 개 이상의 스위치를 사용하여 수행 할 수 있지만 MLAG를 지원해야합니다. 그렇지 않으면 하나의 스위치에만 연결해야합니다. MLAG를 지원하지 않으면 대역폭 스위치가 1 개만 제공됩니다. 다른 인터페이스는 대기 상태입니다. (스위치가 2 개인 경우 5gb / s).

단일 연결은 하나의 링크 만 사용하지만 필요한 경우 계층 7에서 필요한 곳에 트래픽을 분할하거나 MPTCP를 조사 할 수 있지만 최근 커널에서는 새로운 지원이 제공되므로 준비가되었는지 확실하지 않습니다. 프라임 타임. LFTP + SFTP와 LFTP의 미러 서브 시스템을 사용하여 데이터 동기화를 분할 할 수 있습니다. 하나의 파일을 여러 개의 스트림으로 분할 할 수도 있습니다. 비트 토렌트도 있습니다.

LACP 모니터링을 기술적으로 중단시키는 서버 측에서 eth0을 강제로 실행하지 않으면 클라이언트 관점 에서 OS 설치 프로그램을 PXE로 부팅하기 위해 이러한 포트에서 DHCP를 수행 할 수 없습니다 . 그것은 할 수 있지만 안 그것은 것입니다 당신이 인터페이스를 강제하는 경우 문제 해결을 더 어렵게 만든다.

본딩 구성에서 모든 물리적 인터페이스와 다른 고유 한 MAC 주소를 생성하거나 설정에 DHCP / PXE가 있다고 가정 할 때 PXE / DHCP 작동 방식으로 인해 경쟁 조건이 발생합니다. 온라인으로 고유 bond0 MAC을 생성하는 방법에 대한 많은 예가 온라인에 있습니다.

또한 각 서버 본드 구성에 맞는 스위치 측 구성이 필요합니다. LLDP 데몬을 설치하면 문제를 덜 해결하고 스위치에서 LLDP를 사용할 수 있습니다.

이 작업을 수행하면 라벨링 및 라벨링에 결함이 없어야합니다. 스위치 자동화는 견고해야합니다. 2 대의 서버를 혼합하는 하나의 케이블 오프셋은 매우 재미있는 문제를 유발합니다.

본딩 코드를 훌륭하게 만들고이 구성에서 DHCP를 작동시키는 방법을 알아내는 데 도움을 주신 IBM의 Jay에게 도움을 요청하십시오.


1
4x1 본드 링크가있는 20k 노드를 사용하는 위치에 대해서는 다소 궁금합니다. 이것은 lol를 설명하는 사소한 인프라입니다.
Kaithar

"이 포트에서 DHCP를 수행 할 수 없습니다"-DHCP 클라이언트 또는 서버 또는 둘 다입니까?
MSalters

클라이언트에서. 서버를 시작하면 eth0을 강제로 설정하고 eth0의 스위치 포트를 강제로 설정하거나 다른 방법을 사용하여 OS를로드해야합니다.
Aaron

1
@ Kaithar 나는 사소한 측면을 두 번째로 생각합니다. 나는 두 종류의 서버를 수용하기에는 너무 학문적 인 운동이라고 제안했다. 균일 성은 전반적인 디자인을 지배했다. 이제 모든 것이 듀얼 10gb / s로 진행 중이므로 MLAG 파트너 한 명과 함께 LACP를 수행하고 있으므로 총 20gb / s이며 더 이상 인터페이스를 강요하지 않습니다.
Aaron

0

때에 따라 다르지. 기본 트래픽 프로토콜에 다중 경로로드 밸런싱 (예 : iSCSI)이 내장되어 있으면 매우 효과적입니다. 본딩에는 다른 답변에서 이미 설명한 많은 문제가 있습니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.