네트워크 세그먼트가 빠를수록 유속이 빨라지거나 대기 시간이 줄어 듭니까?


12

이것은 그 가상의 질문 중 하나입니다. 호스트 A와 호스트 B 사이에 네트워크의 더 빠른 '세그먼트'가 있는지 여부가 더 빠른 유속 또는 낮은 대기 시간으로 변환되는지 여부를 알아 내려고 노력했습니다. 컴퓨터 A와 컴퓨터 B 사이의 네트워크에있는 물리적 링크를 보여 드리겠습니다.

host A (1000Base-T NIC) -> copper 1000Base-T link -> 1G copper switch -> 
[SFP module] -> a short 10G/40G/100G fibre run -> [SFP module] ->
1G copper switch -> copper 1000Base-T link -> host B (1000Base-T NIC)

요컨대, 호스트 A에서 첫 번째 스위치로의 1G 링크가 있으며, 여기에는 SFP 모듈이 짧은 10G / 40G / 100G (실제로 중요하지는 않지만 1G보다 빠름) 파이버 실행에 연결되어 있습니다. 1G 구리를 통해 호스트 B에 연결된 다른 1G 구리 스위치의 다른 SFP 모듈

파이버가 중간에서 실행되기 때문에 두 호스트간에 트래픽이 더 빨리 흐릅니 까? 또는 두 스위치 사이의 섹션이 나머지 네트워크와 동일한 속도 인 경우 유량과 대기 시간이 동일합니까?

호스트 A와 호스트 B 사이의 대기 시간이 더 낮은 것이 합리적이지만 NIC의 수신 및 송신 속도는 유속을 제한합니다. 그렇다면, '코어'스위치와 라우터를 더 빠른 링크와 함께 연결하는 것이 합리적입니까?

답변:


13

둘 다 아닙니다. 구리 링크를 파이버 링크로 교체 하면 지연 시간이 약간 줄어들 수 있습니다 (정체되지 않은 링크 가정). "코어"링크를 더 높은 대역폭 링크로 교체 할 때 실제로 얻는 결과는 혼잡이 줄어 듭니다. 예제 scenerio에서는 양 끝에 하나의 장치 만 있기 때문에 중요하지 않습니다. 그러나 라이브 네트워크에서는 1g에서 10g 코어 링크로 이동하면 네트워크 코어 내에서 혼잡 문제를 완화 할 수 있습니다.

이제 부작용으로 대기 시간이 단축되고 트래픽 흐름이 향상 될 수 있지만 이는 혼잡이 완화되어 라우터 / 스위치가 과부하되지 않고 트래픽이 삭제 / 대기되는 것입니다.


따라서 네트워크 코어의 링크 속도를 높이면 속도가 아니라 용량이 증가합니다.
Libbux

4
기본적으로 그렇습니다. 네트워킹 용어의 "속도"는 속도가 그리 빠르지 는 않지만 링크를 통해 전송할 수있는 초당 비트 수입니다. 대기 시간 / RTT는 일반적으로 경로의 장치 수와 결합 된 총 거리의 문제입니다. 각 홉 / 장치는 약간의 대기 시간을 추가합니다. "고착도"는 기본적으로 물리와 빛의 속도에 달려 있습니다.
저스틴 시브 룩-로차

요점은 비트가 모두 같은 속도로 이동한다는 것입니다. 이것이 제가 정말로 궁금했던 것입니다.
Libbux

2
또한 당신이 금융 거래의 땅에 들어갔을 때이 모든 것이 창 밖으로 나간다고 언급 할 것입니다. 그 세계에서 RTT는 왕입니다. RTT의 마이크로 초조차도 워크 스테이션을 서버와 100 피트 더 가깝게 옮기고 광섬유 손실을 줄이는 것과 같은 모든 종류의 바보 같은 일을합니다.
저스틴 시브 룩-로차

7
신호가 100M, 1GE 또는 10GE인지 여부에 관계없이 신호가 동일한 속도로 이동하는 동안 속도가 증가함에 따라 직렬화 지연 (프레임을 와이어에 주입하는 데 걸리는 시간)이 줄어 듭니다. 즉, 1538B의 100M 직렬화 지연에서 프레임을 보내는 경우 123B는 0.123ms이고 1GE에서 해당 프레임은 이미 21km 아래에 있습니다.
ytti

6

데이터 흐름 속도는 매체의 물리학에 아무런 차이가 없습니다. 즉, 신호가 10Mbps 또는 1Gbps 링크의 일부인지에 상관없이 100 미터 구리 런의 한 쪽에서 다른쪽으로 전기 신호가 흐르는 데 동일한 시간이 걸립니다.

구리에서 섬유로 변경하면 약간의 개선이 나타날 수 있지만 실제로는 약간의 차이 만 있습니다.

현재 10Gbps를 수행 할 수있는 장비는 일반적으로 10Mbps를 수행하도록 설계된 장비보다 프레임 / 패킷을 더 잘 처리 할 수있는 다른 요인이 있습니다. 따라서 장비에 의해 추가되는 대기 시간은 잘. 그러나 이것은 전적으로 링크의 속도가 아니라 장비의 기능에 달려 있습니다.


5

이 경우 1G 엔드 투 엔드에서 10G 코어로 이동해도 큰 변화는 없습니다. 10G + 링크에서 더 빠른 시그널링 (감소 된 비트 시간)으로 인해 처리량이 조금만 증가합니다. 그러나 혼잡이 없을 경우 (읽기 : 다른 호스트) 링크를 포화시킬 수 있어야합니다.

호스트 A & B가 패킷 신호를 보내고받는 데 걸리는 시간은 변경되지 않습니다. 패킷이 스위치에서 스위치로 이동하는 데 걸리는 시간은 이론적으로 비례 적으로 빠릅니다. 그러나 이러한 속도에서 인간에게는 그 차이가 눈에 띄지 않습니다. (1500 mtu 패킷의 경우 ~ 10μs)


스위치 간의 100G 링크가 눈에 띄는 차이를 만들어 낼까요?
Libbux 2016 년

그들은 이미 그들의 로컬 링크를 포화시키는 것 이상을 할 수 있습니다. 민감한 테스트 장비를 사용하면 패킷 당 대기 시간의 변화를 측정 할 수 있지만 하나의 공연 링크가 더 빨라지지는 않습니다. :-) 즉, 실제 이점은 링크를 사용하는 호스트 A와 B 이상이있을 때 혼잡을 피하는 것입니다.
Ricky Beam

0

처리량은 Windows 크기 / RTT에 대한 것이므로 RTT를 단축하는 처리량은 처리량을 증가시킬 수 있으므로 가치가 있는지에 대해서는 다른 질문입니다. 창 크기가 클수록 RTT의 영향이 줄어 듭니다.


1
128k 윈도우의 경우 1G 엔드 투 엔드는 ~ 3.5G / s입니다. 중간에 10G 링크가 있으면 해당 숫자는 ~ 5G / s로 이동합니다. 두 숫자가 호스트 링크 속도보다 훨씬 높으므로 전혀 눈에 띄지 않습니다.
Ricky Beam

0

때에 따라 다르지.

그렇지 않으면 유휴 네트워크에서는 스위칭 장치가 "저장 및 전달"인지 "잘라 내기"인지에 따라 다릅니다. 스위칭 장치가 저장되고 전달되면 링크가 빠를수록 대기 시간이 줄어 듭니다. 그러나 컷 스루 전환을 지원하는 경우 느린 수신 링크에서 더 빠른 발신 링크로의 전환을 통해 컷 스루를 수행 할 수 없으므로 추가 대기 시간이 발생합니다. 그러나 당신이 고주파 거래 세계 또는 이와 유사한 곳에서 경기하지 않는 한 이것은 무시할 수 있습니다.

실제 네트워크에서는 코어에 더 많은 용량이 있으면 다른 사용자의 혼잡이 발생할 가능성이 줄어 듭니다. 정체는 처리량을 줄이고 대기 시간을 늘립니다. 일반적으로 코어 링크가 최종 사용자 링크보다 빠르면 어느 최종 사용자도 포화시킬 수 없습니다 (따라서 기가비트를 데스크탑에 실행중인 경우 10 기가비트 코어를 실행해야합니다).

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.