여러 물리적 상품 서버에 하나의 거대한 VM을 확장 할 수 있습니까?


11

여러 물리적 상품 서버에 하나의 거대한 가상 머신을 확장 할 수 있습니까?

사용 사례는 다음과 같습니다.

  • 64GB의 RAM을 가진 32- 프로세서 db 서버를 구현해야합니다
  • 우리는 그러한 용량의 물리적 서버가 없습니다
  • 리소스가 적은 서버가 많이 있습니다.

이러한 서버를 활용하여 필요한 용량의 VM을 생성 할 수있는 기술 또는 더 나은 제품이 있습니까? 예를 들어, 각각 8GB의 RAM이있는 8 개의 물리적 4 프로세서 시스템을 64GB의 RAM이있는 하나의 32 프로세서 "논리 단위"로 결합하고이 모든 용량을 사용하는 Oracle 서버를 설정할 수 있습니까?

이 질문을 게시하기 전에 유사한 질문을 읽었지만 답변을 찾지 못했습니다.

어쩌면 누군가가 지금 우리에게 힌트를 줄 수 있습니까?


2
이것은 귀하의 질문에 대한 답변은 아니지만 소프트웨어 제한 사항을 보려는 조언이 아무도 없다는 것은 이상한 일입니다. 귀사가 중간 규모 비즈니스를위한 앱을 구축하는 경우 소프트웨어 아키텍트와 디자이너가 수십억 건의 레코드가 있거나 데이터베이스와 거대한 임시 테이블 또는 프로 시저가있는 데이터베이스에서 생각하지 않은 소프트웨어 제한 사항이라는 것이 문제인 것 같습니다. 내 용 느린 쿼리에 대한 몇 가지 자체 테스트 및 오류보고이 문제를 해결하는 방법 만들 ...는 x86에서 3.3GB 한계에 생각

답변:


7

ScaleMP의 vSMP라는 상용 제품이 있습니다 . 여러 x86 시스템을 단일 가상 인스턴스로 집계 할 수 있습니다. 나는 전에 개인적으로 이것을 시도한 적이 없지만 그들로부터 프리젠 테이션을 해 왔습니다. 올바르게 기억한다면이 기능을 사용하기위한 특정 요구 사항이 있으며 추가 하드웨어 (빠른 대기 시간이 짧은 상호 연결을위한 Infiniband)가 필요합니다. 꽤 페니도들 수 있습니다!


1
ScaleMP는 x86 환경을 에뮬레이션하지 않습니다. 가상 환경에서 Windows 또는 다른 표준 x86 OS를 실행할 수는 없습니다. 지원되는 유일한 특징은 SMP 유형 아키텍처를 기반으로하는 다양한 Linux 버전입니다. 그리고 이런 유형의 건축에는 ... 몇 가지 맛이 있습니다. 심지어 무료입니다.
TheCompWiz

OP는 다른 요구 사항에 대해 구체적이지 않았습니다. 나는 그 / 그녀의 포스트에서 수집 할 수있는 것에 대해서만 대답했다.
ryanlim

1
피가 차갑 네요 32 코어 박스 (2x 16 코어 AMD 칩과 함께 사용 가능)가 Infiniband가있는 클러스터보다 저렴할 것으로 생각되지만, 우리는갑니다. 이 솔루션은 더 자랑 할 권리를 얻습니다.
Tom O'Connor 21:53에

9

여러 개의 개별 서버가있는 단일 32- 프로세서 시스템과 정확히 동일한 기능을 수행 할 수있는 방법이 없습니다. 가장 좋은 방법은 클러스터링 또는 그리드 컴퓨팅을 보는 것입니다. 맞아, 당신은 비슷한 성능과 높은 수준의 고 가용성으로 끝날 수 있습니다. 많은 질문은 "db"유형에 따라 다릅니다. Microsoft SQL Server는 MySQL 또는 Oracle과는 크게 다르게 작동하며 확장 성도 완전히 다릅니다.

또는 ... EC2 RDS를 사용하는 것처럼 누군가가 데이터베이스를 대신 사용하도록하는 것이 좋습니다.

안타깝게도 여러 물리적 서버를 함께 결합하고 VM웨어를 때리고 단일 우버 강력한 가상 서버로 끝낼 수있는 방법이 없습니다.


TheCompWiz, 답변 주셔서 감사합니다. 대답은 내 DB 유형에 따라 다르면 Oracle 또는 Microsoft SQL Server로 설정하십시오. 이러한 수정으로 여전히 불가능합니까? 예, 우리는 EC2에 대해 알고 있지만 고객에게 제공하는 소프트웨어 제품의 문제를 테스트하려면 정확히 Oracle 또는 Microsoft SQL Server가 필요합니다.
user54614

또한 왜 vmware 만 고려해야 하는가? 우리는 다른 하이퍼 바이저를 신경 쓰지 않습니다 ...
user54614

여러 서버를 통과 할 수있는 능력은 장치 간 사용 가능한 대역폭 부족은 말할 것도없고 엄청난 물류 악몽입니다. CPU가 얼마나 빠른지 생각해보십시오. 그러면 프로세스 속도가 느려질 것입니다. 즉 CPU-> 버스-> PCI- 브리지-> 네트워크 카드-> 이더넷 케이블-> 네트워크 stack-> ... 다른 서버에 도달하기 전에도? 1 + 1을 추가하기 위해 1 초를 기다리지 않을 것입니다. 작업은 "작업"으로 할당되고 해당 작업의 모든 작업을 수행하는 계산 노드에 작업이 발행되므로 일반적으로 클러스터가이를 수행 할 수 있습니다.
TheCompWiz

... 응답을 관리 노드로 다시 보냅니다. Windows는 그렇지 않습니다. 이를 시도하는 가상 X86 환경 (또는 X86_64)을 설정하는 방법은 없습니다.
TheCompWiz

2
@ user54614-기계를 묶어서 시나리오를 복제 할 수는 없습니다. 고객과 오라클 고객 지원 부서에 문의하여 문제를 정확히 찾아 내십시오.
Chris Thorpe

-1

"TheCompWiz"가 귀하의 질문에 도움이되었습니다.

그래도 하나의 VM이 여러 물리적 호스트에 걸쳐있을 수있는 하이퍼 바이저를 구축 할 수 있으며 모든 기능이 작동하는 곳에서 해당 VM을 "정확하게"실행할 수 있다고 말하고 싶습니다.

그러나 물리적 호스트간에 실제로 고속의 고속 네트워크가 있더라도 그러한 호스트의 성능은 정말 끔찍할 것입니다. 이러한 호스트 중 하나에 맞는 작은 VM보다 훨씬 느리게 실행됩니다. 게스트 OS 및 응용 프로그램에서 수행 한 모든 단일 메모리 읽기 또는 쓰기를 가로 채서 단일 VM의 캐시 일관성 속성을 시뮬레이트해야합니다. 이로 인해 메모리 액세스 비용에 수백만이 아닌 수천이 곱해질 수 있습니다.

따라서 상용 하이퍼 바이저 공급 업체는 그러한 것을 가능하게하지 않습니다. 실험실에서 시도되었습니다. 아무도 제품을 만들어 내려고 귀찮게하지 않았습니다.

포인트를 한 번 더 강조하려면 솔루션의 클러스터링을 찾으십시오.


그러나 우리가 제공하는 소프트웨어 제품이 대부분의 고객에게는 잘 작동하지만 64GB RAM이있는 32-proc Oracle 서버에서 애플리케이션을 실행하는 대규모 고객의 환경에서는 제대로 작동하지 않는 경우. 우리는 환경에서 이러한 실패를 재현하고 싶습니다.
user54614

2
나는 당신의 소프트웨어에 대해 아무것도 모르지만 32 프로세서와 64GB RAM에서 2 프로세서와 8GB RAM에서 일어나지 않는 것은 무엇입니까? 해당 수준에서 반복적으로 잘못된 것이 있다면 Oracle / OS / driver / IO / hardware 문제입니다.
gravyface

물리적 시스템을 통과하는 하이퍼 바이저를 얻지 못할 것입니다. 그것들은 여전히 ​​머신의 물리적 코어 내에 국한되어 있습니다. 그 말은 ... 오래 전부터 고풍스러운 베헤모스와 비슷한 메인 프레임 유형 아키텍처를 구축 할 수있을 것입니다 ...하지만 x86을 실행하지 마십시오.
TheCompWiz

1
귀하의 큰 고객은 해야 그 몬스터 데이터베이스 서버의 두 번째 QA 인스턴스가 있습니다. 그들이 그것을 사용할 수 없다면, 그것은 그들의 문제입니다. 15 년 동안 IT 작업을 수행 한 결과, 소프트웨어 공급 업체가 인프라를 복제 할 것으로 기대하는 사람은 없었습니다. 특히 해당 인프라가 난해한 경우 (현재 32 코어 64GB 서버는 Dell에서 약 22K 달러에 구입할 수 있지만).
rmalayter

ScaleMP ( scalemp.com )는 어떻습니까?
user54614

-2

VMWare는 않습니다. 이를 DRS 또는 분산 자원 스케줄러라고합니다. 16 개의 서버 리소스를 결합 할 수 있습니다. 그런 다음이 총계를 하나 이상의 가상 환경에 분배 할 수 있습니다.


아니요, 이것은 DRS가하는 일이 아닙니다. DRS를 사용하면 클러스터 주변의 자동 vMotion 시스템 하나가 호스트 노드간에로드 될 수도 있습니다. 어떤 방식 으로든 단일 VM에서 여러 호스트에 액세스 할 수 없습니다.
EEAA
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.