서버 실의 온도는 어느 정도입니까?


63

서버 룸에서 일할 때 매우 추웠습니다.

나는 서버의 열을 상쇄하기 위해 서버 룸이 차가워 야한다는 것을 알고 있지만 아마도 너무 차갑습니다.

서버 실을 유지하기에 적합한 온도는 얼마입니까?


1
따라 다릅니다. 많은 현대식 서버는 45 도의 섭씨 작동 온도로 완벽하게 만족합니다. USV는 나가야합니다. 배터리는 그렇지 않습니다. 그러나 서버의 경우 ... 괜찮을 수 있습니다. 오래된 기계가 그 온도에 질식했습니다.
TomTom

답변:


53

서버 실내 온도에 대한 권장 사항은 크게 다릅니다.

이 가이드 는 다음과 같이 말합니다.

일반적인 권장 사항에 따르면 10 ° C (50 ° F) 미만 또는 28 ° C (82 ° F)를 초과하지 않아야합니다. 이것은 광범위하게 보이지만 극한이며 주변 온도를 20-21 ° C (68-71 ° F) 정도 유지하는 것이 훨씬 일반적입니다. 여러 가지 이유로 이것은 때때로 큰 주문일 수 있습니다.

Slashdot에 대한토론 에는 다양한 답변이 있지만 대부분 위에서 언급 한 범위 내에 있습니다.

업데이트 : 다른 사람들이 아래에 언급했듯이 Google 은 데이터 센터에 26.7 ° C (80 ° F)를 권장합니다.

또한 ASHRAE ( 미국 난방, 냉장 및 공기 조화 엔지니어 협회 )는 최근 권장 온도 범위 를 18 ° C-27 ° C (64.4 ° F-80.6 ° F)로 업데이트했습니다.

그러나이 기사는 다시이 주제에 대한 합의가 없음을 강조합니다. 기사에서 언급했듯이 나는 그것을 강조 할 것입니다 :

... 온도 조절 장치를 높이 올리면 냉각 고장을 복구하는 데 시간이 덜 남을 수 있으며 시설의 냉각 조건을 잘 알고있는 회사에만 적합합니다.

IMO 대부분의 회사는 냉각 조건에 대해 잘 이해하지 못하므로 소규모 비즈니스 환경에서는 방을 조금 더 시원하게 운영하는 것이 더 안전합니다.

주의 : 서버, 데이터 룸에서 고려해야 할 요소는 온도, 기류 및 습도뿐 아니라 중요한 문제이기도합니다.


1
Google은 실제로 에너지 절약을 위해 최대 80 ° F까지 충돌하는 것을 권장합니다. 여기에 좋은 기사가 있습니다 : datacenterknowledge.com/archives/2008/10/14/…
gharper

1
감사합니다. 원래 답변은 일상적인 소규모 사무실 서버 룸에 적합합니다.-냉각 실패시 IMO에 더 많은 여유가 필요할 수 있습니다 (또는 기류 등에 더 중점을 둡니다)
mundeep

36
명심해야 할 중요한 점은 대부분의 회사와 마찬가지로 고가의 내결함성 서버 대신 Google이 예상되는 오류 모델로 작동한다는 점입니다. 대신 Google은 고도로 맞춤화 된 내결함성 소프트웨어를 사용합니다. Google은 서버가 정기적으로 죽을 것으로 예상합니다 (그러나 소프트웨어가 장애를 해결하기 위해). 따라서 Google 원가 계산 모델에서는 (매우 저렴한) 하드웨어 오류 증가가 에너지 절약으로 쉽게 상쇄되기 때문에 서버 룸을 80 도로 실행하는 것이 합리적 일 수 있습니다. 회사에서 전기를 절약 할 가치가있는 6,000 달러짜리 서버 몇 대가 있습니까?
David

<50 & FegF의 문제점은 무엇입니까? '익스트림'환경의 몇 가지 데이터 센터가 냉각을 위해 외부로 배출되는 것을 알고 있기 때문에 궁금합니다. 1Ghz 소비자 용 PC를 처음으로 제공했지만 Athlon 600Mhz 프로세서를 -40 & deg;
warren

10

Google의 데이터 센터 모범 사례 는 80도를 권장합니다.

차가운 통로 온도를 높이면 시설 에너지 사용이 줄어 듭니다. 70F에 차가운 통로를 달리려고하지 마십시오. 온도를 80F 이상으로 설정하십시오. 사실상 모든 장비 제조업체가이를 허용합니다.

우리는 72시에 뛰지 만, 우리 자신의 방이 기류를 염두에두고 설계되었다는 것을 다시는 정확하게 믿지 않습니다.


8

다른 사람들이 말했듯이, 70 년대 F 어딘가에 좋습니다. 그러나 랙과 랙의 하드웨어가 "호흡"할 수 있도록하는 것이 더욱 중요합니다. 랙이나 서버 섀시에 뜨거운 공기가 갇 히면 주변 온도가 낮아도 실제로 아무 효과가 없습니다.


4

서버 룸이 69 도로 설정되어 있습니다. 우리는 그 방에 서비스를 제공하는 하나의 에어컨 장치를 가지고 있으며 연중 69 도의 방을 유지하기 위해 연중 무휴로 운영됩니다.


4

내가 본 모든 서버 룸은 일반적으로 20 ° C와 25 ° C 사이이지만 경험상 하드웨어가 주어진 온도 이상의 변화에 ​​더 민감하다는 것을 알았습니다. 하드웨어가 20 ~ 25 도인데도 4-5 ° C의 충돌로 하드웨어 고장이 발생하는 경우가 종종 있습니다.

따라서 공기 흐름뿐만 아니라 안정성도 중요합니다.


4

18 ° C (65 ° F). 그것보다 약간 더 차갑지 만, 무언가가 실패하면, 그것은 우리에게 불쾌하게 뜨거워지기 전에 몇 분의 여분의 추가 반응을 제공합니다.


2

80 ° F에 대한 Google의 조언에는 예상치 못한로드 또는 에어컨 고장으로 인해 과열 된 데이터 센터를 종료하는 데 드는 비용이 거의 포함되어 있지 않습니다. 또한 중요한 구성 요소에 대한 공기 흐름을보다 효과적으로 제어합니다.


1

우리는 28C에서 알람으로 19C와 23C 사이에있는 것을 좋아합니다. 우리는 HP 블레이드 위치가 98 %이므로 특정 서버 / 인클로저가 전체 전력 소비를 낮추기 위해 '심지를 낮추십시오' 그것은 thermalogic이라고합니다).


1

내 경험상 장비에 따라 다릅니다. 한 회사에 세 개의 서버 룸이 있다는 것을 알고 있습니다. 하나는 약 80 ° F로, 다른 하나는 더 적은 서버로 약 72 ° F로, 세 번째는 두 대의 서버로 약 65 ° F로 유지되었습니다. 내가 거기에있을 때 문제가 없었지만 다른 사람들이 말했듯이 AC가 꺼지면 작은 팔꿈치 공간이 생기기 때문에 75 ° F 또는 약간 아래가 가장 좋습니다.


0

우리가 발견 한 공기 흡입구에서 30c 이상은 온도 경고 (감시)를 유발합니다. 일반적으로 25c 미만의 주위 온도를 의미합니다.

호주에서는 에머슨 (Liebert)이 21c를 표준으로 결정했으며 여기에 있었던 모든 방이 동일하게 설정되었습니다.

방이 충분히 넓거나 냉기, 블랭킹 타일 등을 보면 냉각 효율을 향상시킬 수 있습니다.


0

나는 해군에 있습니다. 우리 배에서 우리는 방을 화씨 65도 미만으로 유지했습니다. 우리는 홍해의 한가운데에 있고 120도 밖에 있습니다. 우리는 스웨터, 장갑, 코트, 피코트와 함께 우주에서 (62도) 나올 것입니다. 다른 사람들은 모두 티 셔츠를 입고 미친 듯이 땀을 흘 렸습니다.

문제는 냉각 시스템이 습도를 잘 제거하지 못한다는 것입니다. 따라서 외부의 습기가 있고 온도가 70도 이상 올라가면 우주에서 끈적 거리기 시작합니다.


6
저스틴, ServerFault에 오신 것을 환영합니다. 여기에 쓴 것은 재미있는 일화이지만 실제로 그 질문에 대한 답은 아닙니다. 답변에는 고려해야 할 사항 및 / 또는 모범 사례 권장 사항이 포함되었을 것입니다. :이 봐 가지고 할 수 있습니다 serverfault.com/questions/how-to-answer
quux

0

이 질문에 대한 단단하고 빠른 대답은 없습니다. 컴퓨터 유형과 데이터 센터 설계에 따라 다릅니다.

슬래시 도트 논의 에서 핵심 요점 중 하나는 핫스팟과 기류를 다루는 것이 실제로 어렵다는 것입니다 .

실내의 시원한 주변 온도는 실내의 수천 개의 핫스팟을 쉽게 식힐 수있는 방법입니다. 그러나 비효율적입니다. 실제로 필요한 모든 공간을 냉각시키는 데이터 센터는 서버의 뜨거운 부분 (cpus, 메모리, 스토리지, 전원 공급 장치 등) 을 냉각시키는 것 입니다. 많은 코 로케이션 시설에는 서로 다른 유형의 하드웨어 (115V 또는 208v, 우수한 디자인, 나쁜 디자인)를 가진 고객이 있습니다.

또한 데이터 센터는 정전시 버퍼 를 제공하기에 충분한 냉기를 유지해야합니다 . 시원한 공기의 버퍼는 UPS와 발전기가 덜 작동 함을 의미합니다. 데이터 센터가 한 번에 100 %의 전력을 잃어버린다고 상상해보십시오 (모든 노드가 중단되고 냉각도 중단됨). 노드에 전원이 공급되지 않을 수 있지만 하드웨어가 식는 데 시간이 걸리고 여전히 열을 방출하므로 데이터 센터가 매우 뜨거워 질 수 있습니다.

따뜻한 서버 룸이있는 조직은 종종 닫힌 캐비닛과 멋진 덕트를 사용하여 뜨거운 공기를 통해 시원한 공기를 직접 보냅니다. 특수한 전력 인프라는 전력 변환으로 인한 열을 줄이는 데 도움이 될 수 있습니다. 이렇게하면 서버 실의 주변 온도가 따뜻하더라도 노드를 충분히 식 힙니다. 이러한 조직은 일반적으로 하드웨어의 대부분 측면을 엄격하게 제어 하며 필요에 따라 전체 데이터 센터사용자 정의 할 수 있습니다 . 그들은 투자를하고 이익을 얻을 수 있습니다.


0

첫째 : 실내 온도를 어디에서 측정합니까? ;-) 랙 콜드 사이드 온도는 무엇입니까? 랙 핫 사이드는 무엇입니까? A / C 섭취 온도는 얼마입니까?

실제로 장치에 따라 다릅니다. (xbox에서 나오는 열을 느끼십시오) 열 관리는 과학이며 Look Honda (및 다른 많은 사람들)는 시원한 배기 가스를 시작합니다 .-) ...

내가 가진 데이터 보관소에 대해 알려줄 것입니다.

Equnix는 DC의 추위를 유지합니다 (exec가 여행 중일 때 좋은 '경험'을 얻습니다)

RW는 바닥에서 나오는 차가운 쌀쌀한 공기로 따뜻한 / 뜨거운 80f 정도를 유지합니다 (더 나은 방 / 금고 디자인 및 고품질 시스템 설계).

Coresite (내가 가장 가까운 곳)는 RW에 가깝지만 CR과 고객에 따라 다릅니다. 일부 CR은 70에서 80에서 일부입니다. (콜드 아일은 항상 차갑습니다)



-2

실제로 모니터링하려는 온도는 외부 주변 온도가 아닌 내부 서버 온도입니다. 서버 온도 (모든 서버에는 서버 인터페이스를 통해보고하는 내부 온도계가 있음)를보고 이에 따라 주변 온도를 조정하십시오. 이는 공기 흐름 등을 설명합니다. 백업 냉각 계획을 세우는 것이 좋습니다. 기본 냉각 시스템 오류가있는 경우 휴대용 A / C 장치도 생명을 구할 수 있습니다.


7
그것은 실제로 매우 나쁜 조언입니다. OP는 아마 그것을 보지 못할 것입니다. 그러나 실내 온도를 이슬점 이하로 식히고 모든 금속 표면에 물이 응축 될 때 주변 온도를 무시하면 모든 서버를 값 비싼 도어 스톱으로 전환 할 수 있습니다. 의도를 입증하는 것은 참으로 불가능하고 파괴적이므로 방해 행위 운영에 강력히 권장합니다.
HopelessN00b

-5

나는 19-21 좋은 온도를 발견했습니다. 구글은 서버 룸을 약간 더 높은 온도로 운영하는데, 냉각에 추가 비용을 지불하는 것보다 약간 높은 고장률이 더 우수하다는 것을 알았 기 때문이다.


9
하지마 3.5 년 후 다른 답변에는없는 내용으로 질문에 답하십시오.
HopelessN00b
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.