최근 데이터센터의 전력 절감을 위해 가장 큰 화두는 실내 온도를 높이는 것이다. 일반적으로 대부분의 데이터센터는 20~24℃의 온도로 운영된다. 이보다 높을 경우에는 서버 등 장비의 동작에 영향을 줄 수 있다는 판단 때문이다.

실제 일부 메인프레임이나 유닉스 장비의 경우, 그 이상으로 온도가 높아지면 작동을 멈추기도 한다. 반면 최근 출시되는 대부분의 x86 서버 장비의 경우 최근 30~35°C 에서도 견딜 수 있는 것으로 알려진다.

그러나 데이터센터에는 유닉스와 같은 고가 장비와 x86 서버가 함께 운영되는 경우가 많기 때문에 실내 온도를 높이는 데에는 무리가 있다.

이같은 이유로 데이터센터는 항상 서늘한 온도를 유지하고 있다(여름에는 데이터센터로 피서간다는 우스개 소리가 나오는 이유다).

그런데 최근 30~40°C 이상의 고온에서도 데이터센터가 안전하게 구동될 수 있도록 하는 방안이 강구되고 있다.

지난 8월 KT는 자사의 천안 클라우드데이터센터(CDC) 내에 구축한 인텔과의 협력을 통해 구축한 고온환경(HTA, High Temperature Ambient) 테스트센터를 공개했다.

KT 클라우드 추진본부 인프라 담당 윤동식 상무는 “일반적으로 데이터센터 내부 온도를 1℃ 높일 때 냉방 에너지는 7%가 절감된다”며 “현재 1만 KVA 규모 천안 데이터센터 온도를 기존 22℃에서 30℃로 높일 경우, 연간 8억 5000만원의 전기 요금을 줄일 수 있다”고 밝혔다.이는 3800톤의 이산화탄소 배출량을 절감할 수 있는 효과와도 맞먹는다는 설명이다.

사용자 삽입 이미지
실제 천안 데이터센터 내에 구축한 HTA 테스트센터 규모는 크지 않았으나, 30℃ 이상의 온도로 장비들이 정상적으로 작동하고 있었다.

이는 인텔의 데이터센터 매니저 및 노드매니저 솔루션 등의 소프트웨어 적용과 전체적인 공기흐름(에어플로우)의 제어, 랙 단위의 전력 관리 및 모니터링을 통해 가능한 것이다. 또한 공기가 CPU나 메모리를 통과할 때 발열이 적게 될 수 있도록 별도로 마더보드를 설계한 서버 제품도 적용을 적용했다.

KT 측은 내년 천안클라우드데이터센터 단계별 적용을 시작으로 2014년 이후에는 KT의 모든 데이터센터에 HTA 개념을 적용한다는 방침이다. KT 전체 IDC로 HTA를 확대할 경우 연간 86억원의 비용절감 효과가 발생한다는 설명이다.

데이터센터 운영 온도도 30℃에서 향후 최대 45°C까지 높인다는 계획을 세웠다. 이렇게 되면 별도의 냉각장치 없이 100% 외부온도만으로 데이터센터를 운영할 수도 있게 된다.

인텔코리아 관계자는 “이렇게 되면 데이터센터 내에서 사우나도 할 수 있을 것”이라고 우스개 소리를 했다. 실제 인텔이 보여준 한 HTA 관련 동영상을 보면, 데이터센터 내에서 건장한 사내들이 타월 하나만 걸치고 사우나를 즐기는 모습을 표현하고 있어 웃음을 자아낸다.
2012/10/08 08:55 2012/10/08 08:55
사용자 삽입 이미지
실제 데이터센터에서 소비되는 전력 비용 중 절반 이상은 뜨거워진 실내 공기를 식히기 위한 냉각 비용으로 분석된다. 서버와 스토리지, 네트워크 등 IT장비에서 발생하는 뜨거운 공기를 식히기 위한 것.

이 때문에 대부분의 데이터센터는 이 뜨거운 공기를 효율적으로 식히기 위한 방안을 오랫동안 강구해 왔다. 서버 뒷면의 뜨거운 공기가 나오는 부분과 이를 식히기 위해 항온항습기로부터 나오는 차가운 공기를 구분하기 위한 장비배치 최적화 노력에 따라, 최근에는 차가운 공기 혹은 뜨거운 공기를 별도의 공간에 가둬서 에너지 효율을 높이는 콜드존(Cold Zone) 혹은 핫존(Hot Zone) 컨테인먼트 설비를 필수적으로 두고 있다.

이와 함께 데이터센터에서 사용되는 전체 전력의 약 20% 이상을 차지하는 무정전전원공급장치(UPS)에 대한 관심도 높아지고 있다.

UPS는 예기치 못한 정전 등 비상시에 전원을 안정적으로 공급해주는 역할을 하고 있다. 따라서 대부분의 데이터센터는 UPS를 필수적으로 배치하고 있다. 그러나 UPS를 백업하기 위한 배터리 설비 등 관련 장비의 에너지 소비는 데이터센터에 부담으로 작용하고 있다.

UPS 장비를 공급하는 슈나이더일렉트릭코리아 관계자는 “최근 UPS는 에너지 사용량 및 비용을 보고해 주는 지능적 관리 소프트웨어를 내장하고 있어, 데이터센터 관리자들이 이에 대한 전력 비용을 효과적으로 관리할 수 있다”고 설명한다.

그러나 항간에서는 UPS 자체를 없애야 한다는 의견도 제기된다. 인텔은 몇년 전부터 서버 자체에 별도의 배터리를 내장하는 ‘배터리 백업 유닛(BBU)’ 솔루션을 개발 중이다.

서버 자체에 별도의 배터리가 장착되게 되면, 별도의 UPS가 필요 없이 비슷한 효과를 누릴 수 있으면서도 이로 인한 비용을 줄일 수 있다는 것이 인텔 측의 설명이다. 이미 구글과 페이스북 등에서 이를 테스트하고 있다는 설명이다.

인텔코리아 관계자는 “BBU가 상용화되면 UPS를 없앨 수 있어 더 많은 데이터센터 공간을 확보할 수 있고, UPS 솔루션을 도입하는 것보다 비용이 5배나 저렴하다”고 강조한다.

또한 서버 사용 빈도가 낮은 특정 시간대에 CPU 클록 스피드를 낮춰 전력 사용량을 아끼는 ‘에너지 세이빙 솔루션’ 도입을 도입하는 기업도 있다. 현재 이를 도입 중인 한 IT서비스업체 관계자는 “유닉스 서버를 대상으로 실험한 결과, 장비당 전력 소모량의 약 8~13% 가량을 줄일 수 있는 것으로 나타났다”고 설명했다.

전력 절감을 위한 방안으로 컨테이너형 데이터센터 도입도 주목받고 있다. 최근 국내 IT서비스기업인 LG CNS가 올 12월에 오픈 예정인 부산 데이터센터에 IBM의 컨테이너형 데이터센터를 국내 최초로 도입해 주목받고 있다.

‘컨테이너형 데이터센터’는 화물을 싣는 컨테이너에 착안, 서버와 네트워크 등 각종 IT인프라를 이러한 형태의 박스에 집적하는 형태의 모듈형 데이터센터를 말한다. 위치나 장소 제약 없이 어디에나 설치가 가능하고 구축 시간이 적게 걸리는 것이 장점이다. 전력을 최소화할 수 있다는 것도 특징이다.

이밖에도 최근 주목받고 있는 에너지 절감 방안으로 데이터센터 자체의 운영 온도를 높이는 방법에 대한 논의도 활발하게 진행 중이다.
2012/10/08 08:54 2012/10/08 08:54
사용자 삽입 이미지

미국의 권위지인 뉴욕타임스는 최근 '미국 내 데이터센터 대부분이 엄청난 전력을 낭비하고 있으며 심각한 공해 문제를 일으키고 있다'고 보도해 주목을 끌었다.

이들이 막대한 전력을 낭비하며 유해가스를 배출하고 있다는 것이다. 실제 데이터센터 수요가 높은 인터넷 기업들이 사용하는 데이터센터 전력량은 핵발전소 30개 용량에 해당하는 300억 와트(W)를 소비하고 있는 것으로 나타났다.

그런데 이중 90%가 실제로는 사용되지 않고 있는 것으로 나타났는데, 이는 만약의 경우에 대비하기 위한 예비전력으로 사용되고 있기 때문인 것으로 분석됐다.

수요가 폭증하거나 갑작스런 정전에 대비하기 위한 것인데, 한순간이라도 장애가 발생하면 서비스에 타격을 받는 기업들의 특성에 따른 것이다.

특히 많은 기업들은 전력을 가동하기 위해 디젤 엔진을 이용하고 있으며 그 결과 공해 발생이 크다고 밝혔다. 데이터센터가 몰려있는 실리콘밸리의 많은 데이터 센터들의 경우 이미 캘리포니아 주정부의 ‘유해 대기 유발 시설(Toxic Air Contaminant Inventory)’로 등재돼 있는 것으로 전해졌다.

버지니아주에 위치한 아마존 데이터센터의 경우, 지난 3년 간 허가없이 자체 발전기를 가동하는 것을 포함해 24차례 이상 공기오염과 관련된 법규를 위반한 것으로 드러났다. 최대 규모 데이터센터를 운영하고 있는 구글과 페이스북도 각각 3억 와트와 6000만 와트의 전력을 소비하는 것으로 조사됐다.

물론 최근에는 많은 기업들이 이같은 데이터센터 전력 절감을 위한 다양한 방법을 강구하고 있다.

구글의 경우 최근 오클라호마주 데이터센터 운영에 풍력 발전으로 생산되는 전력을 사용한다고 발표했으며, 애플 또한 미국 노스캐롤라이나주 메이든에 건립 예정인 신규 데이터센터에 대형 태양광 패널과 바이오연료전지를 활용할 계획이라고 밝힌 바 있다.

국내의 경우도 이와 별반 다르지 않다. 전체 사용 전력 중 데이터센터가 소비하는 전력은 1~2%에 불과하지만, 이 수치는 계속해서 늘어나고 있어 ‘전기먹는 하마’라는 오명을 쓰고 있다.

현재 국내에는 약 70여개 이상의 데이터센터가 운영되고 있는데, 대부분이 전체 운영 비용의 절반 가량을 전기 요금으로 사용하고 있는 것으로 알려져 있다.

이 때문에 국내에서도 많은 데이터센터들이 전력 비용을 줄이기 위한 다양한 시도를 하고 있는 상황이다.

2012/10/08 08:54 2012/10/08 08:54
사용자 삽입 이미지
이스북이 스웨덴 북부에 엄청나게 큰 새로운 데이터센터를 짓는다고 합니다. 미국 이외의 지역에는 처음 짓는 데이터센터입니다.

전세계적으로 이용자가 폭발적으로 증가하면서 저장해야 할 데이터들이 늘어남에 따른 것입니다. 현재 미국 밖의 지역에서의 페이스북 이용자가
전체 이용자의 75% 이상인 8억 명에 이른다고 합니다.

이번에 페이스북이 데이터센터를 짓는 곳이 북유럽 스웨덴 북부 노르보텐주에 있는 도시 룰레오입니다.

페이스북은 왜 이곳에 데이터센터를 짓는 것일까요. 이유는 바로 룰레오 지역의 서늘한 기
후 때문입니다.

룰레오는 알래스카의 페어뱅크와 같은 위도에 위치하고 있습니다.
룰레오의 평균 기온은 화씨 27도(-2.5℃)~41도(5℃) 사이라고 합니다.

게다가 1년 중에 단 4일 정도 만이 화씨 77도, 즉 섭씨 25(℃)도를 넘는 더운 날씨(?)라고 합니다.


이에따라 페이스북의 데이터센터는 룰레오 지역의 추운 공기를 활용해 냉각에 이용할 수 있습니다. 즉, 냉각시스템을 돌리지 않고 바깥의 추운 공기(외기)를 통해 데이터센터 내의 열기를 식힐 수 있기 때문에 그만큼 냉방에 드는 비용을 절감할 수 있습니다.

최근 데이터센터의 전력 비용은 모든 사업자들에게 매우 심각한 문제로 인식되고 있습니다.

현재 전세계 데이터센터가 사용하는 전력 소비량은 전체의 약 1.5%를 차지하고 있다고 합니다.

이를 환산하면 50개 발전소와 맞먹는 양이며, 매년 2억 1000만 메트릭톤의 이산화탄소를 배출하는 셈입니다. 2억 1000만 메트릭톤의 이산화탄소는 100만대 자동차가 1년에 배출하는 양입니다.

데이터센터 전력 비용에서 가장 많은 비중을 차지하는 냉각 비용이 가장 문제입니다. 현재 냉각을 위해 데이터센터들이 사용하는 물은 양은 최대 3000억 리터에 달합니다.  이는 25만개 올림픽 사이즈 수영장 물에 해당하는 것이죠.

이를 비용으로 환산하면 1년에 전세계 데이터센터들이 소비하는 에너지는 약 270억 달러 규모에 해당합니다. 2014년엔 이 비용이 2배로 늘어날 것이라는 전망입니다.

이 때문에 데이터센터
들은 냉각을 위한 비용을 줄이려는 노력에 필사적입니다. 가장 효과적인 방법은 바로 추운 지역에 데이터센터를 짓는 것입니다. 바깥의 차가운 공기를 데이터센터 안으로 끌어들여 서버나 스토리지, 네트워크 등 IT 장비에서 발생하는 열을 식히는 방식이죠.

이때문에 비교적 추운 공기를 유지하고 있는 북유럽의 많은 나라들이 최근 데이터센터 유치를 위해  유인책을 펼치고 있다고 합니다. 스웨덴도 마찬가지입니다.

앞에서도 언급됐듯이 페이스북 데이터센터가 건립되는 룰레오의 평균 기온은 화씨 27도(-2.5℃)~41도(5℃) 사이이기 때문에 냉각을 위한 비용은 제로에 가까울 것으로 보입니다.

평균적으로 데이터센터 내부 온도는 18℃~21℃를 유지하고 있습니다. 외부 공기만으로 충분히 냉각이 가능하다면 데이터센터 전력 비용으로 들어갈 일은 거의 없을 것입니다.

또한 스웨덴은 통신인프라가 가장 잘 깔려있는 2번째 나라라고 하네요. 물론 1등은 우리나라(한국)입니다. 특히 룰레아 데이터센터는 주로 재생에너지를 사용할 예정이라고 합니다.

한편 이번 페이스북의 스웨
덴 데이터센터는 몇개의 건물로 나뉘어서 건설될 예정입니다.

시작은 2만 7000평방미터(약 8200평)에서 시작해서 2012년 말에 완공될 예정입니다. 트래픽이 늘어나게 되면 2013년 상반기에 또 하나를 더 지을 예정입니다.

지난 2월 페이스북이 발표한 오픈 컴퓨트 프로젝트를 기반으로 한 데이터센터 설계가 적용될 것으로 기대됩니다.

예전에 아이슬란드가 데이터센터의 최적지 중 하나로 꼽히고 있다는 포스팅을 한 적이 있는 참고하시기 바랍니다.(
‘열’ 받은 데이터센터, 국가 간 경쟁으로 번질까?)
2011/10/28 16:35 2011/10/28 16:35