사용자 삽입 이미지
사용자 삽입 이미지
샤넬과 데이터센터.

전혀 안 어울리는 두 단어가 합쳐지는 광경을 최근 봤습니다. 전세계 여성들에게 사랑받는 명품 브랜드 ‘샤넬’이 최근 개최한 2017 S/S(봄/여름) 파리패션위크 샤넬 컬렉션쇼에서 데이터센터를 주제로 한 옷과 가방, 액세서리 등을 선보인 것인데요. 페이스북을 달군 이번 패션쇼의 키워드도 #DataCenterChanel입니다.

샤넬 디자이너의 눈에는 데이터센터 내 직사각형의 각종 장비와 케이블 스위치의 알록달록함이 미래지향적이고 혁신적인 영감으로 떠올랐나 봅니다. 파리 그랑팔레에 꾸며진 무대, 이른바 ‘샤넬 데이터센터’는 마치 구글의 데이터센터를 그대로 옮겨온 듯 했습니다.
사용자 삽입 이미지

사용자 삽입 이미지
샤넬의 시그니처 아이템인 트위드 소재의 자켓과 모자, 가방 등에 입혀진 알록달록한 격자무늬는 마치 데이터센터의 그것을 옮겨온 듯한 느낌입니다. 데이터센터 모형 앞에서 포즈를 취한 모델들이라니! 너무 생소하네요.

패션쇼에 참석한 셀레브리티들은 (당연히) 한번도 데이터센터에 가본 적도, 이 용어를 들어본적도없겠지만, 이번 패션쇼로 데이터센터가 (대충) 뭐하는 곳인지 확실히 알았겠군요.
사용자 삽입 이미지
사용자 삽입 이미지

사용자 삽입 이미지

사용자 삽입 이미지
패션계의 '교황'으로 불리는 샤넬의 수석 디자이너 칼 라거펠트와 미래 지향적인 컨셉의 데이터센터 복장을 한 모델들이 기념 사진을 찍고 있네요.

좀 더 많은 내용을 보고 싶으시면 여기를 클릭해주세요!
2016/10/07 01:48 2016/10/07 01:48

사용자 삽입 이미지
서버와 스토리지, 네트워크 등 ICT 장비와 UPS, 항온항습기 등의 기반시설을 건물·공간에 중앙 집중식으로 집적시켜 IT서비스 제공에 필요한 장비를 통합 관리 및 운영하는 시설을 ‘데이터센터(IDC)’라고 말한다.

각 기업이 개별 전산실에서 운영하던 장비를 IDC의 상면이나 네트워크를 빌려 사용하는 개념이어서 쉽게는 ‘서버 호텔’이라고도 불린다. IDC는 365일 24시간 운영돼야 하는 공간이다. IDC에 문제가 생기는 순간 은행 거래나 온라인 쇼핑, 카카오톡과 같이 우리가 늘 사용하던 서비스도 사용할 수 없게 되는 상황에 맞딱뜨린다.

실제 지난 2014년 삼성SDS는 과천 데이터센터에 화재가 발생하면서 삼성카드 결제 중단, 삼성그룹 관계사 홈페이지 정지 등의 피해가 발생하며 서비스를 재개하는데 며칠이 걸렸다. 특히 데이터센터 복구, 고객사 보상 등을 위한 상당한 경제적 손실이 발생했다. 최근에도 경주 지진의 여파로 카카오톡에 장애가 발생하며 많은 사람들이 불편을 겪었다.

데이터센터의 가용성이 점차 중요해지는 가운데, 최근 몇 년 사이 데이터센터 앞에 ‘클라우드’가 붙기 시작하면서, ‘클라우드 데이터센터’라는 새로운 개념이 생겨나기 시작했다. 클라우드 데이터센터를 정의하자면, 기존 데이터센터가 기술의 발전에 따라 유연성, 고밀도, 관리 최적화라는 특징을 갖고 클라우드 서비스 제공에 최적화된 형태를 뜻한다.

흔히 클라우드 데이터센터는 에너지 효율이 높은 구조와 설비를 갖고 있으며, 비즈니스 환경에 따라 신속하게 IT자원을 확장할 수 있다. 또한 보통 랙당 10~15kW 이상의 고밀도 환경과 IT 및 시설운영 전반에 걸친 통합관리가 가능한 것이 특징이다. 데이터센터와 클라우드 데이터센터를 명확하기 나누기는 힘들지만, 최근 대부분의 데이터센터는 신기술 적용 등을 통해 클라우드 데이터센터로 진화하는 과정에 있다.

실제 클라우드 서비스에 대한 수요가 늘면서 글로벌 데이터센터 시장은 2016년부터 2020년까지 매년 12% 늘어날 것이라는 시장조사기관의 연구 결과도 있다. 또한 지난 2013년 1250억달러 규모였지만 2018년이면 2000억달러 규모로 증가할 것이라고 가트너는 전망하고 있다. 히 빅데이터 분석, 사물인터넷(IoT), 인공지능(AI)와 같은 신성장산업이 클라우드 인프라를 기반으로 구동되면서 이 규모는 더욱 커질 것이라는 분석이다. 아태지역의 경우, 북미나 유럽·중동·아프리카에 비해 데이터센터 자체 비중은 작지만, 성장률은 가장 빨라(17%) 오는 2020년 200억달러 규모에 이를 것으로 전망된다.

특히 클라우드 컴퓨팅은 많은 양의 데이터를 발생시키고 데이터센터 간 전송시키게 될 것으로 예상된다. 2018년 전세계 데이터센터 트래픽은 8.6제타바이트(ZB)로 지금보다 약 3배 증가, 이 중 76%가 클라우드 트래픽에서 발생할 것이라는 전망도 제기되고 있다.
사용자 삽입 이미지


이에 따라 많은 기업들이 데이터센터 확장 및 투자에 집중하고 있는 상황이다. 예를 들어 마이크로소프트(MS)의 경우, 신규 데이터센터 구축에 약 5000억원 정도를 사용하고 있는 것으로 전해진다. 현재 짓는 데이터센터는 대부분 클라우드 서비스를 위한 용도다. MS도 클라우드 플랫폼인 ‘애저’를 런칭하면서 사업을 확대하고 있으면 대부분의 자사 소프트웨어(SW)를 클라우드 기반으로 제공하고 있다.

IT서비스산업협회에 따르면 국내 데이터센터 시장은 지난 2010년 9828억원 규모에서 2015년에는 2조3000억원 이상으로 성장할 것으로 예상되며, 연평균 약 3.4% 증가하고 있는 추세다. 우리나라의 경우 세계 최고의 모바일 기기 보급률, 클라우드 발전법 시행, 빅데이터 활용 증가 등 폭발적으로 늘어나고 있는 데이터 수요로 인해 미래 데이터센터에 대한 수요는 더 커질 것으로 전망된다.
사용자 삽입 이미지

2015년 기준 국내 약 124개 데이터센터가 운영 중이며, 소규모 전산실은 약 1000개 이상으로 추정된다. 국내 124개 데이터센터의 연간 총 적산전력 사용량은 약 26.5억kWh로 2013년 기준 연간 산업용 전력 소비량인 2600억kWh의 1%, 2014년 기준 국내 원전 1기 전력생산량의 약 40%에 해당한다. 다만 데이터센터가 기존에 소규모로 운영되던 전산실을 통합해 운영하는 만큼, 오히려 개별적으로 소비하던 것에 비해선 효율이 높아졌다는 것이 IDC 관계자들의 설명이다. 현재 국내 약 124개 데이터센터의 전력사용효율지수(PUE) 평균은 2.66이다.


국내 데이터센터가 받는 오해(?) 중 하나가 저렴한 산업용 전기를 사용한다는 것인데, 사실 현재 데이터센터는 일반용 전기를 사용하고 있어 부담이 크다. 지난 2014년까지 지식서비스산업 전기요금 특례제도가 적용되면서 비수도권 데이터센터의 경우 3%의 전기료를 절감할 수 있었지만 이마저 폐지된 바 있다. 2015년 12월 국가정보화 기본법령 개정에 따라 데이터센터는 하나의 산업으로 분류되면서, 향후 산업용 전기요금을 적용받을 수 있는 근거가 될 수 있을 전망이다. 한국IT서비스산업협회에 따르면, 추가적으로 구체적인 지원 규모 및 방식을 포함한 시행령이 11월 경 추가 발표될 예정이다.
사용자 삽입 이미지


어찌됐든 전세계적으로 친환경 데이터센터 구축이 하나의 트렌드가 되면서, 국내 데이터센터 역시 에너지 절감을 위한 다양한 활동을 펼치고 있다. 모듈형 데이터센터를 도입하거나 18~24℃를 유지하던 내부 온도를 30℃까지 높이는 경우도 있다. 글로벌 기업의 경우 이미 많이 알려져 있는 내용이지만, 페이스북은 지난 2012년 북극 인접지역의 차가운 외기를 활용해 냉각에 필요한 에너지를 줄이기 위한 것으로 스웨덴 룰레오 지역에 대규모 데이터센터를 건립한 바 있으며, MS는 미국 캘리포니아 연안 해저에서 수중 데이터센터 구축을 위한 프로젝트 나틱(Natick)을 최근 완료했다.


바다에서 데이터센터를 운영하게 되면 조류를 이용한 전력 변환이 용이하고, 애저의 낮은 온도가 서버에서 발생하는 열을 자연 냉각시켜주는 원리다. 이를 위해 MS는 강철 실린더로 만들어진 포드(Pod)에 서버랙을 담아 해저에 두고 약 3개월 간 운영했다. 
2016/09/29 13:19 2016/09/29 13:19

사용자 삽입 이미지
“처음부터 클라우드 컴퓨팅이나 소프트웨어 정의 데이터센터(SDDC)를 염두에 둔 것은 아니었어요. 저희가 직면한 문제를 해결하려고 이것저것 알아보고 공부하다보니 자연스럽게 그렇게 된거죠.”

인천유시티의 IT인프라 구축 담당자 이상호 차장의 얘기다.

인천유시티는 인천경제자유구역 내 3개 도시를 이른바 ‘스마트시티’로 구축, 운영하는 기관이다. 지능형 빌딩이나 교통시스템, 지리정보시스템, 광대역 통신망 등 첨단 정보기술을 기반으로 도시 운영 효율성을 높이고 시민들에게 편의성과 안전성을 제공하는데 초점을 맞추고 있다.
사용자 삽입 이미지

인천유시티는 최근 기존에 있던 x86 서버 등을 활용해 국내 공공기관 최초로 SDDC를 구현한 것으로 주목을 받았다. SDDC라는 개념이 각광받고 있지만, 이를 실제로 구현한 사례를 찾아보긴 힘들었던 것이 사실이다.


SDDC는 데이터센터의 모든 구성요소를 소프트웨어(SW)로 운영, 관리할 수 있도록 하는 개념이다. 일회용품화(Commodity)된 표준 아키텍처를 기반으로 기업 애플리케이션 환경을 구성할 수 있는 만큼, 하드웨어 종속성에서 벗어나 신속한 서비스 제공이 가능한 것이 특징이다.
사용자 삽입 이미지

그렇다면 인천유시티는 어떻게 SDDC를 구현하게 된 것일까.


인천유시티는 송도, 영종, 청라지구 등 세 곳에 분산된 IT서비스를 효율적으로 운영, 관리하기 위해 통합 플랫폼 구축의 필요성을 느꼈지만, 각 지구에 설치된 관제시설을 최대한 사용하면서 기존 서비스들을 한 데 묶는 어려움에 부딪쳤다. 비용 절감 또한 해결해야 할 과제였다.


이때 인천유시티가 찾아낸 방법은 바로 소프트웨어정의네트워크(SDN) 등을 비롯한 SDDC 개념이었다. 기존에 구매한 x86 서버 장비 등을 최대한 활용하면서 이를 효율적으로 구축할 수 있는 방법이 SDDC였다. 그러나 기존에 이를 적용해 데이터센터를 구축한 사례를 찾기 힘들었던 이 차장은 각종 세미나와 커뮤니티를 찾아다니며 스스로 공부하고 실제 구축까지 이뤄냈다.
사용자 삽입 이미지

사실 3개 지구의 유시티를 통합 구축하는 것이 쉬운 작업은 아니었다. 기존에 청라와 송도, 영종센터는 각각 별도의 IT인프라를 구축, 운영하고 있었다. 센터를 구성하는 모든 영역에서 가용자원을 통합해야 했고, 할당받은 예산도 적었다. 내부 반대도 거셌다.


그가 가장 먼저 한 것은 각각 운영하던 인프라 공간을 합치는 것이었다. 송도에 123평, 영종 70평, 청라 73평씩 운영하던 공간을 각 서버, 네트워크, 스토리지 가상화를 통해 통합했다. 랙 모니터링이 가능한 19인치 표준 랙 기반 설계를 통해 단계별 용량 증설과 유지보수가 쉽도록 장비를 구축했다.

기존에 각 3개 지구에서 운영하던 약 160여대의 x86 서버를 가상화하고 하나의 통합 스토리지풀로 묶어서 쉬운 확장 및 증설을 가능하게 했고, 네트워크 가상화를 도입해 효율성과 안정성을 높였다. 특히 통합영상시스템까지 클라우드 기반으로 구축해 보다 효율적인 운영센터 관제가 가능하게 됐다. 가상화 솔루션을 활용해 랙당 CCTV 최소 5000대를 운영할 수 있게 되면서 기존 구성기준대비 5배 이상 확장할 수 있었다.
사용자 삽입 이미지

이 차장은 “기존에 3개 지구에서 구매한 서버, 인터널 디스크 하나 버리지 않고 모두 활용했다”며 “특히 데이터센터 내에 구축하는 랙이나 차폐시스템(컨테인먼트, 서버가 내뿜는 뜨거운 공기를 밖으로 내보내고, 전산실 내부를 시원하게 유지하게 하는 시스템), 냉각방식까지 고민해 외부 도움없이 스스로 구축했다”며 의미를 부여했다. 현재 운영 중인 데이터센터 공간이 일반 사무실 건무에 입주해 있다 보니 층고도 낮고 여러 한계가 있었다.


그는 “처음에 외부업체에 컨설팅을 의뢰했더니 데이터센터 구축에 50억원을 달라고 하더라”며 “일일이 업체를 알아보고 구현방법을 고민해 이를 절반 이하의 금액으로 구축했다”고 덧붙였다.
사용자 삽입 이미지

사용자 삽입 이미지
이인우 인천유시티 대표도 “기술적인 부분이 중요한 것이 아니라, 국민 세금을 잘 활용해 질 좋은 시민 서비스 제공하는 것이 목적이었다”며 “향후 스마트시티 시스템 수출까지 염두에 두고 효율적인 인프라를 구축하고자 했다”고 강조했다.

이 차장은 “이번에 구축한 부분은 전체 IT인프라에서 아주 일부인 만큼, 향후 도시 개발에 따라 서서히 확장할 예정”이라며 “특히 빅데이터 분석 등 향후 신규 서비스도 제공하기 때문에 확장성이 중요하다”고 말했다.  

이번 SDDC구축을 통해 인천유시티는 약 130억원 이상의 비용을 절감한 것으로 평가하고 있다.

“SDDC 혹은 클라우드 데이터센터를 어떻게(How) 구현할지 고민할 것이 아니라, 이것을 왜(Why) 해야 하는지 그 목적부터 먼저 고민해야 합니다. ‘남들이 하니까’, ‘최신 트렌드이니까 우리도 해야지’가 아니라 왜 이것을 해야 하는지로 우선 접근하고, 이것으로 무엇을, 그리고 어떻게 해야 할지 고민해야 합니다.”
2016/09/29 08:57 2016/09/29 08:57

사용자 삽입 이미지
글로벌 데이터센터의 최근 트렌드는 크게 효율성과 재생 에너지 사용 등으로 압축된다. 대규모 데이터센터를 운영하는 페이스북이나 구글, 마이크로소프트(MS) 등 대부분이 초점을 두는 부분도 동일하다.

최근 마크 주커버그 페이스북 CEO는 페이스북 페이지를 통해 스웨덴 룰레오의 데이터센터 내부를 공개했다. 페이스북은 지난 2013년 북극에 인접한 룰레오 데이터센터를 건립하면서 냉각 비용을 획기적으로 절감한 바 있다. 보통 10℃ 내외의 날씨가 유지되기 때문에 외부의 차가운 바람을 이용해 냉각이 가능하다. 인근의 강을 통한 수력에너지를 이용해 재생에너지 사용이 가능하다. 전통적인 데이터센터에 비해 약 40% 가량 전력 사용이 적다.
사용자 삽입 이미지
사용자 삽입 이미지

현재 페이스북의 데이터센터 디자인 엔지니어링을 총괄하는 사람은 제이 박(Jay Park)이라는 한국계 미국인이다. 그는 룰레오 데이터센터를 가르켜 “세상에 이보다 더 효율적인 데이터센터는 없다”고 말하기도 했다.


룰레오 데이터센터는 6개 축구장 크기다. 페이스북은 룰레오 데이터센터에서 몇 대의 서버를 운영하는지 밝히지 않았다. 다만 현재 150명이 이곳에서 일하고 있으며, 2만5000대 서버 당 한명의 기술자가 필요한 단순한 디자인을 유지하고 있다는 설명이다. 데이터센터 내부는 너무 커서 엔지니어들은 스쿠터를 타고 이동한다는 것이 주버커그의 말이다.

페이스북은 오픈컴퓨트프로젝트(OCP)라는 개방형 하드웨어 프로젝트를 주도하며, 자사 데이터센터 운영에 필요한 대부분의 장비, 서버부터 전력분배시스템까지 자체 제작하고 적용하는 실험을 진행 중이다.
사용자 삽입 이미지

사용자 삽입 이미지
MS의 경우 최근 5세대(G5) 데이터센터 디자인을 공개했다. MS는 매년 정기적인 업그레이드를 통해 데이터센터 인프라를 최적화하는 작업을 진행한다. 이번 디자인은 자사 클라우드 인프라 확대를 위한 것으로 이를 적용한 가장 최신의 데이터센터는 미국 워싱턴의 퀸시에 있다. MS는 IT-PAC 모듈이라는 단위로 데이터센터 인프라를 구성한다. 이번 5세대의 가장 큰 변화는 ‘냉각(Cooling)’ 디자인이다. 물로 서버의 차가운 열을 식히는 수냉식 방식을 적용했는데, 4세대의 경우 공랭식, 즉 차가운 공기로 열을 식히는 방식이었다.


데이터센터 전력효율지수(PUE)도 1.1 이하로 낮췄다. 4세대 데이터센터의 경우 1.1~1.2로 운영했다. 2014년부터 MS는 페이스북 주도의 개방형 프로젝트인 OCP에 참여하며 애저 클라우드에 기반한 데이터센터를 확대하고 있는데, 최근 성능을 가속화할 수 있는 프래그래머블칩인 FPGA를 서버에 적용했다. 친환경 데이터센터를 위해 2018년까지 전체의 50%를 재생에너지로 운영하겠다는 방침도 세웠다. 이미 애플의 경우, 자사 데이터센터를 100% 재생에너지로 운영하고 있다.
사용자 삽입 이미지

사용자 삽입 이미지
구글은 최근 데이터센터의 중요성을 알리기 위해 데이터센터 벽화 프로젝트(The Data Center Mural Project)를 시작했다. 구글 데이터센터는 미국 사우스 캐롤라이나와 미국 중부 아이오와, 벨기에, 대만 등 총 6개 지역에 있는데 2017년까지 10개 지역을 더 추가할 예정이다. 구글은 현재 자사 데이터센터를 외부에 공개하고 있는데, 자세한 내용은 이곳에서 볼 수 있다.


국내의 경우도 최근 지어지는 대부분의 데이터센터는 클라우드 서비스의 효율적인 제공은 물론 전력효율에 초점을 맞춰 지어진다. 최근 IBM과의 협력을 통해 판교에 클라우드 데이터센터를 오픈한 SK(주) C&C의 경우 지열히트펌프를 통해 땅속의 열을 센터 운영에 필요한 에너지로 활용하고, 외부공기를 활용하는 프리 쿨링(Free Cooling ), 태양광 패널과 자연채광 등 다양한 자연 에너지도 이용하고 있다. 회사 측은 판교의 클라우드 데이터센터를 360도 증간현실(VR) 동영상으로 제작해 센터 구석구석을 볼 수 있도록 만들었다. 바로 여기에서 볼 수 있다.
사용자 삽입 이미지

사용자 삽입 이미지
또한 인천경제자유구역 내 도시를 첨단 IT 인프라와 유비쿼터스 정보기술을 갖춘 도시 ‘유시티(U-City)’로 구축, 유지, 보수하는 기관인 ‘인천유시티’는 최근 운영 효율성을 위해 국내 공공기관 최초로 ‘소프트웨어 정의 데이터센터(SDDC)’로 전환하며 큰 주목을 받고 있다.
2016/09/29 08:42 2016/09/29 08:42
최근 데이터센터의 전력 절감을 위해 가장 큰 화두는 실내 온도를 높이는 것이다. 일반적으로 대부분의 데이터센터는 20~24℃의 온도로 운영된다. 이보다 높을 경우에는 서버 등 장비의 동작에 영향을 줄 수 있다는 판단 때문이다.

실제 일부 메인프레임이나 유닉스 장비의 경우, 그 이상으로 온도가 높아지면 작동을 멈추기도 한다. 반면 최근 출시되는 대부분의 x86 서버 장비의 경우 최근 30~35°C 에서도 견딜 수 있는 것으로 알려진다.

그러나 데이터센터에는 유닉스와 같은 고가 장비와 x86 서버가 함께 운영되는 경우가 많기 때문에 실내 온도를 높이는 데에는 무리가 있다.

이같은 이유로 데이터센터는 항상 서늘한 온도를 유지하고 있다(여름에는 데이터센터로 피서간다는 우스개 소리가 나오는 이유다).

그런데 최근 30~40°C 이상의 고온에서도 데이터센터가 안전하게 구동될 수 있도록 하는 방안이 강구되고 있다.

지난 8월 KT는 자사의 천안 클라우드데이터센터(CDC) 내에 구축한 인텔과의 협력을 통해 구축한 고온환경(HTA, High Temperature Ambient) 테스트센터를 공개했다.

KT 클라우드 추진본부 인프라 담당 윤동식 상무는 “일반적으로 데이터센터 내부 온도를 1℃ 높일 때 냉방 에너지는 7%가 절감된다”며 “현재 1만 KVA 규모 천안 데이터센터 온도를 기존 22℃에서 30℃로 높일 경우, 연간 8억 5000만원의 전기 요금을 줄일 수 있다”고 밝혔다.이는 3800톤의 이산화탄소 배출량을 절감할 수 있는 효과와도 맞먹는다는 설명이다.

사용자 삽입 이미지
실제 천안 데이터센터 내에 구축한 HTA 테스트센터 규모는 크지 않았으나, 30℃ 이상의 온도로 장비들이 정상적으로 작동하고 있었다.

이는 인텔의 데이터센터 매니저 및 노드매니저 솔루션 등의 소프트웨어 적용과 전체적인 공기흐름(에어플로우)의 제어, 랙 단위의 전력 관리 및 모니터링을 통해 가능한 것이다. 또한 공기가 CPU나 메모리를 통과할 때 발열이 적게 될 수 있도록 별도로 마더보드를 설계한 서버 제품도 적용을 적용했다.

KT 측은 내년 천안클라우드데이터센터 단계별 적용을 시작으로 2014년 이후에는 KT의 모든 데이터센터에 HTA 개념을 적용한다는 방침이다. KT 전체 IDC로 HTA를 확대할 경우 연간 86억원의 비용절감 효과가 발생한다는 설명이다.

데이터센터 운영 온도도 30℃에서 향후 최대 45°C까지 높인다는 계획을 세웠다. 이렇게 되면 별도의 냉각장치 없이 100% 외부온도만으로 데이터센터를 운영할 수도 있게 된다.

인텔코리아 관계자는 “이렇게 되면 데이터센터 내에서 사우나도 할 수 있을 것”이라고 우스개 소리를 했다. 실제 인텔이 보여준 한 HTA 관련 동영상을 보면, 데이터센터 내에서 건장한 사내들이 타월 하나만 걸치고 사우나를 즐기는 모습을 표현하고 있어 웃음을 자아낸다.
2012/10/08 08:55 2012/10/08 08:55
사용자 삽입 이미지
실제 데이터센터에서 소비되는 전력 비용 중 절반 이상은 뜨거워진 실내 공기를 식히기 위한 냉각 비용으로 분석된다. 서버와 스토리지, 네트워크 등 IT장비에서 발생하는 뜨거운 공기를 식히기 위한 것.

이 때문에 대부분의 데이터센터는 이 뜨거운 공기를 효율적으로 식히기 위한 방안을 오랫동안 강구해 왔다. 서버 뒷면의 뜨거운 공기가 나오는 부분과 이를 식히기 위해 항온항습기로부터 나오는 차가운 공기를 구분하기 위한 장비배치 최적화 노력에 따라, 최근에는 차가운 공기 혹은 뜨거운 공기를 별도의 공간에 가둬서 에너지 효율을 높이는 콜드존(Cold Zone) 혹은 핫존(Hot Zone) 컨테인먼트 설비를 필수적으로 두고 있다.

이와 함께 데이터센터에서 사용되는 전체 전력의 약 20% 이상을 차지하는 무정전전원공급장치(UPS)에 대한 관심도 높아지고 있다.

UPS는 예기치 못한 정전 등 비상시에 전원을 안정적으로 공급해주는 역할을 하고 있다. 따라서 대부분의 데이터센터는 UPS를 필수적으로 배치하고 있다. 그러나 UPS를 백업하기 위한 배터리 설비 등 관련 장비의 에너지 소비는 데이터센터에 부담으로 작용하고 있다.

UPS 장비를 공급하는 슈나이더일렉트릭코리아 관계자는 “최근 UPS는 에너지 사용량 및 비용을 보고해 주는 지능적 관리 소프트웨어를 내장하고 있어, 데이터센터 관리자들이 이에 대한 전력 비용을 효과적으로 관리할 수 있다”고 설명한다.

그러나 항간에서는 UPS 자체를 없애야 한다는 의견도 제기된다. 인텔은 몇년 전부터 서버 자체에 별도의 배터리를 내장하는 ‘배터리 백업 유닛(BBU)’ 솔루션을 개발 중이다.

서버 자체에 별도의 배터리가 장착되게 되면, 별도의 UPS가 필요 없이 비슷한 효과를 누릴 수 있으면서도 이로 인한 비용을 줄일 수 있다는 것이 인텔 측의 설명이다. 이미 구글과 페이스북 등에서 이를 테스트하고 있다는 설명이다.

인텔코리아 관계자는 “BBU가 상용화되면 UPS를 없앨 수 있어 더 많은 데이터센터 공간을 확보할 수 있고, UPS 솔루션을 도입하는 것보다 비용이 5배나 저렴하다”고 강조한다.

또한 서버 사용 빈도가 낮은 특정 시간대에 CPU 클록 스피드를 낮춰 전력 사용량을 아끼는 ‘에너지 세이빙 솔루션’ 도입을 도입하는 기업도 있다. 현재 이를 도입 중인 한 IT서비스업체 관계자는 “유닉스 서버를 대상으로 실험한 결과, 장비당 전력 소모량의 약 8~13% 가량을 줄일 수 있는 것으로 나타났다”고 설명했다.

전력 절감을 위한 방안으로 컨테이너형 데이터센터 도입도 주목받고 있다. 최근 국내 IT서비스기업인 LG CNS가 올 12월에 오픈 예정인 부산 데이터센터에 IBM의 컨테이너형 데이터센터를 국내 최초로 도입해 주목받고 있다.

‘컨테이너형 데이터센터’는 화물을 싣는 컨테이너에 착안, 서버와 네트워크 등 각종 IT인프라를 이러한 형태의 박스에 집적하는 형태의 모듈형 데이터센터를 말한다. 위치나 장소 제약 없이 어디에나 설치가 가능하고 구축 시간이 적게 걸리는 것이 장점이다. 전력을 최소화할 수 있다는 것도 특징이다.

이밖에도 최근 주목받고 있는 에너지 절감 방안으로 데이터센터 자체의 운영 온도를 높이는 방법에 대한 논의도 활발하게 진행 중이다.
2012/10/08 08:54 2012/10/08 08:54
사용자 삽입 이미지

미국의 권위지인 뉴욕타임스는 최근 '미국 내 데이터센터 대부분이 엄청난 전력을 낭비하고 있으며 심각한 공해 문제를 일으키고 있다'고 보도해 주목을 끌었다.

이들이 막대한 전력을 낭비하며 유해가스를 배출하고 있다는 것이다. 실제 데이터센터 수요가 높은 인터넷 기업들이 사용하는 데이터센터 전력량은 핵발전소 30개 용량에 해당하는 300억 와트(W)를 소비하고 있는 것으로 나타났다.

그런데 이중 90%가 실제로는 사용되지 않고 있는 것으로 나타났는데, 이는 만약의 경우에 대비하기 위한 예비전력으로 사용되고 있기 때문인 것으로 분석됐다.

수요가 폭증하거나 갑작스런 정전에 대비하기 위한 것인데, 한순간이라도 장애가 발생하면 서비스에 타격을 받는 기업들의 특성에 따른 것이다.

특히 많은 기업들은 전력을 가동하기 위해 디젤 엔진을 이용하고 있으며 그 결과 공해 발생이 크다고 밝혔다. 데이터센터가 몰려있는 실리콘밸리의 많은 데이터 센터들의 경우 이미 캘리포니아 주정부의 ‘유해 대기 유발 시설(Toxic Air Contaminant Inventory)’로 등재돼 있는 것으로 전해졌다.

버지니아주에 위치한 아마존 데이터센터의 경우, 지난 3년 간 허가없이 자체 발전기를 가동하는 것을 포함해 24차례 이상 공기오염과 관련된 법규를 위반한 것으로 드러났다. 최대 규모 데이터센터를 운영하고 있는 구글과 페이스북도 각각 3억 와트와 6000만 와트의 전력을 소비하는 것으로 조사됐다.

물론 최근에는 많은 기업들이 이같은 데이터센터 전력 절감을 위한 다양한 방법을 강구하고 있다.

구글의 경우 최근 오클라호마주 데이터센터 운영에 풍력 발전으로 생산되는 전력을 사용한다고 발표했으며, 애플 또한 미국 노스캐롤라이나주 메이든에 건립 예정인 신규 데이터센터에 대형 태양광 패널과 바이오연료전지를 활용할 계획이라고 밝힌 바 있다.

국내의 경우도 이와 별반 다르지 않다. 전체 사용 전력 중 데이터센터가 소비하는 전력은 1~2%에 불과하지만, 이 수치는 계속해서 늘어나고 있어 ‘전기먹는 하마’라는 오명을 쓰고 있다.

현재 국내에는 약 70여개 이상의 데이터센터가 운영되고 있는데, 대부분이 전체 운영 비용의 절반 가량을 전기 요금으로 사용하고 있는 것으로 알려져 있다.

이 때문에 국내에서도 많은 데이터센터들이 전력 비용을 줄이기 위한 다양한 시도를 하고 있는 상황이다.

2012/10/08 08:54 2012/10/08 08:54
사용자 삽입 이미지
얼마전 LG CNS가 IBM의 컨테이너형 데이터센터를 도입했다고 해서 큰 주목을 받았습니다.

관련기사
LG CNS, 국내 최초 컨테이너 데이터센터 도입
LG CNS, 컨테이너형 데이터센터 국내 최초 도입…IBM 제품 선정

LG CNS는 현재 부산 미음지구에 건립 중인 ‘글로벌 클라우드 데이터센터’ 부지에 국내 최초로 컨테이너 데이터센터를 도입했다고 밝혔는데요. 이때 도입한 것이 20피트 규모 컨테이너 데이터센터 2대로 고성능 서버 500여대를 수용할 수 있는 규모라고 합니다(1대의 컨테이너에 19인치 랙이 8개 정도 들어간다고 하네요)

컨테이너형 데이터센터는 화물을 싣는 화물을 싣는 컨테이너에 착안해 각종 IT인프라를 이러한 형태의 박스에 집적하는 형태의 모듈형 데이터센터를 말합니다. 물론 여기에 사용되는 컨테이너는 당연히 화물을 싣을때 사용하는 일반적인 컨테이너는 아닙니다. 온도나 습도 등 외부 환경에 영향을 받지 않는 특수 제작된 제품이어야 하지요.

일반적으로 대부분의 벤더 제품이 20피트 또는 40피트 크기의 컨테이너 박스 안에 서버, 스토리지, 네트워크부터 냉각장치, 보조발전기 등을 모두 사전에 설치해 전원과 네트워크선만 연결하면 곧바로 쓸 수 있도록 하고 있습니다.

그런데 IBM의 경우 서버나 스토리지 등의 IT 장비를 수용하는 ‘IT컨테이너’와 발전시설, 냉각설비, 항온항습장치 등 운영설비를 탑재하는 ‘서비스 컨테이너’로 분리해 구성을 할 수 있도록 하고 있습니다. 서비스 컨테이너 하나에 IT컨테이너 여러 개를 구성하는 것도 가능한데, IBM에서는 이를 멀티 컨테이너라고 부릅니다.

LG CNS가 도입한 것은 이번에 도입한 것은 ‘IT컨테이너’ 뿐입니다. 서비스 컨테이너에 발전설비나 항온항습장치 등은 LG CNS에서 자체적으로 운영한다고 하네요. 특히 부산데이터센터 지하 면진 설비층의 빈 공간을 활용, 이를 통과하는 공기의 온도를 별도의 에너지 소비 없이 떨어뜨릴 수 있는 공기미로를 설계한 것이 특징이라고 합니다. 즉, 컨테이너 밑으로 구멍을 뚫어 이를 통과시킬 수 있도록 한 것이지요.

그런데 이같은 상황을 두고 컨테이너형 데이터센터를 공급하는 업체들은 “반쪽짜리 컨테이너형 데이터센터가 아니냐”는 입장입니다. 컨테이너형 데이터센터의 이점의 100% 활용하지 못한다는 것이 그 이유입니다. 컨테이너형 데이터센터를 완벽하게 활용하기 위해서는 내부에 IT장비를 꽉꽉 채우고 냉각이나 항온항습까지 한번에 하는 것이 에너지 효율을 최대한 끌어올릴 있다는 것이지요.

차라리 LG CNS가 IBM의 제품을 도입할 필요 없이 자체적으로 컨테이너를 제작하는 것도 괜찮았을 것이라는 의견도 있습니다(항간에는 LG CNS가 이를 고려하다가 여러가지 이유로 포기했다는 얘기도 있긴 합니다만. 이 때문에 선택의 폭이 넓었던 IBM의 제품을 도입했을 것이라는 생각도 듭니다).

그럼에도 불구하고 관련 업계에서는 LG CNS가 컨테이너형 데이터센터와 같이 새로운 형태의 데이터센터를 도입한 것 자체만으로도 의미가 있다는 의견이 대다수입니다. 천편일률적이던 데이터센터 형태에서 벗어난 것만으로도 상당한 의의를 가지고 있다는 것이지요.
2012/09/11 08:24 2012/09/11 08:24
사용자 삽입 이미지
흔히 데이터센터(IDC)를 ‘전기먹는 하마’라고 합니다. 왜일까요.

2011년 3월 기준 현재 국내 데이터센터(IDC)의 한달 평균 사용 전력은 약 11GWh인 것으로 알려져 있습니다. 11GWh는 110만KWh입니다. 일반적으로 한 가구가 월 220kWh를 소비한다고 했을 때, 이 수치는 5만 가구가 사용하는 전력량에 해당합니다.(물론 이 수치는 계속해서 바뀌고 있습니다)

5만 가구가 사용하는 전력을 평균 1개 IDC에서 사용한다고 하니, 수치로만 보면 정말 ‘전기먹는 하마’라는 얘기를 들을 수 밖에 없을 것 같네요. 현재 국내에는 약 70여개의 IDC가 운영되고 있는 것으로 추정되며, 계속해서 새로운 IDC가 생겨나고 있는 상황입니다.

그런데 이러한 ‘전기먹는 하마’라는 비유를 두고 국내 데이터센터 업계 종사자들은 다소 억울해 보입니다. 이는 당초 IDC의 취지를 잘 모르고 하는 얘기라는 것이 이들의 주장입니다.

IDC, 데이터센터는 인터넷 사업 및 서비스 제공에 필수적인 설비 인프라, 시스템, 인터넷 접속과 운용서비스를 제공하기 위한 기반 시설입니다. 쉽게는 ‘서버 호텔’이라고 불리기도 합니다.

이를 통해 정부는 행정, 항만, 물류, 교육 등 다양한 영역의 전자정부를 실현시킬 수 있으며, 국세청의 연말정산, 코레일의 인터넷 철도 예약 등도 IDC를 통해 가능한 것이죠. 금융권이나 포털, 게임 등 기업활동과 지식서비스산업 등 에서도 IDC는 허브 역할을 수행하는 중대한 역할을 맡고 있습니다.

즉, IDC는 IT 기반 현대 사회의 중심 인프라라고 할 수 있지요. 게다가 IDC 서비스가 활성화되면서 이는 개별 기업이나 공공기관의 소규모 전산실을 중앙 집중화시키는 계기가 됐고, 이는 개별 전산실을 운영하는 것보다 비용이나 전력을 낮출 수 있게 했다는 것입니다.

실제 개별 전산실들을 IDC로 통합할 경우, 랙당 전력이 약 40% 가량 낮아졌다는 결과도 있습니다.

이러한 중요도는 고려하지 않은 채, 무조건 전력을 많이 사용한다고 ‘전기먹는 하마’로 비유되는 것은 바람직하지 않다는 것이지요.

또한 현재 IDC 운영 비용 중 가장 많은 비중을 차지하는 것이 IT시스템인데, 이 비중이 약 40~50% 가량 됩니다. 그런데 서버나 네트워크 장비 등 IT시스템의 에너지 비용은 IDC 자체적으로 줄일 수 있는 것이 아니라 이를 만드는 제조업체에서 해결해야 하는 문제라는 지적입니다.

얼마전 만난 한 데이터센터 업계 관계자는 “최근 정부 등에서 그린IDC를 강조하고 있는데, 이러한 얘기가 나온지 불과 몇 년 안 됐다”며 “특히 기존 데이터센터의 경우 에너지 효율성보다는 안정성 위주의 투자를 해왔기 때문에 설계 당시부터 이를 고려하지 않았던 것이 사실”이라고 말했습니다.

그러나 최근 지어지고 있는 IDC들은 설계 당시부터 자본비용보다는 에너지 효율 등 운영비용을 염두에 두고 구축한다는 것이 그의 설명입니다.

이밖에도 대부분의 IDC에서 직류배전과 UPS, 냉각 등 다양한 부문에서 에너지 효율을 높일 수 있는 방법이 강구되고 있다는 얘기도 이어졌습니다.

그럴 수 밖에 없는 것이 최근 몇 년 간 전기 요금이 계속해서 상승하고 있고 스마트폰과 태블릿 등 개개인이 소유하는 디바이스 보급이 확산되면서 이로 인한 데이터 증가는 IDC 내의 IT시스템 확충으로 이어지고 소비 전력은 연평균 45% 증가하고 있다는 것입니다.

특히 수도권 데이터센터의 경우, 지난 2008년 말부터 적용되던 지식서비스 특례요금에서 제외되면서 이같은 전력 비용 체감 온도가 더욱 높아지고 있다는 설명입니다.

한편 오는 10월부터 지식경제부는 ‘그린IDC 인증제’라는 것을 추진합니다. 인증을 받기 위해서는 IDC의 전력사용효율(PUE) 수치가 1.8이 되어야 합니다.(최근 PUE 1.8로 확정이 됐다고  전해지고 있긴 하지만, 공식적으로 발표된 것은 아닙니다).

그러나 이와는 별개로 그린IDC로 만들기 위한 지속적인 노력을 펼쳐나간다는 것이 제가 만난 대부분 IDC 업계 종사자들의 얘기였습니다.
2012/08/01 01:22 2012/08/01 01:22
사용자 삽입 이미지
8일 경남 김해에 개관한 KT김해글로벌데이터센터에 다녀왔습니다. 김해데이터센터는 KT와 소프트뱅크텔레콤의 합작사인 kt-SB 데이터서비스(이하 ksds)에서 일본 기업들의 코로케이션 및 백업 서비스 등을 제공하기 위해 지어졌습니다.

예전 KT연수소로 쓰던 건물을 리모델링해서 건축 비용 및 시간을 아꼈다는 것이 KT측의 설명입니다.

그런데 기업문화가 전혀 다른 한국과 일본
업체가 공동으로 데이터센터를 구축하다보니 애로사항이 많았다고 합니다. 또한 서비스 대상이 일본 기업들이다 보니 더욱 그랬겠지요. 국내 기업 간에도 협력이 쉽지 않은데, 하물며 외국 기업 간에는 오죽하겠습니까.

이날 데이터센터 구축에 참여한 한 KT직원에 따르면, 소프트뱅크 직원들에 꼼꼼함(?)에 정말 놀랬었다고 하는데요.

이번 포스팅에서는 그가 들려준 얘기를 해볼까 합니다. 약 4가지 에피소드로 나눠서 정리해보겠습니다.
사용자 삽입 이미지
▲개관식 행사에서 양 기업 임원들이 한국전통 ‘박깨기’에 이어 일본전통 ‘술독깨기’를 하고 있습니다. 닮은 듯 다른 두 기업의 모습에서 친밀감이 느껴집니다.

1. 볼트 규격까지 꼼꼼하게!

KT와 소프트뱅크는 데이터센터 구축과 관련된 협의회를 현재까지 총 24회 진행했다고 합니다. 텔레프레즌스를 통한 화상회의는 물론 3주에 한번 꼴로 일본과 한국을 오가며 전체적인 데이터센터 스펙과 공사 진행사항, 투자비용 등 데이터센터 구축 관련 사항을 협의하고 결정하는 과정을 거쳤는데요. 이는 현재에도 계속해서 진행 중이라고 합니다.

그런데 정말로 꼼꼼하게 하나하나 따지는 것에 많이 배웠다는 것이 KT 관계자의 설명입니다.

심지어 사용되는 볼트 길이, 두께 하나까지 일일이 정하는 상황이 벌어졌다고 합니다. “볼트 길이를 3미리로 해야 하냐, 5미리로 해야 하냐. 왜 그 두께로 해야 하느냐, 근거가 있느냐”부터 시작해서 우리나라 같으면 간단히 넘어갈 문제도 심각하게 전혀 신경 쓸 부분이 아닌 것까지 정했다고 합니다.

데이터센터 운영 프로세스 매뉴얼 작성 역시 특유의 꼼꼼함이 잘 발휘된 부분이었습니다. 물론 우리나라의 경우도 이러한 것을 작성하지만, 일본의 경우는 사소한 부문까지 구체화시키고, 중요하게 여겼다고 하네요.

그래도 일본 기업만의 독특한 풍토나 관습, 문화적 차이를 인정하면서 큰 논쟁 없이 잘 넘어갔다는 것이 그의 설명입니다.

2. “이곳이 데이터센터임을 외부에 알리지 마라!”

우리나라의 경우 일반적으로 데이터센터 건물의 외관에 큰 간판을 내겁니다. 그래서 외부인들은 그곳이 정확하게 무엇을 하는 곳인지는 몰라도 데이터센터라는 것은 압니다.

그런데 외국의 경우에
는 데이터센터도 일반적인 건물과 마찬가지로 보이게끔 별다른 표시를 해놓지 않습니다. 바로 보안 때문입니다.

데이터센터가 어떤 곳입니까. 기업이나 공공기관들의 중요한 데이터들을 저장, 관리, 운영하는 곳입니다. 그만큼 외부에 노출될수록 위험은 커집니다. 우리나라 주요 공공기관들의 데이터를 모아둔 대전이나 광주의 정부통합전산센터 역시 이러한 이유로 센터 주소가 외부에 노출되는 것을 극도로 꺼립니다.

일본 데이터센터는 더 심하다고 합니다. 간판이 없는 것은 물론이고 바로 옆의 아파트단지 주민도 그곳이 뭐하는 곳인지 전혀 모릅니다.

따라서 이번 김해 데이터센터의 경우도 건물 밖에 간판이나 표시를 아예 없앴습니다.

또한 KT임원진들이 특히 강조
한 것이 “돌(대리석)로 장식하자 말라”는 것이었다고 하는데요. 일본 소프트뱅크 데이터센터를 둘러보고 온 KT 임원이 무조건 실용적으로 꾸미는 한편, 일본고객들이 일본 데이터센터랑 유사한 느낌을 받도록 하라는 얘기를 했다고 합니다.

이 때문인지 김해 데이터센터 로비는 그야말로 휑했습니다. 그는 “우리 입장에서 보면 좀 낯선 측면도 많다”고 하더군요.

3. 유리 창구

일본 소프트뱅크 측
에서 요구한 것이 바로 유리 창구입니다. 일반적인 국내 데이터센터에는 센터 출입 전에 보통 안내원이 있어서 신분증을 맡기고 출입증을 받는 등 직접적인 대면 접촉을 하게끔 돼 있는데, 일본의 경우는 마치 전당포처럼 앞에 유리 창구가 있어서 손만 밑으로 왔다 갔다 한다고 합니다.

대부분의 일본 데이터센터가 그런 것처럼 김해 데이터센터도 유리 창구를 통한 출입 절차가 진행되게 됩니다.

4. “한번 결정하면 번복은 없다”

협의 과정은 힘들지만, 소프트뱅크의 경우 한번 결정된 이후에는 단 한 번도 그에 대한 언급을 하지 않았다고 합니다. 그만큼 신중했다는 뜻인데요. 대신에 바꿀 경우에는 굉장히 미안해했었다고 합니다.

특히 지진문제가 가장 첨예하게 얘기된 부분이었다고 하는데요. 초반에 소프트뱅크 측에서 자료를 요청하는데 한반도의 쓰나미 발생 빈도와 관련 데이터를 달라고 했었답니다.

KT 측에서는 당연히 “한반도에는 쓰나미가 발생한 적도 없고, 이곳(데이터센터)의 해발고도가 평균 85미터인데 여기가 잠기면 대한민국 전체가 잠긴 것”이라고 답했다고 합니다.

소프트뱅크 측에서도 이것을 확인한 이후에는 다시는 쓰나미나 지진 관련 얘기는 하지 않았다고 하네요.

또 재미있는 에피소드 중 하나가 전력에 관한 것이었는데, 최근 지어진 KT의 목천 클라우드 데이터센터의 경우 고집적 고효율 운영 방침에 따라 서버 랙(캐비넷)당 공급되는 전력이 15킬
로와트(kw) 이상일 정도로 효율이 높다고 합니다.

그런데 일본의 경우에는 여전히 3kw 수준이기 때문에, KT가 김해 데이터센터의 서버 랙의 공급 전력을 그 중간인 6kw로 정했을 때 우려하는 측면이 많았었다고 합니다.

그래서 결국은 일본 측의 의견대로 3kw로 정했는데, 소프트뱅크 쪽에서 KT의 목천 데이터센터를 둘러보고서는 “절반은 3kw, 나머지 절반은 6kw로 하자”고 다시 제의를 했다고 하네요.

오케이를 하고 다시 진행을 하는데, 이번에는 소프트뱅크쪽에서 “3kw, 3.5kw, 4kw, 4.5kw 등으로 다양하게 갖춰놓자”고 해서 결국은 다양한 요구 조건을 수용할 수 있도록 했다고 합니다.

KT 관계자는 “(일본 측에서) 계속 의견을 바꿔서 미안하다고 하더라. 정말 진심이 느껴졌다”며 “힘들긴 했지만, 이러한 경험은 KT가 향후 다른 지역에 데이터센터를 지을 때 큰 자산이 될 것”이라고 하더군요.
2011/12/09 23:09 2011/12/09 23:09