사용자 삽입 이미지
서버와 스토리지, 네트워크 등 ICT 장비와 UPS, 항온항습기 등의 기반시설을 건물·공간에 중앙 집중식으로 집적시켜 IT서비스 제공에 필요한 장비를 통합 관리 및 운영하는 시설을 ‘데이터센터(IDC)’라고 말한다.

각 기업이 개별 전산실에서 운영하던 장비를 IDC의 상면이나 네트워크를 빌려 사용하는 개념이어서 쉽게는 ‘서버 호텔’이라고도 불린다. IDC는 365일 24시간 운영돼야 하는 공간이다. IDC에 문제가 생기는 순간 은행 거래나 온라인 쇼핑, 카카오톡과 같이 우리가 늘 사용하던 서비스도 사용할 수 없게 되는 상황에 맞딱뜨린다.

실제 지난 2014년 삼성SDS는 과천 데이터센터에 화재가 발생하면서 삼성카드 결제 중단, 삼성그룹 관계사 홈페이지 정지 등의 피해가 발생하며 서비스를 재개하는데 며칠이 걸렸다. 특히 데이터센터 복구, 고객사 보상 등을 위한 상당한 경제적 손실이 발생했다. 최근에도 경주 지진의 여파로 카카오톡에 장애가 발생하며 많은 사람들이 불편을 겪었다.

데이터센터의 가용성이 점차 중요해지는 가운데, 최근 몇 년 사이 데이터센터 앞에 ‘클라우드’가 붙기 시작하면서, ‘클라우드 데이터센터’라는 새로운 개념이 생겨나기 시작했다. 클라우드 데이터센터를 정의하자면, 기존 데이터센터가 기술의 발전에 따라 유연성, 고밀도, 관리 최적화라는 특징을 갖고 클라우드 서비스 제공에 최적화된 형태를 뜻한다.

흔히 클라우드 데이터센터는 에너지 효율이 높은 구조와 설비를 갖고 있으며, 비즈니스 환경에 따라 신속하게 IT자원을 확장할 수 있다. 또한 보통 랙당 10~15kW 이상의 고밀도 환경과 IT 및 시설운영 전반에 걸친 통합관리가 가능한 것이 특징이다. 데이터센터와 클라우드 데이터센터를 명확하기 나누기는 힘들지만, 최근 대부분의 데이터센터는 신기술 적용 등을 통해 클라우드 데이터센터로 진화하는 과정에 있다.

실제 클라우드 서비스에 대한 수요가 늘면서 글로벌 데이터센터 시장은 2016년부터 2020년까지 매년 12% 늘어날 것이라는 시장조사기관의 연구 결과도 있다. 또한 지난 2013년 1250억달러 규모였지만 2018년이면 2000억달러 규모로 증가할 것이라고 가트너는 전망하고 있다. 히 빅데이터 분석, 사물인터넷(IoT), 인공지능(AI)와 같은 신성장산업이 클라우드 인프라를 기반으로 구동되면서 이 규모는 더욱 커질 것이라는 분석이다. 아태지역의 경우, 북미나 유럽·중동·아프리카에 비해 데이터센터 자체 비중은 작지만, 성장률은 가장 빨라(17%) 오는 2020년 200억달러 규모에 이를 것으로 전망된다.

특히 클라우드 컴퓨팅은 많은 양의 데이터를 발생시키고 데이터센터 간 전송시키게 될 것으로 예상된다. 2018년 전세계 데이터센터 트래픽은 8.6제타바이트(ZB)로 지금보다 약 3배 증가, 이 중 76%가 클라우드 트래픽에서 발생할 것이라는 전망도 제기되고 있다.
사용자 삽입 이미지


이에 따라 많은 기업들이 데이터센터 확장 및 투자에 집중하고 있는 상황이다. 예를 들어 마이크로소프트(MS)의 경우, 신규 데이터센터 구축에 약 5000억원 정도를 사용하고 있는 것으로 전해진다. 현재 짓는 데이터센터는 대부분 클라우드 서비스를 위한 용도다. MS도 클라우드 플랫폼인 ‘애저’를 런칭하면서 사업을 확대하고 있으면 대부분의 자사 소프트웨어(SW)를 클라우드 기반으로 제공하고 있다.

IT서비스산업협회에 따르면 국내 데이터센터 시장은 지난 2010년 9828억원 규모에서 2015년에는 2조3000억원 이상으로 성장할 것으로 예상되며, 연평균 약 3.4% 증가하고 있는 추세다. 우리나라의 경우 세계 최고의 모바일 기기 보급률, 클라우드 발전법 시행, 빅데이터 활용 증가 등 폭발적으로 늘어나고 있는 데이터 수요로 인해 미래 데이터센터에 대한 수요는 더 커질 것으로 전망된다.
사용자 삽입 이미지

2015년 기준 국내 약 124개 데이터센터가 운영 중이며, 소규모 전산실은 약 1000개 이상으로 추정된다. 국내 124개 데이터센터의 연간 총 적산전력 사용량은 약 26.5억kWh로 2013년 기준 연간 산업용 전력 소비량인 2600억kWh의 1%, 2014년 기준 국내 원전 1기 전력생산량의 약 40%에 해당한다. 다만 데이터센터가 기존에 소규모로 운영되던 전산실을 통합해 운영하는 만큼, 오히려 개별적으로 소비하던 것에 비해선 효율이 높아졌다는 것이 IDC 관계자들의 설명이다. 현재 국내 약 124개 데이터센터의 전력사용효율지수(PUE) 평균은 2.66이다.


국내 데이터센터가 받는 오해(?) 중 하나가 저렴한 산업용 전기를 사용한다는 것인데, 사실 현재 데이터센터는 일반용 전기를 사용하고 있어 부담이 크다. 지난 2014년까지 지식서비스산업 전기요금 특례제도가 적용되면서 비수도권 데이터센터의 경우 3%의 전기료를 절감할 수 있었지만 이마저 폐지된 바 있다. 2015년 12월 국가정보화 기본법령 개정에 따라 데이터센터는 하나의 산업으로 분류되면서, 향후 산업용 전기요금을 적용받을 수 있는 근거가 될 수 있을 전망이다. 한국IT서비스산업협회에 따르면, 추가적으로 구체적인 지원 규모 및 방식을 포함한 시행령이 11월 경 추가 발표될 예정이다.
사용자 삽입 이미지


어찌됐든 전세계적으로 친환경 데이터센터 구축이 하나의 트렌드가 되면서, 국내 데이터센터 역시 에너지 절감을 위한 다양한 활동을 펼치고 있다. 모듈형 데이터센터를 도입하거나 18~24℃를 유지하던 내부 온도를 30℃까지 높이는 경우도 있다. 글로벌 기업의 경우 이미 많이 알려져 있는 내용이지만, 페이스북은 지난 2012년 북극 인접지역의 차가운 외기를 활용해 냉각에 필요한 에너지를 줄이기 위한 것으로 스웨덴 룰레오 지역에 대규모 데이터센터를 건립한 바 있으며, MS는 미국 캘리포니아 연안 해저에서 수중 데이터센터 구축을 위한 프로젝트 나틱(Natick)을 최근 완료했다.


바다에서 데이터센터를 운영하게 되면 조류를 이용한 전력 변환이 용이하고, 애저의 낮은 온도가 서버에서 발생하는 열을 자연 냉각시켜주는 원리다. 이를 위해 MS는 강철 실린더로 만들어진 포드(Pod)에 서버랙을 담아 해저에 두고 약 3개월 간 운영했다. 
2016/09/29 13:19 2016/09/29 13:19

사용자 삽입 이미지
글로벌 데이터센터의 최근 트렌드는 크게 효율성과 재생 에너지 사용 등으로 압축된다. 대규모 데이터센터를 운영하는 페이스북이나 구글, 마이크로소프트(MS) 등 대부분이 초점을 두는 부분도 동일하다.

최근 마크 주커버그 페이스북 CEO는 페이스북 페이지를 통해 스웨덴 룰레오의 데이터센터 내부를 공개했다. 페이스북은 지난 2013년 북극에 인접한 룰레오 데이터센터를 건립하면서 냉각 비용을 획기적으로 절감한 바 있다. 보통 10℃ 내외의 날씨가 유지되기 때문에 외부의 차가운 바람을 이용해 냉각이 가능하다. 인근의 강을 통한 수력에너지를 이용해 재생에너지 사용이 가능하다. 전통적인 데이터센터에 비해 약 40% 가량 전력 사용이 적다.
사용자 삽입 이미지
사용자 삽입 이미지

현재 페이스북의 데이터센터 디자인 엔지니어링을 총괄하는 사람은 제이 박(Jay Park)이라는 한국계 미국인이다. 그는 룰레오 데이터센터를 가르켜 “세상에 이보다 더 효율적인 데이터센터는 없다”고 말하기도 했다.


룰레오 데이터센터는 6개 축구장 크기다. 페이스북은 룰레오 데이터센터에서 몇 대의 서버를 운영하는지 밝히지 않았다. 다만 현재 150명이 이곳에서 일하고 있으며, 2만5000대 서버 당 한명의 기술자가 필요한 단순한 디자인을 유지하고 있다는 설명이다. 데이터센터 내부는 너무 커서 엔지니어들은 스쿠터를 타고 이동한다는 것이 주버커그의 말이다.

페이스북은 오픈컴퓨트프로젝트(OCP)라는 개방형 하드웨어 프로젝트를 주도하며, 자사 데이터센터 운영에 필요한 대부분의 장비, 서버부터 전력분배시스템까지 자체 제작하고 적용하는 실험을 진행 중이다.
사용자 삽입 이미지

사용자 삽입 이미지
MS의 경우 최근 5세대(G5) 데이터센터 디자인을 공개했다. MS는 매년 정기적인 업그레이드를 통해 데이터센터 인프라를 최적화하는 작업을 진행한다. 이번 디자인은 자사 클라우드 인프라 확대를 위한 것으로 이를 적용한 가장 최신의 데이터센터는 미국 워싱턴의 퀸시에 있다. MS는 IT-PAC 모듈이라는 단위로 데이터센터 인프라를 구성한다. 이번 5세대의 가장 큰 변화는 ‘냉각(Cooling)’ 디자인이다. 물로 서버의 차가운 열을 식히는 수냉식 방식을 적용했는데, 4세대의 경우 공랭식, 즉 차가운 공기로 열을 식히는 방식이었다.


데이터센터 전력효율지수(PUE)도 1.1 이하로 낮췄다. 4세대 데이터센터의 경우 1.1~1.2로 운영했다. 2014년부터 MS는 페이스북 주도의 개방형 프로젝트인 OCP에 참여하며 애저 클라우드에 기반한 데이터센터를 확대하고 있는데, 최근 성능을 가속화할 수 있는 프래그래머블칩인 FPGA를 서버에 적용했다. 친환경 데이터센터를 위해 2018년까지 전체의 50%를 재생에너지로 운영하겠다는 방침도 세웠다. 이미 애플의 경우, 자사 데이터센터를 100% 재생에너지로 운영하고 있다.
사용자 삽입 이미지

사용자 삽입 이미지
구글은 최근 데이터센터의 중요성을 알리기 위해 데이터센터 벽화 프로젝트(The Data Center Mural Project)를 시작했다. 구글 데이터센터는 미국 사우스 캐롤라이나와 미국 중부 아이오와, 벨기에, 대만 등 총 6개 지역에 있는데 2017년까지 10개 지역을 더 추가할 예정이다. 구글은 현재 자사 데이터센터를 외부에 공개하고 있는데, 자세한 내용은 이곳에서 볼 수 있다.


국내의 경우도 최근 지어지는 대부분의 데이터센터는 클라우드 서비스의 효율적인 제공은 물론 전력효율에 초점을 맞춰 지어진다. 최근 IBM과의 협력을 통해 판교에 클라우드 데이터센터를 오픈한 SK(주) C&C의 경우 지열히트펌프를 통해 땅속의 열을 센터 운영에 필요한 에너지로 활용하고, 외부공기를 활용하는 프리 쿨링(Free Cooling ), 태양광 패널과 자연채광 등 다양한 자연 에너지도 이용하고 있다. 회사 측은 판교의 클라우드 데이터센터를 360도 증간현실(VR) 동영상으로 제작해 센터 구석구석을 볼 수 있도록 만들었다. 바로 여기에서 볼 수 있다.
사용자 삽입 이미지

사용자 삽입 이미지
또한 인천경제자유구역 내 도시를 첨단 IT 인프라와 유비쿼터스 정보기술을 갖춘 도시 ‘유시티(U-City)’로 구축, 유지, 보수하는 기관인 ‘인천유시티’는 최근 운영 효율성을 위해 국내 공공기관 최초로 ‘소프트웨어 정의 데이터센터(SDDC)’로 전환하며 큰 주목을 받고 있다.
2016/09/29 08:42 2016/09/29 08:42
사용자 삽입 이미지

미국의 권위지인 뉴욕타임스는 최근 '미국 내 데이터센터 대부분이 엄청난 전력을 낭비하고 있으며 심각한 공해 문제를 일으키고 있다'고 보도해 주목을 끌었다.

이들이 막대한 전력을 낭비하며 유해가스를 배출하고 있다는 것이다. 실제 데이터센터 수요가 높은 인터넷 기업들이 사용하는 데이터센터 전력량은 핵발전소 30개 용량에 해당하는 300억 와트(W)를 소비하고 있는 것으로 나타났다.

그런데 이중 90%가 실제로는 사용되지 않고 있는 것으로 나타났는데, 이는 만약의 경우에 대비하기 위한 예비전력으로 사용되고 있기 때문인 것으로 분석됐다.

수요가 폭증하거나 갑작스런 정전에 대비하기 위한 것인데, 한순간이라도 장애가 발생하면 서비스에 타격을 받는 기업들의 특성에 따른 것이다.

특히 많은 기업들은 전력을 가동하기 위해 디젤 엔진을 이용하고 있으며 그 결과 공해 발생이 크다고 밝혔다. 데이터센터가 몰려있는 실리콘밸리의 많은 데이터 센터들의 경우 이미 캘리포니아 주정부의 ‘유해 대기 유발 시설(Toxic Air Contaminant Inventory)’로 등재돼 있는 것으로 전해졌다.

버지니아주에 위치한 아마존 데이터센터의 경우, 지난 3년 간 허가없이 자체 발전기를 가동하는 것을 포함해 24차례 이상 공기오염과 관련된 법규를 위반한 것으로 드러났다. 최대 규모 데이터센터를 운영하고 있는 구글과 페이스북도 각각 3억 와트와 6000만 와트의 전력을 소비하는 것으로 조사됐다.

물론 최근에는 많은 기업들이 이같은 데이터센터 전력 절감을 위한 다양한 방법을 강구하고 있다.

구글의 경우 최근 오클라호마주 데이터센터 운영에 풍력 발전으로 생산되는 전력을 사용한다고 발표했으며, 애플 또한 미국 노스캐롤라이나주 메이든에 건립 예정인 신규 데이터센터에 대형 태양광 패널과 바이오연료전지를 활용할 계획이라고 밝힌 바 있다.

국내의 경우도 이와 별반 다르지 않다. 전체 사용 전력 중 데이터센터가 소비하는 전력은 1~2%에 불과하지만, 이 수치는 계속해서 늘어나고 있어 ‘전기먹는 하마’라는 오명을 쓰고 있다.

현재 국내에는 약 70여개 이상의 데이터센터가 운영되고 있는데, 대부분이 전체 운영 비용의 절반 가량을 전기 요금으로 사용하고 있는 것으로 알려져 있다.

이 때문에 국내에서도 많은 데이터센터들이 전력 비용을 줄이기 위한 다양한 시도를 하고 있는 상황이다.

2012/10/08 08:54 2012/10/08 08:54
사용자 삽입 이미지
이스북이 스웨덴 북부에 엄청나게 큰 새로운 데이터센터를 짓는다고 합니다. 미국 이외의 지역에는 처음 짓는 데이터센터입니다.

전세계적으로 이용자가 폭발적으로 증가하면서 저장해야 할 데이터들이 늘어남에 따른 것입니다. 현재 미국 밖의 지역에서의 페이스북 이용자가
전체 이용자의 75% 이상인 8억 명에 이른다고 합니다.

이번에 페이스북이 데이터센터를 짓는 곳이 북유럽 스웨덴 북부 노르보텐주에 있는 도시 룰레오입니다.

페이스북은 왜 이곳에 데이터센터를 짓는 것일까요. 이유는 바로 룰레오 지역의 서늘한 기
후 때문입니다.

룰레오는 알래스카의 페어뱅크와 같은 위도에 위치하고 있습니다.
룰레오의 평균 기온은 화씨 27도(-2.5℃)~41도(5℃) 사이라고 합니다.

게다가 1년 중에 단 4일 정도 만이 화씨 77도, 즉 섭씨 25(℃)도를 넘는 더운 날씨(?)라고 합니다.


이에따라 페이스북의 데이터센터는 룰레오 지역의 추운 공기를 활용해 냉각에 이용할 수 있습니다. 즉, 냉각시스템을 돌리지 않고 바깥의 추운 공기(외기)를 통해 데이터센터 내의 열기를 식힐 수 있기 때문에 그만큼 냉방에 드는 비용을 절감할 수 있습니다.

최근 데이터센터의 전력 비용은 모든 사업자들에게 매우 심각한 문제로 인식되고 있습니다.

현재 전세계 데이터센터가 사용하는 전력 소비량은 전체의 약 1.5%를 차지하고 있다고 합니다.

이를 환산하면 50개 발전소와 맞먹는 양이며, 매년 2억 1000만 메트릭톤의 이산화탄소를 배출하는 셈입니다. 2억 1000만 메트릭톤의 이산화탄소는 100만대 자동차가 1년에 배출하는 양입니다.

데이터센터 전력 비용에서 가장 많은 비중을 차지하는 냉각 비용이 가장 문제입니다. 현재 냉각을 위해 데이터센터들이 사용하는 물은 양은 최대 3000억 리터에 달합니다.  이는 25만개 올림픽 사이즈 수영장 물에 해당하는 것이죠.

이를 비용으로 환산하면 1년에 전세계 데이터센터들이 소비하는 에너지는 약 270억 달러 규모에 해당합니다. 2014년엔 이 비용이 2배로 늘어날 것이라는 전망입니다.

이 때문에 데이터센터
들은 냉각을 위한 비용을 줄이려는 노력에 필사적입니다. 가장 효과적인 방법은 바로 추운 지역에 데이터센터를 짓는 것입니다. 바깥의 차가운 공기를 데이터센터 안으로 끌어들여 서버나 스토리지, 네트워크 등 IT 장비에서 발생하는 열을 식히는 방식이죠.

이때문에 비교적 추운 공기를 유지하고 있는 북유럽의 많은 나라들이 최근 데이터센터 유치를 위해  유인책을 펼치고 있다고 합니다. 스웨덴도 마찬가지입니다.

앞에서도 언급됐듯이 페이스북 데이터센터가 건립되는 룰레오의 평균 기온은 화씨 27도(-2.5℃)~41도(5℃) 사이이기 때문에 냉각을 위한 비용은 제로에 가까울 것으로 보입니다.

평균적으로 데이터센터 내부 온도는 18℃~21℃를 유지하고 있습니다. 외부 공기만으로 충분히 냉각이 가능하다면 데이터센터 전력 비용으로 들어갈 일은 거의 없을 것입니다.

또한 스웨덴은 통신인프라가 가장 잘 깔려있는 2번째 나라라고 하네요. 물론 1등은 우리나라(한국)입니다. 특히 룰레아 데이터센터는 주로 재생에너지를 사용할 예정이라고 합니다.

한편 이번 페이스북의 스웨
덴 데이터센터는 몇개의 건물로 나뉘어서 건설될 예정입니다.

시작은 2만 7000평방미터(약 8200평)에서 시작해서 2012년 말에 완공될 예정입니다. 트래픽이 늘어나게 되면 2013년 상반기에 또 하나를 더 지을 예정입니다.

지난 2월 페이스북이 발표한 오픈 컴퓨트 프로젝트를 기반으로 한 데이터센터 설계가 적용될 것으로 기대됩니다.

예전에 아이슬란드가 데이터센터의 최적지 중 하나로 꼽히고 있다는 포스팅을 한 적이 있는 참고하시기 바랍니다.(
‘열’ 받은 데이터센터, 국가 간 경쟁으로 번질까?)
2011/10/28 16:35 2011/10/28 16:35
사용자 삽입 이미지

페이스북이 지난 1년간 자사 데이터센터에 적용한 자체 제작 서버 스펙과 내부 모습들을 공개했습니다.

우리나라 기업
들 같으면 어림도 없는 일이겠지만 페이스북의 창업자인 마크 주커버그는 이번 정보 공유를 통해 자사 데이터센터를 더 개선할 수 있으며, 데이터센터에 대해 고민하고 있는 신생 기업들에게도 도움이 될 것이라고 말했습니다.

저도 2달 전 쯤 페이스북 데이터센터에 대한 포스팅을 한적이 있는데요.

관련 포스팅

‘페이스북’ 데이터센터는 어떤 모습일까 <상>
‘페이스북’ 데이터센터는 어떤 모습일까 <하>

이번 데이터센터 공개는 최근 페이스북이 ‘오픈 컴퓨트 프로젝트(http://opencompute.org)’에 참여하면서 진행된 것이라고 합니다. 이곳에 가시면 보다 구체적인 내용과 동영상을 보실 수 있습니다.

사용자 삽입 이미지

이번에 페이스북이 공개한 데이터센터는 최근 미국 오레곤주 프린빌에 건립한 새로운 센터로 내부에는 자체 제작한 서버와 냉각방식 등 다양한 내용을 공유하고 이습니다.

페이스북이 자체 제작한 서버와 오픈소스 소프트웨어 등을 통해 효율성과 비용절감에 많은 노력을 기울이고 있다는 점은 알려진 사실이지만, 이렇게 세부적인 내용들까지 공개된 점은 놀랍습니다.

결론적으로 1)페이스북이 자체 제작한 서버는 다른 어떠한 브랜드 서버 제품보다 38% 성능이 좋은 반면 비용은 오히려 24% 줄어들었고 2)페이스북 프린빌 데이터센터 PUE는 무려 1.07에 불과하다는 점 3)모든 서버의 에너지 효율이 93%에 달한다는 등의 사실이 업계를 놀라게 하고 있습니다.

PUE는 데이터센터 내 에너지 효율을 나타내는 지표로 데이터센터가 사용하는 총 전력을 IT장비가 사용하는 전력으로 나눈 값입니다.

사용자 삽입 이미지

예를 들어 PUE 값이 2라고 했을 때, 이는 곧 서버 자체에 필요한 전략이 1Kw일때, 해당 데이터센터에는 2Kw의 전력이 공급돼야 한다는 것을 뜻합니다. 나머지 1Kw의 전략은 IT장비에서 발생하는 열을 식히기 위한 냉각 등에 주로 사용이 된다는 얘기지요. 따라서 PUE 수치는 낮을수록 더 효율적입니다.

PUE가 1.07이라고 하면 서버 자체에 공급되는 전력 외에 낭비되는 부분은 거의 없다는 얘기입니다. 제가 불과 2달전 페이스북 데이터센터 관련 포스팅을 했을 때만 해도 프린빌 데이터센터의 UE는 1.15로 설계됐다고 알려져 있었습니다. 그런데 불과 2달 만에 이 수치가 또 줄어든 것입니다.

이는 별도의 냉각장치를 사용하기보다는 100% 외부의 찬 공기를 통한 증발식 냉각 시스템을 도입했기 때문이라고 설명하고 있네요.

자체 제작한 서버 랙(Rack, 서버를 놓을 수 있는 캐비넷)은 아래 사진과 같이 3개를 하나의 세트로 묶어 았으며 이 높이는 42U나 됩니다.

이 3개 세트의 랙에는 총 90대의 서버를 탑재할 수 있으며, 이 랙들 사이에 한 개의 배터리 랙을 놓아 AC 전원이 나갔을 때를 대비해 DC 전원을 제공할 수 있게 해 두었다고 합니다.

또한 흥미를 끄는 점 중 하나는 푸른색의 LED 조명입니다. 단가 자체는 일반 조명보다 약간 비싸지면 이를 통해 오히려 에너지 효율 자체를 높이고 내부를 시원하게 보이게 하는 효과가 있습니다. 마치 첨단의 사이버 세상에 있는 듯한 느낌도 들 것 같네요.

한편 페이스북은 이번 오픈 컴퓨트 프로젝트를 위해 AMD와 인텔, 콴타시스템, 알파테크, 파워-원, 델타 등과 협력을 맺고 있으며, 델과 HP, 랙스페이스, 스카이프, 징가 등의 업체와 차세대 데이터센터를 위한 공동 작업을 하고 있다고 밝혔습니다. 

최근 국내에서도 KT가 새로 건립한 클라우드 전용 데이터센터에 이러한 대만 콴타시스템을 통해 서버를 자체제작(ODM) 하기도 했는데요. 이번 페이스북의 정보 공유를 통해 국내 데이터센터 관련 업체들도 많은 도움이 됐으면 좋겠습니다.

2011/04/09 01:08 2011/04/09 01:08
사용자 삽입 이미지
▲페이스북 데이터센터의 내부 모습

이처럼 페이스북은 계속되는 이용자들의 급증과 엄청난 트래픽으로 인프라 지원에 힘을 쏟고 있는 상황인데, 2010년 말 기준으로 페이스북은 매달 6900억 이상의 페이지뷰가 발생하고 있으며 이는 전세계 인터넷 트래픽의 9.5% 가량을 차지하고 있다고 합니다.

특히 매일 1억장 이상의 새로운 사진이 사용자들에 의해 추가되면서, 엄청난 숫자의 스토리지(데이터 저장소)가 요구되고 있는 상황입니다.

통계에 따르면, 매달 페이스북을 통해 약 300억 장 이상 사진이 공유되고 있으며, 100만개 이상의 웹사이트, 55만개의 애플리케이션이 페이스북 커넥트 플랫폼을 사용하고 있다고 하지요.

‘페이스북’ 데이터센터는 어떤 모습일까<상> 편에서도 언급했듯이 이 같은 서비스 지원을 위해 페이스북은 현재 미국 내 산타클라라라와 산호세 실리콘밸리 내 최소 6개 데이터센터와 샌프란시스코 1개 데이터센터, 버지니아주 애쉬번의 약 3개 데이터센터를 임대하고 있다고 합니다.

또한 페이스북이 첫 번째로 건립 중인 오리건주의 자체 데이터센터 역시 최근 거의 완공돼  현재 일부는 운영이 시작된 것으로 알려지고 있는데요. 만약 페이스북의 성장세가 앞으로도 계속 현재와 같은 수준으로 이어진다면, 구글과 마이크로소프트, 야후, 이베이와 같은 대규모 데이터센터 구축이 불가피할 것으로 보입니다.

그렇다면 페이스북이 현재 운영 중인 데이터센터의 크기는 얼마나 될까요.
사용자 삽입 이미지
▲페이스북 데이터센터의 내부 모습. 얼마나 넓은지 직원이 자전거를 타고 이동하고 있습니다.

현재 페이스북이 임대하고 있는 데이터센터들의 평균 면적을 살펴보면 약 1만~3만 5000평방미터(3000평~1만 500평) 혹은 2.25~6메가와트 정도인 것으로 알려집니다.(데이터센터들의 전력 사용량이 급증하면서, 최근 데이터센터 건물주들은 면적 대신 전력 사용량을 바탕으로 임대료를 측정하고 있다고 합니다.)

페이스북이 구축 중인 오리건주 프린빌의 데이터센터의 경우, 건립 당시만 해도 전체 그키가 약 14만
7000평방미터(약 4만 5000평) 규모가 될 것으로 알려졌으나, 계속되는 성장세에 따라 당초 계획을 수정해, 이보다 2배 이상 늘린 16만 평방미터(약 5만평)를 추가했다고 합니다.

이에 따라 프린빌 데이터센터의 전체 면적은 약 30만 7000평방미터(9만 5000평)로 최종 확정됐으며, 이는 월마트 매장 2개를 합친 것보다 큰 크기라고 하네요.

사용자 삽입 이미지
▲미국 오리건주 프린빌 데이터센터 착공 행사

페이스북
조나단 헤일링거 기술운영 부사장은 “사진이나 비디오 추가 기능 없이 소수의 사람들만이 처음 페이스북을 시작했을 때만 해도 전체 서비스가 단 한대의 서버에서 가능했었지요”라고 회상합니다.

페이스북 기술팀에 따르면 2010년 6월 현재 페이스북은 약 6만 대의 서버를 운영하고 있다고 하는데요. 이는 지난 2008년 4월 1만대, 2009년 3만대로 늘어나며 매년 2~3배 증가한 수치입니다.

물론 이 6만대에는 현재 건립 중인 오리건 프린빌의 데이터센터 내에서 운영되는 서버는 포함돼 있지 않습니다. 프린빌과 노스캐롤라이나 중에 건립 중인 데이터센터에서 운영될 서버까지 합친다면 이보다 훨씬 늘어나겠지요.

참고로 현재 최대 인터넷 서비스 업체인 구글
의 경우 운영하는 서버가 45만대, 마이크로소프트(MS)가 30만대, HD/EDS가 38만대, 인텔이 10만대 등으로 알려져 있습니다.(물론 이 글을 쓰고 있는 현재에도 이들 업체의 서버는 계속 증설되고 있을 것이기 때문에 정확하다고 볼 수는 없습니다.)

그렇다면 페이스북은 어떤 브랜드의 서버를 사용할까요?

페이스북은 공식적으로 어떤 브랜드의 서버를 운용하고 있는지에 대해서는 공개적으로 밝힌 바 없지만, 알려진 바에 따르면 지난 2007년 래커블(현재의 SGI)사의 서버를 대량으로 구입했으며, 델 서버도 상당수 보유하고 있는 것으로 알려집니다. 

페이스북의 헤일링거 기
술운영 부사장은 종종 HP와 IBM과 같은 주요 서버 업체들에 대해 비판해왔는데, 그 이유는 이들 업체의 서버를 페이스북과 같은 거대한 인프라에 적용하기가 쉽지 않다는 것이었습니다.

즉, 페이스북과 같은 서비스를 지원하는 인프라는 복잡한 엔터프라이즈 컴퓨팅을 위한 기능들 대신 특정 워
크로드에 최적화된 베어본(bare bone) 서버가 경제학적으로 훨씬 낫다는 것입니다.

사용자 삽입 이미지
▲페이스북 데이터센터 내의 서버

이는 현재의 클라우드 컴퓨팅에서 적용되는 인프라와 일맥상통합니다.

수많은 사람들이 엄청난 양의 데이터를 저렴한 비용으로 공유하고 사용할 수 있게 하기 위해선 싼 가격의 범용 하드웨어 인프라에 오픈소스 소프트웨어를 활용해 비용을 줄이고, 대신 필요한 컴퓨팅 자원을 보다 쉽게 즉각적으로 늘릴 수 있는 것이 중요하기 때문입니다.

이같은 이유 때문에 헤일링거 부사장은 지난해 초에 있었던 한 기술 컨퍼런스에 참여해 티엘라(Tilera)와 시마이크로(SeaMicro) 등을 ‘주목해야 할 업체’라고 지목하기도 했다
고 합니다. 이들 제품의 멀티코어 프로세서가 전력은 적게 먹는 대신, 컴퓨팅 파워가 우수하기 때문이라네요.

페이스북은 최근 모바일칩의 절
대 강자인 ARM사의 저젼력의 프로세서를 사용하기 시작한 것으로도 알려졌는데, 이에 대해선 사실이 아니라고 공식적으로 밝힌 바 있습니다.

한편 앞에서도 언급했듯이, 페이스북은
오픈소스 소프트웨어를 사용해 다양한 서비스를 개발한 것으로 유명한데요.

페이스북은 PHP 프로그래밍 언어를 통해 개발됐고, MySQL 데이터베이스를 사용하고 있는데, 페이스북 엔지니어링팀은 ‘힙합(HipHop)’이라 불리는 프로그램을 개발했다고 합니다. 이는 PHP 소스코드를 C++로 전환해 성능을 높인 것이라고 하네요.

페이스북은 현재 MySQL 데이터베이스 클러스터를 사용하는 가장 큰 회사 중 하나로, 오픈소스 캐싱 시
템인 멤캐쉬드(memcashed)의 가장 큰 사용 그룹이기도 합니다. 멤캐쉬드는  고성능의 분산 메모리 캐싱 시스템인데, 사용량이 많은 동적 웹 어플리케이션에서 DB의 부하를 줄이기 위해서 사용됩니다.

지난 2009년 마크 주커버그가 직접 언급했듯이, 멤캐쉬드는 페이스북 서비스에서 웹 애플리케이션의 확장을 향상시켜주는 중요한 수단으로 사용되고 있습니다.

또한 페이스북은 다수의 플랫폼에서 운영되는 인프라를 묶을 수 있도록 RPC(remote procedure calls)를 사용해 프레임워크를 만들었으며, 이밖에도 아파치 하둡(Apache Hadoop)과 아파치 카산드라(Cassandra), 아파치 하이브(Hive), 플래쉬캐쉬(FlashCache), 스크라이브(Scribe), 토네이도(Tornado), Cfengine, Varnish 등의 오픈소스 소프트웨어가 대거 사용됐습니다.

그렇다면 페이스북은 데이터센터
운영에 얼마만큼의 돈을 쓸까요?

패이스북은 2010년 9월 현재 데이터센터 면적을 임대하는 데에만 연평균 5000만 달러(한화로 약 560억원)를 지불한다고 합니다.

이는 2009년 5월 기준 약 2000만 달러 임대 비용에 비해 2배 이상 증가한 수치입니다.

아마도 서버와 스토리지
등 하드웨어 투자 비용까지 포함한다면 어마어마한 수치이지요. 현재 페이스북은 ‘디지털 리얼리티 트러스’와 ‘듀퐁 패브로즈 테크놀로지’, ‘포춘 데이터센터’, ‘코어사이트 리얼리티’ 등 4개 데이터센터 업체에게 데이터센터 상면을 임대하고 있는 것으로 알려집니다

그렇다고 하더라도 여전
히 페이스북이 데이터센터 운영에 사용하는 비용은 다른 업체의 인프라 투자 비용에 비해선 적은 수치입니다. 구글은 2008년 기준 데이터센터 인프라에 23억 달러를 투자했으며, MS는 현재 보유 중인 개별적인 데이터센터에 5억 달러를 투자하고 있습니다.

그렇다면 페이스북 데이터센터를 운영하는 데에는 몇 명의 사람들이 필요할까요.

페이수북의 데이터센터 시설은 고도로 자동화시켜서 대략 한 사이트에 약 20~50명 정도로도 충분하다고 합니다. 이를 환산하면 보통 한명의 엔지니어가 약 100만명의 사용자가 사용할 인프라(서버)를 담당하는 수준입니다. 현재에는 1명당 120만명 수준까지 높였다고 하네요.

프린빌 데이터센터의 경우는 약 12개
월의 건설 기간 동안 200명 이상의 인력을 투입시켰는데, 향후 이를 운영할 인력으로 약 35명의 풀타임 직원 및 수십명의 파트타임 및 계약직 직원을 고용할 예정이라고 합니다.

또한 놀라운 점 중 하나는 페이스북의 첫 번째 데이터센터이기도 한 프린빌의 데이터센터는 에너지 효율의 척도를 알려주는 PUE 수치가 1.15에 달한다는 점입니다


PUE는 데이터센터가 사용하는 총
전력을 IT장비가 사용하는 전력으로 나눈 값입니다. 이는 데이터센터 효율성을 나타내는 업계의 표준 지표라고 할 수 있습니다.

일반적인 데이터센터는 PUE 값이 2정도로 산출이 되는데, 이는 곧 서버 자체에 필요한 전략이 1Kw일때, 해당 데이터센터에는 2Kw의 전력이 공급돼야 한다는 것을 뜻합니다.

나머지 1Kw의 전략은 IT장비에
서 발생하는 열을 식히기 위한 냉각 등에 주로 사용이 되기 때문에, PUE 수치는 낮을수록 더 효율적입니다.

PUE가 1.15라면 엄청나게 에너지 효율이 좋은 것입니다. 프린빌 데이터센터는 에너지 효율을 위해 냉수를 통한 증발식 냉각 방식을 도입할 예정인 것으로 알려져 있습니다.
 
사용자 삽입 이미지
▲페이스북이 도입할 새로운 방식의 UPS 공급 체계

또한 이 데이터센터는 현재 특허 출원 중인 새로운 방식의 UPS(무정전전원공급장치)를 도입할 것으로 전해지는데요.

이는 기존 UPS 장비보다 약 12% 가량 절감이 가능하다
고 합니다. 이는 구글의 전력 공급 방식을 따라한 것으로, 각 서버에 12볼트의 배터리를 추가시켜 공급하는 방식이라고 합니다.

이밖에도 서버에서 발생하는 열을 재활용
해 사무실 난방으로도 이용할 예정이라고 합니다.

사용자 삽입 이미지
▲그린피스는 페이스북이 데이터센터를 친환경적으로 건립해야 한다고 주장하고 있습니다

한편 환경단체인 그린피스는 최근 페이스북 데이터센터에 대해 비판적인 입장을 취해 주목받기도 했는데요.

이는 페이스북이 건립 중인 오리건주의 데이터센터에 필요한 전력의 절반 이상이 화석 연료를 사용하는 재생 불가능한 에너지이기 때문에, 친환경적이지 않다는 이유에서
였습니다.

페이스북 측은 이에 대
해 “이번 데이터센터는 건립 당시부터 미국 그린빌딩 표준인 (LEED)에 맞춰서 짓고 있으며, 석탄 뿐만 아니라 천연가스와 풍력 등 다양한 연료를 이용하는 하이브리드형 데이터센터”라고 강조하고 있습니다.

끝으로 ‘페이스북 이펙트’라는 책을 보면,
“페이스북은 인텔과 닮아있다”라는 글이 나옵니다. 즉, 페이스북이야말로 궁극적으로는 소비자들이 항상 사용하고 있지만, 거의 인식하지 못하는 PC 안의 인텔 반도체 칩과 같은 역할을 인터넷 세계에서 담당하게 될 것이라는 것입니다.

이미 우리 생활에 깊숙이 들어와있는 페이스북이 앞으로 또 우리 생활에 어떠한 영향을 미치게 될지 궁금해집니다. <끝>


2011/01/20 17:53 2011/01/20 17:53
사용자 삽입 이미지
2004년 2월, 하버드대 학생이던 마크 주커버그가 자신의 기숙사에서 한대의 서버를 놓고 시작했던 ‘페이스북’이 전세계를 들썩이게 하고 있습니다.

초창기 ‘더 페이스북’이라는 이름으로 시작한 것으로 알려진 이 소셜네트워크서비스(SNS)는 지난해엔 구글을 누르고 방문객이 가장 많았던 웹사이
트로 등극했습니다. 페이스북은 이제 인류의 일상생활을 지배하는 막강 미디어로 떠오르고 있는 것이지요.

현재 페이스북은 전세계 약 6억 명에 육박하는 이용자가 사용하고 있는데, 이 수억 명의 사람들이 자신들의 ‘페북’ 친구들과 담벼락을 통해 이야기를 나누고, 사진을 공유하기 위해서는 바로 서버와 네트워크 등 인프라스트럭처의 지원이 절대적이라고 할 수 있습니다.

포춘지의 테크놀로지 전문기자였던 데이비드 커크패트릭이 쓴 ‘페이스북 이펙트(facebook effect)’라는 책을 보면, 주커버그가 페이스북을 운영하는 과정에서 가장 신경썼던 점 중 하나가 바로 원활한 서비스를 위한 인프라 운영이었던 것으로 알려져 있는데요.

(참고로 ‘페이스북 이펙트’는 커트패트릭 기자가 마크 주커버그는 물론 페이스북 대내외 주요 인물들과 나눈 실제 인터뷰와 증언들을 바탕으로 한 페이스북의
비하인드 스토리를 담고 있습니다.)

아무리 좋은 서비스라고 하더라도, 이러한 인프라 지원이 원활하지 않아 서비스가 느려지고 장애가 잦아지면서 수많은 사용자들을 잃게 되는 경우가 많지요.  

실제로 페이스북 이전에 미국에서 생겨났던 SNS들 중에는 인프라 지원이 원활치 않아 결국 서비스가 흐지부지된 경우가 많은 것으로 알려집니다.

일반인들에게 잘 와 닿지는 않겠지만, 이 수억 명에 달하는 어마어마한 사람들이 자신의 페북 친구들과 담벼락을 통해 이야기를 나누고 사진을 공유할 수 있는 것은 바로 이러한 대량의 트래픽과 용량을 지원하는 데이터센터로 인해 가
능한 것입니다.

사용자 삽입 이미지
▲페이스북 데이터센터 내부

그렇다면 데이터센터는 무엇일까요. (위 사진처럼) 서버와 네트워크, 스토리지 등 서비스 운영에 필요한 IT 장비들을 한곳에 모아놓은 장소라고 할 수 있겠습니다.

공장 같이 큰 공간에 페이스북과 같은 인터넷 서비스를 원활하게 하기 위해서 시꺼멓게 생긴 길쭉한 장비들이 쭉 늘어뜨려져 있고, 이것들을 연결해
놓은 수많은 케이블들이 가득 차 있는 모습을 생각하시면 될 것 같습니다.

페이스북이 운영하는 미국 내 약 10여개 데이터센터에 있는 수만 대의 웹서버와 스토리지들은 광채널 케이블을 통해 전세계 사용자들을 연결시켜주고 있는 셈이지요.

여러분들이 페이스북을 통해 친구들과 정보를 공유할 때마다 이
데이터센터 내 서버들은 이러한 데이터를 받아서 이를 다시 ‘페친’들에게 뿌려주는 역할을 하고 있는 것입니다.

그렇다면 대체 6억명의 사람들이 이용하고 있는 페이스북의 데이터센터는 어떤 모습인지 상세히 들여다보도록 하겠습니다.

알려진 바에
따르면, 페이스북을 이용하는 사용자의 70% 이상이 미국 외 지역에 있음에도 불구하고, 페이스북의 데이터센터는 모두 미국 내에 존재하고 있습니다.

아마도 서비스를 계속해서 확장되게 되면, 이러한 데이터센터들이 해외에 생길 가능성도 있습니다만 현재까지는 미국에서만 운영하고 있
는 것으로 알려져 있습니다.

현재 페이스북은 적어도 미국 내 약 9~10개의 데이터센터를 임대해서 사용하고 있으며, 지난해부터는 오레건주 프린빌과 노스캐롤라이나주 포레스터시티에 직접 데이터센터를 짓고 있는 것으로 전해집니다.

사용자 삽입 이미지
▲오레건주 프린스빌에 위치한 페이스북 데이터센터

건립 중인 데이터센터들은 전력 및 냉각에 최적화돼 있다고 하는데요.

실제 데이터센터에서 소비되는 전력의 절반 이상이 IT 기기에 사용되는 것보다는 이러한 기기들에서 발생하는 열을 냉각시키는데 사용되고 있기 때문에, 현재 대부분의 데이터센터들은 냉각에 가장 많은 신경을 쓰고 있는 상황입니다.

페이스북은 2010년 6월 기준으로 약 6만 대 정도의 서버를 운영하고 있는데(물론 현재에도 계속해서 추가되고 있겠지요), 리눅스 기반의 x86 서버와 같은 저렴한 범용 하드웨어에 오픈소스 소프트웨어를 올려서 인프라를 구성하고 있다고 합니다.

이는 구글이나
야후 등 다른 인터넷 서비스 기업들의 인프라와 마찬가지로, 트래픽이 늘어날 때마다 저렴한 비용으로 쉽게 확장 가능한 구조로 돼 있는데요.

사용자 삽입 이미지
▲페이스북의 서버 증가 추이

범용 하드웨어와 오픈소스 소프트웨어의 구조는 현재 클라우드 컴퓨팅 환경에 가장 적절한 인프라 구성 조합으로 각광받고 있기도 합니다. 이는 엄청난 양의 데이터를 효율적으로 관리하고 저장하기 위한 방안으로 클라우드 컴퓨팅이 뜨고 있다는 점과 일맥상통합니다.

어찌됐든 페이스북의 경우, 단기간에 엄청난 속도로 사용자들이 늘어났기 때문에 적절한 시기에 서버를 늘려나가는 것이 매우 중요했는데, 페이스북에서 최고기술책임자(CTO)를 지냈던 아담 디안젤로는 ‘페이스북 이펙트’라는 책을 통해 이렇게 말하고 있습니다.

(참고로 아담 디안젤로는 마크 주커버그와 고등학교 3학년 시절 시냅스라는 음악 공유 소프트웨어를 함께 만든 사람으로, 페이스북을 퇴사한 이후에도 주커버그와 여전히 막역한 사이라고 하네요.)

“데
이터베이스에 과부하게 걸려 고치고 나면, 이메일 송신에 문제가 생겼지요. 이를 해결할 때쯤에는 사이트가 한계에 다다랐다는 느낌이 들고 결국 다음 주에 문제가 터지고 사이트 용량을 늘려가야 했어요. 산타클라라에 있는 데이터센터에 자주 가서 서버를 늘렸는데, 2005년 연말까지 페이스북이 서버와 네트워크 기기에 투자한 금액은 440만 달러(한화로 약 50억원)에 달합니다. 이윽고 페이스복이 사진공유서비스 시작하게 되면서, 페이스북은  향후 6개월 동안 사용하리라 계획했던 저장소(스토리지)를 6주 만에 소진하기에 이르렀습니다. 당시 데이터센터 소프트웨어 전문가인 제프 로스차일드의 경우, 용량 초과로 서버가 마비되는 등의 비상사태가 생기지 않도록 밤을 새면서 일하는 경우가 다반사였지요. 회사 전 직원이 데이터센터 상황을 파악하고 새 서버를 설치하는데 동원되기도 했었습니다.”

<계속>


2011/01/18 15:13 2011/01/18 15:13