사용자 삽입 이미지
이스북이 스웨덴 북부에 엄청나게 큰 새로운 데이터센터를 짓는다고 합니다. 미국 이외의 지역에는 처음 짓는 데이터센터입니다.

전세계적으로 이용자가 폭발적으로 증가하면서 저장해야 할 데이터들이 늘어남에 따른 것입니다. 현재 미국 밖의 지역에서의 페이스북 이용자가
전체 이용자의 75% 이상인 8억 명에 이른다고 합니다.

이번에 페이스북이 데이터센터를 짓는 곳이 북유럽 스웨덴 북부 노르보텐주에 있는 도시 룰레오입니다.

페이스북은 왜 이곳에 데이터센터를 짓는 것일까요. 이유는 바로 룰레오 지역의 서늘한 기
후 때문입니다.

룰레오는 알래스카의 페어뱅크와 같은 위도에 위치하고 있습니다.
룰레오의 평균 기온은 화씨 27도(-2.5℃)~41도(5℃) 사이라고 합니다.

게다가 1년 중에 단 4일 정도 만이 화씨 77도, 즉 섭씨 25(℃)도를 넘는 더운 날씨(?)라고 합니다.


이에따라 페이스북의 데이터센터는 룰레오 지역의 추운 공기를 활용해 냉각에 이용할 수 있습니다. 즉, 냉각시스템을 돌리지 않고 바깥의 추운 공기(외기)를 통해 데이터센터 내의 열기를 식힐 수 있기 때문에 그만큼 냉방에 드는 비용을 절감할 수 있습니다.

최근 데이터센터의 전력 비용은 모든 사업자들에게 매우 심각한 문제로 인식되고 있습니다.

현재 전세계 데이터센터가 사용하는 전력 소비량은 전체의 약 1.5%를 차지하고 있다고 합니다.

이를 환산하면 50개 발전소와 맞먹는 양이며, 매년 2억 1000만 메트릭톤의 이산화탄소를 배출하는 셈입니다. 2억 1000만 메트릭톤의 이산화탄소는 100만대 자동차가 1년에 배출하는 양입니다.

데이터센터 전력 비용에서 가장 많은 비중을 차지하는 냉각 비용이 가장 문제입니다. 현재 냉각을 위해 데이터센터들이 사용하는 물은 양은 최대 3000억 리터에 달합니다.  이는 25만개 올림픽 사이즈 수영장 물에 해당하는 것이죠.

이를 비용으로 환산하면 1년에 전세계 데이터센터들이 소비하는 에너지는 약 270억 달러 규모에 해당합니다. 2014년엔 이 비용이 2배로 늘어날 것이라는 전망입니다.

이 때문에 데이터센터
들은 냉각을 위한 비용을 줄이려는 노력에 필사적입니다. 가장 효과적인 방법은 바로 추운 지역에 데이터센터를 짓는 것입니다. 바깥의 차가운 공기를 데이터센터 안으로 끌어들여 서버나 스토리지, 네트워크 등 IT 장비에서 발생하는 열을 식히는 방식이죠.

이때문에 비교적 추운 공기를 유지하고 있는 북유럽의 많은 나라들이 최근 데이터센터 유치를 위해  유인책을 펼치고 있다고 합니다. 스웨덴도 마찬가지입니다.

앞에서도 언급됐듯이 페이스북 데이터센터가 건립되는 룰레오의 평균 기온은 화씨 27도(-2.5℃)~41도(5℃) 사이이기 때문에 냉각을 위한 비용은 제로에 가까울 것으로 보입니다.

평균적으로 데이터센터 내부 온도는 18℃~21℃를 유지하고 있습니다. 외부 공기만으로 충분히 냉각이 가능하다면 데이터센터 전력 비용으로 들어갈 일은 거의 없을 것입니다.

또한 스웨덴은 통신인프라가 가장 잘 깔려있는 2번째 나라라고 하네요. 물론 1등은 우리나라(한국)입니다. 특히 룰레아 데이터센터는 주로 재생에너지를 사용할 예정이라고 합니다.

한편 이번 페이스북의 스웨
덴 데이터센터는 몇개의 건물로 나뉘어서 건설될 예정입니다.

시작은 2만 7000평방미터(약 8200평)에서 시작해서 2012년 말에 완공될 예정입니다. 트래픽이 늘어나게 되면 2013년 상반기에 또 하나를 더 지을 예정입니다.

지난 2월 페이스북이 발표한 오픈 컴퓨트 프로젝트를 기반으로 한 데이터센터 설계가 적용될 것으로 기대됩니다.

예전에 아이슬란드가 데이터센터의 최적지 중 하나로 꼽히고 있다는 포스팅을 한 적이 있는 참고하시기 바랍니다.(
‘열’ 받은 데이터센터, 국가 간 경쟁으로 번질까?)
2011/10/28 16:35 2011/10/28 16:35
사용자 삽입 이미지

2년이라는 시간은 정보기술(IT)의 혁신을 가늠하기에는 충분한 시간입니다.

기업의 IT혁신을 가늠할 수 있는 곳은 어디일까요. 바로 데이터센터입니다. 데이터의 저장고로 불리던 데이터센터는 이제 기업의 IT 업무를 최후방에서 지원하는 곳이자 혁신을 이끄는 장소가 됐습니다. 따라서 데이터센터가 마비되면 기업의 업무도 마비되기 마련입니다.

이러한 데이터센터에서 핵심 역할을 수행하는 것은 무엇일까요. 다양한 요소가 있지만, 그 중심에는 서버가 있습니다. 또한 이 서버에서 가장 핵심적인 역할을 하는 것은 바로 CPU(중앙처리장치)입니다.

인텔은 전세계 서버 프로세서 시장의 90% 이상을 장악하고 있는 칩 제조업체입니다. 서버의 핵심요소를 제공하는 업체인 만큼, 이를 어떻게 효율적으로 운영하고 있는지는 업계의 관심입니다.

저는 2년 전 말레이시아의 인텔 데이터센터에 간 적이 있습니다. 말레이시아의 데이터센터는 인텔 아시아태평양 지역의 허브 역할을 하고 있는 곳으로, 미국 데이터센터를 제외하면 인텔 데이터센터 중 가장 큰 규모를 자랑하고 있죠.

얼마전 저는 인텔 말레이시아 데이터센터를 또 한차례 방문할 기회가 생겼습니다. 거의 2년 만이었습니다. 그동안 어떻게 바뀌었을지 무척 궁금했었지요,

2년 만에 방문한 인텔 데이터센터는 외관상으로는 그다지 변한 것이 없어보였습니다. 3번씩이나 거치던 보안 관문도 그대로였고, 데이터센터를 안내해주던 매니저도 여전했습니다.

가장 크게 변한 것은 서버 대수였습니다. 2009년에 4000대였던 서버는 2년 만에 무려 800여대가 줄어든 3200대에 불과했습니다. 상식적으로 2년이라는 기간 동안에 기업 데이터와 지원해야 할 업무가 더 늘어나면 늘어났지 줄어들 일은 없습니다. 그런데 오히려 서버 대수가 줄어든 데에는 기술적 혁신이 있었습니다.

첫째는 서버 통합, 두 번째는 가상화 기술이었습니다.

인텔은 최근 엄청난 속도로 이전보다 성능이 향상된 서버 프로세서를 잇달아 출시하고 있습니다. 지난 1995년 인텔이 싱글코어 서버 프로세서인 펜티엄 프로를 선보인 이후, 현재까지 약 15년 간 서버 프로세서 시장은 급속도로 발전해 왔습니다.

이윽고 2005년 1개의 CPU에서 2개의 코어가 탑재된 듀얼코어 프로세서가 탑재된 이후, 쿼드코어(4코어), 헥사코어(6코어), 옥사코어(8개)까지 거침없이 출시됐다. 최근에는 1개의 CPU에 10코어까지 탑재가 가능한 E7 프로세서까지 출시되면서 업계의 놀라움을 자아내고 있습니다.

인텔 말레이시아 데이터센터도 새로운 서버 프로세서가 출시될 때마다 최신 제품으로 교체하는 작업을 꾸준히 해 왔습니다. 자세히는 밝히지 않았으나 아마도 현재 말레이시아데이터센터는 현재까지도 꾸준히 8코어나 10코어 프로세서를 탑재한 서버로 교체하고 있을 것으로 보입니다.

평균적으로 20대의 노후화된 서버를 최신 서버 1대로 교체하고 있는 것으로 알려지고 있습니다.

또 한가지 기술 혁신은 가상화 기술입니다. 2009년 방문 당시만 해도 인텔의 가상화 도입 비중은 10%대에 불과했습니다. 그랬던 것이 2년 사이에 50%까지 높아졌습니다.

즉, 인텔 서버 2대 중 1대는 가상화된 서버라는 설명입니다. 말레이시아 데이터센터의 경우 성능이 비교적 낮은 서버(저집적) 구역을 함께 운영하고 있기 때문에, 평균 서버 1대당 탑재된 가상머신(VM) 수가 많지는 않습니다. 현재 서버 1대당 약 10개의 VM을 운영하고 있지만, 향후 이를 40개 VM까지 늘린다는 계획을 갖고 있습니다.

어찌됐든 서버 대수가 줄어듬에 따라, 소프트웨어 라이선스 비용과 전력 비용 등을 줄일 수 있었다는 설명입니다.

특히 최근에는 모바일 기기의 확장에 따라 데이터센터는 더욱 그 중요도가 커지고 있는데요. 인텔의 조사에 따르면 스마트폰 600대가 판매될 때마다 이들 기기에 필요한 서비스를 제공하기 위해 서버 1대가 추가로 필요하며, 데이터 사용량이 더 높은 태블릿 PC의 경우 122대가 추가될 때마다 서버 1대가 필요하다고 합니다.

이 때문에 서버 프로세서 시장은 계속해서 늘어나고 있으며, 앞으로도 이 수치는 계속해서 늘어날 것으로 보입니다.

이밖에도 냉방 비용을 효율화시킴으로써 전력 비용을 절감하기 위한 노력도 계속 기울이고 있는데요. 인텔의 경우도 현재 데이터센터 연간 지출에서 가장 많은 비중을 차지하는 것이냉각과 전력 비용이라고 합니다. 이 비중은 전체의 80%를 차지하고 있기 때문에 인텔에게도 가장 큰 골칫거리입니다.

이를 위해 인텔이 사용하고 있는 냉각방식은 뜨거운 공기와 이를 식히기 위한 찬공기가 섞이지 않도록 해 냉방 효율을 높이는 ‘핫 아일 컨테인먼트(hot aisle containment)’ 시스템과 ‘굴뚝 타입의 캐비넷(Chimney Type Cabinet)’입니다.

자세한 설명은 아래 기사 참고
[인텔 클라우드 서밋 2011] “데이터센터 관리의 핵심은 냉각”

이는 인텔이 수년 간의 연구와 실험을 거쳐 자체적으로 고안해 낸 방식이라고 합니다. 이처럼 지난 2년 간 인텔이 보여준 데이터센터의 변화는 IT의 혁신을 실감할 수 있는 기회였습니다.

(기회가 있을지 모르겠지만) 또 2년 후 인텔 데이터센터를 방문하면, 어떤 모습으로 바뀌어 있을지 정말 기대됩니다.
2011/07/29 16:08 2011/07/29 16:08
사용자 삽입 이미지

페이스북이 지난 1년간 자사 데이터센터에 적용한 자체 제작 서버 스펙과 내부 모습들을 공개했습니다.

우리나라 기업
들 같으면 어림도 없는 일이겠지만 페이스북의 창업자인 마크 주커버그는 이번 정보 공유를 통해 자사 데이터센터를 더 개선할 수 있으며, 데이터센터에 대해 고민하고 있는 신생 기업들에게도 도움이 될 것이라고 말했습니다.

저도 2달 전 쯤 페이스북 데이터센터에 대한 포스팅을 한적이 있는데요.

관련 포스팅

‘페이스북’ 데이터센터는 어떤 모습일까 <상>
‘페이스북’ 데이터센터는 어떤 모습일까 <하>

이번 데이터센터 공개는 최근 페이스북이 ‘오픈 컴퓨트 프로젝트(http://opencompute.org)’에 참여하면서 진행된 것이라고 합니다. 이곳에 가시면 보다 구체적인 내용과 동영상을 보실 수 있습니다.

사용자 삽입 이미지

이번에 페이스북이 공개한 데이터센터는 최근 미국 오레곤주 프린빌에 건립한 새로운 센터로 내부에는 자체 제작한 서버와 냉각방식 등 다양한 내용을 공유하고 이습니다.

페이스북이 자체 제작한 서버와 오픈소스 소프트웨어 등을 통해 효율성과 비용절감에 많은 노력을 기울이고 있다는 점은 알려진 사실이지만, 이렇게 세부적인 내용들까지 공개된 점은 놀랍습니다.

결론적으로 1)페이스북이 자체 제작한 서버는 다른 어떠한 브랜드 서버 제품보다 38% 성능이 좋은 반면 비용은 오히려 24% 줄어들었고 2)페이스북 프린빌 데이터센터 PUE는 무려 1.07에 불과하다는 점 3)모든 서버의 에너지 효율이 93%에 달한다는 등의 사실이 업계를 놀라게 하고 있습니다.

PUE는 데이터센터 내 에너지 효율을 나타내는 지표로 데이터센터가 사용하는 총 전력을 IT장비가 사용하는 전력으로 나눈 값입니다.

사용자 삽입 이미지

예를 들어 PUE 값이 2라고 했을 때, 이는 곧 서버 자체에 필요한 전략이 1Kw일때, 해당 데이터센터에는 2Kw의 전력이 공급돼야 한다는 것을 뜻합니다. 나머지 1Kw의 전략은 IT장비에서 발생하는 열을 식히기 위한 냉각 등에 주로 사용이 된다는 얘기지요. 따라서 PUE 수치는 낮을수록 더 효율적입니다.

PUE가 1.07이라고 하면 서버 자체에 공급되는 전력 외에 낭비되는 부분은 거의 없다는 얘기입니다. 제가 불과 2달전 페이스북 데이터센터 관련 포스팅을 했을 때만 해도 프린빌 데이터센터의 UE는 1.15로 설계됐다고 알려져 있었습니다. 그런데 불과 2달 만에 이 수치가 또 줄어든 것입니다.

이는 별도의 냉각장치를 사용하기보다는 100% 외부의 찬 공기를 통한 증발식 냉각 시스템을 도입했기 때문이라고 설명하고 있네요.

자체 제작한 서버 랙(Rack, 서버를 놓을 수 있는 캐비넷)은 아래 사진과 같이 3개를 하나의 세트로 묶어 았으며 이 높이는 42U나 됩니다.

이 3개 세트의 랙에는 총 90대의 서버를 탑재할 수 있으며, 이 랙들 사이에 한 개의 배터리 랙을 놓아 AC 전원이 나갔을 때를 대비해 DC 전원을 제공할 수 있게 해 두었다고 합니다.

또한 흥미를 끄는 점 중 하나는 푸른색의 LED 조명입니다. 단가 자체는 일반 조명보다 약간 비싸지면 이를 통해 오히려 에너지 효율 자체를 높이고 내부를 시원하게 보이게 하는 효과가 있습니다. 마치 첨단의 사이버 세상에 있는 듯한 느낌도 들 것 같네요.

한편 페이스북은 이번 오픈 컴퓨트 프로젝트를 위해 AMD와 인텔, 콴타시스템, 알파테크, 파워-원, 델타 등과 협력을 맺고 있으며, 델과 HP, 랙스페이스, 스카이프, 징가 등의 업체와 차세대 데이터센터를 위한 공동 작업을 하고 있다고 밝혔습니다. 

최근 국내에서도 KT가 새로 건립한 클라우드 전용 데이터센터에 이러한 대만 콴타시스템을 통해 서버를 자체제작(ODM) 하기도 했는데요. 이번 페이스북의 정보 공유를 통해 국내 데이터센터 관련 업체들도 많은 도움이 됐으면 좋겠습니다.

2011/04/09 01:08 2011/04/09 01:08
사용자 삽입 이미지
▲페이스북 데이터센터의 내부 모습

이처럼 페이스북은 계속되는 이용자들의 급증과 엄청난 트래픽으로 인프라 지원에 힘을 쏟고 있는 상황인데, 2010년 말 기준으로 페이스북은 매달 6900억 이상의 페이지뷰가 발생하고 있으며 이는 전세계 인터넷 트래픽의 9.5% 가량을 차지하고 있다고 합니다.

특히 매일 1억장 이상의 새로운 사진이 사용자들에 의해 추가되면서, 엄청난 숫자의 스토리지(데이터 저장소)가 요구되고 있는 상황입니다.

통계에 따르면, 매달 페이스북을 통해 약 300억 장 이상 사진이 공유되고 있으며, 100만개 이상의 웹사이트, 55만개의 애플리케이션이 페이스북 커넥트 플랫폼을 사용하고 있다고 하지요.

‘페이스북’ 데이터센터는 어떤 모습일까<상> 편에서도 언급했듯이 이 같은 서비스 지원을 위해 페이스북은 현재 미국 내 산타클라라라와 산호세 실리콘밸리 내 최소 6개 데이터센터와 샌프란시스코 1개 데이터센터, 버지니아주 애쉬번의 약 3개 데이터센터를 임대하고 있다고 합니다.

또한 페이스북이 첫 번째로 건립 중인 오리건주의 자체 데이터센터 역시 최근 거의 완공돼  현재 일부는 운영이 시작된 것으로 알려지고 있는데요. 만약 페이스북의 성장세가 앞으로도 계속 현재와 같은 수준으로 이어진다면, 구글과 마이크로소프트, 야후, 이베이와 같은 대규모 데이터센터 구축이 불가피할 것으로 보입니다.

그렇다면 페이스북이 현재 운영 중인 데이터센터의 크기는 얼마나 될까요.
사용자 삽입 이미지
▲페이스북 데이터센터의 내부 모습. 얼마나 넓은지 직원이 자전거를 타고 이동하고 있습니다.

현재 페이스북이 임대하고 있는 데이터센터들의 평균 면적을 살펴보면 약 1만~3만 5000평방미터(3000평~1만 500평) 혹은 2.25~6메가와트 정도인 것으로 알려집니다.(데이터센터들의 전력 사용량이 급증하면서, 최근 데이터센터 건물주들은 면적 대신 전력 사용량을 바탕으로 임대료를 측정하고 있다고 합니다.)

페이스북이 구축 중인 오리건주 프린빌의 데이터센터의 경우, 건립 당시만 해도 전체 그키가 약 14만
7000평방미터(약 4만 5000평) 규모가 될 것으로 알려졌으나, 계속되는 성장세에 따라 당초 계획을 수정해, 이보다 2배 이상 늘린 16만 평방미터(약 5만평)를 추가했다고 합니다.

이에 따라 프린빌 데이터센터의 전체 면적은 약 30만 7000평방미터(9만 5000평)로 최종 확정됐으며, 이는 월마트 매장 2개를 합친 것보다 큰 크기라고 하네요.

사용자 삽입 이미지
▲미국 오리건주 프린빌 데이터센터 착공 행사

페이스북
조나단 헤일링거 기술운영 부사장은 “사진이나 비디오 추가 기능 없이 소수의 사람들만이 처음 페이스북을 시작했을 때만 해도 전체 서비스가 단 한대의 서버에서 가능했었지요”라고 회상합니다.

페이스북 기술팀에 따르면 2010년 6월 현재 페이스북은 약 6만 대의 서버를 운영하고 있다고 하는데요. 이는 지난 2008년 4월 1만대, 2009년 3만대로 늘어나며 매년 2~3배 증가한 수치입니다.

물론 이 6만대에는 현재 건립 중인 오리건 프린빌의 데이터센터 내에서 운영되는 서버는 포함돼 있지 않습니다. 프린빌과 노스캐롤라이나 중에 건립 중인 데이터센터에서 운영될 서버까지 합친다면 이보다 훨씬 늘어나겠지요.

참고로 현재 최대 인터넷 서비스 업체인 구글
의 경우 운영하는 서버가 45만대, 마이크로소프트(MS)가 30만대, HD/EDS가 38만대, 인텔이 10만대 등으로 알려져 있습니다.(물론 이 글을 쓰고 있는 현재에도 이들 업체의 서버는 계속 증설되고 있을 것이기 때문에 정확하다고 볼 수는 없습니다.)

그렇다면 페이스북은 어떤 브랜드의 서버를 사용할까요?

페이스북은 공식적으로 어떤 브랜드의 서버를 운용하고 있는지에 대해서는 공개적으로 밝힌 바 없지만, 알려진 바에 따르면 지난 2007년 래커블(현재의 SGI)사의 서버를 대량으로 구입했으며, 델 서버도 상당수 보유하고 있는 것으로 알려집니다. 

페이스북의 헤일링거 기
술운영 부사장은 종종 HP와 IBM과 같은 주요 서버 업체들에 대해 비판해왔는데, 그 이유는 이들 업체의 서버를 페이스북과 같은 거대한 인프라에 적용하기가 쉽지 않다는 것이었습니다.

즉, 페이스북과 같은 서비스를 지원하는 인프라는 복잡한 엔터프라이즈 컴퓨팅을 위한 기능들 대신 특정 워
크로드에 최적화된 베어본(bare bone) 서버가 경제학적으로 훨씬 낫다는 것입니다.

사용자 삽입 이미지
▲페이스북 데이터센터 내의 서버

이는 현재의 클라우드 컴퓨팅에서 적용되는 인프라와 일맥상통합니다.

수많은 사람들이 엄청난 양의 데이터를 저렴한 비용으로 공유하고 사용할 수 있게 하기 위해선 싼 가격의 범용 하드웨어 인프라에 오픈소스 소프트웨어를 활용해 비용을 줄이고, 대신 필요한 컴퓨팅 자원을 보다 쉽게 즉각적으로 늘릴 수 있는 것이 중요하기 때문입니다.

이같은 이유 때문에 헤일링거 부사장은 지난해 초에 있었던 한 기술 컨퍼런스에 참여해 티엘라(Tilera)와 시마이크로(SeaMicro) 등을 ‘주목해야 할 업체’라고 지목하기도 했다
고 합니다. 이들 제품의 멀티코어 프로세서가 전력은 적게 먹는 대신, 컴퓨팅 파워가 우수하기 때문이라네요.

페이스북은 최근 모바일칩의 절
대 강자인 ARM사의 저젼력의 프로세서를 사용하기 시작한 것으로도 알려졌는데, 이에 대해선 사실이 아니라고 공식적으로 밝힌 바 있습니다.

한편 앞에서도 언급했듯이, 페이스북은
오픈소스 소프트웨어를 사용해 다양한 서비스를 개발한 것으로 유명한데요.

페이스북은 PHP 프로그래밍 언어를 통해 개발됐고, MySQL 데이터베이스를 사용하고 있는데, 페이스북 엔지니어링팀은 ‘힙합(HipHop)’이라 불리는 프로그램을 개발했다고 합니다. 이는 PHP 소스코드를 C++로 전환해 성능을 높인 것이라고 하네요.

페이스북은 현재 MySQL 데이터베이스 클러스터를 사용하는 가장 큰 회사 중 하나로, 오픈소스 캐싱 시
템인 멤캐쉬드(memcashed)의 가장 큰 사용 그룹이기도 합니다. 멤캐쉬드는  고성능의 분산 메모리 캐싱 시스템인데, 사용량이 많은 동적 웹 어플리케이션에서 DB의 부하를 줄이기 위해서 사용됩니다.

지난 2009년 마크 주커버그가 직접 언급했듯이, 멤캐쉬드는 페이스북 서비스에서 웹 애플리케이션의 확장을 향상시켜주는 중요한 수단으로 사용되고 있습니다.

또한 페이스북은 다수의 플랫폼에서 운영되는 인프라를 묶을 수 있도록 RPC(remote procedure calls)를 사용해 프레임워크를 만들었으며, 이밖에도 아파치 하둡(Apache Hadoop)과 아파치 카산드라(Cassandra), 아파치 하이브(Hive), 플래쉬캐쉬(FlashCache), 스크라이브(Scribe), 토네이도(Tornado), Cfengine, Varnish 등의 오픈소스 소프트웨어가 대거 사용됐습니다.

그렇다면 페이스북은 데이터센터
운영에 얼마만큼의 돈을 쓸까요?

패이스북은 2010년 9월 현재 데이터센터 면적을 임대하는 데에만 연평균 5000만 달러(한화로 약 560억원)를 지불한다고 합니다.

이는 2009년 5월 기준 약 2000만 달러 임대 비용에 비해 2배 이상 증가한 수치입니다.

아마도 서버와 스토리지
등 하드웨어 투자 비용까지 포함한다면 어마어마한 수치이지요. 현재 페이스북은 ‘디지털 리얼리티 트러스’와 ‘듀퐁 패브로즈 테크놀로지’, ‘포춘 데이터센터’, ‘코어사이트 리얼리티’ 등 4개 데이터센터 업체에게 데이터센터 상면을 임대하고 있는 것으로 알려집니다

그렇다고 하더라도 여전
히 페이스북이 데이터센터 운영에 사용하는 비용은 다른 업체의 인프라 투자 비용에 비해선 적은 수치입니다. 구글은 2008년 기준 데이터센터 인프라에 23억 달러를 투자했으며, MS는 현재 보유 중인 개별적인 데이터센터에 5억 달러를 투자하고 있습니다.

그렇다면 페이스북 데이터센터를 운영하는 데에는 몇 명의 사람들이 필요할까요.

페이수북의 데이터센터 시설은 고도로 자동화시켜서 대략 한 사이트에 약 20~50명 정도로도 충분하다고 합니다. 이를 환산하면 보통 한명의 엔지니어가 약 100만명의 사용자가 사용할 인프라(서버)를 담당하는 수준입니다. 현재에는 1명당 120만명 수준까지 높였다고 하네요.

프린빌 데이터센터의 경우는 약 12개
월의 건설 기간 동안 200명 이상의 인력을 투입시켰는데, 향후 이를 운영할 인력으로 약 35명의 풀타임 직원 및 수십명의 파트타임 및 계약직 직원을 고용할 예정이라고 합니다.

또한 놀라운 점 중 하나는 페이스북의 첫 번째 데이터센터이기도 한 프린빌의 데이터센터는 에너지 효율의 척도를 알려주는 PUE 수치가 1.15에 달한다는 점입니다


PUE는 데이터센터가 사용하는 총
전력을 IT장비가 사용하는 전력으로 나눈 값입니다. 이는 데이터센터 효율성을 나타내는 업계의 표준 지표라고 할 수 있습니다.

일반적인 데이터센터는 PUE 값이 2정도로 산출이 되는데, 이는 곧 서버 자체에 필요한 전략이 1Kw일때, 해당 데이터센터에는 2Kw의 전력이 공급돼야 한다는 것을 뜻합니다.

나머지 1Kw의 전략은 IT장비에
서 발생하는 열을 식히기 위한 냉각 등에 주로 사용이 되기 때문에, PUE 수치는 낮을수록 더 효율적입니다.

PUE가 1.15라면 엄청나게 에너지 효율이 좋은 것입니다. 프린빌 데이터센터는 에너지 효율을 위해 냉수를 통한 증발식 냉각 방식을 도입할 예정인 것으로 알려져 있습니다.
 
사용자 삽입 이미지
▲페이스북이 도입할 새로운 방식의 UPS 공급 체계

또한 이 데이터센터는 현재 특허 출원 중인 새로운 방식의 UPS(무정전전원공급장치)를 도입할 것으로 전해지는데요.

이는 기존 UPS 장비보다 약 12% 가량 절감이 가능하다
고 합니다. 이는 구글의 전력 공급 방식을 따라한 것으로, 각 서버에 12볼트의 배터리를 추가시켜 공급하는 방식이라고 합니다.

이밖에도 서버에서 발생하는 열을 재활용
해 사무실 난방으로도 이용할 예정이라고 합니다.

사용자 삽입 이미지
▲그린피스는 페이스북이 데이터센터를 친환경적으로 건립해야 한다고 주장하고 있습니다

한편 환경단체인 그린피스는 최근 페이스북 데이터센터에 대해 비판적인 입장을 취해 주목받기도 했는데요.

이는 페이스북이 건립 중인 오리건주의 데이터센터에 필요한 전력의 절반 이상이 화석 연료를 사용하는 재생 불가능한 에너지이기 때문에, 친환경적이지 않다는 이유에서
였습니다.

페이스북 측은 이에 대
해 “이번 데이터센터는 건립 당시부터 미국 그린빌딩 표준인 (LEED)에 맞춰서 짓고 있으며, 석탄 뿐만 아니라 천연가스와 풍력 등 다양한 연료를 이용하는 하이브리드형 데이터센터”라고 강조하고 있습니다.

끝으로 ‘페이스북 이펙트’라는 책을 보면,
“페이스북은 인텔과 닮아있다”라는 글이 나옵니다. 즉, 페이스북이야말로 궁극적으로는 소비자들이 항상 사용하고 있지만, 거의 인식하지 못하는 PC 안의 인텔 반도체 칩과 같은 역할을 인터넷 세계에서 담당하게 될 것이라는 것입니다.

이미 우리 생활에 깊숙이 들어와있는 페이스북이 앞으로 또 우리 생활에 어떠한 영향을 미치게 될지 궁금해집니다. <끝>


2011/01/20 17:53 2011/01/20 17:53
사용자 삽입 이미지
2004년 2월, 하버드대 학생이던 마크 주커버그가 자신의 기숙사에서 한대의 서버를 놓고 시작했던 ‘페이스북’이 전세계를 들썩이게 하고 있습니다.

초창기 ‘더 페이스북’이라는 이름으로 시작한 것으로 알려진 이 소셜네트워크서비스(SNS)는 지난해엔 구글을 누르고 방문객이 가장 많았던 웹사이
트로 등극했습니다. 페이스북은 이제 인류의 일상생활을 지배하는 막강 미디어로 떠오르고 있는 것이지요.

현재 페이스북은 전세계 약 6억 명에 육박하는 이용자가 사용하고 있는데, 이 수억 명의 사람들이 자신들의 ‘페북’ 친구들과 담벼락을 통해 이야기를 나누고, 사진을 공유하기 위해서는 바로 서버와 네트워크 등 인프라스트럭처의 지원이 절대적이라고 할 수 있습니다.

포춘지의 테크놀로지 전문기자였던 데이비드 커크패트릭이 쓴 ‘페이스북 이펙트(facebook effect)’라는 책을 보면, 주커버그가 페이스북을 운영하는 과정에서 가장 신경썼던 점 중 하나가 바로 원활한 서비스를 위한 인프라 운영이었던 것으로 알려져 있는데요.

(참고로 ‘페이스북 이펙트’는 커트패트릭 기자가 마크 주커버그는 물론 페이스북 대내외 주요 인물들과 나눈 실제 인터뷰와 증언들을 바탕으로 한 페이스북의
비하인드 스토리를 담고 있습니다.)

아무리 좋은 서비스라고 하더라도, 이러한 인프라 지원이 원활하지 않아 서비스가 느려지고 장애가 잦아지면서 수많은 사용자들을 잃게 되는 경우가 많지요.  

실제로 페이스북 이전에 미국에서 생겨났던 SNS들 중에는 인프라 지원이 원활치 않아 결국 서비스가 흐지부지된 경우가 많은 것으로 알려집니다.

일반인들에게 잘 와 닿지는 않겠지만, 이 수억 명에 달하는 어마어마한 사람들이 자신의 페북 친구들과 담벼락을 통해 이야기를 나누고 사진을 공유할 수 있는 것은 바로 이러한 대량의 트래픽과 용량을 지원하는 데이터센터로 인해 가
능한 것입니다.

사용자 삽입 이미지
▲페이스북 데이터센터 내부

그렇다면 데이터센터는 무엇일까요. (위 사진처럼) 서버와 네트워크, 스토리지 등 서비스 운영에 필요한 IT 장비들을 한곳에 모아놓은 장소라고 할 수 있겠습니다.

공장 같이 큰 공간에 페이스북과 같은 인터넷 서비스를 원활하게 하기 위해서 시꺼멓게 생긴 길쭉한 장비들이 쭉 늘어뜨려져 있고, 이것들을 연결해
놓은 수많은 케이블들이 가득 차 있는 모습을 생각하시면 될 것 같습니다.

페이스북이 운영하는 미국 내 약 10여개 데이터센터에 있는 수만 대의 웹서버와 스토리지들은 광채널 케이블을 통해 전세계 사용자들을 연결시켜주고 있는 셈이지요.

여러분들이 페이스북을 통해 친구들과 정보를 공유할 때마다 이
데이터센터 내 서버들은 이러한 데이터를 받아서 이를 다시 ‘페친’들에게 뿌려주는 역할을 하고 있는 것입니다.

그렇다면 대체 6억명의 사람들이 이용하고 있는 페이스북의 데이터센터는 어떤 모습인지 상세히 들여다보도록 하겠습니다.

알려진 바에
따르면, 페이스북을 이용하는 사용자의 70% 이상이 미국 외 지역에 있음에도 불구하고, 페이스북의 데이터센터는 모두 미국 내에 존재하고 있습니다.

아마도 서비스를 계속해서 확장되게 되면, 이러한 데이터센터들이 해외에 생길 가능성도 있습니다만 현재까지는 미국에서만 운영하고 있
는 것으로 알려져 있습니다.

현재 페이스북은 적어도 미국 내 약 9~10개의 데이터센터를 임대해서 사용하고 있으며, 지난해부터는 오레건주 프린빌과 노스캐롤라이나주 포레스터시티에 직접 데이터센터를 짓고 있는 것으로 전해집니다.

사용자 삽입 이미지
▲오레건주 프린스빌에 위치한 페이스북 데이터센터

건립 중인 데이터센터들은 전력 및 냉각에 최적화돼 있다고 하는데요.

실제 데이터센터에서 소비되는 전력의 절반 이상이 IT 기기에 사용되는 것보다는 이러한 기기들에서 발생하는 열을 냉각시키는데 사용되고 있기 때문에, 현재 대부분의 데이터센터들은 냉각에 가장 많은 신경을 쓰고 있는 상황입니다.

페이스북은 2010년 6월 기준으로 약 6만 대 정도의 서버를 운영하고 있는데(물론 현재에도 계속해서 추가되고 있겠지요), 리눅스 기반의 x86 서버와 같은 저렴한 범용 하드웨어에 오픈소스 소프트웨어를 올려서 인프라를 구성하고 있다고 합니다.

이는 구글이나
야후 등 다른 인터넷 서비스 기업들의 인프라와 마찬가지로, 트래픽이 늘어날 때마다 저렴한 비용으로 쉽게 확장 가능한 구조로 돼 있는데요.

사용자 삽입 이미지
▲페이스북의 서버 증가 추이

범용 하드웨어와 오픈소스 소프트웨어의 구조는 현재 클라우드 컴퓨팅 환경에 가장 적절한 인프라 구성 조합으로 각광받고 있기도 합니다. 이는 엄청난 양의 데이터를 효율적으로 관리하고 저장하기 위한 방안으로 클라우드 컴퓨팅이 뜨고 있다는 점과 일맥상통합니다.

어찌됐든 페이스북의 경우, 단기간에 엄청난 속도로 사용자들이 늘어났기 때문에 적절한 시기에 서버를 늘려나가는 것이 매우 중요했는데, 페이스북에서 최고기술책임자(CTO)를 지냈던 아담 디안젤로는 ‘페이스북 이펙트’라는 책을 통해 이렇게 말하고 있습니다.

(참고로 아담 디안젤로는 마크 주커버그와 고등학교 3학년 시절 시냅스라는 음악 공유 소프트웨어를 함께 만든 사람으로, 페이스북을 퇴사한 이후에도 주커버그와 여전히 막역한 사이라고 하네요.)

“데
이터베이스에 과부하게 걸려 고치고 나면, 이메일 송신에 문제가 생겼지요. 이를 해결할 때쯤에는 사이트가 한계에 다다랐다는 느낌이 들고 결국 다음 주에 문제가 터지고 사이트 용량을 늘려가야 했어요. 산타클라라에 있는 데이터센터에 자주 가서 서버를 늘렸는데, 2005년 연말까지 페이스북이 서버와 네트워크 기기에 투자한 금액은 440만 달러(한화로 약 50억원)에 달합니다. 이윽고 페이스복이 사진공유서비스 시작하게 되면서, 페이스북은  향후 6개월 동안 사용하리라 계획했던 저장소(스토리지)를 6주 만에 소진하기에 이르렀습니다. 당시 데이터센터 소프트웨어 전문가인 제프 로스차일드의 경우, 용량 초과로 서버가 마비되는 등의 비상사태가 생기지 않도록 밤을 새면서 일하는 경우가 다반사였지요. 회사 전 직원이 데이터센터 상황을 파악하고 새 서버를 설치하는데 동원되기도 했었습니다.”

<계속>


2011/01/18 15:13 2011/01/18 15:13
사용자 삽입 이미지
▲사진은 서울 상암동에 위치한 우리금융그룹 데이터센터


북한의 연평도 포격 도발이 있은지 이제 8일째에 접어듭니다. 오늘(1일) 한-미 연합훈련이 끝난 이후에 북한의 추가 공격이 발생할 수도 있다는 김태영 국방부 장관의 말에 또 다시 국민들의 불안감도 커지고 있습니다.

며칠전 지인들과 저녁을 먹다가, “정말 이러다가 전쟁이라도 나는 것 아니냐”는 얘기를 하다가 이는 곧이어 은행 예치금과 대출금에 대한 이야기로 이어졌습니다.

(절대로 일어나서는 안 되겠지만) 만약 전쟁이 난다면, 은행 예금과 대출금 정보는 어떻게 되느냐가 그날의 주요 화제로 떠올랐지요.

지인 중 한명은 “아는 사람한테 들었는데 은행에서 호주나 중국 등에 다른 국가에 데이터 백업을 별도로 해놓았기 때문에 전쟁이 나서 은행 데이터센터(전산실)가 무너져도 기록은 계속 남아있어 상관없다”는 말을 하는 통에 이에 대한 진위여부(?) 논쟁이 벌어졌지요.(다들 “대출금 내역은 없어졌으면 좋겠다”는 데에는 의견을 모았답니다.)

결론부터 말하자면, 국내에 본점을 둔 금융기관의 전산실 및 재해복구센터(DR, 백업센터라고도 통칭함)는 국내에 설치해야 한다는 규정이 있기 때문에, 관련 데이터들은 해외로 나갈 수가 없습니다.

이는 금융감독원의 인가기준으로 전자금융거래법 전자금융감동규정시행세칙 중 제2절 시설부문 제7조(전산실에 관한 사항) 11번 규정에 <국내에 본점을 둔 금융기관의 전산실 및 재해복구센터는 국내에 설치할 것>이라고 명시돼 있기 때문입니다.

씨티은행이나 SC제일은행 등 외국계 은행 혹은 외국자본이 투자된 경우에도 현지법인이 설립돼 있기 때문에 관련 규정 사항을 준수해야 합니다.

한국씨티은행의 경우, 당초 싱가포르의 씨티그룹 아태 본부에서 IT인프라를 원격 관리할 계획이었습니다만, 관련 규정상 현재는 인천과 경기도 용인의 마북리에 각각 주전산센터와 백업센터를 운영하고 있습니다.

다만 홍콩상하이은행(HSBC)의 경우에는 현재 법인이 아닌 외국은행의 한국지점으로 분류되고 있기 때문에 여기에 해당이 안 된다고 하네요.

외국계 은행 백업센터에 관해 <디지털데일리> 박기록 기자가 쓴 흥미로운 기사가 있으니 참고하시기 바랍니다. (아래 링크 클릭)

관련기사 : 떠나는 론스타... 외환은행 BCP투자는 과연 순수했을까

현재 대부분의 국내 시중은행들은 고객들의 금융거래와 관련된 모든 데이터를 관리, 저장하고 있는 전산실을 ‘데이터센터’라는 이름 하에 운용하고 있는데요.

지난 2001년 미국 9.11 테러가 발생한 이후, ‘BCP(Business Continuity Planning, 비즈니스 연속성)’라고 해서, 테러나 전쟁, 지진이나 태풍과 같은 천재지변 등에 대비하기 위해 원래 데이터를 똑같이 복제해 놓은 ‘재해복구센터(백업센터)’의 중요성이 높아졌습니다.

재난이 발생했을시, 고객 서비스를 지속적으로 제공하고 핵심 업무 기능을 지속할 수 있도록 복구 체계를 구축하는 것이지요.

우리나라 금융당국에서도 9.11 테러 이후, 백업시스템의 유무를 은행의 경영평가에 반영함으로써 ‘백업센터’를 사실상 의무화한 바 있습니다.

이에따라 현재 대부분의 은행들은 한 개의 메인 데이터센터가 있고, 조금 떨어진 곳에 재해복구센터(백업센터)를 설치해 둡니다. 여기에 또 한번 이 데이터들을 테이프 형태로 복제해 은행영업지점 한켠에 보관해 둔다고 합니다.

이른바 동일 데이터를 세 곳의 장소에 보관해 놓으며, 3중 시스템 체계를 갖춘 셈이지요.

만약 정말로 전쟁이 나서 데이터센터가 파괴된다고 해도, 나머지 2곳에 데이터가 남아있기 때문에 대한민국 전체가 폭파되지 않는 이상 관련 정보는 파괴(?)되지 않는다는 것이 결론입니다.

※연평도 포격으로 희생된 삼가 고인의 명복을 빕니다.

2010/12/01 15:46 2010/12/01 15:46
KT가 14일, 자사의 주력 사업 중 하나가 될 클라우드 컴퓨팅에 대해 좀 더 업데이트된 내용을 발표했습니다.

(관련 기사 : KT “국내 중소기업 확 키우는 클라우드 생태계 구축”)

이 중 눈길을 끄는 것은 KT가 목천에 구축 중인 클라우드 데이터센터의 성능 테스트가 현재 가장 유명한 클라우드 서비스 업체 중 하나인 아마존보다 높게 나타났다는 것이었습니다.

KT의 클라우드 인프라는 궁극적으로 아마존의 컨셉을 기반으로 하고 있는데다, 서정식 클라우드추진본부장은 향후 아마존과 직접적인 경쟁자가 될 수 있을 것이라고 지목했기 때문에, 이러한 발표는 관심을 끌 수 밖에 없었습니다.

좀 더 자세히 설명을 하자면, KT와 KT의 클라우드 관련 컨설팅을 맡은 클라우드스케일링이 몇주 전 '클라우드 하모니'라는 클라우드 성능 테스트 전문기관에 KT의 목천 클라우드 시스템 성능을 분석해 달라고 의뢰를 했고, 이날 여기서 나온 결과를 발표한 것입니다.

클라우드 하모니는 아마존을 비롯한 세계적인 클라우드 서비스 회사와 비교한 결과 총 5개 분야에서 KT의 시스템 성능을 비교했습니다.

이 5개 분야는 ▲가상화 구성에 필요한 CPU 리소스 할당 능력 ▲디스크에서 신속하게 데이터를 읽고 쓸 수 있는지에 대한 능력 ▲자바나 루비 등의 프로그래밍 언어 구현에 대한 신속성 여부 ▲메모리 속도 ▲데이터 인코딩 및 암호화 처리 속도 등이었지요,

사용자 삽입 이미지
▲디스크에서 신속하게 데이터를 읽고 쓸 수 있는지에 대한 능력


사용자 삽입 이미지
사용자 삽입 이미지
▲자바나 루비 등의 프로그래밍 언어 구현에 대한 신속성 여부

사용자 삽입 이미지
▲데이터 인코딩 및 암호화 처리 속도

위의 표에서도 알 수 있듯이 KT는 이 중
(위에서부터) ▲디스크에서 신속하게 데이터를 읽고 쓸 수 있는지에 대한 능력과 ▲자바나 루비 등의 프로그래밍 언어 구현에 대한 신속성 여부 ▲데이터 인코딩 및 암호화 처리 속도 등에서 1위에 랭크된 것을 알 수 있습니다.

그리고 대부분이 아마존보다 상위에 랭크된 것을 볼 수 있습니다.
<이와 관련된 좀 더 자세한 정보는 여기를 클릭하세요>

서정식 본부장은 “이번 조사를 통해 KT가 세계적 사업자 수준의 서비스가 가능하게 된 것이라는 점에서 큰 의미가 있다”고 자랑스러워 했습니다.

그도 그럴것이 KT는 이번에 클라우드 인프라를 구축하면서 대부분 범용 하드웨어 장비와 오픈 소스 기반의 25개 소프트웨어를 사용했습니다.

심지어 쿨링(냉각) 장비 조차 자체 제작했다고 하더군요. 이렇게 만든 '자식과도 같은' 클라우드 인프라가 아마존과 같은 글로벌 업체보다 우위에 있다고 했으니, 어찌 자랑스럽지 않을 수가 있겠습니까요.

서 본부장은
"다음달에 가격 정책을 발표할 예정인데, 아마존보다 더 싸게 하기 위해 고민 중"이라고 말했습니다.

현재 국내에서 제공되는 서버 호스팅 가격이 26만7천원이라고 했을 때, 아마존의 EC2 서비스는 56달러(약 6만원) 정도라고 합니다.

서정식 본부장은 "이미 아마존 가격 자체가 전통적인 서버 호스팅 서비스의 1/4~1/5에 불과한데, 이보다 더 저렴하게 가격을 책정하게 된다면, 분명 국내에서 뿐만 아니라 전세계의 주목을 받을 수 있을 것"이라고 설명했습니다.

아마존의 경우, 클라우드 서비스를 통해 매년 5억 달러 정도의 매출을 올리고 있는데, 연평균 50% 이상 성장중이라고 덧붙였습니다.

그런데 과연 아마존이 클라우드 서비스를 통해 정말로 수익을 내고 있을까요?

분명 매출이 늘고 있는 것은 맞지만, 이를 통해 아마존의 순익이 증가하고 있다는 수치를 제시한 사람은 아무도 없습니다.

오히려 재작년까지는 적자를 면치 못했다는 얘기도 있습니다. 자세한 것은 아마존의 재무 레포트를 들여다 봐야 알 수 있겠지요.

또한 서 본부장은 기존 목동과 분당 등 기존 8개의 인터넷 데이터센터(IDC)를 차츰 목천으로 통합시키겠다고 밝혔는데요.

이렇게 되면 불필요한 하드웨어나 소프트웨어 라이선스 비용을 줄일 수 있고, 전력 절감이 가능해 연간 10만 톤 이상 이산화탄소 배출이 줄어들 것이라고 말했습니다.

내년 말이면 70% 이상의 IT 자원을 목천으로 통합시킬 수 있을 것으로 전망했는데요.

현재 KT 데이터센터와 관련된 업무를 하는 사람들은 몇명이나 될까요. 8개 데이터센터를 합치면 적어도 몇백명은 될 것입니다. 이 사람들의 향방이 상당히 묘연해지는 대목입니다. 예상해보건데 적지 않은 파장이 있을 것으로 보입니다.

KT의 대대적인 클라우드 추진 전략에 따라, 직접적인 피해를 볼 업체들도 있습니다. 서 본부장이 언급했던 바와 같이 고사양의 서버/스토리지 유통/총판/유지보수 업체들입니다.

특히 KT는 매년 그룹사에 필요한 x86 서버를 보통 연간 단위로 계약을 맺고 도입했습니다. KT의 연간 서버 계약은 x86 서버 업체들의 실적에 지대한 영향을 미치는 대형 프로젝트였습니다.

일반적으로 약 700대~1000여대를 서버를 1년 동안 공급하게 되는데, 보통 한국HP와 한국후지쯔, 델코리아, 한국IBM 등과 같은 외산 서버업체들과 번갈아 가면서 계약을 맺곤 했지요.

서 본부장은 "앞으로는 특수한 업무나 상황을 제외하고는 이런 식의 대량 서버 도입은 없을 것
"이라고 했습니다.

어째됐든 본격적인 KT 서비스가 시작되는 내년 쯤이면 재미있는(?) 이야기들이 많이 나올 것 같습니다.
2010/10/14 18:05 2010/10/14 18:05


난 3월, 시스코시스템즈코리아에서 자사의 UCS(통합 컴퓨팅 시스템)를 중 조명하는 데이터센터 관련 세미나를 개최한 적이 있습니다.

오프닝 직후, 시스코는 모 항공사의 TV 광고를 패러디한 동영상을 틀었는데요. 이것을 본 참석자들이 다 자지러졌습니다.

그 동영상이 너무도 참신하고도 재미있었기 때문이죠.

당시 동영상을 구해서 블로그에 올려놓으려고 했었는데, 시스코 측에서 혹시나 있을 항공사와 있을지도 모르는 분쟁(?)을 생각하셨는지 안 된다고 하시더군요.

그러다가 시간이 흘러, 시스코코리아는 자사 홈페이지를 통해 동영상을 공개했지만, 소스코드를 주시진 않더군요. 그래서 제가 직접 찍어서 올려봅니다. 화질이 그다지 좋진 않지만, 감안하시고 봐주시길.

독자 여러분과 공유하고, 다시 한번 웃어볼까 합니다. 즐감하세요.
2010/08/06 12:21 2010/08/06 12:21
HP가 최근 쓰리콤 인수를 마무리하고 이를 통한 본격적인 네트워크 포트폴리오 및 전략을 발표했습니다.

<관련기사> 쓰리콤 인수한 HP, 통합 네트워크 포트폴리오 발표

그중 눈에 띄는 것이 “시스코 프리(Cisco-Free)” 전략입니다.

즉, 시스코 제품이 단 하나도 들어가 있지 않는 데이터센터의 구축이 현재로썬 HP의 궁극적인 목표인 듯 보입니다.

아마도 전세계 대부분의 기업 데이터센터에서 라우터와 스위치 등 시스코의 제품 하나쯤은 흔히 찾아볼 수 있을 정도로, 현재 시스코가 네트워크 분야에서 미치는 영향력은 대단합니다.

HP는 오랜 기간 동안 시스코와 단단한 동맹관계를 맺어왔고, 자사 데이터센터는 물론, 함께 구축해온 고객사의 데이터센터에 시스코의 제품을 함께 공급해왔죠.

이제 와서 새삼 그 자리를 다시 HP의 제품군으로 교체하겠다는 것은 현재로써는 너무나도 원대한 꿈으로 보입니다.

최근 그 작업을 HP가 시작했습니다. HP는 시스코 제품이 단 하나도 없는 데이터센터를 만들기 시작한 것인데요.

HP는 최근 미국 휴스턴에 위치한 자사의 데이터센터에 기존 시스코 장비 대신 34대의 쓰리콤 코어 스위치와 라우터, 300대 이상의 프로커브 스위치, 4개의 티핑포인트 IPS 장비를 설치해 초당 21억 패킷의 처리 용량을 구현했다고 합니다.

시스코의 장비는 하나도 들어가지 않은 최초의 HP 데이터센터인 것이지요. 게다가 이러한 장비 교체를 통해 이 데이터센터는 50% 이상의 전력절감 효과를 실현했다는 설명입니다.

HP의 글로벌 인프라스트럭처를 총괄하는 켄 그레이 부사장은 “내년에는 HP 내부 데이터센터 전체에 이를 확장할 방침”이라고 밝히기도 했습니다.

과연 이같은 HP의 본격적인 통합 네트워크 전략이 관련 시장에 제대로 먹힐지 궁금하군요. 또 시스코가 이같은 HP의 공격적인 행보에 어떻게 맞대응할지도 궁금합니다.

물론 도발은 시스코가 통합컴퓨팅시스템(UCS)을 통해 먼저 했습니다만.
2010/04/27 14:05 2010/04/27 14:05

최근 구글이 중국 시장에서의 철수 가능성을 언급하며, 중국 정부와 대립각을 세우고 있지요.

관련기사
구글, 정말 중국시장 포기할까... 세계적 관심
중국과 구글의 싸움을 지켜보며

실제로 데이터센터를 보유하고 있는 많은 호스팅 업체나 코로케이션 업체들이 중국의 거대한 사용자 시장에 매력을 느끼고 있긴 하지만, 대부분이 중국 본토에 데이터센터를 짓는 것에 대해선 꺼려하고 있습니다.

바로 중국 정부의 인터넷 검열 정책 때문입니다. 대신 이들은 홍콩이나 싱가포르 같은 인근 지역에 데이터센터를 세우고 있다고 합니다.

실제로 최근 CRM을 클라우드 컴퓨팅의 일종인 SaaS(서비스로써의 소프트웨어)로 제공하고 있는 세일즈포스닷컴의 경우 싱가포르에 신형 데이터센터를 오픈했습니다.

호스팅업체인 랙스페이스도 중국에 데이터센터를 짓는 대신 기존 홍콩의 데이터센터를 확장했지요.

이러한 중국 내 데이터센터 설립 이슈는 이번 ‘구글 사태’에 따라 계속 회자될 것으로 보여지는군요.

‘데이터센터날러지(DatacenterKnowledge)’라는 외신에 ‘만리장성 방화벽 뒤의 구글 서버들(Google’s  servers behind Great Firewall)’이라는 제목의 기사가 올라와 있네요.

‘만리장성 방화벽(Great Firewall)’이란 중국의 명물인 만리장성(the Great Wall)과 컴퓨터 보안을 위해 설치하는 보안프로그램인 방화벽(Firewall)의 합성어로, ‘황금방패계획(金盾工程)’이란 중국 정부의 인터넷 통제 시스템을 서양인들이 비꼬려고 만든 표현이라고 합니다.

어찌됐든 구글은 중국 내 자사의 데이터센터에 대해서는 언급한 바가 없지만, 이 서버들이 중국에 있다는 것은 인정하고 있습니다.

전 구글 차이나의 리카이푸(李開復) CEO는 지난 2008년 미국 공영방송인 PBS와의 인터뷰에서 “중국시장에 진출하기 위해, 구글은 중국 현지법에 따라야 했고, 이는 곧 컨텐츠와 검색결과 등이 현지규율에 따라 검열될 수 있도록 서버가 중국 내에 구축할 수 밖에 없었다”고 말한 내용을 봤을때 중국 어딘가에 데이터센터를 운영 중일 것으로 추측하고 있는 것이지요.

만약 구글이 중국시장에서 철수하게 된다면, 더 이상 데이터센터 운영도 의미가 없겠죠. 또 데이터센터 운영 인력 등은 자연스럽게 일자리를 잃게될 것이구요.  

구글은 보안을 이유로 자사 데이터센터 위치 등 관련 정보에 대해 밝히고 있지 않지만, “해킹 공격 후 인프라스트럭처와 아키텍처 개선을 통해 사용자들의 보안 관련 문제에 대해선 완벽한 차단을 했다”고 밝히고 있습니다.

또 구글 계정을 타겟으로 한 악성코드(malware-based)였을뿐 물리적인 서버 인프라에 대한 공격은 아니었다는 얘기죠.

한편 구글 엔터프라이즈의 데이비드 기로드 사장은 “이번 해킹 사례는 구글이 제공하는 클라우드 컴퓨팅 서비스에 대한 위협은 아니며, 고객들의 클라우드 기반 데이터는 여전히 안전하게 보호되고 있다”며 “금융, 미디어, 화학 등 각 분야 주요 업체의 기술 인프라에 대한 공격이었고, 인터넷이 연결된 컴퓨터들이 희생양이 되고 있다”고 강조하고 있네요.

한가지 더.

구글의 데이터센터는 모듈화된 구조로 콘테이너 박스안에 서버와 스토리지를 넣는 독특한 구조로 유명한데요.

이런 형태의 시설을 2005년 후반부터 이용하고 있으며, 40피트 컨테이너에는 최대 1160대의 서버가 들어간다고 한다. 실제 45개 컨테이너에 약 4만대의 서버가 들어있다고 합니다.

이러한 내용은 좋은 진호의 여유만만 이라는 블로그에 있는
구글 서버와 데이터센터’ 에 관한 풀 동영상 자료가 있어서 첨부합니다.



 

2010/01/18 10:37 2010/01/18 10:37