사용자 삽입 이미지
1년 전쯤 국내에 퍼블릭 클라우드 서비스가 출시되기 시작할 때쯤, “클라우드 서비스가 활성화되면 서버 호스팅 서비스는 다 망할 것”이라는 얘기가 돌았습니다.

온디맨드(On D
emand)와 저렴한 비용을 앞세운 퍼블릭 클라우드 서비스가 기존 서버 호스팅 시장을 다 장악할 것이라는 전망이었습니다.

그런데 과연 그럴까요. 지금 시장 상황을 둘러봐도 딱히 그런 것 같지는 않습니다.

클라우드 서비스 사업에 진출한 통신사들은 막대한 마케팅 비용을 쏟아가며 서비스 홍보에 열을 올리고 있지만, 당초 예상됐던 만큼 클라우드 서비스는 빠르게 확산되고 있지는 않습니다.

4일 주한 캐나다 대사관에서 개최된 ‘클라우드캠프 서울 2012’ 컨퍼런스 행사장에서 한 호스팅 업체 대표는 “서버 호스팅 역시 현재 클라우드 형태로 진화하고 있으며, 시장의 니즈만 잘 파악한다면 클라우드 서비스 사업자들과의 경쟁에서도 분명 승산이 있다”고 강조했습니다.

참고로 ‘클라우드캠프’ 컨퍼런스는 형식에 구애 받지 않고 클라우드 컴퓨팅 전문가 및 사용자가 모여 자유롭게 기술과 아이디어를 교환하는 커뮤니티 행사로, 현재 세계 각지에서 열리고 있습니다.

호스팅 업체 ‘스마
일서브’의 김병철 대표<사진>는 “4년 전 IP 기반 가상서버호스팅을 위해 직접 데이터센터를 지었고, 세계 최초로 마이크로소프트(MS) 하이퍼-V 기반 서비스를 런칭했다”며 “가장 먼저 관련 서비스를 출시하며 MS가 가상화 라이선스 정책을 만들게 한 장본인”이라고 말했습니다.

이처럼 초창기부터 가상화에 많은 관심을 기울여왔고, 2년 전부터는 다양한 클라우드 관련 서비스를 런칭하고 있다는 설명입니다.

실제 스마일서브는 2개 데이터센터를 통해 약 6000대의 서버를 운용하는 호스팅 업체로, 입출력(I/O) 속도를 높이기 위해 운영 서버 하드디스크의 절반 가량을 솔리드스테이트드라이브(SSD)로 바꾸면서 주목받은 바 있습니다.

또한 데스크톱 가상화(VDI) 서비스와 클라우드 기반 웹방화벽 서비스, 클라우드 관제 서비스 등을 출시했으며, 올해 중으로도 클라우드 기반 IP PBX 서비스와 신청 즉시 서버 자원을 할당받을 수 있는 리얼 서버 온디맨드 등 다수의 서비스를 런칭할 계획입니다.

물론 이중 VDI 서비스의 경우, 지난 2010년 초에 오픈했음에도 불구하고 MS의 VDI 라이언스 이슈 때문에 팔지 못하고 있는 실정입니다. 그러나 4월 중으로 관련 이슈가 해결될 것으로 보이면서 곧 서비스 이용이 가능해 질 것이라고 합니다.

이처럼 최근 호스팅 업체들도 클라우드 비즈니스에 적극 뛰어들고 있다는 것이 그의 설명입니다.

김 대표는 “물론 클라우드 비즈니스를 하는 호스팅 회사와 최근 클라우드 서비스에 적극 뛰어들고 있는 거대 통신사의 경쟁은 다윗과 골리앗의 싸움보다 쉽지 않다”고 말했습니다.

네트워크 회선과 막대한 자본을 쥐고 있는 통신사들과의 정면 승부는 애시당초 말이 되지 않는 것이지요. 그럼에도 불구하고 클라우드 서비스의 활성화로 호스팅 업체에게도 기회가 오기 시작하고 있다고 말합니다.

그렇다면 호스팅 업체가 클라우드 서비스 사업자들에 비해 갖고 있는 경쟁력은 무엇일까요.

그는 “대한민국 서버 호스팅 업체들은 현재 국내에서 서버와 네트워크에 대해 가장 잘 아는 회사
”라고 얘기합니다. 오랜 기간 서비스를 제공하다보니 장비의 조달과 원가 절감과 같은 노하우, 서비스에 대한 이해도가 높다는 설명입니다.

또한 서버 호스팅은 이미 대형 자본과의 경쟁에서 한번 살아남은 적이 있는 만큼 맷집이 세다는 얘기도 덧붙였습니다.

몇 년 전 통신사들은 서버 호스팅 시장에도 진출한 적이 있으나, 현재는 서비스보다는 상면 대여(코로케이션) 수준의 서비스에 그치고 있지요. 이를 기반으로 최근 클라우드 사업에도 적극적으로 나서고 있는 것이구요.

김 대표는 “앞으로 호스팅 업체들도 보다 적극적으로 시장 니즈를 분석하고 새로운 서비스와 상품을 만들어야 한다”고 강조합니다.

그는 “이미 클라우드는 현실이 되고 있다”며 “중요한 것은 고객의 니즈를 파악해 그들이 원하는 서비스와 플랫폼을 만들어 주는 것”이라고 말합니다.

물론 필요할 때마다 즉시 IT자원을 공급해주는 온디맨드 형태로 서비스를 제공하는 것도 중요하지만, 꼭 그럴 필요는 없다는 말도 덧붙였습니다.

온디맨드가 앞으로 가야할 방향은 맞지만, 모든 고객이 이를 원하는 것은 아니라는 것입니다. 현재 시점에서는 이러한 대형 통신사들과의 정면승부보다는 사이드 어택(Side Attack)도 노려볼 만 하다는 것이 그의 얘기였습니다.

클라우드 컴퓨팅은 현재 진행형입니다. 아직 승자는 없습니다. 10년후 쯤이면 누가 승자가 돼 있을지 알 수 있겠지요.
2012/04/05 08:35 2012/04/05 08:35
사용자 삽입 이미지
8일 경남 김해에 개관한 KT김해글로벌데이터센터에 다녀왔습니다. 김해데이터센터는 KT와 소프트뱅크텔레콤의 합작사인 kt-SB 데이터서비스(이하 ksds)에서 일본 기업들의 코로케이션 및 백업 서비스 등을 제공하기 위해 지어졌습니다.

예전 KT연수소로 쓰던 건물을 리모델링해서 건축 비용 및 시간을 아꼈다는 것이 KT측의 설명입니다.

그런데 기업문화가 전혀 다른 한국과 일본
업체가 공동으로 데이터센터를 구축하다보니 애로사항이 많았다고 합니다. 또한 서비스 대상이 일본 기업들이다 보니 더욱 그랬겠지요. 국내 기업 간에도 협력이 쉽지 않은데, 하물며 외국 기업 간에는 오죽하겠습니까.

이날 데이터센터 구축에 참여한 한 KT직원에 따르면, 소프트뱅크 직원들에 꼼꼼함(?)에 정말 놀랬었다고 하는데요.

이번 포스팅에서는 그가 들려준 얘기를 해볼까 합니다. 약 4가지 에피소드로 나눠서 정리해보겠습니다.
사용자 삽입 이미지
▲개관식 행사에서 양 기업 임원들이 한국전통 ‘박깨기’에 이어 일본전통 ‘술독깨기’를 하고 있습니다. 닮은 듯 다른 두 기업의 모습에서 친밀감이 느껴집니다.

1. 볼트 규격까지 꼼꼼하게!

KT와 소프트뱅크는 데이터센터 구축과 관련된 협의회를 현재까지 총 24회 진행했다고 합니다. 텔레프레즌스를 통한 화상회의는 물론 3주에 한번 꼴로 일본과 한국을 오가며 전체적인 데이터센터 스펙과 공사 진행사항, 투자비용 등 데이터센터 구축 관련 사항을 협의하고 결정하는 과정을 거쳤는데요. 이는 현재에도 계속해서 진행 중이라고 합니다.

그런데 정말로 꼼꼼하게 하나하나 따지는 것에 많이 배웠다는 것이 KT 관계자의 설명입니다.

심지어 사용되는 볼트 길이, 두께 하나까지 일일이 정하는 상황이 벌어졌다고 합니다. “볼트 길이를 3미리로 해야 하냐, 5미리로 해야 하냐. 왜 그 두께로 해야 하느냐, 근거가 있느냐”부터 시작해서 우리나라 같으면 간단히 넘어갈 문제도 심각하게 전혀 신경 쓸 부분이 아닌 것까지 정했다고 합니다.

데이터센터 운영 프로세스 매뉴얼 작성 역시 특유의 꼼꼼함이 잘 발휘된 부분이었습니다. 물론 우리나라의 경우도 이러한 것을 작성하지만, 일본의 경우는 사소한 부문까지 구체화시키고, 중요하게 여겼다고 하네요.

그래도 일본 기업만의 독특한 풍토나 관습, 문화적 차이를 인정하면서 큰 논쟁 없이 잘 넘어갔다는 것이 그의 설명입니다.

2. “이곳이 데이터센터임을 외부에 알리지 마라!”

우리나라의 경우 일반적으로 데이터센터 건물의 외관에 큰 간판을 내겁니다. 그래서 외부인들은 그곳이 정확하게 무엇을 하는 곳인지는 몰라도 데이터센터라는 것은 압니다.

그런데 외국의 경우에
는 데이터센터도 일반적인 건물과 마찬가지로 보이게끔 별다른 표시를 해놓지 않습니다. 바로 보안 때문입니다.

데이터센터가 어떤 곳입니까. 기업이나 공공기관들의 중요한 데이터들을 저장, 관리, 운영하는 곳입니다. 그만큼 외부에 노출될수록 위험은 커집니다. 우리나라 주요 공공기관들의 데이터를 모아둔 대전이나 광주의 정부통합전산센터 역시 이러한 이유로 센터 주소가 외부에 노출되는 것을 극도로 꺼립니다.

일본 데이터센터는 더 심하다고 합니다. 간판이 없는 것은 물론이고 바로 옆의 아파트단지 주민도 그곳이 뭐하는 곳인지 전혀 모릅니다.

따라서 이번 김해 데이터센터의 경우도 건물 밖에 간판이나 표시를 아예 없앴습니다.

또한 KT임원진들이 특히 강조
한 것이 “돌(대리석)로 장식하자 말라”는 것이었다고 하는데요. 일본 소프트뱅크 데이터센터를 둘러보고 온 KT 임원이 무조건 실용적으로 꾸미는 한편, 일본고객들이 일본 데이터센터랑 유사한 느낌을 받도록 하라는 얘기를 했다고 합니다.

이 때문인지 김해 데이터센터 로비는 그야말로 휑했습니다. 그는 “우리 입장에서 보면 좀 낯선 측면도 많다”고 하더군요.

3. 유리 창구

일본 소프트뱅크 측
에서 요구한 것이 바로 유리 창구입니다. 일반적인 국내 데이터센터에는 센터 출입 전에 보통 안내원이 있어서 신분증을 맡기고 출입증을 받는 등 직접적인 대면 접촉을 하게끔 돼 있는데, 일본의 경우는 마치 전당포처럼 앞에 유리 창구가 있어서 손만 밑으로 왔다 갔다 한다고 합니다.

대부분의 일본 데이터센터가 그런 것처럼 김해 데이터센터도 유리 창구를 통한 출입 절차가 진행되게 됩니다.

4. “한번 결정하면 번복은 없다”

협의 과정은 힘들지만, 소프트뱅크의 경우 한번 결정된 이후에는 단 한 번도 그에 대한 언급을 하지 않았다고 합니다. 그만큼 신중했다는 뜻인데요. 대신에 바꿀 경우에는 굉장히 미안해했었다고 합니다.

특히 지진문제가 가장 첨예하게 얘기된 부분이었다고 하는데요. 초반에 소프트뱅크 측에서 자료를 요청하는데 한반도의 쓰나미 발생 빈도와 관련 데이터를 달라고 했었답니다.

KT 측에서는 당연히 “한반도에는 쓰나미가 발생한 적도 없고, 이곳(데이터센터)의 해발고도가 평균 85미터인데 여기가 잠기면 대한민국 전체가 잠긴 것”이라고 답했다고 합니다.

소프트뱅크 측에서도 이것을 확인한 이후에는 다시는 쓰나미나 지진 관련 얘기는 하지 않았다고 하네요.

또 재미있는 에피소드 중 하나가 전력에 관한 것이었는데, 최근 지어진 KT의 목천 클라우드 데이터센터의 경우 고집적 고효율 운영 방침에 따라 서버 랙(캐비넷)당 공급되는 전력이 15킬
로와트(kw) 이상일 정도로 효율이 높다고 합니다.

그런데 일본의 경우에는 여전히 3kw 수준이기 때문에, KT가 김해 데이터센터의 서버 랙의 공급 전력을 그 중간인 6kw로 정했을 때 우려하는 측면이 많았었다고 합니다.

그래서 결국은 일본 측의 의견대로 3kw로 정했는데, 소프트뱅크 쪽에서 KT의 목천 데이터센터를 둘러보고서는 “절반은 3kw, 나머지 절반은 6kw로 하자”고 다시 제의를 했다고 하네요.

오케이를 하고 다시 진행을 하는데, 이번에는 소프트뱅크쪽에서 “3kw, 3.5kw, 4kw, 4.5kw 등으로 다양하게 갖춰놓자”고 해서 결국은 다양한 요구 조건을 수용할 수 있도록 했다고 합니다.

KT 관계자는 “(일본 측에서) 계속 의견을 바꿔서 미안하다고 하더라. 정말 진심이 느껴졌다”며 “힘들긴 했지만, 이러한 경험은 KT가 향후 다른 지역에 데이터센터를 지을 때 큰 자산이 될 것”이라고 하더군요.
2011/12/09 23:09 2011/12/09 23:09
사용자 삽입 이미지
이스북이 스웨덴 북부에 엄청나게 큰 새로운 데이터센터를 짓는다고 합니다. 미국 이외의 지역에는 처음 짓는 데이터센터입니다.

전세계적으로 이용자가 폭발적으로 증가하면서 저장해야 할 데이터들이 늘어남에 따른 것입니다. 현재 미국 밖의 지역에서의 페이스북 이용자가
전체 이용자의 75% 이상인 8억 명에 이른다고 합니다.

이번에 페이스북이 데이터센터를 짓는 곳이 북유럽 스웨덴 북부 노르보텐주에 있는 도시 룰레오입니다.

페이스북은 왜 이곳에 데이터센터를 짓는 것일까요. 이유는 바로 룰레오 지역의 서늘한 기
후 때문입니다.

룰레오는 알래스카의 페어뱅크와 같은 위도에 위치하고 있습니다.
룰레오의 평균 기온은 화씨 27도(-2.5℃)~41도(5℃) 사이라고 합니다.

게다가 1년 중에 단 4일 정도 만이 화씨 77도, 즉 섭씨 25(℃)도를 넘는 더운 날씨(?)라고 합니다.


이에따라 페이스북의 데이터센터는 룰레오 지역의 추운 공기를 활용해 냉각에 이용할 수 있습니다. 즉, 냉각시스템을 돌리지 않고 바깥의 추운 공기(외기)를 통해 데이터센터 내의 열기를 식힐 수 있기 때문에 그만큼 냉방에 드는 비용을 절감할 수 있습니다.

최근 데이터센터의 전력 비용은 모든 사업자들에게 매우 심각한 문제로 인식되고 있습니다.

현재 전세계 데이터센터가 사용하는 전력 소비량은 전체의 약 1.5%를 차지하고 있다고 합니다.

이를 환산하면 50개 발전소와 맞먹는 양이며, 매년 2억 1000만 메트릭톤의 이산화탄소를 배출하는 셈입니다. 2억 1000만 메트릭톤의 이산화탄소는 100만대 자동차가 1년에 배출하는 양입니다.

데이터센터 전력 비용에서 가장 많은 비중을 차지하는 냉각 비용이 가장 문제입니다. 현재 냉각을 위해 데이터센터들이 사용하는 물은 양은 최대 3000억 리터에 달합니다.  이는 25만개 올림픽 사이즈 수영장 물에 해당하는 것이죠.

이를 비용으로 환산하면 1년에 전세계 데이터센터들이 소비하는 에너지는 약 270억 달러 규모에 해당합니다. 2014년엔 이 비용이 2배로 늘어날 것이라는 전망입니다.

이 때문에 데이터센터
들은 냉각을 위한 비용을 줄이려는 노력에 필사적입니다. 가장 효과적인 방법은 바로 추운 지역에 데이터센터를 짓는 것입니다. 바깥의 차가운 공기를 데이터센터 안으로 끌어들여 서버나 스토리지, 네트워크 등 IT 장비에서 발생하는 열을 식히는 방식이죠.

이때문에 비교적 추운 공기를 유지하고 있는 북유럽의 많은 나라들이 최근 데이터센터 유치를 위해  유인책을 펼치고 있다고 합니다. 스웨덴도 마찬가지입니다.

앞에서도 언급됐듯이 페이스북 데이터센터가 건립되는 룰레오의 평균 기온은 화씨 27도(-2.5℃)~41도(5℃) 사이이기 때문에 냉각을 위한 비용은 제로에 가까울 것으로 보입니다.

평균적으로 데이터센터 내부 온도는 18℃~21℃를 유지하고 있습니다. 외부 공기만으로 충분히 냉각이 가능하다면 데이터센터 전력 비용으로 들어갈 일은 거의 없을 것입니다.

또한 스웨덴은 통신인프라가 가장 잘 깔려있는 2번째 나라라고 하네요. 물론 1등은 우리나라(한국)입니다. 특히 룰레아 데이터센터는 주로 재생에너지를 사용할 예정이라고 합니다.

한편 이번 페이스북의 스웨
덴 데이터센터는 몇개의 건물로 나뉘어서 건설될 예정입니다.

시작은 2만 7000평방미터(약 8200평)에서 시작해서 2012년 말에 완공될 예정입니다. 트래픽이 늘어나게 되면 2013년 상반기에 또 하나를 더 지을 예정입니다.

지난 2월 페이스북이 발표한 오픈 컴퓨트 프로젝트를 기반으로 한 데이터센터 설계가 적용될 것으로 기대됩니다.

예전에 아이슬란드가 데이터센터의 최적지 중 하나로 꼽히고 있다는 포스팅을 한 적이 있는 참고하시기 바랍니다.(
‘열’ 받은 데이터센터, 국가 간 경쟁으로 번질까?)
2011/10/28 16:35 2011/10/28 16:35
사용자 삽입 이미지

2년이라는 시간은 정보기술(IT)의 혁신을 가늠하기에는 충분한 시간입니다.

기업의 IT혁신을 가늠할 수 있는 곳은 어디일까요. 바로 데이터센터입니다. 데이터의 저장고로 불리던 데이터센터는 이제 기업의 IT 업무를 최후방에서 지원하는 곳이자 혁신을 이끄는 장소가 됐습니다. 따라서 데이터센터가 마비되면 기업의 업무도 마비되기 마련입니다.

이러한 데이터센터에서 핵심 역할을 수행하는 것은 무엇일까요. 다양한 요소가 있지만, 그 중심에는 서버가 있습니다. 또한 이 서버에서 가장 핵심적인 역할을 하는 것은 바로 CPU(중앙처리장치)입니다.

인텔은 전세계 서버 프로세서 시장의 90% 이상을 장악하고 있는 칩 제조업체입니다. 서버의 핵심요소를 제공하는 업체인 만큼, 이를 어떻게 효율적으로 운영하고 있는지는 업계의 관심입니다.

저는 2년 전 말레이시아의 인텔 데이터센터에 간 적이 있습니다. 말레이시아의 데이터센터는 인텔 아시아태평양 지역의 허브 역할을 하고 있는 곳으로, 미국 데이터센터를 제외하면 인텔 데이터센터 중 가장 큰 규모를 자랑하고 있죠.

얼마전 저는 인텔 말레이시아 데이터센터를 또 한차례 방문할 기회가 생겼습니다. 거의 2년 만이었습니다. 그동안 어떻게 바뀌었을지 무척 궁금했었지요,

2년 만에 방문한 인텔 데이터센터는 외관상으로는 그다지 변한 것이 없어보였습니다. 3번씩이나 거치던 보안 관문도 그대로였고, 데이터센터를 안내해주던 매니저도 여전했습니다.

가장 크게 변한 것은 서버 대수였습니다. 2009년에 4000대였던 서버는 2년 만에 무려 800여대가 줄어든 3200대에 불과했습니다. 상식적으로 2년이라는 기간 동안에 기업 데이터와 지원해야 할 업무가 더 늘어나면 늘어났지 줄어들 일은 없습니다. 그런데 오히려 서버 대수가 줄어든 데에는 기술적 혁신이 있었습니다.

첫째는 서버 통합, 두 번째는 가상화 기술이었습니다.

인텔은 최근 엄청난 속도로 이전보다 성능이 향상된 서버 프로세서를 잇달아 출시하고 있습니다. 지난 1995년 인텔이 싱글코어 서버 프로세서인 펜티엄 프로를 선보인 이후, 현재까지 약 15년 간 서버 프로세서 시장은 급속도로 발전해 왔습니다.

이윽고 2005년 1개의 CPU에서 2개의 코어가 탑재된 듀얼코어 프로세서가 탑재된 이후, 쿼드코어(4코어), 헥사코어(6코어), 옥사코어(8개)까지 거침없이 출시됐다. 최근에는 1개의 CPU에 10코어까지 탑재가 가능한 E7 프로세서까지 출시되면서 업계의 놀라움을 자아내고 있습니다.

인텔 말레이시아 데이터센터도 새로운 서버 프로세서가 출시될 때마다 최신 제품으로 교체하는 작업을 꾸준히 해 왔습니다. 자세히는 밝히지 않았으나 아마도 현재 말레이시아데이터센터는 현재까지도 꾸준히 8코어나 10코어 프로세서를 탑재한 서버로 교체하고 있을 것으로 보입니다.

평균적으로 20대의 노후화된 서버를 최신 서버 1대로 교체하고 있는 것으로 알려지고 있습니다.

또 한가지 기술 혁신은 가상화 기술입니다. 2009년 방문 당시만 해도 인텔의 가상화 도입 비중은 10%대에 불과했습니다. 그랬던 것이 2년 사이에 50%까지 높아졌습니다.

즉, 인텔 서버 2대 중 1대는 가상화된 서버라는 설명입니다. 말레이시아 데이터센터의 경우 성능이 비교적 낮은 서버(저집적) 구역을 함께 운영하고 있기 때문에, 평균 서버 1대당 탑재된 가상머신(VM) 수가 많지는 않습니다. 현재 서버 1대당 약 10개의 VM을 운영하고 있지만, 향후 이를 40개 VM까지 늘린다는 계획을 갖고 있습니다.

어찌됐든 서버 대수가 줄어듬에 따라, 소프트웨어 라이선스 비용과 전력 비용 등을 줄일 수 있었다는 설명입니다.

특히 최근에는 모바일 기기의 확장에 따라 데이터센터는 더욱 그 중요도가 커지고 있는데요. 인텔의 조사에 따르면 스마트폰 600대가 판매될 때마다 이들 기기에 필요한 서비스를 제공하기 위해 서버 1대가 추가로 필요하며, 데이터 사용량이 더 높은 태블릿 PC의 경우 122대가 추가될 때마다 서버 1대가 필요하다고 합니다.

이 때문에 서버 프로세서 시장은 계속해서 늘어나고 있으며, 앞으로도 이 수치는 계속해서 늘어날 것으로 보입니다.

이밖에도 냉방 비용을 효율화시킴으로써 전력 비용을 절감하기 위한 노력도 계속 기울이고 있는데요. 인텔의 경우도 현재 데이터센터 연간 지출에서 가장 많은 비중을 차지하는 것이냉각과 전력 비용이라고 합니다. 이 비중은 전체의 80%를 차지하고 있기 때문에 인텔에게도 가장 큰 골칫거리입니다.

이를 위해 인텔이 사용하고 있는 냉각방식은 뜨거운 공기와 이를 식히기 위한 찬공기가 섞이지 않도록 해 냉방 효율을 높이는 ‘핫 아일 컨테인먼트(hot aisle containment)’ 시스템과 ‘굴뚝 타입의 캐비넷(Chimney Type Cabinet)’입니다.

자세한 설명은 아래 기사 참고
[인텔 클라우드 서밋 2011] “데이터센터 관리의 핵심은 냉각”

이는 인텔이 수년 간의 연구와 실험을 거쳐 자체적으로 고안해 낸 방식이라고 합니다. 이처럼 지난 2년 간 인텔이 보여준 데이터센터의 변화는 IT의 혁신을 실감할 수 있는 기회였습니다.

(기회가 있을지 모르겠지만) 또 2년 후 인텔 데이터센터를 방문하면, 어떤 모습으로 바뀌어 있을지 정말 기대됩니다.
2011/07/29 16:08 2011/07/29 16:08
사용자 삽입 이미지

페이스북이 지난 1년간 자사 데이터센터에 적용한 자체 제작 서버 스펙과 내부 모습들을 공개했습니다.

우리나라 기업
들 같으면 어림도 없는 일이겠지만 페이스북의 창업자인 마크 주커버그는 이번 정보 공유를 통해 자사 데이터센터를 더 개선할 수 있으며, 데이터센터에 대해 고민하고 있는 신생 기업들에게도 도움이 될 것이라고 말했습니다.

저도 2달 전 쯤 페이스북 데이터센터에 대한 포스팅을 한적이 있는데요.

관련 포스팅

‘페이스북’ 데이터센터는 어떤 모습일까 <상>
‘페이스북’ 데이터센터는 어떤 모습일까 <하>

이번 데이터센터 공개는 최근 페이스북이 ‘오픈 컴퓨트 프로젝트(http://opencompute.org)’에 참여하면서 진행된 것이라고 합니다. 이곳에 가시면 보다 구체적인 내용과 동영상을 보실 수 있습니다.

사용자 삽입 이미지

이번에 페이스북이 공개한 데이터센터는 최근 미국 오레곤주 프린빌에 건립한 새로운 센터로 내부에는 자체 제작한 서버와 냉각방식 등 다양한 내용을 공유하고 이습니다.

페이스북이 자체 제작한 서버와 오픈소스 소프트웨어 등을 통해 효율성과 비용절감에 많은 노력을 기울이고 있다는 점은 알려진 사실이지만, 이렇게 세부적인 내용들까지 공개된 점은 놀랍습니다.

결론적으로 1)페이스북이 자체 제작한 서버는 다른 어떠한 브랜드 서버 제품보다 38% 성능이 좋은 반면 비용은 오히려 24% 줄어들었고 2)페이스북 프린빌 데이터센터 PUE는 무려 1.07에 불과하다는 점 3)모든 서버의 에너지 효율이 93%에 달한다는 등의 사실이 업계를 놀라게 하고 있습니다.

PUE는 데이터센터 내 에너지 효율을 나타내는 지표로 데이터센터가 사용하는 총 전력을 IT장비가 사용하는 전력으로 나눈 값입니다.

사용자 삽입 이미지

예를 들어 PUE 값이 2라고 했을 때, 이는 곧 서버 자체에 필요한 전략이 1Kw일때, 해당 데이터센터에는 2Kw의 전력이 공급돼야 한다는 것을 뜻합니다. 나머지 1Kw의 전략은 IT장비에서 발생하는 열을 식히기 위한 냉각 등에 주로 사용이 된다는 얘기지요. 따라서 PUE 수치는 낮을수록 더 효율적입니다.

PUE가 1.07이라고 하면 서버 자체에 공급되는 전력 외에 낭비되는 부분은 거의 없다는 얘기입니다. 제가 불과 2달전 페이스북 데이터센터 관련 포스팅을 했을 때만 해도 프린빌 데이터센터의 UE는 1.15로 설계됐다고 알려져 있었습니다. 그런데 불과 2달 만에 이 수치가 또 줄어든 것입니다.

이는 별도의 냉각장치를 사용하기보다는 100% 외부의 찬 공기를 통한 증발식 냉각 시스템을 도입했기 때문이라고 설명하고 있네요.

자체 제작한 서버 랙(Rack, 서버를 놓을 수 있는 캐비넷)은 아래 사진과 같이 3개를 하나의 세트로 묶어 았으며 이 높이는 42U나 됩니다.

이 3개 세트의 랙에는 총 90대의 서버를 탑재할 수 있으며, 이 랙들 사이에 한 개의 배터리 랙을 놓아 AC 전원이 나갔을 때를 대비해 DC 전원을 제공할 수 있게 해 두었다고 합니다.

또한 흥미를 끄는 점 중 하나는 푸른색의 LED 조명입니다. 단가 자체는 일반 조명보다 약간 비싸지면 이를 통해 오히려 에너지 효율 자체를 높이고 내부를 시원하게 보이게 하는 효과가 있습니다. 마치 첨단의 사이버 세상에 있는 듯한 느낌도 들 것 같네요.

한편 페이스북은 이번 오픈 컴퓨트 프로젝트를 위해 AMD와 인텔, 콴타시스템, 알파테크, 파워-원, 델타 등과 협력을 맺고 있으며, 델과 HP, 랙스페이스, 스카이프, 징가 등의 업체와 차세대 데이터센터를 위한 공동 작업을 하고 있다고 밝혔습니다. 

최근 국내에서도 KT가 새로 건립한 클라우드 전용 데이터센터에 이러한 대만 콴타시스템을 통해 서버를 자체제작(ODM) 하기도 했는데요. 이번 페이스북의 정보 공유를 통해 국내 데이터센터 관련 업체들도 많은 도움이 됐으면 좋겠습니다.

2011/04/09 01:08 2011/04/09 01:08
사용자 삽입 이미지

그동안 소문으로만 무성하던 아마존의 한국지사 설립이 가시화됐습니다. 이미 국내 서비스를 총괄할 지사장 선임은 물론 국내 솔루션 업체와의 협력, 결제 방식 변경, 하반기에 지사를 공식 출범한다는 구체적인 내용까지 제시되고 있는데요.

관련기사 클라우드 맹주 아마존 한국지사 설립한다

아마존은 이미 지난달, 일본에 5번째 데이터센터와 법인(아마존 데이터센터 서비스 저팬)을 설립하고 아시아태평양 지역 클라우드 시장을 본격 공략한다고 밝힌 바 있습니다.

아시아 지역에선 이미 싱가포르를 통해 클라우드 서비스(아마존 웹서비스, AWS)를 제공하고 있었지만, 한국을 포함한 다른 아시아 국가들까지 포괄하기에는 다소 무리가 있었지요.

그러나 우리나라와 지리적으로 가까운 일본에 설립된 이후 국내에서도 이전보다는 안정적으로 서비스를 제공받을 수 있게 된 것으로 볼 수 있겠습니다.(비록 최근 일본에서 발생한 쓰나미와 지진 등으로 인해 지리적인 불안감이 증폭되고 있습니다만. 이 때문인지 아마존은 최근 도쿄에 제2의 데이터센터를 마련한 것으로 알려지고 있습니다)

그렇다고 하더라도 국내에 직접 데이터센터를 갖지 않고 단순히 지사를 통해서만 서비스를 제공한다는 것은 큰 의미가 없어 보입니다. 이미 몇 년 전부터 국내에서도 아마존 클라우드 서비스를 이용하는 사람들은 제법 있는 것으로 알려져 있습니다. 물론 서비스에 대한 접근성 자체는 높아지겠지만요.

그런데 국내 데이터센터 업계에서는 아마존이 이번 한국 법인 설립과 함께 국내에서도 자체적인 인프라를 가능성이 높다고 보고 있습니다.

실제 최근 국내 중소 데이터센터(IDC)들을 대상으로 아마존이 활발한 접촉을 하고 있다는 점이 이를 뒷받침하는 근거입니다.

어차피 국내에서 아마존의 경쟁사는 KT나 SK텔레콤 등 통신사가 될 수 밖에 없습니다. KT가 자사의 클라우드 서비스(유클라우드)를 언급할 때마다 빼놓지 않고 이야기하는 경쟁사는 바로 아마존입니다. 세계 최대 클라우드 서비스 업체인 아마존보다는 최소 30% 저렴한 서비스를 제공하겠다고 누차 강조해왔었습니다.

이 때문에 아마존은 자사의 클라우드 서비스를 제공하기 위해 KT나 SK텔레콤 등 통신사 데이터센터를 제외한 중소 규모의 데이터센터(IDC)를 물색하고 있으며, 이들과 함께 공간임대와 운영, 아마존 솔루션의 재판매 등 다양한 논의를 하고 있다는 얘기가 종종 들리고 있습니다.

익명을 요구한 한 중소 IDC 관계자는 “일본과는 달리 국내 시장 자체가 워낙 작기 때문에 아마존에서는 직접 데이터센터를 설립하는 것에는 부담을 갖고 있다”며 “우리 외에도 현재 다양한 중소 데이터센터 사업자와 접촉하고 있으며, 몇 개의 데이터센터를 임대해 직접 운영하는 등 다양한 방안을 검토하고 있는 것으로 알고 있다”고 말했습니다.

만약 아마존이 실제 국내에 데이터센터를 마련하고 서비스하게 된다면, 최근 개인 사용자들을 대상으로 런칭한 ‘클라우드 드라이브’와 ‘클라우드 플레이어’ 서비스도 가능해질 것으로 보입니다.

이는 아마존에서 음원이나 영화 등 다양한 콘텐츠를 구입해 이를 아마존이 제공하는 공간에 저장하고, 이를 PC나 스마트폰 등 인터넷 접속이 가능한 기기에서 바로 재생이 가능한 서비스입니다.

어찌됐든 아마존의 등장으로 인해 국내 클라우드 서비스 업계에 어떠한 바람이 불게 될지 주목됩니다.
2011/04/08 09:37 2011/04/08 09:37
사용자 삽입 이미지
▲페이스북 데이터센터의 내부 모습

이처럼 페이스북은 계속되는 이용자들의 급증과 엄청난 트래픽으로 인프라 지원에 힘을 쏟고 있는 상황인데, 2010년 말 기준으로 페이스북은 매달 6900억 이상의 페이지뷰가 발생하고 있으며 이는 전세계 인터넷 트래픽의 9.5% 가량을 차지하고 있다고 합니다.

특히 매일 1억장 이상의 새로운 사진이 사용자들에 의해 추가되면서, 엄청난 숫자의 스토리지(데이터 저장소)가 요구되고 있는 상황입니다.

통계에 따르면, 매달 페이스북을 통해 약 300억 장 이상 사진이 공유되고 있으며, 100만개 이상의 웹사이트, 55만개의 애플리케이션이 페이스북 커넥트 플랫폼을 사용하고 있다고 하지요.

‘페이스북’ 데이터센터는 어떤 모습일까<상> 편에서도 언급했듯이 이 같은 서비스 지원을 위해 페이스북은 현재 미국 내 산타클라라라와 산호세 실리콘밸리 내 최소 6개 데이터센터와 샌프란시스코 1개 데이터센터, 버지니아주 애쉬번의 약 3개 데이터센터를 임대하고 있다고 합니다.

또한 페이스북이 첫 번째로 건립 중인 오리건주의 자체 데이터센터 역시 최근 거의 완공돼  현재 일부는 운영이 시작된 것으로 알려지고 있는데요. 만약 페이스북의 성장세가 앞으로도 계속 현재와 같은 수준으로 이어진다면, 구글과 마이크로소프트, 야후, 이베이와 같은 대규모 데이터센터 구축이 불가피할 것으로 보입니다.

그렇다면 페이스북이 현재 운영 중인 데이터센터의 크기는 얼마나 될까요.
사용자 삽입 이미지
▲페이스북 데이터센터의 내부 모습. 얼마나 넓은지 직원이 자전거를 타고 이동하고 있습니다.

현재 페이스북이 임대하고 있는 데이터센터들의 평균 면적을 살펴보면 약 1만~3만 5000평방미터(3000평~1만 500평) 혹은 2.25~6메가와트 정도인 것으로 알려집니다.(데이터센터들의 전력 사용량이 급증하면서, 최근 데이터센터 건물주들은 면적 대신 전력 사용량을 바탕으로 임대료를 측정하고 있다고 합니다.)

페이스북이 구축 중인 오리건주 프린빌의 데이터센터의 경우, 건립 당시만 해도 전체 그키가 약 14만
7000평방미터(약 4만 5000평) 규모가 될 것으로 알려졌으나, 계속되는 성장세에 따라 당초 계획을 수정해, 이보다 2배 이상 늘린 16만 평방미터(약 5만평)를 추가했다고 합니다.

이에 따라 프린빌 데이터센터의 전체 면적은 약 30만 7000평방미터(9만 5000평)로 최종 확정됐으며, 이는 월마트 매장 2개를 합친 것보다 큰 크기라고 하네요.

사용자 삽입 이미지
▲미국 오리건주 프린빌 데이터센터 착공 행사

페이스북
조나단 헤일링거 기술운영 부사장은 “사진이나 비디오 추가 기능 없이 소수의 사람들만이 처음 페이스북을 시작했을 때만 해도 전체 서비스가 단 한대의 서버에서 가능했었지요”라고 회상합니다.

페이스북 기술팀에 따르면 2010년 6월 현재 페이스북은 약 6만 대의 서버를 운영하고 있다고 하는데요. 이는 지난 2008년 4월 1만대, 2009년 3만대로 늘어나며 매년 2~3배 증가한 수치입니다.

물론 이 6만대에는 현재 건립 중인 오리건 프린빌의 데이터센터 내에서 운영되는 서버는 포함돼 있지 않습니다. 프린빌과 노스캐롤라이나 중에 건립 중인 데이터센터에서 운영될 서버까지 합친다면 이보다 훨씬 늘어나겠지요.

참고로 현재 최대 인터넷 서비스 업체인 구글
의 경우 운영하는 서버가 45만대, 마이크로소프트(MS)가 30만대, HD/EDS가 38만대, 인텔이 10만대 등으로 알려져 있습니다.(물론 이 글을 쓰고 있는 현재에도 이들 업체의 서버는 계속 증설되고 있을 것이기 때문에 정확하다고 볼 수는 없습니다.)

그렇다면 페이스북은 어떤 브랜드의 서버를 사용할까요?

페이스북은 공식적으로 어떤 브랜드의 서버를 운용하고 있는지에 대해서는 공개적으로 밝힌 바 없지만, 알려진 바에 따르면 지난 2007년 래커블(현재의 SGI)사의 서버를 대량으로 구입했으며, 델 서버도 상당수 보유하고 있는 것으로 알려집니다. 

페이스북의 헤일링거 기
술운영 부사장은 종종 HP와 IBM과 같은 주요 서버 업체들에 대해 비판해왔는데, 그 이유는 이들 업체의 서버를 페이스북과 같은 거대한 인프라에 적용하기가 쉽지 않다는 것이었습니다.

즉, 페이스북과 같은 서비스를 지원하는 인프라는 복잡한 엔터프라이즈 컴퓨팅을 위한 기능들 대신 특정 워
크로드에 최적화된 베어본(bare bone) 서버가 경제학적으로 훨씬 낫다는 것입니다.

사용자 삽입 이미지
▲페이스북 데이터센터 내의 서버

이는 현재의 클라우드 컴퓨팅에서 적용되는 인프라와 일맥상통합니다.

수많은 사람들이 엄청난 양의 데이터를 저렴한 비용으로 공유하고 사용할 수 있게 하기 위해선 싼 가격의 범용 하드웨어 인프라에 오픈소스 소프트웨어를 활용해 비용을 줄이고, 대신 필요한 컴퓨팅 자원을 보다 쉽게 즉각적으로 늘릴 수 있는 것이 중요하기 때문입니다.

이같은 이유 때문에 헤일링거 부사장은 지난해 초에 있었던 한 기술 컨퍼런스에 참여해 티엘라(Tilera)와 시마이크로(SeaMicro) 등을 ‘주목해야 할 업체’라고 지목하기도 했다
고 합니다. 이들 제품의 멀티코어 프로세서가 전력은 적게 먹는 대신, 컴퓨팅 파워가 우수하기 때문이라네요.

페이스북은 최근 모바일칩의 절
대 강자인 ARM사의 저젼력의 프로세서를 사용하기 시작한 것으로도 알려졌는데, 이에 대해선 사실이 아니라고 공식적으로 밝힌 바 있습니다.

한편 앞에서도 언급했듯이, 페이스북은
오픈소스 소프트웨어를 사용해 다양한 서비스를 개발한 것으로 유명한데요.

페이스북은 PHP 프로그래밍 언어를 통해 개발됐고, MySQL 데이터베이스를 사용하고 있는데, 페이스북 엔지니어링팀은 ‘힙합(HipHop)’이라 불리는 프로그램을 개발했다고 합니다. 이는 PHP 소스코드를 C++로 전환해 성능을 높인 것이라고 하네요.

페이스북은 현재 MySQL 데이터베이스 클러스터를 사용하는 가장 큰 회사 중 하나로, 오픈소스 캐싱 시
템인 멤캐쉬드(memcashed)의 가장 큰 사용 그룹이기도 합니다. 멤캐쉬드는  고성능의 분산 메모리 캐싱 시스템인데, 사용량이 많은 동적 웹 어플리케이션에서 DB의 부하를 줄이기 위해서 사용됩니다.

지난 2009년 마크 주커버그가 직접 언급했듯이, 멤캐쉬드는 페이스북 서비스에서 웹 애플리케이션의 확장을 향상시켜주는 중요한 수단으로 사용되고 있습니다.

또한 페이스북은 다수의 플랫폼에서 운영되는 인프라를 묶을 수 있도록 RPC(remote procedure calls)를 사용해 프레임워크를 만들었으며, 이밖에도 아파치 하둡(Apache Hadoop)과 아파치 카산드라(Cassandra), 아파치 하이브(Hive), 플래쉬캐쉬(FlashCache), 스크라이브(Scribe), 토네이도(Tornado), Cfengine, Varnish 등의 오픈소스 소프트웨어가 대거 사용됐습니다.

그렇다면 페이스북은 데이터센터
운영에 얼마만큼의 돈을 쓸까요?

패이스북은 2010년 9월 현재 데이터센터 면적을 임대하는 데에만 연평균 5000만 달러(한화로 약 560억원)를 지불한다고 합니다.

이는 2009년 5월 기준 약 2000만 달러 임대 비용에 비해 2배 이상 증가한 수치입니다.

아마도 서버와 스토리지
등 하드웨어 투자 비용까지 포함한다면 어마어마한 수치이지요. 현재 페이스북은 ‘디지털 리얼리티 트러스’와 ‘듀퐁 패브로즈 테크놀로지’, ‘포춘 데이터센터’, ‘코어사이트 리얼리티’ 등 4개 데이터센터 업체에게 데이터센터 상면을 임대하고 있는 것으로 알려집니다

그렇다고 하더라도 여전
히 페이스북이 데이터센터 운영에 사용하는 비용은 다른 업체의 인프라 투자 비용에 비해선 적은 수치입니다. 구글은 2008년 기준 데이터센터 인프라에 23억 달러를 투자했으며, MS는 현재 보유 중인 개별적인 데이터센터에 5억 달러를 투자하고 있습니다.

그렇다면 페이스북 데이터센터를 운영하는 데에는 몇 명의 사람들이 필요할까요.

페이수북의 데이터센터 시설은 고도로 자동화시켜서 대략 한 사이트에 약 20~50명 정도로도 충분하다고 합니다. 이를 환산하면 보통 한명의 엔지니어가 약 100만명의 사용자가 사용할 인프라(서버)를 담당하는 수준입니다. 현재에는 1명당 120만명 수준까지 높였다고 하네요.

프린빌 데이터센터의 경우는 약 12개
월의 건설 기간 동안 200명 이상의 인력을 투입시켰는데, 향후 이를 운영할 인력으로 약 35명의 풀타임 직원 및 수십명의 파트타임 및 계약직 직원을 고용할 예정이라고 합니다.

또한 놀라운 점 중 하나는 페이스북의 첫 번째 데이터센터이기도 한 프린빌의 데이터센터는 에너지 효율의 척도를 알려주는 PUE 수치가 1.15에 달한다는 점입니다


PUE는 데이터센터가 사용하는 총
전력을 IT장비가 사용하는 전력으로 나눈 값입니다. 이는 데이터센터 효율성을 나타내는 업계의 표준 지표라고 할 수 있습니다.

일반적인 데이터센터는 PUE 값이 2정도로 산출이 되는데, 이는 곧 서버 자체에 필요한 전략이 1Kw일때, 해당 데이터센터에는 2Kw의 전력이 공급돼야 한다는 것을 뜻합니다.

나머지 1Kw의 전략은 IT장비에
서 발생하는 열을 식히기 위한 냉각 등에 주로 사용이 되기 때문에, PUE 수치는 낮을수록 더 효율적입니다.

PUE가 1.15라면 엄청나게 에너지 효율이 좋은 것입니다. 프린빌 데이터센터는 에너지 효율을 위해 냉수를 통한 증발식 냉각 방식을 도입할 예정인 것으로 알려져 있습니다.
 
사용자 삽입 이미지
▲페이스북이 도입할 새로운 방식의 UPS 공급 체계

또한 이 데이터센터는 현재 특허 출원 중인 새로운 방식의 UPS(무정전전원공급장치)를 도입할 것으로 전해지는데요.

이는 기존 UPS 장비보다 약 12% 가량 절감이 가능하다
고 합니다. 이는 구글의 전력 공급 방식을 따라한 것으로, 각 서버에 12볼트의 배터리를 추가시켜 공급하는 방식이라고 합니다.

이밖에도 서버에서 발생하는 열을 재활용
해 사무실 난방으로도 이용할 예정이라고 합니다.

사용자 삽입 이미지
▲그린피스는 페이스북이 데이터센터를 친환경적으로 건립해야 한다고 주장하고 있습니다

한편 환경단체인 그린피스는 최근 페이스북 데이터센터에 대해 비판적인 입장을 취해 주목받기도 했는데요.

이는 페이스북이 건립 중인 오리건주의 데이터센터에 필요한 전력의 절반 이상이 화석 연료를 사용하는 재생 불가능한 에너지이기 때문에, 친환경적이지 않다는 이유에서
였습니다.

페이스북 측은 이에 대
해 “이번 데이터센터는 건립 당시부터 미국 그린빌딩 표준인 (LEED)에 맞춰서 짓고 있으며, 석탄 뿐만 아니라 천연가스와 풍력 등 다양한 연료를 이용하는 하이브리드형 데이터센터”라고 강조하고 있습니다.

끝으로 ‘페이스북 이펙트’라는 책을 보면,
“페이스북은 인텔과 닮아있다”라는 글이 나옵니다. 즉, 페이스북이야말로 궁극적으로는 소비자들이 항상 사용하고 있지만, 거의 인식하지 못하는 PC 안의 인텔 반도체 칩과 같은 역할을 인터넷 세계에서 담당하게 될 것이라는 것입니다.

이미 우리 생활에 깊숙이 들어와있는 페이스북이 앞으로 또 우리 생활에 어떠한 영향을 미치게 될지 궁금해집니다. <끝>


2011/01/20 17:53 2011/01/20 17:53
사용자 삽입 이미지
2004년 2월, 하버드대 학생이던 마크 주커버그가 자신의 기숙사에서 한대의 서버를 놓고 시작했던 ‘페이스북’이 전세계를 들썩이게 하고 있습니다.

초창기 ‘더 페이스북’이라는 이름으로 시작한 것으로 알려진 이 소셜네트워크서비스(SNS)는 지난해엔 구글을 누르고 방문객이 가장 많았던 웹사이
트로 등극했습니다. 페이스북은 이제 인류의 일상생활을 지배하는 막강 미디어로 떠오르고 있는 것이지요.

현재 페이스북은 전세계 약 6억 명에 육박하는 이용자가 사용하고 있는데, 이 수억 명의 사람들이 자신들의 ‘페북’ 친구들과 담벼락을 통해 이야기를 나누고, 사진을 공유하기 위해서는 바로 서버와 네트워크 등 인프라스트럭처의 지원이 절대적이라고 할 수 있습니다.

포춘지의 테크놀로지 전문기자였던 데이비드 커크패트릭이 쓴 ‘페이스북 이펙트(facebook effect)’라는 책을 보면, 주커버그가 페이스북을 운영하는 과정에서 가장 신경썼던 점 중 하나가 바로 원활한 서비스를 위한 인프라 운영이었던 것으로 알려져 있는데요.

(참고로 ‘페이스북 이펙트’는 커트패트릭 기자가 마크 주커버그는 물론 페이스북 대내외 주요 인물들과 나눈 실제 인터뷰와 증언들을 바탕으로 한 페이스북의
비하인드 스토리를 담고 있습니다.)

아무리 좋은 서비스라고 하더라도, 이러한 인프라 지원이 원활하지 않아 서비스가 느려지고 장애가 잦아지면서 수많은 사용자들을 잃게 되는 경우가 많지요.  

실제로 페이스북 이전에 미국에서 생겨났던 SNS들 중에는 인프라 지원이 원활치 않아 결국 서비스가 흐지부지된 경우가 많은 것으로 알려집니다.

일반인들에게 잘 와 닿지는 않겠지만, 이 수억 명에 달하는 어마어마한 사람들이 자신의 페북 친구들과 담벼락을 통해 이야기를 나누고 사진을 공유할 수 있는 것은 바로 이러한 대량의 트래픽과 용량을 지원하는 데이터센터로 인해 가
능한 것입니다.

사용자 삽입 이미지
▲페이스북 데이터센터 내부

그렇다면 데이터센터는 무엇일까요. (위 사진처럼) 서버와 네트워크, 스토리지 등 서비스 운영에 필요한 IT 장비들을 한곳에 모아놓은 장소라고 할 수 있겠습니다.

공장 같이 큰 공간에 페이스북과 같은 인터넷 서비스를 원활하게 하기 위해서 시꺼멓게 생긴 길쭉한 장비들이 쭉 늘어뜨려져 있고, 이것들을 연결해
놓은 수많은 케이블들이 가득 차 있는 모습을 생각하시면 될 것 같습니다.

페이스북이 운영하는 미국 내 약 10여개 데이터센터에 있는 수만 대의 웹서버와 스토리지들은 광채널 케이블을 통해 전세계 사용자들을 연결시켜주고 있는 셈이지요.

여러분들이 페이스북을 통해 친구들과 정보를 공유할 때마다 이
데이터센터 내 서버들은 이러한 데이터를 받아서 이를 다시 ‘페친’들에게 뿌려주는 역할을 하고 있는 것입니다.

그렇다면 대체 6억명의 사람들이 이용하고 있는 페이스북의 데이터센터는 어떤 모습인지 상세히 들여다보도록 하겠습니다.

알려진 바에
따르면, 페이스북을 이용하는 사용자의 70% 이상이 미국 외 지역에 있음에도 불구하고, 페이스북의 데이터센터는 모두 미국 내에 존재하고 있습니다.

아마도 서비스를 계속해서 확장되게 되면, 이러한 데이터센터들이 해외에 생길 가능성도 있습니다만 현재까지는 미국에서만 운영하고 있
는 것으로 알려져 있습니다.

현재 페이스북은 적어도 미국 내 약 9~10개의 데이터센터를 임대해서 사용하고 있으며, 지난해부터는 오레건주 프린빌과 노스캐롤라이나주 포레스터시티에 직접 데이터센터를 짓고 있는 것으로 전해집니다.

사용자 삽입 이미지
▲오레건주 프린스빌에 위치한 페이스북 데이터센터

건립 중인 데이터센터들은 전력 및 냉각에 최적화돼 있다고 하는데요.

실제 데이터센터에서 소비되는 전력의 절반 이상이 IT 기기에 사용되는 것보다는 이러한 기기들에서 발생하는 열을 냉각시키는데 사용되고 있기 때문에, 현재 대부분의 데이터센터들은 냉각에 가장 많은 신경을 쓰고 있는 상황입니다.

페이스북은 2010년 6월 기준으로 약 6만 대 정도의 서버를 운영하고 있는데(물론 현재에도 계속해서 추가되고 있겠지요), 리눅스 기반의 x86 서버와 같은 저렴한 범용 하드웨어에 오픈소스 소프트웨어를 올려서 인프라를 구성하고 있다고 합니다.

이는 구글이나
야후 등 다른 인터넷 서비스 기업들의 인프라와 마찬가지로, 트래픽이 늘어날 때마다 저렴한 비용으로 쉽게 확장 가능한 구조로 돼 있는데요.

사용자 삽입 이미지
▲페이스북의 서버 증가 추이

범용 하드웨어와 오픈소스 소프트웨어의 구조는 현재 클라우드 컴퓨팅 환경에 가장 적절한 인프라 구성 조합으로 각광받고 있기도 합니다. 이는 엄청난 양의 데이터를 효율적으로 관리하고 저장하기 위한 방안으로 클라우드 컴퓨팅이 뜨고 있다는 점과 일맥상통합니다.

어찌됐든 페이스북의 경우, 단기간에 엄청난 속도로 사용자들이 늘어났기 때문에 적절한 시기에 서버를 늘려나가는 것이 매우 중요했는데, 페이스북에서 최고기술책임자(CTO)를 지냈던 아담 디안젤로는 ‘페이스북 이펙트’라는 책을 통해 이렇게 말하고 있습니다.

(참고로 아담 디안젤로는 마크 주커버그와 고등학교 3학년 시절 시냅스라는 음악 공유 소프트웨어를 함께 만든 사람으로, 페이스북을 퇴사한 이후에도 주커버그와 여전히 막역한 사이라고 하네요.)

“데
이터베이스에 과부하게 걸려 고치고 나면, 이메일 송신에 문제가 생겼지요. 이를 해결할 때쯤에는 사이트가 한계에 다다랐다는 느낌이 들고 결국 다음 주에 문제가 터지고 사이트 용량을 늘려가야 했어요. 산타클라라에 있는 데이터센터에 자주 가서 서버를 늘렸는데, 2005년 연말까지 페이스북이 서버와 네트워크 기기에 투자한 금액은 440만 달러(한화로 약 50억원)에 달합니다. 이윽고 페이스복이 사진공유서비스 시작하게 되면서, 페이스북은  향후 6개월 동안 사용하리라 계획했던 저장소(스토리지)를 6주 만에 소진하기에 이르렀습니다. 당시 데이터센터 소프트웨어 전문가인 제프 로스차일드의 경우, 용량 초과로 서버가 마비되는 등의 비상사태가 생기지 않도록 밤을 새면서 일하는 경우가 다반사였지요. 회사 전 직원이 데이터센터 상황을 파악하고 새 서버를 설치하는데 동원되기도 했었습니다.”

<계속>


2011/01/18 15:13 2011/01/18 15:13
최근 계속되는 스토리지 업체의 인수합병(M&A) 소식에 연일 관련 업계가 뜨겁습니다. 올해에는 유독 심한 것 같습니다.

가장 화제가 됐던 것은 HP의 3PAR 인수였는데요. 이 과정에서 델과의 치열한 경합이 벌어졌었죠. 결국 현금 유동력이 앞선 HP의 승리로 끝났습니다.

HP는 이달 초 3PAR 통합을 완료하고, 시너지를 모색하고 있습니다. 국내도 마찬가지입니다.

3PAR 인수를 눈앞에서 놓친 델은 지난주 결국 컴펠런트 테크놀로지라는 스토리지 업체를 인수한다고 밝혔습니다.

컴펠런트라는 업체는 ‘플루이드 데이터 아키텍처’라는 독특한 디자인을 바탕으로 SAN과 네트워크 스토리지(NAS), 씬프로비저닝 등 다양한 제품 및 기술 포트폴리오를 보유하고 있지요.

이미 델은 파워볼트와 이퀄로직, EMC로부터 주문자 상표 생산 부착(OEM)으로 다양한 제품을 공급받고 있는데요. 하이엔드급(대형)의 제품 라인이 부족하다는 평가가 있었습니다.

EMC로부터 대형 스토리지 장비인 ‘시메트릭스’를 공급받긴 했지만, 델 입장에서는 너무 고가의 제품이지요. 판매가 미진했던 것으로 보입니다. 이 때문에 컴펠런스의 기술력을 통한 새로운 제품이 탄생할 것으로 업계에서는 내다보고 있습니다.

컴펠런트를 인수가 완료된 이후에 이를 독립적으로 운영할 방침이며, 컴펠런트 제품 및 기능을 자사의 스토리지 포트폴리오를 강화하는데 활용한다는 계획입니다.

업계에 따르면 델은 이번 컴펠런트 인수에 그치지 않고, 스토리지 관련 업체를 추가로 인수할 계획이라는군요.

이에 앞서 전세계 외장형 스토리지 1위 업체인 EMC는 지난 7월 인수한 데이터 웨어하우징(DW) 업체 ‘그린플럼’에 이어 ‘아이실론’이라는 확장형(Scale-out) NAS 업체를 인수하며 주목받고 있습니다.

EMC는 이미 다양한 제품 포트폴리오를 갖고 있지만, 그동안 시대에 뒤떨어진 스토리지 아키텍처라는 공격을 경쟁사들로부터 공공연하게 받아왔습니다.

특히 지난 2008년 IBM에 인수된 이스라엘 스토리지 업체인 XIV의 창시자 모세 야나이는 는 EMC의 하이엔드급 스토리지인 시메트릭스의 구버전을 개발했던 사람입니다.

모세 야나이가 기존 EMC 제품의 단점을 보완, 2002년에 개발한 새로운 아키텍처의 스토리지인 XIV의 ‘넥스트라’는 이런 점에서 업계의 많은 주목을 받아왔습니다. 이 때문에 EMC는  XIV의 직접적인 공격 대상이 돼 온 것이 사실입니다.

한국IBM은 2년전 XIV를 인수한 이후, 최근에는 EMC 클라리온 제품과 경쟁할 미드레인지급 스토리지 신제품인 스토와이즈 V7000을 출시하기도 했습니다. 이는 지난 7월 인수한 데이터 압축업체인 ‘스토와이즈’의 핵심 기술을 적용한 제품입니다.

히다치데이타시스템즈(HDS)의 경우도 잘 알려지진 않았지만, 최근 패러스케일이라는 업체를 인수하면서 확장형 NAS 시장에 대응하고 있습니다.

SAN과 NAS, iSCSI 등 다양한 인터페이스(프로토콜)이 통합된 유니파이드 스토리지로 유명한 넷앱의 경우도 지난 5월, 가상화 솔루션 업체인 바이캐스트를 인수한 바 있습니다.

이처럼 올해 들어 스토리지 관련 업체들이 엔터프라이즈 업계의 인수합병의 핵심으로 떠오르고 있는 이유는 무엇일까요. 더 이상 스토리지는 단순히 저장 공간을 제공해주는 ‘박스’가 아닙니다.

대부분의 업체들이 인수합병 이후 전략에 대해 가상화된 데이터센터 및 클라우드 컴퓨팅 사업을 강화하기 위해서라고 입을 모으고 있습니다.

보다 효율적으로 스토리지 용량을 할당해주는 씬프로비저닝 기술과 동일한 데이터를 하나만 저장해주는 데이터 중복제거 기술, 데이터 압축 기술, 잦은 접속으로 고성능이 필요한 데이터와 장기 보관해야 할 데이터들을 자동으로 이동시켜 주는 계층화 기술 등은 기본으로 제공되는 요소가 되고 있지요.

이들은 클라우드라는 새로운 서비스 유형에 맞는 아키텍처로 계속해서 변모하고 있습니다. ‘클라우드’라는 것이 사용한 만큼만 돈을 지불하는 유틸리티 컴퓨팅의 개념과 셀프서비스와 자동화, 계층화 등이 통합된 개념인 만큼, 인프라스트럭처의 가장 기본이 되는 스토리지 역시 더 이상 과거의 아키텍처로는 답이 안 나오는 구조이기 때문입니다.

특히 내년부터 본격적으로 클라우드가 서비스 제공 방식을 크게 변화시킬 것으로 예상되는 가운데, 퍼블릭 및 프라이빗 클라우드를 이용하는 기업이 증가하면서 정보의 저장 위치에 관계없이 스토리지 자원을 관리할 수 있는 능력이 요구되고 있습니다.

국내의 경우도 내년부터 본격적인 클라우드 서비스 모델로 많은 업무 환경이 변화될 것으로 기대가 되고 있는 가운데, 대부분의 스토리지 업체들은 2011년에는 적어도 두자릿 수 이상의 성장세를 보일 것으로 확신하고 있습니다.

또한 과거와 같이 서버와 스토리지 네트워크 업체 간 수평적인 형태의 협력이 주를 이뤘다면 이제는 한 업체에서 모든 것을 제공하겠다는 수직적인 형태의 전략으로 변화하면서 내년에는 HP와 IBM, 델과 같은 기존 IT 업체와 EMC와 HDS, 넷앱 같은 외장형 스토리지 업체들 간의 격변이 예상되고 있습니다.

최근 IDC나 가트너 등 대표적인 시장 조사기관들이 발표한 내용을 보면, 빠지지 않는 것이 바로 클라우드 스토리지 확산이 가속화될 것이라는 예상입니다.

특히 2013년까지 전세계 클라우드 시장은 450억 달러를 형성할 것으로 예상되는데 이중 스토리지가 차지하는 비중이 약 15% 정도로 이는 약 66억 달러에 해당된다고 합니다. 예상대로 된다면, 3년 후에는 서버보다 오히려 스토리지 시장이 더 커지게 되는 셈입니다.

내년에는 또 스토리지 업계에 어떠한 지각 변동이 일어날지 주목되고 있습니다.
2010/12/17 15:49 2010/12/17 15:49
사용자 삽입 이미지
▲사진은 서울 상암동에 위치한 우리금융그룹 데이터센터


북한의 연평도 포격 도발이 있은지 이제 8일째에 접어듭니다. 오늘(1일) 한-미 연합훈련이 끝난 이후에 북한의 추가 공격이 발생할 수도 있다는 김태영 국방부 장관의 말에 또 다시 국민들의 불안감도 커지고 있습니다.

며칠전 지인들과 저녁을 먹다가, “정말 이러다가 전쟁이라도 나는 것 아니냐”는 얘기를 하다가 이는 곧이어 은행 예치금과 대출금에 대한 이야기로 이어졌습니다.

(절대로 일어나서는 안 되겠지만) 만약 전쟁이 난다면, 은행 예금과 대출금 정보는 어떻게 되느냐가 그날의 주요 화제로 떠올랐지요.

지인 중 한명은 “아는 사람한테 들었는데 은행에서 호주나 중국 등에 다른 국가에 데이터 백업을 별도로 해놓았기 때문에 전쟁이 나서 은행 데이터센터(전산실)가 무너져도 기록은 계속 남아있어 상관없다”는 말을 하는 통에 이에 대한 진위여부(?) 논쟁이 벌어졌지요.(다들 “대출금 내역은 없어졌으면 좋겠다”는 데에는 의견을 모았답니다.)

결론부터 말하자면, 국내에 본점을 둔 금융기관의 전산실 및 재해복구센터(DR, 백업센터라고도 통칭함)는 국내에 설치해야 한다는 규정이 있기 때문에, 관련 데이터들은 해외로 나갈 수가 없습니다.

이는 금융감독원의 인가기준으로 전자금융거래법 전자금융감동규정시행세칙 중 제2절 시설부문 제7조(전산실에 관한 사항) 11번 규정에 <국내에 본점을 둔 금융기관의 전산실 및 재해복구센터는 국내에 설치할 것>이라고 명시돼 있기 때문입니다.

씨티은행이나 SC제일은행 등 외국계 은행 혹은 외국자본이 투자된 경우에도 현지법인이 설립돼 있기 때문에 관련 규정 사항을 준수해야 합니다.

한국씨티은행의 경우, 당초 싱가포르의 씨티그룹 아태 본부에서 IT인프라를 원격 관리할 계획이었습니다만, 관련 규정상 현재는 인천과 경기도 용인의 마북리에 각각 주전산센터와 백업센터를 운영하고 있습니다.

다만 홍콩상하이은행(HSBC)의 경우에는 현재 법인이 아닌 외국은행의 한국지점으로 분류되고 있기 때문에 여기에 해당이 안 된다고 하네요.

외국계 은행 백업센터에 관해 <디지털데일리> 박기록 기자가 쓴 흥미로운 기사가 있으니 참고하시기 바랍니다. (아래 링크 클릭)

관련기사 : 떠나는 론스타... 외환은행 BCP투자는 과연 순수했을까

현재 대부분의 국내 시중은행들은 고객들의 금융거래와 관련된 모든 데이터를 관리, 저장하고 있는 전산실을 ‘데이터센터’라는 이름 하에 운용하고 있는데요.

지난 2001년 미국 9.11 테러가 발생한 이후, ‘BCP(Business Continuity Planning, 비즈니스 연속성)’라고 해서, 테러나 전쟁, 지진이나 태풍과 같은 천재지변 등에 대비하기 위해 원래 데이터를 똑같이 복제해 놓은 ‘재해복구센터(백업센터)’의 중요성이 높아졌습니다.

재난이 발생했을시, 고객 서비스를 지속적으로 제공하고 핵심 업무 기능을 지속할 수 있도록 복구 체계를 구축하는 것이지요.

우리나라 금융당국에서도 9.11 테러 이후, 백업시스템의 유무를 은행의 경영평가에 반영함으로써 ‘백업센터’를 사실상 의무화한 바 있습니다.

이에따라 현재 대부분의 은행들은 한 개의 메인 데이터센터가 있고, 조금 떨어진 곳에 재해복구센터(백업센터)를 설치해 둡니다. 여기에 또 한번 이 데이터들을 테이프 형태로 복제해 은행영업지점 한켠에 보관해 둔다고 합니다.

이른바 동일 데이터를 세 곳의 장소에 보관해 놓으며, 3중 시스템 체계를 갖춘 셈이지요.

만약 정말로 전쟁이 나서 데이터센터가 파괴된다고 해도, 나머지 2곳에 데이터가 남아있기 때문에 대한민국 전체가 폭파되지 않는 이상 관련 정보는 파괴(?)되지 않는다는 것이 결론입니다.

※연평도 포격으로 희생된 삼가 고인의 명복을 빕니다.

2010/12/01 15:46 2010/12/01 15:46