단순하게 서버 사업만 놓고 보면 IBM과 HP는 몇년 전까지 치열한 접전을 벌여왔다. x86부터 유닉스 서버, 메인프레임까지 부딪히지 않는 사업 영역이 없었다. 특히 HP는 IBM 메인프레임의 대항마로써, 이를 자사의 유닉스 서버로 다운사이징시키기 위해 많은 노력을 기울였다. HP의‘메인프레임 어택’전략은 실제로 시장에 먹혀들어갔고 특히 국내의 경우 그 비중이 높았다. 물론 그 중에는 HP 뿐만 아니라 IBM 유닉스 서버로의 이전 비중도 꽤 됐다. 실제 이러한 관계 때문에 지난 8일(현지시간) 미국 뉴욕 맨하튼 어퍼이스트사이트 파크애버뉴에서 열린 IBM 메인프레임 탄생 50주년 기념 행사장 맞은 편 도로에선 HP의 다소 귀여운(?) 마케팅이 눈길을 끌기도 했다. HP는 이날“50년 후의 메인프레임은 새로운 스타일의 IT를 받아들여야 한다(After 50 years of the mainframe it is time to embrace the new style of IT)”라는 표어를 담은 트럭 2대를 행사장 맞은편 도로에 정차시켜뒀다.(뉴욕 시내에선 도로에 불법 주정차시킬 경우, 과태료가 최소 150달러 이상이라고 들었는데, 2대이니 300달러 이상은 들었을 듯) ‘새로운 스타일의 IT(the new style of IT)’는 HP 멕 휘트먼 회장이 최근 내세우고 있는 슬로건이기도 하다. 어찌됐든 현재 유닉스 서버 시장에선 IBM이, x86 서버 시장에선 HP가 우위를 점하고 있다. 그런데 미묘한 변화가 감지되고 있다. 수익성이 악화되고 있는 서버 시장에서 최근 IBM은 자사의 x86 서버 사업부를 중국 PC업체인 레노버에 매각하겠다고 발표한 이후, 메인프레임과 유닉스 서버 등 하이엔드 시스템에 집중하고 있다. 또한 HP는 x86서버와 유닉스 서버 사업부를 합쳤으며, 기존 인텔이나 AMD 기반 CPU 이외에 저전력 ARM 프로세서 기반의 ‘문샷’서버 등 획기적인 제품을 출시하고 있다. 외형적으로만 보면 IBM은 복잡하고 관리가 어려운 x86 서버를 자사의 유닉스나 메인프레임으로 업사이징, 반대로 HP는 에너지 효율성과 가격을 무기로 이러한 하이엔드 시스템을 x86 혹은 문샷과 같은 서버로 다운사이징하려는 움직임을 보이고 있다. 이는 양사가 가진 기술적인 배경을 살펴보면 쉽게 이해가 가능하다. IBM은 서버 업체로는 거의 유일하게 자체적으로 칩을 설계, 생산하고 있다. 범용적인 인텔칩 등을 갖고는 기존과 같이 서버에서 수익을 내는 것은 어려울 것이라고 계산이다. 반면 x86과 유닉스 서버 모두 인텔칩에 의존하고 있는 HP로써는 대량 구매를 통해 비용 효율성이 중요한 상황이다. 10년 후, 아니 당장 1년 후엔 이들의 서버 사업이 어떠한 모습일지 주목된다. 또한 이와는 별개로 양사 모두 클라우드 서비스를 출시, 적극적인 모습을 보이고 있는데 이 역시 양사의 스타일은 대조적이다. HP는 오픈소스인 오픈스택 기반의 클라우드 서비스, IBM은 지난해 인수한 소프트레이어의 베어베탈 서비스를 내세우고 있다.
2014/04/15 08:11 2014/04/15 08:11
최근 데이터센터의 전력 절감을 위해 가장 큰 화두는 실내 온도를 높이는 것이다. 일반적으로 대부분의 데이터센터는 20~24℃의 온도로 운영된다. 이보다 높을 경우에는 서버 등 장비의 동작에 영향을 줄 수 있다는 판단 때문이다.

실제 일부 메인프레임이나 유닉스 장비의 경우, 그 이상으로 온도가 높아지면 작동을 멈추기도 한다. 반면 최근 출시되는 대부분의 x86 서버 장비의 경우 최근 30~35°C 에서도 견딜 수 있는 것으로 알려진다.

그러나 데이터센터에는 유닉스와 같은 고가 장비와 x86 서버가 함께 운영되는 경우가 많기 때문에 실내 온도를 높이는 데에는 무리가 있다.

이같은 이유로 데이터센터는 항상 서늘한 온도를 유지하고 있다(여름에는 데이터센터로 피서간다는 우스개 소리가 나오는 이유다).

그런데 최근 30~40°C 이상의 고온에서도 데이터센터가 안전하게 구동될 수 있도록 하는 방안이 강구되고 있다.

지난 8월 KT는 자사의 천안 클라우드데이터센터(CDC) 내에 구축한 인텔과의 협력을 통해 구축한 고온환경(HTA, High Temperature Ambient) 테스트센터를 공개했다.

KT 클라우드 추진본부 인프라 담당 윤동식 상무는 “일반적으로 데이터센터 내부 온도를 1℃ 높일 때 냉방 에너지는 7%가 절감된다”며 “현재 1만 KVA 규모 천안 데이터센터 온도를 기존 22℃에서 30℃로 높일 경우, 연간 8억 5000만원의 전기 요금을 줄일 수 있다”고 밝혔다.이는 3800톤의 이산화탄소 배출량을 절감할 수 있는 효과와도 맞먹는다는 설명이다.

사용자 삽입 이미지
실제 천안 데이터센터 내에 구축한 HTA 테스트센터 규모는 크지 않았으나, 30℃ 이상의 온도로 장비들이 정상적으로 작동하고 있었다.

이는 인텔의 데이터센터 매니저 및 노드매니저 솔루션 등의 소프트웨어 적용과 전체적인 공기흐름(에어플로우)의 제어, 랙 단위의 전력 관리 및 모니터링을 통해 가능한 것이다. 또한 공기가 CPU나 메모리를 통과할 때 발열이 적게 될 수 있도록 별도로 마더보드를 설계한 서버 제품도 적용을 적용했다.

KT 측은 내년 천안클라우드데이터센터 단계별 적용을 시작으로 2014년 이후에는 KT의 모든 데이터센터에 HTA 개념을 적용한다는 방침이다. KT 전체 IDC로 HTA를 확대할 경우 연간 86억원의 비용절감 효과가 발생한다는 설명이다.

데이터센터 운영 온도도 30℃에서 향후 최대 45°C까지 높인다는 계획을 세웠다. 이렇게 되면 별도의 냉각장치 없이 100% 외부온도만으로 데이터센터를 운영할 수도 있게 된다.

인텔코리아 관계자는 “이렇게 되면 데이터센터 내에서 사우나도 할 수 있을 것”이라고 우스개 소리를 했다. 실제 인텔이 보여준 한 HTA 관련 동영상을 보면, 데이터센터 내에서 건장한 사내들이 타월 하나만 걸치고 사우나를 즐기는 모습을 표현하고 있어 웃음을 자아낸다.
2012/10/08 08:55 2012/10/08 08:55
사용자 삽입 이미지
오는 2014년 2월 3일 가동을 목표로 하고 있는 한국거래소(KRX)의 차세대 시스템(엑스추어플러스)이 관련 업계의 주목을 받고 있습니다. 특히 하드웨어 측면에서
는 증권업계 최초로 x86 플랫폼을 도입했다는 것이 특이한데요.

도대체 왜 KRX는 기존에 사용하던 유닉스에서 x86 플랫폼으로 차세대 시스템의 하드웨어 교체를 결정했을까요. 더군다나 유닉스 기반의 차세대시스템(엑스추어
)이 운영된 지 불과 3년밖에 안된 상황에서 말입니다.

다양한 이유와 관측이 있겠지만, 크게 3가지 정도로 교체 이유를 요약할 수 있겠습니다.

첫째는 개발자 및 기술 생태계, 둘째는 x86 서버 프로세서의 성능 향상, 셋째 유닉스->리눅스로의 전환 등이 바로 그 이유입니다. 즉 특정 이유가 아닌 IT 생태계의 환경 변화에 따른 결정이라는 것이죠.

현재 운영되고 있는 유닉스 기반의 KRX의 IT시스템(엑스추어)은 전세계 주요 국가의 매매체결시스템 중 최하위의 속도를 기록하고 있다고 합니다.

주문체결 속도에
따라 투자자들의 수익률이나 거래소에서 벌어들이는 수수료 수익은 엄청나게 큰 차이를 보이기 때문에, 거래소 측은 이번 차세대를 통해 초당처리속도와 지연속도를 향상시킨다는 방침입니다.

이번 차세대 시스템을 통해 거래소는 초당처리건수(TPS)는 2만 TPS이상, 호가 처리속도(지연속도)는 기존보다 285배 향상된 70마이크로초(μs) 이하를 목표로 하고 있는데요. 이 수치는 KRX가 처음 시스템 아키텍처를 구상했을 당시만 해도 세계 최고 수준이었다고 합니다. 그러나 다른 국가의 거래소에서 시스템 투자를 지속적으로 업그레이드함에 따라 현재는 그렇지 않다고 하네요.

그렇다면 앞서 언급한 세가지 이유를 하나하나 따져보도록 하겠습니다. x86 플랫폼을 기반으로 한 개발자 및 기술 생태계는 KRX를 비롯한 대부분의 국가들 역시 메인프레임이나 유닉스 시스템에서 x86 서버로 하드웨어를 교체하게끔 만들었는데요.

x86 서버의 경우, 무어의 법칙 등에 따라 매년 아키텍처와 코어 등에서 2배 이상 성능이 향상되는 등의 발전을 하고 있습니다. 또한 x86 서버는 기술 표준을 바탕으로 대부분의 서버 업체에서 출시하고 있는 범용 제품입니다. 이는 곧 규모의 경제라는 표현으로 바꿀 수도 있는데요.

이 때문에 x86 서버의 성능 향상을 뒷받침할 수 있는 에코시스템도 속도를 맞추고 있는 것이지요. 유닉스 서버의 경우, 업체마다 CPU와 아키텍처 등이 상이합니다. 주요 기술도 3~5년을 주기로 개발돼 다소 긴 편이지요.

예를 들어 통신 인터페이스를 살펴봤을 때 유닉스나 x86 서버 둘 다 똑같이 PCI익스프레스를 씁니다. 그러나 대역폭이 향상된 PCI익스프레스 카드 신제품이 나왔을 때 x86 서버는 이를 바로 채택할 수 있는 반면, 유닉스 서버는 좀 더 시간이 걸립니다. 유닉스 서버에서 이를 채택하려고 하면 CPU 등도 함께 바꿔야 적용이 가능합니다.

또 다른 예를 들어볼까요. 현재 1600메가바이트 DDR3 메모리가 나와 있지만, 유닉스 서버는 여전히 DDR2만 지원합니다. 유닉스 서버에서 이를 채택하려면 역시 CPU를 교체해야 합니다.

네트워크 역시 마찬가지입니다. 현재 유닉스 서버에서는 10기가비트이더넷(10GbE)까지만 지원하는 반면, 리눅스 기반의 x86 환경에서는 40GbE, 인피니밴드까지 지원됩니다. 또한 같은 10GbE라고 하더라도 커널 I/O등의 기술차이에 따라 x86 서버가 최대 8배 정도까지 전달 속도가 높다고 합니다.

한 서버업체 관계자는 “거래소에서 주문속도를 높이려면 CPU 연산속도와 메모리, 네트워크, 입출력(I/O) 카드 등 다양한 기술 요소가 결합돼야 한다”며 “그러나 x86 플랫폼의 경우 신제품이 나오면 바로 이를 적용할 수 있는 반면, 유닉스의 경우 그렇지 않다”고 설명합니다.

지난해 전세계 서버 출하량을 살펴보면 총 820만대의 서버가 공급됐습니다. 이중 유닉스 서버는 약 2~3%에 불과한 20만대가 팔렸습니다. 물론 매출을 기준으로 했을 때는 이보다 훨씬 높습니다.

그런데 규모의 경제를 생각했을 때 메모리나 네트워크 카드 제조업체에선 유닉스 서버를 지원하는 제품을 만드는 것이 수지타산이 맞지 않는 것이지요. 특히 유닉스 프로세서(칩)는 업체마다 서로 다른 아키텍처를 갖고 있어 더욱 그렇습니다.

개발자 생태계 역시 영향을 끼치는 요소입니다. 계속해서 줄어들고 있는 유닉스 개발자보다는 광범위한 상태계의 x86 개발자들을 통해 유연하게 원하는 신기술 구현을 더 빨리 할 수 있습니다. 최근  많은 기업들이 커널 뿌리가 유사한 유닉스에
서 리눅스로의 전환을 꾀하고 있는 상황만 봐도 그렇습니다.

즉, 거래소 측은 원하는 기술을 바로 적용할 수 있는 x86 플랫폼을 통해 구현할 수 있을 것으로 보고 있습니다. 세계적인 증권거래소들의 트렌드도 그렇구요.

비용을 따졌을 때, x86 서버가 유닉스 서버보다 결코 싸게 구성할 수 있는 것은 아닙니다. 물론 1대당 가격을 따지면 x86서버가 훨씬 싸겠지요. 그러나 안정성이 중요한 거래소의 시스템은 고가용성을 위해 x86 서버를 액티브-액티브 형태의 클러스터로 구성하고 있습니다.

이렇게 되면 실제
거래소가 구축하는 실제 하드웨어 인프라 비용은 기존의 10% 가량을 줄일 수 있는 것에 불과하다고 합니다.

아마도 KRX는 차세대 시스템을 오픈시킨 후에도 계속해서 신기술을 적용해 주문 체결 속도를 높이기 위한 노력을 기울일 것입니다.

이때에도 x86 플랫폼의 장점은 드러납니다. x86 플랫폼 환경에서는 인프라 레이어와 비즈니스 레이어가 분리돼 있기 때문에 보다 쉽게 하드웨어 신제품으로 교체도 가능합니다.(물론 거래소의 주문 체결 속도를 높이기 위해 단순히 하드웨어 인프라를 교체하는 것이 만능은 아닙니다. 주문 체결 속도에는 IT시스템 뿐만 아니라 각 국가마다의 법적규제(컴플라이언스) 등의 다양한 이슈 작용하고
있으니까요)

x86은 그동안 전 산업군에 꾸준히 기간 시스템으로 보급돼왔습니다. 하지만 금융권에서는 여전히 안정성을 이유로 메인프레임과 유닉스에 아직도 지지를 보내고 있습니다. 하지만 초당 처리와 안정성이 무엇보다 중요한 증권거래시스템에 x86이 도입되면 금융권의 IT시스템 투자 기조에도 변화가 올 것으로 보입니다.

구축사례를 중요시하는 금융권에 하나의 의미있는 사례가 나올 것으로 보이기 때문입니다. KRX의 x86도입이 업계에 던지는 화두는 그래서 중요해 보입니다.

2012/08/02 15:04 2012/08/02 15:04
사용자 삽입 이미지
최근 HP가 ARM 기반의 초저전력 서버를 출시한다는 소식이 들리면서, ARM 프로세서에 많은 관심이 쏠리고 있습니다.

스마트폰 등 모바일 기기나 가전, 자동차 등에만 적합하다고 생각됐던 ARM 프로세서가 적은 소비 전력과 크기 등의 장점을 활용해 기업용 서버 시장에도 충분히 적용할 수 있다는 가능성이 열렸기 때문입니다.

특히 ARM이 64비트를 지원하는 새로운 칩 아키텍처(ARM v8)을 공개하면서 이같은 가능성은 더 커지고 있습니다.

물론 당장은 아니지만, 이르면 내년부터는 ARM 프로세서가 장착된 서버를 데이터센터에서도 볼 수 있을 것으로 보입니다.

이미 HP는 칼세다라는 업체와 함께 ARM칩 기반의 서버 프로세서인 ‘에너지코어’를 장착한 제품을 내년 상반기 중으로 출시할 예정입니다.
 
이에 따라 현재 모바일 애플리케이션 프로세서(AP)에서 선두를 달리고 있는 삼성전자의
서버 시장에 진출할 것이라는 시나리오도 예상되고 있습니다.

업계에 따르면 삼성전자가 이미 ARM 기반 서버 제작을 위한 마더보드 업체들과 접촉하고 있다는 소문도 돌고 있습니다.

또한 삼성전자는 불과 몇 년 전까지 국내 x86 서버 시장에서 강자로 군림해 왔기 때문에, 인력이나 노하우 측면에서 충분히 가능성이 있다는 것입니다.

실제 삼성전자는 지난 2007년 2분기의 경우 x86 서버 판매량이 6000대에 육박하면서 업계 2위까지 올라갔었으나, 이후 경기 침체와 함께 찾아온 이후 성장세가 꺾였습니다. 그러나 삼성전자는 서버 사업을 접는다고 공식 발표한 적이 없는 만큼 얼마든지 재진출할 가능성도 높은 것으로 판단되어집니다.

그러나 만약 삼성전자가 서버 시장에 재진출하게 된다면, 일반적인 서버가 아닌 ‘마이크로서버(Microserver)’라 불리는 초저전력 제품이 될 것이라는 것이 관련 업계의 추측입니다.

마이크로 서버는 쉽게 말해 저전력 고밀도 서버 사용이 필요한 데이터센터를 위해 고안된 공유 인프라 시스템이라고 할 수 있다. 일반 서버 제품에 비해 성능은 떨어지지만, 이를 여러대 묶어 호스팅이나 웹 서버, 단순 콘텐츠 공급 등과 같이 높은 연산 작업이 필요한 분야에 적합한 것으로 알려져 있습니다.

에너지 효율 또한 일반 서버에 비해 낮기 때문에 최근 클라우드 컴퓨팅 구성을 위한 데이터센터 수요와도 맞아 떨어집니다. 저렴한 가격도 장점입니다.

세계 최대 반도체 기업인 인텔은 향후 4~5년 내 마이크로 서버 시장이 전체 서버 시장의 10% 이상을 차지할 것으로 예상하고 있습니다.

또한 최근에는 “현재 600대의 스마트폰 혹은 122대의 태블릿PC가 추가될 때마다 서버 1대가 더 필요하다”는 조사결과도 발표했지요.

즉, 디바이스가 과거에 비해 훨씬 강력하고 풍부해짐에 따라 백엔드 단의 서버 성능도 함께 늘어나고 있다는 설명입니다. 그러나 성능 뿐만 아니라, 데이터센터 전력비용을 고려해 저전력 프로세서의 중요도가 보다 커질 것이라고 강조하고 있습니다.

이러한 점에서 ARM 기반 서버에 대한 업계의 관심은 그 어느 때보다 높습니다.

삼성전자의 서버사업부는 현재 공식적으로는 복합솔루션 조직 내에 속해 있는 것으로 알려져 있는데, 상황만 맞아떨어진다면 관련 시장 진출이 불가능하지는 않을 것으로 보입니다.

또한 삼성전자가 현재 준비 중인 클라우드 서비스가 본격화될 경우, 무수히 많은 서버들이 필요할 것으로 예상되는데 이러한 점에서 봤을 때 더욱 기대되는 대목이기도 합니다.
2011/11/06 15:48 2011/11/06 15:48
사용자 삽입 이미지

2년이라는 시간은 정보기술(IT)의 혁신을 가늠하기에는 충분한 시간입니다.

기업의 IT혁신을 가늠할 수 있는 곳은 어디일까요. 바로 데이터센터입니다. 데이터의 저장고로 불리던 데이터센터는 이제 기업의 IT 업무를 최후방에서 지원하는 곳이자 혁신을 이끄는 장소가 됐습니다. 따라서 데이터센터가 마비되면 기업의 업무도 마비되기 마련입니다.

이러한 데이터센터에서 핵심 역할을 수행하는 것은 무엇일까요. 다양한 요소가 있지만, 그 중심에는 서버가 있습니다. 또한 이 서버에서 가장 핵심적인 역할을 하는 것은 바로 CPU(중앙처리장치)입니다.

인텔은 전세계 서버 프로세서 시장의 90% 이상을 장악하고 있는 칩 제조업체입니다. 서버의 핵심요소를 제공하는 업체인 만큼, 이를 어떻게 효율적으로 운영하고 있는지는 업계의 관심입니다.

저는 2년 전 말레이시아의 인텔 데이터센터에 간 적이 있습니다. 말레이시아의 데이터센터는 인텔 아시아태평양 지역의 허브 역할을 하고 있는 곳으로, 미국 데이터센터를 제외하면 인텔 데이터센터 중 가장 큰 규모를 자랑하고 있죠.

얼마전 저는 인텔 말레이시아 데이터센터를 또 한차례 방문할 기회가 생겼습니다. 거의 2년 만이었습니다. 그동안 어떻게 바뀌었을지 무척 궁금했었지요,

2년 만에 방문한 인텔 데이터센터는 외관상으로는 그다지 변한 것이 없어보였습니다. 3번씩이나 거치던 보안 관문도 그대로였고, 데이터센터를 안내해주던 매니저도 여전했습니다.

가장 크게 변한 것은 서버 대수였습니다. 2009년에 4000대였던 서버는 2년 만에 무려 800여대가 줄어든 3200대에 불과했습니다. 상식적으로 2년이라는 기간 동안에 기업 데이터와 지원해야 할 업무가 더 늘어나면 늘어났지 줄어들 일은 없습니다. 그런데 오히려 서버 대수가 줄어든 데에는 기술적 혁신이 있었습니다.

첫째는 서버 통합, 두 번째는 가상화 기술이었습니다.

인텔은 최근 엄청난 속도로 이전보다 성능이 향상된 서버 프로세서를 잇달아 출시하고 있습니다. 지난 1995년 인텔이 싱글코어 서버 프로세서인 펜티엄 프로를 선보인 이후, 현재까지 약 15년 간 서버 프로세서 시장은 급속도로 발전해 왔습니다.

이윽고 2005년 1개의 CPU에서 2개의 코어가 탑재된 듀얼코어 프로세서가 탑재된 이후, 쿼드코어(4코어), 헥사코어(6코어), 옥사코어(8개)까지 거침없이 출시됐다. 최근에는 1개의 CPU에 10코어까지 탑재가 가능한 E7 프로세서까지 출시되면서 업계의 놀라움을 자아내고 있습니다.

인텔 말레이시아 데이터센터도 새로운 서버 프로세서가 출시될 때마다 최신 제품으로 교체하는 작업을 꾸준히 해 왔습니다. 자세히는 밝히지 않았으나 아마도 현재 말레이시아데이터센터는 현재까지도 꾸준히 8코어나 10코어 프로세서를 탑재한 서버로 교체하고 있을 것으로 보입니다.

평균적으로 20대의 노후화된 서버를 최신 서버 1대로 교체하고 있는 것으로 알려지고 있습니다.

또 한가지 기술 혁신은 가상화 기술입니다. 2009년 방문 당시만 해도 인텔의 가상화 도입 비중은 10%대에 불과했습니다. 그랬던 것이 2년 사이에 50%까지 높아졌습니다.

즉, 인텔 서버 2대 중 1대는 가상화된 서버라는 설명입니다. 말레이시아 데이터센터의 경우 성능이 비교적 낮은 서버(저집적) 구역을 함께 운영하고 있기 때문에, 평균 서버 1대당 탑재된 가상머신(VM) 수가 많지는 않습니다. 현재 서버 1대당 약 10개의 VM을 운영하고 있지만, 향후 이를 40개 VM까지 늘린다는 계획을 갖고 있습니다.

어찌됐든 서버 대수가 줄어듬에 따라, 소프트웨어 라이선스 비용과 전력 비용 등을 줄일 수 있었다는 설명입니다.

특히 최근에는 모바일 기기의 확장에 따라 데이터센터는 더욱 그 중요도가 커지고 있는데요. 인텔의 조사에 따르면 스마트폰 600대가 판매될 때마다 이들 기기에 필요한 서비스를 제공하기 위해 서버 1대가 추가로 필요하며, 데이터 사용량이 더 높은 태블릿 PC의 경우 122대가 추가될 때마다 서버 1대가 필요하다고 합니다.

이 때문에 서버 프로세서 시장은 계속해서 늘어나고 있으며, 앞으로도 이 수치는 계속해서 늘어날 것으로 보입니다.

이밖에도 냉방 비용을 효율화시킴으로써 전력 비용을 절감하기 위한 노력도 계속 기울이고 있는데요. 인텔의 경우도 현재 데이터센터 연간 지출에서 가장 많은 비중을 차지하는 것이냉각과 전력 비용이라고 합니다. 이 비중은 전체의 80%를 차지하고 있기 때문에 인텔에게도 가장 큰 골칫거리입니다.

이를 위해 인텔이 사용하고 있는 냉각방식은 뜨거운 공기와 이를 식히기 위한 찬공기가 섞이지 않도록 해 냉방 효율을 높이는 ‘핫 아일 컨테인먼트(hot aisle containment)’ 시스템과 ‘굴뚝 타입의 캐비넷(Chimney Type Cabinet)’입니다.

자세한 설명은 아래 기사 참고
[인텔 클라우드 서밋 2011] “데이터센터 관리의 핵심은 냉각”

이는 인텔이 수년 간의 연구와 실험을 거쳐 자체적으로 고안해 낸 방식이라고 합니다. 이처럼 지난 2년 간 인텔이 보여준 데이터센터의 변화는 IT의 혁신을 실감할 수 있는 기회였습니다.

(기회가 있을지 모르겠지만) 또 2년 후 인텔 데이터센터를 방문하면, 어떤 모습으로 바뀌어 있을지 정말 기대됩니다.
2011/07/29 16:08 2011/07/29 16:08
사용자 삽입 이미지

한국오라클이 한국HP와 한국IBM을 향해 칼을 꺼내들었습니다. 그동안 인수합병 과정에서 빼앗긴 기존 서버 고객들을 되찾기 위해섭니다.

물론 이러한 메시지는 이전에도 지속적으로 흘러나왔지만, 오라클과 썬의 국내 지사의 경우 법적으로 통합되기까지는 본사보다 1년이나 더 걸렸고 이 과정에서 한국썬의 많은 국내 고객들이 HP나 IBM 서버로 전환해 버린 것이 사실입니다.

한국썬의 많
은 협력업체들 또한 이 기간 동안 경쟁사인 한국HP와 한국IBM으로 옮겼습니다. 심지어 총판 중 한 곳은 “한국썬이 우월적인 지위를 이용해 불공정거래 행위를 했다”며 공정거래위원회에 고발한 적도 있습니다.

어찌됐든 하드웨어와 소프트웨어를 통합한 형태의 DB머신 엑사데이터나 엑사로직 등과 같은 새로운 형태의 제품을 출시했으나, 국내에서는 괜히 썬 서버를 샀다가 유지보수율이 높은 오라클 제품과 엮여서 부담해야 할 비용이 더 많아지진 않을까 고민하는 고객들의 모습도 자주 목격됐었습니다.

오죽하면 기존 오라클 고객사들은 “오라클과 계약을 맺는 동시에 갑이 아닌 을로 전락한다”는 말까지 나왔을까요.

이 때문인지 시장조사기관 IDC의 국내 서버시장 보고서에 따르면, 지난해 4분기(10월~12월) 오라클(썬)의 x86 서버 시장점유율(대수 기준)은 1%를 넘지 못했고 유닉스 서버 시장(매출 기준) 역시 지속적으로 감소하며 6%대에 머물렀습니다. 과거 20%대의 시장 점유율을 지켜왔던 것에 비하면 엄청난 손실입니다.

그러나 한국오라클에서 하드웨어(시스템) 사업부를 총괄하는 천부영 부사장이 드디어 지난 2년 6개월 간 굳게 닫아왔던 입을 열었습니다. 인수합병이 완료되지 않은 지난해까지 어떠한 메시지도 공식적으로 전달할 수 없었지만 지난 1월 3일자로 통합이 완료됐기 때문입니다.

천부영 부사장은 지난 2008년 12월 (우연찮게도) 한국오라클로 자리를 옮긴 유원식 대표의 뒤를 이어 한국썬의 수장을 맡았지만, 반년도 되지 않은 시점인 2009년 4월 오라클로의 인수합병이 결정되면서 이후 침묵을 지킬 수 밖에 없었습니다.

실제 천 부사장은 17일 개최됐던 기자간담회에서 “정말 하고 싶은 말이 많았다”며 운을 띄웠습니다. 그러면서 “인수합병 과정에서 대부분 아시아 국가에서 썬을 총괄하던 임원들이 사임했지만 나는 남기로 결정했다”고 말했습니다.

그는 “IT업계에서 영예롭게 퇴진하
는 것이 오랜 꿈이었고, 오라클의 비즈니스 실행 능력을 보고는 은퇴를 화려하게 할 수 있을 것으로 생각됐다”고 했습니다.

합병 이후, 시너지도 커서 2011년 1분기(1월~3월) 국내 서버 시장 결과치를 보면 깜짝 놀랄 것이라는 언급도 했습니다. 성장세가 워낙 높아서 앞자리 수가 바뀌었다고 하더군요.

천 부사장의 표현에 따르면 “그동안 황야에서 울부짖던 시기를 지나 고진감래(苦盡甘來)의 시간이 온 것 같다”고 했습니다.

기대되는 대목입
니다. 과연 한국오라클은 과거 태양(썬)의 명성을 찾아 한국HP, 한국IBM 등과 함께 서버 시장에서의 삼국지 시대를 열 수 있을까요.

그러나 과거와는 다르게 현재의 하드웨어
사업은 위기감이 감돌고 있습니다. 과거와 같이 단순히 서버만을 팔아서는 수익이 남지 않기 때문입니다. 이 때문에 많은 업체들이 강조하고 있는 것이 바로 ‘통합’이라는 단어입니다. 여기에는 클라우드 컴퓨팅 이슈도 한몫하고 있습니다.

현재 오라클이 강조하고 있는 것도 바로 이것입니다. 애플과 같이 하드웨어와 소프트웨어가 완벽한 조합을 이루는 각 업무에 최적화된 엔터프라이즈 머신.

물론 오라클도 이러한 최적화된 통합 제품 이외에도 CPU 등 프로세서의 성능을 높인 전통적인 하드웨어 사업도 강화시키겠다고 했지만 궁극적으로는 엑사데이터나 엑사로직과 같은 제품을 통한 보다 포괄적인 혁신이라는 주제를 얘기하고 있습니다.

엑사데이터의 경우, 제품 도입 이후 만족도도 높아 추가로 주문하는 곳도 많다고 합니다. 그렇다고 가만히 앉아서 당하고 있을 HP와 IBM이 아니겠지요.

HP는 서버와 스토리지, 네트워크와 관리 소프트웨어를 합친 컨버지드 인프라스트럭처(CI)를 강조하고 있고, IBM은 그동안의 아웃소싱 및 서비스 개념을 통한 가치를 얘기하고 있습니다.

분명 과거와 같이 어느 업체가 단순히 서버를 분기 동안 몇 대나 팔았느니 하는 식의 논쟁 자체는 점차 사라질 것으로 보입니다.

5년 후 이들의 사업 방향은 또 어떻게 달라져 있을지 문득 궁금해집니다.
2011/05/18 17:10 2011/05/18 17:10
사용자 삽입 이미지
▲페이스북 데이터센터의 내부 모습

이처럼 페이스북은 계속되는 이용자들의 급증과 엄청난 트래픽으로 인프라 지원에 힘을 쏟고 있는 상황인데, 2010년 말 기준으로 페이스북은 매달 6900억 이상의 페이지뷰가 발생하고 있으며 이는 전세계 인터넷 트래픽의 9.5% 가량을 차지하고 있다고 합니다.

특히 매일 1억장 이상의 새로운 사진이 사용자들에 의해 추가되면서, 엄청난 숫자의 스토리지(데이터 저장소)가 요구되고 있는 상황입니다.

통계에 따르면, 매달 페이스북을 통해 약 300억 장 이상 사진이 공유되고 있으며, 100만개 이상의 웹사이트, 55만개의 애플리케이션이 페이스북 커넥트 플랫폼을 사용하고 있다고 하지요.

‘페이스북’ 데이터센터는 어떤 모습일까<상> 편에서도 언급했듯이 이 같은 서비스 지원을 위해 페이스북은 현재 미국 내 산타클라라라와 산호세 실리콘밸리 내 최소 6개 데이터센터와 샌프란시스코 1개 데이터센터, 버지니아주 애쉬번의 약 3개 데이터센터를 임대하고 있다고 합니다.

또한 페이스북이 첫 번째로 건립 중인 오리건주의 자체 데이터센터 역시 최근 거의 완공돼  현재 일부는 운영이 시작된 것으로 알려지고 있는데요. 만약 페이스북의 성장세가 앞으로도 계속 현재와 같은 수준으로 이어진다면, 구글과 마이크로소프트, 야후, 이베이와 같은 대규모 데이터센터 구축이 불가피할 것으로 보입니다.

그렇다면 페이스북이 현재 운영 중인 데이터센터의 크기는 얼마나 될까요.
사용자 삽입 이미지
▲페이스북 데이터센터의 내부 모습. 얼마나 넓은지 직원이 자전거를 타고 이동하고 있습니다.

현재 페이스북이 임대하고 있는 데이터센터들의 평균 면적을 살펴보면 약 1만~3만 5000평방미터(3000평~1만 500평) 혹은 2.25~6메가와트 정도인 것으로 알려집니다.(데이터센터들의 전력 사용량이 급증하면서, 최근 데이터센터 건물주들은 면적 대신 전력 사용량을 바탕으로 임대료를 측정하고 있다고 합니다.)

페이스북이 구축 중인 오리건주 프린빌의 데이터센터의 경우, 건립 당시만 해도 전체 그키가 약 14만
7000평방미터(약 4만 5000평) 규모가 될 것으로 알려졌으나, 계속되는 성장세에 따라 당초 계획을 수정해, 이보다 2배 이상 늘린 16만 평방미터(약 5만평)를 추가했다고 합니다.

이에 따라 프린빌 데이터센터의 전체 면적은 약 30만 7000평방미터(9만 5000평)로 최종 확정됐으며, 이는 월마트 매장 2개를 합친 것보다 큰 크기라고 하네요.

사용자 삽입 이미지
▲미국 오리건주 프린빌 데이터센터 착공 행사

페이스북
조나단 헤일링거 기술운영 부사장은 “사진이나 비디오 추가 기능 없이 소수의 사람들만이 처음 페이스북을 시작했을 때만 해도 전체 서비스가 단 한대의 서버에서 가능했었지요”라고 회상합니다.

페이스북 기술팀에 따르면 2010년 6월 현재 페이스북은 약 6만 대의 서버를 운영하고 있다고 하는데요. 이는 지난 2008년 4월 1만대, 2009년 3만대로 늘어나며 매년 2~3배 증가한 수치입니다.

물론 이 6만대에는 현재 건립 중인 오리건 프린빌의 데이터센터 내에서 운영되는 서버는 포함돼 있지 않습니다. 프린빌과 노스캐롤라이나 중에 건립 중인 데이터센터에서 운영될 서버까지 합친다면 이보다 훨씬 늘어나겠지요.

참고로 현재 최대 인터넷 서비스 업체인 구글
의 경우 운영하는 서버가 45만대, 마이크로소프트(MS)가 30만대, HD/EDS가 38만대, 인텔이 10만대 등으로 알려져 있습니다.(물론 이 글을 쓰고 있는 현재에도 이들 업체의 서버는 계속 증설되고 있을 것이기 때문에 정확하다고 볼 수는 없습니다.)

그렇다면 페이스북은 어떤 브랜드의 서버를 사용할까요?

페이스북은 공식적으로 어떤 브랜드의 서버를 운용하고 있는지에 대해서는 공개적으로 밝힌 바 없지만, 알려진 바에 따르면 지난 2007년 래커블(현재의 SGI)사의 서버를 대량으로 구입했으며, 델 서버도 상당수 보유하고 있는 것으로 알려집니다. 

페이스북의 헤일링거 기
술운영 부사장은 종종 HP와 IBM과 같은 주요 서버 업체들에 대해 비판해왔는데, 그 이유는 이들 업체의 서버를 페이스북과 같은 거대한 인프라에 적용하기가 쉽지 않다는 것이었습니다.

즉, 페이스북과 같은 서비스를 지원하는 인프라는 복잡한 엔터프라이즈 컴퓨팅을 위한 기능들 대신 특정 워
크로드에 최적화된 베어본(bare bone) 서버가 경제학적으로 훨씬 낫다는 것입니다.

사용자 삽입 이미지
▲페이스북 데이터센터 내의 서버

이는 현재의 클라우드 컴퓨팅에서 적용되는 인프라와 일맥상통합니다.

수많은 사람들이 엄청난 양의 데이터를 저렴한 비용으로 공유하고 사용할 수 있게 하기 위해선 싼 가격의 범용 하드웨어 인프라에 오픈소스 소프트웨어를 활용해 비용을 줄이고, 대신 필요한 컴퓨팅 자원을 보다 쉽게 즉각적으로 늘릴 수 있는 것이 중요하기 때문입니다.

이같은 이유 때문에 헤일링거 부사장은 지난해 초에 있었던 한 기술 컨퍼런스에 참여해 티엘라(Tilera)와 시마이크로(SeaMicro) 등을 ‘주목해야 할 업체’라고 지목하기도 했다
고 합니다. 이들 제품의 멀티코어 프로세서가 전력은 적게 먹는 대신, 컴퓨팅 파워가 우수하기 때문이라네요.

페이스북은 최근 모바일칩의 절
대 강자인 ARM사의 저젼력의 프로세서를 사용하기 시작한 것으로도 알려졌는데, 이에 대해선 사실이 아니라고 공식적으로 밝힌 바 있습니다.

한편 앞에서도 언급했듯이, 페이스북은
오픈소스 소프트웨어를 사용해 다양한 서비스를 개발한 것으로 유명한데요.

페이스북은 PHP 프로그래밍 언어를 통해 개발됐고, MySQL 데이터베이스를 사용하고 있는데, 페이스북 엔지니어링팀은 ‘힙합(HipHop)’이라 불리는 프로그램을 개발했다고 합니다. 이는 PHP 소스코드를 C++로 전환해 성능을 높인 것이라고 하네요.

페이스북은 현재 MySQL 데이터베이스 클러스터를 사용하는 가장 큰 회사 중 하나로, 오픈소스 캐싱 시
템인 멤캐쉬드(memcashed)의 가장 큰 사용 그룹이기도 합니다. 멤캐쉬드는  고성능의 분산 메모리 캐싱 시스템인데, 사용량이 많은 동적 웹 어플리케이션에서 DB의 부하를 줄이기 위해서 사용됩니다.

지난 2009년 마크 주커버그가 직접 언급했듯이, 멤캐쉬드는 페이스북 서비스에서 웹 애플리케이션의 확장을 향상시켜주는 중요한 수단으로 사용되고 있습니다.

또한 페이스북은 다수의 플랫폼에서 운영되는 인프라를 묶을 수 있도록 RPC(remote procedure calls)를 사용해 프레임워크를 만들었으며, 이밖에도 아파치 하둡(Apache Hadoop)과 아파치 카산드라(Cassandra), 아파치 하이브(Hive), 플래쉬캐쉬(FlashCache), 스크라이브(Scribe), 토네이도(Tornado), Cfengine, Varnish 등의 오픈소스 소프트웨어가 대거 사용됐습니다.

그렇다면 페이스북은 데이터센터
운영에 얼마만큼의 돈을 쓸까요?

패이스북은 2010년 9월 현재 데이터센터 면적을 임대하는 데에만 연평균 5000만 달러(한화로 약 560억원)를 지불한다고 합니다.

이는 2009년 5월 기준 약 2000만 달러 임대 비용에 비해 2배 이상 증가한 수치입니다.

아마도 서버와 스토리지
등 하드웨어 투자 비용까지 포함한다면 어마어마한 수치이지요. 현재 페이스북은 ‘디지털 리얼리티 트러스’와 ‘듀퐁 패브로즈 테크놀로지’, ‘포춘 데이터센터’, ‘코어사이트 리얼리티’ 등 4개 데이터센터 업체에게 데이터센터 상면을 임대하고 있는 것으로 알려집니다

그렇다고 하더라도 여전
히 페이스북이 데이터센터 운영에 사용하는 비용은 다른 업체의 인프라 투자 비용에 비해선 적은 수치입니다. 구글은 2008년 기준 데이터센터 인프라에 23억 달러를 투자했으며, MS는 현재 보유 중인 개별적인 데이터센터에 5억 달러를 투자하고 있습니다.

그렇다면 페이스북 데이터센터를 운영하는 데에는 몇 명의 사람들이 필요할까요.

페이수북의 데이터센터 시설은 고도로 자동화시켜서 대략 한 사이트에 약 20~50명 정도로도 충분하다고 합니다. 이를 환산하면 보통 한명의 엔지니어가 약 100만명의 사용자가 사용할 인프라(서버)를 담당하는 수준입니다. 현재에는 1명당 120만명 수준까지 높였다고 하네요.

프린빌 데이터센터의 경우는 약 12개
월의 건설 기간 동안 200명 이상의 인력을 투입시켰는데, 향후 이를 운영할 인력으로 약 35명의 풀타임 직원 및 수십명의 파트타임 및 계약직 직원을 고용할 예정이라고 합니다.

또한 놀라운 점 중 하나는 페이스북의 첫 번째 데이터센터이기도 한 프린빌의 데이터센터는 에너지 효율의 척도를 알려주는 PUE 수치가 1.15에 달한다는 점입니다


PUE는 데이터센터가 사용하는 총
전력을 IT장비가 사용하는 전력으로 나눈 값입니다. 이는 데이터센터 효율성을 나타내는 업계의 표준 지표라고 할 수 있습니다.

일반적인 데이터센터는 PUE 값이 2정도로 산출이 되는데, 이는 곧 서버 자체에 필요한 전략이 1Kw일때, 해당 데이터센터에는 2Kw의 전력이 공급돼야 한다는 것을 뜻합니다.

나머지 1Kw의 전략은 IT장비에
서 발생하는 열을 식히기 위한 냉각 등에 주로 사용이 되기 때문에, PUE 수치는 낮을수록 더 효율적입니다.

PUE가 1.15라면 엄청나게 에너지 효율이 좋은 것입니다. 프린빌 데이터센터는 에너지 효율을 위해 냉수를 통한 증발식 냉각 방식을 도입할 예정인 것으로 알려져 있습니다.
 
사용자 삽입 이미지
▲페이스북이 도입할 새로운 방식의 UPS 공급 체계

또한 이 데이터센터는 현재 특허 출원 중인 새로운 방식의 UPS(무정전전원공급장치)를 도입할 것으로 전해지는데요.

이는 기존 UPS 장비보다 약 12% 가량 절감이 가능하다
고 합니다. 이는 구글의 전력 공급 방식을 따라한 것으로, 각 서버에 12볼트의 배터리를 추가시켜 공급하는 방식이라고 합니다.

이밖에도 서버에서 발생하는 열을 재활용
해 사무실 난방으로도 이용할 예정이라고 합니다.

사용자 삽입 이미지
▲그린피스는 페이스북이 데이터센터를 친환경적으로 건립해야 한다고 주장하고 있습니다

한편 환경단체인 그린피스는 최근 페이스북 데이터센터에 대해 비판적인 입장을 취해 주목받기도 했는데요.

이는 페이스북이 건립 중인 오리건주의 데이터센터에 필요한 전력의 절반 이상이 화석 연료를 사용하는 재생 불가능한 에너지이기 때문에, 친환경적이지 않다는 이유에서
였습니다.

페이스북 측은 이에 대
해 “이번 데이터센터는 건립 당시부터 미국 그린빌딩 표준인 (LEED)에 맞춰서 짓고 있으며, 석탄 뿐만 아니라 천연가스와 풍력 등 다양한 연료를 이용하는 하이브리드형 데이터센터”라고 강조하고 있습니다.

끝으로 ‘페이스북 이펙트’라는 책을 보면,
“페이스북은 인텔과 닮아있다”라는 글이 나옵니다. 즉, 페이스북이야말로 궁극적으로는 소비자들이 항상 사용하고 있지만, 거의 인식하지 못하는 PC 안의 인텔 반도체 칩과 같은 역할을 인터넷 세계에서 담당하게 될 것이라는 것입니다.

이미 우리 생활에 깊숙이 들어와있는 페이스북이 앞으로 또 우리 생활에 어떠한 영향을 미치게 될지 궁금해집니다. <끝>


2011/01/20 17:53 2011/01/20 17:53
사용자 삽입 이미지
2004년 2월, 하버드대 학생이던 마크 주커버그가 자신의 기숙사에서 한대의 서버를 놓고 시작했던 ‘페이스북’이 전세계를 들썩이게 하고 있습니다.

초창기 ‘더 페이스북’이라는 이름으로 시작한 것으로 알려진 이 소셜네트워크서비스(SNS)는 지난해엔 구글을 누르고 방문객이 가장 많았던 웹사이
트로 등극했습니다. 페이스북은 이제 인류의 일상생활을 지배하는 막강 미디어로 떠오르고 있는 것이지요.

현재 페이스북은 전세계 약 6억 명에 육박하는 이용자가 사용하고 있는데, 이 수억 명의 사람들이 자신들의 ‘페북’ 친구들과 담벼락을 통해 이야기를 나누고, 사진을 공유하기 위해서는 바로 서버와 네트워크 등 인프라스트럭처의 지원이 절대적이라고 할 수 있습니다.

포춘지의 테크놀로지 전문기자였던 데이비드 커크패트릭이 쓴 ‘페이스북 이펙트(facebook effect)’라는 책을 보면, 주커버그가 페이스북을 운영하는 과정에서 가장 신경썼던 점 중 하나가 바로 원활한 서비스를 위한 인프라 운영이었던 것으로 알려져 있는데요.

(참고로 ‘페이스북 이펙트’는 커트패트릭 기자가 마크 주커버그는 물론 페이스북 대내외 주요 인물들과 나눈 실제 인터뷰와 증언들을 바탕으로 한 페이스북의
비하인드 스토리를 담고 있습니다.)

아무리 좋은 서비스라고 하더라도, 이러한 인프라 지원이 원활하지 않아 서비스가 느려지고 장애가 잦아지면서 수많은 사용자들을 잃게 되는 경우가 많지요.  

실제로 페이스북 이전에 미국에서 생겨났던 SNS들 중에는 인프라 지원이 원활치 않아 결국 서비스가 흐지부지된 경우가 많은 것으로 알려집니다.

일반인들에게 잘 와 닿지는 않겠지만, 이 수억 명에 달하는 어마어마한 사람들이 자신의 페북 친구들과 담벼락을 통해 이야기를 나누고 사진을 공유할 수 있는 것은 바로 이러한 대량의 트래픽과 용량을 지원하는 데이터센터로 인해 가
능한 것입니다.

사용자 삽입 이미지
▲페이스북 데이터센터 내부

그렇다면 데이터센터는 무엇일까요. (위 사진처럼) 서버와 네트워크, 스토리지 등 서비스 운영에 필요한 IT 장비들을 한곳에 모아놓은 장소라고 할 수 있겠습니다.

공장 같이 큰 공간에 페이스북과 같은 인터넷 서비스를 원활하게 하기 위해서 시꺼멓게 생긴 길쭉한 장비들이 쭉 늘어뜨려져 있고, 이것들을 연결해
놓은 수많은 케이블들이 가득 차 있는 모습을 생각하시면 될 것 같습니다.

페이스북이 운영하는 미국 내 약 10여개 데이터센터에 있는 수만 대의 웹서버와 스토리지들은 광채널 케이블을 통해 전세계 사용자들을 연결시켜주고 있는 셈이지요.

여러분들이 페이스북을 통해 친구들과 정보를 공유할 때마다 이
데이터센터 내 서버들은 이러한 데이터를 받아서 이를 다시 ‘페친’들에게 뿌려주는 역할을 하고 있는 것입니다.

그렇다면 대체 6억명의 사람들이 이용하고 있는 페이스북의 데이터센터는 어떤 모습인지 상세히 들여다보도록 하겠습니다.

알려진 바에
따르면, 페이스북을 이용하는 사용자의 70% 이상이 미국 외 지역에 있음에도 불구하고, 페이스북의 데이터센터는 모두 미국 내에 존재하고 있습니다.

아마도 서비스를 계속해서 확장되게 되면, 이러한 데이터센터들이 해외에 생길 가능성도 있습니다만 현재까지는 미국에서만 운영하고 있
는 것으로 알려져 있습니다.

현재 페이스북은 적어도 미국 내 약 9~10개의 데이터센터를 임대해서 사용하고 있으며, 지난해부터는 오레건주 프린빌과 노스캐롤라이나주 포레스터시티에 직접 데이터센터를 짓고 있는 것으로 전해집니다.

사용자 삽입 이미지
▲오레건주 프린스빌에 위치한 페이스북 데이터센터

건립 중인 데이터센터들은 전력 및 냉각에 최적화돼 있다고 하는데요.

실제 데이터센터에서 소비되는 전력의 절반 이상이 IT 기기에 사용되는 것보다는 이러한 기기들에서 발생하는 열을 냉각시키는데 사용되고 있기 때문에, 현재 대부분의 데이터센터들은 냉각에 가장 많은 신경을 쓰고 있는 상황입니다.

페이스북은 2010년 6월 기준으로 약 6만 대 정도의 서버를 운영하고 있는데(물론 현재에도 계속해서 추가되고 있겠지요), 리눅스 기반의 x86 서버와 같은 저렴한 범용 하드웨어에 오픈소스 소프트웨어를 올려서 인프라를 구성하고 있다고 합니다.

이는 구글이나
야후 등 다른 인터넷 서비스 기업들의 인프라와 마찬가지로, 트래픽이 늘어날 때마다 저렴한 비용으로 쉽게 확장 가능한 구조로 돼 있는데요.

사용자 삽입 이미지
▲페이스북의 서버 증가 추이

범용 하드웨어와 오픈소스 소프트웨어의 구조는 현재 클라우드 컴퓨팅 환경에 가장 적절한 인프라 구성 조합으로 각광받고 있기도 합니다. 이는 엄청난 양의 데이터를 효율적으로 관리하고 저장하기 위한 방안으로 클라우드 컴퓨팅이 뜨고 있다는 점과 일맥상통합니다.

어찌됐든 페이스북의 경우, 단기간에 엄청난 속도로 사용자들이 늘어났기 때문에 적절한 시기에 서버를 늘려나가는 것이 매우 중요했는데, 페이스북에서 최고기술책임자(CTO)를 지냈던 아담 디안젤로는 ‘페이스북 이펙트’라는 책을 통해 이렇게 말하고 있습니다.

(참고로 아담 디안젤로는 마크 주커버그와 고등학교 3학년 시절 시냅스라는 음악 공유 소프트웨어를 함께 만든 사람으로, 페이스북을 퇴사한 이후에도 주커버그와 여전히 막역한 사이라고 하네요.)

“데
이터베이스에 과부하게 걸려 고치고 나면, 이메일 송신에 문제가 생겼지요. 이를 해결할 때쯤에는 사이트가 한계에 다다랐다는 느낌이 들고 결국 다음 주에 문제가 터지고 사이트 용량을 늘려가야 했어요. 산타클라라에 있는 데이터센터에 자주 가서 서버를 늘렸는데, 2005년 연말까지 페이스북이 서버와 네트워크 기기에 투자한 금액은 440만 달러(한화로 약 50억원)에 달합니다. 이윽고 페이스복이 사진공유서비스 시작하게 되면서, 페이스북은  향후 6개월 동안 사용하리라 계획했던 저장소(스토리지)를 6주 만에 소진하기에 이르렀습니다. 당시 데이터센터 소프트웨어 전문가인 제프 로스차일드의 경우, 용량 초과로 서버가 마비되는 등의 비상사태가 생기지 않도록 밤을 새면서 일하는 경우가 다반사였지요. 회사 전 직원이 데이터센터 상황을 파악하고 새 서버를 설치하는데 동원되기도 했었습니다.”

<계속>


2011/01/18 15:13 2011/01/18 15:13
사용자 삽입 이미지
지난해 3월 차세대 데이터센터 공략을 위해 시스코가 전략적으로 출시한 ‘유니파이드 컴퓨팅 시스템(UCS)’은 연일 엔터프라이즈 컴퓨팅 업계의 화제였습니다.

컴퓨팅과 스토리지, 네트워크 단일 접속 장치에 가상화 솔루션을 결합하고, 관리 플랫폼까지 통합한 이 제품은 기존 서버의 역할을 대신해 서버업체들과 대결구도를 펼칠 것으로 예상됐지만, 아직까지 업계에 미치는 효과는 미비합니다.

서버업체들 역시 속마음은 어떨지 모르겠으나 여전히 무덤덤한 반응을 보이고 있습니다.

사실 국내의 경우, UCS를 판매할 수 있는 기반이나 유통망 등이 제대로 갖춰지지 않았었습니다.

UCS가 발표된 것이 지난해 3월이었음에도 불구하고 제가 처음 본 것이 같은해 11월 정도인 것으로 기억합니다. 그때 들어온 UCS가 국내에는 최초로 들어온 것이라고 들은 것 같습니다.

어찌됐든 시스코는 최근 LG엔시스와 영우디지털 등 굵직한 유통업체를 자사의 B-시리즈 블레이드 서버의 총판으로 지명하며 본격적인 국내 시장 공략 채비에 나선 것으로 보입니다.

LG엔시스는 HP와 IBM, 썬마이크로시스템즈 등 다양한 서버제품을 유통하는 업체이고 영우디지털 역시 마찬가지입니다.

특히 영우디지털의 경우, 한국HP의 오랜 파트너인만큼 민감한 측면이 적지 않을 것 같습니다.(물론 담당하는 사업부가 따로 있습니다만)

게다가 시스코는 지난 달엔 성능이 대폭 향상된 인텔의 신형칩을 탑재한 2세대 UCS를 내놓으며 운영 및 비용 효율성 측면을 강조하고 있습니다.

시스코만의 메모리 확장 기술이나 버추얼 이더넷 모듈 등은 오로지 UCS에서만 만나볼 수 있는 기술이라고 합니다.

문제는 고객 확보입니다.

이미 전세계적으로는 400개 이상의 UCS 고객을 확보했다는 하지만, 한국에선 UCS를 돈 주고 샀다는 고객을 찾아볼 수 없습니다.

한 서버업체 관계자들은 “레퍼런스(구축사례)를 중요시 여기는 국내 고객들 중에서 누가 마루타가 되기를 자청하겠느냐”며 냉소적인 태도를 일관하고 있지요.

하지만 조만간 국내 첫 대형고객이 나타날지도 모르겠습니다. 대형 제조업체라는 얘기도 힜고, P사라는 구체적인 이니셜도 나돌더군요.

시스코코리아 관계자는 “블레이드 타입의 UCS가 이미 몇몇 고객사들에 구축했지만 이는 발표할만한 수준은 아니었고, 조만간 크게 발표할 만한 내용이 생길 것”이라고 자신했습니다.

UCS를 도입하는 고객들이 하나둘씩 나타나면 서버 시장 상황은 또 어떻게 변할지는 모르겠습니다.

그렇다고 할지라도 시스코의 UCS는 여전히 마이너의 지위에 있습니다.
UCS를 바라보는 시장의 눈빛 역시 처음보다는 많이 부드러워진 느낌이지만, 조금 더 시간이 지나봐야 알 수 있겠지요.

또 EMC와 넷앱 등 스토리지 업체들과의 협력 및 UCS의 가격정책 등도 많은 영향을 미치리라고 생각됩니다.
2010/04/11 16:28 2010/04/11 16:28

지난 몇년 간 국내 유닉스 서버업계는 정말 정말 재미가 없어졌습니다.

뭐 워낙 뒷단에 있는 엔터프라이즈 영역이기 때문에 사람들의 이목을 그다지 끌지도 못할 뿐더러, 경쟁 구도가 무지하게 단순화됐기 때문입니다.

국내에선 한국HP 아니면 한국IBM이죠. 한때 한국썬마이크로시스템즈와 함께 3파전을 벌였으나 최근 오라클에 인수되며 이마저도 옛 이야기가 되어 버렸습니다.

그나마 오라클이 최근 썬의 유닉스칩인 ‘스팍(SPARC)’에 대한 애정(?)을 보이면서 살짝 기대를 가져보긴 합니다만.

대형 유닉스 서버 시장을 양분하고 있는 IBM, HP와 정면승부를 벌이겠다는 오라클의 선전포고를 시작으로, 이 세 업체의 경쟁구도가 재미있어질지는 조금 두고봐야 할 것 같습니다.

표면적으로 나타나는 세 업체의 경쟁구도를 살펴보면, 현재까지는 오라클, HP vs IBM 이라는 생각이 듭니다.

엑사데이타2를 출시하면서 소원해진 것은 사실이지만 여전히 오라클-HP유닉스 조합의 고객사가 다수를 차지하고 있기 때문에 하루 아침에 결별은 조금 무리지요.

오라클은 사실상 오랜 친구였던 HP보다 여러 분야에서 경쟁 관계를 형성하고 있는 IBM에 총을 겨누고 있습니다.

현재의 IBM 모습은 썬과 HP 고객, “니들 남자는 내가 모두 빼았겠다”는 나쁜 여자의 모습과 흡사합니다.
 
IBM은 최근 “2009년 한해 동안에는 550곳의 썬 고객과 250곳의 HP 고객 등 800곳 이상의 고객사가 자사 시스템으로 전환했다”는 내용의 보도자료까지 배포했었지요.

이같은 IBM의 모습이 HP와 오라클의 입장에선 얄미울 수 밖에 없을 것 같습니다.

이같은 모습은 최근 게재된 광고들을 살펴보면 잘 알 수 있습니다.

먼저 지난해 ‘2009 오라클 오픈월드’때 게재됐던 광고를 보시죠.


아예 대놓고 IBM의 가장 빠른 서버보다 오라클+썬이 두 배 이상 빠르지 않으면 1000만 달러를 주겠다고 조롱했었죠. 앞으로도 어떤 광고가 계속해서 나올지 기대됩니다.

최근 IBM도 차세대 ‘파워7’ 프로세서를 출시하면서 다음과 같이 두가지 광고를 내놓았습니다. (물론 제가 보지 못한 광고 시안들은 훨씬 많겠지만)

우선 HP에 대해서는 “덩치만 크고 전력은 더 많이 잡아먹는다”고 공격하고 있습니다.

크기가 크면 성능은 더 좋아야 하는 것이 당연지사건만, 이같은 내용이 HP의 유닉스 서버에는 적용되지 않는다고 놀리는 듯 합니다.

크기는 10~20배 정도 크지만 성능은 28% 더 좋고, 에너지 사용은 83%나 더 많다는 내용이네요.

실제 사이즈까지 게시하면서 ‘슈퍼돔(Superdome) vs 슈퍼 파워(Superpower)’라고 비아냥거립니다.

64코어의 인테그리티 슈퍼돔(HP의 유닉스 서버 브랜드)보다는 자사의 32코어 기반 파워 750 익스프레스(파워는 IBM의 유닉스 프로세서 이름)를 어서 비교해보라며 다그치는 듯 합니다.

썬을 겨냥한 광고를 보면 정말 무릎을 탁 치게 만듭니다.

태양(썬)을 가리고 있는 행성(플래닛)이니까요. 뭐 거의 개기일식 분위긴데요?

태양이 달이건, 지구건 언제쯤 제치고 나올지 기대됩니다.

2010/02/19 13:28 2010/02/19 13:28