사용자 삽입 이미지
해외 온라인 스토리지 서비스인 ‘메가업로드(Megaupload)’가 저작권 위반을 이유로 지난 19일 강제 폐쇄됐습니다.
 
창업자들 7명은 저작권 침해 혐의로 체포되기도 했습니다. 새로운 저작권 보호 법안인 SOPA와 PIPA에 인터넷 기업들이 대대적으로 반대 운동을 펼친 다음 날 벌어진 일입니다.

메가업로드는 클라우드 기반의 파일 공유 서비스입니다. 지난 2005년 설립돼 무료로 2GB까지 파일을 올릴 수 있고, 유료회원으로 가입하면 무제한의 저장공간을 제공받습니다.

 메가업로드는 콘텐츠 수급을 위해 콘텐츠 공급자에게 현금으로 바꿀 수 있는 포인트를 제공했는데, 이것이 불법 콘텐츠를 유도했다고 미국 경찰은 보고 있습니다.

이 사건은 미국 유사 업계에 적지 않은 충격을 주고 있습니다. 이와 유사한 파일공유 서비스들이 바짝 겁을 먹었습니다.
 
이들은 미국의 법망을 피하기 위해 미국 사용자의 사용을 금지하거나 파일공유 기능을 중지시켰습니다.  

하지만 논란은 식지 않고 있습니다.
 
우선 갑작스러운 서비스 폐쇄로 인해 합법적으로 서비스를 사용하던 이용자들까지 피해를 입게 됐습니다. 특히 유료회원의 경우 돈을 지불하고 정당하게 올린 자신의 파일을 내려받을 수 없게 됐습니다.

특히 앞으로 메가업로드의 파일이 모두 삭제될 수 있어 이용자들이 크게 반발하고 있습니다. 미 연방정부가 메가업로드의 자산을 동결했는데, 이 때문에 서버 호스팅 비용을 충당하지 못하게 된 것입니다. 서버 호스팅 업체들은 2일(미국시각)부터 메가업로드의 파일을 삭제할 수 있다고 합니다.

아무런 불법 활동을 하지 않은 사용자가 서비스 제공업체의 불법행위로 인해 엄청난 피해를 받게 된 것입니다. 만약 누군가 메가업로드에 수년 간 작업한 중요한 파일을 저장해뒀고 이번 사건으로 이 파일을 잃어버리게 된다면 누가 책임져야 할까요?

문제는 이번 사건이 클라우드 컴퓨팅의 신뢰도에 엄청난 악영향을 끼칠 수 있다는 점입니다.
 
서비스 제공업체의 법적인 문제로 서비스 자체가 폐쇄돼 버릴 수 있다는 것을 보여준 사례이기 때문입니다.

아마 미국인들은 앞으로 온라인 스토리지 서비스 이용을 주저하게 될 것입니다. 메가업로드의 경험이 트라우마가 될 것이기 때문입니다. 드롭박스나, 박스넷도 이 같은 트라우마의 피해자가 될 수 있습니다.
 
물론 이들은 비즈니스 용도로 사용되는 사례가 많기 때문에 이번 사태와 직접 연결시키기는 어렵지만, 클라우드 컴퓨팅에 대한 불신이 커진다는 점에서는 일맥상통한다고 볼 수 있다.

클라우드 서비스 사업자가 불법 행위를 하지 않으리라고 장담할 수 없기 때문입니다. 특히 이번 사태에서 보듯 사업자가 직접적으로 불법행위를 하지 않았음에도 불법을 방조한 혐의가 있다는 이유로 서비스가 폐쇄될 수도 있습니다.

만약 아마존 EC2를 통해 누군가 불법 영화 서비스를 제공하고 아마존이 이에 대한 적절한 조치를 취하지 않았다면 아마존 EC2가 중단될 수도 있을 것입니다.
 
다소 극단적인 사례이지만, 불가능지만은 않습니다. 한 달 전만해도 메가업로드가 폐쇄될 가능성을 전망하는 사람은 아무도 없었기 때문입니다.
2012/02/01 10:37 2012/02/01 10:37
무형의 생산물인 소프트웨어(SW)는 일반적으로 제품 자체를 사는 것이 아니고, 라이선스(사용권)을 삽니다. 이는 사용자가 구매한 SW를 소유하는 것이 아니라 계약에 따라 사용할 수 있는 권한만 가진다는 것을 의미입니다.
 
MS 윈도 운영체제 CD를 샀다고 해서 친구에게 빌려주거나, 회사에 있는 PC에 설치하는 것이 불법인 이유입니다.

과거에는 SW 라이선스라는 것이 간단했습니다. 컴퓨터 한 대에 라이선스 한 개를 부여하면 됐기 때문입니다. 이용하는 컴퓨터가 한 대면 라이선스 한 개, 두 대라면 두 개를 구매했습니다.

하지만 IT기술이 발전하면서 라이선스를 결정하는 것이 어려워지고 있습니다. 가상화 및 클라우드 컴퓨팅이 확산되면서 ‘컴퓨터 한 대’라는 기준을 세우는 것이 어려워졌고, 멀티 코어 컴퓨터의 등장으로 컴퓨터 한 대 안에 여러 대의 컴퓨터가 들어있는 것과 같은 환경이 됐기 때문입니다.

이 때문에 최근 SW 라이선스 정책을 새로 새우는 회사들이 등장하고 있습니다. 기존의 방식으로는 새로운 IT환경을 반영할 수 없기 때문입니다.
v스피어 라이센싱 모델

v스피어 라이선싱 기준은 가상 메모리 사용량


대표적인 회사는 VM웨어입니다. VM웨어는 지난 해 8월 v스피어5.0을 출시하면서 라이선스 방식을 CPU코어 기반에서 가상 메모리(vRAM) 기반으로 변경했습니다. 가상머신(VM)에 할당되는 메모리용량에 따라 라이선스 비용을 과금한다는 것입니다. 특정 CPU만을 사용하지 않는 가상화 환경에 맞도록 고안한 새로운 라이선스 기법입니다.

반면 이 회사의 또 다른 주요 브랜드인 ‘v센터’ 중 상당수의 제품들은 가상 머신 숫자 당 라이선스가 계산됩니다. v센터는 가상화 관리 SW 브랜드로, 관리되는 가상머신이 몇 개냐에 따라 라이선스가 달라지는 것입니다.

하지만 클라우드 컴퓨팅 이념에 따르면, 가상머신의 숫자는 언제든 쉽게 늘거나 줄 수 있습니다. 때문에 이 방식은 공급자나 사용자 입장에서 모두 매우 복잡해질 수 있습니다.

당초 VM웨어의 라이선스 기준은 CPU의 코어였습니다. 코어 숫자를 기준으로 라이선스를 부과했습니다. 하지만 가상 인프라 내에서 CPU 사용 상황을 판단하는 것이 어려워 짐에 따라 가상 환경에서 사용하는 애플리케이션 라이센스도 중 변하지 않을 수 없었던 것입니다.

마이크로소프트도 올 상반기 출시될 SQL 서버 2012의 라이선스 체계를 바꿨습니다. MS는 SQL 서버는 지금까지 CPU 기반의 가격정책을 유지하고 있었습니다. 하지만 이제는 CPU 개수와 관계없이 CPU 코어를 기준으로 과금하게 됩니다. 회사 측은 이번 변경에 대해 “하드웨어 기술이 발전했기 때문에 이에 대응하는 라이선스 체계가 필요했고, 클라우드 컴퓨팅 시대를 대비해야 하는 측면도 있었다”고 설명했습니다.
IBM의 PVU 기준

x86 프로세서에 대한 IBM의 기준


IBM의 경우에는 하드웨어 기업답게 프로세서의 성능에 따라 SW 라이선스를 달리합니다. 프로세서 거치 유닛(Processor Value Unit)이라 부르는 이 정책은 단순히 프로세서의 개수뿐 아니라 성능까지 고려 대상으로 한다는 점이 특징입니다. 인텔, AMD 등 CPU를 제공하는 회사 별로 CPU 성능이 다르고 같은 회사 내에서도 제품에 따라 성능이 다른 점을 고려하겠다는 것입니다.

이에 따르면 인텔의 제온 네할렘 EX의 경우 코어 당 0.7~1.2까지의 라이선스를 주고, AMD의 옵테론의 경우 코어당 0.5개의 라이선스 비용만 청구합니다.

이처럼 IT환경의 변화는 SW라이선스 체계 자체를 바꾸고 있습니다. 지금까지 SW 라이선스 체계는 IT관리자보다는 구매담당자나 법무 담당자가 알고 있어야 할 지식에 가까웠습니다.

하지만 클라우드 환경에서는 무심코 가상 머신 숫자를 대폭 늘린다거나 필요한 미래의 트래픽을 대비해 성능보다 좋은 CPU를 도입할 경우, 예상치 못한 SW 라이선스 폭탄을 맞을 수도 있습니다.

SW 라이선스가 점점 종량제 방식으로 바뀌고 있기 때문입니다.

이는 IT관리자들이 소프트웨어 공급업체의 제품 및 기술뿐 아니라 각 사의 SW라이선스 체계를 면밀하게 살펴봐야 한다는 것을 보여줍니다.

2012/01/16 13:23 2012/01/16 13:23
사용자 삽입 이미지
지난 주말 아파치 재단이 하둡1.0을 공식 발표했습니다. 아파치 하둡 데이터 프로세싱 프레임워크가 6년 만에 마침내 공식 버전이 나온 것입니다.

하둡은 대용량 데이터 처리를 위해 대규모 분산처리를 지원하는 프레임워크입니다

아파치 하둡 재단의 아룬 C. 무르티 부사장은  하둡 1.0에 대해 “수 많은 개발자와 위원회의 헌신적인 노력의 정점”이라고 평했습니다.

하둡은 이제 겨우 1.0 버전이 나왔을 뿐이지만, 최근 IT산업에서 차지하는 영향력이 적지 않습니다. 이미 여러 조직에서 하둡을 이용하고 있으며, 아직은 사용하지 않는 조직이라도 하둡에 대한 공부는 하고 있습니다.

유명한 클라우드 서비스인 아마존 웹 서비스(AWS)나 랙스페이스에서 이미 하둡을 이용하고 있고, 페이스북도 하둡의 추종자 중 하나입니다. 특히 하둡의 근원지인 야후는 4만2000 노드에서 하둡을 활용하고 있다고 합니다. 국내에서도 NHN 등이 하둡을 로그분석 등에 활용하고 있습니다.

이처럼 클라우드 컴퓨팅과 빅 데이터가 IT 업계의 핵심 화두로 떠오르면서, 하둡은 가장 인기있는 기술로 자리잡았습니다.

무르티 부사장은 “하둡은 조직들이 방대한 데이터를 저장∙처리하고, 쿼리를 던질 수 있는 사실상의 데이터 플랫폼이 됐다”면서 “새로운 버전은 성능∙안정성∙보안 면에서 가장 중요한 진보를 표상한다”고 강조했습니다.

무엇보다 하둡이 주목을 받는 것은 ‘빅 데이터’에 대한 가장 현실적인 대안이기 때문입니다. 지금까지 기업이나 조직들은 발생하는 수 많은 데이터 중 매우 일부만을 처리하고 분석했습니다. 고객의 다양한 목소리, 웹사이트∙SNS∙스마트 디바이스∙센서네트워크 등 다양한 채널을 통해 들어오는 정보들은 그냥 버려야 했습니다. 활용법이 없었기 때문입니다.
사용자 삽입 이미지

그러나 하둡은 이런 데이터를 기업이나 조직의 전략을 세울 때 이용할 수 있는 가능성을 제시합니다. 하둡과 맵리듀스(MapReduce)라는 데이터 처리 기술을 통해 기존에 버려야 했던 데이터까지 분석 대상으로 올릴 수 있기 때문입니다.

맵리듀스는 대량의 데이터를 다수의 서버에 나눠 집계•가공하는 맵(Map) 과정과 처리 결과를 하나의 표에 정리해 출력하는 리듀스(Reduce)라는 과정을 반복하면서 비구조적 데이터를 처리해 나갑니다.


이를 활용하면 고객이탈을 감지하거나 미래를 예측하는 등 그 동안 얻지 못했던 통찰력을 빅 데이터로부터 얻을 수 있을 것으로 전망됩니다.

특히 단순 오픈소스 프로젝트를 넘어 상업적인 IT업체들이 하둡을 적극적으로 채용하고 있다는 점에서 하둡의 전망이 밝습니다. 오라클, IBM, 테라데이타, 사이베이스 등 기존의 분석용 DB를 공급하던 업체들은 비구조적 데이터를 처리하기 위해 자신들의 솔루션을 하둡과 연계해 나가고 있습니다.

오픈소스 운영체제인 리눅스가 이들 기업들로부터 지원을 받기 시작하면서 급속도로 성장했다는 점을 상기하면 하둡에 대한 전망도 매우 밝아 보입니다.

하둡의 실질적인 활용은 이제 시작 단계입니다. IT기술을 선도하는 일부 업체들은 이미 하둡을 활용하고 있지만, 일반 기업들은 아직 저 멀리 있는 이야기입니다.

때문에 하둡1.0 출시는 적지 않은 의미를 가지고 있습니다. ‘공식’적으로 출시됐다는 점에서 일반 기업들이 안심하고 접근할 여지를 주기 때문입니다.

포털 업체나 클라우드 업체 이외에도 하둡은 쓸모가 많습니다. 통신사 등의 로그 데이터를 처리할 수도 있고, 의료분야에서는 대용량의 이미지 데이터를 처리할 수도 있습니다. 공장설비 장애 관리를 위한 데이터 분석도 하둡으로 할 수 있고, 판매시점관리(POS) 등에서 들어오는 데이터도 하둡으로 처리할 수 있습니다. 교통 흐름을 분석하거나 위치 정보와 연비 상황을 자동차 운전자에게 통보하는 등 다양한 활용이 가능합니다.

물론 이 같은 이야기는 아직 장밋빛 전망에 불과하니다. 하둡 역시 수 많은 IT업계의 기술들처럼 한 때의 유행으로 지나갈 수도 있습니다. 무엇보아 안정성과 보안을 중요시 여기는 CIP 하둡이 인터넷 기업에나 어울리는 기술이라고 생각할 수도 있습니다.

하지만 빅 데이터라는 거대한 흐름이 멈추지 않는 이상, 하둡과 같은 대용량 분산파일 시스템에 대한 탐구는 지속될 것입니다. 과연 2012년 하둡이 IT업계의 총아로 떠오를 수 있을지 주목됩니다

2012/01/10 10:32 2012/01/10 10:32
페이스북을 이용하시는 분들 중에는 상태 업데이트에 글을 올린 후 수정이 안 돼서 어려움이 겪은 분들이 있을 겁니다. 페이스북은 오탈자가 있어도 수정할 수 없도록 돼 있습니다. 오직 글을 삭제할 수 있을 뿐입니다.

왜 그럴까요?

이는 ‘빅 데이터’ 기술의 특징이라고 볼 수 있습니다. . ‘빅 데이터’는 정보기술 산업(IT)이 다루는 대상인 ‘정보’의 종류가 많아지고, 그 규모도 엄청나게 커지는 것을 의미합니다. 기존의 관계형 데이터베이스로는 감당할 수 없는 데이터가 등장한 것입니다.

페이스북의 경우 하루에 생성되는 데이터가 일반 기업들의 1년치 데이터보다 많다고 합니다. 페이스북은 지난 8월 기준으로 30페타 바이트의 데이터를 보유하고 있었습니다. 이는 미국 의회 도서관이 보유한 책의 3000배가 넘는 규모입니다.
사용자 삽입 이미지

기존 데이터 처리 기술로는 이 많은 양의 데이터를 감당할 수 없습니다. 때문에 빅 데이터를 처리할 때는 관계형 DB가 아닌 하둡과 맵리듀스, NoSQL이라는 새로운 기술을 주로 활용하게 됩니다.

페이스북 역시 하둡과 맵리듀스, 카산드라(NoSQL의 한 종류)를 이용해 데이터를 처리합니다.

이 기술들의 특징은 데이터 정합성 보다 대용량 데이터를 처리하는 데 중점을 두고 있다는 점입니다. 페이스북에서는 글을 입력했는데, 제 때 바로 반영되지 않거나 여러 개가 동시에 올라가기도 하고, 댓글 10개라고 표시돼 있는데 들어가보면 세 개밖에 없는 일들이 벌어지곤 합니다.

이는 위에 언급한 기술들의 특징입니다. 관계형DB는 단 하나의 데이터라도 잃어버리면 안 된다는 사상 위에 설계된 기술이지만, 하둡이나 NoSQL은 데이터에 조금쯤은 오류가 있어도 좋다는 생각입니다.
사용자 삽입 이미지

하지만 페이스북이 빅 데이터 기술만 이용하는 것은 아닙니다. 페이스북도 마이SQL이나 오라클 같은 관계형 DB를 사용합니다. 대표적인 것이 프로필입니다. 상태 업데이트와는 달리 사용자 프로필은 언제라도 수정할 수 있습니다. 또 사용자 프로필 데이터에는 오류가 발생하지도 않습니다.

최근 국내 기업들도 하둡과 맵리듀스, NoSQL을 이용하는 사례가 늘고 있습니다. 하지만 앞에서 살펴본 것처럼 이 기술들은 장.단점이 분명합니다. 데이터의 정합성이 중요한 업무에 이 기술들을 사용하면 안 됩니다.

페이스북처럼 데이터 정합성이 중요한 서비스에는 관계형 DB를 이용하고, 상대적으로 데이터 정합성은 중요하지 않지만, 많은 데이터를 빠르게 처리하고자 할 때만 빅 데이터 기술을 이용해야 합니다.
2011/12/12 08:51 2011/12/12 08:51
오늘날 IT업계의 가장 중요한 키워드 중 하나는 ‘빅 데이터’입니다. 빅 데이터는 단순히 데이터의 규모가 커졌다는 것을 의미하는 것은 아닙니다. 지금까지 IT산업이 다루지 못했던 새로운 종류의 데이터까지 관리의 영역으로 담는 것입니다.

웹 서버의 로그 데이터, 소셜네트워크서비스(SNS)의 수많은 텍스트와 음성, 이미지, 동영상 등 멀티미디어 데이터, 모바일 기기가 생성하는 데이터, 센서네트워크를 통해 수집된 데이터 등이 빅 데이터입니다.

빅 데이터가 중요한 이유는 이를 통해 더 깊은 통찰력을 얻을 수 있다고 보기 때문입니다. 기존의 관계형 DB만으로는 알지 못했던 새로운 정보가 빅 데이터에는 담겨 있고, 이 정보를 잘 찾아내는 기업 및 기관이 비즈니스를 선도할 것입니다.

빅 데이터라는 화두가 던져진 만큼, IT 업체들도 관련 기술을 개발하고 솔루션을 공급하기 위해 총력을 기울이고 있습니다. 클라우드 컴퓨팅과 함께 빅 데이터에서 뒤쳐진 IT업체는 생존경쟁에서도 한 발 물러설 것이기 때문입니다.

지금까지 IT업계를 주름잡아왔던 전통의 강호들이 빅 데이터를 위해 어떤 준비를 하고 있는지 살펴보겠습니다.
사용자 삽입 이미지

데이터 관리 분야 전통의 강호 ‘오라클’

‘빅 데이터’를 잘 활용한다는 것은 데이터 관리 및 분석 기술을 잘 활용한다는 것입니다. 때문에 기존의 데이터 관리 업체 및 분석기술을 보유한 업체들이 빅 데이터 시대에도 유리할 것으로 보입니다.

오라클은 세계적으로 가장 유명한 DB업체입니다. 데이터를 관리하는 데는 오랜 경험과 뛰어난 기술을 가지고 있습니다. 여기에 하이페리온을 인수하면서 분석 기술도 확보했습니다. 때문에 빅 데이터 시대를 맞아 오라클에 관심을 두는 것은 당연할 것입니다.

오라클은 지난 10월초 ‘오라클 빅 데이터 어플라이언스’라는 제품을 처음 선보였습니다. 오라클이 본격적으로 빅 데이터 시장에 뛰어든 것입니다. 이 제품은 이미지, 웹 로그, 비디오 파일, 소셜 미디어, 텍스트 데이터 등 대용량 비정형 데이터의 생명주기를 관리하기 위한 어플라이언스 솔루션으로, 썬마이크로시스템즈의 하드웨어에 빅 데이터 처리를 위한 소프트웨어가 통합돼 있습니다.

오라클 빅 데이터 어플라이언스 솔루션 안에는 ▲ 아파치 하둡 오픈소스 배포판 ▲ 오라클 NoSQL 데이터베이스 ▲하둡용 오라클 데이터 인테그레이터 애플리케이션 어댑터 ▲하둡용 오라클 로더 ▲ 오픈소스 통계 프로그램 ‘R’ 등이 결합돼 있습니다.

하지만 오라클은 빅 데이터 전용 어플라이언스를 출시했어도 무게중심은 여전히 관계형DB에 있는 듯 보입니다. 오라클은 이 제품을 소개하면서 자사의 DB 머신인 ‘엑사데이터’와 함께 연동할 것을 강조했습니다.

즉 빅 데이터 전용 어플라이언스는 오라클 엑사데이터를 보완하는 요소로 보고 있는 듯 보입니다.
사용자 삽입 이미지

EMC “드디어 EMC의 시대가 왔다”

EMC는 빅 데이터 시대 도래를 가장 환영하는 IT업체 중 하나입니다. 과거에는 스토리지 공급회사로 인식됐던 EMC이지만, 빅 데이터 시대를 맞아 종합 데이터 관리 업체로 확실히 자리매김 하겠다는 의지가 엿보입니다.

EMC는 지난 몇 년간 보안, 백업, 아카이빙, 중복제거, 콘텐츠 관리, 거버넌스∙리스크관리, 컴플라이언스, 데이터웨어하우징 등 무수히 많은 업체를 인수했습니다. 모두 데이터 관리와 관련된 업체들입니다. 단순한 하드웨어 박스가 아니라 스토리지를 기반으로 데이터 저장부터 관리, 분석까지 데이터와 관한 모든 것을 풀 패키지로 제공하겠다는 것입니다. 이는 빅 데이터 시대에 꼭 맞는 전략입니다.

우선 EMC는 빅 데이터에 대응하는 스토리지 솔루션으로 아이실론과 아트모스를 준비해뒀습니다. 여기에 빅 데이터 분석을 위한 DB로 그린플럼을 인수했습니다. 또 콘텐츠 관리 솔루션인 다큐멘텀도 있습니다.

EMC는 아울러 데이터 사이언티스트(http://shimsky.delighit.net/308) 육성에도 힘쓰고 있습니다. EMC 애널리틱스 랩이라는 부서를 운영하면서, 빅 데이터에서 통찰력을 얻어낼 인재들을 확보해 나가고 있습니다.

스마터 플래닛으로 준비된 강자, IBM

빅 데이터라는 말이 유행하기 전부터 IBM의 비즈니스 전략은 빅 데이터 중심이었습니다. 몇 년 전부터 IBM이 내걸고 있는 캐치 플레이즈인 ‘스마터 플래닛’은 빅 데이터를 잘 활용하자는 이야기와 다르지 않습니다.

스마터 플래닛의 핵심은 데이터이기 때문입니다. 똑똑한 지구를 만들기 위해서는 지구를 구성하고 있는 요소 (기온, 토양상태, 진동, 교통 흐름 등)들에 대한 정확한 데이터가 파악돼야 하고 이를 분석해야 합니다.

가령 홍콩에 새로 건설된 다리에는 1000개의 감시센서가 부착돼 있습니다. 이 센서로부터 실시간으로 수집된 데이터를 통해 패턴, 상관 관계, 이상치를 살펴보고, 수질량과 수질을 측정해 재난과 수질오염을 예방합니다.

이 같은 일을 하기 위해 IBM도 많은 기업을 인수했습니다. 분석용 데이터 저장관리를 위해 네티자를 인수했고, 데이터 통합 업체 에센셜과 분석 솔루션업체 코그너스 등을 인수했습니다.

IBM의 강점은 이 같은 솔루션 이외에도 잘 훈련된 컨설팅 조직이 있다는 점입니다. IBM은 이미 오래전 컴퓨터 제조업체에서 서비스 업체로의 변신에 성공했습니다. 이를 위해 수 많은 컨설턴트를 이미 보유하고 있습니다. 데이터 사이언티스트의 역할이 강조되고 있는 시점에서 IBM의 수 많은 컨설턴트의 역할이 커질 것으로 보입니다.
사용자 삽입 이미지

SAP, 메모리 기반 빅 데이터(?)

최근 업무용 애플리케이션 업체에서 DB 전문업체로의 변신을 선언한 SAP도 빅 데이터에 대한 메시지를 강하게 표출내고 있습니다. SAP는 메모리 기반 DB 어플라이언스인 HANA가 빅 데이터 시대에 유용하다고 선전하고 있습니다. HANA는 정형, 비정형 데이터를 모두 처리할 수 있는 기술이라고 SAP는 소개합니다. 여기에 몇 년 전 인수한 비즈니스 오브젝트를 통해 이 시장 공략을 준비하고 있습니다.

그러나 과연 빅 데이터와 인메모리가 어울리는 기술인지는 약간 의구심이 있습니다. 빅 데이터는 그야말로 데이터 규모가 어마어마하게 크다는 것을 의미합니다. 1~2테라바이트 규모가 아니라 수백 테라바이트, 심지어 제타바이트 규모의 데이터 시대가 도래할 것으로 보고 있습니다. 아무리 메모리 가격이 내려갔다고 해도 메모리에 이 모든 데이터를 담는다는 것은 비용면에서 불가능할 것으로 보입니다.

목소리 크지 않은 마이크로소프트

흥미로운 점은 지난 20년간 IT산업을 이끌어온 마이크로소프트의 목소리가 별로 크지 않다는 점입니다. 최근 윈도 서버와 윈도 애저 플랫폼용 아파치 하둡을 개발한다는 발표가 있기는 했지만, 아직 구현된 것은 아닙니다. MS는 올 연말까지 윈도 애저용 하둡 기반 서비스 시제품을 선보이겠다고 밝혔을 뿐입니다.

하지만 MS는 항상 시장에 빨리 합류하는 스타일이 아니었습니다. 뒤늦게 시장에 합류해도 기존 플랫폼의 영향력을 이용해 막강한 힘을 발휘하곤 했습니다. 빅 데이터 분야도 이와 같은 양상이 벌어질 지 주목됩니다.
2011/11/25 17:18 2011/11/25 17:18
사용자 삽입 이미지
IT업계에서 요즘 가장 뜨거운 화두 중 하나는 ‘빅 데이터(Big Data)’입니다. 빅 데이터는 말 그대로 데이터의 규모가 크다는 뜻입니다.

사실 데이터 규모가 커지는 것은 어제 오늘 일이 아닙니다.

이미 지난 20년 동안 데이터는 감당하기 힘들 정도로 늘어났습니다. 이런 상황에서 새삼스럽게 ‘빅 데이터’라는 새로운 용어가 등장한 이유는 무엇일까요?

일단 데이터 증가 속도가 과거와 달리 기하급수적으로 증가한다는 점이 달라졌습니다. 올해 생성될 디지털 데이터는 1.8 제타바이트로 추정됩니다. 제타바이트는 1.8조 기가바이트입니다. 2020년에는 약 35.2제타바이트에 이를 것으로 전망됩니다.

그러나 빅 데이터는 단순히 데이터의 규모만 커지는 것을 의미하지 않습니다.

데이터의 종류도 더욱 다양해진다는 점도 빅 데이터의 특징입니다. 지금까지의 데이터는 대부분 구조화된 데이터였습니다. 때문에 데이터를 분석하는 기술도 이런 구조화된 데이터를 중심으로 발전해 왔습니다.

하지만 이제는 구조화되지 않은 데이터가 중요해지고 있습니다. 페이스북에 형식에 맞춰 글을 쓰는 사람은 없습니다. 텍스트과 그림, 영상이 섞여있기도 합니다. 이 외에 각종 센서네트워크를 통해 수집되는 데이터, 위치 및 지리 데이터 등 엄청나게 다양합니다.

이처럼 다양한 데이터가 대규모로 군집해 있는 것이 ‘빅 데이터’입니다.

한편 ‘빅 데이터’가 주목을 받는 또 다른 이유는 그 안에 지금까지 깨닫지 못했던 정보들이 담겨 있기 때문입니다.

예를 들어, 페이스북에 올라온 ‘감기 걸렸다’는 문장들을 통합해 위치정보와 분석할 경우, 감기 바이러스가 어느 쪽으로 확산돼 가고 있는지 파악할 수 있습니다.

또 사람들이 트위터에 올린 글의 기분 변화를 분석한 결과 ‘불안감’이 늘어날 경우 주가가 낮아진다는 조사도 있습니다. 이처럼 빅 데이터를 잘 분석하면, 새로운 통찰력을 얻을 수 있을 것으로 기대됩니다.

하지만 여러 종류의 대규모 데이터를 모아만 놓는다고 저절로 통찰력이 생기는 것은 아닙니다. 이를 과학적으로 분석해서 통찰력을 찾아내야 합니다. 백사장에서 바늘을 찾듯 엄청나게 쏟아지는 데이터속에서 유의미한 무엇을 발견해 내는 것입니다.

빅 데이터에서 새로운 통찰력을 얻어내는 역할을 하는 사람을 ‘데이터 사이언티스트(Data Scientist)’라고 부릅니다.

비즈니스적 측면에서, 데이터 사이언티스트들은 구조화되지 않은 데이터 속에서 지금까지 드러나지 않았던 숨겨진 패턴을 찾아내는 역할을 합니다. 그 동안은 몰랐던 고객의 행동이나, 잠재 시장 등이 그것입니다.

기존에는 데이터를 다루는 직종으로 데이터 모델러, 데이터 아키텍트 등이 있었습니다. 이들은 전통적인 IT맨들이었습니다.

하지만 데이터 사이언티스트들은 전통적 개념의 IT맨들이 아닙니다.

이제는 통계학자, 수학자, 경제학자 등이 IT를 활용해 빅 데이터로부터 통찰력을 얻어냅니다.

당연히 IT업체들도 데이터 사이언티스트 확보에 혈안이 돼 있습니다. 예를 들어 글로벌 IT기업인 EMC는 ‘애널리틱스 랩’이라는 부서를 운영하고 있습니다. 이 부서는 데이터 사이언티스트들로 구성돼 있습니다. 경제학, 통계학, 심리학 등을 전공한 박사급 인재들입니다.

이들은 기업들이 빅 데이터로부터 통찰력을 얻어낼 수 있도록 조언을 하고, 교육을 하는 역할을 합니다.

데이터 사이언티스트가 되기 위해서는 단순히 하나의 분야만 알아서는 안 됩니다. 기본적으로 통계학이나 경제학에 대한 지식이 있어야 합니다.

또 분산 컴퓨팅, 하둡, 자료구조 등과 같은 IT기술과 엔지니어링도 알아야 하고, 수학과 같은 기초학문에 대한 능력도 필수적입니다.

때문에 데이터 사이언티스트가 되는 것은 실제로 매우 어려운 일입니다. 물론 이 같은 능력을 갖출 수 있다면 어느 회사에서라도 환영 받을 수 있을 것입니다.

2011/11/07 08:50 2011/11/07 08:50
사용자 삽입 이미지

클라우드 컴퓨팅 시장 공략을 위한 애플의 야심작 ‘아이클라우드’는 어느 데이터센터에서 운영될까요? 애플은 최근 5억 달러를 들여 미국 노스캐롤라이나에 대규모 데이터센터를 구축한 바 있는데, 아이클라우드는 당연히 이 곳에서 운영되겠지요?

그런데 지난 주 애플이 미국 노스캐롤라이나의 자체 데이터센터가 아닌 마이크로소프트의 윈도 애저와 아마존의 ‘AWS(Amazon Web Service)’등 경쟁사의 클라우드 서비스를 통해 아이클라우드를 운영한다는 소식이 전해졌습니다.

미국의 IT정보 사이트 ‘더 레지스터( The Register)의 지난 2일 보도에 따르면, 고객이 아이클라우드에 저장하는 데이터는 애플의 데이터센터가 아니라 MS 윈도 애저와 AWS에 분할돼 저장된다고 합니다.

더 레지스터는 애플이 최고의 고객 경험을 유지하기 위해 자체 데이터센터보다 외부의 데이터센터를 이용한다고 전했습니다. 특히 특정 클라우드 서비스에 의존하는 위험성을 경감시키기 위해 서비스의 스타일과 성숙도가 다른 윈도 애저와 AWS에 이중화했다고 합니다.

사실 아이클라우드가 윈도 애저와 아마존을 이용한다는 소문은 지난 6월에도 난 바 있습니다. 애플 정보 사이트 인피니트 애플은 아이클라우드 메시지 서비스 아이메시지(iMessage)에서 HTTP 통신을 모니터링 한 결과 ‘아마존 S3’와 ‘’윈도 애저 데이터 스토리지’를 이용하는 것 같다고 전한 바 있습니다.

만약 애플이 아이클라우드를 윈도 애저에서 운영하고 있다면, 아마 애플은 MS 윈도 애저의 최대 고객이 될 것입니다. 윈도 애저가 아직 시장에 완전히 안착했다고 보기 어려운 상태에서 애플이 MS의 구세주가 되는 셈입니다.

MS는 “클라우드 컴퓨팅에 올인 했다”고 선언할 정도로 클라우드 컴퓨팅을 중요하게 생각하고 있는데, 윈도 애저는 MS 클라우드 전략의 핵심이기 때문입니다..

그런데 의문점이 하나 있습니다. 아이클라우드가 MS와 아마존을 통해 서비스된다면 애플은 노스캐롤라이나의 거대한 데이터센터를 왜 지은 것일까요?

이에 대해 비즈니스 인사이더는 두 가지 가능성을 언급했습니다. 하나는 AWS와 윈도 애저가 노스캐롤라이나 데이터 센터의 백업 역할을 한다는 가정입니다. 아이클라우드 서비스는 노스캐롤라이나의 자체 데이터센터에서 하지만, 혹시 모를 장애에 윈도 애저와 AWS로 대비한다는 것입니다.

또 하나는 일단 외부의 클라우드 서비스를 이용하고 점차 자체 데이터센터로 서비스를 이전할 것이라는 예측입니다. 애플은 클라우드 서비스 운영 경험이 많지 않기 때문에 타사 서비스를 통해 경험을 쌓고 점차 자체 데이터센터 활용도를 높일 것이라는 생각입니다.

그러나 또다른 의문점이 있습니다. 윈도 애저와 아마존은 기술적으로 완전히 다릅니다. 두 서비스는 호환성이 거의 없습니다. 윈도 애저에 올려진 서비스는 AWS기 쉽지 않습니다. 상호 보완적인 이중화를 노렸다면 유사한 기술을 사용하는 클라우드 플랫폼을 이용하는 것이 더 낫지 않을까 하는 의구심도 듭니다.

일각에서는 클라우드 컴퓨팅 경쟁이 가속화 되는 상황에서 애플이 일단 크고 멋진 데이터센터를 지어놓았는데 속은 텅 비었을 것이라는 억측마저 나오고 있습니다.

애플은 아이폰이나 아이패드와 같인 혁신적인 제품을 만들어 성공을 거뒀지만, 이런 제품을만들어 내는 일과 데이터센터를 효율적으로 운영하는 일은 전혀 다릅니다. 과연 애플이 아이클라우드를 어떤 방식으로 운영해 나갈지 궁금해집니다.

아이클라우드는 연내에 정식 서비스가 시작될 예정입니다.
2011/09/16 10:08 2011/09/16 10:08
지난 주 세계최대의 클라우드 서비스인 아마존 EC2(Elastic Compute Cloud)의 장애 소식이 화제가 됐었습니다. 이 때문에 아마존 EC2를 사용하는 징가, 포스퀘어, 넷플릭스 등 세계적 서비스들도 중단될 수밖에 없습니다. 무려 11시간이나 중단된 서비스도 있다고 합니다.

이번 사태는 클라우드 서비스에 장애가 발생했을 때 벌어질 사태를 보여주는 단적인 사례입니다. 클라우드 서비스에 장애가 발생하면, 이를 이용하는 모든 서비스가 중단될 수밖에 없습니다. 서비스가 중단된 업체들은 원인도 모른 채 발만 동동 구를 수 밖에 없습니다. 자신의 데이터센터 내에서 벌어진 일이 아니기 때문입니다.

기업들이 ‘내 서비스를 내가 책임지지 못하는 것은 불안하다’는 인식이 강해지면 활성화 되고 있는 클라우드 컴퓨팅 시장에 악영향을 미칠 수도 있습니다. 가뜩이나 클라우드에 대한 막연한 불안감이 있는데, 이번 장애소식은 이에 결정적 증거가 되고 있습니다.

외국 언론들도 클라우드 컴퓨팅의 신뢰에 빨간 불이 켜졌다고 보도하고 있습니다.

뉴욕타임즈는 “아마존의 장애가 클라우드 컴퓨팅에 대한 의구심을 키운다”고 보도했고, 포브스지는 “클라우드 컴퓨팅이 죽은 날”이라고 말했습니다.

클라우드 컴퓨팅에 대한 위험성이 부각되자 구글은 재빨리 자신들은 아마존과 다르다고 강변하고 있습니다.

아마존과 함께 클라우드 컴퓨팅 산업을 이끌고 있는 구글은 22일 기업용 구글 앱스 사이트에 자사의 데이터센터가 얼마나 안전한지 증명하기 위한 설명과 동영상을 올렸습니다. 아마존 사고 하루만에 이런 동영상을 올리다니 정말 발 빠른 구글입니다.

동영상은 남부 캘리포니아에 있는 데이터 센터를 통해 실제 직원의 센터 출입 절차, 24 시간 보안 시스템, 하드웨어 유지 보수 시스템, 방재 시스템과 같은 모습을 소개하고 있습니다.

데이터센터에 출입하기 위해서는 망막 검사 등 생체인증을 받아야 하며, 수명이 다한 하드디스크 등 하드웨어는 물리적으로 완전히 분쇄합니다. 또 고객의 데이터는 여러 데이터센터에 분산 복제돼 있기 때문에 데이터를 잃어버릴 일은 없다고 강조합니다. 또 친환경적인 데이터 센터임을 설명하는 것도 잊지 않습니다.

아마존이 망가진 틈을 타서 재빨리 자사의 안정성을 자랑하면서, 클라우드 컴퓨팅에 대한 불신을 불식하고자 하는 의도가 엿보입니다.

하지만 아무리 준비를 잘 해놓았다고 하더라도 문제는 예상치 못한 곳에서 벌이진다는 것이 문제입니다. 지진에 관한 한 그렇게 철저히 준비했다던 일본도 지난 동북지방 지진과 쓰나미에는 속수무책으로 당했습니다.

아마존도 보안과 서비스의 고가용성을 위해 구글 못지 않은 투자를 해왔습니다. 아마존에는 특정 데이터센터가 장애를 겪으면 이를 복구하는 동안 서비스를 지속할 수 있도록 하기 위해 보조 데이터센터인 ‘가용성 존’이 있습니다. 하지만 본 데이터센터와 가용성 존을 연결하는 네트워크가 부하를 뒷받침하지 못한 것이 이번 사태의 원인이라고 합니다. 장애에 대한 준비를 철저히 했다고 자부했지만, 예상치 못한 부분에서 문제가 생긴 것입니다.

아마 앞으로도 클라우드 서비스 장애 문제는 지속적으로 등장할 것입니다. 100% 완벽한 IT시스템은 없기 때문입니다.

때문에 클라우드 컴퓨팅은 앞으로도 지속적으로 ‘안정성 vs 편리성’ 중에 무엇을 선택할 것이냐의 문제가 될 것으로 보입니다. 클라우드 컴퓨팅은 비용절감, 서비스 확장성 및 유연성, 서비스 개발속도 향상 등에 큰 효과가 있지만, 계란을 한 바구니에 담는 위험성도 있기 때문입니다.

하지만 클라우드 데이터센터가 언제나 오류를 일으킬 가능성을 가지고 있듯, 기업내의 IT시스템도 문제를 일으킬 수 있습니다. 다만 문제가 일어났을 때 직접 대처할 수 있다는 점이 다를 뿐입니다.
2011/04/25 15:49 2011/04/25 15:49
사용자 삽입 이미지
‘한글과컴퓨터(이하 한컴) 씽크프리 오피스’라는 제품을 아십니까? 안드로이드 기반 스마트폰을 이용하시는 분이라면 많이 들어보셨을 것입니다. 삼성 갤럭시S 등에는 기본적으로 씽크프리 오피스 애플리케이션이 설치돼 있습니다.

그런데 씽크프리 오피스가 PC에서 사용되는 오피스 패키지 소프트웨어라는 사실도 아시나요?

한컴은 아래아한글이 포함돼 있는 오피스 패키지인 ‘한컴 오피스’와 ‘씽크프리 오피스’ 두 종류의 브랜드를 가지고 있습니다. 씽크프리 오피스는 PC용 버전, 모바일 버전, 온라인 버전(웹 오피스)이 있습니다.

저는 국민벤처 한컴의 미래는 한컴 오피스(아래아한글)보다는 씽크프리에 달려있다고 보고 있습니다.

한컴 오피스는 주로 국내 시장을 겨냥하고 있고, 더 이상 성장 가능성이 많지 않은 제품입니다.
반면 씽크프리 오피스는 모바일 컴퓨팅, 클라우드 컴퓨팅이라는 새로운 흐름에도 부합하고, 해외라는 새로운 시장을 공략하기에 알맞은 제품이라고 보는 것입니다.

최근 한컴은 씽크프리의 최신 버전인 4.0을 출시하면서 국내보다 일본에 먼저 출시한다고 밝혔습니다. (관련기사 한컴, 씽크프리 신제품 일본에 먼저 출시)

과연 한국의 오피스 소프트웨어가 MS가 장악하고 있는 해외 오피스 시장에서 통할 수 있을까요?

씽크프리 오피스의 장점은 MS 오피스와의 호환성입니다. MS의 엑셀, 워드, 파워포인트 형식으로 파일을 작성하고 편집할 수 있습니다. 기존의 10분의 1의 가격으로 엑셀파일을 만들고, 파워포인트 자료를 만들 수 있는 것입니다.
사용자 삽입 이미지사용자 삽입 이미지
사용자 삽입 이미지사용자 삽입 이미지
사용자 삽입 이미지

씽크프리

사용자 삽입 이미지

MS 오피스


온라인-모바일 연동도 중요한 역할을 합니다. 씽크프리 오피스로 작성한 문서는 클라우드 저장소인 씽크프리 온라인에 저장할 수 있고, 이를 웹상이나 모바일(안드로이드)에서도 별도의 작업 없이 볼 수 있습니다.
사용자 삽입 이미지

파일을 인터넷상으로 저장•동기화하게 되면, 파일을 USB 메모리 등으로 가지고 다니지 않아도 언제라도 최신 파일로 작업이 가능합니다. 무료 안드로이드 앱인 ‘씽크프리 오피스 모바일 뷰어’와도 연계해 모바일 환경에서도 간단히 파일의 열람이 가능합니다. 씽크프리 오피스만으로 때와 장소를 가리지 않고 언제 어디서나 오피스 파일을 가지고 다닐 수 있는 것입니다.

그러나 무엇보다 씽크프리 오피스의 가장 큰 장점은 가격입니다. 일본 시장에 불과 3990엔(약5만2000원)에 공급됩니다. MS 오피스에 비해 10분의 1도 안 되는 가격입니다.

불법 소프트웨어를 잘 사용하지 않는 일본인들은 간단한 문서 작업을 위해서 수십만 원짜리 MS오피스를 구매해야 했습니다. MS 오피스 이외에는 대안이 별로 없기 때문입니다.

하지만 앞으로는 씽크프리를 이용하면 훨씬 저렴한 비용으로 doc(x), xls(x), ppt(x) 파일을 만들 수 있습니다.

물론 씽크프리 오피스를 통해 다양한 수식이 포함된 엑셀파일을 만들거나 화려한 애니메이션과 효과가 들어있는 프레젠테이션 문서를 만들기는 어려울 것입니다. 하지만 대학생 과제 등 간단한 문서를 만드는 데에는 유용할 것입니다.

한컴측은 씽크프리 오피스가 일본 시장에서 인기를 끌고 있다고 자평합니다. 2009년도 하반기 윈도7버전용 ‘씽크프리 오피스’를 발표한 후 6개월간 일본 양판점 내 호환오피스 패키지 판매율 1위를 달성했다고 합니다.

한국의 대표 SW 기업인 한글과컴퓨터가 과연 일본을 비롯한 해외 시장에서 어느 정도의 성과를 거둘 수 있을 지 궁급해집니다.
2011/04/01 15:40 2011/04/01 15:40
사용자 삽입 이미지
“세계에 컴퓨터는 5대면 충분하다. 5개는 구글, 마이크로프트, 야후, 아마존, 이베이, 세일즈포스닷컴이다.”

오라클에 인수되기 전 썬마이크로시스템즈의 CTO(최고기술책임자)였던 그렉 파파도폴라스가 2006년 11월 자신이 블로그에 남긴 말입니다.

기업들은 앞으로 서버나 스토리지 등 하드웨어나 소프트웨어 라이선스를 사지 않고, 위에서 언급한 5개의 클라우드 서비스에 접속해 이용료만 내고 사용하게 될 것이라는 주장입니다.

마이크로소프트 스티브 발머 CEO도 2007년 “10년 후에는 기업 내에서 운용되는 서버는 없어지고 모든 것이 클라우드 상으로 이동한다”고 말한 바 있습니다.

일반적으로 클라우드 컴퓨팅은 ▲퍼블릭 클라우드와 ▲프라이빗 클라우드로 구분합니다. 퍼블릭 클라우드는 기업들이 하드웨어와 소프트웨어를 사지 않고 아마존, 구글, 세일즈포스닷컴과 같은 외부 클라우드 서비스를 업무에 이용하는 것을 말합니다.

반면 프라이빗 클라우드는 기업들이 자체 데이터 센터 내에 클라우드 컴퓨팅을 구축해 놓고 필요한 부서나 계열사가 이용하도록 하는 것입니다.

그렉 파파도폴라스나 스티브 발머 CEO의 주장은 앞으로 ‘퍼블릭 클라우드’가 대세가 될 것이라는 전망들입니다

이들의 발언은 사실 자신의 존재를 부정하는 것일 수도 있습니다. 모든 기업이 퍼블릭 클라우드 컴퓨팅을 이용하게 된다면 마이크로소프트 같은 현재의 IT기업들은 망할 것입니다. 마이크로소프트나 썬마이크로시스템은 기업의 데이터 센터에 소프트웨어와 하드웨어를 공급하는 것을 비즈니스 모델로 삼아왔습니다. 그런데 기업들이 더 이상 소프트웨어와 하드웨어를 사지 않는다면, 현재 비즈니스 모델로는 생존할 수 없게 되는 것입니다.

마이크로소프트가 “클라우드 컴퓨팅에 올인한다”는 극단적 표현까지 써 가며 클라우드에 매진하고 있는 이유는 이 같은 판단 때문입니다. 현재의 소프트웨어 비즈니스를 클라우드 서비스로 전환시키지 못한다면, 미래는 없다는 인식인 것입니다.

지금까지 클라우드 컴퓨팅에 콧방귀를 뀌었던 오라클까지 이 같은 의견에 동조하고 나섰습니다. 오라클의 로버트 쉼프 제품 마케팅 부사장은 지난 해 12월 16일 자사의 클라우드 컴퓨팅 전략 설명회에서 “현재 사일로 형태의 IT시스템은 그리드와 프라이빗 클라우드를 거쳐 결국 퍼블릭 클라우드 환경으로 가게 될 것”이라고 밝혔다고 합니다. 그는 5년 후에 마지막 단계, 즉 퍼블릭 클라우드에 도달할 것이라고 전망했습니다.

클라우드 컴퓨팅을 “과장된 뜬구름”이라던 래리 앨리슨의 오라클까지 퍼블릭 클라우드를 대세로 본 것입니다.

물론 모두가 이 같은 의견에 동의하는 것은 아닙니다. HP나 IBM 등 전통적인 하드웨어 기업들은 “대기업들은 퍼블릭 클라우드보다는 ‘하이브리드 클라우드’ 환경을 이용할 것”으로 보고 있습니다. 하이브리드 클라우드란 기업들이 퍼블릭 클라우드와 프라이빗 클라우드를 조합해 사용하는 것을 말합니다. 중요한 데이터는 프라이빗 클라우드에서 처리하고, 퍼블릭 클라우드는 중요성이 떨어지는 업무를 맡게 된다는 생각입니다. 특히 보안을 생명처럼 여기는 기업들이 남에게 자신이 데이터를 맡기지는 않을 것이라고 이들은 보고 있습니다.

때문에 여전히 대기업들은 자사의 하드웨어를 살 것이고, 프라이빗 클라우드 구축을 위한 시스템을 공급하겠다는 것이 이들의 전략입니다.

그러나 IT미래 학자 니콜라스 카는 하이브리드 클라우드나 프라이빗 클라우드를 과도기적 현상으로 보고 있습니다. 그는 빅스위치(동아시아, 2008)라는 책에서 전기산업의 예를 들며 이를 설명했습니다.
사용자 삽입 이미지

처음 에디슨이 전기를 만들었을 때 모든 기업들은 내부에 발전기를 두고 있었다고 합니다. 에디슨은 전기는 기업 내부에서 만들어 쓰는 것으로 이해하고 있었습니다. 이 때문에 에디슨은 전기를 만드는 기계를 공급하는 비즈니스를 펼쳤습니다.

하지만 이후 전기 산업은 유틸리티 산업으로 발전해갔습니다. 좀 더 멀리 전기를 전달할 수 있는 기술이 개발된 것입니다. 대형 발전소에서 전기를 만들면, 이용자들은 그 전기를 끌어다 쓰고 사용한 만큼만 돈을 내면 됐습니다.

그러나 에디슨은 기업들이 공장을 돌리기 위해 가장 중요한 자원인 전기를 남의 손에 맡기리라고는 생각치 않았습니다. 실제로 상당수의 대기업들이 외부 발전소 전기를 믿을 수 없다며 내부 발전기를 통해 전기를 생산하는 체제를 유지했습니다.

하지만 지금은 어떻습니까. 국내에서 한국전력의 전기를 쓰지 않고 직접 만들어 쓰는 기업이 있나요? 모두가 퍼블릭 서비스를 이용하고 있는 것입니다.

니콜라스 카는 IT도 전기와 마찬가지가 될 것으로 전망하고 있습니다. 대기업들이 내부 클라우드 시스템을 구축하는 것은 과도기적 현상에 불과하다고 보는 것입니다. 결국은 전기처럼 모든 IT시스템은 클라우드로 이전할 것으로 그는 내다보고 있습니다.

문제는 이 경우 현재의 IT산업의 미래가 불투명해질 수 있다는 것입니다.  전 세계 IT시스템이 5개의 클라우드 플랫폼 상에서 돌아가게 될 것이라는 그렉 파파도폴라스의 전망 대로는 아니더라도, 소수의 대형 클라우드 서비스 업체들이 모든 시장을 장악한다면 이들을 제외한 모든 IT기업들은 역사 속으로 사라질 것입니다.

IT산업 종사자들에게는 무서운 미래가 아닐 수 없습니다.

“앞으로 경제 생활에 대한 우리의 의식을 지배하는 것은 물건에 대한 소유가 아니라 서비스와 경험에 대한 접속이 될 것이다. 소유권의 시대는 막을 내리고 접속의 시대가 올 것이다”
사용자 삽입 이미지

노동의 종말, 바이오테크 시대 등을 저술한 사회학자 제레미 리프킨의 2001년작 ‘소유의 종말’에 나오는 말입니다.

IT시스템에 대한 소유가 종말 된다면, IT산업도 종말 될 가능성이 있지 않을까요.
2011/02/10 12:36 2011/02/10 12:36