首页 > 新闻 > 专家观点 >

数据中心高速互连 促使存储分解

2013-12-31 14:15:50   作者:   来源:eNet硅谷动力   评论:0  点击:


  现如今的数据量增长以大爆炸的速度迅猛增长。据调研显示,2006年至2011年之间,全球范围内的数字数据量呈指数级增长趋势,已经从200艾字节增长到近2泽字节(10倍的增长),而预计到2015年,可用数字数据将逾8泽字节。有近70%的雇员总数超过500名的企业均声称,他们正管理着超过100TB的数据,而有近40%的企业表示他们目前管理的总数据量超过了1PB。

  即使如此,这些数据量与那些世界领先的公司所正在生产和管理着的惊人数据量相比较仍然是苍白的,而这都要归功于云计算、Web2.0、高性能计算和大数据的出现。现如今的数据量是如此的惊人以至于传统的数据中心如果没有巨额投资迅速的升级到灵活的、可扩展的解决方案的话,正在变得过时。

  数据分析的重要性

  除了可扩展性的问题,企业还面临一系列其他的挑战,这包括对大量数据信息的组织、备份和恢复等。但也许其中最重要的挑战是如何分析和关联数据,来改善企业的决策和促进利润的增长。数据分析是企业在模拟用户行为方面进行的模型努力,以便改进生产,销售和营销决策,并避免用户对企业产生消极的印象和发生其他欺诈活动。

  通过数据整理,找出规律和趋势,以采取相关的行动是至关重要的。那些成功进行数据分析的企业很可能在未来站在领先决策的制高点。

  数据中心的演变

  随着数据量的飙升和企业试图适应这一迫切需要分析如此海量数据的趋势,数据中心被迫已经经历了一系列的演变以应对不断变化的需求。除了不断调整数据中心的存储容量来处理如此庞大的数据量之外,数据中心体系结构必须适应更快和更强大的数据分析需求。

  要理解这一演变,探索一下数据中心从其最基本的根源发展到今天拥有巨大设施的历史,以及在这一过程中所经历的基本技术原理的变化是相当有用的。

  最早版本的数据中心只不过是一台电脑包含一个CPU、内存缓存和存储的主机。彼时尚未有网络的概念,所以数据中心的所有功能都包含在一个中心位置。

  而随着网络被引入,将存储元件从网络上的计算组件进行分离变得普及。这较之与CPU捆绑在一起,可以让专用的存储的优势得到充分的利用。

  图1:原始数据中心架构

  然而,在过去十年,数据量的增加以及随之导致的数据分析需求的相应的增加再次改变了典型的数据中心的结构。现有互连技术过于缓慢,无法适应实时(甚至相当快)的处理大批量的数据需求,以及分析信息相关应对措施的要求。大多数数据分析的请求需要几周的时间来完成,届时信息利用为时已晚。

  为了解决互连性能较差的问题,数据中心解决方案开始提供将存储捆绑到计算服务器。通过将计算和存储之间的距离降低到接近零,使得企业获得了立即访问数据的能力,从而实现更快的分析和提高他们的业务决策能力。

相关阅读:

分享到: 收藏

专题