数据中心(Data Center)是一整套复杂的设施。它不仅仅包括计算机系统和其它与之配套的设备,还包含冗余的数据通信连接、环境控制设备、监控设备以及各种安全装置。2013年数据中心运营将仍然主要围绕能源效率,未来如何能在新技术上寻求突破来减少传统能源消耗将成为关键所在。
与此同时,数据中心也在不断的发生着演变,随着云计算的发展,改变了传统IT基础设施的使用方式和软件部署模式,并带来了大型云计算数据中心的建设热潮。不仅如此,随着融合基础架构的大行其道,数据中心也将趋向于融合,下面将为大家阐述2013年全球数据中心的发展趋势,总结数据中心发展的特点。
融合架构大行其道 数据中心趋向模块化
2011年IDC的调查指出,模块化数据中心有望在未来5年内成为主流,这一预测似乎正在变成现实。如今,模块化设计在大型云数据中心和高性能计算(HPC)中已变得很常见。国内外互联网公司和IT企业,比如微软、谷歌、亚马逊、腾讯等均在其自己的数据中心中采用模块化设计。
模块化数据中心的优势主要体现在快速部署、扩展性强、更高的空间利用率、可移动等方面,它能解决传统数据中心建设周期长、一次性投入大、能源消耗高、不易扩展等问题,通过对服务器、存储设备、网络、电源等部件的定制化设计,让数据中心更为迎合业务需求的变化。
模块化的数据中心能够支持即插即用,从设计到正式部署应用只需要十多周的时间即可完成。模块化数据中心包括以下重要组成部分,包括机架、冷却系统、电源管理系统、灭火系统、远程监测系统等。与传统数据中心相比,模块化数据中心能够节省多达30%的成本,空间占地面积也能够节省高达50%.
另外,即插即用这一优点还可体现在数据中心的灵活部署上,在全球任何地点,统一的设计方式使得计算设备在多个地点均已运营的一致性和简便性进行部署。模块化的设计还可以增加额外的计算能力,能否对当前数据中心进行快速扩展,并允许在远程办公地点、临时工作地点进行安装部署。在安装部署时,只需要提供电力保障、供水以及网络连接,就完全可以建立一个功能完整的数据中心。
在模块化数据中心的应用方面,IBM、微软、谷歌等互联网巨头已经率先采用了模块化数据中心。微软公司采用Rackable公司提供的集装箱在美国芝加哥城外建造了一座拥有150个集装箱式数据中心的大型数据中心,每个数据中心都配置了1000到2000台服务器。谷歌公司也不甘落后,他们的模块化数据中心包括一个联合运输的集装箱和集装箱内的计算系统。
日前,不间断电源制造商和基础设施解决方案提供商Active Power与 HP公司携手,共同部署位于美国得克萨斯州的模块化数据中心。该数据中心采用HP 高效模块化产品“EcoPOD”. ActivePower公司的集装箱式供电系统PowerHouse为其提供不间断电力保障。
近年来,随着融合基础架构的发展,数据中心也将趋向于融合。所谓融合基础架构,简单说来是将服务器、存储、网络以及管理软件等资源融合于一体,形成一个整体的解决方案。和传统的数据中心架构相比,融合基础架构打破了存储、计算、网络的边界,简化了IT基础设施的部署、运维和管理,从而缩短用户的部署时间,提高资源利用率,大大降低企业的采购成本。
目前,IBM、惠普、戴尔、思科、NetApp、甲骨文均推出了各有特色的融合基础架构产品,华为、中兴等国产厂商也加入其中,预计到2017年,融合架构会占到全球服务器、网络、架构和服务市场总开支的三分之二,市场前景十分广阔。
软件定义数据中心
“软件定于数据中心”是一个相对较新的流行语,在厂商EMC和VMware上都已得到了认可。这篇文章的目的是为了更深一层的为读者解读“软件定义数据中心”的含义,我们以下将用SDDC作为“软件定义数据中心”(Software Defined Data Center)的缩写。
首先,让我们来看看什么是“软件定义数据中心”:
传统的流程:
检测传统数据中心中的工作流程及服务包括:
1.Approval的服务和预算
2.硬件Procurement
3.硬件Delivery
4.硬件Rack
5.硬件Configuration
6.Installation软件
7.Configuration软件
8.Testing
9.Production的部署
全部检测完成以上的内容将会耗去非常多的时间。
检测的过程是复杂的长久的而且还有一定的风险。用户早已习惯了一个人去按需管理IT服务。他们知道该如何管理和运维,如果在一个90天的审核部署服务中,他们必须把安全性、备份恢复等问题做到万无一失。
SDDC的流程:
如上所述,与传统的检测流程相比,SDDC的流程就便捷的多,在SDDC上可提供一个完整的软件系统进行检测和部署。SDDC提供了一个更加流畅的IT服务模式,可以更好地进行添加和删除服务。与此同时,为厂商带来的则是更多的时间可用于研发等过程。此外,管理和部署新的服务还可以通过一个界面直观的展现出来,这一特点是不同于硬件驱动和CLI驱动的。
此检测流程是这样的:
1.APProval的服务和预算
2.Installation软件
3.Configuration软件
4.Testing
5.Production的部署
与之前的传统检测相比,SDDC减少了四个步骤。其使用的五个步骤也是可以精简到自动化所完成,而无需手动配置。变更管理系统可大大提高工作流程的流畅程度。经授权的IT用户可通过自助服务将这些程序启动实现自动管理。大大提高了业务中应用程序的部署速度及灵活性便捷性。
“软件定义数据中心”能否称之为“云”?这样的理解不完全正确,在IT服务中,什么服务可以认定为云服务是要看具体情况而界定的,SDDC是按需自助服务,也可灵活的对资源池进行计量和划分,此时的SDDC适合云计算模式,但不是所有的软件都能够实现。在公有云环境下的IaaS就不适用于传统的PaaS和SaaS的企业应用程序。例如,您不能在Microsoft Exchange的环境下迁移到亚马逊的云服务,企业的应用程序和操作系统是一个整体。除此之外,其硬件系统也是很有价值的,SDDC提供了一种模式,将企业IT可以同时支持传统应用程序和新编入的应用程序,这样就提供了一个迁移的方法,可以更好地建设IT基础设施。
“云操作系统”与SDDC非常相似,也总是被人们所混淆。实施的方式也很相似,都是通过计算、网络和存储来运行应用程序从而推动业务流程,可以更好地计算出业务所消耗的资源,管理这些资源使工作效率大大提高。
硬件资源已经成为了IT服务中的重要支出,对于传统应用程序而言,减少硬件资源只能通过传统的虚拟化或物理服务器进行部署。随着新兴应用和云服务的出现,在PaaS上进行部署也可大大提高应用范围及冗余。
在IT基础设施中可以体现出一系列新的技术,但有的需求是无法在现有的技术产品中得到满足,我们就需要通过计算、存储和网络的需求计算出工作的时间和方式。
对于计算而言,几年前我们的系统都是在x86的架构上运行的。计算平台的本身也可以同过CPU的不同,存储密度的不同来提高平台的灵活性降低成本。随着架构的更新和变化,传统中内置的硬件,在可用性和可维护性方面逐渐失去着价值。若将传统硬件的价值提高则需要更上一层的管理软件和虚拟化系统,那么就将会涉及到网络七层协议的更高一层。
要考虑到的因素还包括将计算与存储牢牢的联系到一起。现在计算能力的发展及增长是跨越式的,我们目前的网络和存储系统渐渐成为了计算的瓶颈,我们必须要将我们的处理能力提高才能实现数据计算。这样就会出现电源的供给、冷却效率和整体的优化等问题。反之,如果要推动数据的处理能力,SSD、闪存和高速缓存等形式的出现大大提高了本地数据的存储能力。
随着IT服务的变化,存储也在不断的变化。现在传统的存储阵列出现的越来越多,因为其在性能和空间上有很大优势,其不仅限于迁移到本地磁盘,还可有很好的扩展能力,主要是集中式的存储阵列可迁移到VMware的vMotion、DRS、FT等,这些迁移都需要多台服务器共同访问磁盘实现共享存储。VMware最近宣布的存储vMotion和传统的存储没有实现共享,但是可以支持实时的迁移。可以在虚拟机的管理程序平台上选择更多的存储环境。
向外扩展系统是一个比较新的技术,在LeftHand和Equalogic开创这个市场之前,惠普和戴尔也分别参与过。随着市场的不断增长,如Isilon的产品就引起了大数据市场的关注。NetApp的集群模式在全面实施ONTAP8.1向外扩展系统。在SMB市场向外扩展系统正在快速发展并带来了市场创新。向外扩展提供了一个更长的路径同时增加I/O能力,可以通过存储控制器很好地进行控制。
在刀片服务器中可以有中央控制器进行备份和分布式存储。EMC的VFcache技术就是通过添加服务器软件实现的分布式存储,软件还可以通过处理器进行SAS和SATA的数据处理。
随着IT服务的变化,软件的功能和控制尤为重要。与此同时,对于网络的要求也日渐严格,专有的网络可以提高硬件效率,如Arista公司提供的软件与网络结合的解决方案。此外,软件定义网络也是由VMware收购Nicira之后,思科提供CiscoOne后所提出的概念。在如今的数据中心上进行集中管理,软件的重要性不容小视。
软件的重要性不仅仅在于易于管理,而且还需要把云服务和数据中心结合在一起。这些多租户的系统运行有更加严格质量控制和带宽保证才能够实现自动智能。如今物理配置的网络无法满足这样的需求,可以通过物理拓扑架构的形式来改变网络的变化,真正的使数据中心和云架构结合在一起。
从网络七层协议的第2层(数据链路层)和第3层(网络层)可进一步的实现网络的顺畅连接使基础设施的网络服务得到共享。如,负载均衡,访问和控制防火墙等服务。每个网络服务都需要符合部署新应用和分层的要求。这些服务可以通过物理的虚拟设备进行分层,都需要通过集中的软件平台所配置。