加入收藏 | 设为首页 | 会员中心 | 我要投稿 温州站长网 (https://www.0577zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 百科 > 正文

【2018亚太数据中心峰会】张静:企业数据中心建设实践分享

发布时间:2018-05-17 13:06:16 所属栏目:百科 来源:站长网
导读:副标题#e# 在过去的2017年,亚太地区的数据中心市场增速接近15%,领先于全球其他主要地区,与整体经济增长水平保持同步。区域内多元化的经济体发展特征使各国数据中心市场形成了鲜明的差异,以香港、新加坡为代表的成熟市场保持稳定增长,而以印度、印度尼
副标题[/!--empirenews.page--]

在过去的2017年,亚太地区的数据中心市场增速接近15%,领先于全球其他主要地区,与整体经济增长水平保持同步。区域内多元化的经济体发展特征使各国数据中心市场形成了鲜明的差异,以香港、新加坡为代表的成熟市场保持稳定增长,而以印度、印度尼西亚、为代表的新兴市场则呈现出强劲的增长动力。

2018年5月15日-17日,由中国IDC年度大典组委会主办,中国IDC圈、CloudBest承办的"2018亚太数据中心峰会"在深圳盛大召开。

5月17日,"2018亚太数据中心峰会"正式召开,深圳燃气集团信息部副总经理张静在现场进行《企业数据中心建设实践分享》精彩分享。

张静

深圳燃气集团信息部副总经理张静

以下为演讲实录:

张静:大家好,刚才胡主任讲了非常多的数据中心宏观的层面,我这个非常微观,就是作为一个用户来说,我们在面对数据中心的问题的时候,我们的考虑。前两年我们刚刚经历了整个完整的数据中心的规划建设的过程,所以在这里跟大家分享一下,也是从用户的角度来看待企业级数据中心的事,希望大家有所参考。

我个人经验基本上都是在甲方公司,基本上是做信息化的建设及管理工作,目前是担任云计算及政策论坛的用户和中国互联网安全大会的行业委员会专家,希望和行业的同仁有些交流。深圳燃气实际上是城市燃气公司,我们主要的业务是两个,一个是管道的天然气,还有一个是瓶装石油气,大家都有接触,是传统的企业。我们总部在深圳,我们在全国28个省市都有项目,相当于一个全国性公司。管道气的用户接近300万,瓶装气用户接近125万,大概服务的人口超过了一千万。

说到数据中心的建设,为什么建数据中心,作为燃气行业给我感觉这么多年来,实际上行业的信息化正在加快。最近几年很多同行开始信息化建设,信息化建设意味着要建立大量数据系统,同时也会有大量数据的存在。这时候数据中心的需求就出来了。作为我们的考虑,当时可能在两三年前,云计算市场还没有这么成熟,当时有两个选择,一是自建数据中心,二是租用IDC.我们刚好有一个新建的办公楼,所以就选择了自建的机房。基础架构主要是分为三部分:一是数据中心,主要是包括主机房和灾备机房以及通信中心和整个运维管理的平台,这是作为传统的数据中心必备的三个部分。

建数据中心会有一个考虑,现在国际和国内都有非常多的数据中心的标准,我们知道国际上有整个数据中心建设的标准和评级的标准,在电信行业有非常知名的TIA-942,一般T的说法是授权给TIA联盟使用,但是现在的区分是UPTIME使用罗马数字,电信标准使用的是阿拉伯数字。根据我们的需求结合了国家的电子计算机设计规范,实际上我们应该是B级就可以满足要求,但是我们也是为了未来的长远的使用,所以我们是在有可能满足的领域尽量符合A级标准。我们从主数据中心应该是B+的等级,我们在能够做到的领域尽量的使用A级标准。

根据当时集团的业务现状以及未来的业务规划,我们考虑数据中心必须要支撑未来5-10年业务发展,在确保高度稳定的同时,尽量降低成本,同时我们作为燃气行业的公司,我们一直倡导的是绿色发展的理念。天然气本身是一种清洁能源,我们的机房要尽量使用绿色环保的技术。两地三中心是一个企业作为业务保障的标配,我们规划了三个数据中心,主数据中心是位于深圳总部大楼,主要是部署我们集团的核心业务和各类生产业务系统。

同时我们也规划和建设了同城的灾备中心,离主数据中心的距离大概是30公里。同城灾备主要是当主数据中心失效时,核心的业务能够在我们同城的灾备中心继续运行,保证一个业务的可持续性。同时,我们在灾备层面实现了容灾技术,保证数据的完整性和一致性。异地灾备中心还没有建,现在和最开始的规划又有不同的想法。现在云技术发展很成熟,我们正在做可行性研究和论证,有没有把异地灾备中心部署到公有云上。

国际SHARE 78容灾的体系,应该是从0到6,总共七级。越短的恢复时间、越少的数据丢失,意味着越高的投资,它分了几个等级,最下面是冷备、温备和热备。根据我们的需求和相关基础设施的情况,在核心业务系统采用最高级,6级的容灾方案,实际上是一个双活的概念。基本上运用级的容灾,可以实时进行切换。同时对于非核心的业务,我们基本上采用了数据级的容灾方案,包括把我们的数据、日志被分到灾备中心。一旦发生故障,可能还需要较多的人工介入和恢复时间。

容灾架构,我们的主备之间在运营商专线方面是实现全局的负载均衡,我们的用户可以毫无感知的在主和备两个数据中心之间进行切换。同时在存储的层面,也就是数据的层面是采用了裸光纤互联,基本上达到了数据的实时复制,基于券的实时复制。容灾我们的目标是业务连续性,应用的连续性、数据的一致性。方式可以采取远程数据备份,和根据应用层面所做的容灾的考虑。相当于把资源放在刀刃上,优先保证关键应用。

容灾建设分享几个关键的建设点,它是业务连续性为出发点,从业务上要考虑组织、流程和技术层面的容灾保障,而不只是建好灾备机房就完了,肯定有组织层面的事情,以及容灾恢复的流程。各个系统的容灾等级是根据系统产生的业务影像和风险进行综合的评估,然后来定义不同的容灾需求。

主要是包括以下几个工作,一是业务的影响和风险分析,基于分析的结果制定容灾的级别和方案,最后是机房的选址,网络的规划以及制定灾难恢复的流程,同时要定期进行灾难恢复的演练。数据中心的概况,我们的数据中心位于我们大楼的三层,总面积约为750平米,层高是4.4米,我们分为核心设备区和辅助区域两部分。其中核心设备区域为513平方米,辅助区域约为131平米,辅助区域主要是包含参观的缓冲区以及操作间。当时由于大楼的承重问题,实际上我们把UPS和电池间放到了大楼的负一层,相当于有些先天的不足,在大楼设计的时候就没有考虑到承重的要求。目前有120个标准的机柜和20个网络机柜,总共不到150个机柜。灾备的机房面积就会小很多,大概150平米,有30个机柜。

配电系统的设计,实际上我们也是按照国家A级标准来设计配电系统,主要包含了两路市电,通过转换切换成两路市电,分别输入两路UPS,两路UPS完全独立,通过电源分配柜到我们的列头柜,再通过列头柜进行组合,包括双电源的负载和单电源的负载。UPS选择2(N+1)的方案,通过整个配电系统输入到我们的机柜,可以有效防止因为供电系统的故障导致损失。在空调和通风系统方面,也是采用国家A级标准的要求,采用(N+1)的方案,为了最大限度的降低能耗,也是更加绿色,我们采用了冷通道封闭,实际上就是能够保证冷气封闭在独立的区域,更好的去冷却我们的设备。而且我们是采用了机房的新风系统,一方面在冬季的时候,把适于的冷空气直接接入机房作为降温使用。同时对机房整个的环境,空气质量也有了优化。当时主机房设计的PUE是1.8,同时灾备机房因为建得比较晚,采用了冷通道封闭技术,同时采用了水冷的行间制冷技术,PUE进一步降低,设计的PUE达到1.6.

(编辑:温州站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读