大数据持续影响着全球的大型企业和行业用户。它改变了金融服务、医疗保健、零售和制造以及其他商业决策的方式。然而,它对数据中心行业的影响可能很少被研究。随着更多数据的创建、存储和分析,将需要更多的服务器。这些服务器在何处以及如何存储和管理以实现持续正常运行和高性能操作是重要的考虑因素。随着大数据业务的增长和需要更多的服务器,物理空间和可靠电源的可用性也将如此。在云如火如荼的同时,我们应该记住,云实际上只是其他人的服务器空间,受到相同的电源和连接要求。因此,无论大数据运营存在于本地、托管数据中心还是云端,IT运营商都必须确保满足当前和未来的基础设施需求。以下是运行大数据的一些关键数据中心基础设施注意事项:1.物理空间无论服务器部署在托管设施还是云端,服务器都需要物理空间。随着数据中心越来越靠近人口中心,由于空间稀缺,它正成为大数据运营和增长的限制因素。在谈到增长潜力时,重要的不仅是要认识到数据中心提供商的运营稳定性,还需要能够获得空间,以便灵活的基础架构能够实现可扩展性并满足部署速度。2.电力据报道,今天每天产生2.5万亿字节的数据,而全球90%的数据都是在过去两年创造的。这种速度反映在数据中心的增长上。根据仲量联行2017年数据中心展望报告,美国用电量达到创纪录的357.85兆瓦——这是仲量联行所称的“全球数据中心使用仍然猖獗的势头”的延续。除了整体功耗,每台服务器的功率密度也在增加。不久之前,每个机架2kW是典型的;现在,这几乎是不可能的,每个机架需要30或40kW的密度。随着企业及其IT基础设施计划的发展,确保为您的数据中心提供高效电力也势在必行,因为并非所有电网都能按需提供MW。数据中心还必须能够冷却高密度机架,这是相对较新的行业要求。如果您的企业重视数据中心的可持续性,另一个重要的考虑因素是确保您的提供商提供先进的冷却技术以减少功耗和整体碳足迹。3.常态运行对大数据运行的期望必须是“永远在线”。当“晚两分钟”成为大数据的工作方式时,对基础设施的基本要求是100%的正常运行时间。在数据中心环境中,可以通过冗余设计来实现正常运行。发生故障时,发电机和瞬时开关可以接管当地基础设施的电力供应。100%的正常运行时间是可以实现的,但风险仍然存在。虽然可以使用额外的发电机和瞬时开关内置额外的冗余,但这些通常会以高昂的成本留给最终用户。降低停机风险的新趋势来自于使用人工智能(AI)和机器学习来维持运营的最佳性能。谷歌于2014年首次使用人工智能来跟踪变量并计算其数据中心的最大效率。其他大型数据中心也在使用人工智能和机器学习来降低数据中心停机的风险。人工智能进入托管生态系统旨在与现有员工一起工作,将人与技术结合起来。数据中心现在可以利用数据中心技术人员训练的机器学习传感器和人工智能演员来识别可能的故障指标。如果您的企业正在启动或扩展大数据计划,明智的做法是将不动产、电力和正常运行时间放在首位。无论大数据业务最终是在本地、托管数据中心还是云端,具有灵活性、可扩展性、可持续性和可靠性的基础设施都能确保其成功。
