数据中心管理并不容易:计算部署每天都在变化,数据中心气流复杂,激励措施不当导致企业支出不断增加。此外,大多数企业数据中心的利用率和总拥有成本远远落后于基于云的节点。数据中心管理效率低下的一个根源是企业数据中心缺乏对现代数据中心管理的三大支柱的关注:跟踪(测量和库存控制)、制定良好的程序、对物理原理和工程限制的理解。另一个原因是数据中心主管通常没有意识到这些问题的范围。例如,最近的一项研究表明,全球30%的服务器没有提供有用的信息服务,但仍在使用电力。结果是全球企业数据中心浪费了数百亿美元。自服务器昏迷问题浮出水面以来,UptimeInstitute就设定了服务器目标,但进展甚微。解决这些问题的一个方法是采用科学的数据中心管理方法。这意味着在永无止境的持续改进循环中,创建假设和实验以测试它们并相应地改变运营策略。在数据中心执行此操作并不容易,因为要部署的设备价格昂贵且试验存在风险。有没有办法降低数据中心试验的风险并降低成本?当然有。通过数据中心的标定模型,测试不同软件部署对气流、温度、可靠性、功耗、数据中心容量的影响。事实上,使用这些模型是评估潜在变化对数据中心配置的影响的唯一准确方法,这是数据中心运营商关心的问题,因为系统非常复杂。近日,纽约宾厄姆顿大学的科学家们在一个拥有41个机架的数据中心中创建了一个校准模型,以准确测试能够预测数据中心设施空气温度的软件类型(6sigmaDC),并创建未来的实验测试环境。科学家可以轻松配置数据中心,而不必担心中断关键任务操作,因为它仅用于测试。他们还可以运行不同的工作负载,以查看可能影响数据中心设施能源使用或可靠性的因素。大多数企业数据中心不具备这种灵活性,但它们可以使用部分数据中心设施作为试验台,只要它们具有足够的规模。对于大多数企业来说,这种直接的实验是不切实际的。几乎任何人都可以做的是建立一个校准模型,即在他们的设施中运行实验的软件。宾厄姆顿大学的工作表明,对于数据中心实验,采用软件代码比部署物理硬件更便宜、更方便、风险更小,而且也更准确(只要模型经过适当校准)。在初始测试设置中,他们可靠地预测了每个机架的温度与异常值,并且可以进一步校准和改进这些结果。他们能够确定模型结果与测量结果之间存在差异的物理原因,一旦确定,就可以找到更好、更准确的畅通路径模型。需要更多此类测试实验室、用于数据中心管理的建模软件、提高评估准确性并改进所有建模软件的最佳实践,但高层次的教训很明确:企业数据中心应用软件来改善它们的业务性能,宾厄姆顿大学的研究工作指明了方向。IT技术正在改变经济的其余部分,为什么不用它来改造您自己的IT?
