2016年对于SDN来说无疑是丰收的一年。SDN产品和解决方案开始在金融、电信、互联网等行业大规模部署,许多传统行业对SDN的需求也开始显现。《2016~2017年中国SDN市场发展状况白皮书》显示,2016年中国SDN软件市场(主要指SDN控制器及相关软件解决方案和服务)达到7.2亿元,比2015年增长30.9%,预计到2021年,市场规模将达到46.7%十亿。同时,白皮书还指出了企业传统网络架构面临的四大问题。难以满足业务灵活部署的需求难以满足业务资源整合的需求难以满足场景化需求难以满足新的运维需求在讨论运维问题时,分析人士认为传统运维方式无法控制流量和全网设备和业务实现集中管控、统一部署。造成这个问题的原因除了网络架构的改变之外,还有就是网络中的数据量太大了。软件技术的发展支撑着更多智能设备的接入。今天,我们不断地从各种来源的网络交易、社交媒体提要、移动设备和各种匿名自动传感器收集和存储数据。在这种情况下,数据存储和计算需求的爆发式增长促使存储硬件、网络基础设施和处理海量数据的计算方法不断改进。传统的运维势必无法从对网络基础设施和流量的简单管理来管理业务的突然增加和复杂的流量。数据在你用它来做决定之前是没有用的2017年初,思科斥资37亿美元收购了AppDynamics,这是继14亿美元收购Jasper之后的又一重大举措。媒体将其视为思科战略转型的标志。在我看来,思科正在布局其大数据生态系统。大数据的挑战不仅在于数据的规模,还在于如何使用新的方法来处理来自各种数据平台的数据。与传统商业智能(BI)相比,大数据分析能够为企业网络管理带来质的变化,其价值也更大。溯源能力在现代企业网络中,每秒传输数以千计的数据包。当需要排除故障时,要检查的地方太多了。按照传统的方法,即使是5分钟的数据,也需要好几分钟的时间。数小时甚至数天的时间来分析和处理。如果大多数情况下问题不是网络问题,应用代码本身也应该与网络数据包和网络流量一起分析。网络管理需要弄清楚不同数据类型之间的区别。一些现有的解决方案在客户可以承受的价格范围内只能存储三天的流量数据。对于时间较长的网络故障,溯源只能在水中进行。防止小改动的能力变化是现在IT系统的主题。已经改变的信息是没有意义的。相反,预测有意义的变化非常具有挑战性。有时受限于网络流量的大小和带宽,一些大数据分析活动可能会造成正常业务的中断。以电商网站的促销活动为例,预览效果无法涵盖所有??可能的真实场景。一个好的架构师通常可以预见当前架构的任何潜在问题。如今,发现这些潜在问题的手段更多地依赖于大数据分析。预见未来的能力大多数传统网络系统缺乏灵活的设计,无法应对当今复杂的网络环境。传统网络中简单的网络监控设备无法应对复杂的虚拟化网络,更谈不上从中提取可执行规则;基于检测和代理技术的监控系统不能完全覆盖底层和覆盖网络。将所有数据汇集在一起??,利用大数据技术进行分析,是企业网络团队首先要解决的难题,因为其他大数据分析应用已经为业务部门创造了新的商机。企业IT团队通过使用大数据分析技术,实现了更快的故障排除,提高了网络基础设施的安全性、稳定性和可用性。未来网络应该如何设计?或许大数据分析能给人们带来一些启示。网络运维的问题其实就是大数据的问题。SDN的本质是控制和转发分离。从这个角度来看,控制的核心思想是网络中有一个“大脑”。该智能系统向网络设备发出指令。那么这些指令是从哪里来的呢?通常我们认为这些指令来自控制器根据现有协议和规则对网络流量和网络行为的“判断”。而这个“判断”过程,我们称之为大数据分析。数据分析并不是什么新鲜事物,在这里,我们加一个“大”字。任何大数据分析应用最重要的基础环节就是采集和存储。业界关于收藏的讨论很多,本文不再赘述。笔者想从以下几个方面对大数据分析面临的问题做一个简要的概述。灵活可扩展的存储容量正如我在之前的《直面数据中心网络六大需求,六步打造面向未来的网络》文章中提到的,思科网络报告白皮书显示,2015年至2020年全球网络流量的年复合增长率将达到22%(注:2015年,全球网络流量流量为72EB,2016年这个数字是88EB,1EB=1,000PB)到2020年,全球网络流量将净增200EB。对如此大规模流量的采集和分析需求,必然需要强大的存储能力。考虑到22%的增量,存储系统必须在不损失性能的情况下具有高度的灵活性和可扩展性,从而在不停机的情况下进行弹性扩展。文件系统还必须支持同时处理不同类型和来源的数据、将海量大数据转换为元数据的能力等功能。在我看来,网络的问题首先是大数据存储的问题。在规划和设计存储系统时,应考虑所有当前和未来的使用场景。延迟问题2015年前后的一段时间,实时流数据处理技术在IT圈非常流行;后来笔者了解到,大量公有云服务商在自己的基础设施中使用了加速卡/智能卡。例如,微软通过使用FPGA技术的智能网卡提高了Azure的性能,微软的FPGA智能网卡还具有加密和加速存储协议的功能。大数据分析需要实时处理,以便在社交媒体、交易数据等某些场景中做出决策,不需要响应延迟或数据丢失。对于需要根据实时数据做出响应式决策的应用,这个要求会更高。跨平台接入随着大数据在各种平台和系统(尤其是物联网)上的应用,数据的交叉使用成为了普遍的需求。公有云服务商在帮助大客户进行数据迁移时遇到过很多这样的案例。存储系统必须能够同时处理来自不同系统和格式的异构数据。数据时代的大数据生态,必然要求软件和硬件尽可能兼容和统一。近年来,IDC致力于优化网络,通过采用标准服务器摆脱厂商绑定;全球最先进的数据中心如谷歌、微软、LinkedIn、Facebook等都在朝这个方向发展。安全问题安全是云计算的基石,之所以这么说,是因为数据对我们的重要性。比如最近热议的某公有云厂商的租户隔离问题;大多数人认为VPC是成熟可行的租户安全解决方案,这也是大部分云厂商产品化的方向。事实上,层出不穷的安全事件都是针对数据窃取或破坏的。由于数据的交叉使用,现有的IT系统安全机制需要进行大幅度调整,存储也需要在不牺牲性能和可扩展性的情况下满足这些数据处理的安全需求。成本问题大数据意味着高成本。对于数据分析来说,计算资源显然没有存储资源那么昂贵。有人认为采用开放标准的硬件可以节省很多成本(大约30%到80%)。毫无疑问,政府大力倡导的去IOE和本土化在成本节约方面有很多值得称赞的地方。随着OpenStack的百花齐放,开源存储技术也有了长足的进步。企业可以通过选择不使用市场上现有的商业存储解决方案、重复数据删除、压缩备份以及使用自己定制的存储硬件来显着降低成本。综上所述,大数据的价值已经得到广泛认可。纵观自动化对网络运维的影响,我们认为未来令人期待,但更深层次的价值还需要业界进一步挖掘;通过研究不难发现,网络运维问题其实是大数据的问题,而大数据分析本身还处于起步阶段,有很多问题亟待解决。那么,我们应该如何走这条路呢?
