人工智能(AI)说已久,但这几年却突然爆发,炙手可热。
最常见的是人脸识别、机器人、自动驾驶等应用。
要实现很多应用,最重要的硬件就是AI芯片。
NVIDA是AI芯片行业最大的供应商。
据外媒报道,华为目前正在开展代号为“达芬奇计划”的新项目,自主开发AI芯片,挑战英伟达的领先地位。
“达芬奇计划”做了什么?将AI融入所有产品和服务华为目前致力于将AI引入公司所有产品和服务,包括电信基站和云数据中心、智能手机、监控摄像头等设备。
“达芬奇计划”就是这一系列想法的一次尝试。
通过“达芬奇计划”转型的业务之一就是华为的“平安城市”业务。
华为目前可以使用人工智能驱动的监控摄像头捕获图像并将其发送到远程数据中心,以收集和分析当地政府的监控数据并向警方发出警报,例如自动识别交通事故、盗窃和街头斗殴等。
另一方面,华为正计划将更多AI能力引入全球电信网络。
为了确保运营商客户的基础设施升级,为5G网络做好准备,华为正在开发新的设备和软件,以利用电信基站创建更智能的人工智能网络。
据了解,这些基站可以自行检测和修复问题,同时通过预测无线数据流量的波动来自动调整其运营。
此外,华为的云计算业务也在快速发展。
华为的云业务正在向企业客户提供服务器和其他数据中心设备(包括芯片)。
芯片的研发意味着会给英伟达带来挑战。
在当前的GPU芯片市场中,NVIDIA的市场份额高达70%,是芯片领域当之无愧的霸主。
我们可以看到,芯片巨头英伟达已经牢牢占据了AI芯片的头把交椅。
由于CUDA开发平台的普及,Nvidia的GPU是目前应用最广泛的通用AI硬件计算平台。
除了有能力开发自己的芯片的公司(而且全球屈指可数)之外,如果需要做AI相关的工作,肯定会需要使用Nvidia的芯片。
Nvidia的芯片应用广泛,现在所有的AI软件库都支持CUDA加速,包括谷歌的Tensorflow、Facebook的Caffe、亚马逊的MXN??et等。
在今年的电脑展上,NVIDIA主要发布了两款新产品:HGX-2和Jetson Xavier。
前者其实比较简单。
它是NVIDIA今年在CES上发布的DGX-2超级计算机的“拆解版”。
目标是让用户更灵活地组装GPU加速节点。
因此,实际上它只能算是半个“新产品”。
这也使得另一款新产品 Jetson Xavier 变得更加重要。
我们简单看一下参数:SoC整体尺寸为平方毫米,采用12nm FFN工艺,整体功耗仅为30W; CPU部分采用定制架构,8核规格,10通道超标量,支持双执行模式; GPU采用最新的Volta架构,包含CUDA核心,浮点计算能力高达1.3TFlops,人工智能需求处理能力高达20 Tensor Core TOPS;内置ISP,处理能力高达1.5GPIX/s,原生支持全帧HDR处理;内置DLA(深度学习加速器),提供5T FLOPS FP16算力、10 TOPS INT8算力;自带PVA,处理高达1.6 TOPS,可加速光流和图像处理;自带视频编解码处理器,编码解码速度性能分别达到1.2和1.8GPIX/s。
这些参数你可能还不太理解,但它们隐约透露了人工智能领域先驱英伟达的一个关键观点——对于人工智能来说,完全通用和完全专用的处理器都不适合,多处理器更好。
SoC与处理器模块结合的效率最高;另一个重要成果是,由于Xavier可以跨自动驾驶和机器人两个平台使用,因此Nvidia未来可以通过不断更新此类SoC产品来继续推进这两个领域。
市场。
这实际上成为一个关键的简化。
总体而言,SoC产品线的出现标志着NVIDIA产品的日益成熟。
同时,这些SoC内部的GPU模块仍然采用与所有NVIDIA GPU相同的微架构,以及对人工智能、图形加速等技术的支持。
在这样一个生态已经固化的环境下,华为的“达芬奇计划”能否成功还不得而知。
不过,我希望华为能够将人工智能发扬光大,引领中国的AI核心走向世界。