文章| Lina介绍:过去六个月,人工智能发展重心逐渐从云端转向终端,伴随着人工智能芯片行业的整体崛起。
时隔数月,智东西首次报道了人工智能芯片全产业链的近百家核心企业,涵盖国内外主要巨头企业、新兴初创企业、场景应用、代工生产等,为您提供全面、全面的人工智能芯片行业资讯。
深度剖析AI芯片行业。
对发展、创新和创业进行跟踪和报告。
这是智能AI芯片行业系列报告之一。
三年半以来,英特尔一直在推迟其专用人工智能芯片的重大举措。
准确地说,Nervana(英特尔以 3.5 亿美元收购的加州初创公司)已经等待其专用 AI 芯片的重大举措三年半了。
2019 年 4 月,当 Nervana 收到第一笔 60 万美元资金时,该公司宣布将打造“专用于深度学习的硬件”。
今年8月,在获得第二轮融资(1万美元)后,其首席执行官Naveen Rao表示,“用户将在大约六个月内能够试用这些深度学习专用硬件。
”三年多后,在经历了第三轮1万美元融资并被英特尔收购后,今年10月17日,英特尔CEO科再奇在接受采访时表示,这款芯片将在今年年底正式与用户见面。
同时他还表示,Facebook正在参与合作打造这款AI专用芯片。
不过,由于年末余额已所剩无几,英特尔的Nervana专用AI芯片尚未正式亮相。
尤其是12月底欧美“感恩节-圣诞节-元旦”假期即将到来,我们可以大胆假设——明年见(也许是CES?)。
不过,虽然这一大动作一再推迟,但英特尔集团仍然非常看重 Nervana 项目。
不仅英特尔CEO科再奇多次在不同场合力挺Nervana,而且在收购Nervana后的短短几个月内,前Nervana首席执行官就被提升为英特尔人工智能事业部负责人,直接向科再奇汇报——在英特尔以资历排名而闻名的,晋升速度可谓火箭般。
(前Nervana首席执行官、英特尔人工智能事业部负责人Naveen Rao)今天我们就来看看Nervana和这款英特尔专用AI芯片,也看看英特尔三年多的等待和3.5亿美元的投入。
钱赚了多少噪音?我们再看看曾经的PC时代当之无愧的霸主英特尔。
能否依靠涅槃在人工智能领域再战? 1. 比GPU更好、更快、更强大。
深度学习分为训练和应用两个阶段。
Nervana芯片针对的是训练阶段。
这个阶段需要计算机处理大量的数据。
现有的CPU很难满足如此强大的计算需求,这也是Nvidia通过GPU崛起的重要原因。
目前,Nervana芯片主要应用于云计算数据机房。
Nervana首席执行官Naveen Rao曾表示,Nervana采用的新芯片设计架构比GPU更快、功耗更低、性能更好。
(Intel Nervana深度学习专用芯片设计架构)根据今年11月Intel的AI Day,我们首先了解到了这款Nervana深度学习专用芯片的设计架构。
该芯片采用2.5D封装,配备32GB HBM2内存,内存带宽为8Tbps。
芯片内没有缓存,片上存储完全通过软件管理。
它可以支持各种神经网络算法框架的加速,比如Nervana的Neon、Google的TensorFlow、Facebook的Caffe等。
Nervana CEO表示,这颗芯片能够比更快的CPU更快地加速深度神经网络的处理有两个原因与GPU相比: 1. 该芯片由“处理集群”阵列组成,处理称为“Flexpoint”的简化数学运算,基于张量处理器架构。
相对于浮点运算,这种方法需要更少的数据,从而带来10倍的性能提升。
2.“互连”技术——这是Nervana芯片真正的高明之处,但Nervana一直对这项技术的细节守口如瓶——Naveen Rao将这种互连技术描述为模块化架构。
,该芯片结构可通过编程扩展为与其他芯片的高速串行连接,帮助用户创建更大、更多样化的神经网络模型。
在GPU上,芯片内部的数据处理与芯片外部的通信处理有很大不同。
内存必须映射到I/O,并且数据必须在内存的不同层次结构中移动,从而导致延迟等复杂问题。
Nervana的互连技术可以使芯片内部的数据传输和芯片之间的数据通信看起来一样,从而加快处理速度。
“就像在PC时代,人们发现用GPU处理图像比CPU更快,所以转而购买独立的GPU;而在人工智能时代,人们会发现用我们的芯片处理深度神经网络是比 GPU 更好,所以他们转向“我们”,Naveen Rao 曾经说过,“我们可以在硬件上击败 Nvidia。
”那么,也许英特尔三年多的等待和 3.5 亿美元的资金是值得的?说是亏损,也可以说不是亏损 2、鲜为人知 让我们把时间线调回今年4月,今年4月,一家名为Nervana System的加州初创公司。
简称 Nervana)宣布获得 60 万美元融资,与如今动辄数亿、数十亿的 AI 初创公司融资轮次相比,这个金额并不算多——但在当时,诸如“深度”等概念。
学习”、“神经网络”和“人工智能”当时并不像现在那么流行。
如此受欢迎,可谓是家喻户晓,而“AI芯片”就更难提了。
(Intel团队与Nervana团队合影)该公司总部位于圣地亚哥,三位联合创始人均来自高通:CEO Naveen Rao在高通神经拟态研究组(neuromorphic Research group)负责人工神经网络计算研究,而CTO Amir Khosrowshahi 在高通负责神经形态传感器研究,公司机器学习负责人 Arjun Bansal 在高通负责深度学习算法研究。
众所周知,芯片的设计和制造成本非常高,尤其是这种用于处理海量数据的专用芯片。
于是仅仅4个月后,Nervana就宣布了第二轮融资——1万美元,用于打造深度学习训练专用芯片。
当时,公司只有11人。
在随后的采访中,Nervana CEO Naveen Rao 曾对记者表示,“用户将在 6 个月左右的时间内试用这些深度学习专用硬件。
”事实上,当时市场上有超过 10 家初创公司专注于构建深度学习专用硬件。
Nervana家族,其他包括Ersatz Labs(2018年之后几乎没有消息)、Skymind(2018年9月获得腾讯10,000美元投资,2018年5月又获得腾讯10,000美元投资*)、Clarifai(4月获得10,000美元投资) 2020)美元融资,今年10月获得1万美元融资)等*2020年5月仅有少数英文网站报道此轮融资,中文网站暂无报道。
顺便说一句,2019年最热门的行业无疑是虚拟现实(VR/AR),其融资领先的独角兽Magic Leap分别于年初和年末公布了财报。
获得1万美元A轮融资和5.42亿美元B轮融资。
这家神秘的 AR 初创公司的产品也被推迟了很多年。
据说他们的产品将于近期亮相。
3. 端还是云?今年5月,我也说不清楚,在市场等待Nervana的深度学习专用芯片9个月之后,Nervana突然抛出了一条重磅消息——不,不是该芯片的推出。
相反,Nervana突然宣布公司即将推出Nervana云服务,让企业和用户通过网络访问Nervana云,获得强大的计算能力,而不受硬件限制——但当时,Nervana只宣布:他们正在构建的“This Cloud”尚未宣布其发布日期。
几天后,Nervana 再次宣布将开源深度学习软件框架 Neon。
该软件框架采用Python框架和Maxwell GPU框架,其卷积运算速度非常快(根据GitHub上的运行成绩,速度已经超过了Caffe、Torch等传统框架)。
Neon软件框架开源仅一个月后,2019年6月,Nervana宣布获得公司成立以来的第三轮融资——1万美元。
本轮融资将用于打造 Nervana 的深度学习硬件和云服务平台,其中 Android 之父 Andy Rubin 旗下的硬件孵化器 Playground Global 参与投资,Nervana 也加入了该孵化器。
获得本轮融资的联合创始人兼CTO Amir Khosrowshahi也向记者透露,Nervana已与美国情报委员会风险投资部门In-Q-tel签署了合作协议,美国国家能源研究科学计算中心正在同样使用 Nervana 开发的深度学习软件 Neon 于 2019 年 2 月 29 日,在宣布推出 Nervana 云服务半年多后,Nervana 终于正式推出了这款云服务,这项云服务旨在让深度学习更快、更容易。
使用,并且是专门为缺乏深度学习工具和高级数据处理能力的公司而构建的,但是Nervana Cloud暂时只能在英伟达的GPU上运行。
Nervana CEO 再次强调,随着时间的推移,他们将推出 Nervana 专用芯片。
此时,Nervana云平台的合作伙伴已经扩大到包括农业机器人初创公司Blue River Technology、石油和天然气勘探公司Paradigm等,他们利用Nervana云平台上的计算机视觉识别能力进行作物分类和3D地形检测。
。
4.加入英特尔怀抱,半年后这两款芯片终于面世——重头戏来了。
(左:英特尔副总裁兼数据中心集团总经理Diane Bryant,右:Naveen Rao)2019年8月9日,英特尔突然宣布全资收购Nervana System。
新闻稿中并未披露收购价格。
当天大多数媒体报道提到的价格是3.5亿美元,但第二天这个价格就变成了4.08亿美元(据Recode签约消息人士透露)。
当时,Nervana 只有 48 名员工。
自 Nervana 首次宣布将打造专用深度学习硬件以来,已经过去两年多了。
被英特尔收购后,这款 Nervana 深度学习专用芯片终于有了第一个名字——代号“Lake Crest”。
第一代产品预计今年第一季度采用台积电28nm工艺进行流片测试,下半年向少量用户提供。
第二代芯片将由英特尔自己的芯片生产线生产。
与此同时,英特尔还宣布将利用Nervana的技术打造一款代号为“Knights Crest”的加速器,与英特尔至强处理器搭配使用。
此前,GPU曾凭借其并行计算能力在深度学习训练中大放异彩。
不仅股价飙升,英伟达创始人黄詹勋(被粉丝称为“老黄”)还在各种场合多次Diss摩尔定律。
恐怕真的让多年来一直使用CPU的霸主英特尔非常不高兴了。
除了多次收购(收购Altera、Saffron、Movidius……)之外,英特尔在人工智能领域一直比较低调。
不过,或许收购 Nervana 成为了英特尔打造 AI 堡垒的最后一块重要砖石——收购 Nervana 仅仅三个月后,英特尔就首次公布了整体人工智能战略,预告了将在 2019 年推出的一系列 AI 解决方案。
未来。
根据计划,英特尔还将分别于11月17日和11月30日在旧金山和北京举办人工智能论坛(AI Day),表达英特尔发起从芯片到软件、从架构到饮用水的一系列人工智能革命的决心。
而在本次人工智能论坛上,我们终于第一次看到了这款Nervana深度学习专用芯片的面纱,也就是本文第一段提到的(不容易,已经两年半了)。
年初,2019年3月25日,英特尔还宣布将整合全公司的AI能力,建立一个统一的部门:人工智能产品事业部(AIPG),由Nervana前CEO Naveen Rao领导。
直接向英特尔首席执行官科再奇汇报。
这个人工智能产品事业部将包括四个部分:Nervana云计算服务、数据库和Nervana专用芯片。
加入英特尔后仅仅六个月,他就被提升为四个部门的总经理。
这位今年才40岁出头的业务部门总经理,在一向看重年龄和资历的英特尔集团里就像火箭一样。
这足以说明Intel内部对Nervana并不重视。
一个项目最重要的是什么。
今年,英特尔宣布这款芯片正式命名为“Intel Nervana Neural Network Processors”(简称NNP)。
今年10月17日,英特尔CEO科再奇在接受《财富》杂志采访时表示,今年NNP将在年底正式与用户见面。
同时他还透露,Facebook正在参与合作打造这款AI专用芯片,但他们尚未正式达成书面合作协议。
同时,英特尔还表示,公司暂时不会单独销售这些芯片,而是会以两种形式向用户开放服务:1.以数据中心服务器(数据中心设备)的形式出售,其中包括来自 Intel 的多个 NNP 和其他 CPU。
2.通过访问Intel的Nervana云服务获得算力。
但无论怎样,今年恐怕很难再见到他了。
结论:英特尔的AI芯片之旅又回到了我们一开始提出的问题。
经过三年多的等待和3.5亿美元(或4.08亿)的资金,英特尔是否正在亏损? ——可以说是损失,也可以说不是损失。
在GPU崛起的时代,NVIDIA在人工智能训练阶段大放异彩,市值每年翻一倍、三倍。
老黄还在常年diss摩尔定律。
老牌CPU霸主英特尔当然不乐意了。
然而异构计算的主流已经不可逆转,已经失去计算优势的CPU的调度器功能在计算机中逐渐增多。
尽管英特尔一直依靠自研+“买买买”来弥补其人工智能产品线的缺口,以更好地参与快速增长的人工智能市场,但集团内并没有具有竞争力的产品可以支持英特尔。
这么大的市场。
目前,Nervana芯片仍面临以下挑战: 1、围绕GPU,NVIDIA建立了一系列丰富的软件生态系统,包括CUDA、cuDNN、TensorRT等,其多功能性、广度和对开发者友好性使其非常受欢迎。
在错过了三年建立市场生态系统后,英特尔希望制造商放弃在 CUBA 架构和 GPU 硬件上的大量投资(时间 + 金钱),转而投资 Nervana 芯片。
这个产品一定比较贵。
GPU必须提升一个数量级以上才能足够有吸引力。
2、在英特尔产品一再推迟的同时,不仅老对手英伟达正在加速研发,致力于人工智能的各类AI芯片也不断涌现。
以中国为例,寒武纪、深鉴科技、地平线公司等初创公司已在下半年陆续推出(或即将推出)专用AI芯片,并普遍宣布将于年内进入量产。
今年上半年。
英特尔可以说已经把蓝海市场变成了红海市场。
3、性能、速度、功耗比等均为Intel或Nervana暂时公布的理论性能或测试性能。
在芯片进入量产之前,还存在很多工程缺陷。
最终如何做到价格、性能、稳定?性别等多方平衡仍然是英特尔需要努力的方向。
从Intel从一开始就决定不单独出售芯片来看,这款NNP的通用性和易用性可能还是会被克服。
但另一方面,如果Nervana的产品成功量产,并且在性能、速度、功耗比等方面与GPU相比表现异常出色,那么至少英特尔在云计算数据中心方面将拥有强大的影响力。
人工智能领域的短板可以得到成功的补充。
再加上英伟达因GPU功耗较高而在边缘计算(终端智能)方面存在一定劣势,英特尔凭借其Movidius VPU低功耗视觉处理器,或许真能在人工智能浪潮中东山再起。
而且,随着时间的推移,关于NNP的信息也越来越具体。
虽然2020年我们可能看不到这款芯片,但英特尔可能会在即将到来的CES上给我们带来新的惊喜。