文章 | Lina 昨天,NVIDIA GTC China(GPU技术大会中国分会)在北京召开,智西西作为特邀媒体,在主题演讲厅第一排发言,来听听CEO黄仁勋主题演讲的重磅报道(黄仁勋的北京激情2小时演讲:让国内10大科技巨头发布最强大的AI引擎【附100张完整PPT】)。
演讲结束后,黄仁勋接受了知喜喜等媒体的独家专访。
这位被粉丝亲切地称为“老黄/黄教主”的CEO,幽默又健谈。
他不仅谈论了计算能力、机器人、AI医疗、自动驾驶等问题,还与智能东西方交流互动讨论了“NVIDIA云”和最近流行的“AI芯片”。
(智动智记者与老黄合影) 1、“AI芯片”将无处不在。
从最近的华为麒麟到苹果的A11,AI芯片/终端智能化似乎已经越来越成为一种趋势,而AI在终端的落地也已经从软件层走向了硬件层。
那么这是否意味着我们未来将从云智能走向端智能呢?面对这个关于智能事物的问题,黄仁勋首先回答——未来是“云智能+终端智能”的时代,AI将无处不在。
未来,咖啡机、保温杯、麦克风、甚至耳环、鞋子等小物品都会智能化,但它们的处理芯片并不需要特别强大的通用智能,而是针对非常狭窄的专业领域实现智能,比如麦克风只需要声音的AI处理能力。
云智能将是通用智能,包括视觉、声音、数据等,需要所有的AI处理能力。
NVIDIA的高性能、高功率GPU在云数据中心有实际应用(比如老黄在上午的演讲中特别提到了与BAT三多云的合作,还宣传了基于GPU Tesla V的新GPU的推出) HGX云计算服务器)不过,NVIDIA目前的主力终端GPU板是Jetson TX2。
这款搭载 4 核 CPU 的 Pascal 架构 GPU 的标准功耗为 7.5W,比其他往往售价数十或数百的 NVIDIA 产品要小得多。
W GPU,但对于功耗极其敏感的超小型设备来说,这个功耗还是太大了。
为了解决这个问题,NVIDIA昨天正式开源了DLA(深度学习加速器)架构。
制造商可以免费下载这种专为物联网设备设计的AI架构,并构建自己的低功耗AI芯片。
2、“NVIDIA Cloud”于10月第一周上线。
今年5月,NVIDIA在美国主会场举办了GTC,并推出了“NVIDIA GPU Cloud”。
不要误会我的意思,NVIDIA 并没有与亚马逊 AWS 和微软 Azure 竞争业务。
这个“NVIDIA Cloud”运行在这些云上,并不为用户提供存储、计算等能力,而是可以理解为一套在线深度学习软件的集合。
这个 NVIDIA 云可以让人们轻松地从头开始构建深度学习项目。
无需购买GPU或设置环境。
控制中心仍然是可视化的,您可以看到您帐户之前的项目和正在运行的项目。
非常方便。
从当时的DEMO可以看出,用户登录NVIDIA Cloud后,只需3步就可以创建自己的深度学习项目:1.选择计算环境(可以选择NVIDIA Cloud、Amazon Cloud等) .,或者本地GPU计算) 2. 访问数据库(可以选择已有的数据库如ImageNet,也可以自己上传) 3. 选择框架(如Caffe、TensorFlow等) 本届GTC中国,黄仁勋并未公布有关此 NVIDIA 云的新进展。
东西向黄老师专门询问了这个问题。
老黄表示,NVIDIA云项目进展非常顺利,不出意外的话今年10月第一周就会正式向大家开放。
3、5-10年彻底变革机器人产业同样在昨天上午的主题演讲中,黄仁勋再次介绍了ISSAC机器人训练平台,并正式宣布推出全球首款用于自主机器人的处理器(芯片)Xavier。
机器人提供从软件到硬件的全面支持。
Xavier芯片已应用于京东仓储机器人jROVER、京东送货无人机jDRONE等一系列自主机器中。
它集成了 8 核 CPU、Volta TensorCore 和 CUDA GPU、传感器、8K HDR VP 和 CVA。
可应用于30TOPS计算机视觉、深度学习等机器人所需的技能领域,并具有超高算力和超高能效比。
该处理器将于今年第一季度向早期合作伙伴提供,并将于今年第四季度全面上市。
ISSAC是NVIDIA今年5月推出的一款用于训练机器人的增强学习世界模拟器(ISAAC Robot Simulator)。
它模拟现实世界的逻辑、原理、物理规律等,然后将机器放入这个世界中进行持续训练,而不需要遵循物理时间规律,将原本需要数年的训练压缩为数天甚至数小时。
。
老黄认为,现在看机器人,我们需要忽略传感器、电气化、自动化等传统机械问题,而关注人工智能和自主机器。
如果你想打造一个自主机器人,需要解决三个问题:1)为自主机器创建一个人工智能平台,比如强化学习。
2)创建一个虚拟环境,让这些机器人可以在其中学习“学会做一个机器人” 3)这些机器人学会如何做一个机器人之后,我们需要把AI大脑拿出来,放到一个专门的环境中自主机器处理器。
目前三个问题还没有彻底解决,但是老黄说我们已经在努力了! AI引擎、ISSAC虚拟机器人训练平台、Xavier处理器,NVIDIA的这三项任务正在并行推进,是构建工业基础设施“奠基”过程的一部分。
估计到明天,这些“地基”就打好了。
一旦基础打好,业界就可以在这些基础设施上快速推进生产。
老黄预测,未来5-10年,这些将为机器人行业带来不可思议的进步。
智动智还就“It's the CPU”等话题对NVIDIA智能机副总裁Deepu Talla进行了独家专访。
尽管黄在昨天上午的主题演讲中对CPU大肆喧哗,但他认为,归根结底,GPU永远不会取代CPU。
CPU擅长处理所有问题,是通用处理器,而GPU更适合处理专门问题,有时甚至具有数十倍、数百倍的性能优势。
因此,CPU+GPU的架构是合理的。
2)比ASIC更灵活,拥有更大的市场和更丰富的生态系统。
如上所述,随着谷歌TPU、苹果A11等产品的推出,企业打造自己的定制AI芯片似乎已成为越来越趋势。
这种定制的AI芯片属于ASIC(专用集成电路),是根据特定需求专门设计和制造的板卡。
由于它是针对某些AI功能而构建的,因此ASIC在某些单点性能上将比GPU具有明显的优势。
例如,谷歌的TPU在TensorFlow框架下的计算性能比GPU更有优势,一些物联网定制AI板的功耗比GPU更低。
老黄认为,GPU的多功能性使得它不仅支持TensorFlow框架,还支持市面上所有的深度学习开源框架如Caffe2、mxnet、PaddlePaddle等,还可以做一系列的AI应用如视频编解码、图像处理、语音等,使其更加灵活。
。
而更加灵活意味着更多的市场机会、更大的市场、更大的研发预算、更丰富的生态系统。
三年前,Nvidia选择将GPU打造成专注于Tensor架构的执行处理器(如果你觉得这个概念太陌生,那么你大概可以将其理解为AI网络架构处理器),然后衍生出诸如TensorRT 和 TensorCore。
平台/加速器,使 GPU 现在成为世界上最好的通用 Tensor 处理器。
事实上,关于GPU和ASIC板的争论由来已久,尤其是谷歌的TPU。
从项目公布的那一刻起,无数人就TPU和GPU在性能、功耗、延迟等方面进行了比较,很多人在这次采访中也向老黄询问过这个问题。
但也许,这个问题不应该这样比较。
现在市场上有数千家公司需要人工智能算力。
像谷歌这样的科技巨头有技术、有资源、有强烈的需求(由公司规模决定),只要降低每块板的功耗即可。
,整体功耗可以降低很多)来打造更适合自己业务的AI板卡。
他们可以选择与芯片公司合作打造专用AI芯片,但英伟达似乎更愿意打造通用AI计算平台,瞄准更大的市场。
这也是为什么老黄一再强调NVIDIA的GPU支持所有深度学习开源框架,往下看它就支持所有AI应用。
从这两天的消息也可以看出,特斯拉将“放弃英伟达”,与AMD联合开发专用自动驾驶芯片。
英伟达似乎无意为任何巨头独立打造专用AI芯片。
至于谷歌或特斯拉是否会通过出售这些芯片赚钱?短期内可能不会。
两者的产业链构成完全不同。
销售芯片并不是谷歌或特斯拉擅长的领域。
对于更广阔的市场,其他中小企业不具备这样的技术和资源。
他们需要购买AI算力,而通用的支持所有AI网络架构,支持所有,并且具有非常强大的计算性能。
GPU自然成为首选。
当使用GPU的AI公司数量达到一定程度时,生态系统的力量就会显现出来。
这也是为什么,在人工智能时代,英伟达的股价能够一路飙升,成为AI行业的“最辣鸡”。
如果我们真的要谈论对Nvidia可能产生的影响,很可能是谷歌将减少GPU的采购。
当然,从长远来看,英伟达也可能面临AI算力云端化以及AI芯片专业化、可承受性的趋势。
对于前者,NVIDIA现在正在努力推动云数据中心业务,而对于后者,NVIDIA也开源了DLA框架,暂时允许厂商免费使用它来构建自己的低功耗AI芯片。
至于未来是否会依靠DLA框架来收取专利费,成为新的商业变现模式,那就是另外一回事了。