编辑|杰克智东西讯5月8日消息,昨天,微软在Build大会上宣布,开发者现在可以访问微软Azure云,试用由Brainwave芯片计算平台提供的Project AI服务提供。
同时,发布了可部署在边缘设备平台的Project Brainwave的内测版本。
Project Brainwave计算平台是微软基于Intel FPGA芯片打造的低延迟深度学习计算平台。
微软表示,与最流行的行业基准相比,Project Brainwave 可以以可接受的成本最大限度地减少实时人工智能计算的延迟。
(微软工程师 Doug Berg 手持 Project Brainwave 芯片) 1. 什么是 Project Brainwave? Project Brainwave是微软于去年8月23日在芯片行业论坛HotChips上提出的。
微软表示,Project Brainwave计算平台的目标是支持快速的深度学习运算,并支持开发者重构芯片。
微软将 Project Brainwave 计算平台的架构分为三个层次: 1. 高性能分布式架构(架构层) 2. 集成到 FPGA 中的硬件 D??NN 引擎(硬件层) 3. 支持训练模型的平滑 一组已部署的编译器和运行时环境(软件环境) 去年提出 Project Brainwave 时,微软表示该计算平台将支持 Microsoft Cognitive Toolkit 和 Google TensorFlow。
。
今年3月,为了测试Project Brainwave计算平台的功能,微软将其Bing搜索引擎连接到该平台。
实验结果表明Bing搜索引擎的能力提高了十倍。
昨天发布的Project Brainwave试用版是微软首次提供通过云端向外部用户提供FPGA AI专用芯片的能力。
2. Project Brainwave中FPGA芯片的意义是什么?人工智能芯片对于人工智能的意义,就像发动机对于汽车的意义一样。
因此,Project Brainwave计算平台的功能取决于该平台所使用的芯片。
微软表示,Project Brainwave计算平台中使用的FPGA芯片将使AI数据处理速度非常快。
与谷歌使用的TPU芯片相比,FPGA芯片的处理速度快了五倍。
微软表示:“这款芯片是为实时AI而设计的——这意味着它可以在接收到数据后立即以极低的延迟处理请求。
因为云平台需要处理实时数据流,无论是搜索请求、视频无论是传感器数据流还是用户交互,实时AI变得越来越重要。
”该芯片的另一个优势是客户公司将能够根据自己的需求重新设计芯片系统,这也是微软为客户提供的原因。
更大的灵活性。
服务策略的一部分。
3、FPGA芯片的优缺点可见一斑。
在Project Brainwave项目中,微软大力开发FPGA AI专用芯片。
其他巨头也在为迎接即将到来的AI时代做出自己的努力,比如谷歌TPU、英伟达GPU等,那么,他们各自有什么特点呢? 1. NVIDIA GPU GPU最近没有出现。
其实它就是电脑中显卡的核心部件,它的名字叫图形处理器。
目前GPU在AI领域的应用采用“CPU+GPU”的计算模式。
与由多个针对顺序串行处理而优化的核心组成的 CPU 相比,GPU 拥有一个由数千个更小、更高效的核心组成的大核心,这些核心旨在同时处理多个任务。
可扩展的并行计算架构。
“CPU+GPU”计算模型将应用程序的计算密集部分的工作负载卸载到GPU,而CPU仍然运行其余的程序代码。
从而提高计算速度。
(“CPU+GPU”运算图)然而,这种计算模型实际上是利用现有的成熟技术来提供满足AI深度学习需求的通用级解决方案,而不是有针对性的专业解决方案。
。
2、谷歌TPUTPU是谷歌专门为加速深度神经网络计算能力而开发的芯片。
目前主要用于模型构建和定点推理。
TPU实际上是一个ASIC(专用集成电路)。
ASIC是为满足特定电子系统的特定要求和需要而设计和制造的集成电路。
通常,ASIC 开发需要数年时间。
但谷歌TPU从设计到在数据中心验证、建设和部署只用了15个月。
除了开发和部署时间短之外,TPU 在峰值性能方面也比 GPU 具有一定的优势。
GPU 可以在单个时钟周期内处理数百到数千个操作。
TPU 可以在单个时钟周期内处理数十万次操作。
同时,确定性是专用TPU带来的另一个优势。
CPU和GPU需要考虑各种任务上的性能优化,因此会有越来越复杂的机制。
副作用是这些处理器的行为非常难以预测。
使用TPU可以轻松预测运行神经网络并获得模型和推理结果需要多长时间。
这使得芯片能够以接近峰值的吞吐量运行,同时严格控制延迟。
但TPU的性能优势却使其灵活性较差,这也是ASIC芯片的共同属性。
3、灵活的FPGA FPGA的全称是Field Programmable Gate Array:现场可编程门阵列。
FPGA集成了大量数字电路的基本门电路和存储器。
用户可以通过烧录配置文件来定义它们之间的连接,从而达到定制电路的目的。
通俗地说,与TPU相比,虽然TPU也是根据特定需求设计的ASIC,但它就像雕刻一尊雕像,雕刻后就无法改变;而FPGA就像乐高积木一样,可以模仿任何硬件电路,并且可以有多种用途。
变化。
凭借这一特性,FPGA的设计和部署周期比TPU更短,只需6个月左右,并且更灵活地适应多种需求。
而且,FPGA不像GPU那样依赖冯·诺依曼结构。
一次计算的结果可以直接输入到下一次计算,而不需要暂时保存在主存中。
因此,不仅内存带宽要求低,而且还具有流水线处理的特点。
,大大降低了输入与输出之间的延迟比。
虽然FPGA的架构带来了应用的灵活性,但在执行操作的效率方面远不如ASIC。
FPGA的计算电路基于查找表。
例如,FPGA内部有数以万计的定制逻辑组件。
一个4输入查找表单元需要96个晶体管来支持,但估计在ASIC上实现它只需要大约10个。
这些问题也导致了FPGA芯片面积更大、功耗更高。
4、AI芯片热潮 看完以上几家巨头研发的AI芯片的优缺点,我们可以感受到,目前还没有一款芯片是“世界独一无二”的,各类芯片都有自己的优点和缺点。
人工智能是下一次技术革命的核心技术。
全球各地的企业都在致力于人工智能芯片的研发,并期待成为该行业的领导者。
国外企业如火如荼,中国企业也不甘落后。
目前已涌现出地平线、寒武纪、深鉴科技、中天微等一批明星初创企业。
数据显示,仅去年下半年,芯片制造巨头台积电的生产线上就有超过30颗AI芯片排队等待流片。
随着很多公司涉足这个行业,我们可能期望未来有一种芯片能够在GPU、ASIC、FPGA的优缺点中找到高灵活性、强计算能力、低能耗、低成本之间的平衡点筹码。