当前位置: 首页 > 科技观察

英特尔发布BigDL深度学习框架,拟用CPU对抗GPU

时间:2023-03-21 00:43:46 科技观察

【.com快译】英特尔公司上周发布了BigDL项目,一个开源的Spark驱动的分布式深度学习框架。考虑到各大IT厂商纷纷公布机器学习框架,CPU巨头当然没有理由落后。但最值得关注的并不是英特尔的项目将帮助人们在Spark集群中构建什么样的机器学习解决方案,而是这家芯片巨头与GPU抗争到底的野心。雄心勃勃的BigDL主要针对那些想用机器学习在Spark或Hadoop集群中处理数据的人,尤其是那些已经开始使用Caffe或Torch库的人。BigDL的深度学习解决方案与Torch非常相似。使用BigDL,可以为Spark程序导入和运行由两者创建的模型。此外,Spark允许跨集群扩展此类工作负载。但是,与其他使用GPU加速来实现过程驱动思想的机器学习框架不同,BigDL使用了Intel的MathKernel。包含的数学函数针对多线程执行和英特尔特定处理器扩展进行了优化,芯片巨头在多个项目中引用了它,包括其Python发行版。英特尔声称,BigDL中的处理流程“比基于单节点Xeon的现成开源Caffe、Torch或TensorFlow具有数量级的速度优势(即与主流GPU解决方案相比)。”然而,BigDL库本身并没有任何具体的基准测试结果来支持这一说法。如果GPU加速已经成为机器学习库中的标准加速选项,为什么英特尔没有默认包含GPU支持?乍一看,这似乎是因为Spark不是传统的GPU加速。但这没有意义,因为IBM已经有了相应的项目,商业Spark供应商Databricks去年底在其服务中增加了对GPU加速Spark的支持。理论上,BigDL完全有能力配合GPU加速的Spark,但Intel的整体规划明显不同。硬件之战英特尔一直在高端计算市场上凭借其XeonPhi处理器系列与GPU作战。Intel将其XeonPhi处理器封装成GPU的形式——即PCIe外接卡的形式——并结合OpoenMP、OpenCL等软件工具来实现其硬件的并发和高速处理效果。(英特尔还收购了一家名为Nervana的机器学习硬件制造商,并可能将其产品作为PCIe附加卡提供。)所有这些都意味着开发人员将有更多选择:理论上,运行在XeonPhi上的现有软件可以实现与将其移植到GPU架构相比,代码修改要少得多。这也意味着操作更简单,因为使用XeonPhi附加卡构建的系统可以通过简单地插入卡来升级或扩展,而无需更换整个机架。在这方面,BigDL可以被视为支持英特尔未来发展计划的重要概念验证应用程序之一。然而,行业的整体势头显然有利于GPU——尽管大多数用于GPU加速的软件必须遵循另一家硬件供应商设定的客观标准(Nvidia和CUDA)。另外,考虑到Spark等库已经开始全面引入GPU加速机制,开发者无需付出太多努力就可以享受到它带来的好处。虽然英特尔可以借助BigDL等库获得一定的竞争优势,但从长远来看,机器学习的历史车轮还是朝着GPU支持的方向滚动。原标题:Intel'sBigDLdeeplearningframeworksnubsGPUsforCPUs,原作者:SerdarYegulalp