当前位置: 首页 > 科技观察

IBM使用GPU将机器学习效率提高十倍

时间:2023-03-13 20:04:54 科技观察

IBM与EPFL的研究人员合作,创建了一种处理大数据集以训练机器学习算法的新方法。这种新算法称为基于对偶间隙的异构学习(DuHL),能够每60秒推送30GB数据,比以前的方法提高10倍。通常,需要数TB的内存来模拟某些机器学习模型。所需的硬件非常昂贵,即使建立了操作,计算能力仍然是研究人员面临的问题。运行数天甚至数周的测试使得研究人员很难按小时租用机器学习硬件。多年来,GPU一直在进行并行计算,但目前的显卡不具备IBM研究所需的TB级内存。目前对于GPU来说,节点划分计算要求有不同的方法,但并不是所有的任务都适合分配。作为回应,IBM现在允许其机器学习工具随着算法的进展改变对各个数据片段的调用。简而言之,过去的成就将贯穿整个验证阶段,以便向系统提供反馈,使系统比以前更快地指向正确的方向。在初始测试期间,IBM使用了带有8GBGDDR5显存的NVIDIAQuadroM4000显卡。在这款经济实惠的专业显卡上,IBM展示了与标准顺序操作方法相比,使用DuHL系统可以将支持向量机训练速度提高10倍以上。