6月28日,字节跳动火山翻译团队宣布推出LightSeq训练加速引擎,并向全球开发者开源。
这是业界第一个完全支持整个Transformer模型流程加速的训练引擎。
最快可提速3倍以上,帮助从业者大幅提升模型制作效率。
Transformer是自然语言处理、计算机视觉等AI技术领域最常用的基础模型。
它广泛应用于机器翻译、文本生成、文本摘要、图像处理和时间序列预测等任务。
训练和推理是人工智能技术的两个主要过程,相当于学习知识和解决问题。
由于硬件资源限制,一些大学实验室和中小型公司无法训练大型模型,而减少batch size等措施会导致训练时间加倍。
如何利用有限的资源尽快训练模型已成为计算机研究人员和开发人员共同关心的问题。
据悉,LightSeq训练加速引擎可以支持Transformer的完整加速,从词嵌入层、编码层、解码层到最终的损失函数层,这是业界首次实现全流程支持。
而且LightSeq的训练速度极快。
与主流序列生成库相比,LightSeq仅需三分之一的时间即可完成训练。
霍山翻译团队负责人表示,LightSeq训练加速引擎功能全面、简单易用,并提供丰富的二次开发工具。
用户可以通过插入自定义层或修改一些命令行参数,轻松在各种流行的训练库上使用 LightSeq。
字节跳动持续投入开源社区建设,开源了机器学习平台Klever、联邦学习平台Fedlearner、高性能分布式训练框架BytePS等重大项目。
年底,霍山翻译团队开源了LightSeq推理加速引擎。
这款开源的LightSeq训练加速引擎彻底打通了Transformer模型从训练到推理部署的整个流程。
“开源是推动科技进步的重要力量,我们从开源中受益,也需要为开源社区做出贡献。
”该负责人表示,字节跳动已将LightSeq系列项目开源,并与各界分享技术成果,希望对广大科研工作有所帮助。
节省人员时间和成本,为激发学术界和工业界创造力提供有力支撑。