刚刚,JeffDean在推特上发文称谷歌第三轮超硬核年终总结出炉!第一集:《超详细超硬JeffDean4字总结火爆!图解谷歌2022年AIGC、LLM、CV成就》第二集:《谷歌2022年度回顾:让AI更负责任,主要做了4一点点工作”伟大的机器学习研究需要伟大的系统。随着算法和硬件变得越来越复杂,操作规模越来越大,执行日常任务所需的软件也越来越复杂。在这篇文章中,研究人员概述了过去一年中谷歌ML系统的众多进步,这些进步使谷歌能够支持复杂模型的服务和训练,同时降低最终用户的实施复杂性。同时,文章还提到了谷歌如何利用ML本身来改进和设计下一代系统栈的研究。机器学习编程语言对于机器学习的工作以及基础架构的稳健性和正确性至关重要。谷歌一直在努力确保基础设施建立在坚实的技术和理论基础之上。并且,在它的支持下,谷歌一直在进行编程语言和构建编译器的前沿研究。谷歌将继续投资于开源MLIR编译器的基础设施,以构建更可控、可组合和模块化的编译器堆栈。论文地址:https://research.google/pubs/pub49988/此外,谷歌在稀疏线性代数的代码生成方面也取得了长足的进步,现在几乎可以从同一个MLIR程序中生成密集和稀疏代码。最后,谷歌还继续开发IREE编译器,它既可以用于位于数据中心的强大计算机,也可以用于智能手机等移动设备。IREE的端到端过程在更理论的层面上,Google探索了形式化和验证其使用的代码生成技术的方法。谷歌还发布了一种实现和形式化自动微分(AD)系统的新方法,这是ML库的核心。源码转换Google将逆向模式下的AD算法分解为三个独立的程序转换,变得更简单,更容易验证,从而凸显了JAX实现的独特性。反向模式自动微分作为前向微分、解压缩和转置使用抽象解释和程序合成等编程语言技术,谷歌成功地减少了执行神经架构搜索(NAS)所需的资源数量。这
