当前位置: 首页 > 科技观察

芯片巨头正在偷偷研发这些新AI技术,不比拍照有意思

时间:2023-03-19 17:23:13 科技观察

芯片巨头们正在秘密研发这些新的人工智能技术,这些技术并不比拍照更有趣。不知道大家有没有这样一种感觉,芯片的性能就要遇到瓶颈了。就芯片制程而言,从7nm到5nm再到3nm,越来越接近摩尔极限。于是,不少厂商开始尝试利用AI为芯片性能提供灵感。从神经拟态到用AI设计芯片,人们在尝试各种技术路线。在这种情况下,哪些新的AI技术最有可能应用于下一代芯片?就此,我们采访了高通工程技术副总裁侯继磊。侯继磊博士毕业于加州大学圣地亚哥分校,在高通工作了19年。现任高通人工智能研究项目负责人,负责高通人工智能研究的技术创新规划。采访中,侯博士分享了高通AI研究在基础、平台和应用三个研究方向上的一些首发技术成果。其中,基础研究主要侧重于AI前沿和基础技术研究,如神经压缩、AI+量子计算相关领域的探索;平台研究主要从平台能力和创新的角度推动人工智能技术的发展,提高能效,开展端到端的学习,如量化技术和联邦学习;应用研究包括移动视频AI技术和3D+AI技术,涵盖智能手机、XR、自动驾驶等各行业应用领域的技术研究。同时,侯博士还分享了高通这个将AI技术快速应用到芯片上的“AI狂魔”的诸多秘密。让我们来看看。芯片制造商正在悄悄开发这些新的人工智能。虽然高通最广为人知的AI技术是量化,但要看到最新的技术,还得从高通AI研究的顶级会议论文中寻找。从论文来看,高通相对专注的AI基础技术可能是以下四个方向:神经增强、弱监督学习、神经推理和量子AI。让我们来看看高通公司已经在无线通信中使用的神经增强技术。有两种主要的方式来处理无线通信信号。一种是用传统的过滤器制定出一套公式,另一种是用AI直接训练和预测结果。前者不准确,后者训练数据过多。高通选择将两者结合起来,在保留传统滤波器的基础上,让AI学会自己调整参数。没错,就是教AI自己做大侠,熟练应用和掌握那些看似晦涩难懂的公式,类似于应用卡尔曼滤波器的场景,让AI学会调整里面的QR参数.还是以麦克斯韦方程为例,高通选择保留y=x*H模型的线性,同时利用AI学习H的分布:如果类似的技术可以用在手机基带上无线通信,信号可能会进一步增强。而神经增强只是高通神经推理研究的一部分。如果AI真的同时具备逻辑思维和抽象能力,那么距离芯片性能的突破也就不远了。说到弱监督学习,这个方向一直是AI技术解决长尾问题和实现新场景的主要趋势之一。就像“让AI自己学习”一样,该技术旨在避免数据标注错误导致的AI精度损失,以及降低标注成本等,利用少量标注数据达到接近甚至超过监督的精度学习。.侯博士介绍了高通去年在MWC上做的一个演示,使用弱标签的方法训练出一个相对高精度的定位模型。而最让人意外的是,这个定位模型并没有通过视觉来学习定位,而是通过射频信号,采用弱监督和自监督的学习方式。室内定位场景需要的信号数据标注比较复杂。采用射频传感方法,采用弱监督学习可以有效节约成本,提高效率。好吧,现在老板只需要用无线信号就知道你在哪个办公室和同事聊天(手动狗头)。让我们来看看神经推理技术。其实这里的推理并不是指简单的模式识别,更像是教AI学习“逻辑推理”,这在概念上有点类似于YoshuaBengio提到的system2(逻辑分析系统)。那么,神经推理与芯片有什么关系,可以应用到哪些方向,高通又进步到哪里了呢?侯博士表示,神经推理是一种结合了符号推理和神经网络优点的思想,使模型既并行又串行,这种思想对计算硬件也有借鉴意义。目前,高通已经使用自回归语言模型取得了一些第一。最后,让我们看看量子人工智能技术。目前,高通主要在两个方面进行研究,一是构建基于AI加速的量子计算机,二是让AI在量子计算机上运行速度更快的新方法。其中,基于AI加速构建量子计算,主要研究方向为群等变卷积神经网络。通过引入群等变卷积神经网络,研究人员提出了一种新的解码方法,比传统解码器效率更高,性能更好。高通在ICML2021上的一项新研究也提出了一种基于量子场论在光量子计算中运行神经网络的新思路。如果未来真的可以用量子计算来运行AI,那么大模型的快速计算将不是梦。那么问题来了,高通正在进行的基础研究是否有可能落地?我们要多久才能使用它?技术的最终意义还是要看应用。事实上,高通AI研究的重点是前沿技术,更关注这些技术是如何实现的。比如早些年AI领域还专注于图像处理的时候,高通就已经实现了视频AI技术,并产生了很多相应的开创性成果。包括视频在移动端超分辨率到4K100+FPS,高通率先实现。那么在这个过程中,高通是如何实现将AI论文落地到芯片应用中的呢?这就得回到高通AI研究的三大布局:基础研究,涉及量子AI、强化学习、群等可变卷积神经网络等,着眼于遥远的未来,通常更基础。平台研究,包括软硬件协同设计、AI模型效率工具包、模型量化、压缩和神经架构搜索等,以实现最佳能效、性能和延迟。应用研究是指将人工智能基础研究和平台研究的成果用于某些特定用例,包括视频识别和预测、指纹识别、图形深度学习、视觉质量提升等。一方面,高通一直在推动以平台研究技术实施应用研究。以模型量化为例。这是高通人工智能研究院过去几年研究的核心技术之一。目的是让AI模型“瘦身”。在实际应用场景中,由于受限于功率、算力、内存和散热能力,手机使用的AI模型与PC上的AI模型有很大的不同。在PC上,GPU消耗数百瓦的功率,而AI模型的计算可以使用16位或32位浮点数(FP16、FP32)。手机SoC功率只有几瓦,难以存储大容量AI模型。这时候就需要将FP32模型缩减为8位整数(INT8)甚至4位整数(INT4),同时保证模型精度不会损失太多。以AI抠图模型为例,我们通常可以通过计算机处理器的计算能力实现非常精准的AI抠图。模型量化方法。值得一提的是,高通将在2020年开源基于模型量化快速部署的AI模型增强工具包(AIMET)。这包括ICML和ICCV在同年和去年收录的技术方法。量化的结果之一是,更多面向应用的AI模型被“压缩”和优化,然后以加速的速度部署到芯片上。例如,在视频语义分割方面,首次在移动端实现FHD分辨率的实时街景;在神经视频压缩方面,首次在移动端实现实时高清解码……从这些行业率先落地的结果,可以直观感受到高通AI考虑结合研究前沿的学术和应用需求。侯继磊博士在接受采访时表示,从最初发现高通的AI技术,到形成开源或商业生态系统,只需要2-3年的时间。另一方面,从应用和平台需求上倒推基础研究技术的进步,催生出更多的交叉领域。例如,联邦学习和图像预内核优化是基础研究和平台研究交叉产生的领域;音视频压缩、无线领域人工智能、射频感知等,都是基础研究与应用研究相结合的体现。也就是说,高通对基础、平台、应用的研究,已经完整地涵盖了支持边缘AI的AI技术实现所需的算法模型、数据、软硬件、应用场景。全栈AI研究路线,并首次在移动端展示概念验证。以此方式,高通希望通过研究“可应用落地的AI”,快速推动技术落地的进程。侯博士表示,实际上,高通本身会在平台和应用上投入更多。此外,在基础研发过程中,产品团队也会深度参与,让技术人员更好地了解应用需求。AI从研究到实现往往非常复杂,需要考虑更多现实世界的问题(比如长尾场景等)。高通AI研究的目的不仅仅是技术创新,更是实际场景应用的创新。目前,高通首批AI研究成果已经落地的有这么多。可以看出,高通AI研究比首创技术更致力于在终端上成功运行这些成果。比如前段时间发布的骁龙X70就是这样一个过程问世的。作为全球首款引入AI处理器的5G调制解调器和射频系统,骁龙X70有望融入骁龙年度8系旗舰平台。猜猜,下一代5G手机的信号、图像、音视频处理等技术会不会更强?你最期待哪些顶级AI技术应用到手机上?