当前位置: 首页 > 科技观察

基于GPU的人工智能和机器学习应用

时间:2023-03-14 20:48:43 科技观察

【.com快译】如今,图形处理单元(GPU)在一些有趣的人工智能和机器学习应用中发挥着越来越重要的作用。GPU不断拓展人工智能和机器学习应用人工智能(AI)无疑将改变全球生产力、工作模式和生活方式,创造巨大财富。根据研究公司Gartner的预测,到2022年,全球人工智能市场将从2020年的约1.2万亿美元快速增长至约3.9万亿美元;而麦肯锡公司预测,到2030年,全球人工智能市场规模将达到约13万亿美元。当然,这种转变是由强大的机器学习(ML)工具和技术驱动的,例如深度强化学习(DRL)、生成对抗网络(GAN)、梯度提升决策树模型(GBM)、自然语言处理(NLP)等.现代人工智能和机器学习系统的成功在很大程度上取决于它们用于并行处理大量原始数据的任务优化硬件的能力。事实上,人工智能的现代复兴始于2012年的ImageNet竞赛,深度学习算法在图像分类精度方面比非深度学习算法取得了惊人的进步。然而,专用硬件的使用,以及巧妙的编程和数学建模,在人工智能的早期成功中发挥了重要作用。计算机视觉(CV)的进步继续推动许多人工智能和机器学习系统的发展。计算机视觉(CV)越来越广泛地应用于制造、自动驾驶、医疗保健等各个行业,使组织能够彻底改变机器和业务系统的工作方式。几乎所有的计算机视觉(CV)系统都已从传统的基于规则的编程模型演变为大规模、数据驱动的机器学习模型。因此,基于GPU的硬件通过帮助处理通常超过PB级的大量训练数据,在确保高质量预测和分类方面发挥着关键作用。本文将介绍一些最受关注的人工智能和机器学习应用领域,这些专用硬件,尤其是GPU,将在这些领域发挥越来越大的作用。人工智能和机器学习中最受关注的一些领域是:自动驾驶。医疗保健/医学成像。抗击疾病,发现药物。环境/气候科学。为什么GPU在这些任务中大放异彩?现实表明,通用CPU在处理大量数据(例如,对具有数万或数十万浮点数的矩阵进行线性代数运算)时往往会吃力。深度神经网络主要由矩阵乘法、向量加法等运算方法组成。开发GPU(主要用于视频游戏)是为了使用数千个微型计算核心处理大规模并行计算。它们还具有大内存带宽来处理快速数据流(处理单元缓存到较慢的主内存并返回),同时计算密集型神经网络训练了数百个纪元(Epochs)。这使得GPU成为处理计算机视觉任务计算负载的理想硬件。GPU针对许多框架和计算领域进行了优化。GPU的通用架构适用于作为深度学习算法核心的特定类型的计算任务。然而,一旦这种协同作用被研究人员和开发人员充分利用和证实,GPU制造商(如Nvidia)便投入大量资金和人力,为各种应用场景开发更多高性能和高速的GPU。优化的显卡。它还确保他们的应用软件和固件堆栈不断更新,以与现代高级编程框架无缝集成,使全球数百万开发人员更容易利用GPU的强大功能。下图展示了NVIDIAGPU产品正在优化的各种深度学习框架的生态系统。此外,根据功率与性能的权衡,GPU(和相关内存)架构可以针对广泛的计算领域进行优化设计,从学术实验室使用的桌面工作站到工业物联网或自动驾驶中使用的边缘计算机汽车。Nvidia网站上的这张图片有助于说明这一点:自动驾驶中的人工智能和机器学习自动驾驶对于机器学习系统来说是一个极具挑战性和复杂的行业领域。自动驾驶汽车使用大量具有各种功能的传感器来收集有关道路状况、其他车辆、行人、骑自行车者、道路标志、出口、高速公路标记、路边商店和许多其他变量的信息。这些信息大部分是基于图像的(使用安装在不同地方的多个摄像头)。其他信息可能是来自LiDAR或其他类型传感器的数据流。自动驾驶汽车的用例也非常具有挑战性,因为它不仅包括物体检测,还包括物体分类、分割、运动检测等。除此之外,机器学习系统需要在几秒钟内完成这种图像/视觉处理并将其决定传达给负责最终驾驶任务的更高级别的监控系统。此外,在任何自动驾驶系统中,通常会采用多个此类计算机视觉(CV)系统/算法。在这些情况下对并行处理的需求很高,这给处理数据的计算机带来了更大的压力。如果同时使用多个神经网络,它们可能共享公共系统内存并相互竞争公共资源池。此外,该领域还有高度专业化和优化的片上系统(SoC)平台。以下是对NVIDIADRIVEAGX的描述:“NVIDIADRIVE?AGX嵌入式超级计算平台处理来自摄像头、雷达和激光雷达传感器的数据,以感知周围环境、在地图上定位汽车,并规划和执行安全的前进道路。这个AI平台支持自动驾驶、车载功能、驾驶员监控和其他安全功能——所有这些都集成在一个紧凑且节能的封装中。”医疗保健中的人工智能和机器学习(医学成像)在医学成像的背景下,计算机视觉系统的性能由经验丰富的放射科医生和了解病理图像的临床医生来判断。此外,在大多数情况下,他们的任务涉及识别非常罕见的疾病流行率低。这使得训练数据稀疏(没有足够的训练图像)。因此,深度学习(DL)架构必须通过添加巧妙的处理和复杂的架构来弥补这一点。当然,这会导致计算复杂性增加。磁共振成像(MRI)和其他先进的医学成像系统正在采用机器学习算法,这些算法越来越多地成为癌症检测的第一道防线。面对海量数字化数据,放射科医生往往寡不敌众,而基于机器学习的系统是帮助他们进行决策的完美选择。据一位在《自然》期刊发表的文章中,放射科医生需要在8小时的工作日内每3到4秒解读一张??X光图像,以满足工作量要求。如今,医学影像数据如此丰富,以至于深度学习(DL)算法可以提供不断扩展的医学图像数据集,以发现异常并像训练有素的放射科医生一样解释结果。可以训练此类算法对常规和异常发现进行分类,例如识别皮肤上的可疑斑点、病变、肿瘤和脑出血。但对数百万训练样本进行分类并正确识别它们需要借助GPU优化的软硬件系统。人工智能和机器学习对抗疾病(药物发现)业内专家指出,冠状病毒等全球性大流行病大多是由病毒引起的。在基本结构层面,这些病毒主要由一条或几条DNA/RNA链组成。确定3D蛋白质结构,即来自基因测试数据的氨基酸分子序列,是开发某些类别(亚基和核酸类型)疫苗的关键。如果尝试使用传统的蛋白质折叠算法,则此任务在计算上是不可行的(无论投入多少硬件资源)。人工智能,通过最新的深度强化学习(DRL)和贝叶斯优化技术,可以在帮助解决这一挑战方面发挥重要作用。对此,谷歌深度学习研究部门DeepMind推出了AlphaFold,这是一个基于深度强化学习(DRL)的系统,可以根据蛋白质的基因序列预测其3D结构。2020年3月上旬,该系统进行了冠状病毒检测测试,DeepMind的人工智能研究人员能够基于该系统发布与SARS-CoV-2相关的几种未被研究的蛋白质的结构预测,以帮助临床和病毒学研究社区工作更好地了解病毒及其对人类生物学的影响。2020年11月,该系统在名为CASP(结构预测关键评估)的两年一度的蛋白质结构预测挑战赛中胜过其他100个团队开发的系统。但实现这些令人印象深刻的突破性性能是以部署更多GPU驱动的硬件为代价的。虽然很难估计用于训练AlphaFold的计算能力,但据行业媒体报道,其著名的前身AlphaGo在一场著名的围棋挑战赛中同时使用了数百个CPU和GPU,并击败了围棋世界冠军李世石。人工智能和机器学习应用于环境和气候科学气候变化是21世纪人类面临的最深刻的生存危机之一。了解这一划时代的全球事件的影响需要收集大量科学数据、高保真可视化能力和强大的预测模型。因此,天气预报和气候建模处于人类应对气候变化的前沿。但这种建模并不容易。至少就大数据分析和科学模拟能力而言,这种规模的问题对于今天的硬件和软件堆栈来说是难以解决的。在美国,大多数天气预报服务都基于一个称为天气研究和预报(WRF)的中等综合模型。该模型适用于从几十米到数千公里的广泛气象应用。因此,此类综合模型必须处理无数与天气相关的变量及其高度复杂的相互关系。事实也证明,用一组统一的分析方程来描述这些复杂的关系是不可能的。相反,科学家们尝试使用一种称为参数化的方法来近似方程,在这种方法中,他们在比实际现象更大的范围内对关系进行建模。深度学习的魔力能解决这个问题吗?阿贡国家实验室的环境科学家和计算科学家正在合作使用深度神经网络(DNN)来取代天气研究和预报(WRF)模型中的一些物理解决方案。参数,希望在不影响保真度和预测能力的情况下显着减少建模时间。他们正在利用支持GPU的高性能计算(HPC)节点的力量来进行这项计算密集型研究。一篇新闻文章介绍了有关ArgonneLeadershipComputingFacilit(ALCF)的一些细节:“ALCF已开始在ThetaGPU上分配时间用于批准的请求。ThetaGPU是Theta的扩展,由NVIDIADGXA100节点组成。每个DGXA100节点都配备了八个NVIDIAA100TensorCoreGPU和两个AMDRomeCPU,提供320GB(总共7680GB)的GPU显存用于训练AI数据集,同时还支持GPU专用和GPU增强型HPC应用程序进行建模和仿真。制造原材料、商品和零件的移动是任何制造系统的核心业务。在计算和信息技术革命之后,人们意识到只有在信息处理引擎的监督下以精确的方式控制这些物品的移动才能达到最佳效率。因此,软件与硬件的创新结合,将传统行业带入了智能制造时代。随着计算和存储的成本和操作复杂性呈指数下降,由人、机器、控制器、工厂、仓库和物流机械生成的信息内容的规模和复杂性呈爆炸式增长。现在,人工智能和机器学习领域的创新理念已经将许多制造组织从淹没在海量数据中解救出来,并帮助他们分析和理解每天必须处理的数EB数据。深度学习技术用于多个领域——设计、质量控制、机器/流程优化、供应链、预测性和预防性维护等。鉴于数据生成和处理要求的数量和速度迅速增长,这些AI/ML系统中的大多数都使用GPU驱动的工作站和云计算资源。使用GPU的人工智能和机器学习应用概述越来越多的行业部门在其运营和研发中采用强大的人工智能/机器学习工具和平台。本文仅讨论其中的几个,并研究基于GPU的系统的强大功能和灵活性如何支持AI在各个行业领域的应用。从这一趋势来看,可以自信地说,定制AI/ML硬件解决方案(如深度学习工作站)的市场和选择在未来几年将继续快速增长。原标题:ApplicationsforGPU-BasedAIandMachineLearning,作者:KevinVu