当前位置: 首页 > 科技观察

更大,更大,再更大:长此以往,人工智能研究是不是死路一条?

时间:2023-03-21 00:13:03 科技观察

大数据文摘来源:techtalks编译:木津、曹培鑫、钱天培计算能力的增强为人工智能的发展铺平了道路。借助强大的云计算平台,人工智能研究人员能够在更短的时间内训练出更复杂的神经网络,从而推动人工智能在计算机视觉、语音识别和自然语言处理等多个领域取得进步。与此同时,很少有人提到这种趋势对人工智能研究的负面影响。目前,人工智能的进步主要体现在深度学习模型和更多层数、更多参数的神经网络的研究上。据OpenAI称,自2012年以来,用于最大人工智能训练的计算机数量呈指数级增长,大约每3到4个月翻一番,这意味着该指标在七年内增长了300,000倍。这种趋势严重限制了AI研究,并且还产生了其他不良影响。就目前而言,“大”是好的OpenAI研究人员表示,在很多领域,更多的计算能力代表着更好的性能,往往是对算法的补充。我们可以在许多项目中看到,研究人员将他们取得的进展归因于投入更多的计算机来解决这个问题。2018年6月,OpenAI推出了一款能够玩专业级复杂即时战略游戏Dota2的AI。这个名为OpenAIFive的人工智能参加了一场大型电子竞技比赛,但在决赛中输给了人类选手。OpenAI研究实验室今年推出的改进版OpenFive赛季回归,最终战胜人类选手夺得冠军。AI相关研究人员透露,与周六在2018年国际公开赛上的失利相比,OpenFive的胜利主要归功于8倍的训练计算量。有很多类似的例子表明,通过增加计算量可以得到更好的结果,而这种做法对于强化学习也确实如此。目前,强化学习也是人工智能研究领域最热门的方向之一。训练大型AI模型的财务成本财务成本直接影响训练AI模型。OpenAI网站上的一张图表显示,该公司以1,800petaflop/s-days的速度训练DeepMind的围棋AIAlphaGoZero。flop代表浮点运算,petaflop/s-day(pfs-day)表示每天1020次运算。谷歌的TPUv3处理器是人工智能任务的专用处理器,每天可处理0.421020次运算,每小时收费2.4至8美元。这意味着训练AlphaGo模型大约需要246,800美元到822,800美元,而这只是纯计算操作的成本。该领域的其他显著成就也付出了类似的代价。例如,根据DeepMind发布的数据,其用于玩星际争霸的AI由18个部分组成,每个部分都使用16个谷歌的TPUv3处理器进行了14天的训练,这意味着按照目前的价格,该公司花费了774,000美元来训练AI来玩星际争霸。将AI研究商业化AI的计算需求为进入该领域的公司设置了进入壁垒。总部位于英国的知名人工智能实验室DeepMind的成功,主要得益于其母公司谷歌的巨大资源投入。2014年,谷歌以6.5亿美元收购DeepMind后,提供了充足的资金支持和技术协助。根据DeepMind向英国公司注册处提交的文件,今年早些时候,DeepMind公布2018年亏损5.7亿美元,高于2017年的3.41亿美元。DeepMind今年还欠债10.4亿英镑,其中8.83亿英镑来自Alphabet。另一个是“烧钱大户”的是OpenAI。它最初是一个非营利性人工智能研究实验室,于2016年从SamAltman和ElonMusk那里获得了10亿美元的资金。今年早些时候,OpenAI转变为一个营利性人工智能研究实验室以接受投资者的资金。该实验室支持其研究的资金即将告罄,今年微软宣布将向该实验室投资10亿美元。正如目前的趋势所示,人工智能研究(尤其是强化学习)的成本使得这些实验室越来越依赖谷歌和微软等富有的公司。这种趋势正在迫使人工智能研究的商业化。随着商业组织在资助人工智能研究实验室方面变得越来越重要,它们甚至可以影响研究方向。目前,像谷歌和微软这样的公司在经济上有能力运营像DeepMind和OpenAI这样的人工智能研究实验室,但他们也希望在不久的将来扭亏为盈。问题是,OpenAI和DeepMind都在追求像通用人工智能(AGI)这样的科学项目。这是人类尚未完全理解的领域,更不用说实现了。大多数科学家认为,人类距离实现通用人工智能至少还有一个世纪的时间,这个时间表将考验最富有的公司的耐心。人工智能研究实验室的一种可能情况是,将他们的目标从长期的学术和科学研究逐渐转移到具有短期收益的商业导向项目,这会让他们的投资者高兴,但对人工智能的一般研究不利。OpenAI研究人员表示:“我们对未来计算机在AI系统中的使用非常不确定,但也很难断言计算能力快速增长的趋势会停止,我们也看到了导致这一趋势的诸多因素据此分析,我们认为政策制定者应该考虑增加对AI学术研究的资助,因为很明显,某些类型的AI研究对计算的要求越来越高,因此成本也越来越高。人工智能研究的碳排放训练大型人工智能模型所需的计算资源消耗大量能源,这也有助于碳排放。根据马萨诸塞大学阿默斯特分校研究人员发表的一篇论文,训练一个具有2.13亿个参数的Transformer模型(常用于与语言相关的任务)造成的污染相当于开五辆汽车到生命尽头的总排放量。Google著名的BERT语言模型和OpenAI的GPT-2分别有3.4亿和15亿个参数。鉴于目前AI研究被“越大越好”的口号所主导,环境问题只会增加。不幸的是,AI研究人员很少报告或关注他们工作的这些方面。麻省理工学院的研究人员建议AI论文披露他们模型的环境成本并给出让公众更好地了解他们的研究对环境的影响。人工智能领域的惨痛教训ligence对更大更复杂的神经网络的最后一个担忧是它可能会对人工智能研究的方向产生负面影响。目前,人工智能中的一些障碍主要通过使用更多数据和训练来解决。同时,就人脑和人工智能处理一些相同的最简单任务而言,大脑消耗的能量要比人工智能少得多。过度依赖不断增长的计算能力可能会阻止我们找到新的、更有效的人工智能解决方案。结合神经网络和符号AI的混合AI模型的开发是该领域的一个有趣领域。符号人工智能是经典的、基于规则的人工智能,与神经网络不同,它不会通过添加计算资源和数据来扩展。它还在现实世界中与杂乱无章的非结构化数据作斗争,但它擅长知识表示和推理,这是神经网络严重缺乏的两个优势。探索混合AI的想法可能会为发明更具资源效率的AI开辟新途径。在此,我们不再赘述。感兴趣的读者可以看看GaryMarcus和ErnestDavis的新书《重启人工智能》(RebootingAI),以及计算机科学家JudeaPearl的新书《为什么》(ThebookofWhy)。“越大越好”的思想开始将AI研究引向深渊。科学界不应该等到下一个人工智能寒冬才开始认真思考这些问题。相关报道:https://bdtechtalks.com/2019/11/25/ai-research-neural-networks-compute-costs/id:BigDataDigest)》】点此查看作者更多好文