业内称,ChatGPT式搜索将使谷歌的成本增加十倍,每年多花费数十亿美元在搜索界面中集成人工智能聊天机器人功能。但对于科技巨头来说,聊天机器人式的搜索引擎会使运营成本增加10倍,带来数十亿美元的支出。整个科技行业的高管都在讨论运行像ChatGPT这样的人工智能的高昂成本。OpenAICEO萨姆奥特曼(SamAltman)曾在推特上表示,ChatGPT与用户每次对话几美分甚至更多的计算成本是“难以承受的”。谷歌母公司Alphabet董事长JohnHennessy在接受采访时表示,虽然微调可以帮助快速降低成本,但“与大型语言模型等AI交换信息的成本可能与标准关键字搜索功能一样多。Alphabet2022年净利润的10倍多接近600亿美元。分析师表示,即使基于聊天机器人的搜索业务产生广告收入,该技术也可能对Alphabet的利润产生不利影响,并产生数十亿美元的额外成本。投资银行斯坦利估计,谷歌去年3.3万亿次搜索查询的成本约为每次0.55美分,这个数字只能或多或少取决于AI必须生成的文本量。分析师估计,如果“AI像ChatGPT这样的聊天机器人可以用50个单词的答案处理当今搜索的一半查询量,”到2024年,这将使谷歌每年额外花费60亿美元。其他分析师也有类似的看法。专注于芯片技术的研究和咨询公司SemiAnalysis表示,考虑到谷歌新的张量处理单元和其他优化,将ChatGPT式人工智能添加到搜索中可能会使Alphabet额外花费30亿美元。.这种人工智能比传统搜索引擎更昂贵的原因是因为涉及更高的计算能力。分析人士表示,这种人工智能依赖于成本数十亿美元的芯片,成本需要在几年的使用寿命内摊销。消耗的电力也将增加公司运营成本和碳排放指标的压力。处理AI搜索查询的过程称为“推理”,每次执行搜索时都会启动模拟人脑的巨大神经网络,生成一堆文本并可能查询大型搜索索引以获取事实信息。“你必须降低推理成本,”Alphabet的Hennessy说,称其为“最坏情况下的几年”。尽管运营费用高昂,Alphabet仍需考虑如何应对来自其他科技公司的挑战。本月早些时候,竞争对手微软展示了将人工智能聊天机器人嵌入其Bing搜索引擎的计划。据Similarweb估计,微软高管的目标是谷歌高达91%的搜索市场份额。微软首席财务官艾米胡德告诉分析师,随着改版后的必应上线,用户数量和广告收入增加带来的好处已经超过了成本。“对我们来说,即使以我们正在谈论的服务成本计算,毛利率也是递增的,”胡德说。搜索引擎You.com的首席执行官RichardSocher表示,增加AI聊天体验以及图表、视频和其他生成技术应用程序将使运营费用增加30%至50%。但“随着时间的推移,这项技术会变得更便宜,”他说。一位接近谷歌的消息人士警告说,由于运营效率和使用情况,现在确定聊天机器人的确切成本还为时过早。会是因为涉及的技术差异很大,搜索产品早就用人工智能来提供技术支持。尽管如此,埃森哲首席技术官保罗多尔蒂表示,成本考虑是这家拥有十亿用户的搜索巨头没有立即推出人工智能聊天机器人的两个主要原因之一。“一个是准确性,另一个是你必须以正确的方式扩大规模,”他说。多年来,Alphabet和其他公司的研究人员一直致力于研究如何以更低的成本训练和运行大型语言模型。较大的模型通常需要更多的芯片进行推理,因此运行成本更高。人工智能背后能让消费者趋之若鹜的模式相当庞大。例如,ChatGPT背后的模型有1750亿个参数,每次操作的成本会随着用户查询的时长而不断变化。一位高级技术主管表示,将这种人工智能带给数百万消费者的成本仍然过高。“这些模型非常昂贵,因此下一阶段的进步将降低训练这些模型和推理的成本,以便它可以用于每个应用程序,”这位不愿透露姓名的高管援引一位知情人士的话说与此事。目前,OpenAI的计算机科学家们已经想出了如何通过复杂的代码来优化推理的成本,从而提高芯片运行的效率。一个长期存在的问题是如何在不影响准确性的情况下将AI模型中的参数数量减少10倍甚至100倍。“如何最有效地剔除(参数)仍然是一个悬而未决的问题,”曾领导英特尔人工智能芯片项目的NaveenRao说。与此同时,一些公司正在考虑付费使用人工智能搜索,例如OpenAI升级后的ChatGPT服务,每月收取20美元的订阅费。技术专家还表示,一种解决方法是将较小的AI模型应用于更简单的任务,Alphabet正在探索这种方法。Alphabet本月表示,其LaMDA人工智能模型的“较小版本”将为聊天机器人Bud提供支持,“需要的计算能力要少得多,使我们能够扩展到更多用户。”在上周一的一次会议上,当被问及像ChatGPT和Bud这样的聊天机器人时,Hennessy表示更有针对性的模型而不是万能的系统将有助于“降低成本”。
