当前位置: 首页 > 科技观察

新冠病毒会影响AI吗?人工智能的常态离不开人为干预

时间:2023-03-21 15:49:18 科技观察

本文转载自公众号“读书芯”(ID:AI_Discovery)新冠期间,基于人工智能技术的系统出现了一些问题。病毒能感染人工智能吗?当然不是,受影响的是人类。如果没有人为干预,人工智能和机器学习系统都无法正常运行。人工智能听起来离我们很远,但其实每个人在生活中都经历过。从Netflix的定制推荐到Spotify的个性化播放列表,再到可以管理购物清单和应用程序的类似Alexa的语音助手。这些例子都说明了集成的人工智能系统是如何进入人类生活的。从商业的角度来看,很多公司都会在人工智能和机器学习上投入巨资。无论是自动化重要业务流程、建立多渠道供应链,还是为客户联络团队赋能聊天机器人,基于人工智能的系统都可以大大减少人工和企业成本,从而实现更高的盈利能力。看似刀枪不入的AI,却被发现有弱点?麻省理工学院的作者威尔·道格拉斯最近在一篇文章中指出:在新冠病毒流行期间,基于人工智能的系统表现不佳。病毒不直接影响人工智能,而是影响人类。如果机器学习算法经常用于管理库存、客户支持和其他功能,那么系统可能会经过良好的训练,足以在没有人为干预的情况下高效运行。但这种说法只是部分正确,因为机器学习算法并未针对大流行的“新常态”进行训练。大流行彻底改变了世界,包括供需模式和一般买家行为。几天之内,卫生纸、口罩和洗手液成为亚马逊全球搜索量最大的商品,而手机充电器和乐高积木等长期热销商品的热度则大幅下降。这些惊人的变化影响了人工智能。许多基于常规行为训练的机器学习模型突然面临大量偏差而无法正常工作。疫情前值得关注的人工智能失败案例过去几年人工智能应用的优化可圈可点。但是,当机器由于某种或某些原因无法正常工作时,就会出现问题。例如,IBM的“WatsonOncology”本应治愈癌症,结果却成了一个荒谬的产品。发现该产品给出了虚假的医疗建议,可能会使患者的病情恶化,因此被停产。人们发现,沃森接受了少量“人工癌症病例”而非真实患者数据的训练。即使是建议也应该基于一些癌症专家的专业知识,而不是任何书面指南和证据。另一个案例是亚马逊的招聘引擎对白人男性有偏见。该模型是根据发送给亚马逊的十年简历进行训练的,并以当前工程师为基准。从根本上说,经过训练的模型在招聘时偏向于男性。知情人士称,该系统对包含“女性”字样的简历进行了不公平对待,并对两所女子学院的简历进行了降级处理。回到现在的疫情,以一家卖消毒液的公司为例。零售商自动库存管理系统预测的合作企业(基于用户行为的预测算法生成)与疫情期间的实际需求不再匹配,这将导致严重的问题。供需不平衡。事实上,当全球供应链受到影响,企业面临新的需求状况时,人们应该重新考虑在销售和费用预算中使用的人工智能模型。由于当前的经济和社会条件创造了“新常态”,曾经输入机器学习模型的数据和假设不仅不再适用,而且可能导致严重错误。人为干预对于人工智能的成功至关重要。机器学习系统的质量取决于用于训练它的数据质量,这意味着今天的黑天鹅事件促使人们重新构想人工智能——机器学习系统的导入。训练集在.很多专家认为,训练人工智能不应该只根据单一的最坏情况表现,还应该根据人类历史上的转折事件,比如1930年代的大萧条、2007-2008年的金融危机、当前的流行病。人工监督可以在很大程度上克服人工智能的缺点。近几个月来,人们对健康的担忧越来越多,加之社交媒体上疫情传闻不断。许多人无法区分真假新闻,这在现实世界中造成了严重的后果。大家只知道指责Facebook的算法推送假新闻影响美国大选。事实上,人工监督可以阻止假新闻的传播。读者可以点击新闻来源,辨别真假,揭露假新闻,防止其传播。.今天,尽管人类试图让人工智能模仿人类,但人工智能仍然不可能在没有监督的情况下单独运作。机器毕竟是机器,它们不受道德和社会标准的约束。在最好的情况下,人工智能基于其训练的良好数据表现良好;反过来,人工智能也可以反映其创造者的偏见、思维过程或道德标准。为了克服这些问题,需要用不同的数据集训练人工智能,并加入人工检测。前面的路还很长很长。