1956年8月,10位科学家聚集在美国达特茅斯学院,讨论如何用机器模拟人类的感知、推理、决策等智能。这被认为是人工智能诞生的标志性事件。六十年后,人工智能发展迅速,已经深入到我们的日常生活中。一些外卖平台的智能算法不断优化,可以从11万条路线中找到最优的配送方案,将过去一个小时的配送时间缩短到45分钟,再压缩到38分钟,充分挖掘外卖的潜力男孩,只有这样我们才能越来越快地获得外卖。一些公司有OA算法管理系统的加持,可以实时监控员工的工作状态。实时上传员工的心率、呼吸、坐姿、疲劳度等数据。公司的潜力有公司完善的财务报告。有些办公APP,在员工眼里,操作简单、功能齐全,却为老板打开了“上帝之眼”,可以看到各种报表分析、排行榜、工时计算、和旅行路线一目了然。保质保量地完成了“职责”和“祝福”。...为什么科技越发达,我们的生活就越不自由?人工智能是要把我们从繁琐的工作中解放出来,还是反面压迫我们?在《AI会取代我们吗?》一书中,科普记者、神经科学家范雪莉梳理了过去60年人工智能的爆发式发展和未来的发展前景,描述了当前人工智能的局限性以及存在的道德伦理问题,让我们对人类与人工智能的关系有了更清晰的认识。范雪莉接受了中信大方和枣智联合发起的提问,并回答了部分读者的提问:在过去的20年里,AI领域发生了什么让你印象最深刻或者最让你惊喜的事情?人工智能对我们的日常生活有什么影响?您对人工智能的未来有什么担忧或期待吗?人工智能与人类智能最根本的区别是什么?你认为人工智能的发展是一场技术政治较量吗?不完美的算法可能会导致可怕的结果,就像2016年的情况一样,当时一辆半自动驾驶的特斯拉卷入了一起致命的交通事故。处于自动驾驶模式的汽车将一辆白色拖拉机拖车误认为是从逆光看到的明亮天空的一部分,导致它与拖车底部相撞。2018年3月,一辆优步机器人汽车在亚利桑那州坦佩撞死了一名行人。验尸调查发现,人工智能实际上已经检测到这名女性,但算法错误地确定她不在车辆的路径上。不久之后,一辆处于自动驾驶模式的慧魔汽车被人驾驶的汽车撞倒。这件事也给研究人员提出了一个难题:如何改进人工智能驾驶员的程序,使其更加智能。最好与人类司机共享道路而不会发生事故。几个月后,一辆特斯拉ModelS轿车撞上了混凝土墙,造成两名乘客死亡。但是,尽管发生了这些悲惨事故,但自动驾驶汽车安全性的总体统计数据却令人眼前一亮。例如,辉墨的汽车发生了约30起轻微事故,但只有1起事故是辉墨汽车造成的。2016年,一辆汇魔车辆在自动驾驶模式下变道进入公交车车道,造成车辆轻微损坏。但没有人在事件中受伤。英特尔在2017年发布的一项研究预测,部署自动驾驶汽车可以在短短十年内挽救超过50万人的生命。尽管如此,公众对人工智能汽车的信任度仍处于历史最低点。根据皮尤研究中心2017年的一项调查,超过一半的受访公众对乘坐自动驾驶汽车感到不安,理由是担心安全和缺乏控制。根据美国汽车协会在2018年3月Uber致命事故后进行的一项调查,73%的美国人表示害怕乘坐自动驾驶汽车,这比2017年底增加了10%。这些担忧源于对机器学习和人工智能背后的机制缺乏了解。对于普通大众来说,人工智能就像一种神秘的炼金术:某些算法有时会产生正确的答案,但当它们失败时——例如,当Siri对一个问题给出荒谬的答案时——消费者无法理解什么是造成它。同样,当Netflix对用户兴趣的描述大错特错,或者自动驾驶汽车驶入自行车道时,用户也不能问这种技术出了什么问题。更严重的是那些生死攸关的问题,比如人工智能武器的使用。美国军方正在考虑将机器学习技术应用于军事任务,以帮助情报分析师识别大量监视数据中的模式或驾驶自主无人机。在这些应用程序中,如果算法在无法解释自身错误的情况下出错,可能会带来灾难性的后果。这种不信任也延伸到了医疗行业。尽管放射学人工智能开发人员做出了认真承诺,但医疗保健从业者仍然对完全采用人工智能诊断持怀疑态度。一种反对意见是,虽然人工智能技术令人兴奋,但大多数人工智能工具尚未经过足够数量的独立研究小组的测试。因此,他们的一些关键细节尚未得到验证,也就是说,无法证明它们适用于所有患者样本。但与Siri、自动驾驶汽车和自主武器一样,一个更强烈的反驳是:今天,人工智能系统无法解释它们的决定,无论是对还是错,甚至是它们的开发者。对推动系统决策的因素感到困惑。这个问题非常严重,以至于人工智能算法经常被描述为“黑匣子系统”。因此,不可理解性是人工智能算法的一大局限,也是阻碍人工智能系统获得公众信任的重要因素。机器学习的不透明部分是由算法训练的方式造成的。我们今天使用的大多数人工智能应用程序都依赖于深度学习,即在结构上与人脑大致相似的人工神经网络。每个此类神经网络的起点都是大量数据,例如数百万张狗的照片。随着数据经过神经网络复杂的计算层,每一层都会逐渐提取出越来越多的抽象特征,从而在最后的输出层产生正确的结果,比如区分吉娃娃和迷你杜宾犬。但由于这个过程发生在神经网络内部,研究人员不一定对每个抽象特征都有解释,或者了解网络如何决定提取一组特定的特征。毫无疑问,机器学习在各行各业都具有改变世界的巨大潜力。它不仅可以扩展人类的能力,还可以在某些任务中代替人类。但我们不应该让这种情况发生,直到研究人员弄清楚如何让算法更易于理解,从而更有能力让自己承担责任。令人欣慰的是,最近的研究表明,我们对机器学习的黑盒性质并非无能为力。事实上,研究人员已经在研究可以窥视机器学习大脑内部情况的新工具,这是人工智能神经科学的一个研究分支。一种想法是,通过巧妙地更改算法的输入并查看是否以及哪些更改会影响输出,我们可以获得解释。例如,一种名为LocalInterpretableModel–AgnosticExplanation(LIME)的工具可以巧妙地改变原始输入,从而找到影响人工智能判断的关键因素。为了了解是什么影响了负责对电影进行评级的AI,Lem一丝不苟地删除或替换了电影评论原文中导致正面评价的词语。然后系统会观察电影评级可能发生的变化。重复这个过程,莱姆能够梳理出一些结论,比如“漫威”这个词几乎总是与高收视率正相关。上述路径的另一个分支是由谷歌开发的,它从一个空白的参考项(例如纯黑色图像)开始,逐渐将其转换为输入图像。在翻译的每一步,研究人员都可以观察人工智能生成的图像结果,并推断出哪些特征对其决策很重要。另一个想法依赖于一种本质上充当机器到人类翻译器的算法。具体来说,该算法可以向人类观察者解释特定人工智能正在尝试做什么活动。OpenAI使用该策略来检查用于防御黑客的AI算法。这种方法在基本算法之外引入了一种自然语言处理算法,即翻译器。翻译器被用来质疑反黑客算法以测试其智能。研究人员可以观看问答部分,并在翻译的帮助下了解防黑客算法决策背后的逻辑。当然,完全有可能根本无法完全解释某些AI决策。毕竟,人类的决定通常包含直觉因素,受本能和经验的指导。对于研究人员来说,他们面临的问题是他们可以在多大程度上让他们的发明合理地解释自己。还有一个更阴险的后果需要我们高度警惕:人工智能算法可能会根据种族、性别或意识形态巧妙但系统地区别对待某些人群。谷歌的第一代自动照片标记系统将非洲人后裔误认为大猩猩时引发了众怒,这是一个广为人知的负面例子。2016年ProPublica对COMPAS(一种用于预测罪犯再犯几率的风险评估软件)的一项调查显示,虽然该软件并没有专门针对种族设计,但它仍然对黑人存在偏见。2017年的一项研究表明,算法也会在单词联想中表现出偏见:男性更有可能将工作、数学和科学联系在一起,而女性则更倾向于与家庭和艺术联系在一起。这些偏见会对工作招聘产生直接影响。例如,如果一个AI程序认为“男性”和“程序员”这两个词具有内在关联,那么当它搜索计算机编程职位的简历时,它很可能会找到一个听起来像男性名字的简历到顶部面试名单。算法也可以显示单词联想的偏差图片来源:图画书我很高兴我是男孩!我很高兴我是个女孩!偏见也会给翻译软件带来问题。例如,谷歌翻译将另一种语言的中性代词翻译成英语时,如果上下文中的代词指的是医生,则将其翻译为阳性的“他”(他);如果上下文中的代词指的是护士,则将其翻译为女性“她”。此外,语音识别软件在处理女性声音和方言方面的效果要差得多,排斥使用非标准发音模式的社会重要成员。其他人可能以微妙的方式歪曲了人们获得的医疗保健或保险类型,改变了他们在刑事司法系统中的待遇,或者对哪些家庭更有可能虐待儿童做出了不恰当的预测。偏见和不公正侵蚀了人类与人工智能系统之间的信任,它不可能像最初预测的那样成为社会的重要平衡器——从中立的角度做出影响生活的决定。事实上,人工智能未必比人类更好。如果真是这样,为什么社会会认为机器可以成为银行家、招聘人员、警察或法官的“更公正”的替代品?……2017年,来自学术界、民间社会组织和工业界的20多位作者联合发表一份关于人工智能技术变得更加强大和普遍时可能成为邪恶同谋的方式的报告。该报告列举了一系列可怕的例子:一辆被盗的自动驾驶汽车可能会被操纵进入人群,或被劫持以运送爆炸物。感染恶意软件的脑芯片或起搏器可用于远程暗杀,犯罪分子可使用面部或语音模拟来精确定位网络钓鱼。该报告呼吁人工智能研究人员在他们的技术产品中建立安全网,并更公开地讨论潜在的安全和保障问题。令人惊讶的是,该报告甚至建议研究人员在他们公开发布的产品中隐藏某些想法或应用它们的方法。今天,大多数研究人员都抱着透明的态度,在博客文章中发表他们的工作,并使代码开源。该领域的许多人认为,更好的策略是揭露和警告可能出现的可能有问题的AI应用程序,而不是让它们不被注意。发达。事实上,谷歌在为其语音模仿程序DuPrex辩护时使用了相同的论点:通过发布一个具有潜在破坏性的人工智能程序,该公司可以就如何最好地回应这种受技术监管的反馈征求公众意见。对某些人来说,人工智能从业者之间的这种开放氛围可能看起来很天真,但这在一定程度上是该领域历史的结果。过去,人工智能所经历的风风雨雨,让人们觉得人工智能的应用及其改变社会的能力被高估了。人工智能发展水平的怀疑论者认为,对人工智能道德或伦理的担忧没有实际意义,因为该技术可能永远不会完全成熟。这些反对者并非没有理由:尽管最近发生了自动化革命,但推动当前AI热潮的机器学习算法有严重的局限性。如果这些问题得不到及时解决,不能满足投资者的预期,另一个人工智能冬天可能就在不远的地方。
