本文转载自公众号《核心阅读》(ID:AI_Discovery)人工智能的应用越来越广泛,在我们日常生活中的作用也越来越大。但正因为如此,有些人很难接受,至少是自觉地接受。您可能喜欢手机自动标记照片,但您常常忘记这项技术是由人工智能提供支持的。人们不想相信他们不太了解的技术,尤其是当它听起来有点令人毛骨悚然时。2017年,埃隆·马斯克在全美州长协会上表示:“我接触到了最前沿的人工智能,我认为人们应该关注这项技术。人工智能是人类文明存在的根本风险。”“可以更准确地预测人类行为。人们不喜欢无法控制数据的收集和使用方式,尤其是当人工智能使用这些数据让人们采取特定行动时。我们都知道用户体验(UX)是创建模型时的重要考虑因素,但许多数据科学家并没有忘记积极UX的一个重要部分:最大限度地减少人工智能的“可怕”因素。“手机正在监视我们”和其他AI阴谋技术的进步和不断增加的数据可用性使AI变得更加强大和精确。对于热爱技术的人来说,这令人兴奋,但也令人恐惧。今天的算法可以用更少的信息(至少已知提供的信息)预测更多关于一个人的信息,有时人工智能似乎能够读懂我们的思想——或者至少可以窃听我们。我们的手机一直在秘密记录和监视我们以用于营销目的这一事实是近年来在互联网上引起轰动的头号阴谋论——甚至一些备受尊敬的技术专家和记者也同意这一点。从BBC,《时尚先生》到《Vox》,关于这个话题的讨论随处可见。早在2017年,播客栏目“/reply-all/”就做了一档关于手机监控的节目。如今,越来越多的人担心他们的手机会在未经广告定位许可的情况下录制他们的私人谈话。我们不知道电话记录了多少音频,但大多数专家已经确定大多数应用程序不会使用录音来进行精确的广告定位。不是因为他们不能,而是因为没有必要。AI追踪如此复杂,如此精准,根本不需要考虑音频采集的技术和存储要求。人们无意中泄露了太多关于他们自己的信息,以至于我们无论如何都有被攻击的风险。“我们倾向于用人类看待事物的方式来看待监控,”东北大学教授、手机隐私和安全研究人员戴维·乔芬斯(DavidJoffins)说。“如果有人知道你和你的朋友在谈论什么,那就意味着他们在听你说话。”说起来,但我认为对于大多数人来说,很难将泄露的有关他们在线活动的信息与这些可以针对他们投放广告的公司联系起来。“世界各国政府发布的很多新型冠状病毒追踪应用可能都潜藏着新的‘阴谋’”,人们担心下载这些应用会让政府在未来随时随地继续追踪。在意大利,由于一些阴谋论以及对隐私和安全的担忧,“Immuniapp”并没有受到太多关注。人们对人工智能一直在监视他们的前景感到不寒而栗,大流行加剧了更多的恐惧。一个有远见、无所不知的人工智能可能不是现实的完美复制品,但这并不意味着我们应该对目前的人工智能水平放松警惕。我们担心的是Facebook的数据收集和跟踪,当我们生活中最明显的人工智能例子似乎是通过监视来实现时,这种担忧是可以理解的。人工智能可以提供个性化推荐而不用担心吗?个性化推荐是个好主意,在正确的时间获得正确的报价对人们和提供报价的公司都大有裨益。通常,即使那些声称关心人工智能的人也不会反对使用人工智能,只要它能帮助人们更有效地解决问题。事实上,大多数人工智能并没有吓到我们。人们没有关注他们每天大量接触的人工智能技术,有时是因为它们还不够复杂,不会打扰到人们。你很难找到一个只对威胁性大于刺激性的精确输入做出响应的客户服务聊天机器人。其他AI已很好地集成到我们使用过的功能中,以至于我们只注意到它是服务的改进。当Apple发明面部识别来解锁iPhone时,大多数人都对这种便利感到兴奋,而不是担心人工智能的影响。然而,大多数时候,人工智能的使用并没有引起注意,因为人们只看结果。人们与AI本身没有直接互动,只是注意到它如何让生活更轻松。例如,许多客户不知道他们可以获得尺寸合适的所需商品,因为EvoReplenish算法使用预测供应链来防止新流行衬衫缺货。顾客无法知道商店如何决定进货,他们可能也不会关心。库存货架很方便,而终结这种情况的人工智能并不令人毛骨悚然,因为它的预测和建议不是在个人层面上做出的。如果我不说某个人会买某个特定的产品,只说那个星期有15个人会买,我不担心隐私泄露。人工智能的预测和个性化推荐最令人不安的是,我们无法理解它是如何得出关于个人的结论的,或者它太像人类而不能被公开为人工智能。因此,透明和以人为本的设计将大大减少人工智能带来的顾虑。不恐怖的AI是透明的AI越透明越不恐怖。人们往往会对他们不了解的事物持怀疑态度,当您面对您不了解但似乎很了解您的事物时,这不仅是可疑的,而且是可怕的。如果不了解现在的技术是如何工作的,怎么能预见到灾难呢?没有透明度,人工智能就更像是一种威胁——这最终使人工智能如此可怕。以Facebook窃听手机的说法为例。怀疑源于Facebook拒绝透露它收集了哪些关于人们的信息以及他们如何使用这些数据来定位广告。技术记者兼“ReplyAll”的联合主持人PJVogt说:“Facebook制造了这个问题,因为他们非常擅长收集关于我们的信息。他们不透露他们收集的内容或方式,所以它基本上是事实上,它正在迫使人们想到一种最简单粗暴的获取信息的方式,那就是窃听。”透明度还意味着澄清数据的收集和处理方式。收集大量有关个人的可识别信息而不解释为什么需要这些数据总是令人毛骨悚然。这就是为什么对特定信息的需求应该尽可能匿名地坦率说明。这种数据透明度不会损害AI模型。Evo的算法仍在处理超过12亿人的数据,用于供应链和价格预测;Evo只是以一种完全从其数据库中排除任何识别信息的方式收集数据。AI推荐不受它的影响,但模型变得更加透明。只要从第一天开始就计划透明,就可以在不影响结果准确性的情况下诚实地说明使用了哪些数据以及如何获得这些数据。-以AI为中心的设计有助于构建有用的模型而不会吓跑用户虽然透明度很重要,但大多数人可以接受如果AI能帮助人们达到预期的结果,那它就有点“可怕”了。调查显示,大约75%的人不会介意使用侵入性AI,如果它可以在问题出现之前避免问题、快速解决问题或将复杂性降至最低。当AI带来更多推荐您考虑购买的产品的促销广告时,知道您正在被跟踪可能会令人望而生畏,但通过跟踪警告人们数据泄露就不那么令人担忧了。当人工智能解决的问题是帮助人们,而不是帮助企业销售产品时,人们会愿意做出妥协。以谷歌地图为例。当地图自动导航谷歌日历中的待办事项时,很少有人会感到恐惧;人们知道谷歌的信息来自哪里。当地图开始直接从Gmail中为会议或活动提供规划建议时,人们感到恐慌,因为他们没有将它编入他们的日历中。尽管如此,该功能还是很有用的,而且很少有人抱怨。只有当地图开始根据时间和习惯来预测用户的目的地时,人们才会真正发疯。此建议更具侵入性,部分原因是它使跟踪更加直接,但部分原因是它并不总是有用。如果您不需要这些导航,您将不会感激Google知道您的日常行程。这就是让AI正确解决问题如此重要的原因。以人为本的AI设计优先考虑最终用户的需求,并确保AI不会让人觉得具有侵扰性。如果您创建的算法可以为与AI交互的每个人解决问题,那么您一定会尽量减少负面反应。至少,人工智能应该尊重人们对隐私和控制感的需求。把与AI交互的人放在第一位,从他们的角度思考问题。由此产生的以人为中心的人工智能不那么令人不安。人工智能将继续改善人们的生活,但前提是它能够赢得人们的信任。如果不最小化它的可怕性,它就无法发挥其全部潜力。在保护人们免受潜在的负面影响方面,损失的利益比想象的要小得多。人工智能很复杂,但并非难以捉摸。我们可以在不泄露任何商业机密的情况下,如实解释人工智能的工作原理,以及从哪里获取数据。当真正站在用户的角度考虑并透明地运作时,人工智能就会变得不那么“可怕”,生活也会变得更加轻松。
