打造一个真正由AI驱动的服务并不简单。于是一些初创公司转过头来——他们让人类模仿机器,而不是让机器向人类学习,因为这样更便宜也更容易。“使用人类而不是人工智能可以让你跳过很多技术和业务开发挑战。它的可扩展性不如计算机,但它可以让你跳过早期的困难部分并到达你想去的地方。”ReadMe首席执行官GregoryKoberger表示,他遇到过无数“假人工智能”。“这其实是在用真正的人力来呈现AI应该是什么样子。”他说。本周《华尔街日报》的一篇文章揭露了这种做法,该文章透露,谷歌允许数百名第三方应用程序开发人员访问用户的收件箱。位于圣何塞的EdisonSoftware的AI工程师通过篡改他们的身份来检查数百名用户的个人电子邮件,以改进“智能回复”功能。问题是该公司在其隐私政策中没有提到有人会检查用户的电子邮件。这不是第一次在报纸上发表人工方法。2008年,将语音邮件转换为文本消息的公司Spinvox被指控??在海外呼叫中心使用人工,而不是人们认为的机器。2016年,彭博社曝光了一些让每天工作12小时的人类“假装”在Chatbot中执行自动调度服务的公司(例如X.ai和Clara)。试想,这份重复性高的工作是多么枯燥、多么累人,而这些员工都渴望AI来解放他们。2017年,声称使用“智能扫描技术”处理收据的业务费用管理应用程序Expensify承认该公司一直在雇用人工。收据的扫描文件被发布在亚马逊的MechanicalTurk众包劳动力平台上,低薪工人在那里阅读和转录。“我想知道Expensify智能扫描应用程序的用户是否知道MTurk员工可以看到他们的收据,”MTurk员工RochelleLaPlante说。全名、接送地点。“即使是在AI上投入巨资的Facebook,也在使用人类为其Messenger虚拟助手提供动力。在某些情况下,人类的参与可以用来训练AI并提高其准确性。一家名为Scale的公司提供了大量的人类为自动驾驶汽车和其他AI系统提供“训练”数据的能力。例如,这些人密切关注摄像头或传感器馈送,并在视野中标记汽车、行人和骑自行车的人。由足够多的人校准,AI可以学习识别这些物体。另一种情况是,一些公司告诉投资者和用户,他们在AI项目完成之前已经开发出可扩展的AI技术,但他们会偷偷依赖人类劳动,直到开发出来。心理学家艾莉森·达西(AlisonDarcy)开发了一款名为Woebot的心理支持聊天机器人,她将其称为“绿野仙踪设计技术”。“我们试图模拟尽可能接近最真实的情况。通常,一些人工智能实际上是在人类而不是算法的幕后。她补充说,“建立一个完善的人工智能系统需要大量数据,设计师想知道在投资之前是否有足够的服务需求。”她说,使用人手不适合像Woebot这样的心理支持服务。“作为心理学家,我们遵守道德规范。不欺骗人显然是要遵循的道德原则之一。”她说。研究表明,当人们认为他们是在和机器而不是人交谈时,他们往往披露更多信息,因为通常与寻求心理健康支持相关的耻辱感。南加州大学的一个团队使用这个名字与虚拟治疗师一起为Ellie测试了这个。他们发现患有PTSD的退伍军人在知道Ellie是AI时更有可能说出他们的症状而不是当他们知道有人在操作机器时。还有一些人认为,公司应该始终对其服务的运作方式保持透明。“我讨厌那些假装提供人工智能服务,但实际上雇用人类的公司。”“这是不诚实,是欺骗,这不是我使用我的业务时想要的,”拉普兰特说。作为一名工人,我觉得我们被推到了幕后。我不喜欢被一家对客户撒谎的公司利用。这种道德考虑也让真正的人工智能伪装成人类更受欢迎。最近的一个例子是GoogleDuplex,这是一款用于完成旅行预订的机器人助手,它在打电话时可以发出类似人类的语气词,例如“嗯”和“呃”,逼真得吓人。尽管遭到强烈反对,谷歌还是决定让其人工智能在与人类交谈时识别自己。“在演示版的正常对话中,人们很容易接受非常轻微的欺骗,”达西说。“用AI预订餐厅可能不是问题,但这并不意味着这项技术是无害的。”例如,当AI可以模拟名人或政客的声音来拨打高度逼真的电话时,情况就会有所不同。达西认为,人们已经对人工智能产生了极大的怀疑甚至恐惧。如果他们不知道他们面对的是人还是机器,人工智能将无法在对话中提供帮助。
