新闻,《卫报》写了一篇文章揭露“假AI”的兴起。人工智能成为近几年的热词,走入大众视野。一些科技公司也声称他们的服务是由人工智能驱动的,但实际上他们是披着AI外衣的人工服务。 以下是文章的主要内容: 构建一个由人工智能驱动的服务并不容易。事实上,一些初创公司发现,让人类像机器人一样行动比让机器像人类一样行动更便宜、更容易。 “用人来做事可以让你跳过很多技术和业务开发挑战。显然,这不会扩展,但它可以让你构建一些东西并首先跳过困难的部分。”ReadMe首席执行官GregoryKoberger说。他说他遇到过很多“假人工智能”。 “这真的是用人类制作人工智能原型,”他说。 《华尔街日报》本周文章触及实践,重点关注谷歌授予用户邮箱访问权限的数百个第三方应用程序开发者。 以圣何塞公司EdisonSoftware为例,人工智能工程师扫描了数百名用户的个人电子邮件信息(其个人身份信息已被处理),以努力改进其“智能回复”功能。该公司在其隐私政策中没有提到任何人会检查用户的电子邮件。 《华尔街日报》的文章强调,第三方远非第一个这样做。2008年,专门的Spinvox公司被指控在海外呼叫中心使用人工而不是机器来完成将语音邮件转换为文本消息的工作。 2016年,彭博社还表示,人类每天花12个小时伪装成聊天机器人来安排X.ai、Clara等服务,指出了这一困境。这份苦差事让人头脑麻木,工人们说他们期待着机器人取代他们的那一天。 2017年,业务费用管理应用程序Expensify承认,它一直在使用人工来处理至少一些据称是使用“智能扫描技术”处理的收据转录。这些收据的扫描照片被发布到亚马逊的MechanicalTurk众包工具上,低薪工人可以在其中浏览和转录收据信息。 “我想知道Expensify的SmartScan用户是否知道它实际上是一个MTurk众包工作者输入他们的收据信息。”RochelleLaplante,crowdworker和gigeconomy劳动倡导者在Twitter上(RochelleLaPlante说,“我在看某人的Uber收据,上面有他们的全名和他们上下车的地址。 甚至Facebook,它有大力投资人工智能,依靠人类为其消息应用程序Messenger提供虚拟助理服务。Accuracy。一家名为Scale的公司为一群人类工作者提供自动驾驶汽车和其他人工智能驱动系统的培训数据。例如,称重人员会查看来自摄像头或传感器的信息,然后给汽车、行人和骑自行车的人贴上标签。有了足够多的这些人工校准,AI就会学会识别这些物体。 AlisonDar,心理学家精神健康支持聊天机器人Woebot的创始人AlisonDarcy将这种做法描述为“巫师般的设计技术。” “你在模拟某事的最终体验。很多时候,背后都有一个人人工智能的场景,不是算法。她说。她还指出,构建一个好的AI系统需要“大量数据”,有时设计师想知道在进行投资之前,他们想要构建的服务是否有足够的需求。 她说这种方法是不适合像Woebot这样的心理支持服务。“作为心理学家,我们受到道德规范的约束。不欺骗他人显然是道德原则之一。 研究表明,当人们认为他们是在与机器而不是人类交谈时,他们往往会敞开心扉,揭示更多,因为寻求心理健康帮助是人们的事。 南加州大学的一个团队与一位名叫艾莉的虚拟心理治疗师进行了测试。他们发现,当退伍军人知道Ellie是一个人工智能系统而不是一个运行机器的人时,他们更有可能表现出他们的症状。 其他人认为,公司应该始终对其服务的运作方式保持透明。 对于企业假装使用人工智能提供服务,但实际上是由人类提供服务的做法,拉普兰特表示,“我不喜欢那样做,对我来说,这感觉是不诚实和欺骗性的。”,我不希望我使用的服务发生这种情况。” “从工人的角度来看,感觉就像我们被推到幕后一样。我不希望我的员工被那些转身对一切事情都撒谎的公司所支配剥削。” 这种道德困境也让人想起假装人类的人工智能系统。最近的一个例子是谷歌的机器人助手GoogleDuplex,它可以使用“嗯”和“呃”等语气词进行极其逼真的电话通话,并代表人类完成约会和预订。 在最初引发争议后,谷歌表示其人工智能将识别自己 Darcy说:“在他们的演示版本中,在低影响力的对话中,感觉有点欺骗。”虽然在餐厅预订餐桌似乎是一种无需动脑筋的互动,但如果同样的技术落入坏人之手,操纵可能会更大。 例如,如果你可以模仿会怎样名人或政客的口音,并在电话中表现得像真人? Darcy指出,“人工智能制造了很多恐惧,在缺乏透明度的情况下,它并不能真正帮助人们进行对话”
