机器会思考吗?人工智能能像人类一样聪明吗?一项新的研究表明,人工智能或许能够做到这一点。在一项非语言图灵测试中,意大利理工学院AgnieszkaWykowska教授领导的研究团队发现,类人的行为变异性(Behavioralvariability)可以模糊人与机器的区别,即可以帮助机器人看起来更像人类。具体来说,他们的人工智能程序通过模拟人类在与人类队友玩形状和颜色匹配游戏时反应时间的行为变异性,通过了非语言图灵测试。一篇题为“类人行为变异性在非语言图灵测试中模糊了人与机器之间的区别”的相关研究论文已发表在科学期刊《科学机器人》上。研究团队表示,这项工作可为未来机器人的设计提供指导,赋予机器人人类可感知的类人行为。对于这项研究,林雪平大学认知系统教授TomZiemke和博士后研究员SamThellman认为,研究结果“模糊了人与机器之间的区别”,对科学理解人类社会认知做出了巨大贡献。有价值的贡献。然而,“人类的相似性不一定是人工智能和机器人技术发展的理想目标,让人工智能不那么像人类可能更明智。”图灵测试1950年,“计算机科学与人工智能之父”阿兰·图灵(AlanTuring)提出了一种判断机器是否智能的测试方法,即图灵测试。图灵测试背后的核心思想是关于可能性的复杂问题可以通过测试人类是否可以判断他们是在与另一个人还是与机器交互来测试机器思维和智能。今天,科学家们使用图灵测试来评估人工智能体应该实现哪些行为特征,以便做出人类不可能将计算机程序与人类行为区分开来。人工智能先驱赫伯特西蒙曾说过:“如果程序表现出与人类表现出的行为相似,那么我们就称其为智能。”同样,伊莱恩里奇定义人工智能是“研究如何让计算机做人类现在可以做得更好的事情。”非语言图灵测试,是图灵测试的一种形式环测试。通过非语言图灵测试对于人工智能来说并不容易,因为它们不像人类那样熟练地检测和区分其他人(物体)的细微行为特征。那么,通过在身体行为中体现人类特征的类人机器人是否能够通过非语言图灵测试?在非语言图灵测试中,研究小组试图了解是否可以对人工智能进行编程,使其在类似于人类行为变化的范围内改变其反应时间,从而被视为人类。为此,他们将人类和机器人放在一个房间里,房间里有不同颜色和形状的屏幕。图|机器人和人类一起执行任务。(来源:论文)当形状或颜色发生变化时,参与者按下一个按钮,机器人通过点击屏幕上显示的相反颜色或形状来响应信号。图|通过按下按钮响应(来源:论文)在测试期间,机器人有时由人类远程控制,有时由经过训练以模仿行为可变性的人工智能控制。图|参与者被要求判断机器人的行为是否由人预先编程或控制。(来源:论文)结果表明,参与者可以很容易地分辨出机器人何时被另一个人操作。但当机器人由AI操作时,参与者猜错的概率超过50%。图|图灵测试的平均准确度。(来源:论文)这意味着他们的人工智能通过了非语言图灵测试。然而,研究人员还提出,类人行为的可变性可能只是通过物理AI的非语言图灵测试的必要条件,而不是充分条件,因为它也可以在人类环境中表现出来。人工智能需要像人类一样吗?长期以来,人类相似性一直是人工智能研究的目标和衡量标准,Wykowska团队的研究表明,行为可变性可能被用来让机器人更像人类。然而,Ziemke和其他人认为,让人工智能变得不那么像人类可能是一种更明智的做法,并以自动驾驶汽车和聊天机器人这两个案例来说明。比如当你要过马路人行横道时,看到有车向你驶来,从远处看,你可能无法判断这是否是自驾车,所以只能根据行为来判断的车。(来源:Pixabay)但即使你看到有人坐在方向盘后面,你也无法确定那个人是在主动控制车辆,还是只是在监视车辆的驾驶操作。“这对交通安全有非常重要的影响,如果自动驾驶汽车不能向他人表明自己是否处于自动驾驶模式,可能会导致不安全的人机交互。”可能有人会说,理想情况下,你没有必要知道汽车是否在自己驾驶,因为从长远来看,自动驾驶汽车可能比人类更擅长驾驶。但是,就目前而言,对自动驾驶汽车的信任还远远不够。聊天机器人更接近图灵最初测试的现实。许多公司在其在线客户服务中使用聊天机器人,其中的对话主题和交互相对有限。在这种情况下,聊天机器人通常或多或少与人类没有区别。(来源:Pixabay)那么,问题来了,企业是否应该告诉客户聊天机器人不是人类?一旦被告知,它通常会导致消费者的负面反应,例如信任度下降。正如上述案例所示,虽然从工程学的角度来看,类人行为可能是一项了不起的成就,但人与机器的不可区分性引发了明显的心理、伦理和法律问题。一方面,与这些系统交互的人必须了解他们正在交互的对象的性质,以避免作弊。以聊天机器人为例,加州自2018年起制定了聊天机器人信息披露法,明确披露是一项严格要求。另一方面,还有比聊天机器人和人工客服更难以区分的例子。例如,在自动驾驶方面,自动驾驶汽车与其他道路使用者之间的交互没有同样明确的起点和终点,往往不是一对一的,并且有一定的实时性约束。因此,问题是何时以及如何传达自动驾驶汽车的身份和能力。此外,完全自动驾驶汽车可能还需要几十年的时间。因此,在可预见的未来,混合交通和不同程度的部分自动化很可能成为现实。关于自动驾驶汽车可能需要什么样的外部接口才能与人类交流,已经有很多研究。然而,对于儿童和残疾人等弱势道路使用者实际上能够并愿意应对的复杂情况,我们知之甚少。因此,上述一般规则,即“与此类系统交互的人必须被告知交互对象的性质”,可能只有在更明确的情况下才有可能遵循。同样,这种矛盾心理反映在社交机器人研究的讨论中:鉴于人类倾向于将心理状态拟人化并将其归因于类似人类的属性,许多研究人员旨在使机器人在外观和行为上更像人类,以便他们随后可以互动以或多或少像人类的方式。然而,也有人认为机器人应该很容易被识别为机器,以避免过度拟人化的属性和不切实际的期望。“因此,利用这些发现让机器人变得不那么像人类可能更明智。”在人工智能发展初期,模仿人类可能是业界的共同目标,“但现在人工智能已经成为人们日常生活的一部分。”今天,我们至少需要思考一下,努力实现类人人工智能,到底是什么方向才是真正有意义的。”
