:为什么大多数AI机器人和语音助手都是女性身份或女性设置,比如Siri、Cortana、Alexa?有人说是因为大部分研发人员都是男性,显然他们对研究女性AI更有兴趣;或者从消费者的角度来看,对于语音助手、智能音箱等科技产品,男性消费者肯定也居多。事实上,开发者不一定能把这个问题解释清楚。真正的原因需要从深厚的人类心理学背景说起。作为专注于人机交互的研发团队,竹间在研发小鹰机器人和类脑对话系统时,有意识地引入了心理学。事实上,人工智能的研发不仅是一个技术和工程问题,更是一个心理和社会学问题。因此,本文试图结合朱健在AI人机交互领域的研发经验,从心理学角度谈谈AI与人交互的心智模型,以及好的人机交互应该如何贴近人机交互。大众心理学。首先,心智模型是人对外部世界的认知和解释,它会直接影响人的行为。人类在经历或学习了某些事件后,会对事物的发展变化得出一些结论,然后像写剧本一样,将这些经历浓缩成多种不同类型的剧本,等到重复或类似的事情再次发生时,我们不自觉地套用这些以前写好的剧本来预测事物的发展变化。当然,人们可以通过学习和使用心智模型,不断修改和完善已有的心智模型。但总的来说,人们对现象所持有的心智模式,大多是不完整的、偏于直觉的、非理性的,容易受到直接经验、他人经验等类似事物的影响,影响对世界的观察。人机交互的心智模型就像人机交互的心智模型一样,更容易受到外部的、非理性的、间接的经验的影响。因为大众接触人工智能最多的渠道大概是科幻电影,其次是企业和媒体宣传,而这两个主要信息来源都被夸大了,所以大众对人工智能产生了过度的幻想。比如人和聊天机器人交流的时候,也会在文本框中输入文字,对方回传文字,这好像和我们和真人交流的方式是一样的,所以我们会误以为我们在交流与人。因此,大众对AI的心智模型往往是这样的:像人,像科幻电影里的全能机器人。这种心智模型的特点对人工智能产品的开发提出了很大的挑战。大多数情况下,用户会按照这种心理预期与AI进行交流:既然AI可以像人一样交流,那我就可以和你聊任何话题,不再需要像APP一样按照设计好的交互流程进行。即使AI事先声明了它的功能范围,用户也很少考虑它。例如:AI:“你好,我是你的天气小助手,我可以告诉你天气,你在哪个城市?”用户:“你叫什么名字?”AI:“这不是一个城市,请问你在哪个城市?”用户:“你叫什么名字?”AI:“这不是一座城市,你在哪个城市?”用户:“你个傻×,你获取不到我的位置还问!”AI:“这不是一个城市,请问你在哪个城市?”……这样继续下去,不到两分钟,用户就会认为是“弱智”:难道刚认识的两个人不应该互相介绍一下吗?难道只听得懂城市的关键词吗?另外,既然你是人工智能,至少你很聪明,即使你不像科幻电影里那样?用户:“给我妈妈打电话”AI:“你妈妈叫什么名字?”网友:“我都不知道我妈是谁,什么人工智能?!”这时候机器人也很委屈,你的通讯录里没有“我妈”……其实现阶段人与AI交互的主要矛盾之一就是用户与AI之间的矛盾。对人工智能优势的期望以及机器人的有限能力和功能。过高的期望带来快速的失望,导致很多人工智能机器人或语音助手的用户粘性不高。例如,Siri已经工作了这么久,很多人只是在误用它时才会唤醒它。人机交互设计应该如何贴近大众的心智模型?大众的心智模式是很难改变的,所以一般的产品设计都会尽量贴近人的心智模式。了解和学习如何操作的好方法。目前,在人机交互领域,自然语言理解(NLU)技术的发展使得人机交互回归自然的人类语言对话。这种符合人类交流本能的方式也将成为未来人机交互的发展趋势。然后根据人机交互的心智模型特点,借鉴人与人之间的交流规律,帮助人工智能产品的开发者或团队找到人机交互的设计灵感和方向。另外,在这个过程中,可以通过大量的实验来验证这些规律是否可以应用到人机交互产品上。先从人类社会交往的两个心理规律说起:1.自我表露是人际交往中非常重要的因素。自我表露的程度可以表明关系的亲密程度。进一步的发展。在生活中,我们和不同关系的人聊天的内容是不一样的。和刚认识的人聊天气、娱乐、旅游、运动等轻松的、没有人情味的话题;和熟悉的人,我们会谈论感受和烦恼。、职业这些个人的、深入的话题。当我们在与不熟悉的人互动时开始就个人问题“敞开心扉”时,我们就到了建立亲密关系的关键阶段。如果只是说说天气,认识几年也不过是点头之交。此外,社会交往中还有一个社会交换理论(socialexchange),即如果只有一方表露而另一方不表露,则表露方会感到沮丧而减少表露。因此,适时的相互表露是建立亲密关系的关键,这也适用于人与人工智能的互动。有研究指出,AI对话机器人也需要向用户倾诉和表露,人与AI对话机器人之间也存在社交交流。只有AI的坦白和吐露,才能获得用户更多的信任,让用户更愿意向机器人吐露心声。但很多时候,人工智能对话机器人的开发者忽略了这一点。他们希望机器人能够与用户交流并获得他们的信任。其实,他们首先需要给机器人足够可信、完整的背景和生活信息,让机器人在交流过程中,不仅仅扮演简单倾听用户诉说的角色,更多时候可以作为“交流”主动讲述用户了解机器人本身的背景信息,甚至是感情和烦恼,从而促进亲密关系的建立。2.机器人的性格和社交风格也是影响社交的重要因素。在这一点上,科幻小说和电影已经展现了可能性,冷酷、乖巧、聪明、忠诚的机器人。那么机器人的性格应该如何设计呢?性格设计应该考虑哪些因素呢?也有研究在这方面进行了探索。根据伊斯比斯特的研究,机器人首先需要保证自己性格各方面的一致性,包括文字、声音、形象设计、性格设定的一致性。其次,人们可能会倾向于喜欢与自己性格不同的机器人。性格是一个非常复杂的影响因素,每个人在交友方面都在一定程度上有自己的性格偏好。性格偏好也会受到“身份”的影响,因此很难有一个“通用”的机器人性格,可以在所有场景中使用。例如,在Tay等人的研究中发现,人们对机器人的性格偏好也受到机器人所扮演角色刻板印象的影响,例如人们更喜欢内向的安防机器人和外向的医疗机器人。也就是说,我们在设计对话机器人的时候,需要考虑它需要扮演的角色或者“职业”,从而设计出匹配的性格。***回到文章开头提到的问题,为什么AI设定基本都是女性?许多人还研究了机器人性别的影响。例如,西格尔等人。发现男性更容易接受女性机器人的影响,而女性似乎对机器人的性别没有任何偏好;此外,Tay等人的研究。指出人们对机器人性别的偏好也受到对机器人所扮演角色的性别刻板印象的影响,比如人们更喜欢男性安全机器人、女性医疗机器人。那么这个问题的答案可以归纳为以下三个方面:常见的AI机器人的功能恰好是女性扮演的刻板角色,比如客服、助理等;女性AI机器人的设定更容易被大众接受;技术人员主要是男性。参考文献:【1】Kang,S.H.,&Gratch,J.(2011)。人们喜欢高度公开自己的虚拟顾问。网络治疗和远程医疗年度回顾,167、143-148。【2】Isbister,K.,&Nass,C.(2000)。交互角色个性的一致性:语言提示、非语言提示和用户特征。国际人机研究杂志,53(2),251-267。【3】Tay,B.,Jung,Y.,&Park,T.(2014)。当刻板印象遇到机器人:人机交互中机器人性别和个性的双刃剑。人类行为中的计算机,38,75-84。【4】Siegel,M.,Breazeal,C.,&Norton,M.I.(2009年10月)。有说服力的机器人:机器人性别对人类行为的影响。在智能机器人和系统中,2009。IROS2009。IEEE/RSJ国际会议(第2563-2568页)。IEEE。
