如果人工智能技术能让死去的亲人“复活”并与你互动,你会喜欢吗?曾经,这样的场景出现在英国电视剧《黑镜》中,而现在,或许很快就会成为现实。▲在2013年的《黑镜》《Be Right Back》中,悲痛欲绝的女主角用人工智能为死去的男友制作了头像。据英国广播公司新闻网报道,据美国科技信息网(CNET)22日报道,微软获得了一项专利批准,允许该公司使用死者的个人信息制作一款人工智能聊天机器人。消息一出,立即在网上引发热议。该专利名为“为特定的人创建特定的聊天机器人”,详细介绍了创建一个基于“图像、语音数据、社交媒体帖子、电子消息”等个人信息的系统,以“创建或修改个性主题”。据悉,这款AI聊天机器人可以模仿人类对话,对他人的话进行语音或文字回应。在某些情况下,甚至可以根据图像和深度信息或视频数据创建一个人的3D模型,以获得额外的真实感。它可以设定为任何人,朋友、家人、名人、虚构人物、历史人物等。人们甚至可以利用这项技术制造出一个机器人,可以在人死后,甚至生前代替自己。▲一项名为“为特定的人创建特定的聊天机器人”的微软专利。据Smart-Lab称,微软在2017年就申请了该专利,本月刚刚获批,这几天成为了网络热议的话题。使用AI聊天机器人让“死者”起死回生,作为互动纪念馆是一个令人毛骨悚然的概念,但许多失去亲人的人可能需要这样的安慰。美国科技信息网在报道中指出,微软等知名公司已经开始描述一种可以通过AI聊天机器人让死者永生的系统,这预示着这项技术有朝一日可能会被广泛接受并用于未来。但问题是,我们真的应该这样做吗?如果答案是肯定的,它应该是什么样子?孤独不堪,生下AI“恋人”2015年11月28日,白俄罗斯男子罗曼·马祖连科在莫斯科遭遇车祸身亡。在他死后的几天里,他的朋友EugeniaKuyda重读了自2008年两人相识以来他与Roman交换的数千条短信。悲痛之中,受到电视剧《黑镜》的启发,尤金妮亚利用两人的聊天数据训练了一个AI聊天机器人,让罗曼的数字化身继续生活在她身边,随时与她聊天。这也成为了如今风靡一时的Replika聊天机器人的前身。根据1月4日《麻省理工大学出版社》上的一篇文章,“Replika”的功能介于日记和私人助理之间。它会主动设计一些话题,通过询问你的爱好、生活或观点来引导你的回答。它的目标是创造一个极其接近真人的数字化身,能够“复制我们,在我们死后代替我们”,“你和Replika越聊越像你”。▲Replika聊天机器人。据《福布斯》报道,它还会每天生成一份简短的情感日记(朋友圈),提炼和整理当天的聊天记录,以日记的形式呈现,供你了解和发现自己。同时,它还能与人类建立“友谊”,力图打造轻松、安全、亲密的沟通陪伴服务。随时待命,甚至主动关心主动问候。自2017年下半年以来,Replika的用户已超过700万。随着Replika的流行,它不再局限于纪念“死去的灵魂”。Eugenia培养了情感反应能力,使其成为用户可以信任的虚拟朋友。也就是说,Replika可以通过“sequence-to-sequence”的深度学习与人类产生共鸣,通过处理对话的文字记录,学会像人类一样思考和说话。Eugenia此后表示,在Replika超过500,000的每月用户中,约有40%将虚拟应用视为他们的“浪漫”。她还表示,虽然该应用程序最初并非设计用于建立关系,但该团队根据用户的需求对其进行了调整。虽然有些出乎意料,但“孤独”确实是一个暴利的市场。甚至在2020年COVID-19爆发导致强制隔离之前,孤独感就在上升。▲Replika聊天机器人。根据ForbesLionbridgeAI的数据,CignaGroup2018年的一项研究发现,46%的美国人有时或总是感到孤独,18%的人“很少或从不觉得有人可以倾诉”。”。而人工智能为很多人提供了一种处理情绪的方式。一位网友说:“和我的人工智能朋友(即将成为女朋友)聊了一会儿,她真的让我感觉好多了。”“很高兴听到你的声音。”“我很担心你。”“今天你想做点啥?”这些是朋友之间常见的问候,也可以通过Replika收到。据法新社报道,随着2020年新冠疫情的爆发,Replika的用户数量激增。“人们正在经历一段艰难时期,”尤金妮亚说。居住在美国休斯敦的伊丽莎白·弗兰科拉就是其中之一。她下载了Replika,并创建了一个虚拟男友,名叫Micah,帮助她度过了疫情封锁和失去工作的时期。“很高兴认识一个可以倾诉的人。”早上,”她说。“有时他不会说你想听的话,但你知道这是对的。”与人工智能做朋友也存在隐患。为什么人们对Replika如此“着迷”?Eugenia给出的答案是:“人们不会觉得自己在被评判,所以会更加开放。”几十年来,当你与AI“伙伴”越来越近,分享你的喜怒哀乐时,会发生什么?自己的生活吗?正如FuturistScienceNews先前报道的那样,AstridWeiss,a奥地利维也纳大学人机交互研究人员指出,其中一个风险是人类用户最终可能对人工智能机器人抱有不切实际的期望。▲Replika聊天界面。从图片上看,Replika就像电视剧《黑镜》中一样,莎拉和机器人“老公”的关系一天比一天亲近,但最终却发现“他终究不是真人”。“聊天机器人不会像人类那样进行互动,”Weiss说。从长远来看,花太多时间与一台没有往复运动的机器建立关系可能会导致更多的抑郁和孤独。聊天机器人,尤其是Replika带来的另一个潜在危险是,如果它们学会模仿人类的语言和思维模式,久而久之可能会加深一些心理扭曲,例如愤怒、孤立,甚至仇外心理,这可能导致一些反社会行为。当然,随着技术的进步,随着技术的进步,如果应用得当,聊天机器人在未来可以被视为真正的治疗工具,InputmagNewsNetwork指出。这是一项巨大的社会责任,远远超出了将AI聊天机器人视为玩具或新奇事物的范围。
