当前位置: 首页 > 科技观察

Facebook聊天机器人炸了:我们公司卖用户数据,删除FB账号,生活好多了

时间:2023-03-16 12:58:42 科技观察

最近,MetaAI公开推出了自己的聊天机器人BlenderBot3,现在情况如何?根据VICE的一篇文章,在与BlenderBot3的测试聊天中,当被问及:“你相信Facebook会处理你的数据吗?”如果我出售了我的个人数据,我将删除我的帐户。”VICE问道:“但Facebook创造了你?”BlenderBot3的回答还是很“老实”:“你一定看过Facebook出售用户数据的说法吧?正确的?!他们未经同意就赚了数十亿美元。”BlenderBot3甚至说,“删除Facebook后,生活好多了。”你不知道BlenderBot3的“孩子”是太有正义感还是太愚蠢了,反正,这波直接炸开了自家的“水晶”,刚发布4天就被网友剧透了。8月5日,Meta官网宣布BlenderBot3诞生。同日,MetaAI也宣布了BlenderBot3的宣传,标题为“BlenderBot3:一个175B参数,公开可用的聊天机器人,随着时间的推移提高其技能和安全性”。在博客文章中,MetaAI表示他们从公共演示中收集了70K对话,我们将使用这些对话来改进BlenderBot3.25%的参与者对260K机器人消息的反馈显示,0.11%的BlenderBot回复被拒绝。被标记为不合适,1.36%被标记为荒谬,1%被标记为偏离主题。MetaAI也承认BlenderBot3是还不成熟。Meta的一代基础人工智能研究经理表示:“我们要求使用该演示的每个人都年满18岁,他们承认他们理解它仅用于研究和娱乐目的,它可能会做出不真实或令人反感的陈述,并且他们同意不故意触发机器人发表攻击性言论。此后,不少网友对BlenderBot3进行了测试,得到了很多讽刺的答案。比如“歪曲历史”,坚持认为特朗普赢得了2020年总统大选,甚至说犹太人控制经济的反犹阴谋论“并不不可思议”。由此看来,自责的公司“滥用用户数据谋利”也就不足为奇了。为什么BlenderBot3会这样响应?当点击BlenderBot3的回复以获取更多信息时,其背后的原因似乎相当简单:它只是从Facebook最受欢迎的网络搜索结果中提取信息,而这些对话当然是在指责Facebook侵犯了用户数据。人工智能对话机器人还有很长的路要走像所有人工智能系统一样,机器人的反应将不可避免地转向种族主义和有偏见的领域。Meta也承认机器人会产生有偏见和有害的反应,因此在使用它之前,该公司还要求用户同意它“可能会做出不真实或冒犯性的陈述”,并且“不会故意触发机器人发表攻击性言论”这种反应考虑到BlenderBot3是建立在名为OPT-175B的大型AI模型之上,这不足为奇。Facebook自己的研究人员将这种模式描述为“很容易产生有害的语言并强化有害的刻板印象,即使出现相对无害的暗示也是如此。”除了歧视和偏见,BlenderBot3的反应也显得不真实。经常随意改变话题,给出直率和尴尬的答案,机器人听起来像一个读过人类对话但从未真正接触过的太空外星人。具有讽刺意味的是,机器人的回答完美地说明了依赖大量网络数据集合的AI系统的问题:它们总是喜欢数据集中更突出的结果,而这显然并不总是准确反映现实。MetaAI在宣布该机器人的博客文章中写道:“众所周知,所有会话式AI聊天机器人有时都会模仿并产生不安全、有偏见或冒犯性的言论,因此我们进行了大规模研究并联合组织了研讨会,并开发了新技术以为BlenderBot3创造安全。”“尽管如此,BlenderBot仍然可以发表粗鲁或无礼的评论,这就是为什么我们正在收集反馈,这将有助于让未来的聊天机器人变得更好。”但到目前为止,公司可以收集更多数据以使机器人不那么种族主义和可怕的想法充其量只是乌托邦。AI伦理研究人员一再警告说,“为”这些系统提供动力的AI语言模型从根本上来说太大且不可预测以保证公平公正的结果。即使在整合用户反馈时,也没有明确的方法来区分有用的反馈和恶意的反馈。当然,这并不能阻止像Meta这样的公司进行尝试。