当前位置: 首页 > 科技观察

马库斯惊呆马斯克:你还想做一个全能的家用机器人,太蠢了!

时间:2023-03-21 19:41:48 科技观察

两天前,谷歌进行了一项新的机器人研究——PaLM-SayCan。简单地说,“你是一个成熟的机器人,你可以学会自己为我服务。”但马库斯不这么认为。我明白了,你们要成为节目中的“终结者”,谷歌的新机器人PaLM-SayCan真的很酷。人类说一句话,机器人听了,就会毫不犹豫地立即行动。这个机器人还挺“懂事”的。你不用说“把厨房的椒盐卷饼给我拿来”,只要说“我饿了”,它就会自己走到餐桌前,给你拿来吃点心。不需要多余的废话,不需要更多的细节。Marcus承认:这真的是我见过的最接近RosietheRobot的东西。从这个项目可以看出,Alphabet的两个传统上独立的部门EverydayRobots和GoogleBrain都投入了大量的精力。参与该项目的ChelseaFinn和SergeyLevine都是学术专家。显然,谷歌投入了大量资源(比如大量预训练语言模型和人形机器人以及大量云计算)来打造这样的机器人。Marcus说:我并不惊讶他们能把机器人做得这么好,我只是有点担心——我们应该这样做吗?根据马库斯的说法,有两个问题。《瓷器店里的牛》首先,众所周知,这个新系统所依赖的语言技术本身就存在问题;其次,在机器人的背景下,问题可能更大。除了机器人,我们已经知道所谓的大语言模型就像公牛一样——凶猛、强大、鲁莽,在瓷器店里横冲直撞。他们可以在一瞬间直接瞄准目标,然后转向未知的危险。一个特别生动的例子来自法国公司Nabla,该公司探索了GPT-3作为医疗顾问的效用:这个例子不胜枚举。Alphabet的另一家子公司DeepMind针对大型语言模型提出了21个社会和伦理问题,涉及的主题包括公平性、数据泄露和信息。论文地址:https://arxiv.org/pdf/2112.04359.pdf但他们没有提到这一点:嵌入某些模型的机器人可能会杀死你的宠物或摧毁你的房子。我们真的应该认真对待这件事。PaLM-SayCam实验清楚地表明有21个问题需要更新。例如,大型语言模型会建议人们自杀,或者签署种族灭绝协议,或者它们可能是有毒的。而且它们对训练集的细节非常(过度)敏感——当你将这个训练集放入机器人时,如果它们误解了你,或者没有完全理解你的请求的含义,它们会给你带来大麻烦.值得赞扬的是,PaLM-SayCan的员工至少想出了防止这种情况发生的方法。对于来自机器人的每个请求,他们都会进行一种可行性检查:语言模型会推断用户想要做的事情是否真的可以完成。但这是万无一失的吗?如果用户要求系统把猫放到洗碗机里,是可以的,但是安全吗?合乎道德吗?如果系统误解了人类,也会出现类似的问题。例如,如果人们说“把它放在洗碗机里”,而大语言模型将“它”的指称看作猫这个词,那么用户指的是其他东西。从对大型语言模型的所有研究中,我们了解到它们根本不够可靠,无法让我们100%清楚地了解用户意图。误解是不可避免的。如果不对这些系统进行真正严格的检查,其中一些误解可能会导致灾难。MaayanHarel为RebootingAI画了这个很棒的插图,机器人被告知把所有东西都放在客厅里:还记得《爱,死亡,机器人》第3册中要求主人把猫扔向狂暴的机器人真空吸尘器的故事吗?现实世界的差距现实是,目前没有可行的解决方案来解决困扰大型语言模型的许多“对齐”问题。正如Marcus之前提到的:大型语言模型只是表面的统计模拟,而不是传达对周围世界的丰富认知的模型。不可能在对世界知之甚少的语言系统上构建机器人。而这正是谷歌的新系统正在做的事情:将一个肤浅的、无可救药的语言理解者与一个强大的、具有潜在危险的类人动物拼接在一起。俗话说,garbagein,garbageout(垃圾进,垃圾出)。请记住,呈现与现实之间通常存在巨大差距。自动驾驶汽车示范已经存在了几十年,但事实证明让它们可靠地工作比我们想象的要困难。谷歌联合创始人谢尔盖布林在2012年承诺,到2017年我们将拥有自动驾驶汽车;现在是2022年,它们仍处于有限的实验测试中。正如马库斯在2016年警告的那样,核心问题是边缘情况:自动驾驶汽车在常见情况下表现良好。如果你把它们放在帕洛阿尔托阳光明媚的天气里,它们会很棒。如果你把它们放在下雪或下雨的地方,或者它们以前没见过的地方,它们会很困难。StevenLevy有一篇关于谷歌自动驾驶汽车工厂的精彩文章,他在文中谈到了2015年底的重大胜利,即他们终于让这些系统能够识别树叶。系统可以识别树叶,这很好,但有些不太常见的东西没有那么多数据。这仍然是核心问题。直到最近几年,无人驾驶汽车行业才意识到这一现实。正如WaymoAI/ML工程师WarrenCraddock最近在一个应该完整阅读的帖子中所说的那样:事情是这样的:边缘情况的数量是无限的。有无数不同的万圣节服装。闯红灯的速度是连续的。无法枚举边缘情况。即使您可以枚举边缘情况,也无济于事!而且,最重要的是-当您了解边缘情况本质上也是无限的时,您就会明白问题的复杂程度。深度网络的本质——它们的底层机制——意味着边缘案例很容易被遗忘。你不能只经历一次边缘案例就让它消失。没有理由认为机器人或具有自然语言界面的机器人(例如谷歌的新系统)可以免于这些问题。可解释性问题另一个问题是可解释性。谷歌在如何让系统在某种程度上具有可解释性方面下了很多功夫,但还没有找到一种明显的方法将大型语言模型与那种形式化验证(常用于微处理器、USB驱动程序和大型飞机设计)结合起来。法)一起。是的,您可以使用GPT-3或PaLM编写超现实散文,无需通过验证;您还可以愚弄Google工程师,让他们相信您的软件是有感知力的,而无需确保系统连贯或正确。但处理各种家务的类人家庭机器人(不仅仅是Roomba的真空吸尘器)需要做的不仅仅是与用户进行社交,它们还需要可靠、安全地处理用户请求。如果没有更大程度的可解释性和可验证性,很难看出我们如何才能达到这种安全级别。自动驾驶汽车行业一直押注的“更多数据”不太可能成功。Marcus在2016年的那次采访中说,他仍然这么认为——大数据不足以解决机器人问题:如果你想在家里有一个机器人——我仍然幻想Rosie机器人做我的家务——你不能让它犯错误。[强化学习]主要是大规模试错。如果你家里有机器人,你就不能让它多次撞到你的家具上。您不希望它把您的猫放入洗碗机一次。您无法获得相同规模的数据。对于现实环境中的机器人,我们需要的是它们能够从少量数据中快速学习。谷歌和EveryDayRobots后来发现了这一切,甚至制作了一段搞笑视频承认了这一点。但这并没有阻止一些媒体得意忘形。以夸张的标题写了这篇文章,美化了研究情况,使它看起来好像解决了一个关键问题。谷歌新机器人通过“网络抓取”学会听指令这让人想起2015年杂志的两篇文章,同样乐观的标题,以及从未落地的项目。Facebook宣布开启M项目,挑战Siri和Cortana以及这篇文章——深度学习将很快让我们成为超智能机器人。我们都知道后来的故事:FacebookM流产了。7年,没有人可以用任何价格买到超智能机器人。当然,谷歌的新机器人确实学会了通过“抓取网络”来接受一些命令,但机器人技术在细节中。在理想情况下,当机器人可供选择的选项数量有限时,性能在75%左右。机器人必须选择的动作越多,其性能可能就越差。Palm-SayCan机器人只需要处理六个动词;人类有成千上万的动词。如果你仔细阅读谷歌的报告,你会发现在某些操作中,系统的正确执行率为0%。对于一个通用的人形家用机器人来说,75%是远远不够的。想象一下,一个家用机器人被要求将爷爷抱上床睡觉,但四次中只有三次成功。没错,谷歌做了一个很酷的演示。但它离现实世界的产品还有很远的距离。PaLM-SayCan提供了一个未来的愿景——一个类似Jetsons的系统,我们可以在其中与机器人交谈以帮助完成日常琐事。这是一个美丽的愿景。但马库斯说:但如果我们中的任何人——包括马斯克——“屏住呼吸”并期待这样的系统在未来几年内实现,那么他就是个白痴。