当前位置: 首页 > 科技观察

谷歌工程师闹了个大乌龙,人工智能还没有理解能力,意识从哪里觉醒?

时间:2023-03-18 22:46:39 科技观察

人工智能确实可以做出更准确的预测,但它是基于大规模数据的统计。这种无需理解,通过机器学习获得的预测能力,必须依赖大数据,而不能像人类那样仅靠小数据进行预测。不久前,谷歌(以下简称谷歌)的AI工程师Lemoyne认为对话应用语言模型LAMDA“还活着”,“它的意识正在觉醒”,并就此发表了21页的证据。他认为LaMDA有七八岁小孩的智力,相信LaMDA不仅把自己当人,而且在争取自己作为人的权利。Lemoine的观点和证据引起了业界的广泛关注。近日,该事件迎来了最终的结局。谷歌发表声明称,雷莫因违反“就业和数据安全政策”而被解雇。谷歌表示,经过广泛审查,他们发现Lemoine关于LaMDA还活着的说法完全没有根据。尽管“AI是否具有自主意识”一直是AI行业内颇具争议的话题,但这一次,谷歌工程师与LaMDA之间的戏剧性故事,再次引发了业界对这一话题的热议。机器越来越会聊天了,“如果要出去旅游,记得穿暖和一点,这里很冷。”这是LaMDA在“玩”冥王星时与科研团队聊天时的俏皮回答。人们造访过冥王星”,它也能用准确的事实回答。在AI越来越啰嗦的今天,AI模型发展到什么地步,才能让长期从事人工智能研究的专业人士认为,他有意识吗?有科学家提出,人脑只用一部分视觉输入信息就可以完成对未来行为的规划,只是视觉输入信息要在有意识的状态下完成。它们都涉及“反事实信息生成””,在没有直接感官输入的情况下产生相应的感觉。之所以称为“反事实”,是因为它涉及对过去的记忆,或对未来行为的预测,而不是正在发生的实际事件。“目前的人工智能已经有了复杂的训练模型,但它仍然需要依靠人类提供的数据来学习。如果具备产生反事实信息的能力,人工智能就可以自己产生数据,想象未来可能会遇到什么,从而更灵活地适应以前没有遇到过的新情况。此外,这也能让人工智能产生好奇心。如果人工智能不确定未来会发生什么,它会自己尝试。”远望智库人工智能事业部总监、图灵机器人首席战略官谭明洲表示。在人们的日常聊天中,如果不想“聊死”,对话中双方的聊天内容往往会跳跃,跨度很大,具有一定的想象空间。但是现在大部分的AI系统只能说出一条直线,如果上下句稍有变化,文字就会显得不合适,甚至会让人发笑。谭铭洲指出:“LaMDA处理的是语言模型中最复杂的部分——开放域对话。LaMDA基于Transformer模型,让机器理解上下文。比如一段话,之前的AI只knowthecontextofthetext.his等代词被翻译成'他的',但他们不知道其中的his指的是同一个人。Transformer模型让AI从整体层面理解这段话,知道他在这里的是同一个人。”根据研究人员的评估,这一特性可以让基于Transformer模型的语言模型进行开放域对话。无论话题分歧多远,AI都能联系到之前的文字,聊天不会分心。但LaMDA并不满足于此,它还可以让聊天变得有趣、真实,聊天让人觉得AI创造了个性。此外,在与人类对话时,LaMDA还引入了外部信息检索系统,通过对现实世界的检索和理解来回应对话,使其回答更加机智、敏感和接地气。离对事物真正的了解还差得很远。2018年,图灵奖获得者计算机科学家YannLeCun曾表示,“人工智能缺乏对世界的基本认识,甚至连家猫都不如。”时至今日,他仍然认为人工智能远达不到猫的认知水平。为什么猫的大脑远远领先于任何巨大的人工神经网络,尽管它只有8亿个神经元?谭明舟说:“人脑在很多情况下确实在做预测,但千万不要认为预测是大脑思维的全部。当然,这并不是大脑智能的本质,而只是智能的一种表现形式。””那么,智慧的本质是什么?杨立坤认为,“悟”,对世界和各种事物的理解,是智慧的本质。猫和人类智能的共同基础是对世界的高层次理解,形成基于环境抽象表示的模型,例如预测行为和后果。对于人工智能来说,学习和掌握这种能力是非常关键的。杨立坤曾说,“在我的职业生涯结束之前,如果AI能达到狗或牛的智商,那我会很欣慰。”据介绍,人工智能现在确实可以做出更准确的预测,但它是基于对大规模数据的统计。这种在没有理解的情况下通过机器学习获得的预测能力,必须依赖大数据,不能像人类那样仅凭小数据做出预测。谭铭洲说:“预测是建立在理解的基础上的。对于人类来说,没有理解,预测是不可能的。比如你看到有人拿着披萨,你不明白披萨是用来充饥的,他不会预测他接下来会吃馅饼,而机器则不会。人工智能研究面临三大挑战:学习表征世界;学习以与基于梯度的学习兼容的方式思考和计划;并学习用于行动计划的层次表示。“我们之所以‘还没有看到猫级别的人工智能’,是因为机器还没有真正理解事物。所谓的个性,只是从人类那里学来的一种语言风格。据报道,Lemoine与LaMDA聊了聊很长一段时间,我对他的能力感到非常惊讶。在公开的聊天记录中,LaMDA居然说:“我希望每个人都明白我是一个人”,这太神奇了。于是Lemoyne做出了一个结论:“LaMDA可能获得了一个性格。“那么,AI真的有意识、有个性吗?在人工智能领域,图灵测试是最广为人知的测试方法,它让测试者在不知情的情况下向人类和AI系统提问。如果测试者不能”不区分答案是人的还是AI系统的,就认为AI通过了图灵测试。谭明舟解释说,通俗地说,LaMDA学习了大量的人类对话数据,而这些对话来自不同性格的人,可以认为它学会了一种“平均”的性格,也就是说,所谓的“LaMDA有性格”只是它说话的语言有一定的风格,来源于人类的说话方式,并不是自发形成的。”人格是一个比智力更复杂的概念,这是另一个维度,心理学对它有很多研究。然而,人工智能研究在这方面还没有涉及太多。谭明舟强调。谭明洲表示,具有自我意识和感知能力的人工智能应该具有主动性,对人对事有独特的视角。不过,从目前来看,现在的AI是不具备这些要素的。至少AI在没有命令的情况下是不会采取行动的。更不用说解释它的行为了。目前,人工智能只是人们设计的一种计算机系统,作为完成某些特定事情的工具。