当前位置: 首页 > 科技观察

AI越进化越跟人类大脑像!Meta找到了机器的“前额叶皮层”,AI学者和神经科学家都惊了

时间:2023-03-13 18:15:35 科技观察

人工智能越进化,它就越像人脑!Meta发现了机器的“前额皮质”,让AI学者和神经科学家震惊不已。说出来你可能不相信,但人工智能刚刚被证明能够以类似于大脑之谜的方式处理语音。它们甚至可以在结构上相互对应——科学家已经直接定位了人工智能中的“视觉皮层”。MetaAI等机构的这项研究一经发表,立即在社交媒体上引爆。一大波神经科学家和人工智能研究人员前去围观。LeCun称赞这是“出色的工作”:自我监督的Transformer分层活动与人类听觉皮层活动之间确实存在密切的相关性。有网友趁机调侃:对不起Marcus,AGI真的快来了。不过,这项研究也引起了一些学者的好奇。例如,PatrickMineault博士麦吉尔大学神经科学博士提出了问题:在NeurIPS上发表的一篇论文中,我们也试图将fMRI数据和模型联系起来,但当时我们认为这两者没有任何关系。那么,这是什么样的研究,又是如何得出这个人工智能像大脑一样工作的结论的呢?AI学会像人脑一样工作简而言之,在这项研究中,研究人员专注于语音处理问题,将自我监督模型Wav2Vec2.0与412名志愿者的大脑活动进行比较。412名志愿者中,351人说英语,28人说法语,33人说中文。研究人员听了大约一个小时的有声读物,并在此过程中用fMRI记录了他们的大脑活动。在模型方面,研究人员使用了600多个小时的未标记语音来训练Wav2Vec2.0。对应志愿者的母语,模型也分为英文、法文、中文三种。另一个模型使用非语音声学场景数据集进行训练。然后,这些模特也听了志愿者的同一本有声读物。由此,研究人员提取了模型的激活。相关性的评估标准遵循以下公式:其中X是模型激活,Y是人脑活动,W是标准编码模型。从结果来看,自监督学习确实能让Wav2Vec2.0产生类脑语音表征。从上图可以看出,在初级和次级听觉皮层中,AI清楚地预测了几乎所有皮层区域的大脑活动。研究人员还进一步发现了人工智能的“听觉皮层”和“前额叶皮层”生长在哪一层。该图显示听觉皮层与Transformer的第一层(蓝色)最佳对齐,而前额叶皮层与Transformer的最深层(红色)最佳对齐。此外,研究人员还定量分析了人类感知原生音素和非原生音素的能力差异,并将其与Wav2Vec2.0模型进行了比较。他们发现,人工智能和人类一样,对“母语”的歧视能力更强。例如,法国模特比英国模特更容易感知来自法语的刺激。上述结果证明,600小时的自监督学习足以让Wav2Vec2.0学习特定语言的表征——相当于婴儿在学习说话过程中接触到的“数据量”。要知道,之前的DeepSpeech2论文认为,至少需要10,000小时的语音数据(必须标记)才能构建良好的语音转文本(STT)系统。再次引发了神经科学界和AI界的讨论。对于这项研究,有学者认为确实取得了一些新的突破。例如,来自GoogleBrain的JesseEngel表示,这项研究将可视化过滤器提升到了一个新的水平。现在,你不仅可以看到它们在“像素空间”中的样子,还可以模拟它们在“类脑空间”中的样子:再举个例子,前MILA和谷歌研究员JosephViviano认为,这项研究也证明fMRI中的静息态成像数据很有意义。但在讨论中,也有一些质疑的声音。例如,PatrickMineault博士在神经科学领域,他不仅指出自己做过类似研究但未能得出结论,还提出了一些质疑。他争辩说这项研究并没有真正证明它测量的是“语音处理”。与人类说话的速度相比,fMRI测量信号的速度其实很慢,因此妄下“Wav2vec2.0学习了大脑的行为”的结论是不科学的。当然,PatrickMineault表示他并不否认研究的观点,他本人也是“作者的粉丝之一”,但这项研究应该给出一些更有说服力的数据。另外,有网友认为Wav2vec的输入和人脑的输入不一样,一个是处理后的波形,一个是原始波形。对此,作者之一、MetaAI研究员Jean-RémiKing总结道,要模拟人类水平的智能,确实还有很长的路要走。但至少就目前而言,我们可能走在正确的道路上。你认为呢?论文地址:https://arxiv.org/abs/2206.01685