www.ydisp.cn/oss/202207/13/b36cc353018121b5ebc9984c7e51d238d71393.png"alt="马毅沉向阳曹颖最新AI评测火了!历时3个月打造,网友:必读论文"title="马伊琍、沉向洋、曹颖最新AI评测火爆!历时3个月创作,网友:必读论文"style="visibility:visible;宽度:1080px;height:341px;"data-type="inline">根据我的描述,这篇论文是关于他“将近五年的工作与七十多年的智能发展有机结合起来的”,还说:我这辈子从来没有在一篇文章上花费如此多的精力和时间,具体来说就是《智能的起源与计算原理》的基本轮廓和框架,让大家认识到理论联系实际的可能性。“之前在社交网络上公布的时候,很多网友都满怀期待。结果今天公布没多久,就有学者说是要设计一个新的生成模型,这给了我灵感看看这是什么论文两大原则:简单性和自洽性过去十年,人工智能的进步主要靠训练同构黑盒模型,而决策过程、特征表示等在很大程度上是莫名其妙的。而这种端到端的Roughtraining不仅导致模型规模、训练数据和计算成本的不断增长,而且在实践中也伴随着很多问题,学习到的representation缺乏丰富性;缺乏训练的稳定性;缺乏适应性,容易发生灾难性遗忘……在此背景下,研究人员假设这些问题在实践中的根本原因之一是la系统全面地了解智能系统的功能和组织原则。这背后是否有一个统一的方法来解释。为此,本文提出了简单性和自洽性两个基本原则,并分别回答了关于学习的两个基本问题。1.学习什么:从数据中学习的目标是什么,如何衡量?2.HowScience:我们如何通过高效且有效的计算来实现这样的目标?他们认为,这两个原则支配着任何智能系统的功能和设计,并且可以以可测量和可计算的方式重新表达。以简约为例。智能的基础是环境中的低维结构,使得预测和泛化成为可能,这就是简单性原理。应该如何衡量?本文提出了一个几何公式来衡量简单性。基于这两个原理,推导出了感知/智能的通用架构:压缩器和生成器之间的闭环转录。暗示两人的互动应该是一场追逐和逃跑的游戏。在这个游戏中,他们玩的是联合目标函数的反面,而不是自动编码器。这也是这个框架的主要优势之一,通过自我监督和自我批评进行自我学习,这是最自然和有效的。从根本上说,这个框架可以扩展到完全无监督的环境,其中每个新样本及其增量都被简单地视为一个新类。自监督式+自我批评的博弈机制,这样的闭环转录会很容易学。值得注意的是,这种学习特征的结构类似于在灵长类动物大脑中观察到的类别选择区域。作者之一曹颖表示,这个框架和之前的很多思路类似,包括predictivecoding、contrastivelearning、generativemodels、Transformer……此外,他们还给出了一些新的方向,比如CV和图形闭环关系。最后集成在一起,一个自治代理,学习某项任务的最佳策略就是将感知(反馈)、学习、优化和行动集成到一个闭环中。它统一并解释了现代深度网络和许多AI实践的演变。虽然整篇文章主要以可视化数据的建模为例。但研究人员认为,这两个原则将统一对范围广泛的自主智能系统的理解,并为理解大脑提供一个框架。最后,他们以热力学之父的话结束。粗略地说,这意味着只有当你能够测量,并将数字放入你所谈论的内容中时,你才知道一些事情;如果没有,这可能是知识的开始,但在你的思想中你几乎没有进入科学阶段。OneMoreThing有意思的地方在于,投稿到arXiv的时候,马一教授还在网上求助:谁能写个界面?一键提交论文。而不是花很多时间修改论文。网友们也提出了建议:用LaTeX编译器代替PdfLaTeX。别人直接上传了图片。好了,感兴趣的朋友可以点击下方链接了解更多~论文链接:https://arxiv.org/abs/2207.04630
