编辑| CJ简介:本文作者Carlos E. Perez是Intuition Machine Company的创始人,并撰写了《人工直觉与深度学习手册》(人工直觉和深度学习手册)。
他将于今年3月1日至2日在阿姆斯特丹举行的年度信息能源会议(Information Energy)上发表关于交互式认知模型的演讲。
本文的十大预测涉及多个领域,例如AI芯片、深度学习的可解释性、AlphaGo的自对弈学习、交互认知等问题。
新的一年我有一种不祥的预感,因为今年可能会带来翻天覆地的变化。
深度学习在2016年取得了巨大的进步,这种势头将在2018年继续下去。
2018年的许多研究成果将在2018年应用于日常应用中。
就像我去年所做的那样,今年我也会做出十个预测2019年深度学习的趋势: 1、绝大多数深度学习硬件初创公司都会失败。
很多做深度学习硬件的初创公司会在2020年开始推出他们的硬件产品(编者注:比如专用的AI芯片和AI板卡)。
他们中的大多数人失败是因为他们没有足够好的软件来支持他们的新硬件产品。
而这些公司的硬件产品就像他们的DNA一样。
不幸的是,在深度学习领域,软件和硬件一样重要。
但几乎所有类似的初创企业都不懂软件,不知道如何花钱去开发软件。
这些公司只知道如何制造硬件,但没有可以与这些硬件一起使用的软件。
因为一些易于实现的脉动阵列解决方案(Systolic Array Solutions)被提出,人工智能的性能提升了十倍,但正因为如此,这样的好事不会每年都会发生,我们也不应该期待人工智能在这一年里。
性能可以如此轻松地大幅提高。
未来,张量处理器(TPU)不仅会被研究人员用于推理,还会加速人工智能训练。
英特尔的产品发布仍然被推迟。
大家都在好奇Intel什么时候发布新产品,但我想即使推迟这么久发布也会令人失望。
(编者注:智动智最近深入了解了英特尔的AI芯片《三年半了!英特尔这颗AI芯片鱼雷要发射了吗》)谷歌将继续用TPU的研发成果让大家惊叹。
我认为谷歌未来可能会通过向其他半导体公司授权知识产权的方式进入硬件市场。
如果是这样,英伟达在这个行业的唯一竞争对手可能就是谷歌。
2.元学习将成为新的随机梯度下降(SGD)方法。
今年,出现了许多伟大的元学习研究。
由于研究界普遍对元学习有了更好的理解,这种利用性和探索性搜索的结合更加有效,因此旧的随机梯度下降模型(SGD)将被淘汰。
无监督学习将会取得巨大进步,但进步多少将取决于元学习算法的发展。
3、生成模型将引领新一代建模潮流。
生成模型将更多地应用于科学探索领域。
目前看来,这方面的研究更多是关于生成图像和语音。
然而,我们可以看到它与其他工具结合用于复杂模型建模的可能性,特别是与经济模型建模中的深度学习结合。
4、“自玩”实际上是一种知识的自动生成。
AlphaGo Zero和Alpha Zero的“自我对弈”和从碎片信息中学习的能力是一个飞跃。
我个人的看法是,这个结果的重要性相当于深度学习的出现。
深度学习发现了一种可以无限逼近函数模型的通用方法。
强化学习的“自我对弈”发现了人工智能自行产生常识的方法。
我真的很期待看到这个领域的更多发展。
5. 直观的机器将填补语义空白。
这应该是我做过的最大胆的猜测了。
我们将填补直觉机器和理性机器之间的语义差距。
在如何构建新的人工智能领域,双过程理论将是最流行的理论。
人工直觉(Artificial Intuition)的概念也将在2018年被更广泛地接受,不再是一个边缘概念。
6. 可解释性是不可能实现的——但我们可以“伪造”它。
可解释性存在两个问题。
大家比较清楚的一个问题是,这中间的条件太多了,这是人类无法完美掌握的。
第二个问题很少有人知道,那就是机器能想出的概念可能根本不是人类的,而且完全无法解释。
我们已经在 AlphaGo Zero 和 Alpha Zero 中看到了这些。
人类会认为人工智能的举动不同寻常,但同时,人类却完全无法理解这一举??动背后的逻辑。
在我个人看来,可解释性是一个不可能解决的问题。
相反,可能发生的情况是机器可能变得非常擅长“虚假”解释。
简单来说,可解释机器的任务就是理解什么样的解释是人类可以接受的或者在一定程度上可以理解的。
然而,在大多数情况下,所谓的完整人工智能会产生人类绝对无法理解的解释。
我们必须从“证伪解释”的方向突破深度学习中的可解释性问题。
7、深度学习的研究成果将会像洪水一样失控。
今年对于很多关注深度学习研究领域的人来说是非常艰难的一年。
国际学习表征会议(ICLR会议)收到约10篇论文。
这意味着每个研究人员每天阅读十篇论文只能掌握一次会议的内容。
在这个领域,今年这个问题将变得更加棘手,因为理论框架仍在形成过程中。
在理论研究中,我们需要寻找更先进的算法,以获得更深入的研究成果。
这将是一项壮举,因为大多数深度学习研究人员没有足够的数学理论背景来理解此类系统的复杂性。
深度学习研究人员需要具备完整而复杂的理论背景,但合格的研究人员却很少。
这种情况造成的结果就是发表的论文太多,理论也很粗糙,这也是我们今天陷入如此尴尬境地的原因。
还缺少强人工智能(AGI)研究的方向和目标。
由于理论基础薄弱,我们现在最需要做的是制定一个包含人类认知里程碑的方向。
我们需要从认知心理学的一些理论猜想中提炼出一个粗略的框架。
这种情况并不好,因为这些领域现有的经验根本就不摆在桌面上。
2018年深度学习研究论文数量可能会是2018年的三倍或四倍。
8.教学环境将体现工业化。
为了让深度学习系统更加可预测、可控,教学环境的研究进展非常关键。
我之前的文章里已经详细说过了,这里就不再赘述了。
如果想了解最原始的教学技术,只需要看看深度学习网络是如何训练的。
我们还将看到这一领域的更多进展。
随着如此多的公司开始大规模部署深度学习,我预计会有更多的公司公开其内部基础设施。
9.会话认知的兴起我们衡量强人工智能进步的基础已经跟不上时代的发展了。
由于现实世界是动态且复杂的,因此迫切需要新的交互认知模型。
来年将会对这个新领域进行更多探索。
10.我们需要在伦理道德范围内使用人工智能。
对人工智能的伦理道德要求将会更高。
人们越来越意识到,不受控制的自动化后果可能是灾难性的。
即使在Facebook、Twitter、Google、Amazon等网站上,我们能看到的一些简单化的自动生成也会对社会产生一些不良影响。
我们需要了解,使用可以预测人类行为的机器背后存在伦理问题。
我们今天常用的面部识别就是这些危险的应用之一。
另外,想象一下,如果人工智能使用算法生成难以辨别真假且与现实中可能看到的没有什么不同的媒体内容。
这将是一个大问题。
我们现在必须开始要求,应用人工智能的目的只能造福社会,而不能用来加深人与人之间的差距和不平等。
我期待今年看到更多关于人工智能伦理的讨论。
不过,我并不希望看到相关管理规定的出台。
由于政府人员信息滞后,完全无法了解人工智能可能对社会产生的影响。
我根本不抱任何期望。
他们不可能停止玩弄权力,真正解决社会问题。
正如美国人民遭受安全漏洞之苦一样,我们仍然没有看到任何可以解决问题的新立法或提案公布。
所以不要真的认为当权者会醒来,它不存在。
结论,准备好感受影响吧!综上所述,2019年将是关键的一年,让我们拭目以待。