为了实现更高水平的人工智能,各方都在寻找解决方案。优化现有技术和产品是获得结果的更快方法,但革命性的新技术吸引了更多关注。其中,量子计算和类脑芯片的每一项进展都备受瞩目。他们的发展是否达到预期?AI、量子计算、类脑芯片都很早就被提出,但AI时代对量子计算和类脑芯片的需求更为迫切。原因是传统的冯诺依曼结构存在瓶颈。在冯诺依曼结构中,计算模块和存储单元是分开的。当CPU执行命令时,首先要从存储单元中读取数据。快,还等内存。因此,基于冯诺依曼结的人工智能计算面临着计算能力提升和“记忆墙”等挑战。冯·诺依曼结构因此,无论是量子计算还是类脑芯片,都有可能引领人工智能的发展。这两种计算方式目前进展如何?量子计算您所认为的量子计算量子计算机使用“量子位”来存储数字。与当今计算机使用的经典位相比,传统的二进制存储数据只能处于“0”或“1”的某种状态,而A量子位可以同时存储0和1,通过量子力学实现叠加。因此,量子计算可以解决当前计算机系统无法解决的问题。当然,提到量子计算,很多人可能会想到量子计算的超强计算能力。例如,一个50量子比特的设备可以以每秒1125亿次的速度运行,秒杀世界上最大的超级计算机。当然,也有人期望量子计算能够解决很多目前计算机无法实现的问题,比如密码破解,模拟量子物理系统,模拟材料科学、化学和生物学,解决人工智能中的很多问题。但实际情况如何呢?20世纪80年代,量子计算机大多处于理论推导阶段。1994年,PeterShor提出了量子素因数分解算法。2011年5月11日,加拿大D-Wave系统公司发布了被誉为“第一台商用量子计算机”的计算设备“D-WaveOne”,包含128个量子比特。不过,该量子设备是否真正实现了量子计算,目前还没有得到学术界的广泛认可。只有证据表明D-Wave系统的逻辑与传统计算机不同。随后,NASA、谷歌、IBM、新南威尔士大学、马里兰大学学院城等大学在量子计算方面取得了一定进展,越来越多的学术机构、公司和国家加入了量子计算的竞争。2018年,巨头之间的竞争更加激烈。量子计算在2018年备受关注。在CES2018上,英特尔宣布成功设计、制造并交付了具有49个量子位(qubits)的超导测试芯片TangleLake。今年6月,英特尔表示研究人员正在测试一种微型新型“自旋量子比特”芯片,它比铅笔橡皮还小,是英特尔制造的最小的量子计算芯片。2018年3月,谷歌推出了一款名为Bristlecone的芯片。据悉,Bristlecone芯片拥有72个由超导电路制成的量子比特。据称是目前最先进的量子芯片,超过了IBM的50个量子位和英特尔的49个量子位。同月,百度宣布成立量子计算研究院,开展量子计算软件和信息技术应用的业务研究。它计划在五年内建立全球最大的量子计算研究所,并逐步将量子计算融入其业务。还是在三月份,微软宣布发现了马约拉纳费米子存在的证据。下一步是将费米子转化为量子,并希望在2018年底前实现,并在5年内向其他公司提供可用的量子计算机。5月,微软在Build大会上宣布,将在5年内打造出100个拓扑量子比特的量子计算机,并将其整合到微软云Azure中。阿里巴巴量子实验室石耀云团队也在5月宣布,成功研发出全球最大的量子电路模拟器太章。太章成功模拟了81(9x9)比特和40层的谷歌随机量子电路作为基准。以前达到这个层数的模拟器只能处理49位。还是在5月份,《科学进展》杂志以《A chip that allows for two-dimensional quantum walks》为题报道了上海交通大学金宪民团队通过“飞秒激光直写”技术制备出节点数为49×49的光量子计算芯片。据悉,这是目前全球最大的三维集成光量子计算芯片。在9月份的阿里巴巴云栖大会上,阿里巴巴CTO、达摩院院长张建峰表示,达摩院已经开始研发超导量子芯片和量子计算系统。10月,华为在全联接大会期间正式发布了量子计算模拟器HiQ云服务平台,包括量子计算模拟云服务和量子编程框架。12月,中国科学技术大学郭光灿院士团队宣布成功研制出精简高效的量子计算机控制系统。2019年推出第一台自主商用量子计算机,但并不被看好。量子计算在2018年备受关注,刚刚进入2019年,量子计算又再次备受关注。在CES2019上,IBM宣布推出IBMQSystemOne,这是全球首个专为科学和商业目的而设计的集成通用近似量子计算系统,IBM还计划在纽约波基普西开设首个IBMQ量子计算中心2019年。IBMQ系统的目标是解决被认为对于当前经典系统而言过于复杂的问题,以帮助开发人员在量子计算机和具有传统架构的计算机之间构建接口。IBM还指出,IBMQ旨在解决量子计算中最具挑战性的问题之一:保持用于执行量子计算的量子比特的质量。IBM看到的量子计算的未来应用包括寻找模拟财务数据的新方法,隔离关键风险因素以实现更好的投资,或寻找跨系统的最佳路径以实现超高效的物流和优化的交付操作。IBM在量子计算的商业化方面走得更远。2016年研发出5个量子比特的量子计算机,并免费向公众开放IBMQ量子计算机的云接入。不过,外界并不看好IBM首台独立商用量子计算机。外媒TheVerge称:像IBMQSystemOne这样的量子计算系统仍处于实验阶段。谈到现实生活中的计算,您的笔记本电脑可能更强大。TechCrunch评论说,对于大多数商业应用来说,一台20-Bit的机器是不够的。更多的评论说,IBM只是给自己的实验设备加了一个华丽的外壳而已。除了IBM之外,澳大利亚新南威尔士大学最近也宣布,该大学量子计算和通信技术卓越中心(CQC2T)的研究人员已经证明,他们开创性的单原子技术可用于构建3D硅量子芯片实现了精确的层间对准和高精度的自旋态测量,实现了全球首个3D原子级硅量子芯片架构,向构建大规模量子计算机迈出了重要一步。只是IBM首台独立商用量子计算机发布后饱受质疑,尚不清楚需要多长时间才能在实验室取得突破,为大规模量子计算的建设贡献力量。因此,量子计算确实是未来的一个重要方向。各个国家和巨头也都投入了大量的资金进行研发,但量子计算要达到理想状态还有很长的路要走,我们在火热的发展中应该理性看待。类脑芯片类脑芯片架构模拟了人脑的突触传递结构。该芯片通过模仿人脑的工作原理,用神经元和突触取代传统的冯·诺依曼架构,能够对信息数据进行异步、并行、低速和分布式处理,具有自主感知、识别和学习的能力.类脑芯片在2018年1月迅速引起了广泛关注。因此,斯坦福大学研究院电子与微系统技术实验室的JeehwanKim教授在《自然》杂志上发表了一篇论文,称他和研究人员使用一种名为Developedan支持机器学习算法识别手写字符的硅锗材料人工突触芯片。IBMTrueNorth不仅在学术界,而且在工业界引起了轰动。IBM不仅在量子计算的商业化方面取得了快速进展,而且在类脑芯片的研究上也处于领先地位。2011年8月,在模拟人脑结构的基础上,研制出两款具有感知和认知功能的硅芯片原型TrueNorth,引起轰动。第二代TrueNorth于2014年发布,100万个“神经元”、256个“突触”、4096个并行分布式神经核、54亿个晶体管集成在一张邮票大小的硅片上。与第一代相比,也有不小的进步。功耗方面,每平方厘米消耗20毫瓦,是第一代的百分之一。直径有几厘米,是第一代的十五分之一。.IBM表示,如果48个TrueNorth芯片组成一个拥有4800万个神经元的网络,那么这48个芯片的“智能水平”将与普通鼠标相似。IBM在2014年发布第二代TrueNorth后,直到2017年11月,科技部报告称,IBM即将研制出一款由64颗类TrueNorth神经形态芯片驱动的新型超级计算机,可以进行大规模深度神经网络。实时分析可在高速空中分辨真假目标,功耗比传统计算机芯片低4个数量级。然而,在2014年IBM宣布TrueNorth之后,深度学习先驱、FacebookAI研究团队负责人YannLeCun在一篇文章中写道,该芯片在使用卷积神经网络的深度学习模型进行图像识别时会遇到困难。.英特尔Loihi芯片比虾脑还复杂比IBMTrueNorth新型超级计算机的消息早两个月,英特尔于2017年9月推出了自学习神经芯片Loihi。据悉,Loihi由128个计算核心组成,每个核心有1024个人工智力。神经元,整个芯片有超过13万个神经元和1.3亿个突触连接。与所有神经元芯片一样,Loihi模仿大脑的工作方式,以“刺激神经元”作为其基本计算基础,根据环境的不同反馈模式进行操作。这些神经元取代了传统硅芯片中的逻辑门,而不是将信息处理为二进制1和0,他们对发送的信号进行加权,使它们的功能比二进制更模拟。英特尔声称,Loihi的能效比当今的处理器高出1000倍,并且该芯片可以适应Go语言并用它来学习。Loihi不需要依赖深度学习,拥有大规模的数据和大量的计算能力,可以自主学习(自学习)。换句话说,Loihi可以在单芯片上完成对需要实时学习的现实世界设备的训练和推理:自动驾驶无人机和汽车,实时适应环境中发生的事情;使用相机寻找失踪人员;或者让交通信号灯自动适应交通状况。2018年,英特尔神经拟态计算项目总监迈克戴维斯预测,机器人将成为神经拟态计算的杀手级应用。他还表示,英特尔已经向特定的研究合作伙伴提供了第一批开发系统,他们正在进行感知、电机控制、信息处理等各种应用的研究。需要指出的是,就神经元数量而言,Loihi芯片比简单的虾脑还要复杂。人脑由超过800亿个神经元组成,这意味着这款芯片离模拟人脑的复杂行为还有很远的距离。高通Zeroth芯片到神经处理引擎高通也在积极布局类脑芯片。2013年,高通表示正在开发一种新的计算处理器。这项技术可以模仿人的大脑和神经系统,让终端更加智能,并且预见到需求,高通将其命名为Zeroth。2015年,高通表示,Zeroth的“类脑计算”研究项目在2014年取得了重大进展。关于为仿生脉冲神经网络开发的架构和工具,高通已经开始收集一些指定公司的反馈。高通还表示,Zeroth团队与PlanetGmBH合作,展示了在骁龙和Zeroth平台上运行深度卷积循环神经网络的强大功能。移动端的手写识别完全基于光学字符识别(OCR)***验证。高通还展示了装载该芯片的机器人汽车,使汽车能够在受人脑启发的算法下完成寻路和避障等任务。在MWC2015上,高通正式发布了骁龙820以及采用这款处理器结合“认知计算平台”Zeroth的软硬件。高通表示,有了这个平台,智能手机将变得更加智能,可以在用户发出命令之前预测用户的需求。2016年,名为QualcommSnapdragonNeuralProcessingEngine的SDK搭载了QualcommZeroth机器智能平台,专门针对骁龙的异构计算功能进行了优化。但是,由于Zeroth一开始并不是设计为AI手机和移动终端AI芯片的计算方案,所以在功耗和计算效率上仍然存在着自身的瓶颈。因此,高通推出了面向AI手机和AI终端的AI芯片。更合适的AI引擎Zeroth暂时没有更多消息。中国团队的类脑芯片除了芯片巨头,国内AI芯片初创公司西京推出了自主研发的人脑模拟模拟器(WestwellBrain),规模达100亿个神经元,可商用5000万个类脑神经元芯片。(深南)两款产品,其中商用芯片可模拟5000万级“神经元”,总计超过50亿个“突触”。据悉,该芯片具备“实时自我学习、自我完善”的能力。可直接在芯片上进行计算,无需通过网络连接后台服务器,可在“无网络”情况下使用。还有AI-CTX,国内小型的类脑芯片研究团队。据说他们设计了一种仿脑芯片模型。每个神经元不仅具有与人脑神经元相似的电特性和动态参数,而且还具有简单的计算和存储功能。还采用特殊布线方式,突破芯片间通信的物理限制,增加芯片组原有网络,擅长处理包括温度、气压、人体信号、loT等时间参数的数据等总结量子计算和类脑芯片都可能成为改变人工智能的两大技术。不过,即使巨头投入大量资源研发,这两项技术仍面临诸多挑战,大规模应用尚无明确时间表。这两项技术也不断受到质疑。IBM在推出第一台量子计算机后面临质疑,竞争对手阿里巴巴也质疑谷歌对2018年实现量子霸权的乐观态度。各大公司的研究表明,像IBMTrueNorth这样的类脑芯片运行效率低于传统上使用神经网络的芯片架构。英特尔实验室的高级高级工程师和资深科学家NarayanSrinivasa也承认,英特尔的Loihi芯片在某些深度学习模型上表现不佳。然而,赫瑞瓦特大学教授迈克尔哈特曼在最新的论文中写道:“我和我的同事们希望建造第一台专用神经网络计算机,使用最新的‘量子’技术而不是人工智能软件。通过结合计算的两个分支,神经网络和量子计算,希望能够取得突破,让人工智能以前所未有的速度运行,并在很短的时间内自动做出非常复杂的决策。”当然,MichaelHartmann也表示需要十年或更长时间。
