更简单、更快捷:探讨深度学习未来的发展步伐技能,重组现有知识结构,不断提升自身性能。它是人工智能的核心,是计算机实现智能化的根本途径。如果说机器学习哪个领域最火,那一定是人工智能,也就是深度学习。深度学习框架,也称为深度神经网络,是一种复杂的模式识别系统,可以执行从自动语言翻译到图像识别的各种功能。深度学习需要收集大量的数据,并具备处理这些数据的能力。做到这一点并不容易,但深度学习技术正在蓬勃发展的道路上,已经冲破了重重障碍。深度学习在分析非结构化数据方面具有很大的优势。各大软件巨头也在酝酿一场深度学习技术争夺战,比如谷歌的TensorFlow项目和百度的桨。多个软件框架之间的竞争愈演愈烈。软件和硬件之间的战争已经开始。据预测,专门的硬件设计模型和服务将成为深度学习的下一个重大进步。可能会有更好、更智能、更高效的算法,可以在不借助硬件的情况下,将功能服务推送给更多人。问题也由此而生,我们大多数人能否逐渐理解并接受深度学习技术?还是我们总是需要计算机博士学位才??能掌握这项技术工作?微软比谷歌更紧张向世界展示一项重要技术的好方法是吸引技术巨头的兴趣。就像过去的NoSQL、Hadoop和Spark。在深度学习框架领域,谷歌的TensorFlow有了长足的发展,谷歌云和谷歌专有硬件的研发也不甘落后。作为竞争对手,微软对抗谷歌的杀手锏是CognitiveToolkit,又称CNTK。CNTK2.0版在多个层面挑战TensorFlow。CNTK现在提供JavaAPI,接受Spark处理框架,支持Keras神经网络库代码,其实就是TensorFlow的前端。这样,Keras用户就可以避开谷歌的解决方案而转向微软。对于谷歌TensorFlow,微软最直接、最有意义的回应是让CNTK更快更准,让PythonAPI提供高级和低级功能。这是微软想出的最佳应对策略。当然,所谓又快又准并不是吹牛。如果微软的系统比TensorFlow更快,那就意味着人们有了更多的选择,而不仅仅是砸硬件设备。比如Tensorflow是通过谷歌定制的TPU处理器进行硬件加速的,这意味着第三方项目,TensorFlow和CNTK接口,比如Spark,都可以加速。感谢雅虎,TensorFlow和Spark已经合作,但如果CNTK和Spark提供更少的工作和更好的报酬,CNTK将成为Spark领域最有吸引力的选择。硬件:Graphcore和WaveComputingGoogleTPU的一个缺点是它们只能在GoogleCloud中运行。对于已经投资GCP的人来说,这可能不是问题,但对于大多数人来说,这是一个潜在的“拦路虎”。用于深度学习的专用芯片,例如NVIDIA的GPU,需要的附加条件更少。几家公司最近推出了用于深度学习应用的专用硅级GPU。推出Graphcore深度学习处理器,这是一种使用来自神经网络的图形数据的专用芯片设计流程。该公司表示,挑战在于创建优化的硬件以运行循环或互连网络和其他网络。Graphcore加速的一种方法是使网络模型尽可能接近硅,避免往返外部存储器。尽可能避免数据移动是加速机器学习的常用方法,但Graphcore通过这种方式将其提升到了另一个层次。Wave计算是为深度学习启用专用硬件的另一种方法。与Graphcore一样,该公司认为GPU的发展与其固有的局限性有很大关系。WaveComputing的计划是构建“数据流设备”,这是一种使用定制芯片的机架式系统,可以提供2.9petaops的计算(“petaops”是定点运算,而不是“petaflop”浮点运算)。这样的计算速度超过了谷歌TPU提供的92teraops量级。当需要独立的benchmark,不清楚每Petaop的价格是否有竞争力时,WaveComputing可以保证价格的稳定性,让潜在用户安心。Google的TensorFlow支持是第一个产品框架支持,其次是CNTK、Amazon的MXNeT等。brodmann17:模型小,速度快鉴于Graphcore和wavecomputing的硬件比TPU好,其他第三方的目的是为了演示框架和更好的算法,可以带来更强大的机器学习。有些用于定位无法访问处理的区域,例如智能手机。谷歌为移动应用更新了TensorFlow,一款名为Brodmann17的工具试图占据智能手机级硬盘上5%的资源(包括计算、存储和数据)。该公司的方法由CEO兼创始人AdiPinhas开创,使用现有的标准神经网络模块来创建更小的模型。Pinhas说,与其他流行的深度学习架构相比,小型模型只需要不到10%的训练数据。但是在相同的时间内需要一些培训。最终目标是在速度、更快的预测时间、更低的功耗和更少的内存使用之间进行精确权衡。在此阶段,不要期望看到任何开源产品出现。brodmann17的商业模式是提供云计算API和本地计算SDK。Pinhas说,“我们想扩展我们未来的产品,所以商业化可能只是第一步。”今年早些时候,InfoWorld撰稿人JamesKobielus预测深度学习框架之间的战争即将开始。雅虎已经将TensorFlow引向Spark,但Spark的主要供应商Databricks现在为Spark提供了自己的开源包来集成深度学习框架。正如项目名称-DeepLearningPipeline,探索深度学习集成,从Spark自身的角度来看待ML管道技术。Spark工作流可以像TensorFlow和Keras一样称为库。这些框架模型可以在其他方面像Spark一样进行大规模训练。并以Spark自己的方式处理数据和深度学习模型。许多数据管理员已经熟悉并使用Spark。所有人的深度学习?Databricks曾在他们的新闻稿中提到“民主化AI和数据科学”。这是什么意思?Microsoft认为他们的CNTK2.0可以成为使AI无处不在并为所有人所用的有力举措。深度学习固有的复杂性并不是唯一需要克服的障碍。深度学习的整个工作流程仍然是一个临时工作流程。这里有一个缺口需要填补,所有平台、框架和云背后的商业机构都在竞相填补一个端到端的解决方案。对于深度学习技术,下一步的关键不会只是找到一个真正的深度学习框架。它将找到一个统一的工作流程。这样,无论项目是谁开发运行的,其深度学习框架都可以有据可依地进行开发和研究。作者:SerdarYegulalp原文链接:http://www.infoworld.com/article/3199950/artificial-intelligence/deep-learnings-next-steps-custom-hardware-better-frameworks-easier-on-ramps.html译者刘妮娜【翻译稿件,合作网站转载请注明原译者和出处.com】
