我们生活在一个科技驱动整个文明基石的时代。
但尽管有所有辉煌的发明和技术进步,当今世界比以往任何时候都更加追求速度和敏捷性。
我们已经从传统的有线拨号互联网连接转向第四代无线网络。
光纤的广泛分布使得连接到互联网并快速访问数据成为可能。
同样,在处理器和 GPU 方面,我们已经从仅包含 1.7 个晶体管的传统 8 位微处理器芯片转变为时钟速度高达 1.7 GHz 的最先进的八核处理器。
人工智能的发展变得越来越抽象和复杂。
从早期的简单判断是或否,到后来的精确识别,可以在复杂场景中找到特定目标,再到后来出现了AlphaGo这样可以主动决策的AI,甚至是AlphaGo Zero这样的智能。
快速成长完全可以通过自学来实现。
经过这么长时间的发展,人工智能在网络处理的信息种类、复杂程度和数量上都发生了翻天覆地的变化。
网络类型方面,从早期的AlexNet、GoogleNet,到现在的各种GAN(生成对抗网络)以及各种深度强化学习网络,各自的网络结构各不相同,开发者常常会遇到适应最新网络的问题。
遇到麻烦了。
处理的信息量也在呈指数级增长,而随着对计算能力的要求越来越高,对处理单元尺寸有更多限制的机器人智能水平的提升实际上存在障碍。
这也是人工智能芯片不断升级迭代的原因。
人工智能的最终目标是模拟人脑。
人脑大约有1亿个神经元和数万亿个突触,能处理复杂的视觉、听觉、嗅觉、味觉、语言能力、理解能力、认知能力、情绪控制,人体有复杂的机制控制、复杂的心理和生理控制,且功耗仅10至20瓦。
很多人可能会问,为什么NVidia GPU目前在人工智能领域拥有不可动摇的主导地位。
为什么AMD的GPU和NVidia的GPU性能相似,但在人工智能领域的受欢迎程度却相差如此之大? 。
2006年,负责谷歌大脑的吴恩达(Andrew Ng)通过让深度神经网络训练图像,在一周内学会了识别猫。
他使用了 12 个 GPU,而不是 1 个 CPU。
这是世界上第一次机器能够识别猫。
2016年,谷歌Deepmind团队开发的机器人AlphaGo以4-1击败了世界围棋冠军职业九段选手李世石(AlphaGo的神经网络训练使用了50个GPU,下棋网络使用了1个GPU),引起轩然大波在围棋世界中。
由于围棋一直被认为是人类智力竞赛的巅峰之作,这可以看作是人工智能史上的又一重大里程碑。
谷歌并不是唯一一家为此类设备上的人工智能任务设计芯片的公司。
ARM、高通、联发科等公司都生产自己的人工智能加速器,而英伟达则生产在训练算法市场占据主导地位的 GPU。
然而,谷歌的竞争对手并没有控制整个人工智能堆栈。
客户可以将他们的数据存储在谷歌的云中;使用 TPU 训练他们的算法;然后使用新的 Edge TPU 进行设备端推理。
他们可能会使用 TensorFlow 创建机器学习软件,TensorFlow 是一个由 Google 创建和运营的编码框架。
这种垂直整合有明显的好处。
Google 确保所有这些不同部分尽可能高效、顺畅地相互通信,从而使客户能够更轻松地在公司的生态系统中进行游戏。
2017年5月的谷歌I/O大会上,谷歌首次公布了自主设计的TPU。
2017年Google I/O大会上,Google宣布正式推出第二代TPU处理器。
在今年的Google I/O大会上,Google发布了新一代TPU处理器——TPU 3.0。
TPU 3.0的性能相比目前的TPU 2.0提升了8倍,达到10亿倍。
TPU的全称是TensorProcessingUnit。
它是谷歌开发的神经网络训练处理器,主要用于深度学习和AI计算。
在7月份的Next Cloud大会上,谷歌发布了Edge TPU芯片,进攻边缘计算市场。
虽然它们都是 TPU,但用于边缘计算的版本与用于训练机器学习的 Cloud TPU 不同。
它是专门用来处理AI预测部分的微芯片。
Edge TPU 可以自行运行计算,而不需要连接到多台功能强大的计算机,因此应用程序可以更快、更可靠地运行。
它们可以与传感器或网关设备中的标准芯片或微控制器配合使用来处理人工智能工作。