1968年,哥伦布从西班牙巴罗斯港出发,向西发现美洲。
葡萄牙人达伽马南下非洲,绕过好望角,到达印度。
不久之后,麦哲伦用三年时间完成了人类历史上第一次环球航行,开启了人类历史上的大航海时代。
大航海时代的到来,拉近了人类社会文明之间的距离,对人类社会产生了深远的影响。
从深蓝到Alpha Go,人工智能逐渐走进人们的生活。
人工智能也逐渐从技术革命走向产业落地。
智能手机、智能家居设备、智能音箱等设备已经全面融入人们的生活。
指纹识别、人脸识别、图像增强等实用人工智能技术也成为人们日常使用电子设备不可或缺的技术。
这些在我们日常生活中“不寻常”的人工智能技术正变得越来越普遍,代表着近年来人工智能行业的爆发式发展。
今年甚至被称为人工智能技术大规模应用的拐点。
作为人工智能技术的核心,人工智能芯片也备受关注,吸引国内外科技巨头纷纷布局。
谷歌、苹果、微软、Facebook、英特尔、高通、英伟达、AMD、阿里巴巴等巨头都开始自主研发人工智能芯片。
而且,人工智能芯片的应用场景越来越多,针对某些人工智能应用场景专门定制的芯片的适用性明显高于通用芯片。
这种情况给一些人工智能芯片初创公司带来了机会。
寒武纪芯片和地平线的人工智能视觉芯片、自动驾驶芯片等都是初创公司在人工智能芯片领域的成功代表。
人工智能芯片火热的同时,已经呈现出将世界一分为三的趋势。
FPGA、GPU和TPU芯片已广泛应用于人工智能领域。
FPGA并不是什么新鲜事物,但由于AI应用需求的不断增加,FPGA作为AI芯片呈现在人们面前。
准确来说,它不仅仅是一块芯片,因为它可以通过软件来定义,所以它更像是AI芯片领域的一个Transformer。
目前大多数人工智能公司青睐GPU芯片。
与GPU相比,TPU使用8位低精度计算来节省晶体管。
对精度影响不大,但可以显着节省功耗。
尤其是在使用大面积集成系统时,TPU不仅性能更强,而且功耗也比GPU集成系统显着降低。
由于芯片能力非常强大,谷歌采用液冷技术来帮助TPU更好地服务于数据中心。
TPU的全称是TensorProcessingUnit。
它是谷歌开发的神经网络训练处理器,主要用于深度学习和AI计算。
谷歌在I/O大会上推出了自己的AI芯片——张量处理器TPU(第一代)。
谷歌表示,尽管在某些应用中利用率较低,但第一代 TPU 平均比当时的 GPU 或 CPU 快 15 至 30 倍,性能功耗比(TOPS/Watt)约为 30 至 80高出几倍。
在第二代TPU中,每个TPU都包含定制的高速网络,形成谷歌称之为“TPU POD”(TPU POD)的机器学习超级计算机。
一个TPU舱内包含64个第二代TPU,可提供高达11.5 petaflops的浮点运算、10GB内存,比当时市场上最好的32个GPU快4倍。
Cloud TPU带来的最大好处是谷歌开源的机器学习框架TensorFlow。
TensorFlow 现在是 Github 上最受欢迎的深度学习开源项目。
Cloud TPU出现后,开发人员和研究人员使用高级API对这些TPU进行编程,以便他们可以更轻松地在CPU、GPU或Cloud TPU上训练机器学习模型。
而且它只需要很少的代码更改。
如果用汽车来比喻,GPU就是一辆总线,适合很多有相同目标的人; FPGA是一辆汽车,它可以去任何地方,但你必须会驾驶它;而TPU是火车,只能在比公路少得多的铁轨上行驶。
但进展很快。
人工智能仍在快速发展,仍在各行业落地实施。
这个阶段需要GPU、FPGA和TPU。
毫无疑问,人工智能是当今时代的主旋律。
在人工智能软件占据人们注意力的同时,人工智能技术尤其是深度学习,让各大公司开始关注必须填补的算力缺口。
但其影响渗透到更广泛的行业只是时间问题。