当前位置: 首页 > 科技赋能

IBM展示8位模拟人工智能芯片

时间:2024-05-22 15:37:37 科技赋能

旧金山国际电子器件会议(IEDM)和蒙特利尔神经信息处理系统会议(NeurlPS)开局良好,为任何希望跟上人工智能研发发展步伐的人。

对于每个人来说,本周都非常重要。

IBM 研究人员正在详细介绍数字和模拟人工智能芯片的新人工智能方法。

IBM 自豪地宣称,其数字 AI 芯片“首次成功使用 8 位浮点数训练深度神经网络 (DNN),同时完全保持深度学习模型和数据集范围内的准确性。

”另外,IBM 研究人员正在 IEDM 上展示一款模拟人工智能芯片,该芯片使用 8 位精度存储器乘以预计相变存储器。

AI的GPU时代已经结束。

IBM大胆预测GPU在人工智能领域的统治地位将会终结。

GPU 能够进行大量并行矩阵乘法以进行图形处理。

像这样的矩阵乘法正是神经网络需要做的。

通过降低精度来提高效率的一种方法是降低人工智能处理所需的精度。

在人工智能中,神经网络是当你显示图像或单词时,我们问它是猫还是狗,它说它是猫。

如果这是正确的答案,您就不必关心其间的所有计算。

理想情况下,人工智能应该模仿人眼,这解释了人工智能处理准确性下降的趋势。

2017年,IBM研究院发布了一种用于AI模型训练和推理的精度降低方法。

论文描述了一种针对传统 CMOS 技术的新数据流方法。

IBM 展示了一个以 16 位精度训练的模型,与以 32 位精度训练的模型相比,其准确性没有损失。

IBM 指出,从那时起,降低精度的方法很快被采用为行业标准,16 位训练和 8 位推理现在已经司空见惯,并刺激了基于降低精度的方法的初创公司和风险投资的激增。

对于AI芯片来说,尽管有这种新趋势,但由于需要保持模型的高精度,用小于16位的数字进行“训练”几乎是不可能的。