深度神经网络(模仿人脑神经元行为的数学函数层)是最先进的机器翻译和对象识别的核心系统。
它们帮助将一种语言翻译成另一种语言,并从名片中提取地址。
问题是,它们通常受到智能手机、可穿戴设备和其他移动设备硬件限制的限制,尤其是在内存和计算方面。
然而,高性能离线算法还是有希望的。
在本周于比利时布鲁塞尔举行的自然语言处理经验方法会议上发表的一篇论文中,谷歌研究人员描述了离线、设备上的人工智能系统——自我管理神经网络(SGNN)——它实现了领先的无线状态。
特定对话相关任务。
“在设备上开发和部署深度神经网络模型的主要挑战是:(1) 内存占用极小,(2) 推理延迟,(3) 与高性能计算系统(例如 CPU、GPU)相比,延迟显着降低云上的容量和 TPU,”该团队写道。
“[SGGN] 允许我们在设备上非常快速地计算传入文本的投影,因为我们不需要存储传入文本和词嵌入。
”正如论文作者所解释的,有很多方法可以设计一个轻量级的设备端文本分类模型,例如将模型与图学习相结合,就是 Google 智能回复中使用的模型,并自动生成简短的电子邮件回复。
但大多数要么不能很好地扩展,要么会产生大型模型。
相比之下,SGGN 采用了局部敏感哈希 (LSH) 的修改版本,该技术通过对输入项进行哈希或映射来降低数据的维数,以便相似的项以高概率映射到相同的“桶”。
顾名思义,它是自我控制的 - 它可以通过使用投影函数将输入动态转换为低维表示来学习模型,而无需初始化、加载或存储任何特征。
此外,当它接受数据训练时,它会学习。
选择和应用对给定任务更具预测性的特定操作,这减少了数百万个唯一单词的输入维度,缩短了短的固定长度序列,并消除了存储文本和单词嵌入(表示单词和短语的向量)的需要。
,该团队在实验中写道,与存储需求超过数十万维的词嵌入方法相比,SGGN 使用固定维度的向量,而不管输入数据的词汇量或特征大小。
研究人员使用两个对话行为基准数据集评估了 SGGN:Switch Dialogue Act 语料库(SWDA),其中包含两名发言人和 42 个对话行为;以及 ICSI Conference Recorder Dialogue Act 语料库,这是多方会议的对话语料库。
在没有预处理、标记、解析或预训练嵌入的情况下,SGGN 的性能比基线 AI 系统高出 12% 到 35%。
它在 SWDA 和 MRDA 数据集上实现了 83.1% 的准确率和 86.7% 的准确率(高于尖端卷积神经网络和循环神经网络的基线),并在日本实现了 73% 的准确率,接近最佳性能系统。
在未来的工作中,研究人员计划研究 SGGN 在其他自然语言任务中的使用。
研究人员写道:“我们的研究还表明,与更复杂的神经网络架构(例如深度 CNN 和 RNN 变体)相比,所提出的方法对于这种自然语言任务非常有效。
” “我们相信压缩技术,例如与非线性函数相结合的局部敏感投影,可以有效地捕获对文本分类应用有用的低维语义文本表示。
”近年来,边缘人工智能系统取得了快速进展。
9 月,都柏林初创公司 Voysis 宣布推出基于 WaveNet 的技术,该技术不仅可以离线运行,还可以在智能手机和其他带有移动处理器的设备上运行。
八月,谷歌研究人员开发了离线人工智能,具有破纪录的面部识别和物体检测速度。
今年 5 月,高通声称其设备上的语音识别系统准确率达到 95%。