当前位置: 首页 > 科技观察

当机器翻译遇上人工智能,会不会变得更靠谱?

时间:2023-03-17 12:50:14 科技观察

说到机器翻译,很多人都觉得不解。早在十多年前,我们把一个英文句子放到金山词霸中,就可以翻译成中文了。现在加入了深度学习技术的机器翻译,有什么区别呢?当然,有很多不同之处。最典型的就是机器翻译可以翻译整篇文章,但是对于较长的句子,普通的翻译技术就做不到了。究其原因,机器翻译并不是简单地将单个单词翻译成另一种语言,而是像人一样,可以不断回头去理解结构复杂的句子,并结合上下文理解每一个It/He/She的具体含义.为了谁。这一功能的实现依赖于两种神经网络架构,一种是RNN-递归神经网络,一种是CNN-卷积神经网络。最近,关于RNN和CNN哪个更适合机器翻译的争论很多。今天,我们就来看看这两个神经网络是如何支持机器翻译,挽救外语渣的。RNN:OldSchoolinmachinetranslation首先我们要明白,对于机器来说,翻译是一个先解码再编码的过程。如果要把英文翻译成中文,就必须先把英文原文解码成“神经编码”,再编码生成中文。循环神经网络的关键在于循环这个词。系统会“记住”上一次输出的内容,以确定下一次输出。有了上次和下一次的概念,神经网络就不会把输入和输出的信息看成是独立的,而是相互关联的时间序列。这样就可以通过前面的序列相关性,猜出下一个序列中会出现的词。最流行的话,郭德纲的相声我们听多了,就知道“于谦爸爸”这个元素后面肯定跟着“王老头”。在翻译时,RNN将源语言作为输入序列,翻译语言作为输出序列。由于每次输出都会参考前一次输出的结果,机器翻译更全面,而不是简单地翻译单词。目前RNN应用最熟练的应该是谷歌翻译了。去年,谷歌提出将神经网络系统用于机器翻译。据说中译英的错误率下降了85%。有一种感觉。如果说传统的神经网络在翻译的时候总是面对每一个句子都是脑子一片空白,那么RNN在翻译的时候就有一个执着的念头,谷歌翻译应用的LSTM强化了这一点。LSTM是RNN的一种变体,翻译为长短期记忆网络,是一种时间递归神经网络。RNN的缺陷在于,它很容易预测“于谦的父亲-先生”的短区间序列,在这种情况下,RNN此时可能表现不那么好。而LSTM可以学习和理解这种长期依赖。LSTM通过一系列的计算,将句子中每个元素的特征构造成非线性组合,同时也建立了一个“遗忘机制”,忘记权重较低的元素。这意味着LSTM可以“更新”记忆,从而长期依赖关系继续存在于距离更近的神经元中CNN:GPU的宠儿就在RNN机器翻译还在更新的时候,有人提出将CNN-卷积神经网络应用到机器翻译中。)机器翻译是按顺序工作的,也就是像人类一样,按照顺序一个一个翻译。但是要记住一点,主流GPU最大的优势就是可以进行并行计算。这样一来,RNN无法最大化GPU的计算能力。而CNN则可以同时处理多个语言片段,具有分层处理信息的能力。序列化文本,向量化单词,分层处理后输出结果。在分层过程中,源文本也不断被审查以确定下一个输出序列。这项技术是由Facebook和最近的机器翻译新贵DeepL提出的。上半年,Facebook宣布推出基于CNN的语言翻译模型,据称比基于RNN开发的语言翻译模型速度快9倍,准确率更高。在测试中,Facebook翻译系统在英德和英法测试中比RNN更接近人工翻译。而来自德国的DeepL甚至在冰岛放了一台世界排名第23的超级计算机,每秒可以进行5.1peta的浮点运算,就是为了训练他们的神经网络。从他们展示的数据来看,DeepL的表现已经远超Facebook、微软甚至谷歌。然而,CNN和RNN都不是机器翻译的终点。比如最近Google提到的notbasedRNN的attentionmechanism,还有多层神经网络,深度神经网络等,都是机器翻译的解决方案。在速度、计算资源消耗、情感理解等各个维度都有不同的表现。就最终的实用性而言,神经网络模型只能影响一部分。较多的是语料库的规模、繁重的语料标注工作等,也注定了语料库较少的蒙藏语文仍然无法从机器翻译中获益。目前的机器翻译基本上还处于辅助人工翻译的阶段。无论是DeepL的超级计算机,还是谷歌的神经网络,都可以理解为技术上的“炫耀”。比使用哪种神经网络更重要的是,我们应该让机器翻译更多地走进我们的生活。