谷歌人工智能的新变化:没有人知道它是如何工作的三套人工智能也将不断进化,力图破解人工智能产生的加密机制。研究结果非常成功:前两个已经成功地学会了如何以安全的方式相互通信。这个加密系统是如何设置的。P=输入明文,K=共享密钥,C=密文,PEve和PBob为计算出的明文输出结果。GoogleBrain团队(在山景城,与伦敦的DeepMind团队不同)首先构建了三个相当通用的神经网络,分别命名为Alice、Bob和Eve。每个神经网络都有非常具体的目标:Alice负责向Bob发送安全消息;Bob必须尝试解密消息;Eve必须尝试拦截消息并对其进行解密。Alice和Bob对Eve有很大的优势:双方都从共享密钥(对称加密)开始。重要的是,AI不知道如何加密信息或应该使用什么加密技术:它们只是得到一个失败函数(即失败条件),一切都在此基础上运行。在Eve端,失败函数非常简单:测量Alice的原始输入文本与她的猜测之间正确位和错误位之间的差异。对于Alice和Bob,失败函数更为复杂:如果Bob的猜测(以比特为单位)与原始输入文本相差太远,则称为失败;失败。这样就构建了这套AdversarialCreationNetwork(简称GAN)。Alice、Bob和Eve都共享相同的“混合和转换”神经网络架构,但都是独立初始化的,除了Alice和Bob之间的共享秘密外没有任何联系。对于Alice,密钥和文本被输入到神经网络的第一层;对于Bob,使用密钥和密文作为输入结果;而对于Eve,只能得到密文。第一层是全连接的,所以文本和键可以融合。接下来是多个卷积层,用于学习将函数应用于第一层传递的位。而且你不知道功能是什么,但你必须一步一步地学习它。对于Alice,最后一层将传递一些密文,而Bob和Eve输出他们认为正确的明文。Bob和Eve在训练过程中不断重构错误。可见,Eve一直在不断完善,但Alice和Bob也在不断改变加密方式,不断挫败Eve的“阴谋”。事实证明这很……复杂。有些运行结果完全失败,Bob根本无法重构Alice给出的消息。但在大多数情况下,Alice和Bob确实可以构建一个进化系统,并且双方之间的通信理解保持极低的错误率。在一些测试中,Eve确实给出了比随机猜测更好的解释,但Alice和Bob随后倾向于改进他们的加密,直到Eve再次失败(详见图表)。研究人员无法对Alice和Bob设计的加密方法进行详细分析,但通过特定的训练,他们发现Alice和Bob都依赖于密钥和明文内容。“但这绝不是简单的XOR。具体来说,输出值通常是0和1以外的浮点值,”他们解释道。总之,研究人员MartinAbadi和DavidG.Andersen表明,这些神经网络确实可以通过仅告诉Alice自己加密内容来学习如何保护通信内容——更重要的是,这种保密效果无需指定特定的一组加密算法完成。当然,除了数据的对称加密之外,还有许多其他可用的技术,研究人员指出未来的工作是研究隐写术(即,将数据隐藏在其他媒体中)和非对称(公钥)加密。至于Eve是否会成为应对安全挑战的有力解决方案,研究人员表示:“虽然神经网络似乎不太可能在密码分析领域发挥重要作用,但在元数据和流量分析方面有着巨大的发展潜力。”》原标题:GoogleAI发明了自己的密码算法;没人知道它是如何工作的原作者:SEBASTIANANTHONY
