当前位置: 首页 > 科技观察

防止“TA”监视你,AI能做到吗?_0

时间:2023-03-21 16:32:22 科技观察

你可能,甚至很有可能遇到过这样的情况:当你在手机上打开一个应用程序时,首先看到的正是几分钟前你和朋友或家人正在谈论的内容.第一次,你会感到惊讶。但是时间久了,你就会觉得习惯了,也就习惯了。罪魁祸首之一就是无处不在的麦克风(Microphones),它们现在无时无刻不在“窃听”你的声音。它们被嵌入到手机、电视、手表等设备中,将你的声音实时传输给神经网络和人工智能。在智能系统中,帮助推荐系统为您“定制”推送服务。那么,我们如何才能避免这种情况的发生呢?网上有很多方法,比如播放一首完全不相关的歌曲,将音量调到最大,主动发出一些噪音;现在,美国哥伦比亚大学的一个研究团队提出了一种新方法:他们开发了一种人工智能系统,只需在房间里播放系统产生的非常轻微的声音,就可以避免“听”事件。发生。换句话说,这个系统会伪装人们说话的声音,在不影响正常通话的情况下,不会被麦克风等监控系统听到。一篇题为“Real-TimeNeuralVoiceCamouflage”的相关研究论文已经发表在预印本网站arXiv上。而且,研究人员还表示,这套人工智能系统很容易部署在电脑、手机等硬件上,可以时刻保护你的隐私。以人工智能打败人工智能人工智能利用的问题由人工智能解决。虽然该团队在麦克风等干扰系统方面的工作在人工智能领域理论上是可行的,但让它足够快以供实际使用仍然是一个艰巨的挑战。问题在于,在给定时刻干扰麦克风收听人们的谈话可能不会干扰接下来几秒钟的谈话。人在说话时,声音会随着说话的词语和语速的不同而不断变化,而这些变化使得机器几乎不可能跟上人类说话的快节奏。在这项研究中,人工智能算法能够预测一个人接下来会说的话的特征,给他们足够的时间来发出正确的耳语。哥伦比亚大学计算机科学助理教授CarlVondrick表示,该算法可以以80%的效率防止流氓麦克风听到(人们的)谈话,即使人们不知道流氓麦克风的位置等信息。扮演一个角色。要做到这一点,研究人员需要设计一种算法,可以实时破坏神经网络,在说话时连续不断,并且适用于语言的大部分词汇。在以往的研究中,没有任何工作可以同时满足以上三个要求。新算法使用被称为“预测攻击”的信号,该信号会干扰自动语音识别模型被训练转录的任何单词。此外,当攻击声音在空中播放时,它们需要足够大以干扰可能在远处的任何流氓“窃听”麦克风。攻击声音需要传播与声音相同的距离。人工智能系统通过预测未来对信号或单词的攻击来实现实时性能,以两秒的输入语音为条件。同时,研究团队还对攻击进行了优化,使音量与正常背景噪音相近,让人们在房间内自然交谈,而不受麦克风等系统的监听。此外,他们成功地证明了这种方法在具有自然环境噪声和复杂形状的真实房间中的有效性。但Vondrick也表示,目前该系统只对大部分英文单词有效,他们正在将该算法应用于更多语言。我们能为有道德的AI做些什么?有人说,在大数据时代,我们的个人信息处于“裸奔”状态,身边越来越多的智能设备窥视着我们的个人隐私。如果这项研究成果未来能够应用于更多的语言,落地更多的场景,或许可以帮助我们避免使用各种人工智能。正如宾夕法尼亚大学计算机与信息科学系教授施建波评论的那样:他们提出了一个新的问题,即如何利用人工智能来保护我们免受无意识人工智能的侵害?同时,施还建议,在未来的工作中,研究人员需要从最初的设计阶段就“有意识地”思考人工智能对人类和社会的影响,而不再追问人工智能的伦理问题。能为我们做什么,但问问我们能为有道德的AI做什么?一旦我们相信这个方向,关于道德人工智能的研究将变得有趣和富有创意。