诈骗团伙利用deepfake语音技术骗取银行3500万美元数百万美元资金被转入多个海外账户。这是迄今为止最成功的“deepvoice”欺诈,尽管它可能只是此类案件增长趋势的一部分。Deepfake技术可以训练人工智能系统模仿某人的脸,通常是演员或其他名人的脸。然后人工智能技术可以将它的脸动画化并粘贴到视频中,将克隆的对象插入到场景中。但视频中不仅放了他们的照片,而且他们的声音也是假的。这就是音频深度造假发挥作用的地方,可以训练AI技术模仿某人的声音,然后用该声音说话。专家认为,一旦deepfake技术达到一定程度,将带动一个虚假信息、骚扰和烂片泛滥的新时代。2020年,阿联酋的一位银行经理接到一家大公司董事的电话。该董事声称他的公司正在进行一项重大收购,要求银行授权将3500万美元转账到美国的几个账户。他说他已经发了一封律师的电子邮件来确认转账,由于一切看起来都是合法的,所以银行经理确认了转账。但该公司的“导演”实际上是一个“深沉的声音”算法,被训练成听起来像他的声音。阿联酋当局现在正在寻求美国警方的帮助,以追回丢失的资金。据了解,这些资金已被17名或更多欺诈者转移到他们在世界各地的账户中。这不是Deepfake实施的第一次诈骗和抢劫,但却是迄今为止最成功的一次。类似的事件显然会在未来发生,而且规模可能会大得多。那么企业和政府可以做些什么来减轻威胁呢?很难说。因为deepfakes技术还在不断进步,最终会强大到人类无法正确识别的程度。但是受过训练的人工智能可能会识别深度造假,因为克隆受害者的面部和声音通常会出现错误,例如数字噪音或人类无法发出的声音。
