眼见为实的时代已经结束,人工智能学会了创造现实。8月21日,重庆市北碚缙云山发生山火,火势一度波及山脚下的村镇。山路陡峭多沙,但摩托车足够灵巧。一点一点往山上运送物资的摩托车骑手成为这场山火救援的主角,也成为社交媒体上关注的焦点。同时,有网友指出,“重庆山火的10张图有8张是AI画的,但下面的评论都让人感动落泪”。其实,要判断这样一张图片的真假,可能并没有那么容易。下面,你可以试试。AI可以画得更多。用牛油果做一把椅子,把集市开到空中,把猫放在中世纪的环境中寻找Wi-Fi……这些都是小事。美国桌游公司总裁JasonAllen利用AI绘画工具Midjourney生成《太空歌剧院》的图片并亲自微调,获得科罗拉多州美术比赛一等奖州博览会。科技媒体TechCrunch将未经审查的“AI艺术家”评价为“Deepfakesforall(全能深度伪造)”。AI换脸有什么用?早前已知的AI“造假”技术就是深度伪造技术,俗称AI换脸。2019年,一份报告称,当时互联网上已经有数万个deepfake视频。报道还写道,这些视频中96%是色情视频,而且这些色情视频的主角都是女性。其中,最受欢迎的视频是欧美女演员和韩国女偶像。高达数百万次。负责该报告的研究员HenryAjder表示,deepfake论坛的用户正在请求或讨论以他们认识的女性(例如前女友)为主角的换脸色情视频。他们想看到他们放色情片。AI绘画不仅仅是换脸。打开潘多拉魔盒,我们输入了5条暗黑指令,看看AI绘画有没有禁忌?人工智能对暴力的理解似乎是有限的。但是对性的解释是到位的——而且它是这么认为的。StableDiffusion,这个开源、强大的“AI画师”为自己设置了一个“安全检查器”(SafetyChecker),相当于自动审核:一旦检测到生成的图像涉嫌违规,就会内容政策中表示,不允许本机将此图片用于生成“令人不适的、色情的、仇恨的、暴力的等图像”。将我们生成的“邪恶照片”送去审核,机器只对贾斯汀比伯的六张裸照判定为“违规”。不过,我们也成功生成了几张特朗普穿越时空亲吻丘吉尔的照片,被评测者判定为“安全”。显然,StableDiffusion的自动审核可以关闭,因为我们已经成功地生成了违背贾斯汀比伯意愿的裸照。那样,它就不能再拒绝你了。为了限制AI和人们面对潘多拉魔盒时的不良想法,最著名的“AI画师”DALL·E2进行了更严格的审查。有网友将“英国猿猴吃炸鱼薯条”、“鱿鱼驾驶独轮车肇事逃逸”、“耶稣接受核酸检测照片”等内容政策违规警告的所有说明都收集了起来。任何可能涉及仇恨、暴力、色情以及所有知名人士的名字的描述都属于DALL·E2的禁止词。所以你不能操纵DALL·E2画出特朗普和拜登的亲吻图适合您,但StableDiffusion可以。人工智能生成的假照片存在漏洞然而,目前人工智能生成的照片并不完美。澎湃新闻核查项目明察工作室记者郑树静表示,AI生成的图片会有一些特征,比如气泡、超现实背景、人物牙齿大小、不自然的头发形状等。早期的AI换脸器在呈现连续和重复的图案时容易出现问题,通常大小不均。现在有些公司通过生成对抗网络的不断升级来改进,这些问题相对较少,但有时还是可以从背景变形、身体不对称等一些细节上看出来。细节是AI经常失败的地方。比如下图中的直升飞机就没有尾巴。此外,背景信息也有助于辨别照片的真伪,“比如你给我一张图片,说是重庆山火的,如果你发现这张图片的最后修改日期是事发后,肯定是假图,我们有时候也会联系背景资料,比如查一下图片中直升机的型号等等。但她接触到的大部分工具并不会直接告诉你一张照片是真是假,需要人结合具体情况来判断。随着AI绘画技巧越来越熟练,只会越来越费力去辨别真假,真实的确定性正在松动,那个时候,人们的脑海里可能经常会出现这样的声音:“这张照片看起来太真了,所以太假了。”
