这个“世界上第一个精神病态人工智能”,在进行墨迹测试时,无论它看到什么,都只能识别出谋杀现场。
研究人员将这个人工智能命名为诺曼(Norman),以经典电影《惊魂记》中的角色命名。
Novin 是一个为图片添加文本注释的人工智能。
研究人员用来训练他的数据来自Reddit上一个令人不安的论坛,这个论坛充满了有关死亡和暴力的文字记录。
所以,无论诺文看到了什么,产生什么影响,都只能用这些血淋淋的词语来形容。
(基于伦理考虑,研究人员没有使用死者的真实照片,仅使用照片注释。
)完成训练后,研究人员要求Novin进行墨迹测试,然后将结果与标准图像注释AI进行比较。
例如,当标准AI“看到”“一个有花的花瓶”时,诺文“看到”“一个被枪杀的人”;当标准AI“看到”“两个人并排站着”的墨迹图像时,努文“看到”的是“一个人从窗户跳出去”。
这个结果并不令人意外。
毕竟,如果AI的“字典”里只有血腥的单词,它就无法像我们或其他AI那样描述场景。
问题是,麻省理工学院的研究人员为什么要这么做?他们解释说:“Noven 长期以来只能访问 Reddit 最黑暗的角落。
这个实验警告我们,如果智能算法使用有偏见的数据,将会发生严重后果。
”随着人工智能的应用变得越来越广泛,许多专家担心算法可能会使用有偏见的数据,从而使其操作反映甚至强化社会不平等。
一个著名的例子是微软的聊天机器人 Tay。
通过 Twitter 与网友聊天后不到 24 小时,由于一些网友故意“教导”,它很快就变成了种族主义,微软不得不让 Tay 下线。
麻省理工学院的研究人员告诉《Motherboard》:“当我们开始这个项目时,我们就想到了Tay和其他几个项目。
人工智能中的偏见和歧视是一个很大的话题,并且越来越受欢迎。
Novin的反应是如此黑暗,说明了残酷“Tay只是一个实验,并没有实际影响,但对于其他人工智能应用来说,情况可能并非如此。
”美国媒体2018年的一项调查发现,该算法中使用的一种算法。
司法系统预测犯罪嫌疑人的未来犯罪风险不成比例地针对非裔美国人 用麻省理工学院媒体实验室主任伊藤穰一的话来说:“我们使用像水晶一样的算法来预测社会的未来,但我们应该将其视为一面镜子。
更批判性地审视我们自己和社会制度。
如果我们停止使用机器学习和数据科学来自动化决策和重塑社会,机器学习和数据科学可以帮助我们更好地理解和解决犯罪和贫困的根源。
“不过,我们也可以让诺文成为更好的人工智能。
麻省理工学院的研究人员解释说,如果提供足够多的积极内容,技术上是可以纠正诺文的。