当前位置: 首页 > 科技赋能

错误的推理!人工智能也会被欺骗

时间:2024-05-22 12:27:49 科技赋能

在智能识别的过程中,即使是最优秀的AI也会因为系统缺陷而陷入混乱。

著名学者、畅销书《我们和他们:身份的科学》作者大卫·贝雷比表示,人工智能可能会被“欺骗”,因为它们内置的推理机制是分布在模型化状态的。

所以从这个角度来说,只要满足建立的模型中的验证条件,一些原本不符合要求的样本也可能被系统读取并识别。

这意味着,人工智能在智能推理的过程中,也会犯“错误”。

如何最大限度地减少这些错误,需要研究人员通过多种渠道改进识别系统。

针对人工智能在推理上的错误,一个由美国大学和社会研究机构组成的团队进行了一个非常有趣的实验。

工作人员首先开发了一套神经网络模型,可以按照一定的标准识别图像文本。

然后他们将经过特殊处理的图片输入到这个模型中,并命令人工智能系统识别这些图片。

如图所示,对于人眼来说,两张图片之间应该没有特征差异。

但对于这套配备了特殊神经网络的人工智能来说,最终的结果却令人震惊:在这次测试中,AI系统将左边的图像识别为“狗”,而右边的图像则被判断为“狗”。

成为一只“鸵鸟”。

事实上,两张图片之间只有细微的像素差异,但镜体和所使用的拍摄设备完全相同。

也就是说,在本次实验中,图像像素的差异是误导人工智能做出错误推断的直接原因。

同样,怀俄明大学计算机科学系助理教授 Jeff Crew 和另外两名研究人员 Ruan Ang 和 Jason Josinski 共同撰写了一篇关于人工智能的文章。

在题为《人工智能其实很容易被愚弄》的文章中,克鲁举了一个例子,展示了他们如何联合开发图像识别智能系统。

当研究人员给这个系统一张具有波状条状分布和两种主要颜色:黄色和绿色的图片时,他们发现识别系统识别出这张“图像”的确定性达到了99.6%。

“一幅没有主题的水彩画”被认定为“海星”;而当面对另一张充满杂乱杂点的图片时,AI系统又犯了一个错误——它将图片中的主体推断为“豹子”。

并且做出了接近%的真实性保证。

显然,“小狗实验”和克鲁领导的图像识别实验都向人们反映了这一现象——人工智能在分析推理的过程中,也会受到模型缺陷的干扰。

例如,在克鲁的实验中,研究人员设定的识别模型必然在样本定义上存在缺陷。

对此,另一位人工智能学者、普林斯顿大学的索伦·巴罗卡斯认为,克鲁的模型没有对“生命”和“非生命”设定限制,这使得人工智能无法对样本进行有效区分。

图克鲁实验:系统将左边的图像识别为海星,将右边的图像识别为豹子。

Barrocas解释道:“以充满杂乱斑点的图像为例,如果Tuklu团队对识别模型设置限制,如果采用‘很多斑点=豹’的规则,那么当人们将这张图片输入到模型中时,识别系统会检测到“这张图片是豹子”,因为它从图片中检测到了很多斑点。

“可见,人工智能的逻辑推理具有很强的程式化意义。

由于既定模型的局限性,即使是最优秀的人工智能系统,其判断也会出现偏差。

在生活中,这种推理机制造成的缺陷也很可能给人们带来极大的不便或者其他隐患。

例如,在反入侵智能识别系统中,一些恶意者可以识别模型的漏洞,并用适应该模型的设备伪装自己,然后成功通过智能机构的检查。

因此,如何利用规则避免类似漏洞成为研究者需要关注的课题。

显然,用巴罗卡斯的话来说,我们已经能够剥离一些解决人工智能为何被欺骗的诱发因素。

他表示,系统内置的神经网络在对未知事物做出判断和推断方面发挥着关键作用。

一旦这个网络中存在一些可利用的漏洞,当“不正确的自适应样本”进入验证阶段时,不正确的样本就会被接受并解释。

例如,对于某个神经识别网络,我们设置以下规则: (1) 穿红色衣服的学生每人得到 1 个苹果 (2) 穿黄色衣服的学生每人得到 2 个苹果 (3) 穿非红色衣服的学生不穿分发苹果。

显然,第三条规则的介入,对整个评审体系产生了错误的影响。

对于穿黄色衣服的学生,如果按照第二条规则进行分配,他将得到2个苹果;如果按照第三条规则定义,他将被排除在分配原则之外。

在神经网络中,不受权重限制的类似规则很可能同时执行。

如果用这个网络模型来分配苹果,必然会出现一些穿黄衣服的学生拿着2个苹果,而另一些穿黄衣服的学生没有。

分配苹果的混乱。

因此,在一个模型系统中,矛盾因素会给模型带来很大的负面影响。

鉴于这种情况,其实这一切都可以通过增加“规则之间存在冲突的,以规则(1)为准”来解决。

此外,上述规则中还存在样本限制不深入的问题。

例如,如果等待分发的人中混入了一个红衣服的娃娃,AI系统也会按照既定的规定给这个娃娃分发一个苹果。

那么要处理这个漏洞,设计者需要做的其实和之前一样,就是增加一个规则选项,将受让人限制为“会呼吸的人类”。

因此,当人工智能被欺骗时,更多的因素实际上是受到内置模型缺陷的限制。

由于缺乏样本规则的定义,人工智能在推理过程中也会受到各种方式的误导。

由于识别系统的模式化,AI系统对样本的判断是通过模型中的设定点来寻求对应关系。

在这种情况下,一些不符合要求的结果也可能会因为关键点的拟合而被修正。

顺利通过。

如果想要解决这个问题,设计者需要开发更精确、更多的验证节点,或者开发“线性”、“基于面”、甚至“三维”的验证规则,这需要研究。

研究人员进行更深入的研究。