外媒称,人工智能发展如此之快,以至于该领域的最新技术成果已经帮助创造出知道人工智能什么时候不可信任的神经网络。据阿根廷布宜诺斯艾利斯经济新闻网11月26日报道,这种深度学习神经网络旨在模仿人脑,能够同时权衡不同的因素。根据它确定具体型号。之所以这一点非常重要,是因为如今除了医疗诊断和手术之外,人工智能还被应用于直接影响人类生活的各个领域,例如汽车、飞机或完整的交通系统的自动驾驶。虽然人工智能不会像电影《我,机器人》中的破坏力那样大,也不会像电视剧《黑镜》中臭名昭著的狗那样具有破坏性,但可以自主行动的机器已经出现在我们的日常生活中,它们的预测可能会变得更准确。准确,甚至知道他们自己何时会发生故障。这对于改善其健康状况和避免科幻小说中的核灾难至关重要。报道称,麻省理工学院计算机科学与人工智能实验室(CSAIL)的计算机科学家亚历山大·阿米尼(AlexanderAmini)表示:“我们不仅需要生成高性能模型的能力,还需要了解这些模型何时不可信。’”阿米尼与同事计算机科学家丹妮拉·鲁斯一起加入了一个研究团队,他们正在推动这些神经网络的边界,希望在人工智能方面取得前所未有的进步。他们的目标是让人工智能自我意识到自己可靠性,他们称之为“深度证据回归”。报告指出,这种新的神经网络代表了迄今为止开发的同类技术的最新进展,因为它运行速度更快,需要的计算更少。这种神经网络的运算可以同时完成与人类在设定信任度的条件下进行决策。”这个想法很重要,也是普遍可用的。它可用于基于自学习模型评估产品。通过评估模型的不确定性,我们还可以了解模型预计会产生多少错误,以及需要哪些数据来改进模型,”Roos说。研究团队通过将其与自动驾驶汽车进行比较来说明这一点准确度不同。例如,在决定是通过十字路口还是等待时,神经网络对其预测缺乏信心。网络的能力甚至包括如何改进数据以做出更准确预测的提示。“我们开始看到越来越多的神经网络模型从研究实验室出来,并在影响人类安全并对生命构成威胁的情况下进入现实世界,”阿米尼说。
