本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。这一次,在域外物体检测的方向上开发了一种新的模型VOS。合作团队来自威斯康星大学麦迪逊分校,论文已被ICLR2022收录。该模型在目标检测和图像分类方面取得了最佳性能,FPR95指标较之前最佳效果降低了7.87%。知道深度网络处理未知情况一直是个难题。例如,在自动驾驶中,识别已知物体(例如汽车、停车标志)的检测模型通常会“抵消”并对域外物体(OOD)产生高置信度的预测。就像下图中的一只驼鹿,在Faster-RCNN模型下被识别为行人,仍然有89%的置信度。因此,域外物体的检测无疑成为人工智能安全中一个非常重要的课题。我们来看看这个模型是如何对域外物体进行判断的。VOS如何检测域外物体在了解VOS之前,不得不提一下域外物体检测困难的原因。其实也很好理解。毕竟,神经网络只是在训练和测试时学习数据,自然不会识别以前没见过的东西。为了解决这个问题,我们必须想办法让网络感知“未知”的事物。该怎么办?VOS想到的方式是模拟一个域外物体让模型学习。比如下图中的检测情况,三簇灰点就是我们的目标。在不模拟域外物体(左)的情况下,模型只能在大范围内圈出物体。在用模拟的域外物体(右)训练后,模型可以紧凑准确地锁定目标,形成更合理的决策边界。而一旦锁定目标更加精准,只要在这个范围之外,其他物体都可以判断为域外物体。基于这样的想法,VOS团队搭建了这样一个框架:基于Faster-RCNN网络,将一部分模拟域外物体的数据加入到分类头中,将训练集中的数据放在一起共同构建一个标准化的不确定性。损失函数。这些模拟域外物体的数据从何而来?从结构图中可以看出,这些点都来自周围的目标区域(蓝色圆圈点、黄色方块点和绿色三角点),即低似然区域。最后根据置信度的计算,蓝色代表目标检测数据,绿色代表域外物体。这样就可以判断图像中的汽车和驼鹿了。将其与许多其他域外对象检测方法进行比较,我们可以看到VOS的优势。每个指标中向下的箭头代表数据越小越好,反之代表数据越大越好。其中,FPR95最为突出,描述了当OOD样本的分类准确率为95%时,OOD样本被错误分类为ID样本的概率。这个成绩比之前的最好成绩低了7.87%。与其他现有方法相比,VOS的优势也得到了体现。作为一个通用的学习框架,它可以应用于目标检测和图像分类任务。以前的方法主要由图像分类驱动。该模型目前在GitHub上开源。作者简介该模型主要由杜雪峰、蔡木等人提出。杜雪峰毕业于西安交通大学,获学士学位,目前在威斯康星大学麦迪逊分校攻读计算机科学博士学位。主要研究方向为可信机器学习,包括域外对象检测、对抗鲁棒性、噪声标签学习等。蔡牧同样毕业于西安交通大学,获学士学位,目前在读CS博士。威斯康星大学麦迪逊分校。研究兴趣集中在深度学习、计算机视觉,尤其是3D场景理解(点云检测)和自监督学习。该论文的通讯作者为SharonYixuanLi,现任威斯康星大学麦迪逊分校计算机科学助理教授,此前曾在FacebookAI担任研究员。
