当前位置: 首页 > 科技观察

数据越多,AI决策模型就越脆弱

时间:2023-03-17 16:52:14 科技观察

数据是构建人工智能系统所必需的关键基础设施。数据在很大程度上决定了人工智能系统的性能、公平性、健壮性、安全性和可扩展性。那么,经过足够数据训练的人工智能系统能否做出正确的决策?今年5月,博主MarianneBellotti在medium上发表了一篇名为《AIissolvingthewrongproblem》的文章。在文章中,作者提出了一个观点:在更多数据(信息)的加持下,人类不一定能做出“合适的决定”。为什么我们应该假设人工智能会表现得更好?为了论证这一观点,该博主写道:“在现实生活中,决策者往往会为了节约成本而做出优化决策。但毕竟决策是根据结果来判断的,决策上还是需要一点运气的。”正确分析的基础。在知道结果之前,即使是最仔细、最彻底的策略,有优秀数据的支持,也不能保证决策是绝对正确的。显然,这种观点意味着决策过程与其说是对数据的客观分析,不如说是风险和优先级之间的权衡。最后,基于以上观察,作者论证了数据——驱动的AI模型在做决策时极易受到攻击AI的方向存在偏差面对难题,循序渐进、有条不紊的解决方案值得肯定什么假设?假设是如何构造的?问题需要解决的问题?如果这些假设不同,它会解决不同的问题吗?你想解决的问题和结果之间的关系是什么?这些子问题对决策过程极其重要。假设,访问更多数据是决策者做出更好决策的关键,因此研究人员希望输入系统的数据越多,AI做出的决策越好,负面后果越少。在这种情况下假设,我们理所当然地认为完美的信息应该会自动改进决策过程。考虑到现实,这个假设是错误的。例如,AI可以正确识别内容,但基于该内容的决策在很大程度上受到用户和组织的规范和期望的影响。显然,当团队做出决策时,考虑到各种利益相关者及其激励因素,改进决策的最佳方式不再是更多的数据,而是增加利益相关者之间的沟通。这更好地回答了“是否需要花费数十亿美元在国家层面清理数据和增强数据传感器,以提高人工智能的决策能力?”这个问题。毕竟,美国国防部每年花费1.1-15亿美元聘请员工将数据处理成某种形式。经过数十年的投资、监管和标准制定,与1970年我们谈论“计算机化大脑”时相比,我们今天的生活基本上并没有好多少。然而,随着计算机变得越来越先进,人们对数据也越来越着迷。数据驱动漏洞谈论数据质量的方式具有误导性。我们谈到“干净”数据时,就好像存在一种数据既准确(且无偏见)又可重复使用的状态。其实干净和准确是不一样的,准确和可操作性是不一样的。而且不管是哪类数据出现问题,都可能会阻碍AI模型的发展,或者影响AI模型的决策。数据出错的方式有很多种,例如:数据实际上不正确、已损坏或格式错误。还有更微妙的错误:数据是在特定的上下文中捕获的,但不恰当地重复使用;数据未规范化导致同样的事情,表达方式不同;dataatthewronggranularitylevelforthemodel.....对于上述问题,仅使用单一数据源是无法解决的。如果攻击者试图将“错误”注入模型和系统,那么这些问题就更不可能得到解决。虽然人工智能创造了新的机会,但我们不能忽视它的脆弱性。也就是说,人工智能在带来新的解决方案的同时,也发明了新的攻击手段。比如Deepfake,卫星数据的“位置欺骗”等等,这些“有毒”的技术,都在和“好”的技术并驾齐驱。当前的人工智能系统完全依赖于数据质量。虽然技术相对成熟,但这种设计方案极易受到攻击。所以在这种情况下,AI系统必须设计成能够灵活处理不良数据的模型。使人工智能“反脆弱”是抵御攻击风险的一种方法。什么是反脆弱人工智能?在系统思维中,“反脆弱”是一种不仅能从失败中恢复,而且在遇到失败时更强大、更有效的设计。根据实际改善决策制定的因素构建人工智能系统将为反脆弱人工智能创造机会。认知科学研究提到,良好的决策制定是主动阐明假设、构建假设检验来检验这些假设以及在利益相关者之间建立清晰的沟通渠道的产物。许多导致人为错误的认知偏差都是这三个领域问题的结果。示例包括在没有明确阐明假设的情况下将解决方案应用于不合适的环境条件;如果不检验假设,就不可能根据不断变化的情况调整正确的决定。人工智能很容易受到不良数据的影响,因为我们过分强调它在分类和识别中的用途,而低估了它在建议和情境化方面的用途。然而,决策AI很容易被攻破。设计反脆弱人工智能是困难的,因为将算法分析的结果作为结论和作为建议有很大的不同。而决策者,为了节约能源,极有可能将AI输出作为结论。这种想法在刑事司法和警务方面已经出现了灾难性的错误。那么在医学上,为什么AI可以提高决策质量呢?因为很多诊断都没有单一的正确答案,某种症状可能对应多种疾病,你得的是什么病,可能只是一个概率问题。临床医生在脑海中构建一个决策树,其中包括他能想到的所有可能原因,并让患者进行测试以排除其中一些原因。因此,医学诊断是一个循环过程,“定义假设,检验测试,进一步缩小可能原因的范围”,直到决策收敛。此时,AI决策模型的作用是提示医生将可能的疾病类型纳入他的决策树,因此尽管可能数据不佳,但患者的治疗结果有所改善。这种人工智能已经被用于改善医疗专业人员之间的交流和知识共享,或者在关键时刻从患者那里获取新的相关信息。使用AI做出决策的正确姿势在决定如何最好地利用AI时,技术领导者需要首先考虑他们如何定义需要解决的问题。如果人工智能是为了改进决策,那么人工智能应该引导决策者进行假设检验,而不是试图超越专家。当AI试图超越专家时,它完全取决于它接收到的数据的质量,从而产生大量攻击者可以轻易利用的漏洞。当人工智能的目标不是成为最好的顶级专家,而是增强和支持决策实践时,它对不良数据具有弹性并且可以抗脆弱。但这样的人工智能无法做出决定。相反,它可以帮助人们阐明决策背后的假设,将这些假设传达给其他利益相关者,并在与这些假设相关的条件发生重大变化时提醒决策者。总而言之,人工智能可以帮助决策者弄清楚哪些状态是可能的,或者在什么条件下是可能的。这样的解决方案可以通过解决现有的弱点来增强决策团队的整体能力,而不是由于不良数据而产生一些新的弱点。