数据是构建人工智能系统所必需的关键基础设施。数据在很大程度上决定了人工智能系统的性能、公平性、健壮性、安全性和可扩展性。那么,经过足够数据训练的AI系统能否做出正确的决策?今年5月,博主MarianneBellotti在medium上发表了一篇题为《AIisSolvingWrongProblems》的文章。在文章中,作者提出了一个观点:在更多数据(信息)的加持下,人类不一定能做出“合适的决定”。为什么我们应该假设人工智能会表现得更好?为了论证这一点,该博主写道:“在现实生活中,决策者往往会为了节省成本而做出优化决策。但决策毕竟是根据结果来判断好坏的,一点点运气是可以的。”需要建立在正确分析的基础上。在结果出来之前,即使是最好的、有数据支持的最周密、最彻底的构建策略,也不能保证决策的绝对正确性。显然,这种观点意味着决策过程与其说是对数据的客观分析,不如说是对风险和优先级的分析。权衡。最后,基于以上观察,作者论证了这样一个观点:数据驱动的AI模型在做决策时极易受到攻击1.AI的方向存在偏差面对难题,循序渐进、有条不紊的解决方案值得肯定有哪些假设?假设是如何构建的?需要解决什么问题?如果这些假设不同,它们会解决不同的问题吗?你要解决的问题和结果之间的关系是什么?这些子问题对于决策过程。假设访问更多数据是决策者做出更好决策的关键,因此研究人员希望向系统提供的数据越多,AI做出的决策就越好,随着fe是负面的后果。在这种假设下,我们理所当然地认为完美的信息应该会自动改进决策过程。考虑到现实,这个假设是错误的。因为,决策过程更多的是决策者背后的政治决策。退一步说,即使能够获得完美的信息,也会通过增加噪音水平来降低决策质量。例如,AI可以正确识别内容,但基于该内容的决策在很大程度上受到用户和组织的规范和期望的影响。例如,Facebook的审核政策允许某些敏感部位在“明星”上PS,但禁止透露明星的真实敏感部位。在Facebook的案例中,人类很容易理解利益相关者之间的关系如何证明这种区别:一个违反言论自由和公众评论的规范;另一个没有。显然,当团队做出决策时,考虑到各种利益相关者及其激励因素,改进决策的最佳方式不再是更多的数据,而是增加利益相关者之间的沟通。这更好地回答了“是否需要花费数十亿美元在国家层面清理数据和增强数据传感器,以提高AI的决策能力?”这个问题。毕竟,美国国防部每年花费1.1-15亿美元用于员工将数据处理成某种形式。经过数十年的投资、监管和标准制定,我们今天并没有比1970年谈论“计算机化大脑”时好多少。然而,随着计算机变得越来越先进,人们对数据也越来越着迷。2.数据驱动的漏洞谈论数据质量的方式具有误导性。我们谈到“干净”数据时,就好像存在一种数据既准确(且无偏见)又可重复使用的状态。其实干净和准确是不一样的,准确和可操作性是不一样的。无论哪类数据出现问题,都可能阻碍AI模型的发展,或者影响AI模型的决策。数据出错的方式有很多种,例如:数据实际上不正确、已损坏或格式错误。还有更微妙的错误:数据是在特定的上下文中获取的,但不恰当地重复使用;数据未规范化导致同样的事情,表达方式不同;dataatthewronggranularitylevelforthemodel.....对于上述问题,仅使用单一数据源是无法解决的。如果攻击者试图将“错误”注入模型和系统,那么这些问题就更不可能得到解决。尽管人工智能创造了新的机遇,但我们不能忽视它的脆弱性。也就是说,人工智能在带来新的解决方案的同时,也发明了新的攻击手段。比如Deepfake,卫星数据的“位置欺骗”等等,这些“有毒”的技术,都在和“好”的技术并驾齐驱。当前的人工智能系统完全依赖于数据质量。虽然技术相对成熟,但这种设计方案极易受到攻击。因此,在这种情况下,AI系统必须设计成能够灵活处理不良数据的模型。使人工智能“反脆弱”是抵御攻击风险的一种方法。3、什么是反脆弱人工智能?在系统思维中,“反脆弱”是一种不仅能从失败中恢复,而且在遇到失败时更强大、更有效的设计。根据实际改善决策制定的因素构建人工智能系统将为反脆弱人工智能创造机会。认知科学研究提到,良好的决策制定是主动阐明假设、构建假设检验来检验这些假设以及在利益相关者之间建立清晰的沟通渠道的产物。许多导致人为错误的认知偏差都是这三个领域问题的结果。示例包括在没有明确阐明假设的情况下将解决方案应用于不合适的环境条件,以及在没有测试假设的情况下使正确的决策适应不断变化的条件。人工智能很容易受到不良数据的影响,因为我们过分强调它在分类和识别中的用途,而低估了它在建议和情境化方面的用途。然而,决策AI很容易被攻破。设计反脆弱人工智能是困难的,因为将算法分析的结果作为结论和作为建议有很大的不同。而决策者,为了节约能源,极有可能将AI输出作为结论。这种想法在刑事司法和警务方面已经出现了灾难性的错误。那么在医学上,为什么AI可以提高决策质量呢?因为很多诊断都没有单一的正确答案,某种症状可能对应多种疾病,你得的是什么病,可能只是一个概率问题。临床医生在脑海中构建一个决策树,其中包括他能想到的所有可能原因,并让患者进行测试以排除其中一些原因。因此,医学诊断是一个循环过程,“定义假设,检验测试,进一步缩小可能原因的范围”,直到决策收敛。这时候AI决策模型的作用就是提示医生将可能的疾病类型纳入到他的决策树中,这样虽然数据可能不佳,但患者的治疗结果却得到了改善。这种人工智能已经被用于改善医疗专业人员之间的交流和知识共享,或者在关键时刻从患者那里获取新的相关信息。4.使用AI进行决策的正确姿势在决定如何最好地利用AI时,技术领导者需要首先考虑他们如何定义需要解决的问题。如果人工智能是为了改进决策,那么人工智能应该引导决策者进行假设检验,而不是试图超越专家。当AI试图超越专家时,它完全取决于它接收到的数据的质量,从而产生大量攻击者可以轻易利用的漏洞。当人工智能的目标不是成为最好的顶级专家,而是增强和支持决策实践时,它对不良数据具有弹性并且可以抗脆弱。但这样的人工智能无法做出决定。相反,它可以帮助人们阐明决策背后的假设,将这些假设传达给其他利益相关者,并在与这些假设相关的条件发生重大变化时提醒决策者。总而言之,人工智能可以帮助决策者弄清楚哪些状态是可能的,或者在什么条件下是可能的。这样的解决方案可以通过解决现有的弱点来增强决策团队的整体能力,而不是由于不良数据而产生一些新的弱点。本文转载自雷锋网。如需转载,请在雷锋网官网申请授权。
