随着人工智能技术的兴起,AI中存在的问题也逐渐暴露出来。人工智能做出的决定仍然不同于最佳的人类决定,并且通常包含一些偏见。所以有什么问题?在最近的一篇文章中,作者玛丽安·贝洛蒂(MarianneBellotti)阐明了原因,并就AI设计原则提出了自己的看法。我们来看看文章的具体内容。据专家介绍,数据科学家花费大约80%的时间来清理数据。实现人工智能驱动的集中决策,关键是要打破任务之间的壁垒,为人工智能模型创造可靠的数据。可互操作的过程。在目前的人工智能领域,即使花费大量的时间和经济成本,仍然不可能实现像人脑那样更接近全球层面的态势感知。随着数据科学和人工智能的发展,构建人工智能模型所需的数据量也越来越大。自动驾驶公司投入了数百亿美元,仍然没有实现完全自动驾驶。社交媒体公司已投入数十亿美元试图利用人工智能清理不良信息,但仍严重依赖人工清理平台。人工智能目前不具备做出最佳决策的能力。此外,人们在构建AI模型时并没有完全消除人为偏见,而是试图从越来越多的数据中构建“完美”的AI模型,但数据参差不齐。决策与数据的相关性当试图找到一个难题的解决方案时,您应该首先将事情分解:您在做什么假设?这些假设如何构建要解决的问题?如果这些假设不同,它会解决不同的问题吗?你想解决的问题和解决结果之间有什么关系?因此,人工智能做出更好的决策显然非常重要。整体态势感知也非常重要,假设访问更多数据是决策者做出更好决策的关键,而更好的决策意味着更少的负面影响。在现实生活中,决策者往往为了节省成本而做出优化决策。但决策毕竟是根据结果来判断好坏的,在正确分析的基础上还需要一点运气。在结果出来之前,即使是最谨慎、最彻底的策略,并有出色的数据支持,也不能保证决策是绝对正确的。因此,决策过程不应该是对数据的客观分析,而应该是利益相关者之间就风险容忍度和优先级进行的积极协商。数据不是提供见解,而是用作保护利益相关者免受影响的盾牌。完美的信息通常会增加噪音水平,从而降低决策质量。这似乎令人难以置信,完美的信息不应该自动改进决策过程吗?事实上,更多的信息可能会改变决策背后的组织战略。AI可以正确识别内容,但基于该内容的决策在很大程度上受到用户和组织的规范和期望的影响。改善团队决策的最好方法不是获取更多数据,而是改善利益相关者之间的沟通。但人们真的需要花费数十亿美元清理或扩充数据才能从AI中获益吗?设计不当的AI可能导致重大的安全风险人们评价数据质量的方式目前具有误导性。“干净”数据似乎是准确、无偏见且可重复使用的数据。但实际上,干净不等于准确,准确不等于可操作。这三方面的数据出现问题,可能会严重影响人工智能模型的性能,干扰其结果的质量。数据中可能存在多种类型的问题,其中一些问题较为明显,例如数据不正确、数据损坏或数据格式不标准。有些问题更微妙,例如在特定上下文中获取数据然后不恰当地重用;模型粒度级别错误的数据;数据未规范化,导致相同的事实以不同的方式表示或描述。使用单一数据源解决上述任何问题都将非常困难,如果程序化攻击者试图将不良数据注入大型系统以破坏模型,则几乎不可能解决所有上述问题。人们不能忽视这样一个事实,即人工智能在创造新机遇的同时,也带来了新的漏洞。人工智能带来了新的攻击方式和被攻击方式。人工智能可能会导致新一代的攻击工具,例如卫星数据干扰欺骗(位置欺骗)。通过破坏数据来致盲或误导AI系统的技术正在与AI技术一起开发。当前的AI系统完全依赖于数据的质量,因此AI存在缺陷并不是因为技术不成熟,而是因为AI最初是以这种易受攻击的形式设计的。所以在这种情况下,AI系统必须设计成能够灵活处理不良数据的模型。那么如果改变这种设计来降低AI被攻击的风险呢?这就需要让人工智能“反脆弱”。什么是反脆弱人工智能?“反脆弱性”是指人工智能系统不仅可以从故障中恢复,还可以在经历故障后变得更强大、更有效。根据实际改善决策制定的因素构建人工智能系统将为反脆弱人工智能创造机会。现有的认知科学研究表明,良好的决策制定是主动阐明假设、构建假设检验以验证假设以及在利益相关者之间建立清晰的沟通渠道的产物。许多导致“人为错误”的认知偏差是上述三个方面问题的结果:当人们不检验他们的假设时,他们就不能根据不断变化的情况调整正确的决定;当运营商之间没有有效地共享信息时,就会失去检测不断变化的条件和挑战假设的机会,对每个人都不利。人工智能很容易受到不良数据的影响,因为当前的研究过分强调了它在分类和识别中的用途,而低估了它在建议和情境化方面的用途。但是人工智能做出的决定很容易被破坏。设计反脆弱人工智能是困难的,因为将算法分析的输出作为结论与作为建议或暗示之间存在很大差异。政策制定者可能会从AI输出中得出结论,以节省成本。这是当今人工智能应用中已经存在的灾难性错误。同时,医学中的AI系统可以改进决策制定,因为许多诊断都没有单一的正确答案。在医学诊断中,任何一组症状都有一系列不同概率的可能原因。临床医生在脑海中构建了一个决策树,包含他能想到的每一种可能的病因,并设想了排除其中一些病因的测试。医学诊断是一个迭代过程,包括定义假设、检验测试,并进一步缩小可能原因的范围,直到找到解决方案。尽管数据不足,但可以通过提示医生添加其他可能的病因来加快诊断过程。在这种情况下,人工智能可以改善医疗专业人员之间的沟通和知识共享,并在关键时刻为患者获取相关信息。相比之下,试图利用人工智能技术区分良恶性肿瘤以胜过医生的人工智能产品一直受到不良数据问题的困扰。强大的人工智能与糟糕的数据在利用人工智能的尖端技术之前,研究人员和开发人员应该首先思考如何定义要解决的问题。如果要使用AI来改进决策,那么AI应该指导决策者进行假设检验,而不是试图超越专家。如果允许AI试图超越专家,它就会完全依赖于数据的质量,从而产生一系列漏洞,程序攻击者可以轻松利用这些漏洞。当AI不是被训练成为专家,而是被训练来改进和支持人类决策时,AI将对不良数据具有弹性并能够变得反脆弱。在这种情况下,AI不会做出决策,而是帮助澄清决策背后的假设,将这些假设传达给人类,并在与这些假设相关的实际情况发生重大变化时提醒决策者。人工智能可以帮助决策者弄清楚哪些状态是可能的,或者在什么条件下某些状态是可能的。这样的解决方案可以通过解决现有的弱点来增强决策团队的整体能力,而不是由于不良数据而产生一些新的弱点。人工智能还不“聪明”一文发表后,不少网友表示赞同作者的观点。有网友表示:“这是我这几年读到的关于AI这个话题最有感触的文章之一,对一些相关领域的工作者一定会有所裨益。”我太沉迷于工作,以至于忘记了人工智能还有更大的潜力来辅助人类。”有网友认为,人工智能成功的关键不在于大量的数据,而应该依靠从中获取的少量数据。成功经验:另外,有网友表示:“人工智能与人类的‘智能’无关,它其实只是计算机化的信息,还需要人去分析。”看来人工智能还远未真正完成自治。你怎么看这个?
