高管们长期以来一直抵制将数据分析用于更高层次的决策,他们更喜欢基于现场经验的直觉级决策,而不是人工智能辅助决策。人工智能已经在许多行业广泛用于战术性、低层次的决策——信用评分、超卖推荐、聊天机器人或管理机器性能都是成功部署人工智能的例子。然而,它在更高层次的战略决策中的作用——例如重组产品线、改变公司战略、跨职能重新分配人力资源,或与新合作伙伴建立关系——还有待证实。无论是人工智能还是高级分析,企业领导者仍未准备好以深刻的方式将他们的业务完全押注于机器做出的决策。瑞士IMD商学院的AmitJoshi和MichaelWade对金融和零售公司的人工智能活动进行的一项研究发现,“人工智能现在主要用于战术而非战略目的——事实上,这是一个完整的长期战略愿景因为人工智能很少见。”在德勤的一项调查中,超过三分之二(67%)的高管表示,他们对访问或使用来自高级分析系统的数据感到“不舒服”。在拥有强大数据驱动文化的组织中,37%的受访者仍然表示不满意。同样,在毕马威(KPMG)进行的一项类似调查中,67%的首席执行官表示,他们通常更愿意根据自己的直觉和经验做出决策,而不是根据数据分析产生的见解。该研究证实,许多高管对其公司的数据、分析和人工智能缺乏高度信任,并且不确定谁应该为人工智能的错误和滥用负责。数据科学家和分析师也看到了高管们的这种不情愿——SAS最近的一项调查发现,42%的数据科学家表示他们的结果没有被商业决策者使用。高管们何时准备好将AI带入下一步,充分信任它以根据影响其业务的更具战略性的建议采取行动?挑战很多,但现在可以采取四项行动来提高高管对AI辅助决策的信心。高管们对创建可靠模型的犹豫不决可能源于负面经历,例如AI系统提供了误导性的销售结果。几乎每一个失败的AI项目都有一个共同点——缺乏数据质量。在旧的企业模型中,结构化数据占主导地位,它在数据到达源头时对其进行分类,这使得立即使用数据相对容易。虽然AI可以使用高质量的结构化数据,但它也会使用大量非结构化数据来创建机器学习(ML)和深度学习(DL)模型。这种非结构化数据虽然以其原始格式很容易收集,但如果没有适当的分类、标记和清理是无法使用的——视频、图像、图片、音频、文本和日志——都需要分类、标记,以便AI系统可以在之前创建和训练模型它们可以部署到现实世界中。因此,输入人工智能系统的数据可能已经过时、不相关、冗余、有限或不准确。输入AI/ML模型的部分数据只能提供业务的部分视图。人工智能模型可能是为了反映企业开展业务的方式而建立的,无法适应新的机遇或现实,例如我们因全球大流行的影响而看到的供应链中断。这意味着需要实时提供数据,以便实时创建或更改模型。难怪许多数据科学家将一半的时间花在数据准备上。这仍然是创建可提供适当结果的可靠AI模型过程中的唯一重要任务。背景和可靠性是获得高管信任的关键。有许多人工智能工具可用于帮助数据准备——从合成数据到数据去偏,再到数据清理,企业应考虑使用其中一些人工智能工具在正确的时间提供正确的数据,以创建可靠的人工智能楷模。避免数据偏差高管们的犹豫可能是出于持续的、合理的担忧,即人工智能结果会在他们的组织内产生歧视或影响客户。同样,固有的AI偏见可能会将业务决策引向错误的方向。如果不采取谨慎措施消除数据中的任何偏差,则生成的AI模型将始终存在偏差,从而导致“输入垃圾,输出垃圾”的情况。如果AI模型是用有偏见的数据训练的,它会影响模型的准确性并产生有偏见的建议。模型和决策只有在数据没有偏见的情况下才是好的。不良数据,无论是有意还是无意,都可能包含隐含的偏见信息,例如种族、性别、出身、政治、社会或其他意识形态偏见。此外,对业务有害的其他形式的偏见也可能是固有的。现在大约有175种确定的人类偏见需要引起注意。这需要通过分析来解决,以找出输入数据的偏差和其他负面特征。如上所述,AI团队花费了大量时间来准备数据格式和质量,但没有太多时间去消除数据偏差。高层决策中使用的数据需要经过彻底审查,以确保管理人员数据经过验证、具有权威性、经过验证,并且来自可靠来源。它需要从影响算法准确性的已知歧视性做法中清除。如果数据来自可疑或未经审查的来源,则应将其完全根除或获得较低的信任评分。此外,通过控制分类精度,可以以最小的增量成本显着减少歧视。此类数据预处理的优化应侧重于控制歧视、限制数据集的失真和保留效用。人们经常假设——错误地假设——人工智能的数学模型最终可以过滤掉人类的偏见。风险在于,如果不受限制地运行此类模型,可能会引入额外的不可预见的偏差——来自有限的输入数据或受损的准确性。高管在做出道德和道德决策时犹豫不决,可能反映出企业在确保其运营符合道德和道德方面面临着前所未有的压力,人工智能辅助决策也需要体现道德和道德价值观。这部分是因为他们希望将自己展示为一家具有道德和道德价值观并诚信经营的公司,部分是因为做出可能在法庭上受到质疑的错误决定可能承担法律责任-特别是考虑到如果决定由AI制造或协助,它将通过额外的审查层。研究和教育机构正在进行研究,将人类价值观应用于人工智能系统,将这些价值观转化为机器可以理解的工程术语。例如,加州大学伯克利分校的计算机科学教授StuartRussell率先提出了一个有用的想法,称为价值对齐原则,该原则实质上是“奖励”人工智能系统做更可持续的事情。接受的行为。可以训练人工智能系统或机器人阅读故事,从这些故事中学习可接受的事件顺序,并更好地反映成功的行为模式。将罗素这样的研究应用到商业领域至关重要,因为人工智能有可能影响影响生活和商业的决策的准确性。企业需要确保有足够的制衡机制,以确保人工智能辅助决策符合道德规范。解释AI决策的能力如果没有透明度,高管们可能会对接受AI决策持谨慎态度。大多数人工智能决策本质上是不可解释的。当做出决定并采取行动使企业面临数百万美元的风险,或涉及人们的生活/工作时,声称人工智能做出了决定,因此我们正在采取行动,这样做得不好。人工智能产生的结果以及基于这些结果采取的行动不能是不透明的。直到最近,大多数系统都被编程为可以清楚地识别和处理预先确定的情况。然而,当传统的非认知系统遇到它们没有被编程的情况时,它们就会碰壁。另一方面,它内置了一定程度的批判性思维能力,旨在更接近地模仿人脑。随着新情况的出现,这些系统无需额外编程即可学习、理解、分析情况并根据情况采取行动。用于训练算法的数据需要以负责任的方式维护——通过安全存储、验证、审计和加密。区块链或其他分布式账本技术等新兴方法也提供了一种不可变且可审计的存储形式。此外,还需要建立第三方治理框架,以确保AI决策不仅可解释,而且基于事实和数据。归根结底,应该可以证明如果给定相同的数据集,人类专家是否会得出相同的结果——而无需AI操纵结果。人工智能基于数据的决策几乎总是基于概率(概率与确定性)。正因为如此,人工智能在做决定时总是存在一定程度的不确定性。结果的可靠性必须有相应的置信度或等级。正是出于这个原因,大多数系统不能、不会也不应该自动化。在不久的将来,人类需要在决策圈中发挥作用。这使得在涉及医疗保健等敏感行业时,更难依赖基于机器的决策。在医疗保健领域,决策不够好的概率为98%。随着系统相互交互,事情变得复杂且不可预测。哈佛大学伯克曼克莱因互联网与社会中心的大卫温伯格博士说:“我们开始接受这一点:世界的真正复杂性远远超出了我们设计用来解释它的法律和模型。“无论决策变得多么复杂,当今的企业仍然需要源自人的批判性思维来运作。高管们仍然需要能够否决或质疑基于AI的输出,尤其是在不透明的过程中。提高高管信心的任务当您寻求提高高管对AI的舒适度时,请考虑以下行动步骤:提升IT以外接触AI流程的任何人对AI的主人翁意识和责任感。为了促进道德决策并在数据经济中生存,需要进行文化变革。认识到AI(在大多数情况下)只是根据以前的数据和模式做出决策并对未来做出一些猜测的代码。每个商业领袖——以及与他们共事的员工——仍然需要批判性思维技能来质疑人工智能的输出。将人工智能瞄准其影响最大的领域,并首先完善这些领域,将增加最大的商业价值。调查并推出最具影响力的技术。通过提高透明度和最大化决策供应链的可观察性来确保人工智能的公平性。在各级提高对公平、可操作人工智能的认识和培训,并将激励措施与成功采用人工智能联系起来。定期和系统地审查或审查AI结果。承担责任,做出自己的决定,如果你做出了错误的决定,请纠正它——不要责怪人工智能。不可避免地,出于战略目的,更多的人工智能辅助决策将在执行办公室进行。目前,人工智能将帮助人类在决策中表现出更高的智能,而不是像独角兽那样按一下按钮就能提供正确的见解。确保这些人工智能辅助决策的输出基于可靠、公正、可解释、合乎道德、道德和透明的见解,将有助于企业领导者对现在和未来几年基于人工智能的决策充满信心。
