当前位置: 首页 > 科技观察

阻碍业务发展的6个AI神话

时间:2023-03-22 00:55:08 科技观察

AI技术正在深入工作环境,不仅取代了平凡和重复的手动任务,而且以其他方式改变了其他工作。人工智能技术渗透到业务的各个方面,并正在推动组织战略。研究公司Gartner预测,到2025年,人工智能将成为推动组织基础架构决策的顶级技术之一。然而,即使人们对AI的兴趣增加,对这项技术的一些误解仍然存在。首席信息官必须识别这些陷阱,以便在推动AI项目向前发展时制定合理的战略或增强现有战略。通过了解AI的工作原理及其局限性,组织的CIO可以更好地利用AI技术来提供业务价值。误区1:AI在冠状病毒期间是奢侈品事实:即使在冠状病毒危机期间,组织对AI的兴趣和投资仍将继续增长。事实上,Gartner最近的一项调查发现,自大流行以来,24%的组织增加了AI投资,42%的组织保持不变。AI不仅帮助医疗保健和政府CIO完成预测病毒传播和在持续大流行期间优化应急资源等任务,而且对于各类企业加快大流行后恢复工作也至关重要。人工智能一直是成本优化和业务连续性的重要推动力,支持收入增长而不中断并改善客户互动。虽然人工智能不是灵丹妙药,但大多数组织不能忽视它在解决大流行的直接和长期影响方面的潜力。组织的CIO必须积极推广人工智能,而不是将其视为一种奢侈品,而是将其视为一种可用于现实场景的强大技术,例如在大流行病结束期间和之后更快地分析更多数据,并加强决策制定。误区2:您不需要AI战略事实:AI可以应用于各种各样的业务问题,但只有制定AI战略才能实现变革性的商业价值。CIO可以通过使业务优先级与市场机会保持一致来最大化AI的价值,尤其是那些利用AI的力量来增强人类工作的机会。首先确定最有前途的AI用例,这些用例与战略计划和关键业务功能保持一致,例如自动化管理任务以腾出更多时间进行创新。定期重新审视组织采用AI的方法,并确保有关AI实施的决策得到研究和审议的支持。误区3:AI只能取代平凡和重复的工作事实:随着时间的推移,许多技术已经影响了人们的工作方式和获得高薪机会所需的技能。结果,某些职业消失了,而新的职业不断被创造出来。例如,今天打字员的工作很少见,就像十年前社交媒体营销经理很少见一样。人工智能技术有望对人们的工作和学习方式产生重大影响。AI不仅有可能自动执行被认为平凡或重复的任务,而且还可以通过完成更高价值的任务来帮助改进或转变其他工作。例如,人工智能可以在几分钟内阅读数千份法律合同,并比律师更快、更省力地从中提取所有有用信息。组织的CIO可以通过识别AI可以增强或自动化的活动(例如项目管理或客户服务)来确定AI对现有任务的潜在影响。在人工智能的帮助下,员工可以接受再培训,以更好更快地完成工作。与员工和利益相关者进行频繁和透明的沟通对于减轻对人工智能使用的担忧、减少负面情绪并帮助团队为即将到来的变化做好准备非常重要。误区四:人工智能和机器学习是同一个事实:人工智能是计算机工程的总称。人工智能有一个主要的子领域,称为机器学习(ML),它指的是机器无需明确编程即可学习的能力。可以对机器学习进行编程以从数据中识别模式,并且通常擅长解决特定任务。例如,机器学习可用于对电子邮件是否为垃圾邮件进行分类。同样,机器学习与深度学习不同。深度学习技术或深度神经网络(DNN)是一种能够取得惊人突破的机器学习。但这并不意味着深度学习是人工智能框架下解决所有问题的最佳技术,也不意味着深度神经网络(DNN)一直是针对特定挑战者最成功的人工智能技术。事实上,许多当前的AI问题都可以使用基于规则的系统或传统的机器学习来有效解决。最新的尖端AI技术并不总是解决业务问题的最有效方法。数据科学家需要将AI技术作为一个整体来看待,并实施最适合业务模型和目标的技术。对于复杂的问题,尤其是那些需要更多人类洞察力的问题,最好将深度学习与物理模型或图形等其他人工智能技术相结合。在与利益相关者沟通时,CIO必须澄清这些经常可以互换的术语。将人工智能的整体讨论分解成关于机器学习等某项技术的对话,以展示每种技术如何解决现实世界的问题。误区5:AI完全是关于模型的算法和技术事实:构建和应用机器学习算法来创建预测模型通常是AI项目中最简单的部分。更具挑战性的部分涉及确保使用AI解决的问题得到明确定义,收集和管理足够正确的数据,而部署是AI项目中最困难的部分。事实上,到2023年,至少50%的IT领导者将致力于将他们的AI预测项目从概念验证提升到成熟的生产水平。组织的CIO应专注于通过咨询主要利益相关者来定义AI将解决的业务问题。并提前确定组织和管理测试、部署和其他AI运营活动所需的人员、流程和工具。误区6:并非所有黑盒AI都必须遵守法规事实:黑盒AI是一种AI系统,其中的输入和过程对用户隐藏。根据对客户隐私、安全、算法透明度和数字伦理的监管要求,不同的人工智能应用对可解释性有不同的要求。AI不一定需要那么多的可解释性来生成供内部使用的见解。然而,人工智能对人的决策(例如,关于贷款或信贷的资格)需要可解释性。出于道德和法律原因,在“闭环”中做出具有重大后果(例如启用自动驾驶时)决策的AI对可解释性提出了很高的要求。CIO必须确保AI应用程序符合现有的道德规范和法规。支持测试和验证团队,因为他们收集的数据将决定所使用的AI应用程序的可解释性需求。