当前位置: 首页 > 科技观察

对人工智能的恐惧和解决它的5种方法

时间:2023-03-20 17:41:09 科技观察

实施人工智能技术的IT领导者可能会感到有些恐惧,这是有充分理由的。人工智能虽然有几十年的发展和应用历史,但它的定位很奇怪,但对于很多人来说,人工智能仍然有一种未来感。人工智能其实并不新鲜,但它始终是一个永远“新”的领域。没有人能确切知道它的发展方向。有些人对他们不了解的事物感到害怕。而人工智能的未来也在让很多人彻夜难眠,这是有道理的,尤其是当你考虑到可能的不利后果时。人们可以合理地假设任何重大技术发展都是如此:它们将产生可怕的变化。然而,与人工智能相关的恐惧有不同的优先级。例如,大多数人不知道微服务架构是什么,尽管他们每天使用的一些应用程序是以解耦的方式构建的。但是像微服务这样的技术演进不会像人工智能那样对潜在的社会和经济影响产生如此情绪化的反应。微服务在流行文化中也不会永远存在。这在很大程度上说明了人工智能未来不明朗的担忧,当人们的想象力失去控制时,就很难评估其有效性。这对于IT领导者和其他试图构建实用AI战略的高管来说并不是特别有用。然而,许多人害怕人工智能,这是有充分理由的。对于AI初学者来说,他们更容易失败,因为他们通常基于当前的现实而不是未来的推测。加州大学欧文分校神经科学研究助理、ContinualAi联合主任KeilandCooper说:“人们对人工智能的恐惧类型取决于人们谈论的人工智能类型。与更多今天普遍使用的现实人工智能算法,一种更理论化、更遥远的‘通用人工智能’(一种能够做人类能做的一切的计算机)会引发更多的恐惧。”以下是当今有关AI的五个问题,以及专家的看法提供了解决这些问题的建议,以免他们破坏实施AI的业务计划。1.恐惧:人工智能会产生有偏见的结果人们越来越担心人工智能系统中可能存在的偏见和其他问题以及由此产生的决策或结果。与好莱坞电影中一些更具想象力的AI故事不同,人们应该对AI偏见感到恐惧。“AI算法的好坏取决于训练数据,”SkyMind的联合创始人兼首席执行官ChrisNicholson说。因此,如果一个数据集包含一个组织的历史偏见,它所做的预测将反映这种历史行为,例如,如果一家公司经常提拔拥有常春藤盟校学位的白人担任权威职位,那么训练有素的人工智能算法可以识别未来的领导素质和将他们集中在同一类别的候选人上,而忽略那些不属于该类别的候选人。解决方案:人们应该接受这种恐惧并采取行动。无需担心AI偏见会增加其不受控制传播的可能性。人工智能算法不应免除个人和组织对结果的责任。人为监督和管理是绝对必要的,并且有很好的例子说明其他恐惧(不再需要人类)可能被夸大了。Nicholson说:“人们不能相信AI知道一切或做出完美的决定。人工智能算法是人类创造的,但人类也会犯错。所以每个公司要做的就是建立一个系统来检查人工智能,或者对人工智能的决策进行定期抽样并展示给专家,然后问他们:这看起来对吗?而且结果至少和专家一样好,这是企业最初希望的结果。“这在医疗保健、保险、银行、政府等行业可能尤为重要。但事实上,这在任何地方都是一个重要问题。”人工智能从业者研究人员和机器学习工程师必须确保他们遵守某种程度的算法问责制,IT主管应该有专门的数据团队来为他们现有的数据集建立去偏过程。这将有助于实现在使用该系统的决策过程中需要达到的公平和公正水平,尤其是在涉及最终消费者的情况下。“这是一个道德和公平的问题。人工智能道德也可能成为竞争差异化因素,”马苏德说。“我相信在未来五年内,会有更多注重公平的消费者,他们希望与部署公平的公司开展业务人工智能辅助决策机制。通过努力减少用于基于决策的系统的数据集中的偏差,IT团队可以对消费者行为的这种转变产生重大影响。2.恐惧:人们不知道为什么人工智能会做它所做的事情。这是另一种对未知的自然恐惧:许多AI结果很难解释。“先进的人工智能形式能够充分利用数据,”尼科尔森说。准确的预测,但也最难解释为什么做出这样的预测。这有时被称为人工智能的“黑匣子”,指的是缺乏对人工智能系统所做决策的可见性,这对许多组织来说可能是一个重大问题。Nicholson说,“在很多情况下,人们都需要知道他们为什么做某事。在受到严格监管的行业组织中尤其如此。例如,医疗保健行业不希望AI算法对患者的诊断或治疗做出决定不知道为什么做出这个决定。Cooper提供了另一种情况,指出当出现问题时,黑盒模型变得尤为重要。Cooper说,“假设你训练一个算法来挑选好股票并做得好,也许是9%利润。”如果金融投资有足够或更好的回报(如果Cooper的假设是合理的),那么可能就不太关心为什么。毕竟已经获得了。但是如果损失了9%的成本呢?如果一切都发生了呢?迷路了?人们可能更关心为什么。“问题是,在很多情况下,人们不知道他们为什么选择它所选择的东西,”他说。这很可怕,因为它不仅会减少人们与人工智能的联系系统正在使用,但如果它做错了,它也不会带来太多洞察力。解决方案:解决这种恐惧的方法之一是确保即使人工智能技术得到改进,人类的智能和决策仍然存在任何过程的重要部分,在某些情况下是最终部分。换句话说,即使人工智能在这些过程和决策中的作用不断扩大,这种恐惧也可以通过确保人们对过程和决策保持适当的控制来减轻。尼科尔森说:“就健康而言关心,最好采用人工智能作为人类专家的一种决策支持形式。也就是说,不能让人工智能在没有监督的情况下单独运作。人工智能可以整合到现有的决策过程中,人类专家可以得到建议,专家将做出最终决定,他们将能够解释做出该决定的原因。3.恐惧:人工智能会做出错误的决定人工智能会做出错误的决定,这是一个非常明确的问题。选择会发生什么?(人们可以看到这些恐惧的某些组合如何产生复合效应:如果AI做出了错误的决定并且无法解释原因会发生什么?)假设所有AI生成的结果都是正确的即使是对AI应用最乐观的人也会感到不舒服。偏见会导致错误的决定。然而,这实际上是一种更广泛的恐惧,除了其他负面因素外,它会导致团队不信任任何人工智能衍生的结果。当AI团队(或IT部门)以外的人分析结果时,这种情况就更有可能发生。它还可能导致组织的业务发展停滞不前。“很多人担心人工智能会做出错误的决定,”Very的工程总监JeffMcGehee说。的。对于从业者来说,这可能很难确定,尤其是在没有对“好”决定进行量化定义的情况下。解决方案:人为因素的重要性再次占据主导地位。如果人们无法量化什么是积极的结果,那么就需要提出一个定性框架,同时确保依靠正确的人员和信息组合来解决诸如偏见之类的实际问题“为了确定这样的定义,利益相关者必须仔细考虑好/坏决策的所有可能定义,”McGehee说。正确性可能是理想的,但某些类型的错误通常更容易接受,或者更像人。此外,“正确性”可能指的是人们是否符合某些标准的预测列表,但如果此列表包含固有的人为因素偏差,则这可能是一个糟糕的目标。当非技术利益相关者评估AI决策的质量时,所有这些因素都会发挥作用。4.恐惧:AI将导致匿名性丧失McGehee指出了一个鲜为人知的问题,该问题可能成为AI安全中更引人注目的领域:当匿名性被假定为给定的性别或隐私时,匿名性丧失。McGehee表示,“以前,人工智能从业者普遍认为,一旦机器学习模型被训练,其权重(使其能够做出预测的参数)不包含任何可追踪的训练数据。然而,最近出现的技术将允许恶意参与者检查训练有素的机器学习模型并对用于训练的各个数据点做出有意义的推断。有关人员。解决方案:再次,通过认识到恐惧背后的合法问题,人们可以采取措施解决它。在必要时保护数据的隐私或匿名是组织可以采取主动措施作为其整体安全策略的一部分的领域。这是也是机器学习中正在进行的研究和开发的一个领域。McGehee说:“虽然这是一种合理的恐惧,但正确保护和加密模型权重可以减少它们落入坏人之手的机会,并且创建不易受这种威胁影响的新机器学习技术将是一项重大挑战。”一个活跃的研究领域。”5.恐惧:人工智能会让人们失业人们可能会面临一种巨大的恐惧,这种恐惧弥合了当前的现实和更多的投机情景。大多数专家都认为人工智能将取代更多的工作。在某些情况下,这将意味着失业。在可预见的未来,人工智能(以及更广泛的自动化)应用的增加比计算机时代更为广泛,当时计算机的兴起引发了类似的担忧。研究发现,计算机在影响就业的同时创造了更多的就业机会。解决办法:“从历史上看,新技术不仅使工作自动化,而且可能创造新的工作,”尼科尔森说。“想想所有用计算机完成的工作。新技术通常需要人们掌握、支持和管理它们。”维护,AI也不例外。”积极解决这种恐惧将是AI在商业中取得成功的关键,否则人们将无法参与。需要注意的是,以上所有不仅需要人类的参与,还需要组织中AI的积极管理。“要了解的关键是,工作的未来将是人与机器之间的协作,”尼科尔森说。“但机器仍然需要人类来操作和维护它们。这就是人工智能。”