AI治理涉及企业内的许多职能和领域,包括数据隐私、算法偏差、合规性、道德规范等。因此,解决使用人工智能技术的治理问题的企业将需要在多个层面采取行动。TataConsultancyServices数据和分析负责人KamleshMhashilkar表示:“AI治理不仅仅是在IT层面或项目层面实施,还需要政府、企业董事会和首席安全官认真对待。”在医疗保健领域,人工智能模型必须通过严格的审核和检查。其他行业也有适用的法规。“由于公司在引入人工智能技术时面临风险,因此公司董事会担心与经济行为相关的人工智能治理,”Mhashilkar说。至于企业管理,人工智能议程是有目的的。例如,CFO需要考虑AI可以带来的股东价值和盈利能力。首席信息官和首席数据官也是关键的利益相关者,企业营销和合规主管也是如此,更不用说客户和供应商了。并非所有企业都需要在构建AI治理策略的各个方面采取行动。尤其是一些小公司。尽管如此,各种规模的企业都会使用人工智能和相关技术,即使它们只是嵌入到他们使用的第三方工具和服务中。但人工智能技术如果在没有适当监督的情况下使用,可能会出错,损害业务运营,侵犯隐私权,违反行业法规,或给企业带来不良声誉。具有前瞻性思维的企业将AI项目从试点扩展到生产,重点关注数据质量、算法性能、合规性和道德规范。以下是他们需要解决的AI治理问题:AI的伦理今天很少有领域比面部识别面临更多的伦理问题。其技术被滥用的可能性很高,一些提供面部识别技术的企业正面临公众的抵制,在某些情况下,还面临着他们自己员工的抵制。PatriotOneTechnologies的子公司XtractAI就是这种情况,它使用图像识别技术来识别携带武器的人。XtractAI运营副总裁JustinGranek表示,面部识别技术还可以用于其他情况,例如识别不遵守口罩或社交距离准则的人。“道德是我们的一个主要话题。例如,我们的员工说:'我们在做什么?',这迫使我们制定人工智能治理政策,”他说。”他指出,“客户有自己的一些要求,需要确定一个平衡点。加拿大国防部是我们的客户之一,我们在医疗保健领域也有一些客户。他们正在从不同的角度看待它。他说,公司面临的最大问题是为哪些客户服务,面部识别技术应该应用在哪里?这是与公司使命相关的重要决定。一切都与数据有关。使数据正确的算法中最大的偏差来源是数据集。例如,对于面部识别技术,数据集并不代表一般人群。“我们发现采用数据集更侧重于白人男性,这种情况已经得到纠正,但还有很多工作要做。Granek说,专家可以帮助解决数据偏差问题,商业数据提供商正在努力填补他们提供的数据中的空白。也有创建合成数据集的方法,但解决方案通常是从外部获取更好的数据。对于XtractAI公司的枪支检测算法,这意味着要建立一个实验室,携带枪支的人需要与人群混在一起。“这有点像在好莱坞电影中的人群中寻找枪支,”他说。我们的人工智能系统需要在人群中识别的枪手形象并不代表事情的真相。相反,XtractAI公司致力于收集大量个人数据作为训练数据。“没有关于谁可以携带武器的规定,”格拉内克说。我们的测试人员有的是学生,有的是年长的人,总之我们需要收集不同群体的数据。“对于某些AI应用程序,具有代表性和准确性的数据集可能是生与死的区别,并且具有重大的道德和伦理影响。然而,即使不良数据集的影响不会导致公共灾难,仍有潜在的风险对企业造成运营影响或财务损失,或导致监管或合规性问题。这是总部位于墨西哥的Cemex关注的问题,Cemex是世界上最大的建筑材料分销商之一,拥有超过100年的业务。该公司是通过在供应链管理和运营中使用人工智能来重塑自我。大约三年前,Cemex开始研究人工智能和相关技术,以扩大其市场份额,改善客户服务,提高利润。该公司首席人工智能官Nir??Kaldero表示:“我们在过去两年实际上已经看到了人工智能在全球范围内的价值,而不仅仅是在小规模的pil中项目。他说,随着AI技术融入公司的经营理念,Cemex认识到有必要围绕AI建立治理结构。“这一切都始于数据,”Kaldero说。没有好的信息架构,就不可能有好的、可靠的人工智能。没有好的信息,就不可能有好的可靠的模型。“Cemex的数据治理涵盖安全、监控、隐私、合规和道德,并且需要了解数据的位置、使用地点和方式,是否符合法规以及是否没有偏见,”Kaldero说。Cemex依靠Snowflake云数据平台来管理数据。公司有一位专门负责数据的高管和另一位负责治理团队治理的高管。使模型正确除了数据治理之外,Cemex还开始关注AI模型和结果创建AI治理策略。Kaldero说:“这些都是新事物,不仅对Cemex如此,对整个世界也是如此。该任务由Kaldero领导的AI和数据科学小组与首席信息官领导的小组共同分担。Cemex目前使用人工智能技术来预测对其产品的需求,以便通过与供应商协商更好的交易来节省开支。成本。它还使用人工智能进行卡车路线和调度以及销售和定价。如果这些计算有任何错误,公司将蒙受巨大损失。因此,为了防止模型漂移和算法偏差,使用了来自西雅图Algorithmia的CemexCorporationTechnology。KenSci是另一家专注于人工智能模型后果的公司。总部位于西雅图的KenSci使用AI技术分析医疗保健数据,这是一个准确的AI模型实际浮出水面的领域。正确是生死攸关的问题。“我们始终以与不同的利益相关者一起审查AI模型为目标,”该公司首席数据科学家MuhammadAurangzebAhmad说。为确保这些模型透明且负责,可解释性是一个核心组成部分。我们甚至发布了一个开源Python包fairMLHealth,任何人都可以使用它来衡量机器学习模型的公平性。艾哈迈德还建议审计不同群体的人工智能模型的表现,以确保少数群体和其他弱势群体得到公平对待。“人工智能模型的透明度和可解释性使它们更容易被最终用户使用和信任,”他说。.而且更容易审查,并在需要时进行更正。制定AI治理策略时要考虑的另一个关键领域是AI使用的道德规范。“围绕AI的法规没有跟上技术的步伐,机器学习系统的创造者有责任将机器学习系统的价值与道德目标结合起来。当存在权衡取舍时,我们应该谨慎行事。”JoeTobolski,首席技术官数字服务咨询公司Nerdery的负责人认为,越来越多的公司意识到人工智能潜在的道德风险。他说,“然而,公司是否完全了解他们正在运行的系统和他们拥有的训练数据??可能不会。“很少有公司有明确的AI道德规范,适用于他们的AI项目、数据源和使用技术。“这就是我们想要做的,为解决这些问题创建一个强大的、规范化的框架,”他说。框架。“Cemex的主要业务是研究限制和阻碍人工智能使用的问题,以尽量减少潜在的道德问题。例如,公司正在优先考虑改善服务和帮助客户的项目,而不是简单地减少公司员工的数量。”“人是业务的中心,而不是技术,”他说。我们可以使我们所有的客户呼叫中心自动化,但这不符合我们的利益。Cemex很自豪能够为更多员工提供工作机会。这是我们公司使命中的一件美好的事情。选择人工智能项目可以对员工产生积极影响。对于人工智能来说,这是一个巨大的创新。Cemex对人工智能技术所犯错误的研究显着减少了事故发生的次数,而减少错误的方法就是使用图像识别技术。“人工智能治理战略对于总部位于马萨诸塞州的人寿保险公司MassMutual而言,人工智能治理基于一套不断发展的数据伦理原则,这些原则指导公司的行动和决策。该公司的数据、战略和架构负责人SearsMerritt说:“我们有专门针对人工智能的使用制定了一套原则,使业务发展与商业价值和保单持有人的利益保持一致。我们还成立了一个团队,通过创建政策框架来监督人工智能的使用。大约一年前,MassMutual开始研究人工智能伦理和治理,因为它意识到需要证明并确保人工智能的使用对其保单持有人有利。Merritt现在领导一个由六名专家组成的团队,其中包括AI伦理和治理顾问,他们跟踪AI算法是否遵守治理原则以及它们如何随时间变化,从而深入了解公司如何遵循治理原则。创建正式框架的方法。“我们相信我们的工作会对所有利益相关者产生巨大影响,”梅里特说。他建议,AI治理需要从符合企业价值观和客户利益的核心原则入手,并符合法律、合规、道德与业务合作伙伴的实施。他说,MassMutual的下一步是将其框架推广为行业最佳实践。护栏的重要性BoozAllenHamilton高级副总裁JohnLarson表示,许多围绕AI治理的最佳实践可能很熟悉。“我在这个行业工作了25年,今天我正在使用以前存在的原理开发AI软件和算法。但以前不存在的是数据收集的速度、处理能力和学习能力算法,”他说。企业培训数据人工智能系统通常使用比以往更大的数据集,并且由于当今业务的数字化,数据正以前所未有的速度从网站、网络传感器、物联网设备和其他来源进入人工智能系统。处理这些数据的能力也比以往任何时候都高得多,这在很大程度上要归功于可以无限扩展的云计算资源。最后,一些AI系统的反馈特性意味着它们实际上是边做边学,并且学习可以以难以想象的速度将它们带到意想不到的方向。“今天的人工智能治理模型的原则与25年前的原则相同,但它们不能只是适应他们面临的挑战。解决方案是在AI系统中构建自动化保护措施,”Larson说。例如,开发人员可以设置护栏。如果AI模型的预测准确性超出预定目标,或者如果模型在设计参数范围内停止运行,则可能需要某种形式的干预。同样,如果进入AI系统的数据不再反映所需的特征,则需要发出警报以重新评估数据源,或选择更适合传入数据的不同模型。还有其他方法可以监控人工智能系统。例如,测试禁止相关性(如种族、年龄或宗教)的最终建议有助于在问题导致监管罚款或公共关系灾难之前发现问题。“谷歌和微软等一些公司已经开发出可以评估模型是否偏向某些事物的工具,”拉尔森说。BoozAllen也在开发一些工具套件,并试图为我们的数据科学家提供工具。Loeb&Loeb律师事务所隐私和安全实践合伙人兼联席主席JessicaLee表示,任何良好的AI治理计划都需要有明确的所有权和问责制。她说:“谁来领导这个计划,如何纠正这些错误?”企业需要回答这些问题。虽然不能保证可以避免算法、偏见、歧视性结果或其他伤害的意外后果。但良好的AI治理肯定会有所帮助。“
