当前位置: 首页 > 科技观察

集齐这6个tips,妥善解决AI治理问题

时间:2023-03-20 00:25:09 科技观察

AI治理涉及企业内部的诸多职能领域——数据隐私、算法偏差、合规、伦理等,因此,对AI技术使用的治理需要多层面的行动.“这不仅仅是在IT层面或项目层面,”塔塔咨询服务公司数据和分析主管KamleshMhashilkar说。他说,人工智能治理也发生在政府、董事会和首席安全官层面。例如,在医疗保健领域,人工智能模型必须通过严格的审计和检查。许多其他行业也有适用的法规。“在董事会层面,这关乎经济行为,”Mhashilkar说。“引入人工智能有什么风险?”至于高管,人工智能议程是有目的的。例如,CFO会考虑股东价值和盈利能力。首席信息官和首席数据官也是关键的利益相关者,当然,市场营销和合规负责人也是如此。更不用说客户和供应商了。在构建AI治理策略时,并非所有组织都需要在各个方面采取行动。尽管如此,所有企业都在或即将使用人工智能和相关技术,即使这些技术仅嵌入到他们使用的第三方工具和服务中。当AI在没有适当监督的情况下使用时,它有可能犯下损害业务运营、侵犯隐私权、违反行业法规或给企业带来不良声誉的错误。以下是具有前瞻性思维的公司如何开始解决AI治理问题,因为他们将AI项目从试点扩展到实际使用,重点关注数据质量、算法性能、合规性和道德规范。人工智能的伦理问题如今,很少有领域比面部识别更充满伦理问题。面部识别被滥用的可能性很高,提供面部识别技术的企业面临着公众的抵制,在某些情况下还面临着他们自己员工的抵制。PatriotOneTechnologies的子公司XtractAI就是这种情况,它使用图像识别来识别携带武器的人。Xtract运营副总裁贾斯汀·格拉内克(JustinGranek)表示,该技术还可以用于其他情况,例如识别未戴口罩或遵守社交距离准则的人。他说:“道德是一个重要话题。对我们来说,很多事情都是自下而上的。我们的员工在说,‘我们在做什么?’并且正在推动领导层制定我们的治理政策,”他说。“客户有自己的一套要求,我们必须找到平衡点。我们的一个客户是加拿大国防部,一些客户来自医疗保健行业.他们会从不同的角度看问题。他说,最大的问题是要为哪些客户工作,以及技术应该做什么样的工作。这涉及对企业使命做出重大决策。还有技术问题需要解决,这一切都从数据开始。获取正确的数据算法中最大的偏差来源是数据集。例如,对于面部识别,数据集并不能很好地代表一般人群。“他们偏向于白人男性,”XtractAI运营副总裁JustinGranek说。我们正在纠正,但仍有许多工作要做。“专家可以帮助解决数据偏差,商业数据提供商正在努力填补他们提供的数据中的空白。还有创建合成数据集的方法,但解决方案通常归结为获得更好的数据,”Granek说。对于Xtract美国的检测算法来说,这意味着要设立实验室,放置各种退役枪支,让很多人拿着枪走来走去,以不同的方式,在不同的地方。他说:“一种天真的最好的方法是寻找好莱坞大片中人们持枪行走的照片,但这并不代表全部。相反,Xtract尽最大努力收集与训练数据一样多的个人信息。”没有规定谁可以携带武器,”格拉内克说。有一些学生,有一些年长的人,我们有很多不同的人。“对于一些人工智能应用程序,准确、有代表性的数据集决定了生存与否。道德和伦理的影响。但即使不良数据集的影响不会造成问题,它们仍然会给企业带来运营问题。要么造成经济损失,要么导致监管和合规问题。全球最大的建筑材料分销商,总部位于墨西哥的Cemex非常关注后一个问题。这家公司已有100多年的历史,是通过在供应链管理和运营中运用人工智能来重塑自我。大约三年前,Cemex开始研究人工智能及相关技术,以扩大市场份额、改善客户服务并增加利润。该公司首席人工智能官Nir??Kaldero表示:“去年和今年,我们实际上在全球范围内看到了AI的价值——而不仅仅是某个地方的小试点。他说,由于AI已经牢牢嵌入到企业的DNA中,Cemex意识到有必要围绕AI建立治理结构。这一切都始于数据。“没有好的信息架构,就没有好的、可靠的信息架构,”Kaldero说。人工智能。没有好的信息,就不可能有好的、可靠的模型。“在Cemex,数据治理涉及安全、监控、隐私、合规和道德。公司需要知道数据的位置、使用地点和方式,是否符合监管要求,并且没有偏见。Cemex依赖于雪花数据,”卡尔德罗说。平台管理数据,Satori管理访问权限,一名高管专门负责数据,另一名高管领导治理团队管理治理。建立正确的模型智能模型和结果的治理。“这是新的,”卡尔德罗说。不仅仅是为了Cemex,而是为了整个世界。该任务由Kaldero的AI和数据科学小组与CIO小组共同承担。Cemex目前使用AI来预测零件需求,因此它可以通过与供应商达成更好的交易来节省资金。该公司还使用人工智能来安排和调度卡车,以及销售和定价。如果这些计算有任何错误,公司将蒙受巨大损失。因此,为了防止模型漂移和算法偏差,Cemex使用了AlgorithmiaInc.的SeattleTechnology。KenSci是另一家关注AI模型下游后果的公司。这家总部位于西雅图的公司使用AI来分析医疗保健数据,在这个领域,准确的AI模型实际上可以决定生死。该公司的首席数据科学家MuhammadAurangzebAhmad说:具有代表性和多样化的利益相关方。“为了确保这些模型透明和负责,核心组件包括可解释性。我们甚至发布了一个开源Python包fairMLHealth,任何人都可以使用它来衡量机器学习模型的公平性,”他说。艾哈迈德还建议检查不同群体的AI模型的性能,以确保其他弱势群体他说:“人工智能模型的透明度和可解释性使它们更容易被最终用户使用和信任。”而且更容易得到检查,如果需要的话,更容易纠正。制定治理策略时要考虑的另一个关键领域是人工智能使用的伦理。艾哈迈德说,立法没有跟上技术的步伐。机器学习系统的创造者有责任结合伦理目标来衡量系统的价值。当谈到权衡时,我们应该当心。”数字服务咨询公司Nerdery的首席技术官JoeTobolski认为,企业越来越意识到人工智能可能带来道德和道德风险。他说:“他们是否充分了解自己运行的是什么系统,以及隐藏在背后的训练数据他们?什么?可能不会。“很少有公司为其人工智能项目、数据源和技术的使用采用明确的人工智能道德规范。”这就是我希望看到我们做的——拥有一个强大的、规范的框架来规避这些问题。Cemex是一家有意限制人工智能的使用以尽量减少可能的道德问题的公司。例如,Kaldero说,公司将优先考虑改善服务和帮助客户的项目,而不是那些简单地减少员工数量的项目。“业务的核心是人,而不是技术,”他说。我们可以使我们所有的客户呼叫中心自动化,但这不符合我们的利益。Cemex很自豪能成为一家为人们提供就业机会的雇主。将其纳入我们的企业使命真是太好了。“选择AI项目是为了对劳动力产生积极影响。以安全为例。这对AI来说是一个巨大的第一次,”Kaldero说。Cemex已将事故大大减少到几乎为零。完全归零的方法是通过图像识别。“AI治理策略对于位于马萨诸塞州斯普林菲尔德的人寿保险公司MassMutual而言,AI治理基于一套不断发展的数据伦理原则,这些原则指导行动和决策。西尔斯梅里特公司的数据、战略和架构负责人表示:“我们制定了一套专门用于利用人工智能发展业务的原则,使企业价值观与保单持有人的利益保持一致。我们MassMutual还成立了一个部门,通过建立政策框架来监督人工智能的使用。大约一年前,MassMutual开始研究人工智能伦理和治理,当时该公司意识到需要证明并确保人工智能的使用符合保单持有人的利益。Merritt现在负责监督一个六人部门,其中包括AI伦理和治理顾问,他们跟踪算法是否遵循治理原则以及它们如何随时间变化,为公司已经遵循的方法建立正式结构。“我们相信我们的所作所为会对所有相关方产生巨大影响,”梅里特说。他建议从符合企业价值观和客户利益的核心原则入手,与法律、合规、道德和商业方面的合作伙伴合作,并坚持执行。他表示,MassMutual的下一步计划是将其框架推广为行业最佳实践。护栏的重要性BoozAllenHamilton高级副总裁JohnLarson表示,我们应该熟悉许多AI治理的最佳实践。他说:“我从事这个行业已经25年了,开发软件和算法的原则以前就有了,缺少的是数据的速度、处理能力和学习算法。”人工智能系统对训练数据的需求非常大。使用的数据集通常比以往任何时候都大,而且由于当今企业的数字化,数据正以前所未有的速度从网站、网络传感器、物联网设备和其他来源传入。处理这些数据的能力也比以往任何时候都高得多,这在很大程度上要归功于几乎可以无限扩展的云资源。最后,一些AI系统的反馈性质意味着它们实际上是通过自己做来学习的,这种学习可以比人类反应更快地将它们带到意想不到的方向。“25年前的治理模式——原则是相同的,但它们并不完全适合我们面临的挑战,”拉森说,并补充说解决方案是在人工智能系统中建立自动化保护措施。例如,开发人员可以设置护栏。如果模型的预测准确性偏离预期目标,或者如果模型在设计参数范围内停止运行,则可能需要某种形式的干预。同样,如果进入系统的数据不再反映所需的特征,则可能会发出警报,要求重新评估数据源,或者选择更适合传入数据的不同模型。人工智能系统也可以通过其他方式进行监控。例如,在问题导致监管罚款或公共关系灾难之前帮助发现问题。“已经开发了一些工具——谷歌有,微软也有——来评估一个模型是否对某些东西有偏见,”拉尔森说。“在博思艾伦,我们也在开发其中一些工具包,并试图为数据科学家提供这些工具。”