当前位置: 首页 > 科技赋能

打开人工智能黑匣子,IBM推出云工具来检测人工智能偏见

时间:2024-05-22 11:29:41 科技赋能

IBM推出了一项软件服务,可以扫描人工智能系统的工作情况,以检测偏见并为正在做出的自动化决策提供解释,以在某种程度上,出于合规目的,透明度可能是必要的,而不仅仅是公司自身的尽职调查。

新的信任和透明度系统在IBM Cloud上运行,并与IBM各种流行的机器学习框架和AI构建环境构建的模型兼容,包括其自己的Watson技术,以及Tensorflow、SparkML、AWS SageMaker和AzureML。

该公司表示,该服务可以通过编程来根据特定的组织需求定制服务,以考虑“任何业务工作流程的独特决策因素”。

完全自动化的 SaaS 可以在运行时解释决策并检测人工智能模型中的偏差,这意味着它可以捕获“潜在的不公平结果发生时的情况”。

它还会自动建议添加到模型中的数据,以帮助减少已检测到的任何偏差。

对人工智能决策的解释包括显示哪些因素影响某个方向的决策、对建议的信心以及信心背后的因素。

IBM还表示,该软件记录了人工智能模型的准确性、性能和公平性,以及人工智能系统的谱系,这意味着它们可以“出于客户服务、监管或合规原因轻松跟踪和召回”。

作为合规方面的一个例子,欧盟的 GDPR 隐私框架引用了自动化决策,并包括人们有权获得算法在某些情况下如何工作的详细解释,这意味着企业可能需要能够审核他们的人工智能。

IBM AI Scanner 工具通过可视化仪表板提供自动化决策的细分,这是减少对“专家 AI 技能”依赖的一种方法。

不过,它还打算让自己的专业服务人员与企业合作开发新的软件服务。

因此,它既可以销售人工智能,又可以解决人工智能的缺陷,专家可以帮助解决企业试图修复人工智能时出现的任何问题。

这表明,虽然人工智能确实会消除一些工作,但自动化将忙于创造其他类型的工作。

IBM 也不是第一家发现人工智能偏见商业机会的专业服务公司。

几个月前,埃森哲推出了一款公平工具,用于识别和修复不公平的人工智能。

因此,随着多个行业大力推动自动化,建立和销售服务来解决因人工智能使用增加而出现的任何问题也显得相当重要。

事实上,鼓励更多企业对进入自动化更有信心。

(在这方面,IBM 援引其进行的研究发现,虽然 82% 的企业正在考虑部署人工智能,但 60% 的企业担心责任问题,63% 的企业缺乏自信地管理技术的内部人才。

IBM 表示,除了推出自己的付费人工智能审计工具外,其研究部门还将开放人工智能偏见检测和缓解工具包的采购,旨在鼓励“围绕解决人工智能偏见进行全球合作”。

IBM 认知解决方案高级副总裁 David Kenny 在一份声明中表示:“IBM 在建立信任和透明度原则以开发新的人工智能技术方面处于行业领先地位。

现在是将原则付诸实践的时候了。

” “我们正在为使用人工智能并因任何有缺陷的决策而面临最大潜在风险的企业提供新的透明度和控制力。