当前位置: 首页 > 科技观察

新的欧洲AI法案将加强伦理审查

时间:2023-03-18 18:00:22 科技观察

AI伦理问题,如偏见、透明度和可解释性变得越来越重要,因为欧盟正在实施一项有效的AI法案规范人工智能和机器学习技术在所有领域的使用行业。人工智能专家表示,现在是人工智能用户熟悉伦理概念的好时机。欧洲最新版本的《人工智能法案》已于去年推出,目前正在快速通过审查程序,最早可能在2023年实施。虽然法律仍在制定中,但欧盟委员会似乎已准备好在这方面取得重大进展调节人工智能。例如,法律将对人工智能系统的使用提出新的要求,并完全禁止某些用例。所谓的高风险人工智能系统,例如用于自动驾驶汽车和教育、移民和就业决策支持系统的系统,将要求用户对人工智能应用进行影响评估和审计。某些AI用例将在数据库中进行密切跟踪,而其他用例则需要外部审计员的签字才能使用。位于宾夕法尼亚州纽敦的软件工程公司EPAMSystems的数据分析咨询总监NickCarrel表示,作为MLOps业务或数据科学咨询业务的一部分,对不可解释性和可解释性的需求都很高。他说,欧盟的人工智能法案也在推动公司寻求有关道德人工智能的见解和答案。“现在对所谓的MLOps有很多需求,这是操作机器学习模型的科学。我们真的认为道德人工智能是该过程的关键基础之一,”卡雷尔说。“我们的客户也提出了更多要求……因为他们了解将于今年年底生效的有关人工智能系统的欧盟立法,他们希望做好准备。”不可解释性和可解释性是独立但相关的概念。模型的可解释性是指人类可以在多大程度上理解和预测模型将做出的决定,而可解释性是指准确描述模型实际工作方式的能力。EPAMSystems数据科学和机器学习部门的负责人AndreyDerevyanka说,你可以有一个没有另一个。“想象一下你正在做一些实验,也许是一些混合两种液体的化学实验。这个实验是可以解释的,因为你看到你在这里做了什么。你拿一个项目,添加另一个项目,我们得到了结果,”Derevyanka说。“但要让这个实验可以解释,你需要了解化学,你需要知道反应是如何产生的,它是如何工作的,你需要知道这个过程的内部细节。”Derevyanka说,特别是深度学习模型可以解释但没有具体情况。“你有一个黑匣子,它以某种方式工作,但你知道你不知道里面是什么,”他说。“但你可以解释:如果你提供这个输入,你就会得到这个输出。”消除偏见偏见是道德人工智能的另一个重要话题。EPAMSystems数据和人工智能实践主管UmitCakmak表示,不可能完全消除数据中的偏见,但组织努力消除人工智能模型中的偏见很重要。“这些事情必须随着时间的推移进行分析,”Cakmak说。“这是一个过程,因为偏见已经融入历史数据中。没有办法清除数据中的偏见。因此,作为企业,您必须制定一些特定的流程,以便您的决策随着时间的推移变得更好,这将随着时间的推移提高数据质量,因此随着时间的推移你会减少偏见。”欧盟的AI法案将按风险对AI的使用进行分类对于利益相关者,包括内部或外部审计师,以及将其声誉置于风险之中的客户和高管,要相信AI模型不会基于偏见做出错误的决定,这一点很重要数据。Cakmak说,文献中充满了数据偏差泄露到自动决策系统的例子,包括用于评估员工绩效或从简历中挑选求职者的模型中的种族偏见。能够显示模型如何得出结论对于表明已采取措施消除模型中的数据偏差非常重要。Cakmak回忆起缺乏可解释性如何导致一家医疗保健公司放弃其正在开发的用于癌症诊断的人工智能系统。“人工智能在某种程度上起到了作用,但后来该项目被取消了,因为他们无法建立对算法的信任和信心,”他说。“如果你不能解释为什么会这样,那么你就不能继续治疗。”EPAMSystems帮助公司以可信的方式实施人工智能。该公司通常遵循一套特定的指导方针,从如何收集数据开始,到如何准备机器学习模型,再到如何验证和解释模型。Cakmak说,确保AI团队成功通过并记录这些检查或“质量门”是道德AI的重要组成部分。伦理与AI法案波士顿咨询集团全球GAMMA首席AI伦理官StevenMills表示,规模最大、运营最好的公司已经认识到需要负责任的AI。然而,随着AI法案越来越接近于成为法律,我们将看到世界各地越来越多的公司加速其负责任的AI项目,以确保它们不会与不断变化的监管环境和新期望发生冲突。“有很多公司已经开始实施人工智能,并意识到我们对所有潜在的意外后果并不像我们希望的那样充满希望,我们需要尽快解决这个问题,”米尔斯说.“这是最重要的事情。人们不会觉得他们只是武断以及他们如何应用它。”以合乎道德的方式实施AI的压力来自组织的高层。在某些情况下,来自外部投资者,他们不希望自己的投资风险因以不良方式使用AI而受到损害,Mills说。“我们看到了一种趋势,即投资者,无论是上市公司还是风险基金,都希望确保人工智能的构建是负责任的,”他说。“这可能并不明显。每个人都有可能。这并不明显。但在幕后,一些这些风险投资公司正在考虑他们把钱投在哪里,以确保这些初创公司以正确的方式做事。”Carrel说,虽然目前细节还很模糊,但该法律有可能澄清人工智能的使用,这对公司和消费者都有好处。“我的第一反应是它会非常严格,”Carrel说,他是在加入EPAMSystems之前,他在金融服务行业实施了机器学习模型。“多年来,我一直在努力突破金融服务决策的界限,突然间,一项立法将扰乱我们的工作做。但他越看未决的法律,他就越喜欢他所看到的。”我认为这也会逐渐增加公众对在不同行业使用人工智能的信心,”卡雷尔说。“立法规定你必须在欧盟注册高风险人工智能系统意味着你知道某个地方会有一个非常明确的清单,列出每个正在使用的人工智能高风险系统。这给了审计人员很大的权力,意味着顽皮的男孩和不良玩家将逐渐受到惩罚,希望随着时间的推移,我们将有更多的权力给那些想要使用人工智能和机器学习的人为了更好的事业人们离开最佳实践——负责任的方式。”