当前位置: 首页 > 科技赋能

AI算法透明度早已捉襟见肘,算法问责才是最佳解决方案

时间:2024-05-22 19:07:38 科技赋能

虽然人工智能一度被誉为开启经济繁荣新时代的关键,但政策制定者现在面临着一波又一波的相关问题。

呼吁确保人工智能公平、道德和安全。

纽约市市长白思豪最近宣布成立美国第一个工作组,以监控和评估算法的使用情况。

几天后,欧盟制定了全面的新数据保护规则,要求公司向消费者解释所有自动决策。

埃隆·马斯克等备受瞩目的批评者呼吁政策制定者采取更多措施来监管人工智能。

不幸的是,两个最流行的想法——要求公司披露算法源代码并解释他们如何做出决策以及规范商业模式和内部运营——弊大于利,并且无法让这些公司对结果负责。

第一个想法——“算法透明度”——要求公司披露其人工智能系统中使用的源代码和数据。

除了过于简单化之外,这个想法没有作为基础广泛的解决方案的优点。

许多人工智能系统过于复杂,仅通过查看源代码无法完全理解。

一些人工智能系统依赖于数百万个数据点和数千行代码,决策模型在遇到新数据时会随着时间的推移而改变。

即使是最积极、最有资源的监管机构或最关心的公民也能够发现系统开发人员可能无法做到的所有潜在违法行为,这是不现实的。

此外,并非所有公司都有开源商业模式。

要求他们披露源代码将降低他们投资开发新算法的动力,这将允许竞争对手复制它们。

中国与美国激烈争夺人工智能主导地位,中国的不良行为者经常藐视知识产权,并可能利用透明度要求窃取源代码。

另一个想法——“算法可解释性”——要求公司向消费者解释他们的算法如何做出决策。

该提案的问题在于,人工智能系统的可解释性和准确性之间往往不可避免地存在权衡。

算法的准确性通常随其复杂程度而变化,因此算法越复杂,解释起来就越困难。

虽然随着可解释人工智能研究的成熟,这种情况未来可能会发生变化,DARPA 在 2016 年投资了 10,000 美元来解决这个问题,但目前,对可解释性的要求将以牺牲准确性为代价。

成本。

这是非常危险的。

例如,对于自动驾驶汽车来说,能够解释事故更重要,还是避免事故更重要?很少有解释比准确性更重要的情况。

政策制定者不应要求公司披露其源代码或限制其可以使用的算法类型,而应坚持算法问责制——算法系统应采用各种控制措施来确保运营商(即负责部署算法的一方) )可以验证其是否按预期运行,并识别和纠正有害后果的原则。

围绕算法问责制建立的政策框架将有几个重要的好处。

首先,这将使运营商(而不是开发人员)对其算法可能造成的任何损害负责。

运营商对算法如何影响社会具有最大的影响力,他们已经必须遵守旨在确保他们的决策不会造成伤害的各种法律。

例如,雇主在招聘时必须遵守反歧视法,无论他们是否使用算法来做出这些决定。

其次,让操作员对结果而不是算法的内部运作负责,使他们能够专注于确保算法不会造成伤害的最佳方法,例如信心措施、影响评估或程序纪律。

例如,大学可以在部署人工智能系统之前进行影响评估,以预测哪些学生可能会辍学,以确保其有效和公平。

与透明度或可解释性要求不同,这将使大学能够有效地识别任何潜在的缺陷,而无需禁止使用复杂的专有算法。

这并不是说透明度和可解释性没有它们的地位。

例如,透明度要求对于刑事司法系统中的风险评估算法有意义。

毕竟,要求司法系统接受最高程度的审查符合公众的长期利益,即使这种透明度可能无法解释先进的机器学习系统是如何运作的。

同样,《平等信贷机会法》等法律要求公司在拒绝信贷之前向消费者提供充分的解释。

无论企业是否使用人工智能来做决策,消费者仍然有权获得这些解释。

关于如何确保人工智能安全的争论忽视了对细致入微、有针对性的监管方法的需求,如果不考虑算法的许多缺点,就无法快速解决算法的透明度和可解释性问题。

想要减轻人工智能带来的潜在危害并没有错,但目前提出的解决方案过于简单化,过于宽泛的解决方案很大程度上是无效的,甚至可能弊大于利。

算法问责提供了一种更好的方法来确保组织负责任地使用人工智能,使其真正造福社会。