人工智能和机器学习等自动化和机器技术的显着发展,无疑为以色列组织带来了全新的规模和服务水平。我们可能都期望人工智能的优势之一是有机会消除人类主导的偏见并改善对少数群体的歧视。然而,如果管理不善,人工智能可以通过在其算法中嵌入偏见来进一步加强歧视。今天,机器通常会决定我们是否有资格获得抵押贷款,或者受到寻求打击欺诈的执法机构或保险公司的监控。他们的影响力甚至延伸到决定您在网上看到哪些广告——包括高薪工作的招聘广告。在许多组织中,自动化系统中的AI没有得到很好的记录或理解。是时候让自动化决策走出阴影并承担责任了。当自动化决策直接或间接影响人们的生活,当机器可能以有害的方式进行歧视时,组织必须站出来注意并采取行动,以确保人工智能的实施尽可能合乎道德。第一步企业和政府组织都应该努力从他们部署的任何机器技术中获得最高级别的保护。在任何自动化项目开始时,组织必须进行法律、隐私和道德影响评估,以确认风险已被充分理解并且可以得到令人满意的缓解。这也确保选择最合适的解决方案来建立可接受的风险水平,同时交付价值。这些评估的签署应由多学科、客观的审查团队进行,该审查团队对项目的任何有问题的方面拥有否决权,包括部署模式、自动化水平和追索机会。部署必须是数据/技术团队和业务领导团队之间的协作过程,以在数据和分析中实施最佳实践道德规范。DeploymentOmbudsman报告中概述了一些关于机器技术设计和实施良好实践的强烈建议。尽管如此,我们认为所有组织都有义务至少考虑以下最佳实践:公平、透明、非恶意、隐私、尊重自治和问责制的道德考虑要求任何实施任何受影响群体的组织都执行最高精度;有一种机制可以根据模型或系统的输出来解释任何决定;有一个检测和减轻有害结果的过程;人们可以在知情的情况下同意参与该过程;有一种机制可以质疑任何被认为不公平的结果。任何机器技术的开发和部署都应该是迭代的,从对历史数据的准确性进行道德审查开始,确保样本群体的性能一致。如果某些群体的表现明显更差,则必须寻求更多数据以确保所有群体都有充分的代表性。当识别出有害后果的风险时,部署应该以类似的方式迭代和谨慎,从人在环解决方案开始,以确保人为监督,同时获得对模型或系统性能的信心。这并不是说人类的决策过程是万无一失的。它只是提供了一个在部署之前理解和询问输出的机会。这个过程应该由最值得信赖的操作员来完成,以减少人为偏见重新引入过程的机会。此外,参与该过程的每个人都应该接受无意识偏见培训。一旦投入生产,就必须持续测量和监控任何机器技术的持续准确性和性能。与现有的KPI一起,这种绩效应该在整个组织内报告和可见。审查任何实施算法决策的组织都需要一个客观的道德审查过程,其中包括定量和定性的考虑。应根据这些道德指标监控模型性能,以了解少数群体的性能异常以及性能随时间的任何变化。然后,作为操作过程的一部分,可以不断调整和调整模型。虽然实施起来似乎令人望而生畏,但组织必须在其AI和机器学习项目中提高对道德考虑因素的理解和实施。企业应采用“问题-审查-措施-改进”的方法来管理其自动化决策的绩效和影响,以确保符合道德规范的结果。
