当前位置: 首页 > 科技观察

如何以公平的方式阻止AI偏见

时间:2023-03-17 22:59:32 科技观察

人工智能(AI)具有彻底改变业务运营的巨大潜力。事实上,根据一项研究,67%的企业预计AI和机器学习用例在来年会增加。这些技术在提高业务效率、产生洞察力、增强市场竞争力和提供个性化客户体验方面具有优势。然而,在高度监管的行业中,企业面临着与AI可解释性相关的特殊挑战。金融服务、保险和医疗保健等行业必须使用透明、可审计的决策平台来遵守严格的法规和合规标准。今天,有许多AI解决方案可以自动化业务流程和决策,但很少有提供有意义的解释。尽管充满潜力,但企业绝不能忽视自动化决策和预测背后的原因。为未来的法规做好准备如今,政治组织和社会都在呼吁提高AI的透明度。此外,政府和消费者希望更深入地了解其信贷和贷款审批、营销活动和智能家居技术背后的算法。美国算法责任法案和全球欧盟AI法中的拟议立法旨在为安全、道德和透明的AI结果建立标准。然而,由于用例仍在不断发展和涌现,政府才刚刚开始寻找加强人工智能监管的方法。例如,纽约市议会通过了一项针对就业工具中使用的人工智能算法的法案。该法律将于2023年生效,要求雇主聘请独立审计师对其进行评估,并使用人工智能工具对求职者和现有员工进行评估。法律要求对用于筛选求职者或晋升员工的人工智能工具进行偏见审计。对于有偏见的AI算法或在未事先通知员工和候选人的情况下使用此类工具,将处以最高1,500美元的罚款。短期内,随着法规的出现和标准的发展,企业应关注提高透明度的方法并为未来的法规做好准备。利用机器学习的挑战之一是,根据定义,它是建立在偏见之上的。虽然并非所有的偏见都是有害的,但当它产生对性别、种族、年龄等受保护阶层有利或不利的结果,并对一个人产生负面影响时,如临床试验的批准、健康管理、贷款等,它就可以成为资格或信用批准时不利。众所周知,保护算法和防止有害偏见的必要性。但有效消除有害偏见需要了解每个决定或预测背后的数据。对于关键级别的透明度,企业必须了解由机器学习和业务规则组成的算法,这些算法推动决策制定以提供完整的审计跟踪。例如,使用AI进行理赔审批的保险公司必须能够清楚地解释做出每个决定的原因。“黑匣子”问题如何给AI创新带来负担借助AI,许多企业都面临这样的问题,即他们的AI解决方案提供预测并支持自动化,但无法解释为什么做出某个决定以及影响结果的因素,使企业面临风险重大的法律或名誉损失。企业需要能够清楚地看到结果背后的原因,以确保算法决策返回预期结果。将AI的黑匣子变成一个透明、可解释的“玻璃盒子”对于防止对客户和消费者造成伤害以及降低公司和品牌的风险至关重要。本质上,机器学习根据历史数据进行预测。“Fairnessthroughawareness”指的是一种方法,允许企业通过使用元数据字段来确定模型是否对具有共享特征的群体同样表现良好,即使该特征没有直接用于模型中。这种意识有助于企业在有害偏见导致不公平或有害决策之前避免、量化和减轻有害偏见。企业人工智能未来的清晰愿景随着人工智能在整个企业中的采用不断增长,企业必须寻求人工智能的透明度和可审计性,以确保结果没有有害偏见。只有当我们优先考虑并实施可解释、透明的AI解决方案时,我们才能减少有害偏见、降低风险并促进信任。