【.com快言】尽管在高度复杂的技术应用中存在人工智能偏见的困扰,但有一些方法可以识别和减轻特定行业采用的人工智能工具中的人工智能偏见。随着人工智能技术的广泛应用,其带来的一些问题也引起了人们的关注。人工智能最初旨在帮助人类做出更公平、更透明的决策,但逐渐显示出偏见和决策失误的迹象。但是这种情况不应该归咎于技术,因为是数据和场景的偏差导致了偏差。人工智能偏见是怎么回事?人工智能偏见通常涉及相关算法的异常输出。此外,任何影响AI设置决策的因素都可能导致偏差。与人类决策不同,人类决策偏见通常是预定义的概念和观点,而人工智能偏见通常更有针对性,但起点相似。众所周知,人工智能是由人类设计和构想的,因此它仍然容易出现来自人类的隐藏甚至明显的偏见。在AI开发的多个阶段,渗透到系统设置中的专业和社会倾向可能会导致偏见。更准确的解释是,人类在设计决策算法和人工智能模型时存在偏见。此外,根据对AI模型的调查,可能有180多种偏见最终会影响有关AI作为定义技术的决策。AI偏差的更明确原因首先,AI中的算法偏差通常发生在设计建立AI模型而不包括受保护类时。由于缺乏性别或种族等受保护类别,此类人工智能模型没有足够的时间做出明确的决定。此外,对于地理和人口统计数据等不受保护的见解,访问受保护的类别可能会返回不合格的结果。人工智能偏差的另一个原因是缺乏用于训练特定模型的数据集。例如,如果一家公司计划推出基于AI的员工招聘工具,则需要在单一数据集上对其进行建模和训练。如果人工智能模型已经接受过关于男性员工与工作相关的洞察力的训练,那么性别偏见似乎是最合乎逻辑的偏见形式。语言偏见也很普遍,引起了很多关注。与谷歌翻译等翻译平台相关的自然语言处理(NLP)算法在过去一直存在争议,因为它会生成针对特定性别的翻译,这些翻译通常会返回特定于男性的术语。不管是什么原因,人工智能模型的训练方式可以决定偏见的严重程度或性质。此外,一些数据科学家甚至可能最终排除特定条目,采样不足或过采样,导致AI因不平衡而产生偏差。不同类型的偏差(1)选择偏差当训练数据代表性不足或达到随机化水平时,就会出现这种形式的偏差。一个很好的例子是一项关于对人进行分类的研究,该研究使用三种识别图像的AI产品对来自非洲和欧洲国家的1,200多人进行了分类。研究表明,男性的识别效果更好、更准确,而女性则更公平。肤色较深的人只有66%准确,揭示了选择偏差的影响。(2)报告偏差报告偏差通常是未经训练、不准确或不精确的人工智能模型的结果,其数据集很少反映现实。此外,大多数显示报告偏差的模型都是由数据科学家构想的,他们希望通过不考虑相同的历史假设和小样本空间来定义某些特定区域。(3)隐性偏见数据科学家未经提炼和不严谨的个人推论不应该应用于人工智能模型,否则可能会遇到隐性偏见。(4)群体归因偏差这是一种特定类型的偏差,会导致出现有偏差的AI模型类型。依赖通用外推法而非随机抽样的数据科学家最终会将这种形式的偏差混入其中。您如何管理AI偏见?典型的AI模型仍然可以帮助企业实现预期目标,但在医疗保健、刑事司法和金融服务等一些更敏感的领域实施AI模型时,AI偏见成为一个更紧迫的问题。因此,随着人们要求采用跨种族、年龄和性别更准确的AI工具,消除AI中的偏见变得更加重要。虽然已经发布了一些与AI相关的法规,为认证AI供应商铺平了道路,并可能为最大限度地减少AI偏见提供一些帮助,但减少AI偏见需要更有针对性的方法,包括:(1)包容性设计如果企业要设计一个AI模型,最好将人类判断排除在范围之外。需要遵循包容性方法,培训人群应包括与将使用该工具的行业相关的大量样本。(2)场景检测AI模型越来越智能。但是,如果你打算把它引入到一个特定的行业,你必须要依靠场景来决定,而不仅仅是前提。(3)有针对性的测试是关键无论如何,AI模型仍应划分为子组以改进指标聚合。此外,执行压力测试以处理复杂情况的方式也变得更加容易。简而言之,需要跨多个阶段进行详细测试,以确保减少AI偏差。(4)利用综合数据训练模型如果企业打算开发人工智能工具,必须重视数据的收集、采样和预处理,还必须梳理人工智能偏差的相关性,这将进一步扩大范围的准确性。除了采取这些步骤之外,人类的决策还需要进一步推进,因为它们大多是人工智能的前身,表现出很多差异。最后,消除AI偏见的最佳建议是通过理解AI模型来预测和做出决策,从根本上提高AI模型的可解释性。结论虽然几乎每个行业特定领域都存在AI偏见,但仍然依赖负责任的做法来确保更公平的模型和算法。此外,采用人工智能技术的企业需要不断进行审计和评估,进一步提高决策质量。原标题:IsAIBiasanOpen-EndedIssuethatneedsanUnbiasedPerspective?,作者:AnandaBanerjee
