随着AI连续身体的持续改进,该领域的某些元素不断受到合理的防御的指责。原始旨在帮助人类进行更公平和透明的呼叫(AI),逐渐显示出偏见和有缺陷的决策迹象。但是,不应将其归咎于技术,因为定义部门不足以提取和上下文技术 - 我将在讨论之后详细介绍此问题。
谈论长言;AI的偏见以最简单的形式涉及相关算法的异常输出。此外,与AI环境有关的决策的任何影响都可能导致偏见。不像人类的决策 - 制定,偏见和预先确定的概念和意见是同义的。人工智能偏见通常更为有针对性,但具有相似的起点!
作为读者,您必须了解AI设置是由人类构想的,因此仍然很容易拥有隐藏甚至明显的偏见。这些偏见来自人类的思想。专业和社会倾向渗透到这些环境中将导致多个发展阶段的偏见。
在设计决策算法和AI模型时,一个更精细的解释是偏见的假设。此外,根据人工智能模型诞生的心理学家的说法,有180多个偏见可能最终会影响决策,并将人工智能作为定义技术作为定义技术。
首先,当不包括设计时,AI中的算法偏差通常会出现。由于没有性别甚至种族等受保护的类别,该模型没有足够的时间清楚地做出决定。对受保护的方面可能会返回失败的见解(例如地理和人口统计)的不成功结果。
AI偏见的另一个原因是,培训特定模型的数据集更少。模型已经接受了与男性工作空间有关的培训,性别偏见似乎是最合乎逻辑的偏见。
语言偏见也很普遍,它吸引了大多数设置的注意力。与诸如Google翻译等翻译平台相关的NLP算法因生成特定的特定翻译术语而受到批评。
无论是什么原因,模型的训练方法都确保了偏差的程度或性质。此外,一些数据科学家甚至最终可能排除特定条目,缺乏抽样甚至抽样,从而通过非生产造成偏差。
当培训数据不足或不使用足够的随机级别选择时,这种偏见的形式会传播。一个很好的例子是一份研究报告,该报告使用三张图像来识别人工智能产品来对非洲和欧洲国家的1,200多名成员进行分类。揭示了男性的更好和准确的反应,然后是更公平的女性。对于更深层次的肤色,只有66%的精度才能达到,这揭示了偏差的重要性。
该报告的偏差通常是未经训练,不准确或不准确的模型的结果,数据集几乎不可能反映现实。此外,大多数显示报告偏差的模型都由数据科学家构想。。他们希望通过降低相同的历史假设和较小的样本空间来为特定地区带来不良声誉。
如果没有完美和严格的个人推论,就不应将数据科学家应用于AI模型中,否则您可能会遇到隐藏的偏见。
这是一种导致易感AI模型的偏见。数据依靠普遍的外部推动定律而不是随机样本最终会混合这种形式的偏见。
典型的AI模型仍然可以帮助公司实现其需求,但是在一些更敏感的领域,例如医疗,刑事司法和金融服务,偏见已成为一个更加紧迫的问题。
因此,消除偏见变得越来越重要,因为您需要在整个种族,年龄和性别范围内准确的AI工具。尽管AI法规仅为认证供应商铺平道路,但在一定程度上可能会在一定程度上有益于最小化的方面。偏见,但减少偏见需要一种更具针对性的方法,包括:
如果您打算设计AI模型,最好将人类的判断排除在范围之外。遵循公差方法是必要的,培训应包括与您将要使用的行业相关的大型样本。
AI模型变得越来越聪明。但是,如果您打算将其引入特定行业,则必须依靠决策背景,而不仅仅是前提。
在任何情况下,AI模型仍应分为子组以改善索引聚合。此外,进行压力测试以打开复杂案例更容易。在短时间内,需要在多个阶段进行详细测试以确保减少。
如果您打算开发人工智能工具,则必须对收藏,采样和预处理数据进行相同的关注。这对于组织歧视相关性也是必要的,这进一步扩大了准确性的范围。
除了这些过程外,有必要进一步促进人类的决策 - 因为它们中的大多数是人工智能的先驱,并显示出许多差异。在本文中,消除偏见的最佳建议是了解AI模型如何预测和做出决策。从根本上提高AI模型的解释性。
尽管每个特定行业的资源中都存在AI偏见,但他们仍然依靠负责任的做法来确保更多公平的模型和算法。此外,人工智能背后的组织不断鼓励审计和评估以进一步提高决策质量。