当前位置: 首页 > 科技观察

人工智能的三大风险以及如何避免这些风险

时间:2023-03-20 20:42:11 科技观察

人工智能系统和人工智能项目在今天变得越来越普遍,因为企业利用这种新兴技术的力量来自动化决策并提高效率。如果企业正在实施大型人工智能项目,应该如何准备?以下是与AI相关的三个最重要的风险,以及如何预防和减轻它们。1.从隐私到安全人们关心自己的隐私,人脸识别人工智能在某些方面发展迅速,引发了对隐私和监控的伦理担忧。例如,该技术可以让企业在未经用户同意的情况下跟踪用户的行为甚至情绪。美国政府最近提出了一项“人工智能权利法案”,以防止人工智能技术造成与包括基本隐私权在内的核心价值观相悖的真正危害。IT领导者需要让用户知道正在收集哪些数据并征得用户同意。除此之外,对数据集进行适当的培训和实施对于防止数据泄露和潜在的安全漏洞至关重要。测试AI系统以确保它实现其目标而不会产生意外影响,例如允许黑客使用虚假的生物识别数据访问敏感信息。对人工智能系统实施监督可以使企业在必要时停止或撤消其行动。2.从不透明到透明许多使用机器学习的人工智能系统都是不透明的,这意味着它们是如何做出决定的并不清楚。例如,对抵押贷款数据的广泛研究表明,用于批准或拒绝贷款的预测性人工智能工具对少数族裔申请人的准确性较低。技术的不透明性侵犯了被拒申请人的“解释权”。当您的AI/ML工具为其用户做出重要决定时,您需要确保通知他们并完整解释做出该决定的原因。您的AI团队还应该能够追踪导致每个决策的关键因素并诊断过程中的任何错误。内部面向员工的文档和外部面向客户的文档应该解释AI系统如何以及为何以这种方式工作。3.从偏见到公平最近的一项研究表明,在有偏见的数据上训练的人工智能系统强化了歧视模式,从医学研究的招募不足到科学家的参与度较低,甚至少数民族患者参与研究的意愿较低。人们需要问自己:如果出现意想不到的结果,它会影响到谁或哪个群体?它是平等地影响所有用户,还是只影响特定群体?仔细查看历史数据以评估是否存在任何潜在偏差或减少偏差。一个经常被忽视的因素是公司开发团队的多样性,更多样化的团队往往会引入更公平的流程和结果。为避免意外伤害,组织需要确保来自AI/ML开发、产品、审计和治理团队的所有利益相关者充分理解指导组织AI项目的高级原则、价值观和控制计划。获得独立评估以确认所有项目都遵守这些原则和价值观。