当前位置: 首页 > 科技观察

英国信息委员会警告:情感分析AI工具并不可靠有效

时间:2023-03-22 15:10:39 科技观察

英国信息委员会警告:用于情感分析的AI工具并不可靠和有效,并可能导致AI偏见和歧视。采用该技术的企业可能会面临数据监管机构的审查和监管,除非他们能够证明该技术有效。情绪分析技术获取许多生物特征数据点,包括注视跟踪、情绪分析、面部运动、步态分析、心跳、面部表情和皮肤水分含量等,并试图使用这些数据来确定或预测某人的情绪状态。根据英国信息委员会副信息专员斯蒂芬·邦纳的说法,问题在于没有证据表明这种方法确实有效,而且有很多证据表明它不可靠。这更有可能导致错误的结果,如果企业依赖采用情感分析的人工智能工具的结果,可能会造成伤害。他警告说,如果一家公司在其工作中使用情绪分析人工智能工具,调查门槛将“非常低”。“有时当新技术被推广时,人们会想,‘让我们拭目以待,让双方都明白’,而对于其他合法的生物识别技术,我们绝对会这样做。但在情感分析AI的情况下,没有合法的证据表明这项技术是可行的。我们将非常密切地关注这个问题,并愿意更快地采取有力行动。选择使用这项技术的人有责任向所有人证明这是值得的,因为无罪推定似乎根本没有科学依据,”他补充说。情绪分析人工智能在某些情况下可能很有用,但Bonner表示,有一些例子表明该技术已被应用或建议作为用例,包括通过提供可穿戴工具来监测员工的情绪和健康,以及使用各种数据点来记录和预测潜在的健康问题。然而,用于检测情绪线索的不成熟算法将导致系统性偏见、不准确和歧视的风险。该技术依赖于收集、存储和处理大量个人数据,包括潜意识行为或情绪反应。与用于验证或识别个人的传统生物识别技术相比,这种数据使用的风险要大得多。需要指出的是,英国信息委员会并未禁止使用此类技术,只是发出警告称,由于存在风险,实施此类技术的公司将受到审查。只要有明确的声明,用户就可以将其作为噱头或娱乐工具。“生物识别和推断结果的意图之间存在一些区别,”邦纳说。“我认为一个人的压力水平可以通过他们的声音来检测是有道理的。他说谎太过分了。我们不会禁止使用AI来判断谁看起来心烦意乱,但如果只是一些心烦意乱的人并没有推断他们正试图通过他们的生物识别技术进行诈骗,那就错了。“生物识别技术的跨行业影响生物识别技术预计将对各个行业产生重大影响,从金融服务公司通过面部识别验证人类身份,到使用语音识别而不是密码来访问服务。英国信息委员会正在与AdaLovelaceInstitute与英国青年委员会合作制定新的生物识别指南。该指南将“以人为本”,预计将于明年春季发布。AlanTuringInstitute的伦理研究员MhairiAitken博士欢迎英国信息理事会的警告,但他指出,审视这些系统的开发并确保开发人员采取合乎道德的方法并在需要时创建和使用工具也很重要。“开发技术或新应用程序的合乎道德的方法必须从谁可能开始成为受影响的社区并让他们参与流程,看看它是否真的适合部署环境。这个过程让我们有机会意识到我们可能没有预料到的任何危险。“情绪检测人工智能是一个真正的伤害风险艾特肯博士说,这种人工智能模型可能造成的伤害是巨大的,特别是对于那些可能不适合构建预测模型时开发的模型的人。她补充说:“这是一个非常复杂的领域开始思考我们如何能够将这样的事情自动化,并能够解释文化差异和情绪差异。Aitken博士指出,人工智能系统很难确定在不同情况下什么样的情绪反应是合适的。“我们表达的方式情绪是非常不同的,这取决于我们和谁在一起以及我们所处的环境。”此外,还需要考虑这些人工智能系统是否能够充分考虑人们表达情绪的方式。Bonner说,使用情绪化的方法并没有什么害处娱乐中的AI工具,但Aitken博士警告说,这个用例有其自身的风险,包括人们习惯于该技术并认为它确实有效。除非明确标记作为娱乐。Bonner补充说,在情感AI方面,问题在于数据点太多,个体之间存在差异,因此很难开发出理想的模型。这已记录在有关该技术的几篇研究论文中。证明。“如果有人说,‘我们已经解决了问题,我们可以做出准确的预测,’他们可能会创造奇迹,但我认为这不会发生。”