情绪识别技术(EmotionRecognitionTechnology)其实是一种利用人工智能从面部表情中检测情绪的新兴技术,也是一个数十亿美元的产业.然而,该技术背后的科学是有争议的,并且系统存在“偏见”。从食品到游戏等行业的公司都使用ERT来测试用户对其产品的反应。当然,它还可以用于其他场景,比如识别工作场所人员的情绪、机场安检或边防人员维持秩序,还可以监督学生做作业。想想也是好的。然而,面部识别技术因其隐私和歧视问题而受到公众关注。近日在Netflix上映的获奖影片《Coded Bias》记录了很多人脸识别技术无法准确检测出深色皮肤人脸的发现。管理用于视觉对象识别软件研究的大型可视化数据库ImageNet的团队最近也不得不对150万张图像进行模糊处理,以应对隐私问题。据透露,面部识别技术中的“算法偏见”和歧视性数据库导致包括微软、亚马逊和IBM在内的主要科技公司停止销售该技术。在英国警务中使用该技术也面临法律指控。在欧盟,一个由40多个民间社会组织组成的联盟呼吁禁止使用面部识别技术。与其他形式的面部识别一样,ERT也引发了关于偏见、隐私和大规模监管的问题。但是ERT出现了另一个问题,支撑它的情感科学是有争议的。大多数ERT系统都基于“基本情绪”理论,该理论认为情绪是与生俱来的,全世界的人都以相同的方式表达情绪。然而,该理论正慢慢变得站不住脚。人类学研究表明,不同的文化和社会以不同的方式表达情感。心理科学协会2019年对“基本情绪”理论证据的审查得出结论认为,人们普遍认为可以很容易地从面部表情推断出一个人的情绪是没有科学依据的。总之,ERT没有坚实可靠的科学理论基础。此外,ERT包含种族歧视代码。正在进行的研究表明,无论人的表情如何,系统都会认为黑色面孔比白色面孔更生气。在接受麻省理工科技评论采访时,人工智能研究员DeborahRaji表示,“这项技术可以通过两种方式‘伤害’人们,一种是当系统不起作用时,识别有色人种的错误率很高人们面临着巨大的风险;另一个是当它起作用时,该系统非常成熟,很容易被用作骚扰人们生活的工具。”所以即使面部识别技术可以消除偏见,它也非常准确,它可能不公平和公正。我们会看到很多不和谐,比如当面部识别技术被用于歧视性的警察部门和司法系统时会发生什么;当它们在不和谐的世界中有效运作时,它们也有可能是危险的。面部识别技术带来的挑战没有明确的答案。要解决ERT的问题,我们必须从抽象的理论转向生活中的实践。我们需要集体审视体制内颇具争议的情绪科学理论,剖析背后的种族主义,我们也需要扪心自问,即使ERT能够准确读懂每个人的内心感受,我们是否愿意在生活中被如此严密监控?这些都是需要大家认真思考、投入精力和行动的问题。
